Equinix weitet seine Interconnection- und Rechenzentrumsdienstleistungen auf Hamburg aus

Equinix, Inc. (Nasdaq: EQIX), globaler Anbieter von Interconnection- und Rechenzentrumsdienstleistungen eröffnet in diesem Jahr sein erstes Rechenzentrum in Hamburg. Das hat das Unternehmen heute bekannt gegeben. Rund 36 Millionen US Dollar investiert Equinix in den Kauf sowie in den Um- und Ausbau des neuen Rechenzentrums „HH1“ am Vierenkamp, das voraussichtlich im dritten Quartal 2019 den Betrieb aufnehmen wird. Mit Hamburg erschließt Equinix bald den vierten Markt in Deutschland. Neben den Rechenzentren in Frankfurt, Düsseldorf und München wird HH1 das zehnte IBX-Rechenzentrum in Deutschland sein.

Hamburg wird eine wichtige Rolle für Equinix Geschäft in Deutschland einnehmen. Zu den strategischen Vorteilen des Standortes zählt zum Beispiel die geografische Nähe zur Nordsee, die neue Möglichkeiten für die Verbindung zu Landepunkte von Unterseekabeln bietet. Als wichtigstes Handels- und Geschäftszentrum Nordeuropas spielt Hamburg zudem eine große Rolle für die europäische und deutsche Wirtschaft. Tausende nationale und internationale Unternehmen sind in der Region ansässig und profitieren von den Verbindungsmöglichkeiten mit Unternehmen, Partnern, Netzwerk- und Cloud-Anbietern innerhalb der Equinix-Rechenzentren.

Highlights

  • HH1 wird das erste Equinix Rechenzentrum am neuen Hamburger Standort sein. Das Rechenzentrum wird über 12.000 Quadratmeter Whitespace und 1.875 Cabinets verfügen.
  • Das neue Rechenzentrum liegt geografisch günstig nahe der Nordsee und bietet so weitere Möglichkeiten für Zugänge zu Landepunkten von Unterseekabeln. In den vergangenen Jahren hat Equinix bereits mehr als 20 Unterseekabel-Landepunkte gewonnen.
  • 2015 verabschiedete der Hamburger Senat die Strategie „Digitale Stadt“, deren Ziel es ist, Hamburg bundes- und europaweit als führenden Digitalstandort zu etablieren. Im Rahmen der Strategie sollen Prozesse gebündelt und Strukturen geschaffen werden. Mit seiner Infrastruktur kann Equinix einen Beitrag für die Realisierung dieser Prozesse leisten.
  • Neben der Neueröffnung in Hamburg plant Equinix bis Ende 2019 weitere Investitionen in Deutschland. Erst im Oktober kündigte Equinix den Ausbau des Frankfurter Standortes an. Das Unternehmen hatte sich zuvor außerdem bereits verpflichtet, für die Geschäftsjahre 2018-2019 über 150 Millionen US Dollar in den organischen Ausbau seiner deutschen Rechenzentren zu investieren.
  • Mehr als 900 Unternehmen nutzen die Rechenzentren von Equinix in Deutschland, um sich mit Partnern, Kunden und Serviceanbietern innerhalb ihrer digitalen Wertschöpfungskette zu verbinden.
  • Heute betreibt Equinix mehr als 200 IBX-Rechenzentren in 52 Märkten und bietet seinen Kunden somit zahlreiche Möglichkeiten, sich mit anderen Unternehmen auf der ganzen Welt über die Platform Equinix zu verbinden.

Zitate

  • Donald Badoux, Managing Director Equinix Deutschland GmbH

„Als Hafen- und Handelsstadt war Hamburg schon immer bekannt als Deutschlands ‚Tor zur Welt‘. Mit Hilfe unserer Interconnection- und Colocation-Services tragen wir bald dazu bei, dass dies auch für die digitale Welt gilt. Die Expansion nach Hamburg war für uns der nächste logische Schritt in Deutschland. Mit unseren Standorten in München, Düsseldorf Frankfurt und jetzt auch Hamburg können wir dem rasch wachsenden Bedarf nach Interconnection-Services flächendeckend nachkommen.“

  • Björn Böttcher, Senior Analyst Crisp Research

„Hamburg spielt in der digitalen Entwicklung Deutschlands eine entscheidende Rolle. Mit seinen vielen Forschungsinstituten, dem Hafen und einem sehr starken Footprint im Bereich E-Commerce, Medien, Onlinemarketing und Games bringt Hamburg viel Potential mit, auch in einer digitalen Welt erfolgreich bestehen zu können. Projekte wie der smartPort zeigen zudem, dass Investitionen in zukünftige Technologiefelder wie IoT und Cloud Computing steigen. Die Innovationskraft wird auch durch eine lebendige Startup-Szene getragen und Erfolgsgeschichten wie Jimdo, CoreMedia, Xing und MyTaxi zeigen das hohe Engagement und Potential der Stadt.“

Vorausschauende Aussagen

Diese Pressemitteilung enthält zukunftsbezogene Aussagen, die auf den gegenwärtigen Erwartungen, Prognosen und Annahmen basieren und gewisse Risiken und Unsicherheiten einschließen, aufgrund derer tatsächliche Ergebnisse maßgeblich von den Darstellungen der zukunftsbezogenen Aussagen abweichen können. Zu den Faktoren, die zu Abweichungen führen können, zählen insbesondere, aber nicht ausschließlich: die Herausforderungen beim Erwerb, Betrieb und Bau von IBX-Zentren sowie der Entwicklung, Bereitstellung und Lieferung von Equinix-Services; unvorhergesehene Kosten oder Schwierigkeiten bei der Integration von Rechenzentren oder Unternehmen, die Equinix akquiriert hat oder akquirieren möchte; das Nichtzustandekommen signifikanter Umsätze durch Kunden in kürzlich erbauten oder erworbenen Rechenzentren; ein fehlender Abschluss von Finanzierungsvereinbarungen im beabsichtigten Zeitrahmen; der Wettbewerb mit bestehenden und neuen Wettbewerbern; die Fähigkeit, einen ausreichenden Cashflow zu generieren oder anderweitig Mittel zu erhalten, um neue oder ausstehende Verbindlichkeiten zu zahlen; der Verlust oder der Rückgang der Geschäfte mit unseren Großkunden; andere Risiken, die in den jeweiligen Meldungen von Equinix an die Securities and Exchange Commission beschrieben werden. Informationen stellen insbesondere die aktuellen Quartals- und Jahresberichte von Equinix zur Verfügung, die bei der Securities and Exchange Commission eingereicht wurden und deren Kopien auf Anfrage bei Equinix erhältlich sind. Equinix übernimmt keine Verpflichtung, die in dieser Pressemitteilung enthaltenen zukunftsbezogenen Informationen zu aktualisieren.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Advantech-DLoG wird Advantech Service-IoT GmbH und baut Lösungsportfolio aus

In dem Maße, wie sich Märkte und Technologien entwickeln, müssen sich auch Unternehmen entwickeln, um mit den Änderungen und Anforderungen Schritt zu halten. Mit der Namensänderung in Advantech Service-IoT GmbH bekennt sich deshalb das als Advantech-DLoG bzw. DLoG GmbH bekannte Unternehmen ab dem 1. Januar 2019 nicht nur vollständig zum taiwanesischen Mutterkonzern, sondern eröffnet auch Chancen und Möglichkeiten für eine Expansion in neue Märkte und Produktlandschaften.

Das Internet der Dinge ist in aller Munde und gewinnt im praktischen Einsatz zunehmend an Bedeutung. Der neue Name und die angebotenen Produkte unterstreichen zukünftig den Fokus des Unternehmens auf das Internet of Things (IoT) und die hier gelagerten Kompetenzen. Neben den bekannten und erfolgreich etablierten Fahrzeugterminals wird Advantech auch schon einen Teil des neuen, erweiterten Portfolios auf der LogiMAT vom 19. bis 21. Februar 2019 in Stuttgart dem Fachpublikum präsentieren.

Gewohnte Leistung und Qualität unter neuem Namen

Außer dem neuen Namen der Gesellschaft bleibt für Kunden alles wie gewohnt – der Unternehmenssitz in Deutschland mit der bekannten Anschrift, Handelsregisternummer, Bankverbindungen und Umsatzsteuer-ID. Wesentlicher Vorteil ist die erweiterte Produkt- und Servicepalette.

Die Advantech-Gruppe mit weltweit über 8.600 Mitarbeitern verfügt über ein extrem breites Produktangebot, das darauf abzielt, industrielle Prozesse zu vereinfachen. Märkte und Anwendungen finden sich in Logistik, Retail, Healthcare, Embedded Computing, Industrial Automation, Intelligent Connectivity und Systems, Energie und Umwelt sowie in der Netzwerk- und Kommunikationsbranche. Kunden können anspruchsvolle Technik für unterschiedliche Einsatzfelder aus einer Hand zu beziehen.

Von der Produkt- zur Lösungsorientierung

Dabei geht der Trend vermehrt dahin, Lösungen anstatt nur Hardware anzubieten. „Wir wandeln uns gerade noch stärker vom Hardwareanbieter zum SRP-Anbieter, um aktiv Lösungen mit Partnern aus verschiedenen Branchen zu schaffen, anstatt nur einzelne Hardware oder Software zu liefern“, erklärt Michael Kreft, Executive Sales Director Europe der Advantech Service-IoT GmbH die aktuellen zukunftsorientierten Entwicklungen im Unternehmen. Im Ergebnis der gemeinsamen Entwicklungsarbeit unter dem Motto „Co-Creation“ stehen einsatzbereite Lösungspakete (SRPs – Solution Ready Packages).

Um dieses kreative Ökosystem zu fördern, hat Advantech vom 1. – 2. November 2018 die Advantech IoT Co-Creation Summit in China veranstaltet. 6.000 Teilnehmer erlebten informative Keynotevorträge und anregende Podiumsdiskussionen und nahmen an verschiedenen Workshops teil. Neben Advantech waren diverse Partner und Lösungsanbieter vertreten, um Lösungen für die unterschiedlichen Branchen zu finden bzw. einige bereits entwickelte Lösungen vorzustellen.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Data-Sharing: Snowflake kündigt Rabatt-Programm an

Snowflake Computing, Anbieter eines speziell für die Cloud entwickelten Data Warehouse, hat ein neues Rabatt-Programm vorgestellt. Es soll Kunden, die Daten mit externen Organisationen teilen, durch Kostenersparnisse belohnen. Das Teilen von Daten („Data Sharehouse“) ermöglicht es Snowflake-Kunden, jeden beliebigen Teil ihrer Daten für Abteilungen innerhalb des eigenen Unternehmens, für Partner und Kunden freizugeben. Wie eine weltweite Studie von Harvard Business Review Analytic Services belegt, steht Data-Sharing erst am Anfang seiner Entwicklung.

Snowflake-Kunden, die ihre Daten (als „Datenanbieter“) mit externen Organisationen („Datenkonsumenten“) teilen, erhalten automatisch einen Rabatt, wenn diese Organisationen Berechnungen mit den gemeinsam genutzten Daten in Snowflakes Data-Warehouse-as-a-Service durchführen. Kunden, die bereits Data-Sharing nutzen, sind ab sofort automatisch für das Rabattprogramm berechtigt, der Nachlass entspricht zehn Prozent ihres Verbrauchs.

Die Datenfreigabefunktion, wie sie exklusiv auf Snowflake verfügbar ist, ist eine weitere Neuerung auf dem Weg zum datengesteuerten Unternehmen – neben sofort verfügbarer Elastizität, sekundengenauer Abrechnung sowie der Verfügbarkeit in mehreren Clouds.

Ein Unternehmen, das bereits Erfahrungen mit Data-Sharing gesammelt hat, ist der Technologie-Anbieter Blackboard, der Software, Tools und Dienstleistungen für Bildungseinrichtungen bereitstellt. Jason White, Senior Director of Software Engineering, erläutert: „Snowflakes Data-Sharing hat einen tiefgreifenden Einfluss darauf, wie wir Analysen für das Lehren, Lernen und die institutionelle Leistungsfähigkeit angehen. Wir können Daten nahtlos im gesamten Unternehmen, mit unseren Geschäftspartnern und Kunden austauschen. Dass wir dies in Echtzeit tun können, ohne Datensätze kopieren oder verschieben zu müssen, beschleunigt unsere Geschäftsprozesse und macht uns agiler sowie reaktionsschneller.“

Studie zum Thema belegt: Data-Sharing steht erst am Anfang

Beim modernen Data-Sharing bewegen sich Daten nicht mehr physikalisch. Sie werden stattdessen in Echtzeit auf sichere und kontrollierte Weise ausgetauscht. Dafür wird ein einfacher Zugang zu schreibgeschützten Kopien der Daten zwischen einer beliebigen Kombination von Unternehmen generiert, den bereits erwähnten „Datenanbietern“ und „Datenkonsumenten“. Dies ermöglicht es den Beteiligten, tiefergehende Einblicke zu erhalten.

Zu dem Thema führte Harvard Business Review Analytic Services eine Studie durch, für die weltweit 729 Führungskräfte branchenübergreifend befragt wurden. Zwei Drittel der Befragten (67 Prozent) möchten den Data-Sharing-Ansatz verfolgen, nur fünf Prozent sind der Meinung, dass ihr Unternehmen bei der Implementierung eines modernen Data-Sharing effektiv ist. 29 Prozent teilen Daten innerhalb von Funktionsgruppen oder Geschäftseinheiten, 21 Prozent über Geschäftseinheiten innerhalb eines Unternehmens hinweg. 15 Prozent tauschen Daten extern mit wichtigen Lieferanten, 14 Prozent mit Partnern außerhalb ihrer Branche.

Weitere Informationen

Weitere Informationen zu Data-Sharing finden sich hier, zum Data-Sharing-Programm hier. Ein Blog-Beitag dazu findet sich hier.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Neue Funktionen in Snowflake: automatisches Clustering und materialisierte Sichten

Snowflake Computing, Anbieter eines speziell für die Cloud entwickelten Data Warehouse, hat zwei neue Funktionen vorgestellt: automatisches Clustering und materialisierte Sichten. Die beiden ab sofort verfügbaren Funktionen optimieren die Abfrageleistung und machen den manuellen Aufwand überflüssig, der bei anderen Data-Warehouse-Lösungen anfällt. In Kombination können sie eine exponentielle Leistungssteigerung bewirken, die den Business-Anwendern noch schnellere und tiefergehende Erkenntnisse über alle Unternehmensdaten ermöglicht. Verbunden damit sind ein geringerer oder gar kein manueller Wartungsaufwand und niedrigere Kosten.

„Automatisches Clustering ist der naheliegende nächste Schritt für uns. Ähnlich dem, als wir Sicherheit, Wartung und sofortige Elastizität automatisiert in unser Data-Warehouse-as-a-Service integriert haben“, erläutert Dr. Artin Avanes, Director Product Management bei Snowflake. „Die zweite Neuerung geht ein uraltes Problem neu an: Wir haben unsere jahrzehntelange Erfahrung in der Verarbeitung umfangreicher Datenbanken mit den Vorteilen der Cloud kombiniert – um materialisierte Sichten, also gespeicherte Kopien von Sichten zu einem bestimmten Zeitpunkt, bereitzustellen, die transaktionskonsistent sind, ohne die Modifikationen an den Basistabellen zu verlangsamen.“

Automatisches Clustering – die Vorteile im Überblick:

  • Automatisierte und optimierte Selbstorganisation der Datenspeicherung, wodurch die manuelle Rekonfiguration von Daten-Clustern entfällt
  • Zusammenführen und Löschen von Daten sowie Schließen von Lücken zwischen Daten – beides erfolgt automatisch im Hintergrund
  • Ausführungsmodus „non blocking“ von ETL-Pipelines (ETL: Extract, Transform, Load), die Anweisungen in Datenbearbeitungssprache enthalten
  • Inkrementelles Clustering von Tabellen, sobald neue Datensätze eingehen
  • Exponentiell schnellere Abfragen mit geringerem Wartungsaufwand und geringeren Kosten

Materialisierte Sichten – die Vorteile im Überblick:

  • Erhebliche Leistungsverbesserung für Abfragen, die wiederholt dieselben Unterabfrageergebnisse verwenden
  • Automatische Pflege materialisierter Sichten, wenn neue Daten eingehen oder vorhandene Daten in der Basistabelle geändert werden
  • Schnelle DML-Vorgänge (DML: Data Manipulation Language, Datenbearbeitungssprache) für Basistabellen trotz gleichzeitig vorhandener materialisierter Sichten
  • Stets aktuelle Daten beim Zugriff über materialisierte Sichten, unabhängig von Änderungen in der Basistabelle

Bei Kunden im Einsatz

Nanigans, ein Software-Anbieter für Werbeautomatisierung, optimiert mit Snowflake seine Multi-Channel-Werbeausgaben von mehr als 700 Millionen US-Dollar für seine kommerziellen Werbekunden. Er hat zudem Snowflake Data Sharing im Einsatz, damit seine Kunden in Echtzeit den kontrollierten und sicheren Zugriff auf ihre Daten ohne Bezug zu Personen freigeben können, um ihre Werbeausgaben zu optimieren. Nat Taylor, Produktmanager bei Nanigans, führt aus: „Durch das automatische Clustern und die materialisierten Sichten erhalten wir die Antworten, die wir und unsere Kunden benötigen, noch schneller. Und wir können uns auf die Datenanalyse konzentrieren, anstatt manuelle Optimierungsvorgänge durchzuführen, wie sie bei lokal installierten und herkömmlichen Cloud-Data-Warehouse-Lösungen anfallen.“

PDX, ein Anbieter von Apothekenmanagement-Software und -Dienstleistungen, empfängt und verarbeitet täglich Patienten- und Betriebsdaten von mehr als 9.000 Apotheken. John Foss, EVP of Software Development bei PDX, ergänzt: „Wir fügen ständig Daten hinzu, löschen und aktualisieren sie und müssen diese neuen Datensätze schnell analysieren. Die automatische Clustering-Funktion von Snowflake ermöglicht es uns, unsere Daten so effizient wie möglich zu speichern und zu aktualisieren. Beim Abfragen großer gruppierter Tabellen, die jetzt vom automatischen Cluster-Service verwaltet werden, konnten wir erhebliche Leistungsverbesserungen feststellen.“

Weitere Informationen

Die beiden neuen Funktionen legen die Grundlage für weitere Neuerungen in den kommenden Monaten. Weiterführende Informationen dazu enthält ein Blog-Beitrag von Dr. Artin Avanes.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Bertrandt erzielt über eine Milliarde Euro Gesamtleistung und richtet den Konzern konsequent auf die Zukunft aus

Der Bertrandt-Konzern konnte im Geschäftsjahr 2017/2018 die Gesamtleistung und das EBIT gegenüber dem Vorjahr steigern. Erstmals in der Unternehmenshistorie wurde unter heterogenen und anspruchsvollen Rahmenbedingungen eine Gesamtleistung von mehr als einer Milliarde Euro erzielt.

Umweltfreundliche, individuelle Mobilität sowie autonomes und vernetztes Fahren sind weiterhin wichtige Markttrends, die alle Kernbereiche der Automobilindustrie betreffen und sich dort in vielen Facetten widerspiegeln. Die heterogenen Rahmenbedingungen des vergangenen Jahres haben sich fortgesetzt. Es kam weiterhin teilweise zu Verzögerungen bei der Vergabe von Entwicklungsaufträgen an externe Engineering-Dienstleister und die Anspannung auf der Preisseite blieb deutlich spürbar. Im Rahmen der bestehenden konjunkturellen Bedingungen sowie der derzeitigen Markt- und Technologietrends entwickelte sich das Unternehmen positiv. „Der Themenvielfalt als essenzieller Erfolgsfaktor im Engineering-Umfeld kommt eine wesentliche Bedeutung zu. Bertrandt übernimmt als verlässlicher Technologiepartner deshalb immer mehr Verantwortung“, sagt Dietmar Bichler, Vorstandsvorsitzender der Bertrandt AG.

Die Gesamtleistung stieg auf 1.021.020 TEUR. Der Bertrandt-Konzern konnte damit erstmals in seiner Unternehmenshistorie eine Gesamtleistung von über einer Milliarde Euro erzielen. Bei zwei Arbeitstagen weniger im Vergleich zum letzten Berichtszeitraum und weiterhin anspruchsvollen Rahmenbedingungen in der Automobilbranche konnte Bertrandt ein EBIT in Höhe von 72.141 TEUR und eine Marge von 7,1 Prozent erwirtschaften. Das Ergebnis nach Ertragsteuern betrug 47.385 TEUR. Im laufenden Geschäftsjahr wurden zukunftsorientiert 52.500 TEUR in Gebäude und technische Anlagen entlang der Trendthemen investiert. Mit einer Eigenkapitalquote von 50,6 Prozent steht Bertrandt auf einer soliden finanziellen Basis. Die Anzahl der Beschäftigten erhöhte sich im Berichtszeitraum um 259 auf 13.229 Personen. Die unterschiedlichen Aufgaben bieten Perspektiven für Fachkräfte in verschiedenen Bereichen.

Veränderungen im Markt, Technologiesprünge zu neuen Antriebsformen oder Digitalisierung – die Herausforderungen sind vielfältig. Durch Investitionen in Infrastruktur und Know-how, aber auch mit innovativen Lösungsansätzen und steigender Projektverantwortung trägt Bertrandt diesen Rahmenbedingungen Rechnung und stellt die Weichen für die Zukunft. Im Geschäftsjahr 2017/2018 wurden neu errichtete Versuchseinrichtungen sukzessive in Betrieb genommen, die Leistungsumfänge speziell für elektrifizierte Antriebe ermöglichen. Im Geschäftsjahr 2018/2019 wird am Hauptsitz in Ehningen ein Hochvoltprüfzentrum für klimaüberlagerte Batterietests entstehen. Zudem plant der Konzern zwei Prüfzentren für neue Antriebstechnologien. Außerdem investiert Bertrandt in eigene Kompetenzinitiativen im Bereich elektrifiziertes, vernetztes und automatisiertes Fahren sowie in zukunftsweisende Lösungen im Themengebiet Leichtbau. Darüber hinaus setzt Bertrandt künftig auch auf agile Einheiten mit Start-up-Charakter in den Bereichen Medizintechnik, Virtual und Augmented Reality, Cloud Solutions, Machine Learning und Big Data. Dies wird die Präsenz des Unternehmens am Markt zusätzlich stärken und die Leistungsfähigkeit in Projekten wirksam unterstreichen. Hinzu kommt die ständig wachsende Überlagerung von Mobilität und Daten, aus welcher sich für Bertrandt neben den angestammten Kernkompetenzen auch neue Themen und Leistungen ergeben. So sind im Berichtszeitraum beispielsweise neue Projekte im Bereich Cloud Computing mit Microsoft entstanden.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Zukunftsfähig mit BIM

Bauwerke werden immer komplexer. Die Anforderungen an sie steigen. Eine digitale Planung wie das Building Information Modeling (BIM) hilft, alles im Griff zu behalten. Möglich wird dies durch ein koordiniertes, interdisziplinäres Teamwork aller Beteiligten an einem digitalen Modell ("Zwilling") des jeweiligen Gebäudes.

BIM bildet Verfahren und Prozesse ab, um Risiken frühzeitig zu minimieren. Denn jede Leistung wird digital modelliert – vom Entwurf über die Umsetzung bis zum Betrieb. Dazu gehören auch die Ressourcen-, Termin- und Kostenplanungen. BIM kann zudem die Wertschöpfungskette erhöhen. So erlaubt die visuelle Darstellung mehr Entscheidungsgrundlagen, Entwurfsalternativen lassen sich genauer untersuchen und technische Auswirkungen besser simulieren. Insbesondere bei Großprojekten wird zukünftig ein ganzheitlicher Ansatz gefragt sein, bei dem die Gewerke nicht mehr nach- sondern miteinander arbeiten.

Sämtliche Daten sind bei BIM in einem objektorientierten Modell miteinander verknüpft, das den Beteiligten durchgängig zur Verfügung steht. Jeder Fachplaner steuert seinen Teil zum virtuellen Gebäudemodell des Architekten eigenverantwortlich bei. Erst wenn alle Prozesse aufeinander abgestimmt sind, beginnt die Umsetzung. Sie kann wiederum mit Hilfe von 3D-GPS-gesteuerten Baufahrzeugen erfolgen, um die korrekte Materialmenge am richtigen Ort abzuliefern und einzubauen, sodass bisherige Informations- und Effizienzverluste entfallen.

Die zunehmende Industrialisierung und Digitalisierung von Planung, Bau und Dienstleistungen treiben vor allem der Nachwuchs ("Digital Natives") und vier technische Entwicklungen voran:

  • 3D-Druck (Herstellung von Modellen und Sonderteilen),
  • Cloud Computing (weltweiter Datenaustausch und -verfügbarkeit),
  • "Internet der Dinge" (Beschaffung von passgenauen Produkten, Gebäudeautomation),
  • "Virtual" und "Augmented Reality" (Detailplanungen, Analysen, Zusatzinformationen).

Ein optimales Zusammenspiel gelingt, wenn alle Systeme bei BIM miteinander interagieren. Eine sichere und erweiterungsfähige Schnittstelle zum Datenaustausch zwischen verschiedenen Softwarepaketen verfügt über eine IFC-Zertifizierung. Die Industry Foundation Classes (IFC) sind ein offener BIM-Standard, vergleichbar dem Drawing Interchange File Format (DXF) als Austauschformat für CAD-Programme. Um eine gezielte Anwendung zu erlauben, muss IFC in die jeweilige Projektstruktur funktionstüchtig eingebunden werden. Regelmäßige Prüfungen des BIM-Modells gewährleisten dann eine abgestimmte, fehlerfreie Planung und Ausführung. Hierfür benötigen sämtliche am Bau Beteiligten qualifiziertes Fachpersonal.

Das VDI Wissensforum bietet ab Frühjahr 2019 den Lehrgang „Fachingenieur BIM VDI“ an. Insgesamt sieben Pflicht- und Wahlmodule vermitteln einen profilübergreifenden Überblick über das Gesamtsystem BIM sowie die Möglichkeit zum individuellen Vertiefen einzelner Themenaspekte der BIM-Konstruktion. Nach bestandener Prüfung erhalten die Teilnehmer das VDI-Zertifikat „Fachingenieur BIM VDI“.

Der Lehrgang beinhaltet unter anderem folgende Module:

Weitere Veranstaltungen zum Thema BIM:

Nähere Informationen unter https://www.vdi-wissensforum.de/lehrgaenge/fachingenieur-bim/ sowie über das VDI Wissensforum Kundenzentrum, Postfach 10 11 39, 40002 Düsseldorf, E-Mail: wissensforum@vdi.de, Telefon: +49 211 6214-201, Telefax: -154.

Ihre Ansprechpartnerin im VDI Wissensforum
Mona Paluch
Veranstaltungsorganisation Lehrgänge
Telefon: +49 211 6214-606
Telefax: +49 211 6214-97 606
E-Mail: paluch@vdi.de

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Snowflake ab sofort auch in Europa auf Microsoft Azure verfügbar – Energieunternehmen Uniper als Kunde

Snowflake ist ab sofort auch in der EMEA-Region auf Microsoft Azure allgemein verfügbar. Dieser Schritt geht einher mit weiter steigender Kundennachfrage, die dem Wunsch großer Unternehmen nach Flexibilität bei der Wahl einer für sie geeigneten Cloud-Plattform entspricht. Snowflake nutzt die Infrastrukturdienste von Azure für Datenspeicherung und Abfrageverarbeitung. Das hat Snowflake Computing, Anbieter eines speziell für die Cloud entwickelten Data Warehouse, heute auf der Konferenz Microsoft Ignite in Berlin bekanntgegeben. Beim deutschen Energieunternehmen Uniper ist die Lösung bereits im Einsatz.

Durch die Bereitstellung von Snowflake auf Azure können europäische Kunden flexibel die von ihnen präferierte Cloud-Strategie nutzen. Dieser Schritt unterstützt Unternehmen, die ihre Daten lokal in der Europäischen Union speichern möchten. Die lokale Verfügbarkeit ermöglicht ihnen den schnellen, latenzarmen Zugriff auf ihre Daten und beschleunigt gleichzeitig ihre weltweiten Dateninitiativen, da sie länderspezifische Anforderungen befriedigt.

Die Lösung integriert sich mit Azure-Diensten wie Data Lake Store und Microsoft Power BI. Die Plattform verwendet zudem zahlreiche neue Funktionalitäten, darunter beschleunigtes Networking und vorläufiges Löschen („Soft-Delete“) für Speicher.

Darüber hinaus hat Snowflake vor Kurzem Data-Collation-Support in der Vorschau eingeführt, um die Festlegung von Regeln für die Sortierung und den Vergleich von Daten zu erleichtern. Mit der neuen Data-Collation-Funktion können Benutzer diese Regeln basierend auf verschiedenen Zeichensätzen für verschiedene Sprachen, mit Unterscheidung zwischen Groß- und Kleinschreibung sowie mit zusätzlichen Optionen festlegen.

Geschäftsanforderungen erfüllen

„Immer mehr Unternehmen verlagern ihre Daten- und Analyse-Workloads in die Cloud, die Nachfrage nach einem Cloud-basierten Data Warehouse wächst weiter“, kommentiert Dr. Benoit Dageville, Mitgründer und CTO von Snowflake: „Dabei hat jeder Kunde andere Geschäftsanforderungen. Als kundenorientiertes Unternehmen möchten wir die Flexibilität bieten, einen Cloud-Anbieter und eine Region auszuwählen, die den geschäftlichen Anforderungen unserer Kunden entsprechen.“

Corey Sanders, Vice President for Azure Compute bei Microsoft, ergänzt: „Im September hat Snowflake seine Lösung erfolgreich auf Microsoft Azure in den USA verfügbar gemacht. Heute freue ich mich, die Einführung in Europa ankündigen und den Kunden hier das gleiche außergewöhnliche Anwendererlebnis bieten zu können, das Snowflake auf Microsoft Azure ermöglicht. Durch diese Zusammenarbeit profitieren Kunden von der Leistung, der Nebenläufigkeit und der Flexibilität von Snowflake auf Azure.“

Im Einsatz bei deutschem Energieunternehmen Uniper

Uniper, ein internationales Energieunternehmen mit Sitz in Düsseldorf, nutzt Snowflake als zentralen Data-Lake seiner Data-Analytics-Plattform auf Microsoft Azure. Mit Snowflake kann Uniper Daten aus mehr als 100 Quellen verwalten – darunter „Energy Trading and Risk Management Systems“ (ETRM), SAP, Data Warehouses und IoT-Daten von Kraftwerken. Dadurch kann das Unternehmen besser und schneller auf den Markt reagieren und den Energiehandel verbessern.

Dazu René Greiner, Vice President Data Integration bei Uniper: „Mit der Umwandlung von Uniper in eine datengesteuerte Organisation wächst die Rolle von Daten exponentiell. Es ist für uns ein wesentliches Erfolgskriterium, mit großen Datenmengen effizient und kostengünstig umgehen zu können. Wir freuen uns, Snowflake als Partner auf unserer Plattform zu haben, und ich bin überzeugt, dass unsere Partnerschaft den weiteren Erfolg auf der Data Journey von Uniper sicherstellen wird.“

Uniper

Uniper ist ein führendes internationales Energieunternehmen mit Aktivitäten in mehr als 40 Ländern und rund 12.000 Mitarbeitern. Sein Geschäft ist die sichere Bereitstellung von Energie und damit verbundenen Dienstleistungen. Zu den wesentlichen Aktivitäten zählen die Stromerzeugung in Europa und Russland sowie der globale Energiehandel. Der Hauptsitz des Unternehmens ist Düsseldorf.

Weitere Informationen finden sich unter www.uniper.energy

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

BRESSNER kann nach Übernahme durch One Stop Systems global stärker agieren

Kräfte zu bündeln und den Anforderungen der eigenen Kunden noch besser gerecht zu werden, war die Motivation, die One Stop Systems und BRESSNER Technology trieb, ihre beiden Unternehmen zu vereinen. Zum 6. November 2018 wurde das Systemhaus BRESSNER von Hersteller One Stop Systems OSS übernommen. Auch nach der Übernahme bleibt BRESSNER ein eigenständiges Unternehmen.

„Durch die neue Verbindung können wir nun breiter auf globaler Basis agieren, um so den Anforderungen unserer Kunden noch besser gerecht zu werden“, erklärt Josef Bressner, Geschäftsführer der Bressner Technology GmbH. Das Angebot für Automation, Automotive, Logistik, Transport usw. von BRESSNER wird durch die zusätzliche Expertise in Forschung & Entwicklung aus den USA in eben diesen gemeinsam angesprochenen industriellen Bereichen verstärkt. „Als größter EMEA-Distributor für One-Stop-Systems-Lösungen können wir jetzt auch die PCIe-Produkte von OSS noch stärker im europäischen Markt vorantreiben.“

Speziell die große Erfahrung im Bereich PCIe- und GPU-Computing von OSS rüstet BRESSNER in Zukunft noch besser für die Themen künstliche Intelligenz, Deep Learning, Machine Learning etc., welche immer stärker Einzug in die Industrie halten und immer mehr nachgefragt werden. Nach der Übernahme bleiben die firmeninternen Strukturen von BRESSNER, einschließlich der aktuellen Geschäftsführer Josef Bressner und Martin Stiborski sowie aller Kontaktpersonen, ohne Änderungen bestehen.

„Die strategische Akquisition von Bressner bedeutet eine Expansion für unser internationales Geschäft“, sagt Steve Cooper, Präsident und CEO von OSS. „Durch diese Akquisition ist eine starke Präsenz von OSS in Europa gewährleistet, die ein Schlüssel für unsere Vision von einem schnellen Wachstum auf dem globalen Markt spezialisierter Komplettsysteme darstellt.“

Über One Stop Systems
One Stop Systems, Inc. (OSS) (Nasdaq: OSS) ist Entwickler und Hersteller von High-Performance
Compute Accelerators, Flash-Storage-Arrays und kundenspezifischen Servern für Applikationen in den Bereichen Deep Learning, KI, Verteidigung, Finanzen und Unterhaltung. OSS setzt auf PCI Express, auf somit auf die neueste Generation von GPU-Beschleunigern und NVMe Flash-Karten, um preisgekrönte Systeme, viele davon Industrieneuheiten, für OEMs und Regierungskunden herzustellen. Der innovative Hardware- und Ion-Beschleuniger von OSS bietet außergewöhnliche Performance und höchste Skalierbarkeit. OSS-Produkte sind direkt über ein globales Netz an Distributoren oder via SkyScale Cloud-Dienste erhältlich. Mehr Informationen unter www.onestopsystems.com

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Eine europäische Erfolgsgeschichte aus dem Silicon Valley kommt nach Berlin – Snowflake eröffnet Forschungs- und Entwicklungslabor

Die Digitalisierung von Unternehmensinformationen bleibt so lange Stückwerk, bis Unternehmen die Daten auch schnell, einfach und kostengünstig analysieren können. Das Gleiche gilt für die Trendthemen Künstliche Intelligenz (KI) oder Maschinelles Lernen (ML). Denn entsprechende Algorithmen und Modelle zu entwickeln, ist eine Sache, sie produktiv einzusetzen und gewinnbringend im Tagesgeschäft zu nutzen, eine völlig andere. Der Aufgabe, diese grundlegenden Probleme der Digitalisierung zu lösen, hat sich Snowflake Computing verschrieben, das von europäischen IT-Experten im Silicon Valley gegründet wurde. Bislang betreibt das Unternehmen zwei Forschungs- und Entwicklungszentren, eines im Silicon Valley und eines im US-Bundesstaat Washington. Im November kommt ein drittes hinzu: Berlin wird Sitz des ersten F&E-Standorts außerhalb der USA.

Im Silicon Valley, dem weltweiten Inbegriff für Erfindergeist und Erfolg in der IT-Branche, haben zwei französische und ein polnischer Datenbankspezialist im Jahr 2012 Snowflake Computing ins Leben gerufen. Mit Hilfe seiner gleichnamigen Lösung – technisch gesprochen ein Cloud-natives Data-Warehouse – bietet Snowflake Unternehmen jeglicher Größe und aus allen Branchen die Möglichkeit, Datenbestände beliebigen Umfangs in Echtzeit und in beliebiger Häufigkeit zu analysieren. Abgerechnet wird der Cloud-Service sekundengenau, was das Kostenproblem klassischer Datenbanklösungen beseitigt.

Praxisnutzen statt grauer Theorie

Einer der Unternehmensgründer, Dr. Benoit Dageville, ist nun zusammen mit seinen deutschen Kollegen Dr. Martin Hentschel und Dr. Max Heimel von Kalifornien an die Spree umgezogen, um das dritte Forschungs- und Entwicklungszentrum aufzubauen. Sie werden sich hier bewusst anderen Themen widmen als an den beiden bereits bestehenden F&E-Standorten. Im Fokus stehen dabei die schnelle Verarbeitung paralleler SQL-Anfragen und Maschinelles Lernen.

Das möchten die drei Forscher kostengünstiger und einfacher nutzbar machen, auch für kleine Unternehmen und einzelne Entwickler – und sprechen in diesem Zusammenhang von der „Demokratisierung des Maschinellen Lernens“.

Rare Talente finden, Diversity vorleben

Dafür brauchen sie Verstärkung, doch Datenbank-Spezialisten sind rar. Weil sie das wissen, haben sich die Forscher bewusst für einen Standort entschieden, der im Herzen Europas eine besondere Attraktivität für europäische IT-Spezialisten besitzt.

Zumal das Team seit der Gründung an international ist: Der Leiter des Finanzwesens beispielsweise ist Elsässer, die Marketing-Leiterin Schwedin, die PR-Direktorin Ungarin und der Leiter des Produktmanagements ein in Berlin aufgewachsener Deutscher, Dr. Artin Avanes. „Nur“ der CEO ist US-Amerikaner: Bob Muglia, der über 20 Jahre bei Microsoft arbeitete, direkt an Steve Ballmer berichtete und von Bill Gates eingestellt worden war. Arbeitssprache im Berliner Büro wird Englisch sein. Entsprechend wird die Arbeitssprache im Berliner Büro Englisch sein.

„Genauso viel Kunst wie Wissenschaft“

Zwar zählt Snowflake bereits zu den so genannten „Einhörnern“ im Silicon Valley, mit einer Unternehmensbewertung von 3,5 Milliarden US-Dollar – aber noch steht für Berlin schnelles Wachstum nicht im Vordergrund, erst mittelfristig soll auch hier ein großer F&E-Standort entstehen. Laut Dageville liege der Fokus im ersten Jahr auf der sorgfältigen Weitergabe des Wissens an neue Kollegen. Ihm sei es wichtig, die Philosophie so weiterzugeben, wie es auch an den beiden anderen Standorten gelungen ist. Nicht zuletzt in diesem Kontext ist auch das künftige Engagement an Hochschulen und Forschungseinrichtungen zu sehen. Ziel ist es, in den kommenden Jahren Studierende gezielt auf die Berliner „Start-up-Zweigstelle“ des Silicon-Valley-Einhorns aufmerksam zu machen.

Kulturelle Vielfalt ist es, die laut Dageville nicht nur Snowflake von Anfang an auszeichnet – sie habe die Software-Entwicklung im Silicon Valley überhaupt erst so erfolgreich gemacht: „Software-Entwicklung ist nicht nur ein wissenschaftlicher, sondern auch ein kreativer Prozess, bei dem oft erst die Kombination unterschiedlicher Meinungen vor dem Hintergrund unterschiedlicher kultureller Einflüsse zum Erfolg führt. Anders ausgedrückt: Software-Entwicklung ist genauso viel Kunst wie Wissenschaft.“

Da passt es gut ins Bild, dass Deutschland künftig eine stärkere Rolle als Standort für bahnbrechende technologische Entwicklungen spielen will. Eine zentrale Rolle soll dabei die Agentur zur Förderung von Sprunginnovationen einnehmen, die Ende August vorgestellt wurde und die Anfang 2019 ihren Betrieb aufnehmen soll. Eine der zu den Sprunginnovationen gezählten Technologien, die in diesem Kontext explizit genannt werden, ist Künstliche Intelligenz.

Killer-App für die Digitalisierung

Snowflake Computing, das im Oktober eine erneute Wachstumsfinanzierung in Höhe von 450 Millionen US-Dollar abgeschlossen hat, konnte bislang insgesamt 923 Millionen US-Dollar an Investorengeldern auf sich vereinen. Ein Teil dieses Geldes soll nun in den Ausbau der Forschungs- und Entwicklungsteams an den drei Standorten fließen.

Daten sind die Währung der heutigen Wirtschaft, das Data-Warehouse ist deren Motor. Unternehmen benötigen heute eine Strategie zur Verwaltung ihrer Daten in der Cloud. Snowflake Computing macht das lang gehegte Versprechen wahr, Business Intelligence Teil der laufenden Geschäftsprozesse werden zu lassen – mittels neuer Technologien auf Basis bewährter Standards. Die Data-Warehouse- und Analytics-Lösung ist die Antwort auf Big Data in Zeiten von Social Media und IoT, was Geschwindigkeit und Skalierbarkeit betrifft. Das Cloud-basierte Data-Warehouse des Unternehmens dient dazu, die Anforderungen moderner Unternehmen an die Datenanalyse zu erfüllen, und weist alle wichtigen Eigenschaften traditioneller und aktueller Datenanalyse-Technologien auf: Dazu zählen die Leistungsfähigkeit von Data-Warehousing, die Flexibilität von Big-Data-Plattformen, die Elastizität der Cloud und die gemeinsame Echtzeit-Datennutzung.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Partnerschaft zwischen Esker und Rimilia: automatisierte Zuordnung erhaltener Zahlungen

Esker, ein führender Anbieter von Lösungen für automatisierte Dokumentenprozesse und Pionier in Sachen Cloud-Computing, ist eine globale Partnerschaft mit Rimilia eingegangen. Die intelligenten, automatisierten Finanzlösungen von Rimilia ermöglichen Unternehmen eine bessere Kontrolle ihres Cashflow und den Forderungseinzug in Echtzeit.

Die für beide Seiten vorteilhafte Beziehung bietet Bestandskunden und potenziellen Neukunden von Esker eine Automatisierungslösung für die Zuordnung von Zahlungseingängen. Gleichzeitig wird die globale Expansion von Rimilia durch ein Reseller-Abkommen gefördert, und das Kundenerlebnis wird durch die Nutzung künstlicher Intelligenz (KI) und die in die Lösungen von Esker und Rimilia integrierte maschinelle Lerntechnologie verbessert.

Durch die neue Partnerschaft erhalten die vorhandenen und künftigen Kunden von Esker Zugang zur Rimilia-Lösung Alloc8 Cash. Die Lösung automatisiert den arbeitsintensiven manuellen Prozess der Zuordnung erhaltener Zahlungen, senkt so den Arbeitsaufwand und optimiert Finanzprozesse. Die am Markt führenden Auto-Zuordnungsraten von bis zu 95 % werden von Branchenexperten wie The Hackett Group anerkannt.

Durch die bidirektionale Partnerschaft kann Rimilia die Technologie von Esker einsetzen, um die Geschwindigkeit und Genauigkeit bei der Erfassung und beim Auslesen von Daten aus Überweisungen zu verbessern. Die intuitive, KI-gestützte Lösung von Esker ergänzt die intelligente Finanzplattform von Rimilia und versetzt Unternehmen in die Lage, ihren Cashflow auf effiziente Weise zu garantieren und freizugeben.

„Der Order-to-Cash-Zyklus ist äußerst komplex und beinhaltet zahlreiche Unternehmensbereiche. Er automatisiert den gesamten O2C-Prozess von der Verarbeitung der Bestellung über die Rechnungszustellung und den Forderungseinzug bis hin zur Bezahlung und Zuordnung von Zahlungen“, so Emmanuel Olivier, Worldwide Chief Operating Officer bei Esker. „Um eine umfassende End-to-End-O2C-Lösung anbieten zu können, wollten wir die Nachfrage am Markt nach einer Lösung für die Zahlungszuordnung bedienen. Als die Möglichkeit einer Partnerschaft mit Rimilia im Raum stand, mussten wir nicht lange überlegen. Sowohl Esker als auch Rimilia nutzen künstliche Intelligenz, um hochkarätige Automatisierungslösungen anzubieten, die den Anwendern die Arbeit erleichtern.“

„Die starke Esker-Präsenz in den USA unterstützt uns bei der kontinuierlichen globalen Expansion“, freut sich Steve Richardson, Mitgründer und CCO bei Rimilia. „Wir gehen davon aus, dass unsere Lösung insbesondere von Esker-Kunden gut angenommen wird, da die Technologie das Esker-Angebot für den Forderungseinzug bestens ergänzt. Wir freuen uns auf die Zusammenarbeit mit einem Unternehmen, das unsere Vision und Leidenschaft für künstliche Intelligenz und maschinelles Lernen teilt.“

 

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox