HPE und Nutanix unterzeichnen weltweite Vereinbarung zur Bereitstellung von Hybrid-Cloud-as-a-Service

Hewlett Packard Enterprise (HPE) und Nutanix (NASDAQ: NTNX), Spezialist für Enterprise Cloud Computing, haben heute eine weltweite Partnerschaft bekanntgegeben. Deren Ziel besteht in der Markteinführung einer integrierten Hybrid-Cloud-as-a-Service-Lösung. Das Angebot nutzt die Enterprise-Cloud-OS-Software von Nutanix einschließlich des integrierten, kostenlosen AHV-Hypervisors und wird über „HPE GreenLake“ bereitgestellt. Kunden kommen damit in den Genuss einer vollständig HPE-verwalteten hybriden Cloud-Umgebung, die Gesamtbetriebskosten deutlich senkt und Amortisierungszeiten verkürzt. Darüber hinaus ermöglicht Nutanix seinen Vertriebspartnern im Rahmen der Vereinbarung den Verkauf von HPE-Servern in Kombination mit seiner Enterprise-Cloud-OS-Software, so dass Kunden eine integrierte Appliance erwerben können.

Unternehmen stehen heute unter ständigem Druck, Innovationen zu entwickeln und die digitale Transformation zu beschleunigen. Die derzeitigen Legacy-Ansätze für hybride IT-Umgebungen stellen sie jedoch vor viele Herausforderungen. Dazu zählen komplexe Systeme, die einen hohen Personaleinsatz für den Betrieb erfordern, steigende Softwarelizenz- und Betriebskosten sowie Bedenken hinsichtlich Anbieterabhängigkeiten. Infolgedessen verlieren Unternehmen an Flexibilität in einer Welt, die Wahlmöglichkeiten und Agilität erfordert.

Die Partnerschaft zwischen HPE und Nutanix adressiert diese Herausforderungen und stellt eine attraktive Alternative dar, die Kosten und Komplexität reduziert. Das kombinierte Angebot wird eine vollständig verwaltete hybride Cloud-Infrastruktur bieten, die als Service bereitgestellt und in den Rechenzentren oder Kollokationseinrichtungen der Kunden implementiert wird.

Die Kombination aus „HPE GreenLake“ und „Nutanix Enterprise Cloud OS“-Software ist ideal für Kunden, die Nutanix, einschließlich der AHV-Hypervisor-Technologie, zur Unterstützung einer Reihe von Anwendungsfällen einsetzen möchten. Dazu gehören unternehmenskritische Workloads und Big-Data-Anwendungen, virtualisierte Tier-1-Workloads wie SAP, Oracle und Microsoft sowie die Unterstützung virtualisierter Big-Data-Anwendungen wie Splunk und Hadoop.

Kunden, die das As-a-Service-Angebot von HPE GreenLake nutzen, profitieren von:

  • Reduzierung der Betriebskosten, von Anlageinvestitionen (Capex) sowie der Kosten für technischen Support und Professional Services: Das kombinierte Angebot verspricht den Kunden deutlich niedrigere Gesamtbetriebskosten. Laut einer von Nutanix in Auftrag gegebenen IDC-Studie zur hyperkonvergenten Nutanix-Software können Kunden eine 60-prozentige Senkung der Betriebskosten über einen Zeitraum von fünf Jahren erreichen. Laut einem von HPE in Auftrag gegebenen Forrester-Bericht über die wirtschaftlichen Auswirkungen von HPE GreenLake profitieren die Kunden von 30 Prozent niedrigeren Investitionskosten durch den Wegfall von Überkapazitäten und einer 90-prozentigen Senkung der Kosten für technischen Support und für Professional Services.
  • Fokus auf Innovation und schnellere Amortisierung: Durch die Umstellung auf ein IT-as-a-Service-Modell bietet HPE eine 40-prozentige Produktivitätssteigerung durch Reduzierung der Supportbelastung für das IT-Betriebspersonal und verkürzt die Zeit für die Implementierung von IT-Projekten um 65 Prozent. [ii]
  • Auswahl und Einfachheit: Kunden können jetzt einen integrierten, kostenlosen Hypervisor über ein As-a-Service-Angebot nutzen und von der Einfachheit von Nutanix profitieren, um virtualisierte Workloads mit wenigen Klicks bereitzustellen und zu skalieren. Die Nutanix-Technologie kann die Arbeitszeit des IT-Personals für Bereitstellung, Verwaltung und Support im Vergleich zu herkömmlicher Infrastruktur um 61 Prozent reduzieren, wodurch die Services über HPE GreenLake schneller und effizienter bereitgestellt werden können. [iii]

„HPE hat mit HPE GreenLake den modernen ‚On-Premises as a Service‘-Markt geschaffen. Hunderte Kunden weltweit nutzen HPE GreenLake, um von den Vorteilen einer Cloud-Erfahrung in Kombination mit der Sicherheit, Governance und Anwendungsleistung einer lokalen Umgebung zu profitieren und gleichzeitig den Service auf der Grundlage des tatsächlichen Verbrauchs zu bezahlen“, sagt Antonio Neri, President und CEO von HPE. „Mit der heutigen Ankündigung baut HPE seine führende Stellung in diesem Markt weiter aus, indem es Kunden, die eine hybride Cloud-Alternative für mehr Agilität bei niedrigeren Kosten suchen, eine zusätzliche Option bietet.“

„Unsere Kunden sagen uns, dass es ihre Anwendungen sind, die am meisten zählen. Unsere Partnerschaft mit HPE wird Nutanix-Kunden eine weitere Möglichkeit bieten, ihre Infrastruktur unsichtbar zu machen, damit sie sich auf geschäftskritische Anwendungen statt auf die zugrundeliegende Technologie konzentrieren können“, ergänzt Dheeraj Pandey, Gründer, CEO und Chairman von Nutanix. „Wir freuen uns sehr über die Partnerschaft mit HPE zum Nutzen von Unternehmen, die auf der Suche nach der richtigen hybriden Cloud-Lösung für ihr Unternehmen sind.“

HPE GreenLake ist die branchenführende As-a-Service-Lösung für die lokale IT. Mit variablen Zahlungen, die auf dem tatsächlich gemessenen Verbrauch von Arbeitslasten oder Ressourcen basieren, einer schnellen Skalierbarkeit sowie einem Management und Support auf Enterprise-Niveau bietet HPE GreenLake ein Cloud-Erlebnis für die Rechenzentrums- oder Kollokationsumgebungen der Kunden. Mit dem Best-of-Breed-Partneransatz von HPE und dem wachsenden Partner-Ökosystem können Kunden IT-Lösungen mit den von ihnen gewählten Technologien designen und einfach konsumieren, Anlageinvestitionen aufgrund der Vermeidung von Überkapazitäten reduzieren, die Auslastung der IT-Ressourcen erhöhen und die Zeit bis zu positiven Wertbeiträgen ihrer kritischen IT-Projekte verkürzen. [iv]

Darüber hinaus wird Nutanix mit der heutigen Ankündigung seinen Vertriebspartnern ermöglichen, HPE-Server in Kombination mit seiner Enterprise-Cloud-OS-Software als integrierte Appliance direkt zu verkaufen. Nutanix-Kunden kommen damit in den Genuss einer vollständig integrierten Lösung, die direkt von den HPE-Werken geliefert wird und die weltweit größte installierte Basis an sicherer, innovativer HPE ProLiant– und HPE Apollo-Servertechnologie von HPE mit der bahnbrechenden Enterprise-Cloud-OS-Software von Nutanix kombiniert, um Rechenzentrumsumgebungen zu modernisieren und die Support-Erfahrung auf ihren bevorzugten Hard- und Softwareplattformen zu vereinheitlichen.

Die „Nutanix Enterprise Cloud OS“-Software auf HPE GreenLake und die integrierte Appliance mit Nutanix-Software auf HPE-Servern werden voraussichtlich im dritten Quartal des Kalenderjahres 2019 verfügbar sein. HPE und Nutanix werden ihre gemeinsamen Angebote in diesem Jahr auf ihren jeweiligen Kundenkonferenzen präsentieren: auf der Nutanix .Next vom 7. bis 9. Mai 2019 in Anaheim, Kalifornien, und der HPE Discover vom 17. bis 19. Juni 2019 in Las Vegas, Nevada.

Hewlett Packard Enterprise (HPE)

Hewlett Packard Enterprise (HPE) ist ein globaler Technologieführer, der intelligente Lösungen entwickelt, mit denen Kunden Daten erfassen, analysieren und ihre Handlungen steuern können – nahtlos integriert vom äußersten Rand des Netzwerks über das Rechenzentrum bis zur Cloud. HPE hilft Kunden, schneller Geschäftsergebnisse zu erzielen – mit neuen Geschäftsmodellen, der Entwicklung neuer Kunden- und Mitarbeiter-Erlebnisse und der Steigerung der operativen Effizienz, heute und in Zukunft.

Weitere Informationen sind auf www.hpe.com oder über Twitter unter @HPE erhältlich.

Forward-looking statements

This press release contains express and implied forward-looking statements, including, but not limited to, statements regarding Nutanix’s and HPE’s business plans and objectives, the benefits and capabilities of Nutanix’s Enterprise Cloud OS software on the HPE GreenLake as a Service solution, the benefits and capabilities of an integrated appliance utilized Nutanix software on HPE servers, and the availability of both the new as a Service solution and the integrated appliance. These forward-looking statements are not historical facts and instead are based on current expectations, estimates, opinions, and beliefs. Consequently, you should not rely on these forward-looking statements. The accuracy of such forward-looking statements depends upon future events and involves risks, uncertainties, and other factors beyond Nutanix’s and HPE’s control that may cause these statements to be inaccurate and cause actual results, performance or achievements to differ materially and adversely from those anticipated or implied by such statements, including, among others: failure to develop, or unexpected difficulties or delays in developing, new products, services, product features or technology in a timely or cost-effective basis; delays in the availability of the new as a Service solution and/or the integrated appliance; the introduction, or acceleration of adoption of, competing solutions; and other risks detailed in Nutanix’s quarterly report on Form 10-Q for Nutanix’s fiscal quarter ended January 31, 2019, filed with the SEC on March 12, 2019, and in HPE’s quarterly report on Form 10-Q for HPE’s fiscal quarter ended January 31, 2019, filed with the SEC on March 5, 2019. Nutanix’s SEC filings are available on the Investor Relations section of Nutanix’s website at ir.nutanix.com and on the SEC’s website at www.sec.gov. These forward-looking statements speak only as of the date of this press release and, except as required by law, neither Nutanix nor HPE assumes any obligation to update forward-looking statements to reflect actual results or subsequent events or circumstances.

The Total Economic Impact of HPE GreenLake Flex Capacity, Forrester, May 2018
Nutanix Delivering Strong Value as a Cost-Effective, Efficient, Scalable Platform for Enterprise Applications, IDC, August 2017

[ii] The Total Economic Impact of HPE GreenLake Flex Capacity, Forrester, May 2018

[iii] Nutanix Delivering Strong Value as a Cost-Effective, Efficient, Scalable Platform for Enterprise Applications, IDC, August 2017

[iv] The Total Economic Impact of HPE GreenLake Flex Capacity, Forrester, May 2018.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Datenbank ist Leidenschaft

"Mit unserem Managed Database Service bieten wir vor allem eines: Zeit für wichtigere Dinge“, erklärt Hoffmann. „Wir übernehmen das Tagesgeschäft, schauen, dass alles läuft und geben regelmäßig Feedback. Der Admin beim Kunden kann sich so auf Projekte konzentrieren, die wichtiger sind. Projekte, die im besten Fall eine Datenbankerweiterung nötig machen.“ – Matthias Hoffmann, Bereichsleiter

750 DBMS werden momentan durch ITGAIN betreut.

Das DBMS im Griff

„Die Technologien rund um das Datenbankmanagementsystem entwickeln sich rasant. Klar, dass da nicht jeder mitkommt.“ Mathias Hoffmann bietet daher nicht allein die reine Betreuung der Datenbanken an, sondern berät auch, wenn es entweder um eine komplett neue Architektur geht oder um die Erweiterung eines bestehenden Systems. Größter Vorteil für die Kunden: Sie müssen sich in ihren Prozessen nicht an ITGAIN anpassen. Im Gegenteil: ITGAIN passt sich an. Das vereinfacht die Einbindung in bestehende Geschäftsprozesse. Und die Kunden müssen sich nicht verbiegen.

Sie wollen sich nicht verbiegen? – dann hier meh dazu: https://bit.ly/2FndaF7

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

OVH präsentiert die freie Cloud

OVH hat gestern sein gesamtes Ökosystem auf dem jährlichen OVH Summit in Paris versammelt. Mehr als 3000 Besucher, darunter Kunden, Partner und IT-Spezialisten, nahmen an der Eröffnung der Veranstaltung, die in diesem Jahr zum sechsten Mal stattfindet, teil. Octave Klaba, Vorstandsvorsitzender und Gründer von OVH, sowie der kürzlich zum CEO ernannte Michel Paulin, moderierten die Auftaktveranstaltung.

Klaba betonte gleich zu Beginn des Summits seine Vision einer anderen Cloud. OVH befindet sich im Zentrum der digitalen Transformation und will daher die Alternative sein, die eine freie Cloud ermöglicht, um seine Kunden und Partner weiterhin auf dem Weg zum Erfolg zu begleiten.

Damit alle hiervon profitieren, hat sich OVH zum Ziel gesetzt, dass jeder Einzelne über seine Daten bestimmen kann und dass Innovationen frei vorangetrieben werden, und zwar über eine intelligente, „smarte“ Cloud, die von CEO Michel Paulin vorgestellt wurde. „smart“ steht dabei für eine einfache (franz. Simple) und schnell einsetzbare Cloud, für eine Multilokale Cloud, die weltweit verfügbar und nah bei den Nutzern ist, für eine erschwingliche (engl. Accessible) und planbare Cloud, für eine Reversible Cloud, die offen und interoperabel ist sowie für eine Transparente und verantwortungsvolle Cloud.

Eine umfassende Strategie für vier OVH Kernbereiche

Um diese Vision umzusetzen, hat OVH vier Kernbereiche geschaffen, die den unterschiedlichen Kundentypen von OVH und deren Anforderungen an Produkte und Dienstleistungen angepasst wurden.

OVH wird diese vier Kernbereiche über die nächsten Monate Schritt für Schritt verfügbar machen. Für jeden Bereich wird OVH weitere Details dazu bekannt geben, wie er den sich wandelnden Anforderungen und dem Nutzerverhalten der Kunden gerecht wird.

OVHmarket: Ein digitaler Werkzeugkoffer, um das eigene Wachstum voranzutreiben

OVHmarket ist ein digitaler Werkzeugkoffer für Unternehmen, die sich mit der Digitalisierung weiterentwickeln und ihr Wachstum beschleunigen wollen. Sie profitieren von einer Auswahl an schnell implementierbaren Webhosting-, Telekommunikations- und Cloud-Lösungen, die einfach umzusetzen und erschwinglich sind, sowie von lokalen OVH Partnern unterstützt werden.

  • Mit dem Cloud Web Hosting können Nutzer eigene Webprojekte wie beispielsweise eine Website, eine E-Commerce-Plattform oder eine mobile App in einer gesicherten und leistungsstarken Umgebung umsetzen. Die innovative Lösung kombiniert die Einfachheit von Managed Hosting mit den Vorteilen eines dedizierten Virtual Private Servers. Für die Nutzung sind außerdem keine besonderen Administrationskenntnisse erforderlich.
  • Mit der Lösung Visibility Pro können Kunden, die ein Webhosting Angebot nutzen, Informationen und Kontaktdaten ihres Unternehmens über eine zentrale Oberfläche – das OVH Control Panel – in mehreren Verzeichnissen online verwalten. Dadurch wird die Sichtbarkeit des Unternehmens in Suchmaschinen, sozialen Netzwerken und auf Web Browsern erhöht und die Interaktion mit den Communitys vereinfacht, indem es zielgerechte Inhalte veröffentlichen oder auf Kommentare aus der Community antworten kann.

OVHspirit: Alle Infrastrukturen zum Errichten der eigenen Cloud-Plattform

Über diesen Kernbereich werden alle Infrastrukturen zum Errichten von Cloud-Plattformen angeboten. Experten für Infrastruktur, Hardware und Netzwerke, die für sich oder ihre Kunden eine Cloud-Plattform einrichten möchten, können hierfür auf einer skalierbaren und multilokalen Cloud-Infrastruktur aufbauen. Diese basiert auf den modernsten Technologien, die auf spezifische Anforderungen zugeschnitten sind und dabei ein attraktives Preis-Leistungs-Verhältnis bieten.

  • Für alle Kunden mit einem OVH Dedicated Server wird OVH die Bandbreite in den nächsten Wochen verdoppeln – bei gleichbleibenden Preisen: Kunden, die bisher ein Angebot mit einer Bandbreite von 500 Mbit/s besitzen, werden zum selben Preis eine Bandbreite von 1 Gbit/s erhalten.
  • OVH wird seine Dedicated Server Reihen komplett neu überarbeiten. Ziel ist es, eine vielfältigere und einfacher strukturierte Angebotspalette zu schaffen, die für die professionelle Nutzung angepasst ist und dabei preislich wettbewerbsfähig bleibt. Die Dedicated Server und VPS werden weiterhin von modularen Speicherlösungen sowie von den OVH Netzwerk- und Sicherheitsdienstleistungen profitieren: OVH bietet ein eigenes, weltweites Glasfasernetzwerk mit einer Kapazität von 15 Tbit/s und 34 Präsenzpunkten sowie einen im Preis inbegriffenen DDoS-Schutz. Die Angebote werden in den 28 OVH Rechenzentren auf vier Kontinenten, darunter auch in den USA, verfügbar sein. OVH bleibt im Übrigen der weltweit einzige Anbieter von Dedicated Servern sowohl innerhalb als auch außerhalb des Geltungsbereichs des Patriot Acts und des Cloud Acts.
  • Darüber hinaus aktualisiert OVH auch seine Premium-Reihe an Dedicated Servern. Die HG 2019 Server gehen auf die Bedürfnisse von Unternehmen ein, die sich erstklassige Produkte in Bezug auf Zuverlässigkeit, Sicherheit und Leistung wünschen und ihre Kosten dabei geringhalten möchten. Die Server basieren auf den Intel Xeon Scalable Prozessoren, Intel Optane DC Technologien sowie 3D NAND Solid State Drives und sind insbesondere für die intensive Datenverarbeitung geeignet. Diese Innovation ist nur möglich durch die starke Partnerschaft zwischen OVH und Intel, die dazu dient, eine neue Generation von Cloud-Infrastruktur-Diensten zu entwickeln. Noch vor Ende des Jahres wird OVH diese Produktreihe mit Servern erweitern, die speziell auf die Nutzung von Künstlicher Intelligenz ausgelegt sind.

OVHstack: Die Public Cloud Plattform mit offenen Standards

OVHstack ist eine Public-Cloud-Plattform mit offenen Standards. Sie richtet sich an Anwender des Cloud-Ready-Ansatzes, die skalierbare Anwendungen in der Cloud entwickeln möchten. Sie profitieren von einer weltweit implementierten Public Cloud, die sich leicht in ihr Ökosystem integrieren lässt und dabei reversibel bleibt.

  • Um auch den Anforderungen von Cloud-Natives und Entwicklern, die auf Microservice-Architekturen aufbauen wollen, gerecht zu werden, startet OVH Managed Kubernetes in einer privaten Beta-Version. Die Plug-and-play- Kubernetes-Plattform wird über die OVH Public Cloud verwaltet und kombiniert Agilität, Flexibilität sowie Leistung zu einem wettbewerbsfähigen Preis.
  • Um die Datenverarbeitung einfacher zu gestalten, bietet OVH eine breite Auswahl gebrauchsfertiger Dateninfrastrukturen an: Die OVH Analytics Data Platform ist eine Open-Source-Lösung für Big-Data-Analysen, die auf Apache Hadoop basiert und innerhalb einer Stunde auf der Public Cloud eingerichtet werden kann. Bei den neuen Cloud Databases Angeboten stehen von jetzt an MariaDB, MongoDB, MySQL, PostgreSQL und Redis zur Verfügung. In Verbindung mit diesen Angeboten für Datenverwaltung und -verarbeitung, und um die Einführung von Deep-Learning-Technologien zu beschleunigen, fügt OVH seinem Public Cloud Katalog eine neue GPU Reihe hinzu: ein NVIDIA GPU Angebot aus der Reihe TESLA V100 sowie die zugehörige Software-Plattform NVIDIA GPU Cloud. Zu den weiteren für dieses Jahr geplanten Innovationen gehören das Cloud Databases Angebot, das mit hochverfügbaren Angeboten ergänzt wurde, eine schlüsselfertige Machine-Learning-Plattform sowie Tools für Data Processing wie Apache Spark „as a service“.
  • Darüber hinaus wächst OVH weiter in der Asien-Pazifik-Region. Bis Ende des Jahres wird in den beiden Rechenzentren in Singapur und Sydney die OVH Public Cloud mit den Instance und Storage Reihen verfügbar sein. Außerdem wird die Public Cloud auch in drei neuen Regionen in Frankreich zur Verfügung gestellt. Gleichzeitig integriert OVH einen virtuellen Router und einen Loadbalancer (Instance Reihe) sowie Monitoringtools für die Kontrolle von Verbrauch und Leistung in sein Public Cloud Angebot.

OVHenterprise: Eine alternative Cloud für den erfolgreichen digitalen Wandel

OVHenterprise bietet eine alternative Cloud für die erfolgreiche digitale Transformation. Dieser Kernbereich richtet sich an Entscheidungsträger, die strategische Ziele mithilfe eines alternativen Cloud-Anbieters erreichen wollen. Sie behalten die Kontrolle über ihre Daten, indem sie hybride Cloud-Strukturen nutzen, die sowohl auf der OVH Private und Public Cloud sowie auf weiteren auf dem Markt verfügbaren Cloud-Lösungen basieren.

  • OVH erweitert sein Angebot kontinuierlich, um Unternehmen bei der Entwicklung einer Multi-Cloud-Strategie, bei der On-Premise-Infrastrukturen und Cloud-Infrastrukturen kombiniert werden, zu begleiten. Dafür steht OVHcloud Connect, das es Kunden ermöglicht, sich völlig isoliert und zu hundert Prozent gesichert mit dem OVH Netz über zahlreiche, weltweit verfügbare PoPs zu verbinden. Dabei wird ihnen ein hoher Grad an Zuverlässigkeit und Flexibilität geboten.
  • Darüber hinaus wird mit der Integration der vSAN-Technologie von VMware das Angebot von OVH für Software Defined Datacenter (SDDC) weiter ausgebaut. Die vSAN-Hosts integrieren einen lokal basierten Speicher auf Grundlage der neuen NVMe/SSD Technologien und gehen damit einen weiteren Schritt in Richtung hyperkonvergente Infrastrukturen und High-Performance. „OVH bietet über die VMware Cloud Provider Platform fortgeschrittene Private-Cloud-Lösungen, die es Kunden ermöglichen, die Vorteile einer konsistenten Infrastruktur zu nutzen und Operationen sowohl lokal als auch in der Cloud durchzuführen. VMware vSAN hilft den Kunden von OVH, ihre Rechenzentren ohne Risiken und mit kontrollierbaren Kosten zu entwickeln sowie entsprechend der sich ändernden unternehmerischen Bedürfnisse zu skalieren”, so Rajeev Bhardwaj, Vice President of Product Management, Cloud Provider Software Business Unit, VMware.
  • Die OVH Unternehmensgruppe stärkt die Beziehungen zu ihren Technologiepartnern. Ein Highlight ist das Angebot von Veeam Enterprise, das es allen Nutzern von VMware-Virtualisierungslösungen — egal, ob sie OVH Kunden sind oder nicht — ermöglicht, von einer großen Flexibilität für Veeam Lizenzen zu profitieren. So können die Kunden Backups von virtuellen Maschinen unabhängig von deren Standort durchführen (on-site, bei einem anderen Cloud-Anbieter und natürlich bei OVH) und dabei die Kontrolle über ihre digitalen Infrastrukturen behalten.

Mit der Vorstellung seines alternativen und offenen Modells hat OVH auf dem sechsten OVH Summit seine Position als weltweiter Akteur und führender Cloud-Anbieter auf dem europäischen Markt bestätigt. OVH setzt sein Wachstum auf diesem stark umkämpften Markt fort und vertraut weiterhin auf die Kraft der Innovation, dem Wachstumsmotor von morgen.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Hortonworks Reports Second Quarter 2018 Revenue of $86.3 Million

Hortonworks, Inc.® (NASDAQ: HDP), a leading provider of global data management solutions, today announced financial results for the second quarter of 2018.

“Our entire team executed extremely well in the second quarter to deliver another fantastic result, with total revenue growth of 40 percent year over year,” said Rob Bearden, chief executive officer of Hortonworks. “We attribute our continued growth to the rapid adoption of our open source global data management platforms, which help customers manage the entire lifecycle of their data from point of origin to point of rest and across hybrid and multi cloud architectures, all with common security and data governance.”

Second Quarter 2018 Financial Highlights

  • Revenue: Total GAAP revenue was $86.3 million for the second quarter of 2018, an increase of 40 percent compared to the second quarter of 2017.
  • Gross Profit: Total GAAP gross profit was $62.4 million for the second quarter of 2018, compared to $41.4 million for the same period last year. Non-GAAP gross profit was $65.4 million for the second quarter of 2018, compared to $43.4 million for the same period last year. GAAP gross margin was 72 percent for the second quarter of 2018, compared to 67 percent for the same period last year. Non-GAAP gross margin was 76 percent for the second quarter of 2018, compared to 70 percent for the same period last year.
  • Operating Loss: GAAP operating loss was $42.0 million for the second quarter of 2018, compared to $54.5 million for the same period last year. Non-GAAP operating loss was $10.4 million for the second quarter of 2018, compared to $27.0 million for the same period last year. GAAP operating margin was negative 49 percent for the second quarter of 2018, compared to negative 88 percent for the same period last year. Non-GAAP operating margin was negative 12 percent for the second quarter of 2018, compared to negative 44 percent for the same period last year.
  • Net Loss: GAAP net loss was $41.2 million for the second quarter of 2018, or $0.52 per basic and diluted share, compared to a GAAP net loss of $56.1 million, or $0.87 per basic and diluted share, in the second quarter of 2017. Non-GAAP net loss was $9.5 million for the second quarter of 2018, or $0.12 per basic and diluted share, compared to a non-GAAP net loss of $28.6 million, or $0.44 per basic and diluted share, for the same period last year.
  • Contract Liabilities: Total contract liabilities, which is comprised of short-term deferred revenue, other contract liabilities and long-term deferred revenue, were $259.1 million as of June 30, 2018, compared to $249.5 million as of March 31, 2018, $252.5 million as of January 1, 2018 and $275.2 million as of December 31, 2017. The balance as of January 1, 2018 reflects a reduction to contract liabilities of $22.7 million from December 31, 2017 as a result of our adoption of ASU No. 2014-09, Revenue from Contracts with Customers (Topic 606).
  • Cash & Investments: Cash and investments totaled $86.0 million as of June 30, 2018, compared to $72.5 million as of December 31, 2017 and $71.8 million as of June 30, 2017.
  • Operating Cash: Operating cash flow used was $2.0 million for the second quarter of 2018, compared to operating cash flow used of $11.7 million for the same period last year.  

A reconciliation of GAAP to non-GAAP financial measures has been provided in the financial statement tables included in this press release.

Recent Business Highlights

  • Hortonworks Data Platform 3.0 Enables Containerization and Deep Learning Workloads. In June, we announced Hortonworks Data Platform (HDP®) 3.0, which delivers significant new enterprise features, including containerization for faster and easier deployment of applications and increased developer productivity. The new version of HDP is optimized for hybrid cloud architectures and enables customers to more quickly, reliably and securely get value from their data at scale to drive business transformation.
  • Hortonworks and Google Cloud Expand Partnership to Accelerate Big Data Analytics in the Cloud. In June, we announced enhancements to our existing partnership with Google Cloud. These enhancements further optimize HDP and Hortonworks DataFlow (HDF) for Google Cloud Platform (GCP) to deliver next-gen big data analytics for hybrid cloud deployments. This partnership will enable customers to achieve faster business insights by leveraging ongoing innovations from the open source community via HDP and HDF on GCP. HDP now integrates with Google Cloud Storage, which offers consistent cloud storage for running big data workloads.
  • Hortonworks Extends Collaboration with Microsoft to Drive Big Data Workloads to Azure. In June, we announced that we renewed and extended our long-standing relationship with Microsoft to give enterprise customers greater agility and flexibility when moving big data workloads to the cloud. The collaboration now gives customers more choices as to where their analytic and Internet of Things (IoT) data workloads run. Customers can deploy HDP, HDF and Hortonworks DataPlane Service (DPS) products natively on Microsoft Azure infrastructure as a service (IaaS) to extract value from data of all types. Additionally, customers can also use Microsoft Azure HDInsight, a fully managed service powered by HDP, which delivers Apache Hadoop and Apache Spark.
  • Hortonworks Congratulates 2018 Americas Data Heroes Award Winners. In June, we announced the winners of the 2018 Americas Data Heroes Awards, recognizing Hortonworks customers who have significantly transformed their enterprises by leveraging connected data platforms and highlighting real business value derived from data. The winners were PayPal, Claro Colombia, Symantec, Universal and TRAC Intermodal.
  • Hortonworks Named a Strong Performer in Big Data Fabric Report by Independent Research Firm. In June, we were among the select companies that Forrester Research, Inc. invited to participate in its June 2018 report titled The Forrester Wave™: Big Data Fabric, Q2 2018. In this evaluation, Hortonworks was cited as a Strong Performer. HDP, HDF and DPS were evaluated for the report and received scores of five out of five in the Ability to Execute and Customer Base subcategories.
  • Hortonworks IoT Solution Helps American Water Improve Operational Efficiency. In June, we announced that American Water, the United States’ largest publicly traded water utility company, is leveraging global data management platforms from Hortonworks to modernize its data architecture. Using HDP and HDF, American Water is enhancing its ability to deliver critical data and insights to its field workers in a matter of minutes. 

Financial Outlook

As of August 7, 2018, Hortonworks is providing the following financial outlook for its third quarter and full year 2018:

For the third quarter of 2018, we expect:

Total GAAP revenue of $87.0 million.

GAAP operating margin between negative 45 percent and negative 40 percent, which includes stock-based compensation and related expenses and amortization of purchased intangibles of approximately $27.0 million.

Non-GAAP operating margin between negative 14 percent and negative 10 percent, which excludes stock-based compensation and related expenses and amortization of purchased intangibles of approximately $27.0 million.

For the full year 2018, we expect:

Total GAAP revenue between $338.0 million and $343.0 million.

GAAP operating margin between negative 48 percent and negative 43 percent, which includes stock-based compensation and related expenses and amortization of purchased intangibles of approximately $110.0 million.

Non-GAAP operating margin between negative 16 percent and negative 10 percent, which excludes stock-based compensation and related expenses and amortization of purchased intangibles of approximately $110.0 million.

GAAP operating margin outlook includes estimates of stock-based compensation and related expenses and amortization of purchased intangibles in future periods and assumes, among other things, the occurrence of no additional acquisitions, investments or restructuring and no further revisions to stock-based compensation and related expenses.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Finanzinstitution reduziert Mainframekosten durch Anwendungsmodernisierung

Aufgrund stetig steigender CPU-Kosten auf dem Mainframe durch ansteigende Transaktionslast im Online Banking, Mobile Banking und bei Self-Service- Geräten sollte die IT-Landschaft modernisiert werden. Die Last auf dem IBM Mainframe, und damit auch die Kosten, sollten reduziert werden, indem Daten aus dem Kernbanksystem in einem kostengünstigeren System in Echtzeit zur Verfügung gestellt werden, um Leseoperationen auf die neue Infrastruktur zu führen. Die bisherige IT-Architektur bestand aus dem Betriebssystem z/OS und Oracle auf der Open System Seite, die Unternehmensdaten wurden in DB2 Datenbanken vorgehalten.

Zur Replikation der Daten wird tcVISION eingesetzt, als kostengünstiges System zur Speicherung der Daten wird Apache Hadoop verwendet. Dies bietet über den primären Anwendungsfall hinaus den Vorteil, auch zahlreiche andere Use Cases abzudecken. Dazu gehören Realtime-Event-Handling & Stream Processing, Analytics auf in Echtzeit verfügbare Daten sowie die Möglichkeit, strukturierte und unstrukturierte Daten hochperformant auswerten zu können. Das System wird auf Commodity Hardware sehr kostengünstig betrieben und ist linear praktisch unbegrenzt skalierbar. Dabei sind die Replikationskosten (CPU-Verbrauch) durch tcVISION im Vergleich zur Einsparung sehr gering.

tcVISION ermöglicht eine signifikante Reduktion der Mainframekosten, wobei es selbst durch die Logfile-basierte Replikation sehr sparsam ist. Darüber hinaus besteht die Möglichkeit, auf Basis der replizierten Daten zahlreiche Anwendungsfälle zu implementieren, die auf einem Mainframe zu ressourcenintensiv wären. Realtime-Event-handling, Realtime-Analytics und Realtime-Fraudprevention sind nur einige der Anwendungsfälle, die jetzt abgedeckt werden können.

Für die Zukunft wird daran gedacht, den Einsatz von tcVISION zu erweitern und auch eine Realtime Replikation aus Oracle in den Datalake zu implementieren.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Hortonworks Extends Collaboration with Microsoft to Drive Big Data Workloads to Azure

Hortonworks, Inc.® (NASDAQ: HDP), a leading provider of global data management solutions, today announced it has renewed and extended its long standing relationship with Microsoft to give enterprise customers greater agility and flexibility when moving big data workloads to the cloud. The collaboration now gives customers more choice as to where their analytic and Internet of Things data workloads run. Customers can deploy Hortonworks Data Platform (HDP), Hortonworks DataFlow (HDF) and Hortonworks DataPlane Service (DPS) products natively on Microsoft Azure infrastructure as a service (IaaS) to extract value from data of all types. Additionally, customers can also use Microsoft Azure HDInsight, a fully managed service powered by Hortonworks Data Platform which delivers Apache Hadoop and Apache Spark.

According to IDC1, “IT buyers are shifting steadily toward cloud-first strategies” therefore customers need a simple, fast and flexible path to run data workloads in the cloud to accelerate the ability to uncover new business insights. Hortonworks’ global data management platforms enable organizations to rapidly deploy modern data applications across hybrid data architectures on premises, in the cloud and out to the edge. When combined with the global scale and agility of Azure, Hortonworks enables organizations to manage the entire lifecycle of their data with cloud infrastructure.

Hortonworks and Microsoft have been pioneering cloud solutions together for over six years through a strategic collaboration spanning joint engineering and go-to-market motions, giving customers the most flexible big data environments. Hortonworks and Microsoft continue to invest and collaborate in the open source community which ultimately reduces vendor lock in for customers. Whether the customer wants to adopt a hybrid data architecture or go all in on cloud, they have choices with Hortonworks and Microsoft teaming together on Azure IaaS and HDInsight deployments.

“Our customers are increasingly adopting a hybrid data architecture as cloud deployments offer excellent use cases for ephemeral analytic workloads,” said Rob Bearden, chief executive officer, Hortonworks. “With the option to deploy HDP, HDF or DPS workloads on Azure IaaS, or use HDInsight, customers can take whichever path to the cloud that fits their business needs best. We are proud of our work with Microsoft and the cloud solutions we’ve developed together that are driving tremendous value for our joint customers.”

“We are giving customers the most choice as to how they move data workloads to the cloud, on Azure or Microsoft HDInsight for an enterprise-grade managed service that makes it easier for end users,” said Rohan Kumar, Corporate Vice President, Azure Data. “We look forward to continuing our collaboration with Hortonworks to accelerate innovation in the cloud.”

For more information about HDInsight and Azure, please visit https://hortonworks.com/products/data-platforms/cloud/azure-hdinsight/

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Datensynchronisation – Datenreplikation – Datenmigration – Datenverteilung

Im Zeitalter der Digitalisierung sind BigData und Analytics in aller Munde. Die effiziente und zeitnahe Integration von Mainframe-Daten hat viele Gründe: BigData, Workload Entlastung des Mainframe zur Kostenreduzierung und Anwendungsmodernisierung sowie damit verbundene Migrationen von Daten und Anwendungen ohne „Big Bang“.

Abnehmendes Mainframe Knowhow sowie historisch gewachsene Datenbestände und deren Ausprägungen machen das Thema Datenaustausch im Mainframe-Umfeld zu einer großen Herausforderung.

Viele Unternehmen haben in der Vergangenheit FTP oder vergleichbare File-Transfer Lösungen verwendet: ein sehr CPU-intensives, unsicheres und kostspieliges Verfahren für die Bewegung von Massendaten. Es ist heute durch limitierte Batch-Fenster häufig nicht mehr praktikabel.

B.O.S. Software Service und Vertrieb GmbH bietet eine innovative Lösung, um diese anspruchsvolle und komplexe Aufgabenstellung einfacher, schneller, zuverlässiger und effizienter zu bewältigen:

tcVISION ist eine systemübergreifende Lösung für die bidirektionale Synchronisation und Echtzeit-Replikation von Daten auf Basis von Änderungsdaten (Change Data Capture).

tcVISION macht Datenaustausch zur Single-Step-Operation. Der Einsatz von Middleware oder Message Queueing ist nicht notwendig und auch kein Programmieraufwand für das Einpflegen der Daten im Zielsystem. Der Datenaustausch erfolgt im Raw Format, komprimiert und reduziert sich auf das Delta von Änderungsdaten.

Die Vorteile von tcVISION:

  • Reduzierung des Volumens für Datenübertragungen auf ein Minimum durch Konzentration auf Änderungsdaten (Change Data Capture)
  • Höchste Aktualität der Daten durch kontinuierliches Realtime Processing
  • Kostenreduzierung durch Verlagerung von Prozessen zur Datenaufbereitung und für den Datenaustausch vom Mainframe auf kostengünstigere Plattformen (z.B. UNIX; Linux)
  • Kostenreduzierung durch komprimierte Übertragung der Daten
  • Hohe Integrationsfähigkeit der tcVISION Lösung: Verschiedene Change Data Capture Technologien je nach Änderungsfrequenzen und Latenzzeitanforderungen
  • Intuitives Mapping bietet umfassende Funktionen zu Typkonvertierungen und Datenmodulierung – Transformatierung und Interpretation (Lookups) von Daten bis hin zur kompletten Änderung des Datenmodells
  • Integriertes Data Repository schafft Transparenz bezüglich aller vorhandenen Daten
  • Verzicht auf zusätzliche Middleware – Wegfall von Kosten und Implementierungsaufwand – effizienterer Transport-Layer
  • Wegfall von Programmieraufwand für Datenaustausch durch generierbare, automatisierte Prozesse
  • Parallelisierung der Einpflege-Prozesse bei den Datenzielen
  • Umfassende Konvertierung von historisch gewachsenen Mainframe-Datenstrukturen
  • Integrierte Pooling/Streaming Verfahren vermeiden Programmieraufwand und Message Queueing zur Absicherung von Datenverlust bei Nichtaufnahmefähigkeit des Zielsystems oder Verzögerungen
  • Praxisbewährte Verfahren zum Wiederaufsetzen von Replikationen bei Störungen im System (Datenbankfehler, Übertragungsstörungen)

Gründe für den Datenaustausch mit tcVISION

  • Hochverfügbarkeit der Informationssysteme – ohne „Down Time“
  • Low Latency Anforderungen erfordern real-time Datenreplikation
  • FTP für den Austausch von Massendaten ist kostspielig (CPU intensiv) und unsicher
  • Austausch von Massendaten erreicht seine Grenzen – zeitlich limitierte oder keine Batchfenster fordern Echtzeitaustausch von Änderungsdaten
  • Abnehmendes Mainframe Knowhow
  • Wachsende Tendenz zum Mainframe Offload
  • Anwendungsmodernisierung durch Systemmigration zwingt zum Handeln
  • Effiziente Datensynchronisation, Datenreplikation: Konzentration auf Änderungsdaten durch Log basiertes Capturing
  • Automatische Datenkonvertierung von Mainframe-Daten für das Einpflegen in LUW basierende Datenhaltungssysteme
  • Komfortabler bidirektionaler Datenaustausch mit integrierter Conflict Detection und Loop Prevention
  • Kompensation von fehlendem Mainframe-Knowhow durch integrierte Konvertierungsmechanismen für die verschiedenen Plattformen und Systeme
  • Neue Anforderungen durch BigData, Analytics und Cloud-Architekturen

Unterstützte Umgebungen

  • Mainframe – z Systems
    • z/OS 
    • z/VSE
    • Linux on System z
  • Verteilte Systeme
    • MS-Windows
    • UNIX
    • Linux
    • Cloud Systeme
    • Open Source Plattformen wie Hadoop

Unterstützte Daten*

  • z Systems – als Quelle und Ziel für bidirektionale Replikationen
    • DB2
    • VSAM
    • IMS/DB
    • DL1
    • Adabas
    • CA-Datacom/DB
    • CA IDMS/DB
    • sequentielle Dateien
  • Verteilte Systeme – als Ziel und Quelle für bidirektionale Replikationen
    • Oracle
    • DB2 LUW
    • MS-SQL Server
    • Adabas LUW
    • mySQL
    • PostgreSQL
    • Informix
  • Verteilte Systeme – als Ziel
    • Sybase
    • Hadoop
    • HDFS
    • MongoDB
    • Teradata
    • Exasol
    • Cloud Lösungen
    • Kafka
    • JSON
    • Google Protocol Buffers
    • XML
    • avro
    • messagepack
    • u.v.a.

* Die genannten Datenbanksysteme, Produkte und Technologien sind Trademarks der jeweiligen Hersteller.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Ein See voller Informationen: der richtige Umgang mit Data Lakes

Wer große Mengen unterschiedlicher Datenformen für Analytics nutzen will, kommt an Data Lakes kaum vorbei. Doch um die richtigen Daten zum Fließen zu bringen, ist beim Einrichten einiges zu beachten. Ansonsten kann aus dem See durchaus ein nutzloser Tümpel werden. IT Consultant Jens Lehmann erklärt, wie ein Data Lake strukturiert sein sollte.

Herr Lehmann, parallel zu Data Warehouses nutzen immer mehr Unternehmen Data Lakes. Was ist eigentlich der Unterschied?

In einem Data Lake werden große Mengen angelegt – also Big Data, die man so in einem Data Warehouse nicht speichern kann. Denn Data-Lake-Daten können im Rohzustand verbleiben. Und sie können aus unterschiedlichen Quellen stammen. Um im Bild zu bleiben: Ein Data Lake ist ein großes Gewässer, gespeist aus mehreren Zuflüssen. Ein Data Warehouse besteht eher aus vielen befüllten Behältern mit bereits gedruckten Etiketten.

In welchen Anwendungsfällen ist Analytics per Data Lake denn sinnvoll?

Vor allem wenn große Massen an Informationen mit herkömmlichen Mitteln nicht analysiert werden können. Viele Unternehmen haben Millionen von Sensordaten, Verkaufsinformationen oder Social-Media-Inhalten, die ein Data Lake gemeinsam speichern kann.

Ok. Und wie sorge ich dafür, dass diese Daten zusammen nutzbar sind? Wie strukturiere ich einen Data Lake richtig?

Man muss die Rohdaten mit zusätzlichen Merkmalen anreichern. Zum einen mit Metadaten, die verraten, von welchem Ort aus jemand auf eine Website zugegriffen hat. Zum anderen mit Metaprozessinformationen – sprich Infos darüber, wann und wo Daten generiert wurden. Bei einem Hersteller für Dichtungen heißt das: Welche Maschine hat die Dichtung um 14 Uhr hergestellt? Außerdem braucht es Kontextdaten, die Texteingaben von Kunden in Formularen oder E-Mails strukturieren. Denn ein Computer kennt zum Beispiel nicht den Unterschied, wann mit dem Wort „Bank“ das Geldinstitut oder die Sitzgelegenheit gemeint ist. Zu guter

Letzt beschreiben Zuordnungshinweise die Beziehung zwischen Daten, also ob Abhängigkeiten zwischen Merkmalen bestehen.

Reicht das, oder braucht es noch mehr Struktur?

Es reicht nicht ganz. Viele Unternehmen häufen aus verschiedenen Abteilungen verschiedene Daten an. Sie sollten daher den großen Data Lake in Data Ponds unterteilen – also in kleinere Datenteiche, wenn man so will. Die Daten in den Teichen können aber dennoch durch die Metadaten miteinander verbunden werden.

Was heißt das genau?

Ausgehend von den beschriebenen Zusatzmerkmalen legt man Data Ponds an. Das heißt, analoge Daten, Textdaten und Prozessdaten bilden eigene Bereiche, Cluster genannt. Sie werden auch mit verschiedenen technischen Methoden zusammengefasst. Das ist Expertenarbeit. Aber am Ende sind die Daten nicht nur für Experten nutzbar, sondern für viele Mitarbeiter.

Haben Sie ein Beispiel?

Endanwender wie Verkaufspersonal oder Marketingexperten können Data Lakes nutzen. Sie finden schnell Zusammenhänge – zum Beispiel zwischen allen produzierten Dichtungen in der eben angesprochenen Produktion. Ist eine Charge fehlerhaft, kann man anhand ihrer Zusatzdaten sehen, welche Maschine sie wann produziert hat – und den Fehler finden. Oder man findet schnell eine Auflistung der häufigsten Kundenkommentare der letzten Monate zu einem Produkt.
Klingt rechenintensiv. Was braucht es an Hardware, um mit Data Lakes zu arbeiten?
Praktischerweise lässt sich ein Data Lake ohne aufwändige Rechnerarchitektur betreiben. Über das Open Source Framework Hadoop können in den Clustern viele Computer miteinander verbunden werden, die ihre Rechenleistung für den Data Lake zur Verfügung stellen.

Haben Sie noch generelle Hinweise für den Nutzen eines Data Lakes?

Es reicht nicht, den Data Lake mit Inhalten aus allen zur Verfügung stehenden Quellen zu fluten. Vielmehr sollte es darum gehen, die Möglichkeiten dieses
Konzeptes richtig zu nutzen. Ohne Vernünftiges Information Lifecycle Management und entsprechende Governance wird dies nicht gelingen. Daher ist eine Vorab-Analyse der Ziele enorm wichtig.

"Richtig angelegt sind die Daten aus Data Lakes nicht nur für Experten nutzbar, sondern für viele Mitarbeiter."

Jens Lehmann, IT Consultant bei ITGAIN.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Leonardo to GO – IoT CoffeeMaker

IoT, Smart Factory, Predictive Maintenance – viele Schlagwörter. Was Sie jedoch verbindet ist, dass Daten aus beliebigen "Things" benutzt werden, um Prozesse anzustoßen, Entscheidungen zu treffen, zu planen und Voraussagen zu treffen.

Genau diese Verbindung präsentiert objective partner mit dem IoT CoffeeMaker, denn herkömmliche Dinge, wie eine Kaffeemaschine intelligent zu verknüpfen, kann komplexe Digitalisierungen des Business einfach darstellen und greifbar machen. Unser Showcase zeigt, wie Sensordaten von Maschinen in Prozesse einfließen und wie durch eine innovative Nutzung dieser Daten in Verbindung mit SAP ein echter Nutzen generiert wird – mit schnellen Ergebnissen und überschaubaren Investitionen.

Wichtig war uns, dass die Architektur die Anforderungen einer Enterprise-IT und von echten Maschinen und der Datenmenge auf dem Shopfloor erfüllt, wir neue Technologien rund um SAP (SAP Cloud Plattform, SAP Leonardo, Hadoop) einsetzen und wir die Transformation von Big Data in Smart Data zeigen.

Entstanden ist ein Showcase, der die NetApp Big Data Infrastruktur im Zusammenspiel mit Hadoop nutzt und einige Dutzend Kaffeemaschinen weltweit verbindet. Alle Kaffeemaschinen sind über einen Microcontroller verbunden und liefern ständig Daten in High Velocity & Variety.

Was können Sie entdecken?

Operation:
Up and Running – Läuft alles oder gibt es Probleme, sind alle Systeme verbunden und online, wieviel Kaffee wurde bereits gezogen und was sagen die Logs der Maschine – diese Informationen werden von den Maschinen abgegriffen und dargestellt.

Predictive Maintenance:
Anhand der Kaffeebezüge wird ein Forcast für den idealen Wartungstermin des Espresso- und des Kaffeemahlwerks berechnet. Dabei wird der Termin so optimiert, dass – wenn möglich – beide Mahlwerke zusammen gewartet werden können, um weitere Kosten, wie beispielsweise die zweite Anfahrt des Technikers, zu sparen. Auf Basis des Forecasts und der Lokationsdaten der Maschine lässt sich ein Service Mitarbeiter bestimmen, der direkt einen Serviceauftrag erhält.

Supply Chain:
Der Blickwinkel liegt auf einer Vorhersage des optimalen Bestelltermins für Kaffee. Dieser wird anhand des vorhergesagten Kaffeeverbrauchs und dem Bestand im Lager ermittelt. Die Bestellung kann automatisch oder manuell über einen Alarm angestoßen werden. Dabei wird vom Auftrag bis zur Bestellung der komplette Workflow im SAP-System automatisch ausgelöst.

Revenue:
Die Bezugsdaten der Kaffeemaschine werden mit betriebswirtschaftlichen Daten aus SAP in Bezug gesetzt, um den Umsatz je Warengruppe für jede Maschine in Echtzeit darzustellen.

Dashboard:
Die Daten der Maschine lassen sich mit Daten aus SAP anreichern und in beliebigen Dashboards darstellen. Das Dashboard ermöglicht dem Benutzer die Einsicht auf den Verbrauch je Warengruppe in Relation zur Tageszeit.

Neugierig geworden?
Dann entdecken Sie jetzt unseren IoT CoffeeMaker!

Wenn Sie Fragen zu unserem Showcase haben, zögern Sie nicht und kontaktieren uns.
Wir freuen uns aus Sie!

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

inovex und ProSiebenSat.1 Digital feiern 100. Sprint im agilen Big-Data-Projekt

Das IT-Projekthaus inovex unterstützt die ProSiebenSat.1 Digital GmbH seit 2012 dabei, für die Analyse des Web Traffic in der Unternehmensgruppe eine komplexe Big-Data-Lösung zu erstellen, zu betreiben und ständig weiterzuentwickeln. Nach fünf Jahren erfolgreicher Zusammenarbeit konnte nun der 100. Sprint des agilen Projektes gefeiert werden.

Der Projektverlauf
ProSiebenSat.1 Digital ist die Multimedia-Tochter der ProSiebenSat.1 Media SE und bündelt das Online- und Video-Geschäft sowie die strategischen Bereiche mit enger Anbindung an das TV-Kerngeschäft (Mobile, Social TV und HbbTV). Zum Portfolio gehören beispielsweise die Websites der Sender wie ProSieben.de, SAT1.de, kabeleins.de und sixx.de sowie die TV Apps aller sieben Sender.

Für die Messung, Steuerung und Optimierung der zahlreichen Online-Plattformen benötigt das Unternehmen detaillierte Datenanalysen des Web Traffic, welche vor allem auf Skalierung ausgelegt sind. Bereits im Jahr 2012 wurde prognostiziert, dass das Datenvolumen jährlich um 300 % wachsen werde. Auch die damals schon sehr heterogenen Datenquellen würden absehbar in ihrer Art und Anzahl deutlich zunehmen. Aus diesen Anforderungen heraus sollte ein Data Warehouse neu konzipiert werden, das Kennzahlen zu Reichweiten und zum Vermarktungserlös von Online-Inhalten ausweisen kann.

Für das von Beginn an langfristig angelegte Projekt suchte ProSiebenSat.1 Digital einen Partner mit tiefer Big-Data-Expertise und vertraute dabei auf inovex. Die Zielsetzung war von Beginn an, ein zentrales Kennzahlen-Reporting mithilfe einer Data-Warehouse-Applikation für die gesamte ProSiebenSat.1-Gruppe aufzubauen und zu installieren.

Als Backend und Analyse-Plattform für die zukünftige crossmediale Big-Data-Plattform wählte ProSiebenSat.1 Digital Apache Hadoop, kombiniert mit einem relationalen Data Warehouse. Aus den anfänglich einzelnen Reports ist inzwischen eine konsolidierte Reporting-Datenbasis entstanden, die aus mehr als 30 Datenquellen (z. B. Social-Media-Portale und Online-Vermarktung) gespeist wird.

Die Rohdaten werden dabei in einem Hadoop Cluster abgelegt und vorverarbeitet, der mehr als 10 Terabyte RAM, 1.400 VCores und mehr als 1 Petabyte Plattenspeicher vorhält. Die aggregierten Daten werden in einer relationalen Datenbank (PostgreSQL) gespeichert und für das Reporting aufbereitet. Inzwischen beinhaltet das Projekt rund 50 ETL-Strecken (im Wesentlichen mit Pentaho Data Integration), die sämtliche Rohdaten aus unterschiedlichen Lieferanten-Systemen tagesaktuell verarbeiten – im Bereich Social Media sogar nahezu in Echtzeit („near realtime“).

Agile Arbeitsweise
Die lange Laufzeit und die zunehmende Zahl an Stakeholdern erforderten von Anfang an ein Projektmanagement, das schnell auf neue Anforderungen reagieren kann. Der Schlüssel für den Projekterfolg lag und liegt in der agilen Arbeitsweise des Projektteams – von Anfang an wurden Arbeitsmethoden nach Scrum angewandt. Kerngedanke von
Scrum ist es, ein großes Projekt nicht von Anfang bis Ende präzise durchzuplanen, sondern in mehreren Inkrementen zu entwickeln. Das Team führt dabei alle erforderlichen Qualitätssicherungs- und Dokumentationsmaßnahmen durch und stellt in regelmäßigen Abständen („Sprints“) einen aktuellen Stand der Software bereit, der lauffähig sein muss. Diese Arbeitsweise ermöglicht ein Höchstmaß an Transparenz. Eine hohe Qualität wird in Scrum-Projekten generell vorausgesetzt, denn Qualität ist nicht verhandelbar.

Das Projektteam bei ProSiebenSat.1 Digital, das über die gesamte Zeit von durchschnittlich vier inovex-Mitarbeitern unterstützt wurde, konnte durch zweiwöchige Sprints den Projektfortschritt in regelmäßigen Abständen überprüfen und sich ändernde Kundenanforderungen flexibel berücksichtigen. Gearbeitet wurde im agilen Sinne remote, Abstimmungen erfolgten über tägliche Videokonferenzen. Zum Sprint-Wechsel (Planung, Review und Retrospektive) fanden persönliche Treffen bei ProSiebenSat.1 Digital statt.

Besonderes Augenmerk lag auch auf der Verzahnung der Softwareentwicklung (Development) mit den Mitarbeitern, die für den Betrieb der Infrastruktur (Operations) zuständig sind. Dieser sogenannte „DevOps“-Gedanke beschreibt im eigentlichen Sinne eine Unternehmenskultur, die – frei von Hierarchien und Silo-Gedanken – eine effektive Zusammenarbeit im Fokus hat mit dem Ziel, stabile, hochwertige Software schnell umzusetzen.

Im Oktober 2017 war es soweit: Das Team feierte gemeinsam den 100. abgeschlossenen Sprint in einem sehr erfolgreichen Projekt, das sich auch zukünftig noch weiterentwickeln wird. Denn während das Projekt sich zunächst auf das Business-Intelligence-Team bei ProSiebenSat.1 Digital beschränkte, profitieren inzwischen dank der skalierbaren Architektur mehr und mehr Fachbereiche und interne Abteilungen der Mediengruppe von den Ergebnissen der Anwendung. Eine Ausweitung der Mandantenfähigkeit auf weitere deutsche Konzern-Töchter wird derzeit vorangetrieben, die geographische Ausweitung auf Österreich wurde bereits umgesetzt.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox