SmartStore Händler, aufgepasst! Das neue Santander Rechnungskauf-Plugin geht an den Start

Wer heute online einkauft, möchte schnell, einfach und sicher bezahlen – möglichst ohne sensible Daten im Internet preiszugeben. Der Santander Rechnungskauf wird diesem Wunsch gerecht. Santander übernimmt Ihre Forderungen aus Rechnungskäufen – ganz ohne Identitätsprüfung oder Schriftform. Ihr Vorteil: Sie riskieren keine Zahlungsausfälle und erhöhen gleichzeitig Ihre Umsätze.

  • Einfache Integration in Ihr Shopsystem via Smartstore Plug-In
  • Kein Risiko durch Zahlungsausfälle
  • Auszahlungen am nächsten Werktag
  • Zahlungsfrist: innerhalb von 30 Tagen
  • Ohne Identitätsprüfung und Schriftformerfordernis

Als Online-Händler erhalten Sie monatlich detaillierte Transaktionsaufstellungen – angepasst auf den individuellen Bedarf Ihrer Buchhaltung. So behalten Sie maximalen Überblick bei minimalem Arbeitsaufwand.

Santander Rechnungskauf bietet Ihren Kunden die Sicherheit und Anonymität, die sie erwarten – und verschafft Ihnen als Online-Händler zugleich finanzielle Freiräume. Denn der Kunde muss erst 30 Tage nach Versand der Ware zahlen. Während Sie Ihr Geld schon am nächsten Werktag erhalten.

Mehr über Santander

Als international agierende Bank bietet Santander ein lückenloses Finanz-Portfolio. Vom Filialgeschäft bis zur Finanzierungslösung. Wussten Sie, dass keine andere Bank in Deutschland mehr Kfz- und Warenfinanzierungen abschließt als Santander? Diese Erfahrung im Bereich Konsumentenkredite unterscheidet Santander von reinen Payment Anbietern. Denn Santander betreut Privat- und Businesskunden gleichermaßen – und versteht so am besten, worauf es bei Payment Services ankommt.

Kontakt E-Mail: ecommerce@santander.de
https://youtu.be/WMnWlhLSoX8

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Telematik Award 2018: Wertvolle Pokale gingen an 13 glückliche Gewinner

Den branchenweit bekannten und seit 2010 fest etablierten Top-Award der Telematik-Branche überreichten der VDA-Geschäftsführer Dr. Scheel, Nds. Staatssekretär Dr. Berend Lindner, sowie der Veranstalter, die Mediengruppe Telematik-Markt.de am 22.September an insgesamt 13 glückliche Preisträger in 11 Kategorien und zwei Sonderpreisen. Zahlreiche Besucher der feierlichen Verleihung auf der IAA Nutzfahrzeuge erlebten darüber hinaus ein interessantes Rahmenprogramm mit Telematik-Talk und Live-Vorführungen. Die Teilnehmer der hochkarätigen Podiumsdiskussion vermittelten ein tieferes Verständnis für die Trendtechnologien der Transport- und Logistik-Branche.

Anfang dieses Jahres startete die dreimonatige Ausschreibung des Telematik Awards. Im Ergebnis zählte der Veranstalter, die Mediengruppe Telematik-Markt.de, knapp 280 Einreichungen unterschiedlichster Telematik-Lösungen aus den Bereichen Transport, Logistik und Produktion. Nach einem intensiven Bewertungsprozess nominierte die unabhängige Fachjury des Telematik Awards 40 Einreichungen in 11 Kategorien sowie für die Sonderpreise als "Beste Innovation" und "Anwenderpreis". Die Unternehmen konnten sich mit ihrerr Nominierungsomit bereits über diesen ersten Erfolg freuen. Welche Lösungen schließlich mit dem Telematik Award ausgezeichnet wurden, erfuhren die Gewinner und Gäste der feierlichen Verleihung auf der Leitmesse der Nutzfahrzeugbranche, IAA, am 22. September in Hannover.

Der VDA-Geschäftsführer Dr. Scheel begrüßte die zahlreichen Gäste im ConventionCenter. Von Anbeginn unterstützt der Verband der Automobilindustrie e.V. die den technologischen Fortschritt im Fahrzeug-Bereich und ist auch seit der ersten Verleihung im Jahr 2010 ein wertvoller Partner des Veranstalters.

Im Anschluss eröffnete der Nds. Staatssekretär Dr. Berend Lindner die Veranstlatung. Der Schirmherr des Telematik Awards 2018, Dr. Bernd Althusmann, Nds. Wirtschaftsminister und stellv. Ministerpräsident, musste am Vorabend absagen, da er aufgrund des kurzfristig ausgerufenen Katastrophenfalls durch den gefährlichen Moorbrand im Emsland zusammen mit Verteidigungsministerin Ursula von der Leyen die betroffene Region besuchen wollte. 

Auch das Niedersächsische Wirtschaftsministerium ist seit 2010 ein verlässlicher Partner des Veranstalters. Das Ministerium unterstützt mit der Übernahme der Schirmherrschaft die Bemühungen des Veranstalters, für Transparenz und Orientierung innerhalb dieser Branche zu werben und zu arbeiten. Dazu leistet die Verleihung des Telematik Awards selbstverständlich einen wertvollen Beitrag. Minister Althusmann brachte zusammen mit Ministerpräsident Stephan Weil den milliardenschweren Masterplan Digitalisierung für Niedersachsen auf den Weg. Er kennt also sehr genau den enormen Mehrwert der Telematik für den Wirtschaftsstandort Deutschland.

» In Kürze finden Sie auf Telematik-Markt.de den offiziellen Trailer zur Verleihung

KI – eine Schlüsseltechnologie der Telematik

Die diesjährige Podiumsdiskussion widmete sich dem Thema "KI, Blockchain und autonomes Fahren – Wie weit sind die Trend-Technologien für Transport und Logistik?" – drei Technologien, welche mitunter als die spannendsten Trends der Digitalisierung gelten.

Die Künstliche Intelligenz mit samt ihren "Bestandteilen" Machine Learning und Deep Learning kann theoretisch in nahezu allen Branchen Anwendung finden und als massiver technologischer Boost für bestehende Systeme funktionieren. Aufgrund dieses breiten Anwendungsgebietes markierte sie den Anfang der Gesprächsrunde. José da Silva, General Manager der ICS IT Projects GmbH, erklärte zunächst wie er diese Technologie definiert, bevor es weiter ins Detail ging und die Anwendungsbereiche in Transport und Logistik von allen Teilnehmern besprochen wurden. Staatssekretär Lindner erklärte, dass die Politik hier in der Verantwortung sei, klare Rahmenbedingungen zu schaffen und die Entwicklung zu fördern – wie u.a. im Masterplan Digitalisierung beschrieben wurde, welchen er kurz ansprach. Direkt im Anschluss mischte sich ein ganz besonderer Gast in die Gesprächsrunde ein: Roboter Pepper stellte sich vor, der am gesamten Veranstaltungstag den Besuchern zur Verfügung stand und mit ihnen interagierte.

Wie weit ist das automatisierte Fahren?

Im Anschluss folgte der Themenbereich Autonomes Fahren. VDA-Geschäftsführer Dr. Scheel beschrieb die Stufen des automatisierten Fahrens und auf welchem Stand wir uns derzeit befinden. Erklärt wurde auch inwieweit sich das autonome Fahren bei Pkw und Nutzfahrzeugen unterscheidet. Als perfekte Ergänzung kam es hier zu einer weiteren Live-Demonstration. Prof. Dr.-Ing. Stefan Kubica und seine Kollegen von der Technischen Hochschule Wildau, Diplom-Ingenieur Detlef Nemak, Prof. Dr.-Ing. Eckart Wolf und Prof. Dr.-Ing. Marius Schlingelhof zeigten einen speziell umgebauten Modelltruck. Ausgestattet mit verschiedensten vernetzten Sensoren veranschaulichten die Herren das automatisierte Fahren bei Lastkraftwagen.

Das Potenzial der Blockchain in Transport und Logistik 

Janine Härtel, Senior Product Manager für Mobility & Automotive bei der IOTA Foundation, erklärte den Gästen der Verleihungsveranstaltung kurz das Grundprinzip der Blockchain und verdeutlichte das enorme, disruptive Potenzial dieser Technologie. Ihr Unternehmen arbeitet mit einem weiterentwickelten System, namens "Tangle". Nachdem sie Dieses kurz erklärte, zog sie den Bogen zum kurz zuvor in der Gesprächsrunde thematisierten Platooning mit einem interessanten Use Case der "IoT-Währung" IOTA. Vollautomatisch und fair für alle Beteiligten gleicht es die Treibstoffersparnis im Platoon für alle Lkw aus, sodass jedes Fahrzeug gleichwertig profitiert.

» Ein Video der gesamten Gesprächsrunde finden Sie in den nächsten Tagen auf Telematik-Markt.de

Die feierliche Verleihung

Im Anschluss an die Podiumsdiskussion erfolgte die mit Spannung erwartete Bekanntgabe der diesjährigen Gewinner des Telematik Awards. Der Moderator Peter Juhle, der zum ersten Mal durch die Verleihung führte, überreichte noch kurz zuvor das Mikrofon an Prof. Birgit Wilkes, die als Chefjurorin der Fachjury interessante Informationen zu den diesjährigen Einreichungen mitteilen konnte. Zudem richtete sie einen ganz besonderen Dank an das ganze Juroren-Team, welches einmal mehr ganz hervorragende Arbeit geleistet hatte. Die hohe Kompetenz der unabhängigen Fachjury ist einer der Grundpfeiler, durch die der Telematik Award diesen hohen Stellenwert im deutschsprachigen Raum erlangen konnte. Liest man die Namen der Mitgliederinnen und Mitglieder, erklärt sich jedem, auf welchem hohen Niveau diese Preisverleihung steht.

Hochwertig waren folgerichtig dann auch die Trophäen, die im Anschluss sehr feierlich durch Staatssekretär Lindner, VDA-Geschäftsführer Dr. Scheel und Chefredakteur Peter Klischewsky, Mediengruppe Telematik-Markt.de, an die Gewinner übergeben wurden:

»Zu den Gewinnern des Telematik Awards 2018

Ausführliche Dokumentation in der kommenden Fachzeitung Telematik-Markt.de

Sämtliche siegreichen Telematik-Lösungen werden in der kommenden Ausgabe der Fachzeitung Telematik-Markt.de (Erscheinungsdatum: 30.10.2018) vorgestellt. Auch eine umfangreiche Dokumentation der gesamten Veranstaltung wird präsentiert. Als zentrales Thema greift die Redaktion in dieser Ausgabe Telematik für die Baubranche auf. Titel: "Ungenutzte Potenziale – Wie die Baubranche von Telematik profitieren kann".

Weitere Informationen zur Fachzeitung sowie das ePaper der aktuellen Ausgabe finden Sie hier.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Neues Event zum Thema Artificial Intelligence (AI) – „Hands on AI – Your Way to a smarter Enterprise“

Am 25. Oktober 2018 startet in der Rheinmetropole Köln die erste Ausgabe von „Hands on AI Your – Way to a smarter Enterprise“, ein neues Event-Format, das den wichtigsten Fragen bei der Implementierung von KI-gestützten Systemen in den Unternehmensalltag auf den Grund geht. Als Founding Partner des neuen Veranstaltungsformates verfolgt die SYSback AG gemeinsam mit dem Veranstalter IDG Business Media das Ziel, fundiertes AI-Wissen zu vermitteln und CxOs und AI-Anwendern eine Plattform zur Vernetzung und zum Erfahrungsaustausch zu bieten.

Artificial Intelligence (AI), beziehungsweise Künstliche Intelligenz (KI), ist im Moment das Trendthema und gilt als die wichtigste Technologie der Zukunft. Unternehmen setzten große Hoffnung in automatische Bilderkennung, natürlichsprachige Eingabe, virtuelle Assistenten, roboter-basierte Prozessautomatisierung und fortgeschrittenes maschinelles Lernen. Die Technologien bieten den Unternehmen eine reizvolle Perspektive Time-2-Markets zu verringern und ihre Effizienz zu steigern. Tatsächlich fällt der Einstieg in der Praxis noch schwer, die Fragestellungen und Probleme sind vielfältig und vielschichtig.

„Mit dem neuen Veranstaltungsformat setzten wir genau an dieser Stelle an. Hands on AI bietet allen Interessenten – Anwendern mit Vorwissen, Anwendern mit wenig bis keinem Vorwissen, Technologie-Vendoren, großen wie kleinen Beratungshäusern und AI-Startups – einen Rahmen für Vernetzung, Erfahrungsaustausch, praxisnahe Hinweise zur Gestaltung der eigenen AI-Aktivtäten und Innovationsimpulse“ sagt Olaf Windhäuser, Senior Vice President Services der SYSback AG.

Die Opening Keynote hält Sven Gábor Jánszky, Trendforscher und Leiter des Instituts "2b AHEAD ThinkTank". Er gibt einen Über- und Ausblick über die AI-Landscape, die Bedeutung der verbundenen Technologien für die Zukunft und deren moralische Implikationen. Außerdem werden unter anderem Dr. med. Michael Forsting, medizinischer Leiter der Zentrale Informationstechnologie am Universitätsklinikum Essen und Sascha Wolter, Senior UX Consultant & Principal Technology Evangelist bei Cognigy, Einblicke in die Möglichkeiten des KI-Einsatzes in unterschiedlichen Unternehmensumgebungen geben.

Hands on AI informiert, wie und mit welchen Technologien andere Unternehmen AI-Projekte umgesetzt haben und welche Faktoren wichtig waren, um den gewünschten Wertbeitrag zu erzielen. Hands on AI ist der richtige Rahmen für Austausch, Vernetzung und gegenseitige Unterstützung.

Hands on AI – Your Way to a smarter Enterprise | 25.10.2018 | 9.00-18.00 Uhr | Hotel im Wasserturm, Köln 

Die Veranstaltung ist für alle Interessenten offen. Der Eintritt beläuft sich auf 189 Euro. Eine Anmeldung ist erforderlich und kann erfolgen unter www.hands-on-ai.de/anmeldung 

Weitere Informationen über die SYSback AG unter www.sysback.de

 

 

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

World Quality Report 2018: Deutsche Unternehmen legen mehr Wert auf KI-basiertes Testing

Erstmals nennen IT-Experten die Customer Experience den wichtigsten Faktor zur Qualitätssicherung (QS). Darüber hinaus wird die Konvergenz von Künstlicher Intelligenz (KI), maschinellem Lernen und Analytik sowie der gebündelte Einsatz im Bereich intelligenter Automatisierung zur stärksten disruptiven Kraft, um die Transformation in QS und Testing in den nächsten zwei bis drei Jahren weiter voranzutreiben. Zu diesem Ergebnis kommt die 10. Ausgabe des World Quality Reports (WQR) von Capgemini und Sogeti, gemeinsam mit Micro Focus.

In der Gesamtbewertung des Reports war es die „Sicherstellung der Endkundenzufriedenheit” die mit der höchsten Priorität benotet wurde – mit einem durchschnittlichen Gesamtergebnis von 5,85 von insgesamt sieben Punkten. Dicht auf folgt das „Erkennen der Softwarefehler vor dem Go-Live” und die „Steigerung der Qualität von Software oder Produkt” mit jeweils 5,81 Punkten.

In Deutschland wird derzeit mehr Wert auf KI-basiertes Testen gelegt: Die CIOs betonen, dass Unternehmen bereits eine KI besitzen oder eine solche für externe Prozesse geplant haben – Deutschland liegt hier mit 53 Prozent deutlich über dem globalen Schnitt von 45 Prozent. Das Interesse an der Analytik für Tests wächst: Siebenunddreißig Prozent der deutschen Befragten geben an, dass sie prädiktive Analytik zur QS-Optimierung nutzen. Auch Open-Source-Werkzeuge werden in unserer Region immer beliebter, da sie leicht in DevOps und agile Umgebungen integriert werden können.

Der Endkunde ist König

Der Report zeigt, dass Unternehmen bereits Künstliche Intelligenz bei der Optimierung der Qualitätssicherung einsetzen. Bis zu 45 Prozent der Befragten an, dass sie intelligente Automatisierung anwenden. 57 Prozent experimentieren mit neuen Ansätzen beim Testen intelligenter Anwendungen, darunter unter anderem mit Elementen Künstlicher Intelligenz und Maschinellem Lernen. Darüber hinaus geben 59 Prozent der Unternehmen an, dass sie sich im kommenden Jahr voraussichtlich auf Prädiktive Analysen konzentrieren werden, während 54 Prozent an robotergesteuerter Prozessautomatisierung und 36 Prozent an Maschinellem Lernen interessiert sind.

„Qualitätssicherung ist nicht länger eine Backoffice-Funktion“, so Rafael Botor, Leiter Sogeti in Deutschland. „Es ist eine unverzichtbare Angelegenheit, die sich direkt auf das Kundenerlebnis auswirkt und der diesjährige World Quality Report zeigt, dass IT-Profis sich dessen stärker bewusst sind, als je zuvor. IT-Teams werden sich schnell weiterqualifizieren und neue Technologien einführen müssen, um mit der KI-gesteuerten und automatisierten Transformationsumgebung Schritt halten zu können."

Neue Rollen werden sichtbar: KI QS-Strategen, KI-Testexperten und Datenwissenschaftler

Der WQR 2018 zeigt, dass der Zugang zu den erforderlichen Fachkompetenzen in der neuen Technologielandschaft zu einer Herausforderung geworden ist. Mehr als ein Drittel (36 Prozent) der Befragten ist der Ansicht, dass vielen Fachleuten die notwendigen Kompetenzen fehlen, um ein angemessenes Verständnis von KI-Implikationen bei Geschäftsprozessen zu haben. 31 Prozent sind sogar der Meinung, dass das eigene datenwissenschaftliche Skillset nicht ausreicht (siehe Abbildung 1 unten).

Botor ergänzt: „Qualifikationsdefizite sind eine große Hürde, die Unternehmen überwinden müssen. Die Arbeit mit KI erfordert Fachleute mit einem breiten Spektrum an Kompetenzen, wie beispielsweise algorithmischem Wissen, mathematischer Optimierung und Business-Intelligence-Verständnis. Die IT-Abteilung von morgen wird weitaus mehr Datenwissenschaftler, KI-Testexperten und Strategen beschäftigen, als bisher."

KI und Automatisierung auf dem Vormarsch: Umfangreiche QS-Tests mit neuem Ausmaß

Dass der Fokus auf der Zufriedenheit der Endverbraucher liegt, zeigt gleichzeitig auch, wie wichtig andere Geschäftsprioritäten wie Reaktionsfähigkeit (Speed-to-Market), Wettbewerbsfähigkeit und Innovationsfähigkeit sind, so das Fazit des WQR. Es werden die Ansätze vorangetrieben, die versuchen, große Mengen an strukturierten und unstrukturierten Daten in einem angemessenen Rahmen weiter zu verarbeiten. Gleichzeitig spiegelt es auch eine Veränderung bisheriger Denkstrukturen wider, als Weiterentwicklung früherer Ansätze im Bereich der Multi-Channel-Experience.

Raffi Margaliot, Senior Vice President und General Manager, Application Delivery Management bei Micro Focus: „Kunden kommunizieren heute über verschiedenste Geräte und auf komplexen Technologieplattformen, ein nahtloses Benutzererlebnis wird so zum entscheidenden Aspekt auf der Customer Journey. Mit zunehmendem Austesten und Experimentieren in den Bereichen KI, Analytics und IoT müssen sich Unternehmen schnell auf die Weiterentwicklung spezieller Fähigkeiten ihrer Testteams konzentrieren, um mit der fortschrittlichen Technologielandschaft mithalten zu können."

Über den World Quality Report 2018

Die Studie mit 1.700 befragten CIOs und Senior Technology Professionals aus zehn Wirtschaftszweigen (125 davon aus Deutschland) in 32 Ländern, ist der einzige globale Bericht, der Anwendungsqualität und Testtrends analysiert. Er wurde seit 2009 jährlich aufgelegt. Die 10. Ausgabe des Reports wurde erstmalig um computergestützte Telefoninterviews ergänzt und basiert auf quantitativen Interviews aus der ganzen Welt, gefolgt von qualitativen, intensiven Diskussionen. Die Befragten waren eingeteilt in sechs Gruppen: CIO, VP Applications, IT Director, QA/Testing Manager, CDO/CMO und CTO/Produktmanager.

Weitere Informationen

Eine vollständige Version des World Quality Reports 2018 gibt es auf www.worldqualityreport.com

Über Capgemini

Capgemini ist einer der weltweit führenden Anbieter von Management- und IT-Beratung, Technologie-Services und Digitaler Transformation. Als ein Wegbereiter für Innovation unterstützt das Unternehmen seine Kunden bei deren komplexen Herausforderungen rund um Cloud, Digital und Plattformen. Auf dem Fundament von 50 Jahren Erfahrung und umfangreichem branchenspezifischen Know-how hilft Capgemini seinen Kunden, ihre Geschäftsziele zu erreichen. Hierfür steht ein komplettes Leistungsspektrum von der Strategieentwicklung bis zum Geschäftsbetrieb zur Verfügung. Capgemini ist überzeugt davon, dass der geschäftliche Wert von Technologie von und durch Menschen entsteht. Die Gruppe ist ein multikulturelles Unternehmen mit 200.000 Mitarbeitern in über 40 Ländern, das 2017 einen Umsatz von 12,8 Milliarden Euro erwirtschaftet hat.

Mehr unter www.capgemini.com/de. People matter, results count.

Über Sogeti

Sogeti ist einer der führenden Anbieter von Technologie- und Engineering-Dienstleistungen. Sogeti bietet wegbereitende Lösungen in der digitalen Transformation sowie maßgeschneiderte Expertise rund um Cloud, Cybersecurity, Digital Manufacturing, Digital Assurance und Testing sowie Trendtechnologien. Sogeti verbindet Agilität mit schneller Umsetzungsfähigkeit, namhaften Technologie-Partnerschaften, Weltklasse-Methoden und seinem globalem Liefermodell Rightshore®. Über 25.000 Mitarbeiter in 15 Ländern und rund 100 Standorten in Europa, den USA und Indien sind für das Unternehmen tätig. Sogeti ist eine hundertprozentige Tochtergesellschaft der Capgemini SE, die an der Pariser Börse gelistet ist.

Erfahren Sie mehr unter www.sogeti.com.

Rightshore® ist eine eingetragene Marke von Capgemini.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Künstliche Intelligenz für Bau und Immobilien

Die Digitalisierung verändert die Immobilienbranche rasant, seine Akteure begegnen ständig neuen Herausforderungen. Die PMG Projektraum Management GmbH berät daher, wie jedes Jahr, Messebesucher auf der Expo Real, Europas größter Fachmesse für Immobilien und Investitionen vom 08. bis 10. Oktober in München. 2018 richtet der Experte für E-Collaboration und virtuelle Datenräume seinen Schwerpunkt dabei auf ein zentrales, in letzter Zeit immer wichtiger werdendes Thema: Künstliche Intelligenz. Denn wie nur sehr wenige ihrer Wettbewerber entwickelt die PMG intelligente Technologien für Projekt- und Datenräume, die das Arbeitsleben im gesamten Lebenszyklus einer Immobilie angenehmer und effizienter gestalten.

Künstliche Intelligenz – nur so schlau wie ihr Entwickler
„Intelligent“ bedeutet in diesem Zusammenhang, dass eine selbstlernende Software riesige Datenmengen ordnet sowie eventuelle Optionen und Risiken analysiert, um im nächsten Schritt Lösungen vorzuschlagen und Prozesse zu optimieren. Doch bevor die Software eine Baugenehmigung oder einen Mietvertrag von sich aus erkennt, müssen zuerst Ziele definiert, und die Software mit den Daten auf diese Ziele hin „trainiert“ werden. „Die Vorteile von Künstlicher Intelligenz im Bau- und Immobiliensektor werden nur voll ausgeschöpft, wenn auch die Qualität der entwickelten Algorithmen stimmt, der Input bestimmt also komplett die Qualität des Outputs“, sagt PMG Geschäftsführer Patrick Reininger. „Viele Wettbewerber entwickeln KI-Lösungen nur für eine Nische, speziell in der Immobilienbranche ist das Angebot überschaubar. Die PMG hingegen bietet umfassende Lösungen, von der Planung bis zur Veräußerung eines Gebäudes.“

Künstliche Intelligenz und Transaktionen
Die Nutzung von KI für Transaktionen im Immobiliensektor ist in Europa verbreiteter als in den USA, obwohl die Vorteile auch hier auf der Hand liegen. Vor einer Transaktion können alle relevanten Informationen gebündelt und analysiert, eine Vielzahl an Verträgen so geprüft und zusammengefasst werden. Daher wird KI immer mehr bei der Verwaltung von großen Portfolios eingesetzt, denn gerade hier ist es teilweise schlicht unmöglich, in der Kürze der Zeit sämtliche Dokumente zu sichten, also möglichst schnell die sprichwörtliche Nadel im Heuhaufen zu finden. Das entlastet Mitarbeiter und schafft Ressourcen für neue Aufgaben. KI erhöht demnach auch und gerade bei großen Transaktionen mächtig das Tempo.

Künstliche Intelligenz und Datensicherheit
„Wo sensible Geschäftsdaten durch Künstliche Intelligenz verarbeitet werden, kommt der Sicherheit der Daten eine besondere Bedeutung zu“, so Reininger. „Die Lösung liegt in einer cloudbasierten, modularen Software, deren Server sich alle in Deutschland befinden und damit unter deutsches Recht fallen. Nur solche Konzepte halten den hohen Sicherheitsanforderungen hierzulande Stand.“
Interessierte Messebesucher der Expo Real 2018 vereinbaren Termine bei Herrn Stephan Seidenberger, Abteilungsleiter Vertrieb unter 089/330 37 82 – 133.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Effiziente Datensicherung in Zeiten von Big Data, KI und Industrie 4.0

Der Hamburger Hersteller von Backup und Restore Software und Experte für Datensicherungslösungen NovaStor lädt zu einem Webinar über die Sicherung von Datenmengen im PetaByte-Bereich. Am Dienstag, dem 25. September 2018, erfahren IT-Verantwortliche um 11 Uhr, wie sie große Datenmengen stabil, schnell und kostengünstig schützen.

Die digitale Transformation setzt neue Backup- und Restore-Parameter
Die digitale Transformation läutet eine neue Backup-Ära ein. Anwendungen aus dem Umfeld von Big Data, künstlicher Intelligenz oder Industrie 4.0 sammeln, analysieren und erzeugen sehr große Datenvolumen. Der Betrieb von Infrastruktur-Anwendungen erfordert höchste Effizienz.

Big-Data-Backup-Lösungen müssen Datenmengen schnell verarbeiten, um Backup- und Restore-Fenster einzuhalten oder dazu beitragen teure Primärspeicher zu entlasten. Energieeffiziente Speichertechnologien wie Tape und eine sparsame Speichernutzung gewinnen an Relevanz. Die Geschwindigkeit des Datenwachstums stellt die Skalierbarkeit der Datensicherungslösung auf die Probe.

Webinar „Die PetaByte-Herausforderung“
Am Dienstag, dem 25. September 2018, erläutern NovaStors Backup-Experten in rund 30 Minuten, welche Strategien bei großem Datenwachstum helfen. Teilnehmer lernen Sicherungs- und Wiederherstellungskonzepte für Datenvolumen im PetaByte-Bereich kennen und erfahren, wie Backup und Restore von PetaBytes sich stabil, schnell und kostengünstig umsetzen lässt.

Anmeldungen sind ab sofort möglich unter http://bit.ly/25-09-2018.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Künstliche Intelligenz: Vom Aufblühen einer alten Disziplin

Künstliche Intelligenz (KI) boomt. Bedingt durch technologische Fortschritte in der IT wächst die Menge KI-basierter und markttauglicher Entwicklungen. Was ist KI eigentlich? Wie können Unternehmen hiervon profitieren und welche Einsatzmöglichkeiten bieten sich ihnen?

Sensordatenanalyse, Predictive Maintenance, Gesichtserkennung, Chatbots, Sprachassistenten, Autonomes Fahren, Pflegeroboter – in IT- und anderen Fachmagazinen werden über diese Themen ebenso flächendeckend berichtet wie in Publikumsmedien. Gemeinsamer Nenner dieser neuen Anwendungen bildet die Technologie rund um Künstliche Intelligenz (KI) bzw. Artificial Intelligence (AI). Wie ist dieser Hype zu erklären? Schließlich reicht die KI-Forschung bis zurück in die Mitte des letzten Jahrhunderts. Die meisten Algorithmen und multivariaten statistischen Methoden sind – von wenigen neuen Verfahren abgesehen – uralt. Warum treten KI-basierte Anwendungen erst jetzt massenhaft auf?

Der Grund für erste markttaugliche Verwendungen liegt im enormen Fortschritt, den die Informationstechnologie (IT) in den letzten Jahren genommen hat. Heute steckt in einem durchschnittlichen Smartphone mehr Rechnerleistung als in einem NASA-Computer aus der Zeit der ersten Mondlandung. Ebenso lassen sich heute exponentiell mehr Daten intelligent verarbeiten als früher – und das fast in Echtzeit. Die Gründe hierfür: schnellere, in Cluster geschaltete Rechner, verbesserte Speicher (In-Me­mory, Cloud) sowie die Möglichkeit, in kurzer Zeit individuelle Softwarelösungen zu entwickeln. Big-Data-, Business-Intelligence bzw. Business-Analytics- und Predictive-Analytics-Lösungen wären ohne diese Weiterentwicklungen nicht denkbar.

Dennoch ist bei diesem Boom Vorsicht geboten. Denn KI umfasst sehr komplexe Anwendungen aus Mathematik, Informatik und Neurologie, nicht zu vergessen philosophische und ethische Diskussionen. Was bis vor einigen Jahren nur in Forschungsbereichen globaler IT-Firmen, Hochschulen und Instituten untersucht, thematisiert und getestet wurde, läuft Gefahr, zwischen Halbwissen und Verschwörungsszenarien zu verschwinden. Einige Begriffsklärungen können hier helfen.

KI – was ist das eigentlich?

Bisher gibt es weder eine vollumfängliche und allgemein gültige Definition der menschlichen noch der künstlichen Intelligenz. Dessen ungeachtet, ist das Ziel von KI-Versuchen, das menschliche Gedächtnis, seine Lernprozesse und sein problemlösungsorientiertes Verhalten nachzubilden. Hinsichtlich ihrer Funktionalitäten basiert KI zusammengefasst auf Verstehen, Fühlen und Handeln:

„Verstehen“ umfasst das Verarbeiten des Inputs, zum Beispiel durch Sprachverarbeitungsprogramme, die Geschriebenes, Gesprochenes und die Sprache an sich verstehen. Ist der Input verstanden, kann die KI sinnvolle Antworten finden, also das angeeignete Wissen kommunizieren und Menschen bei ihrer Entscheidungsfindung helfen. Unter „Fühlen“ wird das Erfassen von Eindrücken aus der Umwelt verstanden, etwa durch maschinelles Sehen, Sensoren oder Mikrofone. Nach Identifizierung, Analyse und Verarbeitung dieser Informationen können Veränderungen in ihrem Umfeld automatisch identifiziert, gekennzeichnet und berichtet werden; gegebenenfalls kann auch mit Programmbefehlen darauf reagiert werden. „Handeln“ definiert die Umsetzung der eingegebenen und sensorisch erfassten Informationen in Aktionen. Robotik-Lösungen stellen hierfür die benötigte Hardware, damit das Handeln für die Software möglich gemacht wird (autonome, humanoide oder Service-Roboter). Grundsätzliche Voraussetzung sämtlicher KI-Projekte ist, dass sich die eingegebenen oder anderweitig erfassten Daten und Vorgänge algorithmisch abbilden und verarbeiten lassen. Insofern handelt es sich also immer um sogenannte geschlossene Systeme, deren Grenzen von den erfassten Daten und dargestellten Prozessen gebildet werden.

Vom Schachcomputer zur selbstlernenden Maschine

Ein einfacher Schachcomputer tat vor 30 Jahren genau das, was er sollte: Unter Beachtung der Schachregeln errechnete er die jeweils optimalen Spielzüge je nach eingestellter Spielstärke beziehungsweise Berechnungsdauer binnen weniger Sekunden. Die Grenzen dieses geschlossenen Systems markierten die Schachregeln. Mittlerweile berücksichtigen handelsübliche Schachprogramme bereits ganze Bibliotheken verschiedener Eröffnungen, Varianten und vollständiger Spielpartien. Auf prädikatenlogischer Basis berechnen sie unzählige Varianten, um die nächstbesten Züge zu ermitteln. Auch hierbei handelt es sich um ein geschlossenes System, denn die verwendeten logischen Aussagen und Regeln sind formale Sprachen zur Wissensrepräsentation. Mit ihnen findet eine logische Anwendung der bereits vorhandenen, eingespeisten Wissensinformationen und Regeln statt, die nicht erlernt und erkannt, sondern nur ausgeführt werden.

Machine Learning (ML) – alter Wein in neuen Schläuchen?

Einen scheinbar neuen Weg, Computer sinnvolle Prozesse entwickeln zu lassen, ohne sie speziell dafür zu programmieren, beschreibt das maschinelle Lernen. So innovativ ist dieser Weg allerdings nicht. Denn deren Grundlagen fußen im Wesentlichen auf Forschungen im Bereich Mustererkennung, die bereits vor fast vierzig Jahren durchgeführt wurden. Erst seit der Möglichkeit, Daten parallel in Grafikprozessoren (GPU) exponentiell schneller zu verarbeiten, erlebt ML seit 2010 einen wahren Boom.

Bei ML generiert der Rechner – ähnlich wie ein Mensch – Wissen aus Erfahrung und findet eigenständig Lösungen für neue und unbekannte Pro­bleme. Ein Programm analysiert hierzu zahlreiche Beispiele – je mehr, desto besser. Mit Hilfe selbstlernender Algorithmen wird versucht, in den Daten bestimmte Muster und Gesetzmäßigkeiten zu erkennen. Das Ziel maschinellen Lernens ist die intelligente Verknüpfung von Daten, um Zusammenhänge zu erkennen, Rückschlüsse zu ziehen und Prognosen zu treffen. Hierbei kommen multivariate statistische Verfahren zum Einsatz. Sie ermitteln die wahrscheinlich beste Lösung und merken sich gegebenenfalls richtige Entscheidungen via persistenter Speicherung, um derartige richtige Urteile beim nächsten Mal wieder zu fällen. Typische Anwendungen auf ML-Basis sind zum Beispiel „Next-best-offer“-Möglichkeiten im Rahmen der intelligenten Warenkorbanalyse eines Webshops.

Künstliche neuronale Netze (KNN)

Eine weitere KI-Variante – die der Neuronalen Netze – ist ebenso älter als angenommen, denn sie reicht bis in die vierziger Jahre des 20. Jahrhun­derts zurück. Erst mit dem beginnenden IT-Hype Mitte der achtziger Jahre begannen Forscher diese Modelle, die sich anders als die symbolverarbeitende KI stärker am biologischen Vorbild des Gehirns orientierten, weiter zu entwickeln. Die Grundidee: Informationsverarbeitung basiert auf der Interaktion vieler einfacher Verarbeitungselemente und erfolgt in hohem Maße parallel. Nach dem Vorbild des menschlichen Gehirns simulieren KNN ein Netzwerk aus miteinander verbundenen Neuronen und lernen aus Erfahrung, indem sie die Verbindungsstärke der simulierten Neuronenverbindungen verändern. Auf diese Art und Weise können sich Maschinen Fähigkeiten wie Sehen, Hören, Sprechen, Lesen und Schreiben aneignen. Für diese Fähigkeiten sind allerdings umfangreiche Test- bzw. Trainingsläufe notwendig, an deren Ende ein abstrahiertes Modell miteinander verbundener Neuronen steht. Dank der antrainierten speziellen Anordnung und Verknüpfung dieser Neuronen lassen sich dann Anwendungsprobleme aus verschiedenen Bereichen (Statistik, Technik, Wetter usw.) computerbasiert lösen. Je höher die Anzahl der Schichten eines KNN ist, desto schneller und genauer können die Ergebnisse ermittelt werden.

Üben, üben, üben!

Bei Deep-Learning-Modellen werden große Datenmengen bereitgestellt und das Computerprogramm klassifiziert diese via Cognitive Computing anhand von Attributen, die es aus Bildern, Texten oder akustischen Signalen filtert. Der wesentliche Unterschied zum Machine Learning besteht im Training, denn die relevanten Merkmale werden aus den Daten automatisch extrahiert. Außerdem verbessert das Deep-Learning-Netz die Ergebnisse, sobald weitere Daten hinzugefügt werden. Hieraus folgt: Übung macht den Meister. Die Trainingszeit dieser Prozesse hängt von der verfügbaren Rechenleistung ab, sie reicht von wenigen Stunden bis zu mehreren Tagen. Dank enormer Datenmengen und erweiterter Rechenkapazität sowie durch die Nutzung von KNN erzielen Deep-Learning-Modelle bei manchen Aufgaben bereits heute genauere Ergebnisse als Menschen.

Das beweisen zum Beispiel die Erfolge des KI-Systems AlphaZero von Google. Die KI-Entwickler von AlphaZero haben ihrer neuen Software nur die Grundregeln des Schachspiels gezeigt. Den Rest hat sich die KI selbst beigebracht, indem sie mithilfe selbstlernender Algorithmen und immenser Rechenkraft immer wieder gegen sich selbst angetreten ist und aus ihren Fehlern gelernt hat. Die Erfolge waren beeindruckend: Ende 2017 hat die selbstlernende Software sämtliche führende Programme für Schach und Go geschlagen. Gegen menschliche Spieler ist sie gar nicht erst angetreten. Trotz dieser Erfolge gilt es zu beachten, dass KI nur in geschlossenen Systemen funktioniert, das heißt, sämtliche Bedingungen und Regeln lassen sich, so komplex sie auch sein mögen, beschreiben. Für Spiele und Szenarien trifft das zu. In der realen menschlichen Lebenswelt mit unvorhersehbaren zukünftigen Ereignissen ist das nicht der Fall.

KI-Lösungen für Unternehmen

Die Zeit KI-basierter Business-Anwendungen hat quasi erst begonnen. In manchen Online-Shops mehren sich spracherkennende und schreibende Chatbots bzw. sprechende virtuelle Agenten ebenso wie „Next-best-offer“-Angebote. In immer mehr Privathaushalten gehören sprachbasierte Informationsassistenten (Alexa, Siri etc.) längst zum festen Bestandteil der Einrichtung. In der Fertigung eröffnet die intelligente Sensordatenerfassung völlig neue Möglichkeiten zur Steigerung der Produktqualität oder zur Instandhaltung und Wartung von Maschinen sowie Geräten. Unter bestimmten Rahmenbedingungen und in spezifischen Situationen bieten KI-Anwen­dungen auch kleinen und mittelständischen Unternehmen interessante Möglichkeiten zur Optimierung von Geschäftsprozessen oder zur Entwicklung neuer Geschäftszweige. Das zeigt die wachsende Vielfalt an Einsatz­möglichkeiten im Handel, in der Industrie und im Dienstleistungsbereich. Eigene Erfahrungen mit einem Handelsunternehmen haben gezeigt, dass es für seinen Kundendienst enorme Produktivitätsquoten erzielt, indem es Teile von Hotline-Anfragen bereits von einem Chatbot bearbeiten lässt. Das verkürzt nicht nur die Reaktionszeiten, sondern entlastet auch die Service-Mitarbeiter und führt zu höherer Kundenzufriedenheit.

Künstliche Intelligenz intelligent nutzen

Immer mehr Großkonzerne stecken bereits mitten in der Entwicklung von KI-Anwendungen oder nutzen sie bereits. Denn ihr Einsatz im Kundenservice, im Marketing und Vertrieb, in der Produktionssteuerung, im Risikomanagement oder Personalwesen erweist sich zunehmend als besonders erfolgsträchtig. Kleinere Betriebe und mittelständische Firmen schrecken vor einer Investition in derart disruptionsfördernde Technologien noch zurück. Das hat weniger technologiephobe Gründe, sondern ist oft durch wirtschaftliche Fragen motiviert: „Lohnt sich die eigene Entwicklung einer KI-Lösung für meine Firma? Realisiere ich das mit einem IT-Partner? Individualentwicklung oder Standardlösung? Wie sieht die Anbindung an meine vor- und nachgelagerten IT-Systeme aus? Wie sieht mein ROI aus?“

Hier hilft das Gespräch mit der eigenen IT-Abteilung und die Beratung durch einen externen IT-Partner weiter. Kreative Workshop-Methoden sind eine weitere Möglichkeit, sich den KI-Technologien mit neuen Denkweisen, wie etwa Design Thinking, zu nähern. Unternehmen erhalten auf diese Weise nicht nur Orientierungshilfen inmitten der neuartigen KI-Welt. Sie erhalten darüber hinaus einen versierten externen Sparringspartner zum wirtschaftlichen Ausloten neuer Geschäftsmodelle durch eigene KI-Anwendungen. Die Themen reichen von Ideengenerierung, Definition des konkreten Projektziels und vorhandener technischen Möglichkeiten bis hin zur Prototyp-Erstellung und -Testing. Von den erarbeiteten Ergebnissen zur Produktivsetzung ist es dann oft nur ein kleiner Schritt.

Web-basierte KI-Plattformen bieten an dieser Stelle einen technisch wie wirtschaftlich interessanten Lösungsweg, ohne dass eigenes IT-Entwickler-Know-gestellt werden muss. IBM Watson ist eine der avanciertesten Lösungen in diesem Bereich. Unternehmen können auf dieser KI-Plattform die unterschiedlichsten Microservices für Ihren Bedarf auswählen, ohne dafür eigene umfangreiche Investitionen – etwa in Softwareentwicklung, Rechner- oder Speicherkapazität – tätigen zu müssen. Dadurch können sie sich voll und ganz auf das kunden- bzw. projektspezifische Training der Anwendungen konzentrieren. An die Sicherheit der Daten ist dabei ebenso gedacht, denn die Datenhoheit verbleibt DSGVO-konform beim Kunden.

Weitere Informationen: www.mip.de/ki

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

OpenStack-Bare-Metal-Clouds, Fast Forward Upgrades und Hardware-Beschleuniger stehen im Mittelpunkt der neuesten OpenStack-Version „Rocky“

Die OpenStack-Community hat unter dem Namen Rocky die 18. Version der quelloffenen Cloud-Infrastruktur-Software veröffentlicht. Die Software ist mittlerweile die Basis von mehr als 75 Public Cloud Rechenzentren und Tausenden von privaten Clouds mit einer Größe von mehr als 10 Millionen Rechnerkernen. OpenStack ist die einzige Infrastrukturplattform, die für die Implementierung auf verschiedenen Hardware-Architekturen wie Bare Metal, virtuellen Maschinen (VMs), Grafikprozessoren (GPUs) und Containern geeignet ist.

Die beiden wichtigsten unter den dutzenden Verbesserungen von Rockysind die Weiter­entwicklung von Ironic (dem Bereitstellungsdienst für reine Hardware-Systeme) und Fast-Forward-Aktualisierungen. Es gibt auch einige neue Projekte und Funktionen für die neuen Anforderungen der Anwender an Hardware-Beschleuniger, Hochverfügbarkeits-konfigurationen, serverlose Funktionen sowie Anwendungsfälle für Edge-Computing und Internet der Dinge (IoT).

Bare Metal: Programmierbare Infrastruktur für jede beliebige Rechnerinstanz

Die überwiegende Mehrheit der Unternehmen betreibt sowohl virtuelle Maschinen (VMs) als auch Container zur Unterstützung neuer Anwendungsfälle wie Edge-Computing, Virtuali­sierung von Netzwerkfunktionen (NFV) und Künstliche Intelligenz (KI) bzw. Maschinenlernen. Viele Unternehmen implementieren neben VMs jetzt auch Container direkt auf reinen Hardware-Systemen (Bare Metal). Bare-Metal-Clouds unter OpenStack Ironic legen den Grundstein für diese hybride Umgebung. Ironic ist eines der am schnellsten wachsenden OpenStack-Projekte.

OpenStack Ironic bringt erweiterte Verwaltungs- und Automatisierungsfunktionen für Bare-Metal-Infrastrukturen und ermöglicht als Treiber für Nova eine Mehrfach-Mandantenfähigkeit. Das bedeutet, dass Benutzer die physische Infrastruktur genauso verwalten können, wie sie es von VMs gewohnt sind, insbesondere mit den neuen Ironic-Funktionen in Rocky:

  • Benutzerverwaltete BIOS-Einstellungen:Das BIOS (Basic Input Output System)erlaubt die Hardware-Initialisierung und verfügt über viele Konfigurationsoptionen, die nach Anpassung eine Vielzahl von Anwendungsfällen unterstützen. Durch verschiedene Optionen können Benutzer die Leistung erhöhen, das Energie-Management konfigurieren oder Technologien wie SR-IOV oder DPDK aktivieren. Ironic ermöglicht jetzt die Verwaltung von BIOS-Einstellungen. Dies unterstützt Anwendungsfälle wie NFV und bietet dem Anwender mehr Flexibilität.
  • Conductor Groups– In Ironic nutzt der „Conductor“ (Dirigent) Treiber, um Prozesse an der Hardware auszuführen. Ironic verfügt über die neue Eigenschaft „conductor_group“, mit der man einschränken kann, welche Knoten bestimmte Dirigenten kontrollieren können. So können Benutzer bestimmte Knoten auf der Grundlage ihres physischen Standortes isolieren und für mehr Sicherheit und Leistung Netzwerksprünge reduzieren.
  • RAM-Disk-Implementierungsschnittstelle– eine neue Schnittstelle in Ironic für plattenlose Implementierungen. Dies ist bei Groß- und Hochleistungs-(HPC-)Anwendungsfällen nützlich, wenn die Betreiber sehr kurzlebige Instanzen zum zügigen Erstellen einer großen Umgebung brauchen.

„OpenStack Ironic bietet Bare-Metal-Cloud-Dienste, welche die Automatisierung und schnelle Bereitstellung bei virtuellen Maschinen jetzt auch für physische Server verfügbar macht“, erklärt Julia Kreger, die verantwortliche Software-Ingenieurin bei Red Hat und Leiterin des OpenStack-Ironic-Projektteams. „Dieses leistungsstarke Fundament ermöglicht den Betrieb von VMs und Containern auf derselben Infrastrukturplattform, und genau das wollen die Bediener.“

„Bei Oath verwaltet OpenStack Hunderttausende von Bare-Metal-Rechnerressourcen in unseren Rechenzentren. Wir haben mit OpenStack erhebliche Änderungen an unserem Lieferkettenprozess vorgenommen und die üblichen Bare-Metal-Anteilsanforderungen innerhalb von Minuten erfüllt“, meint James Penick, IaaS-Architekt bei Oath. „Wir freuen uns darauf, mit der Rocky-Version von den zahlreichen Verbesserungen wie dem BIOS-Management zu profitieren, das die Wartung, Verwaltung und Implementierung unserer Infrastruktur weiter optimieren wird.“

Verfügbarkeit am Tag der Versionsfreigabe

Alle neuen Fähigkeiten von Rocky sind über eine neue, vom kanadischen Anbieter VEXXHOST betriebene Public-Cloud-Verfügbarkeitszone im Silicon Valley schon am Tag des Starts verfügbar. Mohammed Naser, CEO von VEXXHOST, hat dazu erklärt: „Die Frei­gabe von OpenStack Rocky ermöglicht eine schnelle Implementierung und einfache Aktuali­sierungen. Dies ist ein großer Vorteil für Public-Cloud-Anbieter, die darum konkurrieren, neue Funktionen schneller an ihre Kunden weiterzugeben. OpenStack Rocky hat es uns ermöglicht, unsere neue Silicon-Valley-Region am Tag der Markteinführung zu eröffnen."

Sie können Rocky hierherunterladen und mehr zu den neuen Funktionen und Verbesserun­gen erfahren.

Weitere Highlights

  • Cyborgbietet Lebenszyklus-Management für Beschleuniger wie GPUs, FPGAs, DPDK und SSDs. Mit Rocky führt Cyborg eine neue REST-API für FPGAs ein, einen Beschleu­niger für Maschinenlernen, Bilderkennung und andere Hochleistungsanwendungen zur dynamischen Änderung der auf einem FPGA-Gerät geladenen Funktionen.
  • Rocky führt außerdem Qinling Qinling („Tschin-Ling“), ein FaaS-Projekt (Function-as-a-Service), bietet serverlose Funktionen auf OpenStack-Clouds. Damit können Benutzer Funktionen auf OpenStack-Clouds nutzen, ohne Server, VMs oder Container zu verwal­ten, wobei sie gleichzeitig an andere OpenStack-Dienste wie Keystone angebunden sind.
  • Masakari, das durch automatische Wiederherstellung nach Ausfällen eine hohe Verfüg­barkeit bietet. Es verfügt über erweiterte Überwachungsfunktionen für Instanz-interne Fehler, wie z. B. ein hängendes Betriebssystem, Datenkorruption oder Planungsfehler.
  • Das Lastverteilungsprojekt Octaviaunterstützt UDP (User Datagram Protocol), das eine Lastverteilung auch bei Edge- und IoT-Anwendungsfällen ermöglicht. UDP ist die in Sprach-, Video- und anderen Echtzeitanwendungen häufig genutzte Transportschicht.
  • Magnum, ein Projekt, das Container-Orchestrierungsmaschinen und ihre Ressourcen zu erstklassigen OpenStack-Ressourcen macht, ist mit der Rocky-Version zu einem zertifizierten Kubernetes-Installationsmodul geworden. Die zertifizierte Kompatibilität gibt Anwendern die Sicherheit, dass Magnum mit Kubernetes wie erwartet interagiert.

Der Upgrade-Prozess liefert neue Funktionen schneller und vereinfacht den Betrieb

Die neue Funktion „Fast Forward Upgrade“ (FFU) aus dem TripleO-Projekt ist bereit für die Produktion. Die Anwender kommen damit leichter und schneller zu neueren OpenStack-Versionen. Die letzten Versionen von OpenStack haben eine Fülle neuer Funktionen gebracht, welche die Fortentwicklung von Cloud-Anwendungsfällen unterstützen. Leider bleiben aber die Benutzer älterer Versionen bei diesen Innovationen außen vor. FFU ermöglicht TripleO-Benutzern unter Version „N“ eine schnelle Aktualisierung auf Version „N+3“. (Die aktuelle FFU-Iteration geht von Newton zu Queens.) So erhalten sie sofort Zugang zu den Verbesserungen in der Benutzerfreundlichkeit und neuen Entwicklungen, wie z. B. der vGPU-Unterstützung in Queens.

Auf dem Berliner OpenStack Summit vom 13. bis 15. November präsentieren Adobe Advertising Cloudund der Science and Technology Facilities Councilihre OpenStack-Aktualisierungsstrategie. In einem Workshop wird Oath die eigenen Erfahrungen aus der Aktualisierung von 20.000 Kernen von Juno auf Ocataerläutern.

Weitere geplante OpenStack Summits zu offenen Infrastrukturen

Mehr Informationen zu Rocky gibt es beim OpenStack Summit in Berlinvom 13. bis 15. November 2018. Teilnehmer aus mehr als 50 Ländern werden sich mit Referenten marktführender Unternehmen treffen und über Innovationen bei offenen Infrastrukturen diskutieren. Kritische Anwendungsbereiche für den Summit sind Edge-Computing, kontinuierliche Integration/kontinuierliche Entwicklung (CI/CD), KI, NFV und Container-Infrastruktur sowie öffentliche, private und hybride Strategien

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

TCS: Automatisierungslösung ignio mit dreistelligem Wachstum

  • Mehr als 50 Kunden weltweit setzen ignio ein
  • Über 75 Patente für Künstliche Intelligenz, Machine Learning und Automatisierung eingereicht
  • Neues Programm für Technologie- und Vertriebspartner

Digitate wächst mit der Automatisierungslösung ignio um mehr als 100 Prozent bei Umsatz und Neukunden im Vergleich zum Vorjahr. Weltweit setzen mehr als 50 Kunden die Lösung ein, überwiegend Fortune-500- oder Global-2000-Unternehmen.

Weltweit agierende und komplexe Unternehmen verwalten mit ignio ihre IT-Infrastruktur, SAP-ERP-Umgebungen und Batch Workloads. Dabei profitieren Kunden bereits nach wenigen Wochen nach der Implementierung von ersten Ergebnissen wie der vereinfachten Verwaltung der Systeme, höheren Effizienz und besserer Kontrolle über kritische Aspekte des IT-Betriebs.

Zu den Kunden gehören die Aldo Group, ein in mehr als 100 Ländern präsentes Unternehmen für Schuhe und Accessoires, und die kanadische Einzelhandelskette Loblaw. „Wir haben uns aufgrund der sofort einsatzbereiten Funktionen sowie der bereits vorhandenen Kenntnisse des IT- und SAP-Betriebs für ignio entschieden”, sagt Ugo Orsi, Vice President für IT Operations bei Loblaw. „Dadurch war eine schnelle Einführung der KI bei Loblaw möglich und ist die Grundlage für einen selbstheilenden, automatisierten IT-Betrieb – ignio ist hier der Dreh- und Angelpunkt unseres Transformationsprogramms.“

Neues Partnerprogramm gegründet
ignio hat mehr als 75 Patente in den Bereichen KI, maschinelles Lernen und intelligente Automatisierung angemeldet. Entwickelt wurde die Lösung in den Innovationszentren von Tata Consultancy Services (TCS). Vor drei Jahren folgte die Ausgründung in das Unternehmen Digitate, das weiter zu TCS gehört.

„ignio ist ein Pionier für das Konzept der kognitiven Automatisierung“, sagt Dr. Harrick Vin, Global Head bei Digitate. „Wir gewinnen neue Kunden, alleine sieben im abgelaufenen Quartal. Wir wollen möglichst schnell einen Umsatz von 100 Millionen US-Dollar erreichen“.

Dafür setzt Digitate auf ein kürzlich gegründetes Programm für Technologie- und Vertriebspartner, zu dem bereits mehr als zehn Partner gehören. Bereits heute ist Digitate eines der am schnellsten wachsenden Software-Unternehmen in den ersten drei Jahren nach Unternehmensgründung.

Digitate
Digitate nutzt Machine Learning und Künstliche Intelligenz (KI), um IT- und Geschäftsabläufe intelligent zu steuern. Das Unternehmen mit Hauptsitz im kalifornischen Santa Clara (USA) und Pune (Indien) wurde 2015 gegründet und ist Teil von Tata Consultancy Services (TCS). Die kognitive Automatisierungslösung ignio von Digitate ermöglicht es der IT-Abteilung Ausfälle innerhalb weniger Minuten zu erkennen und zu beheben. Dazu kombiniert die Software miteinander vernetzte Geschäftsanwendungen in einer heterogenen Systemlandschaft und die zugrunde liegende Infrastruktur, um intelligente Entscheidungen zu ermöglichen und automatisiert geeignete Maßnahmen durchzuführen. Weitere Informationen: www.digitate.com

Tata Consultancy Services Deutschland GmbH
Tata Consultancy Services (TCS) ist seit 1991 in Deutschland und Österreich tätig. Mit Standorten in Frankfurt, Düsseldorf, Hamburg, München, Stuttgart, Walldorf und Wien arbeitet das Unternehmen für über 100 Kunden, darunter 17 Unternehmen aus dem Aktienindex DAX 30. Seit 2008 betreibt TCS ein regionales Delivery Center in Düsseldorf. Aus dem Rechenzentrum in Frankfurt bietet TCS ein komplettes Portfolio an Cloud-Lösungen für den lokalen Markt. Laut einer Studie des unabhängigen Instituts Whitelane Research ist TCS der IT-Dienstleister mit der höchsten Kundenzufriedenheit in Deutschland. Das Unternehmen ist zudem als ‚Top Employer‘ zertifiziert. Weitere Informationen: www.tcs.com/de

TCS auf Twitter: https://twitter.com/TCS_DE
TCS auf Flipboard: https://flipboard.com/@TCS_DE

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Entschieden für Germany’s Saarland

Das Deutsche Forschungszentrum für Künstliche Intelligenz GmbH, DFKI, entwickelt gemeinsam mit dem TÜV SÜD am Standort Saarbrücken eine Plattform zur Validierung von KI-Modulen im autonomen Fahrzeug. Genau wie der „Körper“ der Fahrzeuge – die Karosserie, der Motor und alle weiteren physischen Bestandteile – wird zukünftig also auch das „Gehirn“ – die KI Module – einer Prüfung unterzogen, so dass Verbraucher sicher sein können, dass die von der Industrie gelieferten Produkte für den Straßenverkehr tauglich und sicher sind. 

Mehr dazu unter: https://www.dfki.de/web/presse/pressemitteilung/2018/tuev-sued-und-dfki-entwickeln-plattform-fuer-ki-module-im-autonomen-fahrzeug/  

Germany’s Saarland
https://portal.germanys.saarland I www.invest-in-saarland.com

Germany‘s Saarland ist aufgrund seiner idealen Lage an der französischen Grenze mit der Anbindung an die europäischen Wirtschaftszentren der perfekte Umschlagplatz.

WIR FORSCHEN SCHON HEUTE AN DEN TRENDS VON MORGEN Max-Planck, Helmholtz oder Leibniz – unsere Forschungsinstitute sind weltspitze – und treiben herausragende Entwicklungen voran. Darüber hinaus bringen sie hochqualifizierte Absolventen für den Arbeitsmarkt hervor. Denn industrielle Tradition und modernste Technologien gehen bei uns Hand in Hand. Das macht die Wirtschaft im Saarland so vielfältig und spannend.

 

 

 

 

 

 

 

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox