Die Welt in 17 Jahren

Wie werden Künstliche Intelligenz und Big Data Analytics unser Leben verändern? Wie werden sie unsere Entscheidungen, wie unseren Berufsalltag beeinflussen?

In einer kurzen Science-Fiction-Story mit dem Titel „Die Lücke im System“ gibt die ITGAIN Consulting Gesellschaft für IT-Beratung mbH einen kurzen, spannenden Blick in die Zukunft.

Eine Geschichte, die einiges über Chancen und Risiken verrät – und sehr viel darüber, was KI und Analytics heute können und was nicht.

Hier geht es zur Geschichte "Die Welt in 17 Jahren". Viel Spaß beim Lesen – Tipps und Infos finden sich dazu in den kleinen Abschnitten neben der Story.

Wie Sie und Ihr Unternehmen von KI und Analytics profitieren können? Lassen Sie sich von uns beraten. Hierzu sind die zwei folgenden User-Stories hilfreich:

Predictive Analytics per Mausklick: KNIME im Härtetest

Ab in die Wolke

Für ein Gespräch können sie uns gerne unter analytics@itgain.de  kontaktieren.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Du willst? Du Kannst!

Schnell denken, neue Wege finden, leidenschaftlich arbeiten… bei ITGAIN geben wir dir die volle Verantwortung. Denn wir wissen: Nur wenn Deine Projekte auch wirklich Deine Projekte sind, findest Du die besten Lösungen. Und die brauchen wir. Jeden Tag!

Als schnell wachsender IT-Consulter mit einem Kundenstamm aus namhaften internationalen und nationalen Unternehmen aus Industrie, Handel, Banken und Versicherungen suchen wir keine Stillsitzer. Wir brauchen Konzeptdenker, Projektleiter und Umsetzer. Jemanden wie dich.

Werde Teil des Aufbauteams an unserem neuen Standort in Mannheim. Wir freuen uns auf Deine Bewerbung. Willkommen im Team!

https://www.itgain-consulting.de/karriere

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Ein See voller Informationen: der richtige Umgang mit Data Lakes

Wer große Mengen unterschiedlicher Datenformen für Analytics nutzen will, kommt an Data Lakes kaum vorbei. Doch um die richtigen Daten zum Fließen zu bringen, ist beim Einrichten einiges zu beachten. Ansonsten kann aus dem See durchaus ein nutzloser Tümpel werden. IT Consultant Jens Lehmann erklärt, wie ein Data Lake strukturiert sein sollte.

Herr Lehmann, parallel zu Data Warehouses nutzen immer mehr Unternehmen Data Lakes. Was ist eigentlich der Unterschied?

In einem Data Lake werden große Mengen angelegt – also Big Data, die man so in einem Data Warehouse nicht speichern kann. Denn Data-Lake-Daten können im Rohzustand verbleiben. Und sie können aus unterschiedlichen Quellen stammen. Um im Bild zu bleiben: Ein Data Lake ist ein großes Gewässer, gespeist aus mehreren Zuflüssen. Ein Data Warehouse besteht eher aus vielen befüllten Behältern mit bereits gedruckten Etiketten.

In welchen Anwendungsfällen ist Analytics per Data Lake denn sinnvoll?

Vor allem wenn große Massen an Informationen mit herkömmlichen Mitteln nicht analysiert werden können. Viele Unternehmen haben Millionen von Sensordaten, Verkaufsinformationen oder Social-Media-Inhalten, die ein Data Lake gemeinsam speichern kann.

Ok. Und wie sorge ich dafür, dass diese Daten zusammen nutzbar sind? Wie strukturiere ich einen Data Lake richtig?

Man muss die Rohdaten mit zusätzlichen Merkmalen anreichern. Zum einen mit Metadaten, die verraten, von welchem Ort aus jemand auf eine Website zugegriffen hat. Zum anderen mit Metaprozessinformationen – sprich Infos darüber, wann und wo Daten generiert wurden. Bei einem Hersteller für Dichtungen heißt das: Welche Maschine hat die Dichtung um 14 Uhr hergestellt? Außerdem braucht es Kontextdaten, die Texteingaben von Kunden in Formularen oder E-Mails strukturieren. Denn ein Computer kennt zum Beispiel nicht den Unterschied, wann mit dem Wort „Bank“ das Geldinstitut oder die Sitzgelegenheit gemeint ist. Zu guter

Letzt beschreiben Zuordnungshinweise die Beziehung zwischen Daten, also ob Abhängigkeiten zwischen Merkmalen bestehen.

Reicht das, oder braucht es noch mehr Struktur?

Es reicht nicht ganz. Viele Unternehmen häufen aus verschiedenen Abteilungen verschiedene Daten an. Sie sollten daher den großen Data Lake in Data Ponds unterteilen – also in kleinere Datenteiche, wenn man so will. Die Daten in den Teichen können aber dennoch durch die Metadaten miteinander verbunden werden.

Was heißt das genau?

Ausgehend von den beschriebenen Zusatzmerkmalen legt man Data Ponds an. Das heißt, analoge Daten, Textdaten und Prozessdaten bilden eigene Bereiche, Cluster genannt. Sie werden auch mit verschiedenen technischen Methoden zusammengefasst. Das ist Expertenarbeit. Aber am Ende sind die Daten nicht nur für Experten nutzbar, sondern für viele Mitarbeiter.

Haben Sie ein Beispiel?

Endanwender wie Verkaufspersonal oder Marketingexperten können Data Lakes nutzen. Sie finden schnell Zusammenhänge – zum Beispiel zwischen allen produzierten Dichtungen in der eben angesprochenen Produktion. Ist eine Charge fehlerhaft, kann man anhand ihrer Zusatzdaten sehen, welche Maschine sie wann produziert hat – und den Fehler finden. Oder man findet schnell eine Auflistung der häufigsten Kundenkommentare der letzten Monate zu einem Produkt.
Klingt rechenintensiv. Was braucht es an Hardware, um mit Data Lakes zu arbeiten?
Praktischerweise lässt sich ein Data Lake ohne aufwändige Rechnerarchitektur betreiben. Über das Open Source Framework Hadoop können in den Clustern viele Computer miteinander verbunden werden, die ihre Rechenleistung für den Data Lake zur Verfügung stellen.

Haben Sie noch generelle Hinweise für den Nutzen eines Data Lakes?

Es reicht nicht, den Data Lake mit Inhalten aus allen zur Verfügung stehenden Quellen zu fluten. Vielmehr sollte es darum gehen, die Möglichkeiten dieses
Konzeptes richtig zu nutzen. Ohne Vernünftiges Information Lifecycle Management und entsprechende Governance wird dies nicht gelingen. Daher ist eine Vorab-Analyse der Ziele enorm wichtig.

"Richtig angelegt sind die Daten aus Data Lakes nicht nur für Experten nutzbar, sondern für viele Mitarbeiter."

Jens Lehmann, IT Consultant bei ITGAIN.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Design Thinking: Problemlösungspotenzial ist enorm

Unternehmen suchen fortlaufend nach neuen Wegen zur Entwicklung von Produkten, Dienstleistungen und Prozessen. Insbesondere Design Thinking besitzt ein hohes Problemlösungspotenzial. Um dieses zu erschließen, ist jedoch Methodenkompetenz erforderlich. Unter anderem muss trotz inhaltlicher Freiheit eine charakteristische Schrittfolge eingehalten werden.

Interdisziplinäre Zusammenarbeit im Fokus

Alteingesessene Experten punkten in Unternehmen zwar mit Erfahrung, verlieren oftmals jedoch den Blick für bedeutende Veränderungen des Marktes und für Innovationen. Beim Kreativprozess Design Thinking werden Mitarbeiter aus unterschiedlichen Fachbereichen bewusst zusammengebracht, um sich gegenseitig auf Neuerungen und übersehene Entwicklungen aufmerksam zu machen. Die unterschiedlichen Sichtweisen eröffnen ein deutlich größeres Spektrum an nutzerorientierten Ideen. Charakteristisch ist zudem eine starke Lösungsorientierung, der jedoch stets eine genaue Problemanalyse vorausgeht. Ein weiteres Kernelement stellt die kreative Entfaltung dar. Machbarkeit und Umsetzung werden erst in einer späteren Phase untersucht, um die Ideenfindung nicht zu beeinträchtigen. Bedeutsam ist zudem die deutlich ausgeprägte Kunden- und Nutzerorientierung.

ZUM THEMA:

  • Was man über Design Thinking als Kreativprozess wissen sollte


Sieben Schritte: Prozess des Design Thinking birgt hohes Problemlösungspotenzial

Um das Design-Thinking-Problemlösungspotenzial zu nutzen, sollte ein mehr oder weniger festgelegter Rahmen bestehen, welcher im Regelfall aus sieben Sprints besteht. Zunächst geht es darum, ein Problem präzise zu identifizieren und eine Fragestellung zu entwickeln, unter der die Problemlösung erfolgen kann.

Danach folgt eine Analysephase, in deren Rahmen genaue Beobachtungen dafür sorgen, herauszufinden, warum das Problem besteht und wie es sich inhaltlich darstellt. Die durchgeführten Recherchen werden anschließend auf einen Nutzer-Prototypen übertragen, um dessen Wünsche und Anforderungen zu ermitteln. Im Idealfall führt dieser Schritt, der viel Empathie erfordert, zu einer Lösung für alle Nutzer.

Im vierten Sprint folgt ein Brainstorming zur Ideenfindung. Hierbei greifen bestimmte Spielregeln, die sicherstellen, dass sich jeder Beteiligte frei entfalten kann. Wurde ein Lösungsweg gefunden, wird dieser an aufwandsarmen Prototypen getestet. Aufgrund der Tests ist es wiederum möglich, Verbesserungen und Verfeinerungen vorzunehmen. Die Schritte "Testing" und "Verfeinerung" können im Übrigen beliebig oft wiederholt werden, um möglichst nahe an das Optimum zu gelangen. Sind keine weiteren Verbesserungen mehr möglich, endet der Design-Thinking-Prozess.

Anwender sind begeistert

Immer mehr Unternehmen nutzen das enorme Problemlösungspotenzial von Design Thinking. Dies bestätigt unter anderem das Beratungsunternehmen ITGAIN, das seine Methodenkompetenz in diesem Bereich bereits in zahlreichen Projekten eingebracht hat.

"Die Kunden sind vor allem von dem konzentrierten Blick auf den Auftraggeber, dem experimentellen Charakter und der schlanken, auf Prototypen ausgerichteten Vorgehensweise begeistert" – so lautet das Fazit von Peter Lissok, Prokurist der ITGAIN.

Erfolgreiches Design Thinking erfordert ein fachlich kompetentes, sozial starkes und interdisziplinäres Team, ein offenes und kreatives Raumkonzept und die erwähnten Prozessschritte, welche ein Problem letztlich in eine innovative Lösung verwandeln. Grundvoraussetzung hierfür ist jedoch auch ein Kulturwandel in Unternehmen – hin zu Kreativität.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Analytics: einfach machen!

Analytics ist derzeit einer der heißesten IT-Trends. Dabei gibt es die nötigen Algorithmen seit 30 Jahren. Erst jetzt jedoch sind ausreichend Rechenpower und Daten vorhanden, um sie nutzbar zu machen. Für den Erfolg eines Analyseprojekts entscheidend ist allerdings die Qualität der Datenbasis. Wir verraten Ihnen den Schlüssel zum Erfolg.

Nur den Ergebnissen einer Analyse, die auf einem soliden Datenfundament beruhen, kann man auch trauen. Die entdeckten Auffälligkeiten könnten sonst nichts weiter sein als das Ergebnis einer Anomalie in den Daten. Was eine solide Datenbasis ist? Dafür gibt es eine einfache Grundregel: Gut ist eine Datenbasis, von der man genau weiß, was drinsteckt – und in welcher Form. Ein recht simples Kriterium. Um es zu erreichen müssen allerdings einige Voraussetzungen erfüllt sein.

Zwei Schlüsselfaktoren für eine solide Datenbasis

Bei Aufbau und Pflege einer guten Datengrundlage spielen erfolgreiche Data Governance und eine flexible Datenintegration eine Schlüsselrolle. Wenn Sie diese Prozesse im Griff haben, behalten Sie den Überblick. Dann wissen Sie, welche Daten Ihnen schon zur Verfügung stehen und welche in Ihrem Unternehmen eventuell noch „schlafen“. Ihnen ist bekannt, welche Verarbeitungsregeln auf die Daten angewendet werden und wie Ihre Geschäftsprozesse Datenseitig abgebildet sind. Außerdem gehen Sie sicher, dass neue Daten in der richtigen Qualität verwendet werden. Auf diesem Fundament lassen sich erfolgreiche Analytics-Projekte aufbauen.

  • Data Governance: damit ist das Zusammenspiel von Datenqualität, Datenmanagement, Datenrichtlinien, Geschäftsprozessmanagement und Risikomanagement rund um den Umgang mit Daten gemeint. Dadurch halten Sie die Daten in Ihrem Unternehmen für alle verständlich. Datenquellen werden erfasst, die Art und die Ausprägung der Daten dokumentiert, die dort gesammelt sind. Zuständige für die Datenqualität werden benannt, Ansprechpartner für die verschiedenen Systeme definiert.
  • flexible Datenintegration: Neue Daten für ein Analyseprojekt müssen schnell in den Analysedatenbestand aufgenommen werden können. Das ist essenziell. Schließlich weiß man heute noch nicht, welche Daten sich zum Erreichen des Ziels der Analyse noch als sinnvoll erweisen könnten. Eventuell bewerten Sie Ihr Analytics-Projekt mittels einer Confusion Matrix monetär und wissen jetzt: Die Analysegenauigkeit muss erhöht werden, damit sich das Analyseprojekt auch lohnt. Also bedienen Sie sich, um die Datengrundlage zu vergrößern, bei Open Data Quellen oder kaufen Daten hinzu, etwa vom Statistischen Bundesamt. Diese Daten wollen Sie natürlich sofort verwenden und nicht Wochen oder sogar Monate auf die Bereitstellung warten.

Achtung Datensilos: Datenintegration automatisieren

Was die Integration angeht, werden heute noch allzu oft neue Daten direkt in den Bestand eines Analyseprojekts eingebunden und nicht – so eines existiert – in das Data Warehouse oder den Data Lake des Unternehmens. Eine schlechte Option. Denn damit bleiben sie in einem Silo vor dem Rest des Unternehmens versteckt. Will eine andere Abteilung eine Analyse durchführen, für die dieselben Daten ebenfalls nützlich wären, weiß sie unter Umständen nicht einmal, dass sie bereits im Unternehmen existieren.

Häufiger Grund für diese Praxis: eine nichtautomatisierte Datenintegration in das Data Warehouse. Denn ohne ein Automatisierungstool dauert die Anbindung neuer Daten meist zu lang. Das Projekt würde auf inakzeptable Weise verzögert. Mit einer automatischen Datenintegration hingegen ist der Zeitaufwand nur unerheblich höher. Danach aber sind die Daten für das gesamte Unternehmen verwendbar. Ein nicht zu unterschätzender Nebeneffekt: Werden neue Daten in das zentral gemanagte Data Warehouse aufgenommen, unterliegen sie automatisch der Data Governance des Unternehmens. So sind sie für alle verständlich und transparent.

Und dann: handeln!

Die Datenbasis ist ein wesentlicher Punkt für das Gelingen eines Analyseprojekts. Sie ist das Fundament für verlässliche Analyseergebnisse. Wer es gelegt hat, hat bereits viel geschafft – und kann nun den nächsten Schritt folgen lassen: eine gut gebaute Analyse. Aber auch damit ist das Ziel noch nicht erreicht. Denn die Analyseergebnisse müssen praktisch nutzbar sein, sonst sind sie zwecklos.

Beispielsweise muss eine Versicherung, die per Datenanalyse Kunden identifiziert, die mit hoher Wahrscheinlichkeit kündigen werden, diese Information dem Sachbearbeiter während seiner Telefongespräche zur Verfügung stellen. Handelt es sich beim aktuellen Gesprächspartner um einen potenziellen Kündiger, muss das im Dashboard angezeigt werden, sonst kann der Sachbearbeiter kein attraktiveres Angebot unterbreiten. Und hier zeigt sich ein weiterer Baustein eines gelungenen Analytics-Projekts: Kompetenzen in Systemintegration und Systembetrieb.

Klein anfangen, groß rauskommen

Wer ein Analytics-Projekt zu einem echten Erfolg machen möchte, muss also nicht nur die richtigen Grundlagen dafür schaffen, sondern auch dafür sorgen, dass die Ergebnisse richtig angewendet werden. Aber keine Angst! Unternehmen, die sich dafür entscheiden, mit Analytics zu beginnen, müssen nicht sofort ihre komplette IT-Infrastruktur und das gesamte Prozessmanagement auf den Kopf stellen. Tasten Sie lieber zunächst mit einem Projekt im kleinen Maßstab Ihre Assets ab. Und dann machen Sie Ihr Unternehmen Schritt für Schritt fit für das volle Potenzial der Analytics.

Drei Fragen an Markus Burger-Scheidlin
Data Scientist und Teamleiter Analytics bei ITGAIN

Um ein Analytics-Projekt zum Erfolg zu führen, müssen sehr viele Dinge richtig gemacht werden. Ein Unternehmen, das gerade erst mit Analytics beginnt, kann sich da leicht überfordert fühlen.

Muss es aber nicht. Wer mit Analytics anfangen möchte, muss nicht gleich alles auf einmal umkrempeln.

Warum nicht?

Wer alles auf einmal neu aufsetzt – Data Warehouse, Data Governance und so weiter –, bevor er sich an die Analysepraxis macht, geht ein hohes Risiko ein. Dann kann es sein, dass man beim Startschuss feststellt, jetzt zwar wunderbar aufbereitete Daten zu besitzen – aber leider die falschen.

Wie stellt man also den Aufbruch in die Epoche der Analytics am besten an?

Beginnen Sie mit einem kleinen Pilotprojekt. Dabei lernen Sie, was Sie bereits gut machen und was noch nicht. Eventuell haben Sie eine sehr gute Kundendatenbasis, aber eine schlechte Vertragsdatenbasis. Oder Sie merken, dass Sie Daten erfassen müssen, die Sie momentan noch nicht erheben. Verbessern Sie die Punkte, die Ihnen aufgefallen sind. Und dann gehen Sie an das nächste Projekt. So kommen Sie in einen stetigen Verbesserungsprozess.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Was ist ein „gutes“ Analytics-Projekt?

Was ist ein „gutes“ Analytics-Projekt?

Herr Burger-Scheidlin, durch Analytics können wir uns bei Entscheidungen von einer Maschine unterstützen lassen und sie damit auf Grundlagen stellen, die viel solider sind als alles, was der Mensch allein erreichen könnte. Das klingt, als ob wir darauf zumindest in wirtschaftlichen Fragen eigentlich nie verzichten sollten. Stimmt das?
Markus Burger-Scheidlin: Die Möglichkeiten sind tatsächlich atemberaubend, und immer wieder hört man von unglaublichen Projekten wie AlphaZero. In der Praxis gibt es aber viele Analytics Projekte, die sich einfach nicht lohnen.

Warum?

Weil der Aufwand größer ist als ihr Nutzen. Ob das so ist, kann man nur von Anwendungsfall zu Anwendungsfall beantworten. Mit unserem ITGAIN Analytical Process beispielsweise können wir ein Analyseprojekt wirtschaftlich bewerten und schaffen einen konkreten Handlungsbezug. Das ist essenziell. Denn wenn die Erkenntnisse aus der Analyse zu keiner konkreten Handlung führen, sind sie zwecklos.

Und wie kann man erkennen, ob ein Analytics-Projekt „gut“ ist?

Die erste Frage lautet: Ist klar, welche konkrete Entscheidung unterstützt werden soll? Die zweite ist: Welche Handlung soll aus der Entscheidung folgen? Und schließlich muss man wissen, wie exakt eine Analyse überhaupt sein muss.

Warum? Ist nicht eine Analyse umso besser, je genauere Vorhersagen sie liefert?

Nein. Nehmen Sie eine klassische Investitionsentscheidung. Hier kann ich mit Prognosemodellen bis auf die x-te Nachkommastelle ausrechnen, wieviel „Return on Investment“ sie bringen wird. Das ist aber gar nicht notwendig. Es reicht schon aus, wenn ich herausfinde, dass ich damit in etwa 10 % Gewinn mache. Bereits mit dieser Information kann ich mich sehr gut begründet für die Investition entscheiden. Das beste Analytics-Projekt ist also immer dasjenige, dessen Prognose dem Ziel angemessen genau ist.

Wie gestaltet man so ein angemessenes Analytics-Projekt?

Stellen Sie sich vor, Sie sind eine Versicherung und Sie haben schon immer Direktmailings genutzt, um Ihren Kunden neue Produkte anzubieten. Der Rücklauf Ihrer Aktionen ist aber zuletzt zurückgegangen. Nun haben Sie gerade eine neue Versicherungspolice im Angebot und Sie setzen ein Analytics-Projekt auf, um die Mailing-Aktion dazu effizienter zu gestalten. Sie analysieren Ihre Kundendaten, um herauszufinden, welche Ihrer Kunden wahrscheinlich die neue Versicherung abschließen werden und welche nicht. Mit dem Ergebnis können Sie dann Ihre Zielgruppe einschränken, Mailingkosten sparen und die Rücklaufquote verbessern. Aber der Analyseaufwand, um die passenden Adressaten herauszufiltern, sollte nicht ausufern. Sonst ist das Projekt nicht mehr wirtschaftlich.

Und wie erkenne ich, wann ich genug Aufwand betrieben habe?

Nehmen wir an, Sie erwarten sich durch Ihr Analytics-Projekt eine Umsatzsteigerung von 500 000 Euro und sind bereit, 10 % davon in das Projekt zu investieren. Dann haben Sie ein konkretes Kriterium. Sie arbeiten also an dem Projekt, bis Sie die 50 000 Euro ausgegeben haben. Wenn Sie an diesem Punkt dann Kunden identifizieren können, die mit einer achtzigprozentigen Wahrscheinlichkeit die Versicherung kaufen werden, dann ist das Projekt sicherlich ausreichend gut.

Das stimmt. Aber wie kann ich denn wissen, dass eine Umsatzsteigerung von 500 000 Euro zu erwarten ist?

Wieviel Umsatz eine verkaufte Police bringt, ist ja klar. Aber auch wieviel es kostet, einen Flyer zu drucken und ihn zu verschicken und so fort. Außerdem wissen Sie, welcher Umsatz Ihnen entgeht, wenn Sie einen Kunden nicht ansprechen, der eigentlich gekauft hätte. Was Ihnen jetzt noch fehlt, ist das Wissen darüber, mit welcher Wahrscheinlichkeit Sie die richtigen Adressaten ansprechen werden und mit welcher Wahrscheinlichkeit die falschen. Und das sagt Ihnen Ihr Analytics-Modell. Am Ende können Sie einen Strich darunter ziehen und ausrechnen, welchen „Return on Investment“ Sie in etwa zu erwarten haben.

Wie funktioniert das genau?

Die zentrale Rolle dabei spielt die sogenannte Confusion Matrix. Diese gibt die Häufigkeit der zutreffenden und falschen Prognosen jeweils für positive und negative Vorhersagen wider. Damit entstehen vier Fälle, die individuell monetär bewertet und mit der Häufigkeit multipliziert werden. Die Summe der vier Fälle ist der Wert des Modells – in unserem Beispiel die 500 000 Euro Umsatzsteigerung. Aber nochmals: Dieser Wert kann nur dann realisiert werden, wenn Sie das Analytics-Projekt von vorne herein so angehen, dass dadurch auch eine konkrete Handlung folgt. Denn analysieren kann ich aus reiner Neugierde alles Mögliche und mit beliebig viel Aufwand. Verstehen Sie mich nicht falsch, zwecklose Neugierde ist etwas Wunderbares. Forscher, Künstler, Kinder können ohne sie nicht leben. Aber wenn es um wirtschaftliche Entscheidungen geht, ist sie Energieverschwendung.

Markus Burger-Scheidlin ist Teamleiter Analytics bei ITGAIN

Lesen Sie im nächsten Beitrag, welche fünf Punkte Sie beachten müssen, um aus Ihrem Analytics-Projekt ein „gutes“ Analytics-Projekt zu machen.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Wir ziehen um und die Zeichen stehen weiter auf Wachstum

9 Jahre war unsere Geschäftsstelle Südwest in Frankfurt – jetzt wird es zu eng. Wir ziehen zum April 2018 nach Mannheim.

Der Umzug der Geschäftsstelle ist ein Schritt auf dem Weg zu mehr nachhaltigem Wachstum. Zu den verschiedenen Maßnahmen gehören auch neue Schwerpunkte, wie Analytics und DevOps, sowie Werbekampagnen.

Die sehr gute Auftragslage soll nicht dazu führen, dass Kunden auf uns warten müssen, daher suchen wir für die Geschäftsstelle Südwest Verstärkung.

Stell Dir vor, Du arbeitest bei uns, einem IT-Consulter mit einem Kundenstamm aus den Top 100 der Versicherungs- und Bankenbranche. Du gehörst zum Aufbauteam unseres Standorts in Südwest.

Du spürst Start Up-Feeling: frische Büroräume, volle Auftragsbücher mit interessanten Aufgaben, freier Lauf deiner Kreativität für die besten Lösungen. Ihr plant den Team-Sprint und es geht los – keine langwierigen Prozessinstanzen.

Stell dir vor, alle haben auf dich gewartet. Du trägst Verantwortung, weil du dem Team sofort weiterhelfen kannst. Das gefällt dir?

Dann komm zu uns, zu ITGAIN Mannheim. Mach es einfach!

als Big Data DevOps Engineer (m/w)
als IT-Berater Advanced Analytics (m/w)
als IT-Berater Software Engineering (m/w)
als Junior-IT-Berater/Architekt Software Engineering (m/w)
als Senior IT-Berater / Architekt Software Engineering (m/w)

mehr dazu auf unserer Karriereseite.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Das ITGAIN-Akademie-Programm für 2018 ist Online – Wissen sichern, Erfahrung weitergeben

Als Experten für Software-Engineering und Anwendungsmodernisierung, Business Intelligence und Operational Services geben wir unser Wissen gern weiter. Melden Sie sich am besten gleich für eines unserer aktuellen Trainings an. Wir freuen uns auf Sie!

Es gilt ein Frühbucherrabatt von 30 % bis Ende Februar 2018.

http://www.itgain-consulting.de/…

Die Kurse in der ITGAIN AKADEMIE sind so ausgelegt, dass eher die Theorie zu kurz kommt. Praxis Beispiele aus unseren Projekten geben den Ton an!

Die Kurse für 2018 sind:

Modellierung mit Methode – Data Modeling Master Class
www.itgain-consulting.de/…

InfoSphere DataStage® Beginner Class – Steigen Sie in DataStage ein
https://www.itgain-consulting.de/…

Sie arbeiten schon mit Informatica? – Werden sie zum Experten!
https://www.itgain-consulting.de/…

Testen will gelernt sein – Zertifizieren Sie sich ISTQB® Certified Tester, Foundation Level
www.itgain-consulting.de/…

SQL Basis Schulung – das gehört zum IT-Alltag wie der Kaffee.
www.itgain-consulting.de/…

AIX und Db2, es gibt’s noch Geheimnisse – erfahren Sie diese auf der AIX Grundlagen Schulung für Db2 Administratoren
www.itgain-consulting.de/…

ITGAIN AKADEMIE – Coaching – Training – Learning

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

2017 – Dankeschön!

2017 begann mit einer prima Anerkennung durch unsere Mitarbeiter: Im Vergleich zu unseren Marktbegleitern erreichten wir Top Platzierungen 3-17-50 im Great Place to Work® Wettbewerb „Deutschlands Beste Arbeitgeber“ in allen drei relevanten Kategorien:
 

  1. Beste Arbeitgeber in Niedersachsen-Bremen 2017 – Platz 3
  2. Beste Arbeitgeber in der ITK – Platz 17
  3. Deutschland Beste Arbeitgeber 2017 – Platz 50

Beste Arbeitgeber im Consulting, das spiegelt sich nun auch im neuen öffentlichem Auftritt wieder und zeigt was wir sind –

Wir sind Konzeptdenker, Projektlenker und Umsetzer.

Wir sind Kosten-Reduzierer und Zeit-Sparer.

Wir sind Anwendungs-Modernisierer, IT-Architekten, Mainframe-Migrierer-Modernisierer. Service-Manager, Software-Ingenieure, Datenbank-Versteher, Daten-Modellierer und Analytics-Könner.

Kurz: Wir sind diejenigen, die Ihre Anforderungen verstehen – und Ihre Anwendungen und Infrastruktur zukunftsfähig und qualitätssicher machen. Mit modernsten Technologien. Mit Wissen und Methode. Mit Kompetenz, Konstanz und Kreativität – und immer mit Herz und Verstand.

Anstatt technischer Details erzählen wir Geschichten über uns bei ITGAIN und unsere Arbeit. Das macht erlebbar, was wir tun und wie wir es tun, zeigt uns als Experten und Menschen.
Geschichten um erfolgreiche Projekte und Lösungsideen. Damit vermitteln wir am besten, was uns ausmacht: Kompetent, aktiv und auf das Wesentliche fokussiert und Partnerschaftlichkeit.

Auch 2018 zeigt zu Beginn spannende und weitere erfolgreiche Entwicklungen auf:

Unser Mitarbeiter und Kunden sind unser Fundament. Die örtliche Nähe ist für uns ein wichtiges Element für eine Zusammenarbeit, im März 2018 eröffnen wir den dritten Standort mit eigenen Räumen neben Hannover und Hamburg – Mannheim.

ITGAIN gestaltet das digitale Übermorgen – gestalten Sie es mit, als Kunde und als beratende Person.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Letzter Termin in diesem Jahr: Vom 20. bis 22. Dezember 2017 gibt es wieder „Steve Hoberman’s Data Modeling Master Class“ von ITGAIN!

Vom 20. bis 22. Dezember 2017 bietet ITGAIN wieder – exklusiv in Deutschland – „Steve Hoberman’s Data Modeling Master Class“ an.

Diese Grundlagenschulung bietet einen fundierten und praxisorientierten Einstieg in ein spannendes Thema, das oftmals entweder eher theoretisch vermittelt wird, oder als lästiger Nebenaspekt der Software- bzw. Anwendungsentwicklung angesehen wird.

Beides zu Unrecht, meinen wir, denn ein sauberes und konsistentes Datenmodell ist die Basis für eine stabil und performant laufende IT-Anwendung, sei es ein operatives System, oder eine Business Intelligence bzw. Data Warehousing Anwendung. In unserer heutigen, datengetriebenen Welt sorgt ein sauberes und konsistentes Datenmodell daher in einem Unternehmen für einen reibungslosen Ablauf von Geschäftsprozessen und trägt somit unmittelbar zum Geschäftserfolg bei.

Die „Data Modeling Master Class“ von Steve Hoberman ist eine der wenigen öffentlich angebotenen Schulungen, welche die Datenmodellierung mit all seinen Facetten als alleiniges Thema zum Inhalt hat. Entwickelt wurde sie von einem der weltweit führenden Experten auf diesem Gebiet, der hier sein Wissen und seine langjährige Erfahrung für eine erfolgreiche Weitervermittlung gebündelt hat.
Hier werden alle Kenntnisse und Fertigkeiten zum Erstellen und Bewerten von Datenmodellen praxisnah und anschaulich vermittelt. Ganz ohne Theorie geht es hier zwar auch nicht, diese wird aber immer in den Dienst der Praxis gestellt, so dass hier sowohl interessierte Anfänger auf dem Gebiet der Datenmodellierung einen Lernerfolg erzielen können, als auch fortgeschrittene bzw. erfahrene

Datenmodellierer ihre Kenntnisse vertiefen oder auch neue Aspekte kennenlernen können.
Weitere Informationen zu Kursinhalten, Terminen, Konditionen und zur Anmeldung sind unter http://www.itgain.de/… zu finden. Auf Anfrage kann diese Schulung auch In-House durchgeführt werden.

Originalmeldung direkt auf PresseBox lesen