Kompetente Antworten zu Fragen der Digitalisierung in Unternehmen geben TOPLIST-Anbieter in der „Telematics VIP-Lounge“ zur CeMAT | HANNOVER MESSE

Auf der „Telematics VIP-Lounge“ – einer Ausstellerfläche von über 100m² in Halle 19/20, Stand A38 – präsentieren sich erstmals zur CeMAT | HANNOVER MESSE (23. – 27. April in Hannover) ausgewählte Anbieter, die sich für die „TOPLIST der Telematik“ qualifizieren konnten.

In der komfortablen Lounge erhalten interessierte Messegäste die Möglichkeit, sehr kompakt auf geprüfte Telematik-Anbieter mit ihren Lösungen zu treffen. Zu dieser Ausstellungsfläche gehört zudem eine Networking-Area, auf der spannende Gespräche in angenehmer Atmosphäre stattfinden können. Hierfür hat der Veranstalter, die Mediengruppe Telematik-Markt.de, alle Voraussetzungen geschaffen, um anschaulich, informativ und praxisnah über Telematik-Technologien zu informieren. So präsentiert die conbee GmbH beispielsweise ihre Telematik-Lösung zur Vernetzung von verschiedensten Objekten mit dem Internet der Dinge und zeigt damit Vorteile speziell auch für die Warenlogistik. Mit ihren Services knüpft die EGO FTS GmbH an dieser Stelle direkt an. Mithilfe von Telematik bewirkt Sie für effizientere Fahrweisen beim Transport auf der Straße, um auch hier Zeit und Treibstoff zu sparen. Wie man bewegliche Güter einfach im Blick behölt und dabei weitaus mehr als nur Positionsdaten erfasst, zeigt die LOSTnFOUND AG, welche auch ihre neue Flottenmanagement-Lösung präsentiert.

Die Kompetenz der „TOPLIST der Telematik“
Besucher der „Telematics VIP-Lounge“ treffen hier ausschließlich auf Anbieter, die sich erfolgreich einer Prüfung durch eine unabhängige Fachjury gestellt haben. Lösungen dieser geprüften Unternehmen sind demnach in Technologie, Service, Support und Datensicherheit geprüft. All diese Anbieter der „TOPLIST der Telematik“ weisen zudem ihren Firmensitz bzw. eine geschäftsfähige Niederlassung im deutschsprachigen Raum aus. Für Anwender und Interessenten beeinflusst insbesondere dieses Merkmal mittlerweile ganz wesentlich ihre Kaufentscheidung. Nähere Informationen über die "TOPLIST der Telematik" erfahren Sie hier.

CeMAT | HANNOVER MESSE (23. – 27. April in Hannover)
Alle zwei Jahre erleben CeMAT-Besucher in Hannover, wie die neuen digitalen Logistik-Lösungen immer besser im Zusammenspiel funktionieren und welche Wettbewerbsvorteile die "Connected Supply Chain" bringt. Doch Industrie und Intralogistik lassen sich kaum noch getrennt betrachten. Darum geht der Veranstalter, die Deutsche Messe AG, den nächsten Schritt und veranstaltet die internationale Intralogistik-Messe ab 2018 parallel zur HANNOVER MESSE, der Weltleitmesse der Industrie.

Transportmanagement, Verpackung, Lagerautomation, Fördersysteme, Industrial IT, Prozessoptimierung, E-Commerce und Onlinehandel, Big Data, Internet of Things, Robotik und Mensch-Maschine-Kommunikation…all das und mehr erwartet die Besucher auf dem Messegelände.

Der Branchen-Sender Telematik.TV
Wie auch schon auf anderen Leitmessen wird natürlich auch der Branchen-Sender Telematik.TV vor Ort sein. Ohne Zweifel wird die Crew wieder interessante Technologien mit der Kamera einfangen und spannende Interviews mit kompetenten Gesprächspartnern führen. Die professionellen Produktionen werden wieder schnellstmöglich nach der Messe veröffentlicht und stehen allen Interessenten kostenlos zur Verfügung.

Die Deutsche Messe AG, die Mediengruppe Telematik-Markt.de, sowie die ausstellenden Mitglieder der TOPLIST der Telematik freuen sich auf Ihren Besuch!

Zum vollständigen Anwedertest auf Telematik-Markt.de

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Big Data und Analytics in der Biotechnologie

Deutschlands Biotechnologieszene trifft sich heute und morgen, 18. und 19. April 2018, auf den Deutschen Biotechnologietagen in Berlin. Als Full-Service-Anbieter für Big Data, Data Analytics und Software Validierung ist das Life Science Team der accantec group auch in diesem Jahr wieder mit einem eigenen Stand in der begleitenden Ausstellung vertreten.

„Die Biotechnologie ist seit je her eine multidisziplinäre Wissenschaft, die Naturwissenschaften (u.a. Mikrobiologie, Gentechnik) mit den Ingenieurswissenschaften (Verfahrenstechnik, Materialwissenschaften) vereint,“ erklärt Herr Dr. Peter Bewerunge, Head of Life Science der accantec group und fährt fort: „Neu sind allerdings die In-Silico-Innovationen, die uns aus der Big Data Welt zur Verfügung stehen. Insbesondere die Grenzen der IT- und Biotechnologie-Industrie verschwimmen immer weiter aufgrund der rasanten Zunahme von semi- und unstrukturierten Daten.“

Bei der Durchführung klinischer Studien, der Entwicklung medizinischer Geräte, der Genomforschung und allen weiteren Bestandteilen der Biotechnologie entstehen Massen von Daten, die verarbeitet, ausgewertet und interpretiert werden müssen. Hier setzen die Life Science Experten der accantec group an. Sie sind Spezialisten für Data Science, Software Engineering, Life Science Analytics und der Software Validierung von medizinischen Produkten. Die Beraterinnen und Berater des Life Science Teams der accantec group sind studierte und zum Teil promovierte Biotechnologen, Bioinformatiker, Statistiker und Medizinische Informatiker. Sie bewegen sich fachlich auf einem Level mit den Kunden aus den unterschiedlichsten Branchen wie Pharma, Chemie, Lebensmittelindustrie, Medizintechnik und Healthcare.

Auf der ergänzenden Ausstellung zum Vortragsprogramm ist die accantec group auch in diesem Jahr wieder mit einem eigenen Stand unter dem Motto „Big Data und Data Analytics in der Biotechnologie“ vertreten und informiert über die speziell auf den Life Science Bereich zugeschnittenen Leistungen und Services. Zudem informieren Herr Dr. Peter Bewerunge und sein Team die Teilnehmer der Deutschen Biotechnologietage 2108 über die gesetzeskonforme Validierung computergestützter Systeme. Denn auch eine Software ist ein medizinisches Produkt und unterliegt gesetzlichen Vorgaben, die u.a. in Normen (z.B. ISO 14791) geregelt sind und sich aus Richtlinien (GAMP5) ableiten. Bei der Validierung steht das Erkennen und Bewerten von potenziellen Risiken, wie auch die Transparenz der implementierten Nutzeranforderungen besonders im Fokus der prüfenden Behörden.

Seit ihrem Bestehen im Jahr 2010 sind die Deutschen Biotechnologietage stetig gewachsen und haben sich als nationaler Branchentreff der Biotechnologie mit weit über 800 Teilnehmern etabliert. Als Treffpunkt für Vertreter aus Unternehmen, Forschung, Verwaltung und Politik bieten sie die ideale Plattform für den fachlichen Austausch innerhalb der Biotechnologie-Branche. Inhaltlich befasst sich das Programm der zweitätigen Konferenz in Plenarvorträgen, Podiumsdiskussionen und Frühstücksrunden mit den vielfältigen Anwendungsfeldern und Rahmenbedingungen der Biotechnologie.

Herr Dr. Peter Bewerunge und sein Team freuen sich auf einen interessanten Austausch mit Ihnen. Seien Sie dabei und treffen Sie heute und morgen unsere Experten aus dem Life Science Bereich auf den Deutschen Biotechnologietagen 2018 in Berlin.

Weitere Informationen zum Life Science Angebot der accantec group erhalten Sie unter www.pharma-analytics.de. Alles rund um die Deutschen Biotechnologietage 2018 sowie das Veranstaltungsprogramm erhalten Sie unter www.biotechnologietage.de.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Die Welt in 17 Jahren

Wie werden Künstliche Intelligenz und Big Data Analytics unser Leben verändern? Wie werden sie unsere Entscheidungen, wie unseren Berufsalltag beeinflussen?

In einer kurzen Science-Fiction-Story mit dem Titel „Die Lücke im System“ gibt die ITGAIN Consulting Gesellschaft für IT-Beratung mbH einen kurzen, spannenden Blick in die Zukunft.

Eine Geschichte, die einiges über Chancen und Risiken verrät – und sehr viel darüber, was KI und Analytics heute können und was nicht.

Hier geht es zur Geschichte "Die Welt in 17 Jahren". Viel Spaß beim Lesen – Tipps und Infos finden sich dazu in den kleinen Abschnitten neben der Story.

Wie Sie und Ihr Unternehmen von KI und Analytics profitieren können? Lassen Sie sich von uns beraten. Hierzu sind die zwei folgenden User-Stories hilfreich:

Predictive Analytics per Mausklick: KNIME im Härtetest

Ab in die Wolke

Für ein Gespräch können sie uns gerne unter analytics@itgain.de  kontaktieren.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Analytics – Mythos und Wahrheit Teil I: Die größten Irrtümer

Mit Analytics ist es ein bisschen wie mit dem Internet in den frühen Neunzigern: Alle wollen dabei sein, aber keiner weiß warum. Kaum jemandem ist so richtig klar, was der Begriff überhaupt bedeutet und schon gar nicht, was man eigentlich mit diesem Werkzeug anstellen kann. Zeit, mit den größten Irrtümern aufzuräumen – und zu zeigen, wie Analytics wirklich funktioniert.

Meist geraten bei heißen Themen in der digitalen Welt schnell Halbwahrheiten und falsche Prognosen in Umlauf. Man erinnere sich an Bill Gates: „Das Internet ist nur ein Hype.“ Wer immer das von Analytics behauptet, liegt ziemlich sicher genauso falsch. Aber welches sind die größten Fehleinschätzungen in Bezug auf Analytics?

Irrtum Nummer eins: Algorithmen sind zahlgewordene Wahrsager

Die große Stärke von Analytics sind Voraussagen. Algorithmen sind ein wichtiger Teil dabei. Allerdings funktionieren sie nicht „im luftleeren Raum“. Man kann ihnen nicht einfach Fragen über beliebige Personen oder Ereignisse in der Zukunft stellen. Eine Bank beispielsweise könnte voraussagen wollen, für welches ihrer Produkte sich ein Kunde mit großer Wahrscheinlichkeit als nächstes interessieren wird, um ihn gezielt darauf anzusprechen. Dann reicht es nicht, einem Algorithmus zu sagen, wie der Kunde heißt und an welchem Tag er geboren wurde. In den Daten, mit denen ein Algorithmus arbeitet, muss schon drinstecken, welche Art von Kunde in der Vergangenheit welche Produkte gekauft hat. Das muss vorher „gelernt“ und in Modelle verpackt werden. Erst damit lassen sich Wahrscheinlichkeiten ableiten und Vorhersagen treffen.

Irrtum Nummer zwei: Analytics ist ein IT-Thema. Und nur ein IT-Thema

Wenn ein Unternehmen Analytics betreiben möchte, muss auch das ganze Unternehmen mitmachen, sonst wird es damit scheitern. Denn Analytics ist kein Werkzeug, mit dem man Probleme aufdeckt, sondern ein Werkzeug, mit dem man Probleme löst. Schon die erste Aufgabe in einem Analytics-Projekt liegt deshalb in den Fachbereichen: die Identifikation eines Anwendungsfalls. Welche Probleme haben wir, die wir mit Analytics lösen könnten? Erst wenn diese Frage beantwortet ist, kann man sich Gedanken darüber machen, was analysiert werden soll. Wer den IT-Fachmann mit dieser Aufgabe allein lässt, riskiert, dass eventuell Erkenntnisse zutage gefördert werden, die dem Fachbereich schon längst bekannt sind.

Irrtum Nummer drei: Analytics und Datenschutz vertragen sich nicht

Personenbezogene Daten wie Namen und genaue Adressen sind für die meisten Analysen nicht wichtig. Interessant wird es eventuell bei der Postleitzahl, aber meistens reicht die Stadt schon aus. Und selbst wenn solche Informationen nötig sind: Sie können anonymisiert werden.

Irrtum Nummer vier: Bevor wir mit Analytics anfangen können, muss unser Data Warehouse stehen

Wer so denkt, läuft Gefahr, beim ersten Projekt zu bemerken, dass er zwar wunderbar strukturierte Daten hat, aber leider nicht die richtigen – und sein brandneues Data Warehouse wieder umbauen muss. Der Weg in das Zeitalter der Analytics ist ein stetiger Prozess der Verbesserung.

Jetzt Teil II lesen:

„Analytics: Wie geht das eigentlich?“

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Ein See voller Informationen: der richtige Umgang mit Data Lakes

Wer große Mengen unterschiedlicher Datenformen für Analytics nutzen will, kommt an Data Lakes kaum vorbei. Doch um die richtigen Daten zum Fließen zu bringen, ist beim Einrichten einiges zu beachten. Ansonsten kann aus dem See durchaus ein nutzloser Tümpel werden. IT Consultant Jens Lehmann erklärt, wie ein Data Lake strukturiert sein sollte.

Herr Lehmann, parallel zu Data Warehouses nutzen immer mehr Unternehmen Data Lakes. Was ist eigentlich der Unterschied?

In einem Data Lake werden große Mengen angelegt – also Big Data, die man so in einem Data Warehouse nicht speichern kann. Denn Data-Lake-Daten können im Rohzustand verbleiben. Und sie können aus unterschiedlichen Quellen stammen. Um im Bild zu bleiben: Ein Data Lake ist ein großes Gewässer, gespeist aus mehreren Zuflüssen. Ein Data Warehouse besteht eher aus vielen befüllten Behältern mit bereits gedruckten Etiketten.

In welchen Anwendungsfällen ist Analytics per Data Lake denn sinnvoll?

Vor allem wenn große Massen an Informationen mit herkömmlichen Mitteln nicht analysiert werden können. Viele Unternehmen haben Millionen von Sensordaten, Verkaufsinformationen oder Social-Media-Inhalten, die ein Data Lake gemeinsam speichern kann.

Ok. Und wie sorge ich dafür, dass diese Daten zusammen nutzbar sind? Wie strukturiere ich einen Data Lake richtig?

Man muss die Rohdaten mit zusätzlichen Merkmalen anreichern. Zum einen mit Metadaten, die verraten, von welchem Ort aus jemand auf eine Website zugegriffen hat. Zum anderen mit Metaprozessinformationen – sprich Infos darüber, wann und wo Daten generiert wurden. Bei einem Hersteller für Dichtungen heißt das: Welche Maschine hat die Dichtung um 14 Uhr hergestellt? Außerdem braucht es Kontextdaten, die Texteingaben von Kunden in Formularen oder E-Mails strukturieren. Denn ein Computer kennt zum Beispiel nicht den Unterschied, wann mit dem Wort „Bank“ das Geldinstitut oder die Sitzgelegenheit gemeint ist. Zu guter

Letzt beschreiben Zuordnungshinweise die Beziehung zwischen Daten, also ob Abhängigkeiten zwischen Merkmalen bestehen.

Reicht das, oder braucht es noch mehr Struktur?

Es reicht nicht ganz. Viele Unternehmen häufen aus verschiedenen Abteilungen verschiedene Daten an. Sie sollten daher den großen Data Lake in Data Ponds unterteilen – also in kleinere Datenteiche, wenn man so will. Die Daten in den Teichen können aber dennoch durch die Metadaten miteinander verbunden werden.

Was heißt das genau?

Ausgehend von den beschriebenen Zusatzmerkmalen legt man Data Ponds an. Das heißt, analoge Daten, Textdaten und Prozessdaten bilden eigene Bereiche, Cluster genannt. Sie werden auch mit verschiedenen technischen Methoden zusammengefasst. Das ist Expertenarbeit. Aber am Ende sind die Daten nicht nur für Experten nutzbar, sondern für viele Mitarbeiter.

Haben Sie ein Beispiel?

Endanwender wie Verkaufspersonal oder Marketingexperten können Data Lakes nutzen. Sie finden schnell Zusammenhänge – zum Beispiel zwischen allen produzierten Dichtungen in der eben angesprochenen Produktion. Ist eine Charge fehlerhaft, kann man anhand ihrer Zusatzdaten sehen, welche Maschine sie wann produziert hat – und den Fehler finden. Oder man findet schnell eine Auflistung der häufigsten Kundenkommentare der letzten Monate zu einem Produkt.
Klingt rechenintensiv. Was braucht es an Hardware, um mit Data Lakes zu arbeiten?
Praktischerweise lässt sich ein Data Lake ohne aufwändige Rechnerarchitektur betreiben. Über das Open Source Framework Hadoop können in den Clustern viele Computer miteinander verbunden werden, die ihre Rechenleistung für den Data Lake zur Verfügung stellen.

Haben Sie noch generelle Hinweise für den Nutzen eines Data Lakes?

Es reicht nicht, den Data Lake mit Inhalten aus allen zur Verfügung stehenden Quellen zu fluten. Vielmehr sollte es darum gehen, die Möglichkeiten dieses
Konzeptes richtig zu nutzen. Ohne Vernünftiges Information Lifecycle Management und entsprechende Governance wird dies nicht gelingen. Daher ist eine Vorab-Analyse der Ziele enorm wichtig.

"Richtig angelegt sind die Daten aus Data Lakes nicht nur für Experten nutzbar, sondern für viele Mitarbeiter."

Jens Lehmann, IT Consultant bei ITGAIN.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Telematik Award 2018: Ausschreibung startet am 15. April 2018

Schirmherr Dr. Bernd Althusmann überreicht die hochwertigen Trophäen

Schirmherr des Telematik Awards 2018 ist Dr. Bernd Althusmann, Niedersächsischer Minister für Wirtschaft, Arbeit, Verkehr und Digitalisierung. Er führt somit die seit 2010 bestehende gute und erfolgreiche Tradition seines Ministeriums fort, welches in jedem Jahr der Verleihung die Schirmherrschaft übernahm.

Minister Dr. Bernd Althusmann sagte sehr gerne auch seine Teilnahme an der Podiumsdiskussion namens „Telematik-Talk“ zu. Diese spannende Gesprächsrunde zu aktuellen Themen, ist in jedem Jahr der Verleihung für viele Besucher und Gäste ein Programmpunkt mit besonders hoher Anziehungskraft. Höhepunkt ist und bleibt jedoch die Verleihung des Telematik Awards 2018. Dr. Bernd Althusmann freue sich schon sehr auf die persönlichen Begegnungen mit den Gewinnern, denen er die begehrten und hochwertigen Preise auf der Bühne übergeben darf und er wünsche zum Start der Bewerbungsphase allen Bewerbern viel Erfolg.

In seinem Grußwort betont er:

„ …Die Vernetzung von digitalen Services, von Fahrzeugen untereinander sowie mit der Infrastruktur sind uns über die Begriffe „car-to-car“, „car-to-infrastructure“ Kommunikation, intelligente Logistiklösungen oder autonomes Fahren bereits bekannt. Zusätzlich entwickeln sich telematische Systeme dabei über die Verknüpfung von Fahrzeugen und die Bereitstellung von Verkehrsdaten hinaus hin zu einer immer komplexeren innovativen Mobilitätswirtschaft, die Transport- und Produktionsleistungen miteinander verbindet oder immer komplexere Abläufe ermöglicht. …“

Das vollständige Grußwort lesen Sie hier.

VDA – Langjähriger Partner des Veranstalters

Seit dem Jahr 2010 ist der Verband der Automobilindustrie e.V. (VDA) ein wichtiger und vertrauensvoller Partnerverband des Veranstalters. Selbstverständlich wird VDA-Geschäftsführer Dr. Kurt-Christian Scheel vor Ort sein und nicht nur die Begrüßungsrede für die Gäste der feierlichen Verleihungsveranstaltung halten. Auch er hat seine Teilnahme an der Podiumsdiskussion Telematik-Talk bereits zugesagt und auch er wird zusammen mit dem Schirmherrn, dem Veranstalter, einer der ersten Gratulanten sein, der die Preise an die glücklichen Gewinner übergeben wird.

Dr. Kurt-Christian Scheel weiß um die herausragende Bedeutung dieser Branche und er prognostiziert:
„… künftig wird die Nutzfahrzeug-Telematik sogar noch viel mehr können. Im bevorstehenden Zeitalter des Internets der Dinge geht es darum, das Nutzfahrzeug noch tiefer in die Supply Chain der Güter, die es transportiert, einzubetten und damit sogar eine in das Produktionssystem integrierte Routenoptimierung anzubieten. …“

Das vollständige Grußwort lesen Sie hier.

Die Einreichungsfrist beginnt am 15. April 2018.

Alle Informationen zu den Kategorien, die ausgeschrieben sind und
weitere Informationen sowie die Ausschreibungsunterlagen fordern Sie hier an.

Verpassen Sie keine Informationen zur Verleihung des Telematik Awards 2018

Newsletter- Anmeldung

Zum Telematik Award
Immer im Wechsel stehen die Fahrzeug- und die Human-Telematik im Fokus der Ausschreibung. Im Jahr 2018 steht die Fahrzeug-Telematik im Blickpunkt der Preisvergabe. Traditionell findet die Verleihung in diesem Bereich auf der IAA Nutzfahrzeuge in Hannover statt. Weitere Informationen.

Die Qualität des Telematik Awards ist durch die Kompetenz des Veranstalters, seiner Partner sowie durch die Kompetenz der prominenten Fachjury garantiert – letztere sichert mit ihrer Zusammensetzung aus Wissenschaftlern, Experten, Fachjournalisten, und Anwendern die hohe Bewertungsqualität. Die Fachjury stellt sich vor.

In Verbindung mit der Verleihung werden Preise im Wert von insgesamt ca. 25.000 Euro vergeben. Die Teilnahme an der Ausschreibung, die Bewerbung und die Teilnahme an der feierlichen Verleihungsveranstaltung sind kostenlos. Kostenlos sind selbstverständlich auch bei der Vergabe der zum Preis ausgegebenen Signets, Urkunden, Pokale etc.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Die Digitalisierung der Steuerberaterbranche

Die Digitalisierung macht vor der Steuerberaterbranche nicht halt. Was haben Big Data, Künstliche Intelligenz und Disruptive Geschäftsmodelle mit der Steuerberaterbranche zu tun? Die Antwort lautet: jede Menge. Wo geben das Internet und digitale Prozesse in der Steuerberaterbranche schon jetzt den Ton an und wohin wird die Reise gehen?

Unter dem Titel „Wie die Digitalisierung die Steuerberaterbranche verändert“ thematisiert Stefan Seidel die spürbare Aufbruchsstimmung dieser Branche. Gastgebender Professor ist Prof. Dr. Jörg-Rafael Heim, Professor für Betriebswirtschaftliche Steuerlehre, Controlling, Energiewirtschaft an der HSW.

Termin
Dienstag, 17. April 2018
17:30 Uhr
Hochschule Weserbergland
4. Etage

Um eine Voranmeldung wird bei Pauline Schneiders per E-Mail an schneiders@hsw-hameln.de gebeten.

Zum Referenten
Dipl.-Kfm. Stefan Seidel ist Leiter der DATEV-Niederlassung Hannover und Abteilungsleiter für den DATEV-Regionalvertrieb Nord. Nach seinem BWL-Studium an der Georg-August-Universität in Göttingen erfolgte der Berufseinstieg im Bereich E-Commerce als Vorstandsassistent beim Zigarrenhersteller Dannemann in Ostwestfalen. Es folgten zwei Stationen im Bereich Consulting und Projektmanagement in Berlin und Wiesbaden, bevor Seidel 2003 bei der DATEV als Kanzleibetreuer in Kassel anfing. Hier arbeitet er seitdem in verschiedenen Fach- und Führungspositionen. Schwerpunkte seiner Tätigkeit sind die Vertriebsleitung Norddeutschland sowie die Funktion des DATEV-Repräsentanten der Region.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

ayondo feiert ersten Handelstag als erstes gelistetes FinTech-Unternehmen an der Börse in Singapur (SGX)

ayondo Ltd. (“ayondo”, das „Unternehmen” inklusive aller Tochterunternehmen, der „Gruppe“), eine globale Financial Technology Gruppe feierte heute den ersten Handelstag ihrer Aktien am „Catalist Board“ der Singapore Exchange Securities Trading Limited (“Catalist”). Die angebotenen 80.770.000 Invitation Shares zu einem Preis von 0,26 SGD je Aktie wurden vollständig gezeichnet.

ayondo ist eine globale Financial Technology Gruppe mit regulierten und zugelassenen Tochtergesellschaften in Großbritannien (FCA) und Deutschland (BaFin) sowie weiteren Geschäftsstellen in Singapur, Spanien und der Schweiz, die innovative Trading- und Investmentlösungen für Privatkunden und institutionelle Kunden anbietet.

Robert Lempka, CEO von ayondo sagt: „Wir freuen uns sehr, dass ayondo das erste FinTech-Unternehmen mit einem Listing an der Singapore Stock Exchange ist. Die SGX hat sich als hervorragender Partner erwiesen und wir freuen uns darauf das Listing am Catalist Board für uns zu nutzen. Dies bietet uns eine hervorragende Plattform, um unsere Markenbekanntheit weiter zu steigern und unsere Wachstumsstrategie fortzuführen.“

Die Gruppe gilt als einer der FinTech-Pioniere in Europa, die neue digitale Technologien und die sich wandelnden Trends in der Finanzindustrie für sich genutzt hat. Mit der Kombination von Trading und Investment mit Social Media Elementen schafft die Gruppe etwas komplett Neues in der traditionellen Vermögensverwaltungsbranche, indem sie eine alternative Möglichkeit des Tradings und Investierens durch Social Trading, ein Konzept, das sich durch den Gemeinschaftsgedanken auszeichnet, anbietet. Social Trading stellt eine schnell wachsende Innovation dar, die es Tradern ermöglicht Handelsstrategien zu teilen oder anderen öffentlichen Strategien automatisch, proportional und in Echtzeit zu folgen.

Die Marktkapitalisierung von ayondo zum IPO liegt bei rund 130,7 Millionen SGD.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Intelligente Datenintegration – ein Muss für qualifizierte Geschäftsentscheidungen

Die Verarbeitung von Informationen aller Art, Datenintegration und -analyse für mittlere und größere Unternehmen – das sind die Kernbereiche, auf die sich der Data-Warehouse(DWH)- und Business-Intelligence(BI)-Pionier mip im dreißigsten Jahr seines Bestehens weiterhin fokussiert. Angesichts der zunehmenden Anwendung von DWH- und BI-Lösungen im Management und in operativen Fachbereichen steigt nicht nur die Menge der zu verarbeitenden Daten und Nutzer. Auch die Auswahl valider Informationen aus unterschiedlichen Quellen sowie ihre Aufbereitung, Darstellung und Visualisierung nehmen einen immer wichtigeren Stellenwert ein. Das Team um die Geschäftsführer Ursula Flade-Ruf und Markus Ruf rückt daher die Organisation und Verwendung aller unternehmensrelevanten Informationen für einen konsistenten Datenbestand in den Mittelpunkt seiner Aktivitäten. „Egal ob es sich um Data Warehouse, Big Data oder Business Analytics handelt – das Herzstück eines optimal laufenden BI-Systems ist immer eine intelligente Integration strukturierter wie unstrukturierter Daten“, so Ursula Flade-Ruf.

Aufgrund langjähriger Projekterfahrungen mit zahlreichen mittelständischen und großen Unternehmen sehen sich die DWH- und BI-Pioniere von mip in der Rolle als beratende und projektbegleitende Data Stewards ihrer Kunden bestätigt. „Auch die avanciertesten IT-Entwicklungen, zum Beispiel in Richtung Predictive Analytics, stehen auf dem nüchternen Boden von Daten und Informationen. Um diese zeitnah bzw. in Echtzeit zu nutzen, bedarf es mitunter nicht nur materialisierter, sondern auch virtueller Integrationsarchitekturen, die es kundenindividuell anzupassen gilt“, so Ursula Flade-Ruf zur mip-Strategie. Vorrangige Aufgabengebiete der in München und Stuttgart vertretenen BI-Experten sind daher nicht nur klassische DWH-Entwicklungen rund um Infrastrukturerweiterungen und Softwareoptimierungen. Auch neue Anwendungen und Dienstleistungen zur Integration und Nutzung semi- bzw. unstrukturierter Daten aus externen Datenquellen nehmen einen zunehmend wichtigeren Platz im mip-Angebotsportfolio ein.

Die Einsatzgebiete der BI-Lösungen werden immer vielfältiger. Sie reichen von IoT-Anwendungen im industriellen Sektor bis hin zu KI-gestützten Services im Kundendienst oder Call-Centern. „Chatbots zur Kommunikation mit Kunden oder Mitarbeitern, auf Sensor- und Maschinendaten basierende Predictive-Maintenance-Lösungen zur wirtschaftlichen Qualitätssicherung oder selbstlernende Cognitive-Business-Anwendungen. Die Grundlage aller dieser Services ist die intelligente Integration und Nutzung einer immens großen Datenmenge aus unterschiedlichen Quellen“, so die mip-Geschäftsführerin

Data Steward: Informations-Schubser oder -partner?

Unterstützten Data-Warehouse-Lösungen früher vorwiegend Entscheidungsprozesse im Management, so nutzen heute viel mehr Fachabteilungen zunehmend DWH-Werkzeuge. Größere Datenmengen, höhere Userzahlen und Abfragefrequenzen sowie veränderte Recherchemodi sind die Folge. Das bedeutet für Unternehmen eine zusätzliche Herausforderung. Ursula Flade-Ruf: „In unserer Rolle als Datenintegrator in den Unternehmen unterstützen und begleiten wir unsere Kunden quasi als ‚Data Steward’. Wir sind das lösungsorientierte Bindeglied zwischen den Anforderungen des Business-Anwenders in der Fachabteilung und der IT. Unsere Aufgabe ist es, alle relevanten, inner- und außerhalb des Unternehmens steckenden Datenquellen zur Auswertung IT-seitig einzubinden.“ Hierzu wird mip seine langjährigen strategischen Partnerschaften nicht nur zu IBM (Gold Business Partner) vertiefen, sondern auch zu Bissantz, Lenovo, Pitney Bowes, VMware und Longview.

Kongeniale Partnerschaft

Datenintegration ist auch das beherrschende Thema in der über zwanzigjährigen Zusammenarbeit mit IBM und zahlreichen gemeinsamen Kundenprojekten. Dank der technologischen Vorreiterrolle des weltweit führenden IT-Anbieters rund um Big Data, Business Analytics/Intelligence, Cognitive Business und Künstlicher Intelligenz (Watson) stehen mip-Kunden nicht nur Auswertungsmöglichkeiten durch strukturierte Datenbanken zur Verfügung. Da nun auch unstrukturierte Daten aus externen Quellen auswertbar sind, hat sich die Menge zu nutzender Informationen exponentiell vergrößert: Sensor- und Maschinendaten gehören ebenso dazu wie Bild-/Audio-Dateien (Recognition) oder Informationen zum Nutzerverhalten auf Webseiten. „Dank der kongenialen Partnerschaft mit IBM sind wir in Bereichen wie Cloud und IoT genauso gut aufgestellt wie etwa bei selbstlernenden Systemen, zum Beispiel Chatbots, Deep Learning usw.“, so Ursula Flade-Ruf.

Drei Jahrzehnte vorneweg

Parellel zum Aufkommen des Begriffs „Data Warehouse“ im Jahr 1988 gründete Ursula Flade-Ruf das IT-Dienstleistungsunternehmen mip Management Informationspartner GmbH in München. Unter Berücksichtigung unterschiedlicher Frontends und Hersteller decken die mip-Experten seither die verschiedenen Anforderungen von Management und Fachabteilungen in der Datenanalyse und Visualisierung vollumfänglich ab. In der Liga von Data-Warehouse- und Business-Intelligence-Anbietern spielt das IT-Beratungs-, Implementierungs- und Umsetzungs-Team ganz vorne mit. So berät mip große und mittelständische Unternehmen vorwiegend aus den Branchen Fertigung und Handel und blickt auf eine lange Referenzliste erfolgreich durchgeführter BI-Projekte – unter anderen mit den Unternehmen Theo Förch (Neuenstadt ), Hans Riegelein (Cadolzburg), Eschenbach Optik (Nürnberg), Kaiser+Kraft (Stuttgart), afb Application Services (München), Migrol (Zürich/Schweiz). Die Offenheit gegenüber neuen Themen und Arbeitsmethoden, zum Beispiel Design Thinking oder Think-Tank-Konzepte, sichert dabei nicht nur die professionelle Begleitung von Digitalisierungsprojekten, sondern beschleunigt auch ihre Umsetzung. Ursula Flade-Ruf: „Kunden und Partner überzeugt die Fähigkeit unserer Mitarbeiter, Innovationskraft mit fundiertem Wissen derart zu kombinieren, dass gleichermaßen praxisorientierte wie zukunftsöffnende Lösungen entstehen. Mit 50 Prozent ist der Mitarbeiteranteil unserer ‚jungen Wilden’ heute höher denn je – Ich denke, das ist eine sehr gute Mischung.“

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Gartner benennt MarkLogic im „Magic Quadrant for Data Management Solutions for Analytics“ als Visionär

MarkLogic Corporation, ein führender Anbieter operationaler und transaktionaler Enterprise-NoSQL-Datenbanken, hat heute angekündigt, dass er bei der Studie "Magic Quadrant for Database Management Solutions for Analytics 2018" von Gartner1 schon zum zweiten Mal in Folge als Visionär bewertet wurde.

Als einer der besten Multi-Model-Datenbanken für die Datenintegration aus Silos ist MarkLogic die Basis erfolgreicher Analytik-Implementierungen für große High-Tech-Unternehmen und bietet eine dynamische Vision dessen, was diese Unternehmen benötigen, um Daten effektiv zu nutzen und ihre Wettbewerbsfähigkeit aktuell und zukünftig zu sichern.

Für den Magic-Quadrant wurden 22 Anbieter hinsichtlich ihrer "Umsetzungskompetenz" und der "Vollständigkeit ihrer Vision" bewertet. MarkLogic und Google sind die beiden einzigen Unternehmen, die im Quadranten "Visionäre" eingestuft wurden. Im "Magic Quadrant for Operational Database Management Systems" vom November 2017 hatte sich MarkLogic bereits aufgrund seiner "Umsetzungskompetenz" und der "Vollständigkeit der Vision" mit einer starken Wertung am weitesten rechts im Challenger-Quadranten platziert.2

"Wir glauben, dass diese Auszeichnung uns als treibende Kraft für neue Ideen in unserem sich rasant wandelnden Marktsegment kennzeichnet, und dass diese Anerkennung im zweiten Jahr in Folge bedeutet, dass MarkLogic seine Vision für den Wandel bei den Kunden konsequent umsetzt", so Gary Bloom, CEO und Präsident von MarkLogic. "Unser sehr zeitgemäßes Verständnis von Analytik greift die sich rasant ändernden Anforderungen der Branche auf, so dass unsere Unternehmenskunden ihre Daten besser, schneller und mit weniger Reibungsverlusten integrieren können. So können sie den neuen Herausforderungen von Daten und Anwendungen besser begegnen und am Ende ihre unternehmerischen Ziele erreichen. Als kundenorientierte Firma glauben wir, dass unsere fortlaufende Bewertung als Visionär unseren klaren Fokus auf Produktinnovation und Erfolg des Kunden deutlich macht. MarkLogic als hochmoderne Datenbankplattform ermöglicht den Kunden erfolgskritische Unternehmens- Anwendungen."

MarkLogic zählt weltweit mehr als 1.000 Unternehmen und Behörden zu seinem Kundenkreis, von denen viele MarkLogics Fähigkeit zum Meistern sehr komplexer Herausforderungen im Bereich der Analytik und zur Ergebnislieferung in Echtzeit loben. Die Kunden bevorzugen MarkLogic, weil das Unternehmen sich klar darauf konzentriert, was seine Kunden für den Erfolg im ständig wachsenden Wettbewerb benötigen.

Auf der Kundenplattform Gartner Peer Insights schrieb ein Architekt den folgenden Kommentar: "MarkLogic bietet uns äußerst wichtige Fähigkeiten, die es anderswo nicht gibt… MarkLogic ist bestens geeignet für betriebliche Analytik, weil das System über eine hohe Abfrageleistung, Sicherheit, Verfügbarkeit und Skalierbarkeit verfügt. Es wurde für schnelle Abfragen über Hunderte Netzwerkserver und Petabytes an Daten optimiert. Es verwaltet kontinuierlich und vollautomatisch alle Daten im gesamten Cluster, so dass eine maximale Abfrage- und Suchleistung erreicht wird."

Schon seit mehr als zehn Jahren gehört MarkLogic zu den die beliebtesten operationalen und transaktionalen Enterprise-NoSQL-Datenbanken der Branche. Unternehmenskunden weltweit vertrauen MarkLogic bei der Datenintegration, der Erstellung neuer Anwendungen mit einer 360-Grad-Sicht der Daten sowie als Motor von Innovation und Wettbewerbsvorteilen. Durch eine leistungsfähige Kombination an Funktionen erlaubt MarkLogic das sichere und einfache Teilen von Informationen mit Metadaten, Semantik und modernsten Sicherheitsoptionen. Damit ermöglicht es Sicherheit, Daten-Schwärzung und erweiterte Verschlüsselung bereits auf Elementebene.

Einen kostenlosen Zugang zum "Magic Quadrant for Operational Database Management Systems 2017" von Gartner erhalten Sie hier.

Weitere Informationen zur "Magic Quadrant for Data Management Solutions for Analytics"-Studie 2018 von Gartner finden Sie unter https://www.marklogic.com/blog/1 Gartner, "Magic Quadrant for Data Management Solutions for Analytics", Adam M. Ronthal, Roxane Edjlali, Rick Greenwald, 13. Februar 2018.

2 Gartner, "Magic Quadrant for Operational Database Management Systems", Nick Heudecker, Donald Feinberg, Merv Adrian, 2. November 2017.

Gartner-Haftungsausschluss
Gartner befürwortet keine Anbieter, Produkte oder Dienstleistungen, die in seinen Forschungsveröffentlichungen aufgeführt sind, und rät den Technologiebenutzern nicht, nur diejenigen Anbieter auszuwählen, welche die höchste Bewertung oder eine andere Bezeichnung haben. Gartner-Forschungspublikationen spiegeln die Meinung der Gartner-Forschungsorganisation wider und sollten nicht als Tatsachenbehauptungen verstanden werden. Gartner lehnt jegliche ausdrücklichen oder impliziten Garantien in Bezug auf diese Forschung ab, einschließlich jeglicher Garantie der Marktgängigkeit oder Eignung für einen bestimmten Zweck.

* Die "Peer-Insights"-Bewertungen von Gartner bilden die subjektive Meinung einzelner Endnutzer auf Basis ihrer eigenen Erfahrungen ab und repräsentieren nicht die Ansichten von Gartner oder seinen Partnern.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox