MarkLogic 9.0-5 verstärkt Automatisierung und sichere Datenintegration

MarkLogic Corporation, ein führender Anbieter operationaler und transaktionaler Enterprise-NoSQL-Datenbanken, gab heute die Veröffentlichung von MarkLogic 9.0-5 bekannt, der neuesten Version der Multi-Modell-Datenbankplattform zur Sicherung, zum Austausch und zur Integration von Daten.

MarkLogic 9.0-5 ist ein wichtiger Schritt hin zu einem automatisierten, sicheren Workload-Management für Datenintegrationsprojekte in der Cloud und in Rechenzentren. Die aktualisierte Version bietet Großunternehmen mehr Sicherheit durch vorkonfigurierte Einstellungen, erweiterte Funktionen für geschäftskritische Vorgänge und das Workload-Management sowie umfassende Erweiterungen des quelloffenen Data Hub Framework (DHF) von MarkLogic.

„Unternehmen müssen innovativ sein, und dazu benötigen sie fundierte Daten. MarkLogic macht Daten zugänglicher, wertvoller und sicherer“, sagt Joe Pasqua, Executive Vice President und Head of Products bei MarkLogic. „Diese neuen Funktionen und Tools bieten Entwicklern, Cloud-Architekten und IT-Betreibern verbesserte Möglichkeiten der Datenintegration, Anwendungsentwicklung und 360-Grad-Ansicht von Daten. Mit MarkLogic 9.0-5 haben wir die Rolle sowohl der Datenbank als auch der zugrunde liegenden Daten als Rückgrat einer erfolgreichen modernen Organisation weiter gefestigt. So können sich die Unternehmen selbst auf die Geschwindigkeit, Agilität und Sicherheit in der Cloud, im Unternehmen vor Ort oder in einer hybriden Umgebung konzentrieren.“

„Diese neueste Version von MarkLogic wurde entwickelt, um eine wirklich unternehmensgerechte Plattform zu bieten, die in Bezug auf Datenintegration, Sicherheit und Workload-Management ihresgleichen sucht“, so Carl Olofson, Research Vice President, Application Development and Deployment, IDC. „Die wichtigsten multifunktionalen Erweiterungen von MarkLogic 9.0-5 versprechen Verbesserungen in Bereichen, in denen MarkLogic bereits führend ist – sie unterstützen Datenbankadministratoren und Cloud-Architekten bei der Verwaltung großer und komplexer Datenintegrationsprojekte. Funktionen wie vorkonfigurierte höchste Sicherheitseinstellungen, Semantik-Unterstützung, Ontologie-basierte Extraktion von Entitäten und neue, optimierte APIs zur Erstellung von zentralen Data-Hubs sollten als das angesehen werden, was sie sind: unverzichtbare Werkzeuge für moderne digitale Geschäfte.“

Neue Funktionen in MarkLogic 9.0-5 sind u. a.:

  • Ein intelligenteres Data Hub Framework (DHF): Das DHF, ein Referenz-Framework für den Aufbau einer zentralen Datenhaltung (Data Hub), ist jetzt bei MarkLogic vorinstalliert. Verschiedene Erweiterungen der Kernmodule erleichtern Entwicklern und Architekten die Orchestrierung der Datenaufnahme und Datenpflege innerhalb des Data Hubs. Eine neue, optimierte API wird auch die Erstellung von Data Hubs vereinfachen, während Optimierungen hinsichtlich der Datenaufnahme und Leistungsverbesserungen den Betrieb schneller und sicherer machen. MarkLogic 9.0-5 enthält außerdem Erweiterungen in den Bereichen Suche, SQL und Semantik, um den Zugriff auf Inhalte innerhalb eines Data Hubs noch einfacher und leistungsfähiger zu machen.
  • Ontologie-basierte Entitäten-Extraktion: MarkLogic 9.0-5 setzt den Prozess der semantischen Sensibilisierung von Daten fort und führt die ontologiegesteuerte Entitäten-Extraktion ein. Diese Funktion ermöglicht es, Schlüsselkonzepte in unstrukturierten Daten zu identifizieren, zu extrahieren oder zu markieren. Das Ergebnis sind verbesserte Suchergebnisse, automatisiertes Metadaten-Tagging, verbesserte Datenhoheit und mehr.
  • Sicherere und effizientere Cloud-Implementierungen: MarkLogic 9.0-5 verbessert die Sicherheit von Cloud-Daten, indem es die erweiterten Verschlüsselungsfunktionen von MarkLogic mit den nativen Schlüsselverwaltungsdiensten von Amazon Web Services® (AWS®) verbindet und so den höchsten Standard der Datenbankverschlüsselung in der Cloud schafft. Neuer Kundensupport für Amazon Virtual Private Cloud (Amazon VPC®) mit neuen Cloud-Formation-Vorlagen sorgt für überaus sichere Implementierungen. Darüber hinaus wird eine neue API für die Konfigurationsverwaltung innerhalb von MarkLogic 9.0-5 komplexe Datenoperationen vereinfachen, um ein Self-Service-Modell für Cloud-Implementierungen zu ermöglichen.
  • Agiler, sicherer Betrieb und Workload-Management: Mit der Produktionsunterstützung für Docker-Container erhöht MarkLogic 9.0-5 die Datenübertragbarkeit und Flexibilität und verbessert gleichzeitig die Möglichkeiten der Workload-Verwaltung. Mit einer neuen Funktion, die Wartungs-Upgrades um das Zehnfache beschleunig geht MarkLogic 9.0-5 außerdem einen weiteren großen Schritt in Richtung unterbrechungsfreien Betriebs. Diese neue Funktion reduziert Ausfallzeiten erheblich und führt zu deutlich schnelleren Neustarts. Ob in der Cloud oder vor Ort: Unternehmen profitieren von den vorkonfigurierten höchsten Sicherheitseinstellungen, indem sie sich dazu entscheiden, ihre Datenbanken bei der Installation zu verschlüsseln. Es ist auch möglich, die Sicherheit der Datenbank durch die Verwendung einer beidseitigen und externen LDAP-Bind-Authentifizierung stärker an ihren Vorgängen auszurichten.

Da MarkLogic 9 auf dem Markt bei globalen Unternehmen und öffentlichen Auftraggebern stark an Bedeutung gewinnt, optimieren die neuen Funktionen eine bereits dynamische Plattform, die es Organisationen ermöglicht, auf sich ändernde Geschäftsanforderungen zu reagieren, wachsende Compliance-Anforderungen wie beispielsweise die DSGVO zu erfüllen sowie differenzierte Innovationen in ihren Unternehmen voranzutreiben.

Informationen zu MarkLogic 9.0-5 finden Sie unter: http://docs.marklogic.com/guide/relnotes/chap3#id_32477

Weitere Informationen zum MarkLogic Operational Data Hub Framework finden Sie unter: https://www.marklogic.com/solutions/enterprise/operational-data-hub/

 

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Streamsheets – IoT und Digitale Transformation für Praktiker

  • Microservices für IoT und Industrie 4.0 Prozesse mit Excel-ähnlichen Formeln modellieren und visualisieren
  • Das deutsche IoT-Startup Cedalo AG präsentiert die Streamsheet-Technologie auf der Hannovermesse
  • Zielgruppe sind Fachanwender ohne Programmierer-Ausbildung

Die Cedalo AG präsentiert auf der Hannovermesse eine enduser-gerechte Lösung zum Analysieren, Simulieren und Visualisieren von Sensor- und Maschinendaten sowie zum Steuern von digitalen Prozessen. Die Lösung basiert auf sogenannten Streamsheets, die auf den ersten Blick an Microsoft Excel oder Google Tabellen erinnern. Anders als klassische Tabellenkalkulationen sind Streamsheets jedoch Server-Prozesse, die kontinuierlich laufen und speziell für automatisierte Analysen und Steuerungen auf Basis eventbasierter Messageprotokolle und zyklischer Verarbeitungen konzipiert wurden.

Mit Streamsheets können Fachanwender eventbasierte Microservices im Bereich Industrie 4.0 und Industrial IoT modellieren. Aufgrund der hohen Flexibilität eignet sich die Cedalo-Lösung gleichermaßen zur Analyse und Visualisierung von IoT-basierten Daten wie auch zur Simulation von Datenströmen bzw. eventuell noch nicht vorhandener Aktuatoren oder Sensoren. Streamsheets laufen in der Cloud, „On-Premises“ in Docker-Containern oder sogar auf dem Raspberry Pi.

Eine weitere Stärke von Streamsheets ist die Fähigkeit, unterschiedliche Datenquellen sowie M2M-Protokolle zu verbinden und zu vernetzen. Zusätzlich können regelbasiert Aktionen ausgelöst und Daten automatisiert an Drittsysteme weitergegeben werden, ohne dass dazu eine manuelle Interaktion notwendig ist.

Typische Einsatzbereiche sind die Modellierung automatisierter bzw. autonomer Transformations-, Analyse-, Kommunikations- oder Steuerungsprozesse, die bislang aufwendig durch Experten über spezielle Modellierungstools, Scripting oder klassische Programmierung in Java, Python oder anderen Programmiersprachen implementiert werden mussten. Mit den Cedalo Streamsheets lassen sich Prozesse und Analysen zu weit geringeren Kosten und in viel kürzerer Zeit realisieren. Streamsheets sind deshalb auch sehr gut für Prototyping, Proof-of-Concept und Aus- bzw. Weiterbildung geeignet.

Cedalo Streamsheets agieren als OPC UA Server und bieten gleichzeitig Konnektoren für Apache Kafka, MQTT, REST und AMQP. Über Feld-Gateways können die klassischen Feldbusse, IO-Link und weitere Kommunikationsprotokolle angebunden werden.

Die Cedalo AG ist auf der Hannovermesse mit 2 Ständen vertreten: Halle 17, Stand B68 (Young Tech Enterprises) und auf dem Industrie 4.0 Gemeinschaftsstand des Landes Baden-Württemberg in Halle 6, C18. Die Cedalo AG ist Preisträger im Wettbewerb „100 Orte für Industrie 4.0 in Baden-Württemberg“.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Security Awareness, sichere Entwicklung sowie Sicherheit von Docker, DevOps & Co.

cirosec, der Spezialist im IT-Sicherheitsbereich, veranstaltet im Juni 2018 wieder seine TrendTage rund um innovative Themen im IT-Sicherheitsbereich. Schwerpunkte sind dieses Mal Security Awareness, sichere Entwicklung sowie Sicherheit von Docker, DevOps & Co.

Stationen der TrendTage sind Köln (11. Juni 2018), Frankfurt (12. Juni 2018), Stuttgart (13. Juni 2018) und München (14. Juni 2018). Die Teilnahme ist kostenlos.

Nach einer kurzen Begrüßung stellt cirosec-Geschäftsführer Stefan Strobel aktuelle Trends und Innovationen in der IT-Sicherheit vor.

Im Anschluss präsentieren drei Hersteller ihre innovativen Produkte:

* aqua Security – Sicherheit für Ihre Container und DevOps
Software-Container (Docker und andere) haben sich rasant in den Unternehmen ausgebreitet. Sie bringen aber auch verschiedene Herausforderungen an die IT-Sicherheit mit sich. Die Plattform von aqua wurde explizit dafür gebaut, die Herausforderungen von Containern wie Sichtbarkeit, Isolierung, Einbrucherkennung und -verhinderung zu verbessern und transparent für DevOps zu sein.

* Cofense – Security Awareness
Cofense möchte mit seiner Lösung Mitarbeiter in Unternehmen sensibilisieren, um gegen Phishing-Angriffe gewappnet zu sein. Durch eine spezielle Technologie können die Mitarbeiter sogar zu Sensoren gemacht werden, um schon frühzeitig entscheidende Hinweise auf einen Angriff zu geben.

* Secure Code Warrior – Sensibilisierung und Weiterbildung für sichere Entwicklung
Die Plattform von Secure Code Warrior ermöglicht eine spielerische und vor allem kontinuierliche Sensibilisierung und Weiterbildung von Softwareentwicklern. Anhand von Beispielen für zahlreiche Programmiersprachen und Frameworks lernen die Mitarbeiter, typische Programmierfehler zu erkennen und Schwachstellen durch sicheren Code zu ersetzen. Die Lernerfolge können spielerisch in Wettbewerben für das Team belegt und gefestigt werden.

Weitere Informationen, die Agenda und eine Anmeldemöglichkeit finden Interessierte unter www.cirosec.de.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

IBM kündigt neue Großrechner für Cloud-Provider und den Mittelstand an: sicherere Cloud- und Blockchain-Lösungen

Die Weltwirtschaft läuft IT-seitig zu einem beachtlichen Teil auf Großrechnern – Mainframes. Das Ausmaß der Nutzung von Mainframe-Computing kann am besten über die Anwendungsbereiche bei Organisationen und Verbrauchern verstanden werden, die auf schnellen und sicheren Transaktionen beruhen. Zum Beispiel werden 87 Prozent aller Kreditkartentransaktionen und fast 8 Billionen Zahlungen pro Jahr auf Mainframes abgewickelt. Darüber hinaus verwaltet die Plattform jährlich 29 Milliarden Bankautomaten-Transaktionen, was fast 5 Milliarden US-Dollar pro Tag entspricht. Wenn Sie mit dem Flugzeug reisen, verdanken Sie dies auch einem Großrechner, da diese Systeme auch für die Abwicklung von vier Milliarden Passagierflügen pro Jahr zuständig sind (1).

Im Zeitalter der digitalen Wirtschaft ist der Mainframe für viele Unternehmen die stabilste, sicherste und ausgereifteste Umgebung, um vorhandene und neue IT-Initiativen zu unterstützen, wie den Einsatz von Blockchains. Mit der heutigen Ankündigung macht IBM die Leistungsfähigkeit von IBM Z einer noch breiteren Kundengruppe zugänglich – dabei geht es um extrem hohe Sicherheit mit umfassender Verschlüsselung, maschinellem Lernen, Cloud-Funktionen und leistungsstarken Analytics-Fähigkeiten. IBM wird die neuen Systeme auch in seinen eigenen Public-Cloud-Rechenzentren bereitstellen, um die Sicherheit und Leistungsfähigkeit für datenintensive Anwendungen zu verbessern.

Da der Mainframe relevanter denn je ist, nutzte IBM Design-Thinking-Methoden, um eng mit mehr als 80 Kunden zusammenzuarbeiten, darunter Managed Service Providern, Online-Banken und Versicherungsunternehmen, um den Mainframe für eine ganze Nutzerklasse neu zu erfinden.

Die heutige Ankündigung erweitert die IBM Mainframe-Familie z14, die 2017 angekündigt wurde. Neu sind heute IBM ZSysteme, die cloud-fähig sind und eine einfache Integration in Cloud-Rechenzentren und Private Cloud-Umgebungen ermöglichen, da sie auf Standard-Industrie-Rack-Maßen beruhen ("19 Zoll"). Es handelt sich um die Systeme mit der Bezeichnung IBM z14 Model ZR1 und IBM LinuxONE Rockhopper II. Eine Vielzahl von Komponenten und Features beider Modelle wurde im deutschen IBM Labor in der Nähe von Stuttgart entworfen und entwickelt, wie zum Beispiel das neue Prozessorboard und das Karten-Design, die entscheidende Teile zur Anpassung der Z-Technologie an das Single-Frame-Design sind.

"Die digitale Transformation und die Cloud-Nutzung beschleunigen sich. Sie tragen dazu bei, die Rentabilität von Unternehmen in allen Branchen zu steigern", sagt Ross Mauri, General Manager von IBM Z. "Wir haben diese neuen cloud-ready Systeme gemeinsam mit unseren Kunden entwickelt für ihre Anforderungen und bieten ihnen damit Möglichkeiten, mehr Fokus auf die digitale Transformation on-premise und in hybriden Cloud-Umgebungen zu legen. "

"Unser Team in Deutschland war für die elektronische Packaging-Integration verantwortlich, die neben dem Prozessorboard-Design die elektronische Analyse der Hochgeschwindigkeitsnetze und die Power-Integrität beinhaltet hat. Die Reduzierung der Größe führte zu einer Reihe von Änderungen anderer Teile, wie zum Beispiel der Stromzufuhr ", sagt Dr. Hubert Harrer, IBM Senior Technical Staff Member. "Aber es hat sich sehr gut bewährt und wir sind sehr zufrieden mit den Ergebnissen, die zu 40 Prozent weniger Platzbedarf im Rechenzentrum führen."

Hohe Sicherheit bei riesigen Datenmengen

Laut dem Gemalto "Breach Level Index" wurden von den fast 10 Milliarden Datensätzen, die seit 2013 gestohlen wurden, nur 4 Prozent verschlüsselt und daher für Hacker nutzlos. Mit der Fähigkeit, über 850 Millionen vollständig verschlüsselte Transaktionen pro Tag auf einem einzigen System zu verarbeiten, benötigen die neuen "schlanken" Mainframes weder speziellen Raum, Kühlung oder Energie, sondern bieten eine durchgängige Verschlüsselung und Secure Service Container-Technologie für eine möglichst sichere Bereitstellung von Daten in großem Umfang. Das sind bis zu 10.000 verschlüsselte Transaktionen pro Sekunde!

Die neuen IBM Systeme wurden dafür entwickelt, extrem hohe Sicherheit für Linux-Umgebungen mit der Verwendung der IBM Secure Service Container-Technologie zu bieten. Es können nun noch mehr Schritte unternommen werden, um Daten vor internen Bedrohungen zu schützen, wie etwa auf Systemebene durch Benutzer mit gestohlenen oder privilegierten Anmeldeinformationen. Dieser Schutz hilft in hohem Maß auch vor externen Bedrohungen, ohne wesentliche Änderungen an den Anwendungen vornehmen zu müssen. Softwareentwickler profitieren davon, indem sie keine proprietären Abhängigkeiten in ihrem Code erstellen müssen, um diese erweiterten Sicherheitsfunktionen zu nutzen. Eine Anwendung muss nur in einen Docker-Container eingefügt werden, um für die Bereitstellung des Secure Service Containers bereit zu sein. Die Anwendung kann mithilfe der Docker- und Kubernetes-Tools verwaltet werden, um Secure Secure Container-Umgebungen einfach zu nutzen.

Der IBM Secure Service Container ist eine exklusive IBM-Technologie, die im deutschen Labor erfunden und entwickelt wurde. Dies bedeutet einen bedeutenden Fortschritt in Sachen Datenschutz und Sicherheitsfunktionen. Diese einzigartige Funktion bietet eine hochsichere logische Partition und Verschlüsselung aller Daten innerhalb dieser Partition. CIOs und Service Provider können diese Umgebungen ihren Endbenutzern zur Verfügung stellen und gleichzeitig die erhöhten regulatorischen Vorschriften erfüllen.

Ein Cloud-Datacenter in einer Box

Mit den neuen z14- und LinuxONE-Angeboten werden Kapazität, Leistung, Speicher und Cache in nahezu allen Bereichen des Systems erheblich erweitert. Ein komplettes System-Redesign bietet dieses Kapazitätswachstum bei 40 Prozent weniger Raumbedarf und ist standardisiert für den Einsatz in annähernd jedem Rechenzentrum. Das neue System z14 ZR1 kann die Grundlage für eine IBM Cloud Private-Lösung bilden, indem es Speicher, Netzwerke und andere Elemente im gleichen physischen Raum wie der Mainframe-Server zusammenführt und so ein "Data Center in einer Box" schafft.

Die neuen Systeme liefern:

– 10 Prozent mehr Kapazität als der Vorgänger z13s und 2x (8 TB) mehr Speicher (z14 ZR1).
– Mehr als 850 Millionen vollständig verschlüsselte Transaktionen pro Tag auf einem einzigen System (z14 ZR1) – annähernd 10.000 pro Sekunde!!
– 19-Zoll-Standard-Formfaktor, 50 Prozent mehr Kapazität und 2x (8 TB) mehr Speicher als die vorherige Version (Rockhopper II).
– Eine Docker-zertifizierte Infrastruktur für Docker EE mit integriertem Management und getesteter Skalierung auf bis zu 330.000 Docker-Container – ermöglicht Entwicklern das Erstellen von Hochleistungsanwendungen und integriert eine Micro-Services-Architektur ohne Latenz- oder Skalierungsbeschränkungen (Rockhopper II).

Die heutigen Nachrichten basieren auf der Ankündigung der ersten Cloud-Services durch IBM mit Mainframe-Level-Datenschutz. Diese Dienste ermöglichen Entwicklern und Kunden das Erstellen, Bereitstellen und Hosten von Anwendungen mit sehr hoher Datensicherheit, bei der die Informationen im Speicher, im Transport und in der Ablage verschlüsselt sind. Die IBM Cloud Hyper Protect-Familie umfasst vier neue Services, die durch die Integration von IBM Z in IBMs globale Public Cloud-Rechenzentren ermöglicht werden. Über den IBM Cloud-Katalog können Entwickler einfachen Zugriff auf einzigartige Sicherheitsfunktionen erhalten, um ihre Anwendungen in der IBM Cloud zu modernisieren.

Neue Speicherlösung ergänzt IBM Z für mehr Datendurchsatz

Als optimal darauf abgestimmte Speicherlösung stellt IBM ebenfalls das neue High-End-Speichersystem DS8880 Rel 8.3.3  vor. Es bietet neue Funktionen, die speziell für die Nutzung der besonderen Merkmale der IBM Z Großrechnerplattform entwickelt wurden.

Dazu gehört für die DS8880F-Familie die zHyperLink-Konnektivität mit extrem kurzer Latenzzeit über alle Modelle hinweg: Die Technologie ermöglicht Anwendungen eine Reaktionszeit von weniger als 20 Mikrosekunden (20 millionstel Sekunden). Dies entspricht einer 10-fachen Latenzverringerung im Vergleich zu High-Performance FICON und repräsentiert die kürzeste derzeit mögliche Reaktionszeit für Anwendungen auf der IBM Z Plattform.

Neben der verbesserten zHyperLink-Abdeckung ermöglichen die DS8880-Datensysteme jetzt auch den Einsatz von 10-Gigabit-Ethernet-Adaptern, um Daten schneller zu übertragen. Transparent Cloud Tiering (TCT) senkt den Verwaltungsaufwand für das Bewegen von Daten in und aus der Cloud in die DS8880-Einheit selbst. Dadurch wird die Mainframe-CPU-Auslastung für diese Art von Aufgaben in bestimmten Fällen bei der Archivierung großer Datensätze um bis zu 50% reduziert.

Weitere Informationen:
ibm.com/systems/z
ibm.com/storage

(1) – IBM Mainframe leitet neues Zeitalter des Datenschutzes ein – https://www-03.ibm.com/press/us/en/pressrelease/52805.wss.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

PowerFolder: Verbesserte Qualitätssicherung durch automatisierte Lasttests

Die dal33t GmbH hat die Qualitätssicherung für ihre File Sync&Share-Lösung PowerFolder überarbeitet. Durch verbesserte Docker-basierte Lasttests wird sichergestellt, dass die Server mit neuen PowerFolder-Versionen im Praxisbetrieb auch weiterhin bei großen Nutzerzahlen stabil laufen.

Neue Versionen einer Software werden natürlich im Vorfeld – bevor sie die Nutzer erreichen – einer ausgiebigen Qualitätssicherung unterzogen. Oftmals verhält sich die Software auf den Testsystemen jedoch anders als in der Praxis auf dem Produktivsystem, da dort dann die Last durch die Nutzer wesentlich größer wird. Um nun schon vorab eine möglichst große Zahl an Nutzern unter realen Bedingungen simulieren zu können, setzt die dal33t GmbH bei PowerFolder auf die Docker-Technologie. Damit ist man in der Lage, ressourcensparend automatisiert eine große Anzahl von PowerFolder-Clients in Docker-Containern zu erzeugen und zu starten; diese verbinden sich dann mit den PowerFolder-Servern und können auf diese Weise testen, wie diese sich unter multiplen Client-Connections verhalten. Damit wird eine essentielle Lücke zwischen Test- und Produktivsystemen, die bei allen Software Deployments existiert, weiter geschlossen. PowerFolder-Nutzer können also – auch dank der noch einmal verbesserten ausführlichen Lasttests – sicher sein, dass ihre Daten auf stabilen Servern und einer ausgereiften Software gut aufgehoben sind. Das beweist auch die augenblickliche gute Ratio von einem Supportcase auf etwa 1.000 PowerFolder-Nutzern, die man aber zukünftig noch weiter verbessern möchte.

Was ist Docker?

Docker – 2013 von dotCloud veröffentlicht – ist eine Open-Source-Software zur Isolierung von Anwendungen mit Containerverwaltung. Diese Container können aufeinander aufbauen und miteinander kommunizieren. Die darin enthaltenen Applikationen können autonom betrieben werden, vollständig getrennt von der jeweiligen Umgebung, inklusive der Prozesse, Dateisysteme oder des Netzwerks. Da Docker die Anwendung und die dafür benötigten Ressourcen im Container abkapselt, ohne aber ein komplettes Betriebssystem zu beinhalten, lassen sich die Anwendungen über Systeme hinweg leicht und platzsparend verschieben.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

„Cloud Development Training“ neu im inovex-Portfolio

Das IT-Projekthaus inovex bietet ab sofort ein neues Training für Software-Entwickler an. Das „Cloud Development Training“ führt anhand zahlreicher Übungsaufgaben in die Entwicklung von Software für die Cloud am Beispiel der Amazon Web Services-Plattform (AWS) ein.

Inhalte des Trainings
Immer mehr Unternehmen setzen bei der Entwicklung neuer Produkte oder Dienstleistungen auf externe Cloud-Anbieter als Basis-Plattform. Diese Plattformen bieten in der Regel eine höhere Zuverlässigkeit, bessere Skalierungsmöglichkeiten und geringere Kosten als der Aufbau und Betrieb einer eigenen Server-Landschaft. Für Software-Entwickler ändert sich hierdurch einiges: Um etwa die Skalierungsmöglichkeiten der Anbieter optimal nutzen können, müssen Applikationen aus einzelnen, autonomen Diensten aufgebaut sein, welche die vom Anbieter zur Verfügung gestellten Schnittstellen verwenden, um etwa Daten zu speichern oder untereinander zu kommunizieren.

Die Teilnehmer des Cloud Development Training erlernen anhand zahlreicher Übungen die Grundlagen der Entwicklung von Software für die Cloud und profitieren dabei von vielen Praxisbeispielen aus der langjährigen Erfahrung der Trainer.

Agenda:

  • Moderne Entwicklung mit DevOps, CloudDev und Microservices
  • Entwicklung von Microservices mit Spring Boot
  • Typische Microservice Patterns und Antipatterns
  • REST als Kommunikationsparadigma
  • Nutzung der Cloud-Dienste im AWS-Ökosystem
  • Skalierungs- und Preismodelle bei Cloud-Anbietern verstehen
  • Infrastructure as Code
  • Monitoring und Logging
  • Speichern von Zustand: Verwendung von Cloud-Datenbanken
  • Integration von Drittsystemen
  • Grundlagen zu Cloud Security
  • Ausblick: Docker, Kubernetes und Co.

Trainingstermine:
11.04.–13.04.2018 (München)
06.06.–08.06.2018 (Hamburg)

Informationen und Anmeldung unter:
https://www.inovex.de/de/leistungen/trainings/cloud-development-training/

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

ECM-Innovationen auf dem ELO Fachkongress 2018

Am 31. Januar 2018 findet der 15. ELO ECM Fachkongress in der Schwabenlandhalle in Fellbach statt. Die Veranstaltung hat sich als feste Plattform für die Themen Enterprise Content Management (ECM) und Dokumentenmanagement (DMS) etabliert. ELO Digital erwartet auch für 2018 über 800 Besucher, die Informationen zu aktuellen Trends und Themen – wie dem ELO Business Logic Provider (ELO BLP), den ELO ECM Suites und den ELO Business Solutions – aus erster Hand erhalten.

Erstmals präsentiert sich ACTIWARE als Kooperationspartner und Sponsor des ECM Fachkongresses. An unserem Stand im Bereich der Kooperationspartner stellen wir Ihnen gerne unsere innovativen ECM-Lösungen vor. Unter anderem:

Als besonderer "Schmankerl" wird unserer langjähriger Kunde Hekatron Technik GmbH aus Sulzburg einen Kundenvortrag zum Thema "Zukunftssichere und ganzheitliche Integration (ERP, Fibu, etc.) mit ELO BLP" halten.

Diplom Ingenieur Thomas Wagner leitet die IT des Unternehmens und verfügt über 15 Jahre Erfahrung im Umfeld von DMS, ECM und Prozessmanagement. In seinem Praxisvortrag berichtet er über die Einführung, den Roll-Out, den Aufbau, den Betrieb von ELO und allen damit verbundenen Prozessen sowie Drittsystemen die der ELO BLP realisiert. Unter anderem erhalten Sie Antworten auf die Fragen:

  • Was muss man bei der ECM-Einführung beachten?
  • Was kostet eine ECM-Einführung?
  • Wie überzeuge ich Entscheider von einem ECM?
  • Wie erreiche ich Mitarbeiter-Zufriedenheit mit der ECM-Lösung?
  • Ist die Integration des ELO ECM mit Drittsystem wirklich gut?
  • Ist ein ERP-Wechsel problemlos möglich?

Sie sollten dabei sein! Nutzen Sie die Chance und besuchen Sie uns an unserem Sponsoring-Stand! Die Teilnahme ist selbstverständlich kostenlos! Jetzt anmelden!

Sie wollen mehr über ACTIWARE als ELO Business Partner erfahren? Öffnen Sie hier unser Partnerprofil!

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox

Bedarfsgerechte IIoT-Lösungen für die Digitalisierung der Fabrik: von der MES-Applikation zur MES-Plattform

Die iTAC Software AG hat auf der diesjährigen „productronica“ in München neue Maßstäbe im MES- Marktsegment gesetzt. Mit der iTAC.MES.Suite dockerized hat das Unternehmen eine MES-Plattform zum Betrieb auf den führenden IoT-Plattformen wie z.B. AWS, MS Azure etc. vorgestellt. Damit bietet iTAC eine MES-Plattform zur Implementierung von IIoT-Anwendungen an. iTAC wurde als einer der weltweit ersten MES-Plattformhersteller für seine innovativen Technologien jüngst von ISG Provider Lens mit dem „Leader Industrie 4.0 Platforms Award“ ausgezeichnet.

Der Bedarf produzierender Unternehmen geht heute weg von monolithischen MES-Applikationen, hin zu flexiblen wertschöpfenden IIoT-Anwendungen auf Basis einer MES-Plattform. iTAC hat daher eine Container-basierte offene MES-Plattform ihrer MES-Applikation, die iTAC.MES.Suite dockerized, entwickelt. Diese verfügt über eine REST API, so dass maßgeschneiderte MES- bzw. IIoT-Anwendungen für verschiedene Branchensegmente mit agilen Entwicklungsmethoden ausgeprägt werden können.

Die iTAC.MES.Suite dockerized ist mit ihrer Service-orientierten Architektur und Container-basierten Ausprägung auf den führenden IoT-Plattformen wie AWS, Microsoft Azure und IBM Bluemix etc. lauffähig. Zudem ist die offene MES-Plattform auch On Premises- oder Edge-Device-Lösung verfügbar.

iTAC stellte zur productronica 2017 zudem die neue Version iTAC.MES.Suite 9.00.00 mit zahlreichen innovativen Neuerungen der verschiedenen im Markt etablierten MES-Basisfunktionalitäten vor. Bestandteil des neuen Release ist auch der neue Smart Data Analytics-Service, der das Open-Source Cluster Computing Framework Apache Spark nahtlos mit hochvolumigen Prozessdaten als auch MES-Stamm- und Bewegungsdaten für Batch Analytics-Anwen­dungen versorgt. Über das neue iTAC.IIoT.Portal erfolgt die Visualisierung der Analyseergebnisse des iTAC.SDA.Service, um z.B. mit einer Root Cause Analysis eine weitere OEE-Optimierung von Produktionsanlagen durchzuführen.

Die iTAC-Produkte fließen als „Platform-independent Applications“ in immer mehr Digitalisierungs-Initiativen und -Projekte ein. So wirkt iTAC unter anderem in der „ADAMOS APP Factory Allianz“ mit und hat zur productronica 2017 eine erste Predictive Maintenance App auf Basis der neuen iTAC.MES.Suite dockerized und des darin integrierten iTAC.SDA.Service vorgestellt. Diese und weitere Projekte wie das Engagement in dem „SEF Smart Electronic Factory e.V.“ untermauern, dass die MES- und IIoT-Lösungen von iTAC höchste Maßstäbe erfüllen und einen erheblichen Beitrag dazu leisten, dass Unternehmen den digitalen Wandel in der Produktionswelt vollziehen können.

Originalmeldung direkt auf PresseBox lesen
Mehr von Firma PresseBox