Schlagwortarchiv für: Altanwendungen nicht vergessen

Cloud-Computing

Tipps für eine zukunftsorientierte Cloud-Strategie

von Bernhard Haselbauer

Dezentral, flexibel und günstig – Cloud-Computing erobert mit hoher Skalierbarkeit bei niedrigen Kosten immer mehr deutsche Unternehmen. Auch in diesem Jahr ist der Cloud-Markt wieder gewachsen. Deutsche Unternehmen setzten mittlerweile auf die Public Cloud, Single-Cloud-Architekturen werden in Zukunft nur noch die Ausnahme darstellen.

Es kann festgehalten werden, dass durch Cloud-Dienstleistungen Betrieb und Wartung von IT‐Ressourcen hinfällig werden. Dies führt zu geringeren Personalkosten in der IT‐Abteilung und Unternehmen müssen weder in Hardware investieren, noch Überkapazitäten für Lastspitzen bereithalten. Momentan lauten die Trendthemen Multi-Cloud, Blockchain, Edge Computing, RPA und künstliche Intelligenz (KI). Aufgrund des großen Anwendungspotenzials steigt die Nachfrage nach Datenverarbeitung und KI immer mehr. Aber wie können wir uns zum Bespiel „KI/AI as a Service“ als Cloud-Dienstleistung vorstellen?

Zum Beispiel haben Cloud-Anbieter bereits KI-Anwendungen für Unternehmen als „as a Service“ in ihr Angebot integriert – d. h., sie stellen diese Anwendungen über „Open Source Platforms“ zur Verfügung, sodass Unternehmen keine eigenen Tools oder Infrastrukturen aufbauen müssen. Der Vorteil für Unternehmen liegt darin, dass Entwicklungszeiten so reduziert und Kosten gesenkt werden können. Das Investitionsrisiko für den Einstieg in KI reduziert sich also, während die Flexibilität steigt. Wollen Unternehmen von verschiedenen KI-Anwendungen Gebrauch machen, die für komplexe Szenarien eingesetzt werden können, so müssen die verschiedenen Anwendungen und Datenbanken zusammenarbeiten. Mit Multi-Cloud-Architekturen kann das weltweit erreicht werden.

Die Ressourcenverteilung der Cloud-Infrastruktur wird künftig nicht nur automatisiert ablaufen, vielmehr werden selbstlernende Computersysteme die zugrunde liegenden Automatismen nutzerspezifisch weiterentwickeln.

Viele Berichte deuten darauf hin, dass 2019 das Jahr der Multi- und Hybrid Cloud werden soll. Aus dem Englischen übersetzt bedeutet Multi-Cloud die Verwendung mehrerer Cloud-Computing- und Storage-Services in einer einzigen heterogenen Architektur. Dies wird auch als Polynimbus-Cloud-Strategie bezeichnet und bezieht sich auch auf die Verteilung von Cloud-Assets, Software, Anwendungen usw. in mehreren Cloud-Hosting-Umgebungen.

Die Multi-Cloud verhält sich aus Anwendersicht wie eine einzige große Cloud. Wie die Hybrid Cloud kann die Multi-Cloud mehrere Cloud-Modelle wie die Private Cloud oder die Public Cloud integrieren.

Die meisten Unternehmen werden wohl zunächst mit Hybrid-Cloud-Lösungen arbeiten, um Abhängigkeiten zu vermeiden. Außerdem können User der Hybrid Cloud Angebote von mehreren Cloud-Anbietern vergleichen und so das Kostenrisiko optimieren. Zusätzlich werden weitere Redundanzen die Ausfallsicherheit erhöhen. Aus diesen Gründen werden wohl die großen Public-Cloud-Anbieter das Thema „Vendor Lock-in“ weiter verfolgen. Wer sich mit dem Thema Cloud-Computing beschäftigt, hat wahrscheinlich den Begriff Vendor-Lock-in bereits gehört. Hier spricht man von einem sogenannten Lock-in-Effekt, wenn sich ein Kunde so abhängig von einem bestimmten Hersteller gemacht hat, dass der Wechsel zu einem alternativen Anbieter aufgrund zu hoher Transaktionskosten unwirtschaftlich ist.

Um die Vorteile einer Hybrid- oder Multi-Cloud-Umgebung zu nutzen, empfehlen wir einen kompetenten „Managed Services Provider“ (MSP) zu konsultieren.


Stück für Stück zur Smart Factory

Aufbruch ins IIoT: Wie bestehende Anlagen zukunftsfit werden.

Über den Weg hin zur Predictive Maintenance sprach die Redaktion mit Lumir Boureanu, CEO der compacer GmbH.

Herr Boureanu, wie unterstützen Sie Ihre Kunden bei der Erfassung, Konsolidierung und Auswertung heterogener Maschinendaten?

Foto Becker & Bredel

Mittlerweile liegen viele Daten aus Maschinen und Anlagenparks in deutschen Unternehmen vor. Es ist aber nicht die Frage, ob Unternehmen bereits einen Datenbestand haben, sondern wie die mannigfaltigen Maschinendaten genutzt werden, um neue Erkenntnisse daraus zu gewinnen. Eine Herausforderung stellt vor allem der Medienbruch dar, wenn die Daten aus Maschinen an ERP-Lösungen übergeben werden sollen, um weiter Analysen und Prozesse anzustoßen. Gerade im Maschinen- und Anlagenbau muss der Medienbruch gemeistert werden, um die Anlagen fit für das IIoT zu machen.

Wie sieht in diesem Kontext Ihre Lösung aus?

Nach einer professionellen Ist-Analyse wird die Maschine mit verschiedenen Sensoren ausgestattet. Zum Beispiel mit einem Temperatursensor, einem Vibrationssensor und einem Körperschallsensor. Anschließend werden die generierten analogen Signale über die vBox vom Fraunhofer Institut in digitale Daten umgewandelt. Um diese Daten zu erfassen, aufzubereiten und analysieren zu können, ist nun die Implementierung von „edbic“, unserer Plattform zur Integration und Interpretation, nötig. Denn erst jetzt können diese Daten genutzt werden, um Condition Monitoring zu betreiben, das in Echtzeit Auskunft über den aktuellen Zustand der Maschine gibt.

Was ist und wie funktioniert eigentlich „edbic“?

edbic ist ein modernes Datenintegrationssystem, das alle Beteiligten innerhalb der Wertschöpfungskette miteinander verbindet. Alle Daten unterschiedlicher Formate und Herkunft laufen in edbic zusammen. Mit dieser Middleware können wir Produktions- und Werkmaschinen, Anlagen, Verarbeitungszentren, Geräte, aber auch unterschiedliche Industrieprotokolle wie OPC-UA, Siemens S7 sowie diverse Cloud-Services zusammenführen und integrieren. Ebenso können Prozesse und andere Workflows orchestriert und die dazugehörigen Daten in einem Dashboard gespeichert, angezeigt und analysiert werden. Anschließend kommt unser Tool „edpem“ zum Einsatz.

Das „Process Event Monitoring“-System visualisiert die „rohen“ Daten im Controlling Dashboard und alarmiert, wenn Schwellwerte überschritten werden. Bei registrierten Anomalien verschickt „edpem“ E-Mails oder Slack-Nachrichten. Genauso gut können aber auch die Daten in das vorhandene ERP- oder MES-System gesendet werden. Durch diese sinnvolle Automatisierung werden bestehende Geschäftsprozesse nachhaltig verbessert und für mehr Übersichtlichkeit und Stabilität gesorgt.

Schaubild: Wie die Retrofit-Methode Maschinen ins IIoT einbindet.

Welche Nutzungsmodelle sind vorgesehen?

Wir bieten unseren Kunden Managed Services, Software as a Service oder On-premise-Implementierungen an. Als Unternehmen der eurodata-Gruppe nutzen wir das eurodata-eigene Hochleistungs-Rechenzentrum in Saarbrücken, das nach ISO/IEC 27001 zertifiziert ist.

Der nächste Schritt in Richtung Smart Factory wird nach einem längeren Beobachtungszeitraum realisiert: Nach der Erhebung entsprechender Vergleichsdaten, die sich aus den Monitoring-Daten ergeben, lassen sich Zustandsprognosen ableiten und ein Frühwarnsystem etablieren.

Sind wir jetzt schon bei der Smart Factory?

Durch diese Maßnahmen sind unsere Kunden der Smart Factory bereits ein großes Stück näher gekommen, in jedem Fall sind aus den gewonnenen Daten bereits neue Geschäftspotenziale gewachsen.

Der nächste Schritt in Richtung Smart Factory wird nach einem längeren Beobachtungszeitraum realisiert: Nach der Erhebung entsprechender Vergleichsdaten, die sich aus den Monitoring-Daten ergeben, lassen sich Zustandsprognosen ableiten und ein Frühwarnsystem etablieren. Dadurch werden zukünftig Anomalien, Abnutzungserscheinungen, Ausfälle oder andere Probleme innerhalb des Produktionsprozesses rechtzeitig identifiziert. Sobald genügend Daten vorliegen, geht es weiter in Richtung Predictive Maintenance.

Und wie geht es weiter für Ihr Haus?

Angesichts der Tatsache, dass die Erfassung, Konsolidierung und Auswertung heterogener Maschinendaten und deren Übergabe an ERP-Systeme in den nächsten Jahren die Erfolgsgrundlage von Maschinen- und Anlagenbauern bleiben wird, freue ich mich auf viele neue Projekte. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Wie Versicherer ihr Geschäft digitalisieren

Microservices sind die entscheidende Basis für Agilität.

von Jakob Freund

Mehr als die Hälfte der Verbraucher in Deutschland kann sich vorstellen, vollständig digital eine Versicherung abzuschließen. Viele Kunden versprechen sich davon schneller bearbeitete Anliegen und mehr persönliche Freiräume bei der Absicherung. Das Problem: Veraltete IT-Systeme bremsen die digitale Transformation aus, die dafür notwendig wäre.

Sieben von zehn Unternehmen betreiben Mainframes in der IT und in den Rechenzentren, um die geschäftskritischen Abläufe zu verarbeiten. Diese Systeme ähneln sich darin, dass sie eingehende Anforderungen nacheinander beantworten – first in, first out. Bleibt ein Vorgang dabei hängen, sind davon auch alle anderen betroffen. Gerade im sogenannten „Herbststurm“, wenn sich Abertausende Kunden nach preiswerteren KFZ-Versicherungen umschauen und dafür Tarifrechner auf der Webseite, beim Vermittler oder auf einem Vergleichsportal nutzen, gehen die etablierten IT-Systeme nahezu zwangsläufig in die Knie.

Antragsstrecken digitalisieren

Fast alle Unternehmen haben diese Schwachstelle inzwischen erkannt. Drei Viertel sind sich bewusst, dass sie ihre Legacy-Systeme modernisieren müssen, um mit der digitalen Entwicklung künftig mithalten zu können. Als State of the Art gelten verteilte IT-Systeme, die in der Lage sind, Geschäftsvorfälle parallel und weitgehend automatisch abzuarbeiten. Solche Architekturen lösen zunehmend Großsysteme ab, die von den Versicherern bislang als Alleskönner eingesetzt worden sind. Die IT der Zukunft setzt sich aus einzelnen Minidiensten (Microservices) zusammen, die jeweils nur eine einzige Aufgabe erfüllen und von einem Workflow-System gesteuert werden.

Abb.1: Vereinfachtes BPMN-Schema einer digitalen Antragsstrecke

Dahinter steckt die Idee, möglichst viele oder sogar alle Abläufe innerhalb eines Geschäftsvorfalls komplett dunkel zu verarbeiten. Beispielsweise möchte ein Kunde online eine neue Versicherung für sein Auto abschließen. Nachdem der Kunde seine persönlichen Daten und die des Fahrzeugs eingegeben hat und das Webformular schließlich abschickt, starten mehrere Microservices, die das individuelle Risiko prüfen und automatisch die Police anlegen. Wenn nichts Unerwartetes passiert, bekommt der Kunde seine digital abgeschlossene Versicherung ausgehändigt, ohne dass sich ein Sachbearbeiter den Vorgang überhaupt anschauen musste (vgl. Abb. 1).

Moderne Workflow-Systeme ermöglichen den Unternehmen, einfache Entscheidungs­tabellen über eine Decision-Engine einzubinden. Solche Werkzeuge helfen dabei, Ausnahmen festzulegen, falls ein Vorgang nicht automatisch abgeschlossen werden kann. Ein Ampelsystem kann beispielsweise Fälle aussteuern, die nur ein Sachbearbeiter entscheiden darf oder gleich zu einer Ablehnung führen sollen. Microservices lassen sich zudem dafür einsetzen, für Kunden automatisch einen Webzugang einzurichten, Vertragsunterlagen per Post zu versenden oder geänderte Kundendaten wie eine neue Adresse ins Bestandssystem zu übertragen.

Schäden digital regulieren

Die Vorteile einer solchen IT-Architektur liegen auf der Hand: Keine Datenstaus mehr und falls einzelne Microservices verbessert werden sollen, betreffen die damit verbundenen Anpassungen nicht gleich das gesamte System. Zudem erleichtern Microservices den Anbietern, externe Partner einzubinden wie die für die Bonitätsprüfung häufig angefragte Schufa. Gleiches gilt aber auch für Kooperationspartner, die Versicherungen zusätzlich zu einem eigenen Angebot anbieten wollen und sich dafür eine einfache Möglichkeit zum Abschluss wünschen. Dazu gehören beispielsweise Reiseportale oder Fluggesellschaften, die während der Buchung eine Reiserücktrittsversicherung mitverkaufen möchten und dafür Provisionen erhalten.

Auch im Ernstfall bieten Microservices die Chance, ein digitales Kundenerlebnis zu schaffen, das weitgehend ohne manuelle Zuarbeit durch den Versicherer auskommt.

Jakob Freund

Doch auch im Ernstfall bieten Microservices die Chance, ein digitales Kundenerlebnis zu schaffen, das weitgehend ohne manuelle Zuarbeit durch den Versicherer auskommt. Leicht zu beziffernde Schäden, wie sie etwa bei Glasbruch oder in der privaten Haftpflicht häufig auftreten, lassen sich von der Erfassung bis zur Auszahlung automatisch und fallabschließend bearbeiten. Microservices prüfen dafür, ob eine Versicherung besteht und ob alle Prämien bezahlt worden sind. Die nötigen Angaben wie Tathergang oder sogar Beweisfotos können die Versicherungsnehmer online oder via App an den Versicherer übermitteln. Ist alles in Ordnung, weist ein weiterer Microservice die Zahlung an und trägt die notwendigen Informationen in die bestandsführenden Systeme ein.

In diesem Bereich beginnen immer mehr Versicherer inzwischen damit, künstliche Intelligenz (KI) einzusetzen, um Betrugsversuche zu erkennen. Schon heute kann eine entsprechend trainierte KI erkennen, ob per Foto gemeldete Autoschäden plausibel sind. Das ist deshalb so wichtig, weil die unpersönliche Schadenmeldung Betrüger dazu einlädt, mit nachträglich bearbeiteten oder gleich komplett gefälschten Fotos überhöhte Schäden geltend zu machen. Damit das Geld nicht in falsche Hände gerät, müssen die Versicherer geeignete Kontrollen entwickeln und in die IT-Systeme integrieren.

Interne Abläufe visualisieren

Damit der Schritt in die digitale Zukunft gelingt, müssen Versicherungsunternehmen ein neues Selbstverständnis als Softwareunternehmen entwickeln. Künftig entscheidet nicht mehr allein das beste Angebot, sondern das Kundenerlebnis darüber, ob ein Produkt gekauft wird oder nicht. Und diesen Unterschied können Unternehmen zunehmend nur noch durch die Qualität ihrer IT-Systeme herausarbeiten. Digitalpioniere wie der US-amerikanische Streamingdienst Netflix beispielsweise haben von vornherein auf Microservices gesetzt, um das beste Nutzererlebnis zu bieten. Damit hängen Technologieriesen auch für andere Branchen die Messlatte beständig höher.

Abb. 2: Heatmaps legen Engpässe im Prozessmodell offen.

Zwei Drittel der Deutschen kritisieren heute schon, dass Versicherer weniger schnell, weniger verständlich und weniger gut erreichbar sind als die Angebote von Digitalunternehmen. Digital Natives, die mit solchen Diensten aufgewachsen sind, erwarten zudem, dass sich die Angebote permanent neuen Gegebenheiten anpassen und sich ständig weiterentwickeln. Sie wollen vor allem in ihrer Eigenständigkeit ernst genommen werden und bestehen darauf, möglichst viel allein regeln zu können. Gleichzeitig wollen sie sich nicht mehr um die vielen Details kümmern. Versicherer sollen von selbst aktiv werden, wenn sie etwa einen Umzug melden oder etwas nicht sofort klappt.

Diese neue Anspruchshaltung bedeutet für die Anbieter, dass sie ihre Prozesse laufend überwachen und zügig anpassen müssen, um mit den Kundenerwartungen mithalten zu können. Am einfachsten gelingt das, wenn die Abläufe nicht nur schriftlich erfasst werden, sondern visuell dargestellt. Ideal sind Heatmaps, die während der Laufzeit erfassen, wie häufig einzelne Prozesszweige durchlaufen werden und ob dadurch möglicherweise ein Engpass zu entstehen droht (vgl. Abb. 2). Selbst die Prozessqualität lässt sich messen, wenn das Workflow-System protokolliert, wie häufig und an welchen Stellen manuell eingegriffen werden musste oder wie lange ein Prozess stillstand.

Fazit

Jetzt sind die Versicherer gefordert, technische Schulden abzubauen, die über die Jahre entstanden sind. Drei von vier Euro aus dem IT-Budget wendet die Branche inzwischen dafür auf, Altlasten zu pflegen. Das rächt sich in einem Marktumfeld, das zunehmend kompetitiver wird. Wie schnell sich das Blatt wenden kann, zeigt ein Blick in die Schwesterbranche Banken, in die immer mehr Technologieunternehmen mit praktischen Digitalangeboten einbrechen. Davor schützen nur eine wettbewerbsfähige IT-Infrastruktur und eigenes IT-Know-how, das die Versicherer zügig weiter ausbauen sollten. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.