Beiträge

Abteilung IT

Die Zukunft der IT-Abteilung liegt in der Automatisierung.

von Dr. Ralf Magagnoli

Die Prophezeiungen der Auguren waren teils düster: „Die IT-Abteilung vor dem Aus retten“, titelte etwa die Computerwoche im Oktober 2018. Sicher ist nur, die IT-Abteilung wird sich wandeln, sie wird neue Aufgaben übernehmen und alte delegieren müssen. Welche Trends sind gegenwärtig erkennbar, die auf die IT-Abteilungen einwirken und mit denen sich die IT-Abteilungen befassen müssen? Wie wirken sich vor allem Automatisierung und Digitalisierung auf die Arbeit der IT-Abteilungen aus?

Der „Chief Digital Officer“ (CDO)

In vielen Unternehmen gibt es ihn bereits als Hauptverantwortlichen der Digitalisierungsstrategie im Unternehmen. Der CDO gehört der obersten Hierarchieebene an. Zu seinen Aufgaben gehören die Analyse der Ist-Situation in den Unternehmen, die Entwicklung einer digitalen Strategie, die Bereitstellung der notwendigen Ressourcen für die digitale Transformation, die Beaufsichtigung des Wandels, die Beobachtung neuer Entwicklungen und die etwaige Übernahme in das bestehende digitale System. Kritisiert wird eine oftmals unklare Rollenverteilung in vielen Unternehmen. Hier gilt es, klare Regeln und Verantwortlichkeiten zu definieren und dem CDO die Möglichkeit zu geben, die digitale Transformation umzusetzen.

Strukturveränderung

Möglicherweise wird sich die Struktur der IT-Abteilung selbst drastisch verändern. Zwei Möglichkeiten stehen hier zur Disposition: Der Analyst Forrester Research schreibt, dass sie möglicherweise in einen Frontend- und einen Backend-Teil, welcher dann an eine Shared-Services-Abteilung berichtet, zerfallen werde. Eine weitere Möglichkeit besteht darin, dass die IT als eigenständige Einheit auf die verschiedenen Abteilungen im Unternehmen aufgeteilt wird. Gut möglich aber auch, dass die IT-Abteilung weitgehend in der bisherigen Form erhalten bleibt. Sicher ist nur, dass, wie auch in anderen Abteilungen, die Anforderungen an die Mitarbeiter in puncto Agilität, Fähigkeit, über den eigenen Tellerrand zu schauen, und Bereitschaft zum Kulturwandel wachsen werden. Anders ausgedrückt: Nerds und „Das haben wir schon immer so gemacht“-Typen werden immer weniger gefragt sein.

Modernisierung der Legacy-Systeme

Unter Legacy-Systemen werden die über Jahre, teilweise über Jahrzehnte gewachsenen IT-Infrastrukturen verstanden, die oft als Altlasten ein Hindernis für die Zukunftsfähigkeit der Unternehmen sind. Dies in zweifacher Hinsicht: Zum einen im Hinblick auf die Geschäftsprozesse, zum anderen auch in finanzieller Hinsicht, denn die Versuche, die IT-Kosten zu senken, führen zu einem Investitionsstau, dessen Folge archaische Systeme sind, deren Wartungskosten steigen, womit wiederum weniger Gelder für Investitionen zur Verfügung stehen. Ein Teufelskreis, den es zu durchbrechen gilt. Hier bietet sich die Verlagerung von Software und Infrastruktur in die Cloud an, die von spezialisierten Dienstleistern auch vorgenommen wird.


Für die IT-Abteilung wie für die Unternehmen wird es darauf ankommen, den Spagat zwischen inkrementeller und disruptiver Methode zu meistern

Ralf Magagnoli

Microservices

Hier kommen oft Standardsysteme mit adaptiven Architekturen zum Einsatz. Diese Dienste sind so konzipiert, dass sie mit den Anforderungen wachsen und zudem einen modularen Aufbau ermöglichen, was wiederum ein „Plug and play“ mit selbst entwickelten, meist allerdings zugekauften Komponenten erlaubt. Über Continuous Integration / Continuous-Deployment-Pipelines sind zudem agilere, produktzentrierte Betriebsmodelle möglich. Zugleich sollten Unternehmen die Risiken im Auge behalten, die sich über eine zu schnelle Übernahme von Standardsystemen ergeben – nämlich, dass der USP unter Umständen verloren gehen kann. Auch hier ist eine „smarte“ Kombination von Standardisierung und Customizing gefordert.

„Software as a Service“ und „Infrastructure as a Service“

Auch dieser Punkt hängt mit den beiden vorangehenden Punkten zusammen. Nicht nur die Software, sondern die gesamte Infrastruktur wird in die Cloud verlagert und, meist von einem spezialisierten Dienstleister, zur Verfügung gestellt. Die Unternehmen brauchen also weder Software zu entwickeln oder einzukaufen noch Rechnerinfrastrukturen aufzubauen, sondern mieten diese. Betrieb und Wartung liegen beim Dienstleister. Tendenziell bestehen die Rechner in den Unternehmen dann aus Thin Clients: Die Anwender greifen dann per Webbrowser auf die Anwendungen in der Cloud zu. Die Vorzüge: Kalkulierbare Kosten (Miete) und Konzentration aufs Kerngeschäft. Dennoch haben immer noch viele Unternehmen Hemmungen, unternehmenskritische Anwendungen Dritten zu überlassen.

Internet of Things (IoT)

Hier besteht ein Unterschied zwischen der Erwartungshaltung – wie bedeutsam ist IoT für das Unternehmen, wie bedeutsam wird IoT für das Unternehmen werden? – und der Umsetzung. Während laut einer aktuellen IDC-Studie rund 43 Prozent der Befragten in Unternehmen IoT für sehr wichtig bzw. wichtig halten und über 63 Prozent glauben, dass die Bedeutung in Zukunft sehr hoch bzw. hoch sein wird, haben nur rund 20 Prozent der Unternehmen IoT-Projekte umgesetzt. Ziel des IoT ist es, die Lücke zwischen der realen und der virtuellen Informationswelt zu schließen, die dadurch entsteht, dass die in der realen Welt verfügbaren Informationen im Internet nicht abrufbar sind. Das hat Auswirkungen zum Beispiel auf den Kundendialog, der mittels IoT über sogenannte Connected Products verbessert wird, was wiederum die Optimierung bestehender und die Kreierung neuer Produkte zur Folge hat. Beispiel: Der Sportartikelhersteller, dessen Turnschuh sich je nach Laufgeschwindigkeit aufpumpt bzw. fester schnürt. Wichtige Daten werden über Sensoren nicht nur an den Kunden, sondern auch an den Hersteller weitergeleitet. Tritt ein Problem auf, kann der Hersteller schnell reagieren und Verbesserungen an dem Produkt vornehmen.

Industrial Internet of Things (IIoT)

Es geht um den Einsatz von IoT im industriellen Bereich, bspw. im produzierenden Gewerbe, im Gesundheitswesen, in der Energiewirtschaft oder im Agrarwesen. Hierbei gilt es, Daten über den gesamten Informationsprozess zu erfassen und zu kontrollieren. Beispiel Produktion. Das Stichwort hier lautet etwa Predictive Maintenance: Die Maschinen geben Zustandsdaten, die eine proaktive Wartung ermöglichen. So etwa, im kostengünstigen Fall, der Tintenstrahldrucker, der vorab informiert, wann der Füllstand unterschritten wird. Bedenkt man, dass bei komplexeren Maschinen ein Ausfall auch nur von zwei oder drei Stunden teuer werden kann, rechnet sich die Predictive Maintenance. Das IIoT umfasst aber auch die Verbesserung und Kontrolle der Supply Chain, die Sicherstellung der Energiezufuhr über Smart Grids, intelligente, dezentrale Verteilnetze oder Werte bzgl. Raumtemperatur, Luftqualität und Ozongehalt in Produktionsstätten.

Data Science

Als Data Science wird die Extraktion von Wissen aus Daten bezeichnet. Angesichts der auch durch IoT und IIoT dramatisch erhöhten Datenmenge kommt dieser Extraktion eine besondere Bedeutung zu, sodass Spezialisten – meist Absolventen der einschlägigen Studiengänge – sehr gefragt sind. Data Scientists benötigen im Prinzip Kenntnisse in fünf Bereichen: Diese reichen von der ersten Schicht, der „Database Technology“, über die zweite Schicht, die „Data Access & Transformation“, die dritte Schicht, die „Programming Language“, die vierte Schicht, die „Data Science Tool & Library“, die fünfte Schicht, die „Data Science Method“, bis zur Fachexpertise im jeweiligen Fachbereich – also etwa der Ingenieurswissenschaft oder der Betriebswirtschaft. Erst wenn ein Mindestmaß an Fachwissen vorhanden ist, kann der Data Scientist die Fachspezialisten gezielt unterstützen. In kleineren Unternehmen wird im Allgemeinen der Data-Science-Allrounder gesucht, der imstande ist, das gesamte Aufgabenspektrum zu übernehmen, das in größeren Unternehmen von den jeweiligen Spezialisten im jeweiligen Bereich übernommen wird.

Digitale Ökosysteme

Oikos im Altgriechischen bedeutet Haus, sýstema das Verbundene. Auch wenn die Abgrenzung digitaler Ökosysteme nicht ganz einfach ist, kann als ihr Ziel das Überwinden komplexer Herausforderungen durch Imitation biologisch-komplexer Systeme genannt werden. Ein digitales Ökosystem, das sich prinzipiell durch Offenheit auszeichnet, setzt sich aus heterogenen Akteuren unterschiedlicher Branchen und Disziplinen zusammen. Hier wird die Aufgabe der IT-Abteilung darin bestehen, die Einbindung des Unternehmens in ein solches digitales Ökosystem zu gewährleisten und die Stabilität dieses heterogenen Netzwerks bei gleichzeitiger Offenheit zu ermöglichen.


Quelle: Computerfutures
https://www.computerfutures.com/de/blog/2018/02/die-zukunft-der-it-abteilung

Automatisierung / „Robotic Process Automation“ (RPA)

Darunter werden virtuelle Mitarbeiter verstanden, die ähnlich den physisch existenten Robotern der klassischen Prozessautomatisierung bestimmte Aufgaben erfüllen. Es handelt sich dabei um Software-Agenten, die menschliches Handeln nachahmen. Dabei kann der Aufgabenbereich der jeweiligen Software-Agenten eher einfache Aufgaben wie das Versenden von Sammelmails, aber auch komplexere Aufgaben erfüllen. Der Vorteil von RPA liegt u. a. darin, dass über Kostenreduktionen Insourcing bestimmter Aufgaben wieder interessant werden kann. Problematisch kann RPA dort werden, wo keine klaren Verantwortlichkeiten benannt sind – für Wartung, Upgrades – oder wo Mitarbeiter an der Konfiguration mitarbeiten sollen, die durch die Anwendungen ersetzt werden sollen. Wichtig ist es, den richtigen Anbieter auszuwählen, der entsprechende Erfahrungen mit RPA-Projekten vorweisen kann, die in der Regel in verschiedenen Schritten vorgenommen werden: Analyse der Arbeitsprozesse (oft über Filmaufnahmen), Definition der Automatisierung, Umsetzung, Erfolgskontrolle.

Künstliche Intelligenz / Machine Learning

Machine Learning ist ein Aspekt künstlicher Intelligenz, wenngleich ein zentraler. Über maschinelles Lernen wird ein Computer in die Lage versetzt, ein selbstlernendes System zu werden, ohne ihn entsprechend zu programmieren. Auch hier wird, ähnlich dem digitalen Ökosystem, die Natur zum Vorbild genommen, etwa über „Rückmeldungen“ Objekte zu identifizieren. Dies geschieht mittels selbstlernender Algorithmen, die in Daten bestimmte Muster und Gesetzmäßigkeiten erkennen. Die Intelligenz besteht darin, ähnlich der menschlichen Intelligenz, Dinge miteinander zu verknüpfen, Zusammenhänge zu erkennen und Rückschlüsse zu ziehen. Entsprechende Programme tragen dazu bei, dass aufwendige und langweilige Arbeiten vom Rechner erledigt werden – dies gilt etwa für die Papierdokumentation.

Digital Workplace

Die Arbeitswelt verändert sich stetig. Vorbei die Zeiten, als der Beschäftigte um acht Uhr das Büro betrat und um siebzehn Uhr das Büro verließ (eine Stunde Mittagspause), wobei die Stempeluhr die Arbeitszeit dokumentierte. Heutzutage verschwimmen tendenziell die Grenzen zwischen Arbeitszeit und Freizeit. Über den Digital Workplace können Mitarbeiter von jedem Ort und zu jeder Zeit auf die Unternehmensanwendungen zugreifen, egal ob vom Rechner im Homeoffice, vom Tablet im Zug oder vom Smartphone am Strand. Das Zauberwort heißt selbstbestimmtes (und damit effektiveres) Arbeiten.

Endpoint-Security / Endpoint-Protection

Dass sich durch Homeoffice-Arbeitsplätze angesichts immer anspruchsvollerer Vorgaben des Gesetzgebers – hier sei etwa die Datenschutzgrundverordnung (DGSVO) genannt – die Anforderungen an die Compliance erhöhen, versteht sich von selbst. Ein Ansatz ist die sogenannte Endpoint-Security oder Endpoint-Protection, über die Netzwerke von Laptops, Tablets, Handys und anderen Geräten gesichert werden sollen. Die Rechtevergabe obliegt dem Systemadministrator, der auch deren Einhaltung überprüft. Dabei können Vergehen gegen die Datensicherheit – etwa unbefugte Zugriffe auf sensible Daten – sofort verfolgt und geahndet werden – wichtig gerade im Hinblick auf die Wirtschaftsspionage. Es bestehen Verbindungen zum Cloud-Computing (Software as a Service, Infrastructure as a Service) und den Thin Clients im Unternehmen.

Self-Service (Low Code)

Low-Code-Plattformen sind grafische Entwicklungsinstrumente für Geschäftsapplikationen. Sie ermöglichen es, Softwareprogramme schnell und leicht zu erstellen und anzupassen. Dazu sind weder spezielle Programmierkenntnisse noch größere Erfahrungen nötig. Über offene Schnittstellen lassen sich bestehende Technologien und Anwendungen meist problemlos nutzen. Die Vorteile liegen auf der Hand: Die Unternehmen sind weniger abhängig von externen Dienstleistern, die Programme werden bis zu zehn Mal schneller erstellt, sie können auch von Mitarbeitern der Fachabteilungen geschrieben werden, wodurch sich der Graben zwischen IT-Abteilung und Fachabteilung verringert, die internen Entwickler können sich um die komplexeren Aufgaben kümmern.

Inkrementelle vs. disruptive Innovation / Bimodale IT

Während es beim inkrementellen Ansatz um schrittweise Optimierungen und Kostensenkungen geht (Beispiele Digital Workplace, Software as a Service, RPA), setzt der disruptive Ansatz auf dramatische Änderungen meist ganzer Geschäftsmodelle. Dementsprechend liegt im IT-Bereich die inkrementelle Innovation tendenziell beim CIO und der IT-Abteilung, während die disruptive Innovation eher Sache des Vorstands (und ggf. des CDO) ist. In den meisten Fällen geht es aber nicht um ein Entweder-oder, sondern um ein Sowohl-als-auch, da beide Ansätze ihre Vor- und Nachteile haben. Stichwort: Bimodale IT. Diese umfasst ein vorhersagbares Kernsystem einerseits und eine experimentelle, agile Form andererseits, die es erlaubt, mit den schnellen Veränderungen in der Geschäftswelt Schritt zu halten. Für die IT-Abteilung wie für die Unternehmen wird es darauf ankommen, den Spagat zwischen inkrementeller und disruptiver Methode zu meistern. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Das „Internet of Medical Things“ (IoMT)

E-Health-Innovationen machen unser Leben sicherer und gesünder – ein Milliardengeschäft.

Das Marktforschungsunternehmen Gartner erwartet bis 2020 weltweit 20 Milliarden vernetzte Medizingeräte, die im Krankenhaus 4.0, beim Arzt, im Smarthome oder in der Smart City zum Einsatz kommen. Der Gesamtwert des IoMT-Marktes in Europa betrug laut einer Studie von Deloitte letztes Jahr rund 12 Mrd. US-Dollar. 2020 sollen es 40 Mrd. sein. Auf dem Markt tummeln sich dabei nicht nur diverse Start-ups, sondern vor allem auch Big Player wie Siemens, Apple und Google bzw. die Alphabet-Tochter verily.

Vielfalt der Sensoren

Herzfrequenzsensoren erkennen Anzeichen eines Vorhofflimmerns, Beschleunigungssensoren registrieren schwere Stürze und schlagen Alarm. Sensoren sind heute in der Lage, nahezu jede Körperfunktion rund um die Uhr zu überwachen, machen unser aller Leben und vor allem das von Patienten leichter und sicherer. Diabetiker, Epileptiker und Herzpatienten werden schon gewarnt, bevor sie selber Anzeichen verspüren und Krankenhäuser und (Not-)Ärzte können frühzeitig alarmiert werden.

Viele Sensoren sind dabei heute so klein, dass sie einfach mit der Smartwatch getragen werden können. Für spezielle Anwendungen geht es auch noch kleiner bzw. filigraner. Sensoren auf Kontaktlinsen etwa sind in der Lage, anhand der Tränenflüssigkeit den Blutzuckerwert zu messen und zu übermitteln. Im Krankenhaus überwachen Sensoren dabei nicht nur Patienten, sondern auch medizinische Geräte. Diese lassen sich so nicht nur leicht lokalisieren, sondern auch rechtzeitig warten. Durch die Möglichkeiten einer Predictive Maintenance werden so Ausfallzeiten verhindert und Kosten gesenkt.

AR und VR

Durch Augmented Reality lassen sich komplette Eingriffe realitätsnah simulieren. Im echten OP erleichtern auf Datenbrillen projizierte Informationen das Operieren. Der Chirurg muss nicht mehr seinen Kopf zum Monitor heben, sondern kann sich komplett auf den Patienten konzentrieren. In Zukunft sollen Mediziner während einer Operation passgenau CT- und MRT-Bilder über den Patienten eingeblendet bekommen, um bestimmte Bereiche besser lokalisieren zu können.

Ein Forscherteam der RWTH und FH Aachen präsentierte im Juni eine 3-D-Betrachtung eines stark verlagerten Kiefergelenkbruchs mittels einer Virtual-Reality-Brille. Dabei wurde deutlich, wie hilfreich eine solche Darstellung für den Chirurgen bei der Planung seines Eingriffs sein kann. Natürlich ist diese Technologie auch während der fachärztlichen Ausbildung oder während des Studiums besonders vielversprechend.

Digitale Gesundheitsakte

Gesundheitsminister Jens Spahn will, dass ab 2021 Versicherte generell ihre Patientendaten auch per Handy oder Tablet einsehen können. Während die Techniker Krankenkasse und die AOK eine eigene Lösung anbieten, ist „vivy“ ein Gemeinschaftsprojekt diverser anderer privater und gesetzlicher Krankenkassen. Die App ist dabei elektronische Gesundheitsakte und persönliche Assistentin zugleich. Sie hilft bei der Einhaltung von Medikationsplänen oder erinnert an den nächsten Impf- / Vorsorgetermin. Welche Daten wann an wen übermittelt werden, entscheidet der Nutzer selbst. Auch soll technisch und organisatorisch sichergestellt sein, dass Krankenversicherungen keinen Zugriff auf persönliche Daten bekommen können. Akzeptanz und Vertrauen in derartige Produkte fehlt allerdings dennoch in breiten Schichten der Bevölkerung.

Sicherheitsbedenken

Vernetzte Geräte bilden naturgemäß eine Angriffsfläche für Hacker. Neben unseren Gesundheitsdaten kann dadurch auch unmittelbar unser Leben bedroht werden, bspw. wenn der Herzschrittmacher gehackt wird. Nach dem Medizinproduktgesetz müssen vernetzte Medizingeräte zwar besonders hohe Sicherheits- und Qualitätsauflagen erfüllen, doch absolute Sicherheit kann auch dadurch nie gewährleistet werden. Das Potenzial das Leben vor allem von Risikopatienten deutlich sicherer zu machen, scheint dabei aktuell die Risiken mehr als aufzuwiegen. Dies darf aber nicht dazu führen, verstärkte Sicherheitsmaßnahmen zu vernachlässigen. //


Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Abteilung Buchhaltung

Einfluss der Digitalisierung auf die Buchhaltung und das Rechnungswesen

Die Idee des „papierlosen Büros“ steht im Zentrum der Transformationbestrebungen der Finanzabteilung. Sämtliche Abläufe in der Buchhaltung und Lohnbuchhaltung sowie die Büroverwaltung sollen auf rein digitalem Weg organisiert und gespeichert werden. Die papierlose Buchhaltung hilft so, Kosten zu sparen, und optimiert bestehende Prozesse.

Kostenreduktionen machen sich dabei nicht nur im Unternehmen durch den schnelleren Austausch von Dokumenten bemerkbar, sondern auch im Umgang mit externen Dienstleistern, beispielsweise beim digitalen Versenden der Unternehmensunterlagen an den eigenen Steuerberater.

Das digitale Belegwesen ist dabei die dynamische Weiterentwicklung der heutigen Finanzbuchhaltung. Im digitalen Belegwesen werden relevante Belege digitalisiert (z. B. per Scanner) und in die Buchhaltungssysteme übernommen. Dort können sie dann, teilweise automatisch, bearbeitet werden. Dabei ist darauf zu achten, dass die fiskalischen Regeln für das manipulationssichere Speichern der gescannten Belege eingehalten werden. Zunehmend werden Geschäftsvorfälle zwischen Firmen auch vollständig digital abgewickelt, sodass eine Digitalisierung von Belegen entfällt.(1)

Ein weiteres Beispiel einer Effizienzsteigerung ist die Einführung einer Software zur automatischen Verbuchung von Eingangsrechnungen. Per OCR-Erkennung sind Systeme in der Lage, die bestellte Ware mit der Rechnung zu vergleichen. Zahlreiche manuelle Bearbeitungsschritte im Rechnungseingangs- und Rechnungsprüfungsprozess werden eliminiert und auch Bearbeitungsfehler werden reduziert. Durch den beschleunigten Rechnungsdurchlauf lassen sich auch Skontomöglichkeiten besser ausnutzen.

Stammdatenmanagement / EU-DSGVO

Die Qualität der Stammdaten ist ein weiterer zentraler Aspekt bei der Digitalisierung der Finanzabteilung. Im Rahmen der EU-DSGVO müssen für die Stammdatenpflege dabei Prozesse definiert werden, die sowohl das Auskunftsrecht als auch das „Recht auf Vergessen“ gewährleisten.

Da in vielen Unternehmen die Buchhaltung entweder Anwendungen in die Cloud verlagert oder aber eine externe Steuerkanzlei beschäftigt, muss sichergestellt werden, dass Cloud-Anbieter oder Steuerberater ebenfalls die EU-DSGVO-Kriterien erfüllen. Beide sind in der Pflicht, eine entsprechende Konformität nachzuweisen, wobei sich Unternehmen diese vertraglich garantieren lassen sollten.


Abteilung Marketing

Mit digitalem Marketing den Kunden individualisiert ansprechen

Um heutzutage eine erfolgreiche Marketing-Strategie zu erstellen, sollten Werbetreibende vor allem die Synergien innerhalb der verschiedenen Kanäle, aber auch die Wechselwirkung zwischen den klassischen und digitalen Kanälen berücksichtigen. Verantwortliche müssen verstehen, welche Kontaktpunkte zur Marke bestehen und welcher Einfluss damit verbunden ist.

Um zur richtigen Zeit die richtige Botschaft auszuspielen, ist ein Multichannel-Ansatz daher Grundvoraussetzung und vielfach schon gelebte Realität. Daten aus allen Kanälen laufen in einem zentralen System zusammen und ermöglichen einen ganzheitlichen Blick auf alle Maßnahmen.

Der schnellste und effektivste Kanal – die menschliche Sprache – wird dabei im Zeitalter der digitalen Assistenten und Smart Speaker immer wichtiger und eine Präsenz in Alexa und Co. zum festen Bestandteil des Markenerlebnisses. Analog zu anderen Kommunikationskanälen benötigen Unternehmen deshalb eine eigene Voice- und Audiostrategie. Sie müssen eine Audio-Identity und eigenen Audio-Content entwickeln und mit ihren Marken, Produkten und Angeboten ihren Zielgruppen auf die neuen Geräte folgen. Die künstliche Intelligenz ist dabei mittlerweile so weit, dass sie nicht nur Sprache verstehen kann, sondern aus den gesprochenen Worten Emotionen herausliest. Ein unschätzbarer Datenschatz, der auch im Callcenter entsteht und aus dem das Marketing wertvolle Rückschlüsse gewinnen kann.

Smart Speaker gehören zu den großen Trends im digitalen
Marketing und interagieren durch immer natürlichere
Sprache mit ihren Benutzern.

In Verbindung mit weiteren Daten, die bei jedem Online-Werbekontakt oder dem Besuch einer Website entstehen, lässt sich das Bild über die Interessen, Abneigungen und Absichten des Users weiter präzisieren, wobei die Datengrundlage in Umfang und Qualität mit der fortschreitenden Digitalisierung zunimmt.

Wir befinden uns im Zeitalter des Kunden. Dies bedeutet: in Echtzeit zu wissen, was der Kunde will, individuelle Kundenwünsche zu erfüllen und das jederzeit über alle Kanäle hinweg. Dazu müssen nicht nur Prozesse und Reaktionszeiten beschleunigt werden, das gesamte Unternehmen muss sich digital transformieren. Vorhandene Daten sind in Wissen über die Kunden zu verwandeln und die Chancen hierfür über alle Kanäle hinweg zu nutzen. Potenzielle Kunden sind mit genau den passenden Werbebotschaften zu genau dem richtigen Zeitpunkt über genau den richtigen Kanal zu kontaktieren.

Unternehmen haben mit Big-Data-Analysen die Möglichkeit, auf Kundenwünsche schnell und individuell zu reagieren, können aber oftmals die Vielzahl an Daten nicht miteinander richtig verknüpfen und auswerten. Hier gilt es die richtigen Weichen für den Erfolg zu stellen. Das Produktinformationsmanagement übernimmt dabei in der Praxis eine entscheidende Rolle. Informationen liegen in einem Unternehmen häufig nicht zentral gebündelt vor, sondern verstreut bei Mitarbeitern und in Abteilungen – etwa in der Entwicklungsabteilung, im Warenwirtschaftssystem oder im Vertrieb.

Dabei werden Daten in unterschiedlichen Formaten abgespeichert oder sind nur als Druckversion verfügbar. Diese Informationen werden in verschiedenen Umgebungen und Kontexten verwendet – etwa im Verkaufskatalog für eine detaillierte Produktbeschreibung mit Preisangabe oder in der Logistikabteilung für Angaben zu Größe und Gewicht zur Frachtkostenberechnung. PIM stellt hier einen Lösungsansatz zur zentralen, medienneutralen Datenhaltung dar, um einkaufs-, produktions- und kommunikationsrelevante Daten für die Mehrfachnutzung über mehrere IT-Systeme, Sprachen, Ausgabemedien und Publikationen hinweg bereitzustellen. Es bietet zudem Lösungen zur effizienten Datenübernahme, -verwaltung, -anreicherung und -ausgabe.(1)


Durch die Digitalisierung sind Unternehmen angebots- und preistransparent. Kunden haben dadurch eine stärkere Markt­position.


Für viele Unternehmen ist der Hauptgrund, digitale Kanäle nicht zu nutzen, der Datenschutz. Unternehmen müssen besonders vertrauensvoll mit den Daten der Kunden umgehen, sodass zwar Erkenntnisse abgeleitet werden, aber kein Datenmissbrauch betrieben wird. Die digitalen Kanäle sind günstiger als die klassischen Marketingmedien, aber Kunden fühlen sich teilweise überrollt von Werbung. Kunden entwickeln und nutzen daher auch Technologien, um sich gegen diese Art des Marketing (Customer Resistance) zu schützen. Verbraucher nutzen Pop-up-Blocker, um Werbung beim Surfen zu entgehen, oder filtern E-Mail-Newsletter über die Junk-Mail-Funktion.

Die Chancen, mit digitalen Kanälen seinen Bekanntheitsgrad zu steigern und in neue Märkte einzusteigen, sind dennoch groß, bergen aber auch Risiken. Durch die Digitalisierung sind Unternehmen angebots- und preistransparent. Kunden haben dadurch eine stärkere Marktposition. Der Einfluss der Digitalisierung auf den Bereich Marketing hat zusätzlich dazu geführt, dass Kunden durch verschiedene Technologie wie zum Beispiel Social Media ein Sprachrohr erhalten und so einen Einfluss auf Unternehmen erlangen. Auch hier gilt es, Strategien zu entwickeln, um unkontrollierten Kommuni­kationseffekten, sogenannten „Shitstorms“, entgegenzuwirken oder zumindest richtig mit ihnen umzugehen.

Quelle:
(1) Vgl.: Seite „Produktinformationsmanagement“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 27. März 2019, 08:49 UTC. URL: https://de.wikipedia.org/w/index.php?title=Produktinformationsmanagement&oldid=186977501 (Abgerufen: 9. April 2019, 13:08 UTC)

Plattformen im Field-Service

Digitalisierung des Remote Supports im industriellen Service

von Alina Kaspers und Martin Riedel

Hersteller von komplexen Maschinen und Anlagen sind gefordert, einen reibungslosen und meist weltweiten Service anzubieten. Damit die Funktion der Maschinen und Anlagen gewährleistet ist, ist es unabdingbar, geplant, aber auch reaktiv bei technischen Problemen vor Ort Wartungen durchzuführen.

Ist der Servicemitarbeiter vor Ort nicht in der Lage, die Maschine oder Anlage zu reparieren, ist der Austausch mit Experten in der Zentrale unbedingt notwendig. Denn für die Lösung des technischen Problems müssen relevante Informationen unmittelbar an den Einsatzort gebracht werden. Kann ein technisches Problem nicht unmittelbar gelöst werden, drohen, aufgrund von zusätzlichen Reisen und einer aufwendigen Kommunikation, hohe Kosten. Gleichzeitig sinkt die Verfügbarkeit der Maschine und Anlage, die sich signifikant negativ auf die Produktivität auswirkt und die Kundenzufriedenheit belastet. Ein effektiver und kosteneffizienter Service ist daher im globalen und wettbewerbsintensiven Marktumfeld von heute eine „Muss-Bedingung“ und ein enormer Wettbewerbsvorteil gegenüber der nationalen wie internationalen Konkurrenz.

Remote Support ist Kernprozess im industriellen Service, bisher aber analog

Der Remote Support bzw. die Unterstützung der Servicemitarbeiter vor Ort stellt für den Anlagen- und Maschinenbau einen besonders kritischen Prozess dar. Aufgrund der immer steigenden Komplexität der Maschinen und Anlagen ist ein Servicemitarbeiter oftmals nicht eigenständig in der Lage, das Problem vor Ort zu lösen. Dezidiertes Expertenwissen ist gefordert. Daher muss sich der Servicemitarbeiter in den meisten Fällen für die Problemlösung an einen Experten wenden, der oftmals weit entfernt vom Einsatzort sitzt. Die herkömmliche Kommunikation via E-Mail, Telefon und privates Messaging ist jedoch ineffizient, ermöglicht keinen unmittelbaren Austausch von Bildern und Dokumenten und keine direkte Sicht auf das Problem. Eine strukturierte Dokumentation der Fälle bleibt komplett aus, sodass das erarbeitete Expertenwissen verloren geht. Der Austausch über den herkömmlichen Weg führt daher oft zu Ernüchterung und keinem Ergebnis. Die Folge ist, dass Fälle nicht auf Anhieb gelöst werden können und kein Weg daran vorbeiführt, zusätzliche Mitarbeiter anreisen zu lassen, um das Problem zu lösen. Für den Service entstehen dadurch hohe Reisekosten und ein zeitintensiver Prozess, der mit einem hohen personellen Aufwand verbunden ist. Der Stillstand der Maschine oder Anlage sorgt währenddessen für einen Produktionsausfall, der mit zusätzlichen Kosten verbunden ist und für eine hohe Unzufriedenheit bei den Kunden sorgt.

Unterstützung eines Servicemitarbeiters aus der Zentrale über Augmented-Reality-Smartglasses

Digitalisierung des Remote-Support-Prozesses im industriellen Service

Als Anbieter von innovativen Softwarelösungen für den industriellen Service digitalisiert rise den kompletten Remote-Support-Prozess. Auf nur einer Softwareplattform können Nachrichten, Bilder, Videos und Dokumente in chronologischer Abfolge ausgetauscht werden, um Servicemitarbeitern alle relevanten Informationen zur Verfügung zu stellen und den Experten in der Zentrale das technische Problem zu veranschaulichen. Über eine Live-Zusammenarbeit mit zusätzlichen Augmented-Reality-Werkzeugen sind interaktive Videokonferenzen möglich. Anstatt ein Problem missverständlich über das Telefon zu erklären, erhält ein Experte dadurch den wertvollen Blick auf das Geschehen vor Ort und kann den Servicemitarbeiter wirksam instruieren. Das ausgetauschte Expertenwissen kann unmittelbar in rise dokumentiert und strukturiert abgelegt werden, um eine Wissensdatenbank aufzubauen. Diese ermöglicht dem Servicemitarbeiter, bei zukünftig ähnlichen Fällen im Archiv eine Problemlösung zu finden. Dies spart Bearbeitungszeit und minimiert die Anfragen an die Serviceexperten.

Als innovative Softwareplattform kann rise auf allen Endgeräten eingesetzt werden, von Desktop-PCs mit eigenem Programm über Tablets, Smartphones sowie auf Augmented-Reality-Smartglasses. Mithilfe der Smart­glasses (Datenbrillen) ist ein vollständiges Arbeiten mit freien Händen möglich. Dadurch ist für höchste Produktivität und effektivste Unterstützung gesorgt. Anhand einer eingebauten Kamera wird das exakte Sichtfeld des Servicemitarbeiters an den Experten in der Zentrale übertragen. Über Annotationen im Livebild, Bildbearbeitung oder das Teilen von dritten Bildschirminhalten, z. B. von Schaltplänen, kann der Experte intuitiv unterstützen, als ob er vor Ort wäre.

rise lässt sich einfach in bestehende Softwaresysteme integrieren

Remote Support ist ein wesentlicher Prozess­schritt im industriellen Service, der bisher kaum über dezidierte Softwarelösungen abgebildet wurde. Mit zunehmendem Digitalisierungsgrad werden jedoch diverse Prozesse integriert und ineinandergreifende Systeme eingesetzt. Ausgangspunkt für die digitale Servicedienstleistung ist meist ein Ticket- oder CRM-System, in dem maschinen- bzw. kundenbezogen alle relevanten Informationen hinterlegt werden. Geht ein Fall ein, so kann im Ticketsystem direkt ein neuer Fall erstellt werden, in dem die Stammdaten hinterlegt sind. Der Fall wird daraufhin in rise bearbeitet und dokumentiert. Die fertige Dokumentation wird anschließend automatisch an das Ticketsystem weitergeleitet, um alle Aktivitäten zentral zu hinterlegen. Durch die Vielzahl an Daten kann wiederum die Servicedienstleistung verbessert werden, z. B. durch die Wissensdatenbank, Analysen zur Optimierung der Serviceorganisation oder die Etablierung neuer Geschäftsmodelle.

Der Digitale Customer Support

Mithilfe von rise lassen sich nicht nur interne Kosten sparen, sondern auch neue Geschäftsmodelle anbieten. Durch den digitalen Support durch Experten kann der Kunde deutlich einfacher und kosteneffizienter unterstützt werden, wodurch sich neue und margenstarke Einnahmequellen im Service auftun. Gleichzeitig erhält der Kunde einen effektiveren Support bei minimaler Reaktionszeit, um die Verfügbarkeit seiner Maschinen und Anlagen zu erhöhen. Neben zusätzlichen Serviceumsätzen ermöglicht solch ein Modell auch, die Auslastung der internen Servicemitarbeiter zu reduzieren, Mitarbeiter die in Zeiten des Fachkräftemangels ohnehin knapp sind.

„Evolutionsstufen“ des Remote Supports

Der digitale Experte

Die Digitalisierung des industriellen Service schreitet mit großen Schritten voran, auch wenn der bisherige Fokus eher auf CRM und Ticketsystemen lag. Mit der Verfügbarkeit von mobilem Internet, leistungsstarken Smartphones, Smartglasses und der notwendigen Softwaretechnologie lassen sich immer weitere kritische Serviceprozesse – insbesondere der Remote Support – digitalisieren. Die Unterstützung per Augmented-Reality-Smartglasses ist jedoch nur eine weitere Evolutionsstufe.

Vorteile der rise-Plattform
  • Reduzierung von Service- und Reisekosten
  • Wegfall von Wartezeiten auf Servicemitarbeiter
  • Erhöhung der Maschinen- und Anlagenverfügbarkeit
  • Aufbau einer Wissensdatenbank
  • Zugriff auf Expertenwissen von überall
  • Geringere Prozesszeiten
  • Steigerung der Serviceerlöse

In Zukunft wird das notwendige technische Wissen automatisiert bereitgestellt, künstliche Intelligenz und Machine Learning machen dies möglich. Ein Servicefall wird dann wie folgt aussehen: Smartglasses aufsetzen, Maschine über die Serialnummer per Scan identifizieren, Vorschläge mit Detailanleitung für das mögliche Problem erhalten, per interaktiver Anleitung in der Brille das Problem lösen. rise wird damit von der Remote-Support-Plattform zum digitalen Experten.

Fazit

Mit rise lässt sich ein kritischer Serviceprozess in der Industrie digitalisieren. Neben einer deutlich effektiveren Zusammenarbeit im Vergleich zu Telefon, E-Mail und Co. wird erstmals auch eine lückenlose Dokumentation und Archivierung des so wichtigen Expertenwissens möglich. Effektiver Support aus der Ferne bietet neue Chancen, wie beispielsweise die Unterstützung des Kunden und den Aufbau neuer Servicedienstleistungen. Der digitale Experte, der automatisierten Support über die intelligente Brille bietet, ist keine allzu ferne Vision mehr. Bei der zunehmenden Komplexität von Maschinen und Anlagen und bei gleichzeitig hohem Wettbewerbsdruck im internationalen Marktumfeld ist der digitale Remote Support ein entscheidender Bestandteil der Servicestrategie. //

Anwendungsfall Strautmann Umwelttechnik GmbH

Die Strautmann Umwelttechnik GmbH, ein führender Anbieter von Recycling-Maschinen in der Entsorgungslogistik, hat ihren Remote-Support-Prozess erfolgreich digitalisiert. Gibt es technische Probleme bei einer ihrer Maschinen, die oft bei Einzelhandelsketten zum Einsatz kommen, so stockt die Logistikkette zur Verarbeitung und zum Abtransport der recycelten Materialien. Eine schnelle und effektive Unterstützung der Servicemitarbeiter ist daher von hoher Bedeutung. Die bisherige E-Mail-Kommunikation im Service wurde durch rise digitalisiert. Nachrichten, Bilder, Dokumente und Videos werden auf diese Weise deutlich schneller ausgetauscht. Benötigen weitere Personen aus Entwicklung und Qualität Zugriff auf die Informationen, werden die Kollegen einfach zum jeweiligen Fall eingeladen. Eine aufwendige Weiterleitung von Informationen entfällt. Benötigt ein Servicemitarbeiter oder ein Händler im Ausland Unterstützung bei der Lösung eines technischen Problems, wird per Live-Videokonferenz unterstützt. Dadurch konnten in den vergangenen Monaten mehrere zeit- und kostenintensive Reisen insbesondere ins Ausland eingespart werden. Alle Fälle werden nach Lösung des technischen Problems dokumentiert und im Archiv abgelegt. Das Archiv mit mittlerweile mehreren Hundert Fällen dient als Wissensdatenbank, um zukünftige Fälle an Hand vorhandener Lösungsbeschreibungen zu lösen.


Über die Autoren:

Namensnennung-Keine Bearbeitung 3.0 Deutschland (CC BY-ND 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Internet of Things: Ein lernender Markt

Das Internet der Dinge (IoT) beeinflusst unser gesamtes Leben.

von Dr. Ralf Magagnoli

Das IoT ist in aller Munde. Worum geht es? Es geht darum, die mit mikroelektronischen Komponenten versehenen Produkte über das Internet miteinander zu vernetzen. Sogenannte „smarte Produkte“ sammeln über entsprechende Sensoren Daten, analysieren sie und leiten sie via Internet weiter bzw. empfangen Daten von anderen smarten Produkten. Die „Intelligenz“ dieser Produkte führt dazu, dass sie eigenständig Aufgaben ausführen, mit anderen Produkten kommunizieren, sich selbstständig updaten bzw. an veränderte Kundenbedürfnisse anpassen, laufende Kosten senken und den „Return on Investment“ (ROI) erhöhen sowie Risiken und Gefahren voraussehen und Abhilfe schaffen.

Gesamtpotenziale bis 2022 von über 14 Billionen Dollar

Betrachtet man den Nutzen des IoT für die Unternehmen genauer, wird das Potenzial bei Mitarbeiterproduktivität und Arbeitseffizienz auf bis zu 2,5 Billionen US-Dollar bis 2022 geschätzt: Beispiel Datenbrillen, die es Fachkräften erlauben, Fehlerquellen sofort ausfindig zu machen, oder Tools, die dafür sorgen, dass die Mitarbeiter die Hände frei haben, um Arbeitsvorgänge ohne Unterbrechung zu erledigen. Das Potenzial für Kundenbindung beläuft sich, laut Expertenmeinung, auf bis zu 3,7 Billionen Dollar: So können Kunden über eine Vielzahl von Kontaktpunkten („Touchpoints“) mit dem Unternehmen Kontakt aufnehmen und Produkte bzw. Dienstleistungen einkaufen.

Die mit Sensoren versehenen Produkte liefern zudem Informationen über Kundenverhalten und -wünsche. Das reicht im Supermarkt bis hin zu Produkten, die der Kunde nicht nur gekauft, sondern die er vielleicht in den Warenkorb gelegt und dann wieder zurückgestellt hat. Im Hinblick auf Logistik und Supply-Chain-Management beträgt das Potenzial bis zu 2,7 Billionen Dollar. Das Tracking, die Nachverfolgung von Produkten, ermöglicht eine genauere Ressourcenallokation und eine hohe Echtzeit-Transparenz. Die höhere Energieeffizienz und die Vermeidung von Ausfallzeiten – Stichwort Predictive Maintenance – tragen zu Kostensenkungen bei, deren Potenzial mit bis zu 2,5 Billionen US-Dollar zu Buche schlägt.

Last, but not least: Das Potenzial für Innovationen durch Optimierung und Erweiterung bestehender Geschäftsmodelle liegt nach Expertenmeinung bei bis zu drei Billionen US-Dollar. Addiert man die Potenziale zusammen, kommt man auf eine Summe von über 14 Billionen Dollar, was ungefähr dem Bruttoinlandsprodukt Chinas entspricht.

Chancen für neue Geschäftsmodelle

Die wohl gewaltigsten Potenziale durch das IoT liegen in der Entwicklung neuer Geschäftsmodelle. Experten nennen drei Möglichkeiten, die sich den Unternehmen eröffnen: 1. Bestehende Produkte mit IoT-Zusatzservices zu versehen; 2. neue Produkte mit IoT-Funktionen zu entwickeln; 3. produktlose „Smart Services“ zu schaffen.

Die erste Variante ist die wahrscheinlich anspruchsloseste, kann aber die Kundenbindung verstärken und den Umsatz erhöhen und sollte somit Ziel der IoT-Strategie in Unternehmen sein. Ein bestehendes Produkt wird um IoT-Funktionen erweitert. Beispiele sind der Drucker, der feststellt, wann sich der Toner leert, und eine eigene Bestellung aufgibt, oder der Geschirrspülautomat, der ebenfalls selbstständig neue Geschirrspültabs nachbestellt.

Anspruchsvoller ist die zweite Variante, bei der neue Produkte mit IoT-Features entwickelt werden. Ein Beispiel wäre das selbstständig fahrende Google-Auto. Für Unternehmen, in diesem Fall den Internetriesen Google, eröffnet sich die Möglichkeit, in fremde Märkte einzudringen und Marktanteile zu erobern.

Deutlich spürbar ist der Trend vieler Unternehmen vom Produktanbieter zum Serviceanbieter. Dieser Trend basiert auf der Annahme, dass viele Kunden bestimmte Dinge nicht besitzen, sondern einfach einen Service nutzen wollen. Findigen Unternehmern eröffnet das IoT zudem die Möglichkeit, innerhalb kurzer Zeit etablierte Unternehmen zu verdrängen und zu Marktführern aufzusteigen. Umgekehrt sind etablierte Unternehmen gefordert, Szenarien zu entwickeln, wie sie sich an der Spitze behaupten können.

Entwicklung IoT-spezifischer Geschäftsmodelle: Ein Vier-Phasen-Modell

Wie aber Ansätze entwickeln, um IoT-spezifische Geschäftsmodelle zu entwickeln? Der Wissenschaftler Dominik Bilgeri u. a. haben dafür ein Workshop-Modell entwickelt, auf das Unternehmen zurückgreifen können. Es besteht aus vier Phasen: der Ideation, der Präparation, der Evaluation und dem Skaling.

Am Anfang steht die Ideenentwicklung. Das möglichst interdisziplinär zusammengesetzte und hierarchiefrei diskutierende Team sollte Vorfestlegungen vermeiden und „iterativ“ vorgehen. Sinnvoll ist es, auf bewährte Techniken wie das Design Thinking zurückzugreifen. Design-Thinking-Prozesse gliedern sich, generell gesprochen, in folgende Punkte: verstehen, beobachten, Sichtweise definieren, Ideen finden, Prototyp entwickeln, testen. Was bedeutet dies nun konkret für die Entwicklung eines IoT-spezifischen Geschäftsmodells?

Ausgehend von einer grundlegenden „Vision“ werden in der ersten Phase der Ideenfindung im Brainstorming mehrere Ideen entwickelt, die in einer Longlist zusammengefasst und bewertet werden. Diese wird auf eine Shortlist reduziert. In der zweiten Phase werden diese Ideen der Shortlist im Hinblick auf die Kundenperspektive sowie auf die Beziehungen zu den „Stakeholdern“, also zum Beispiel Lieferanten, Investoren, breite Öffentlichkeit, analysiert. Fragestellungen wären etwa, welche Fähigkeiten zur Umsetzung im Unternehmen benötigt werden, welche Vorteile sich für Geschäftspartner ergeben, welche notwendigen Fähigkeiten die Geschäftspartner mitbringen.

Das Ganze wird zu einer Business-Case-Betrachtung verdichtet. In der dritten Phase erfolgt die Prüfung der erarbeiteten Geschäftsmodelle, zu der auch die Entwicklung von Best-Case- sowie Worst-Case-Scenarios gehört. Die vierte Phase besteht aus der Umsetzung der Geschäftsmodelle.

Verfügbar, skalierbar, agil – die IT-Architektur

Bei der Umsetzung ist zu beachten, dass die Anforderungen des IoT an die IT-Architektur sehr hoch sind: Im Vordergrund stehen dabei Verfügbarkeit, Skalierbarkeit, „Continuous Delivery“ und Agilität. Über die Verfügbarkeit wird garantiert, dass Teilausfälle nicht zu einem Ausfall des gesamten Systems führen. Skalierbarkeit bedeutet, dass einzelne, besonders beanspruchte Komponenten angepasst werden können, ohne andere Komponenten zu beeinflussen.

„Continuous Delivery“: Hierbei soll man imstande sein, Änderungen und Verbesserungen vorzunehmen, ohne das ganze System upzudaten. Agilität bedeutet in diesem Fall die Fähigkeit, „Änderungen, Verbesserungen und Erweiterungen (…) unabhängig von der Funktionalität der gesamten Applikation vor(zu)nehmen und ohne andere Teil-Services (zu) beeinträchtigen“. Im Prinzip sieht die Architektur folgendermaßen aus: Die entsprechend ausgestatteten Geräte („Dinge“), die IoT-Devices, leiten die Daten an die Cloud weiter – sogenannte „Low Power Devices“ nutzen dafür ein extra zwischengeschaltetes Gateway, das mit dem IoT-Backend verbunden ist. Dieses ist in Geschäftsapplikationen (Supply Chain, ERP etc.) bzw. in mobile Geräte und Rechner integriert. Der Datenfluss läuft aber in beide Richtungen, sodass die Geräte auch miteinander im Austausch stehen.

Klar ist, dass auch das hohe Datenaufkommen bewältigt werden muss – so fallen allein während eines einzigen Transatlantikfluges rund drei Terabyte Rohdaten an. Dies gilt umso mehr, als einer der Hauptvorteile des IoT in der Vernetzung von Informationsflüssen liegt: Hersteller teilen die Daten entlang der Lieferkette mit allen Beteiligten, also mit Lieferanten, Spediteuren, Subunternehmern, Stakeholdern, manchmal sogar mit Wettbewerbern.

Hier setzt Big Data ein, also Verfahren, mit denen die zusätzlich über die IoT-Technik gewonnenen Daten geordnet und analysiert werden können, um Entscheidungen zu erleichtern. Als Stichworte seien hier spezielle Analyseverfahren (Data Analytics) sowie die Blockchain-Technik genannt, dezentrale, linear erweiterbare Datenbanken, die ständig neue Elemente hinzufügen.

Schließlich gilt es, im Rahmen einer integrierten IT-Security-Strategie etwaige Schwachstellen (etwa unsichere Mobilgeräte oder Cloud-Interfaces) zu ermitteln und auch ein spezielles Risiko-Management für IoT-Geräte einzuführen.

Chance im globalen Wettbewerb

IoT bedeutet für die Unternehmen Chancen im globalen Wettbewerb: Tendenziell wird das statische Element in den Unternehmen verschwinden. Die Unternehmen im 21. Jahrhundert werden sich von den Unternehmen des 20. Jahrhunderts so unterscheiden wie jene von den Manufakturbetrieben des achtzehnten Jahrhunderts. Es kommt für das einzelne Unternehmen nur darauf an, die sich ergebenden Chancen auch zu nutzen. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Bild von Pete Linforth auf Pixabay

Stück für Stück zur Smart Factory

Aufbruch ins IIoT: Wie bestehende Anlagen zukunftsfit werden.

Über den Weg hin zur Predictive Maintenance sprach die Redaktion mit Lumir Boureanu, CEO der compacer GmbH.

Herr Boureanu, wie unterstützen Sie Ihre Kunden bei der Erfassung, Konsolidierung und Auswertung heterogener Maschinendaten?

Foto Becker & Bredel

Mittlerweile liegen viele Daten aus Maschinen und Anlagenparks in deutschen Unternehmen vor. Es ist aber nicht die Frage, ob Unternehmen bereits einen Datenbestand haben, sondern wie die mannigfaltigen Maschinendaten genutzt werden, um neue Erkenntnisse daraus zu gewinnen. Eine Herausforderung stellt vor allem der Medienbruch dar, wenn die Daten aus Maschinen an ERP-Lösungen übergeben werden sollen, um weiter Analysen und Prozesse anzustoßen. Gerade im Maschinen- und Anlagenbau muss der Medienbruch gemeistert werden, um die Anlagen fit für das IIoT zu machen.

Wie sieht in diesem Kontext Ihre Lösung aus?

Nach einer professionellen Ist-Analyse wird die Maschine mit verschiedenen Sensoren ausgestattet. Zum Beispiel mit einem Temperatursensor, einem Vibrationssensor und einem Körperschallsensor. Anschließend werden die generierten analogen Signale über die vBox vom Fraunhofer Institut in digitale Daten umgewandelt. Um diese Daten zu erfassen, aufzubereiten und analysieren zu können, ist nun die Implementierung von „edbic“, unserer Plattform zur Integration und Interpretation, nötig. Denn erst jetzt können diese Daten genutzt werden, um Condition Monitoring zu betreiben, das in Echtzeit Auskunft über den aktuellen Zustand der Maschine gibt.

Was ist und wie funktioniert eigentlich „edbic“?

edbic ist ein modernes Datenintegrationssystem, das alle Beteiligten innerhalb der Wertschöpfungskette miteinander verbindet. Alle Daten unterschiedlicher Formate und Herkunft laufen in edbic zusammen. Mit dieser Middleware können wir Produktions- und Werkmaschinen, Anlagen, Verarbeitungszentren, Geräte, aber auch unterschiedliche Industrieprotokolle wie OPC-UA, Siemens S7 sowie diverse Cloud-Services zusammenführen und integrieren. Ebenso können Prozesse und andere Workflows orchestriert und die dazugehörigen Daten in einem Dashboard gespeichert, angezeigt und analysiert werden. Anschließend kommt unser Tool „edpem“ zum Einsatz.

Das „Process Event Monitoring“-System visualisiert die „rohen“ Daten im Controlling Dashboard und alarmiert, wenn Schwellwerte überschritten werden. Bei registrierten Anomalien verschickt „edpem“ E-Mails oder Slack-Nachrichten. Genauso gut können aber auch die Daten in das vorhandene ERP- oder MES-System gesendet werden. Durch diese sinnvolle Automatisierung werden bestehende Geschäftsprozesse nachhaltig verbessert und für mehr Übersichtlichkeit und Stabilität gesorgt.

Schaubild: Wie die Retrofit-Methode Maschinen ins IIoT einbindet.

Welche Nutzungsmodelle sind vorgesehen?

Wir bieten unseren Kunden Managed Services, Software as a Service oder On-premise-Implementierungen an. Als Unternehmen der eurodata-Gruppe nutzen wir das eurodata-eigene Hochleistungs-Rechenzentrum in Saarbrücken, das nach ISO/IEC 27001 zertifiziert ist.

Der nächste Schritt in Richtung Smart Factory wird nach einem längeren Beobachtungszeitraum realisiert: Nach der Erhebung entsprechender Vergleichsdaten, die sich aus den Monitoring-Daten ergeben, lassen sich Zustandsprognosen ableiten und ein Frühwarnsystem etablieren.

Sind wir jetzt schon bei der Smart Factory?

Durch diese Maßnahmen sind unsere Kunden der Smart Factory bereits ein großes Stück näher gekommen, in jedem Fall sind aus den gewonnenen Daten bereits neue Geschäftspotenziale gewachsen.

Der nächste Schritt in Richtung Smart Factory wird nach einem längeren Beobachtungszeitraum realisiert: Nach der Erhebung entsprechender Vergleichsdaten, die sich aus den Monitoring-Daten ergeben, lassen sich Zustandsprognosen ableiten und ein Frühwarnsystem etablieren. Dadurch werden zukünftig Anomalien, Abnutzungserscheinungen, Ausfälle oder andere Probleme innerhalb des Produktionsprozesses rechtzeitig identifiziert. Sobald genügend Daten vorliegen, geht es weiter in Richtung Predictive Maintenance.

Und wie geht es weiter für Ihr Haus?

Angesichts der Tatsache, dass die Erfassung, Konsolidierung und Auswertung heterogener Maschinendaten und deren Übergabe an ERP-Systeme in den nächsten Jahren die Erfolgsgrundlage von Maschinen- und Anlagenbauern bleiben wird, freue ich mich auf viele neue Projekte. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Industrie 4.0 für Bestandsanlagen

Bestehende Maschinen werden zum Maschinenpark 4.0.

Foto Becker & Bredel

von Lumir Boureanu

Es gibt verschiedene Gründe, wa­rum heute Maschinenparks aufgerüstet und modernisiert werden. Maschinen werden häufig für einen bestimmten Zweck angeschafft, der sich jedoch im Laufe des Lebenszyklus durchaus ändert. Maschinen müssen dann angepasst oder erweitert werden. Ziel unserer Kunden ist es zum Beispiel, eine Verlängerung der Maschinen-Lebensdauer, die Produktqualität und die Versorgung mit Ersatzteilen im Maschinenpark sicherzustellen. Aber digitaler Retrofit für Bestandsanlagen bedeutet im Kontext von Industrie 4.0 (IIoT) für uns noch mehr.

Gehen wir davon aus, dass nicht alle Maschinen die neusten Schnittstellen besitzen und noch analog ihre Dienste verrichten. Zusätzlich treffen wir bei der Beratung unserer Kunden immer wieder auf heterogene Maschinenlandschaften verschiedenster Hersteller und teilweise stammen Spezialmaschinen noch aus den 70er-Jahren.

Aber Digitalisierung erfordert nicht unbedingt neue Maschinen. Mit den richtigen Lösungen lassen sich heterogene Maschinenparks harmonisieren und für das IIoT vorbereiten. Voraussetzung ist dabei stets, dass die Maschinen und Anlagen in der Lage sind, Ereignisse und Zustände real mithilfe von Sensoren analog zu erfassen, diese Informationen in digitale Daten zu verwandeln und dann an ein übergeordnetes System weiterzugeben.

Viele Projekte scheitern, weil sich Unternehmen auf das reine Sammeln von Daten beschränken. Daten alleine schaffen jedoch noch keinen Mehrwert – auf die konkreten Anwendungsfälle kommt es an.

Lumir Boureanu

Aber die Daten müssen nicht nur erfasst, sondern dann auch sinnvoll verarbeitet werden. Insofern geht es bei einem auf die Digitalisierung der Produktion ausgerichteten Retrofit darum, die Maschinen in den digitalen Produktionsprozess zu integrieren.

Dennoch scheitern viele Projekte, weil sich Unternehmen auf das reine Sammeln von Daten beschränken. Daten alleine jedoch schaffen noch lange keinen Mehrwert – auf die konkreten Anwendungsfälle kommt es an. Wichtig ist deshalb, nicht nur die vorhandenen Daten zu betrachten, sondern auch zu überlegen, welche Informationen wirklich gebraucht werden, um das Potenzial zu heben.

Am Anfang steht sicherlich die Analyse der Fähigkeiten der jeweiligen Maschinen und Anlagen. Fragen wie „Sind schon moderne BUS-Systeme integriert, oder nicht?“ müssen nun beantwortet werden, um den Aufwand der Implementierung einzuschätzen. Dann sollten die Auswahl der Sensoren und die Entwicklung einer Retrofit-Strategie angegangen werden. Die Sensoren werden je nach Bedarf und Ziel des Unternehmens und des Maschinentyps ausgewählt.

Dadurch werden Technologie- und Prozessinformationen durchgängig erfasst und bereitgestellt. Damit zum Beispiel eine Prognose über eine Maschine abgegeben werden kann, müssen Daten über den Zustand der Maschine gesammelt werden. Nach einer professionellen Ist-Analyse wird sie deshalb mit verschiedenen Sensoren ausgestattet. Dies können zum Beispiel Temperatursensoren, Vibrationssensoren und Körperschallsensoren sein. Abnutzung und Verschleiß von wichtigen Maschinenbauteilen können jetzt analog erfasst werden.

Die ankommenden analogen Signale werden zunächst digitalisiert. Dies passiert mithilfe der Installation der vBox unseres Technologiepartners Fraunhofer-Institut für Produktionstechnologie IPT. Sie arbeitet gemäß den aktuellen Industriestandards: Das kompakte System kann Positionsdaten ebenso wie digitale In- und Outputs mit Sensordaten synchronisieren und dem Anwender nach Bedarf visuell darstellen – unabhängig von der verwendeten Steuerungstechnik.

Um die Daten zu erfassen, aufzubereiten und analysieren zu können, ist die Implementierung von edbic, einer Plattform zur Integration und Interpretation nötig. Denn erst dann können diese Daten genutzt werden, um Condition Monitoring zu betreiben, das in Echtzeit Auskunft über den aktuellen Zustand der Maschine gibt.

Es können Produktions- und Werkmaschinen, Anlagen, Verarbeitungszentren, Geräte, aber auch unterschiedliche Industrieprotokolle, OPC UA, Siemens S7, sowie Cloud-Services in edbic zusammengeführt und integriert werden. Ebenso können Prozesse und andere Workflows orchestriert und die dazugehörigen Daten in einem Dashboard gespeichert, angezeigt und analysiert werden.

In edbic werden Daten zusammengeführt und können in einem Dashboard gespeichert und analysiert werden. epdem alarmiert, sollten Schwellenwerte überschritten werden.

edpem, ein „Process Event Monitoring“-System, visualisiert die „rohen“ Daten im Controlling Dashboard, alarmiert, wenn Schwellwerte überschritten werden, und verschickt E-Mails oder Slack-Nachrichten bei Anomalien. Genauso gut können aber auch die Daten in das vorhandene ERP- oder MES-System gesendet werden. Vielleicht starten Sie sogar mit einem Pilotprojekt, also zunächst mit einer kleinen Anzahl an Maschinen. So kann der Maschinenpark sukzessiv harmonisiert und vernetzt sowie eine Kommunikation möglich gemacht werden.

Deshalb lohnt sich digitaler Retrofit

  • Retrofit schafft die Basis für die Digitalisierung der Produktion, indem Maschinen und Anlagen in digitale Prozesse integriert werden.

  • Retrofit sorgt für Investitionssicherheit, weil bereits angeschaffte Maschinen und Anlagen weiter genutzt werden können.

  • Im Vergleich zur Neuanschaffung eines Assets ist Retrofit äußerst günstig.

  • Durch Retrofit werden digitale Szenarien möglich – und das bedeutet mehr Transparenz, steigende Effektivität, Effizienz sowie Flexibilität bei den Prozessen und innovativen Use-Cases.

  • Retrofit trägt zu einer längeren Maschinenlebensdauer durch die permanente Überwachung der Maschinen und bessere Ersatzteilversorgung bei.

Der Haupt­unterschied und damit ein großer Vorteil bei der von uns beschriebenen Retrofit-Methode ist die stabile Komplexität. Sie steigt nicht mit der Anzahl der Maschinen, sondern bleibt aufgrund des Business-Integration-Clusters, edbic, tragfähig. Das macht auch Ihr digitales Projekt um vieles leichter und agiler. Folgenden Tipp möchten wir Ihnen noch an die Hand geben: Wenn Sie wirklich die Hebel der Digitalisierung nutzen möchten, dann sollten Sie sich auch mit Ihren Partnern, Kunden und Lieferanten verbinden und zusammenarbeiten. Nur so kann ein effizientes Ecosystem entstehen, das für alle Seiten einen Mehrwert schafft! //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

IT-Sicherheit ist nicht nur eine Frage der Technik

Ein wichtiger Faktor für IT-Sicherheit sind Mitarbeiter und Manager, die Gefahren und Risiken richtig einordnen können.

Auch Führungskräfte, die wenig IT-Know-how haben, müssen beim Thema Cybersecurity mitreden können, um die richtigen Entscheidungen zu treffen.

Mangelnde IT-Sicherheit kann die Entwicklung der digitalen Wirtschaft deutlich verlangsamen und damit künftiges Wachstum hemmen – ein Problem, das kein Unternehmen allein lösen kann. Wenn Anwender nicht darauf vertrauen können, dass digitale Technologien sicher sind, dann bleiben wirtschaftliche Chancen ungenutzt und neue Technologien scheitern an Akzeptanzproblemen. Ein Gespräch mit Andy Schweiger, Managing Director Cyber Security Services TÜV SÜD Sec-IT GmbH, und Jörg Schemat, Sprecher der Geschäftsführung TÜV SÜD Akademie.

Cyberangriffe sind heute an der Tagesordnung und können beträchtlichen Schaden anrichten. Worauf kommt es wirklich an, wenn Unternehmen sich effektiv schützen möchten?
Schweiger: Die Zahl der vernetzten Geräte und damit auch die Angriffsfläche steigt in den kommenden Jahren rapide an. Experten prognostizieren 20 Milliarden Geräte im Internet of Things bis 2020. Angesichts der Schnelligkeit, mit der Cyberkriminelle heute weltweit agieren und mit der sich die Werkzeuge für Cyberattacken verändern, genügen punktuelle Sicherheits-Updates heute nicht mehr. Unternehmen müssen verstehen, dass Cybersecurity eine permanente Aufgabe ist, die die gesamte Organisation betrifft. Das fängt an bei „Security by Design“, also Integration von IT-Sicherheit bereits beim Gestalten von Prozessen und Produkten. Und es geht weiter bei „Security as a Service“, um relevante Sicherheits-Updates kontinuierlich verfügbar zu haben. Das ist ähnlich wie beim menschlichen Körper: Wer regelmäßig etwas für seine Gesundheit tut, ist fitter und widerstandsfähiger als jemand, der nur einmal jährlich zur Vorsorge geht.
Schemat: Wenn Unternehmen ihre IT-Sicherheit wirklich ernst nehmen, dann betrachten sie nicht nur die technische Dimension, sondern auch ihre Prozesse und Mitarbeiter. Während ausgefeilte technische Methoden zur Erkennung von Schwachstellen heute in vielen Unternehmen bereits genutzt werden, spielt die Schulung der eigenen Mitarbeiter zum Thema IT-Sicherheit häufig noch eine eher untergeordnete Rolle. Dabei gehört „Social Engineering“ längst zum Standardrepertoire von Cyberkriminellen. Zum Beispiel werden über täuschend echt wirkende Phishing-E-Mails sensible Informationen abgeschöpft oder über E-Mail-Anhänge Schadsoftware eingeschleust. Angriffe dieser Art werden weiter zunehmen, zumal auch Cyberkriminelle inzwischen künstliche Intelligenz nutzen. Durch gezielte Aufklärung und regelmäßige Schulungen können Arbeitgeber diese Gefahr zumindest reduzieren.

IT-Security ist heute also kein reines Technikthema mehr, sondern eine Frage der Kultur?
Schemat: Entscheidend ist, dass ein Unternehmen das richtige Verständnis für IT-Sicherheit hat und dies auch tatsächlich in der Organisation gelebt wird. Prozesse, Betriebsabläufe und die Unternehmenskultur, wie zum Beispiel der Umgang mit Fehlern und HR-Maßnahmen wie Schulungen, spielen eine wichtige Rolle. Unternehmen, die das beachten, verfügen über einen klaren Wettbewerbsvorteil. Dazu kommt: IT-Sicherheit ist inzwischen ein Thema für das C-Level und das operative Management. Denn durch das Internet of Things verschwimmen die Grenzen zwischen IT- und OT-Systemen. Auch Führungskräfte, die wenig IT-Know-how haben, müssen beim Thema Cybersecurity mitreden können, um die richtigen Entscheidungen zu treffen.

Welche Rolle spielen technische Standards, wenn es um Cybersecurity geht, und was können Unternehmen dabei von TÜV SÜD erwarten?
Schweiger: Standards spielen eine große Rolle, denn sie stärken das Vertrauen in technische Lösungen. Seit jeher müssen sich Sicherheitsstandards dabei dem technologischen Fortschritt anpassen und gegebenenfalls neu definiert werden. Das gilt in der physischen wie in der digitalen Welt. Unternehmen stehen heute vor der Herausforderung, das „angemessene Niveau“ der digitalen Sicherheit ihrer Produkte und Dienstleistungen objektiv nachzuweisen. Nur so können Anwender auf die Sicherheit der digitalen Technologien vertrauen – nur so bleibt die Dynamik der Digitalisierung ungebremst. Wir bei TÜV SÜD haben das erkannt und prüfen bei unseren Analysen und Assessments immer den gesamten Cyber­security-Lifecycle eines Unternehmens. In unseren Kompetenzzentren in Singapur, Mumbai und München arbeiten wir an technischen Antworten auf die Security-Fragen der Zukunft. Das Besondere: Als neutraler Partner analysiert TÜV SÜD hersteller­unabhängig die Sicherheit der technischen Infrastruktur. Wir empfehlen keine speziellen Produkte, Lösungen oder Dienstleister, noch sind wir von solchen abhängig. //

Zu den Interviewpartnern:
Jörg Schemat
Andy Schweiger


Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Health@Home.de

Die Digitalisierung verschiebt die Versorgung aus der Praxis in die Lebensräume des mündig werdenden Patienten.

von Prof. Dr. Roland Trill

Das digitale Gesundheitswesen lag in Deutschland viele Jahre in einem Dornröschenschlaf. Eine sich gegenseitig blockierende Selbstverwaltung, eine desinteressierte Politik hatten zur Folge, dass Deutschland hinsichtlich der Digitalisierung in Europa abgehängt wurde. Ein Indiz ist die über 10-jährige Verzögerung bei der Einführung der Elektronischen Gesundheitskarte.

2018: Ein Wendepunkt?

Prof. Dr. Ronald Trill

2018 könnte einen Wendepunkt markiert haben. Das zweite E-Health-Gesetz ist in der Vorbereitung – hoffentlich innovativer ausgelegt als der erste Versuch –, das elektronische Rezept ist noch für diese Legislaturperiode angekündigt. Die Krankenkassen überbieten sich mit der Entwicklung von Gesundheitsakten für ihre Versicherten und bieten Gesundheits-Coaches an. Die Ärzteschaft „schlachtet“ eine heilige Kuh: das Fernbehandlungsverbot.

Eine Einsicht hat sich wohl durchgesetzt (warum erst jetzt?): Die Digitalisierung des Gesundheitswesens ist alternativlos! Die auf das deutsche Gesundheitswesen zukommenden und bereits spürbaren Herausforderungen (steigender Versorgungsbedarf bei zunehmendem Kostendruck und Fachkräftemangel) werden sich mit den gegenwärtigen Strukturen nicht bewältigen lassen.

Veränderte Patientenrolle

Vor uns liegt ein Paradigmenwechsel. Die Rolle des Patienten wird sich Schritt für Schritt wesentlich verändern. Er wird Treiber dieser Entwicklung! Aus dem duldenden und passiven Kranken wird der aktive Patient, der Entscheidungen gemeinsam mit dem Arzt (oder den Vertretern anderer Gesundheitsberufe) treffen und diese auch verantworten will.

Diese Entwicklung hat bereits begonnen. Gesundheits-Apps sind auf allen neuen Smartphones vorinstalliert. Bürger messen zum Beispiel ihre körperlichen Aktivitäten oder informieren sich über Ernährungsfragen. Weitere häufig verwendete Wearables sind Kopfbänder, Smartwatches, diverse Sensoren in der Kleidung oder im Smartphone selber. Die Versorgung verschiebt sich aus der Praxis dorthin, wo der Patient sich aufhält, z. B. in seine Wohnung. Dieser Trend lässt sich mit dem Begriff „Health@Home“ gut umschreiben. In diese Kategorie fallen auch zwei der Telemedizin zuzurechnende Anwendungen: Die Telesprechstunde und das Telemonitoring.

Das Telemonitoring erlaubt es dem Patienten, orts- und zeit­unabhängig medizinische Parameter zu messen, entweder im Rahmen eines abgestimmten Therapieplanes oder aufgrund eigener Initiative.

Die Telesprechstunde findet bei Bürgern eine immer größere Zustimmung und auch Ärzte erkennen zunehmend die Vorteile. Das Telemonitoring erlaubt es dem Patienten, orts- und zeitunabhängig medizinische Parameter zu messen, entweder im Rahmen eines abgestimmten Therapieplanes oder aufgrund eigener Initiative. Am Beispiel der Volkskrankheit „Diabetes“ wird diese Entwicklung gut nachvollziehbar.

Veränderte Versorgungskonzepte

Vor 30 Jahren musste der Patient zur Blutentnahme in die Praxis. Die Besprechung der Befunde erfolgte dann, im besten Falle, direkt im Anschluss oder es musste ein weiterer Besuch eingeplant werden. Mit der Einführung mobiler Messgeräte und Stechhilfen verlagerte sich die Messung zum Teil in die Wohnung des Erkrankten. Er führte eine Liste mit seinen Messungen, die er bei seinem nächsten Arztbesuch mitnahm. In Verbindung mit dem Smartphone werden die Werte nun direkt erfasst und abgespeichert. Übersichtliche Auswertungen können leicht erstellt werden. Die Werte werden dem Arzt online übermittelt, sodass ggf. eine schnelle Reaktion erfolgen kann.

Kommen nun noch Anwendungen der künstlichen Intelligenz (= KI – auch ein Trend, insbesondere wenn man in die Landschaft der im Gesundheitswesen aktiven Start-ups schaut) dazu, so werden aktive Anpassungen im Therapieplan seitens des Patienten möglich. Analoge Szenarien ließen sich für andere chronische Erkrankungen darstellen, zum Beispiel bei Asthma oder kardiologischen Erkrankungen.

Bei Asthma ist auch schnell erkennbar, dass die Digitalisierung zur Qualitätssteigerung beitragen kann. Inhaler der zweiten Generation erfassten bereits online die verabreichte Menge des Wirkstoffs wie auch den Zeitpunkt der Einnahme. Nun zeigt ein Blick in die Praxis, dass gewünschte Ergebnisse zum Teil nicht erreicht wurden. Ein Grund dafür war die nicht sachgemäße Technik bei der Inhalation. Diese Schwachstelle behebt der Inhaler der dritten Generation. Mithilfe eines Sensors wird gemessen, ob die Positionierung korrekt ist. Sollte sie es nicht sein, gibt es (verbunden mit einer App) Hinweise, die es dem Kranken ermöglichen, sich zu schulen und seine Kompetenz zu verbessern.

Medical Apps

Der Schritt hin zu den Medical Apps (dann als Medizinprodukt zu betrachten) ist also bereits vollzogen, also solchen Apps, die unmittelbar im Diagnostik- und Therapieprozess Eingang finden. Die Entwicklungsgeschwindigkeit ist enorm. War lange Zeit tinnitracks (Therapie-App bei Tinnitus) das Vorzeigebeispiel, so gibt es in jedem Jahr eine große Zahl neuer Anwendungsgebiete und einzelner Anwendungen. Eine kleine Auswahl soll die Breite der Anwendungsszenarien skizzieren.

Mittlerweile gibt es auch in Deutschland einen „Symptom-Checker“, der diesen Namen verdient und sich durch seine Seriosität von solchen auf Webportalen abhebt. Komplexe Algorithmen, der Rückgriff auf große Datenbestände (Health-Analytics) und der Einsatz der KI führen zu guten Ergebnissen. Hier erhält der Patient die Anregungen und Hinweise, die er im Anschluss mit seinem Arzt besprechen kann.

Der Weg zum Lab@Home (als Teil der „Health-Infrastruktur“ des Patienten/Bürgers) ist nicht mehr weit.

Eine Analyse der Sprache kann verwendet werden, um z. B. bei psychisch Erkrankten bevorstehende kritische Episoden vorauszusagen und frühzeitig entgegenwirken zu können.

Programme verschaffen dem Patienten zum Beispiel in der Ergotherapie oder Physiotherapie Möglichkeiten, unabhängig vom Therapeuten Übungen durchzuführen und Korrekturen zu erhalten. Es handelt sich hier nicht um die „klassischen“ pauschalen Videos, sondern um individuelle Lernhilfen, die u. a. durch Sensoren oder Mustererkennung mithilfe von Bildern möglich werden (Anwendungsfelder z. B. Rückenschmerz, Parkinson, MS).

Der Weg zum Lab@Home (als Teil der „Health-Infrastruktur“ des Patienten/Bürgers) ist nicht mehr weit. Die Möglichkeiten, mit einem chipgroßen Wearable Blut abzunehmen und daraus wesentlich Werte zu generieren, werden auch die Labormedizin verändern.

Alle diese Entwicklungen lassen sich wie folgt zusammenfassen. Sie sind

  • mobil,
  • intelligent,

  • entscheidungsunterstützend und

  • kompetenzsteigernd für den Nutzer.

Digitalisierung als Wettbewerbsargument

Für die Krankenkassen ist, wie auch für den einzelnen Arzt, diese Flut neuer Entwicklungen kaum übersehbar. Sie stehen vor der Frage: Welche dieser Anwendungen sollen in die Regelversorgung, also in den ersten Gesundheitsmarkt, aufgenommen werden? Sie werden darauf schnelle Antworten finden müssen, denn es ist absehbar, dass der Versicherte den Zugang zu digitalen Services als einen Wettbewerbsparameter wahrnehmen und nutzen wird. Der aktive Patient wird zum maßgeblichen Treiber dieses Trends.

Kernaussagen

  • Nur durch Digitalisierung kann das deutsche Gesundheitswesen seinen Herausforderungen begegnen.

  • Telemedizin und Medical Apps finden Eingang in den Diagnostik- und Therapieprozess.
  • Krankenkassen stehen vor der Frage, welche neuen Anwendungen in die Regelversorgung aufgenommen werden sollen.

  • Die Gesundheitskompetenz muss verbessert werden, damit der Patient aktiv mitentscheiden kann.

Gesundheitskompetenz und E-Health-Literacy

Nun muss aber an dieser Stelle auch die Frage erlaubt sein, ob der Patient dazu fähig ist, die Technologien für seine Belange einzusetzen? Als aktiver Patient wird er nicht nur „blind“ der Technik vertrauen wollen, er will die Werte verstehen, sie einordnen können, um dann auf Augenhöhe mit dem Behandler über die bestmögliche Therapie zu sprechen. Um zum aktiven, das heißt, seine Gesundheit selbst gestaltenden Patienten zu werden, muss nicht nur die oben beschriebene Technik vorhanden sein – vielmehr ist auch die Gesundheitskompetenz (Health-Literacy) entscheidend. Damit ist die Fähigkeit gemeint, Erkenntnisse auf die eigene Krankheit bzw. Lebenssituation zu übertragen. Indem das Internet und die vielen Apps und Portale zur wichtigen Informationsquelle werden, tritt hier eine Forderung nach einer ausgeprägten E-Health-Literacy hinzu. Hierunter versteht man die Kompetenzen, die ein Patient benötigt, sich im Rahmen der digitalen Welt mit der Vielzahl von Informationen zurechtzufinden, deren Validität einschätzen sowie diese dann auch anwenden zu können.

Leider unterlässt es die Politik nach wie vor, einen entscheidenden Schritt in ein integratives Gesundheitswesen zu gehen.

Internationale Studien zeigen, dass Deutschland in beiden Kompetenzfeldern ebenfalls nur Mittelmaß darstellt. Die digitalen Services werden einerseits dazu beitragen, Gesundheitskompetenz zu entwickeln, setzen aber auch deren Existenz voraus. Daraus lässt sich folgern, dass große Anstrengungen notwendig werden, parallel zu der Implementierung digitaler Angebote Gesundheitskompetenz und E-Health-Literacy zu entwickeln. Hiervon profitieren nicht nur die Patienten, sondern auch die Gesundheitsdienstleister. Es gibt Belege dafür, dass Patienten mit hoher Gesundheitskompetenz zum Beispiel eine höhere Therapietreue aufweisen – mit positiven Effekten auch für die Wirtschaftlichkeit.

Verschlafen

Die beschriebenen Aktivitäten werden das deutsche Gesundheitswesen massiv verändern. Leider unterlässt es die Politik nach wie vor, einen entscheidenden Schritt in ein integratives Gesundheitswesen zu gehen: Die Einführung eines „Electronic Health Records“ (einrichtungsübergreifende Patientenakte) taucht in keiner Agenda auf. Aber genau diese Anwendung markierte in den Staaten mit fortschrittlichen digitalen Gesundheitswesen den Einstieg in ein neues Zeitalter. Dornröschen befindet sich wohl doch noch im Halbschlaf! //


Buchhinweis
Trill, R. (Hrsg.): Praxisbuch eHealth – Von der Idee zur Umsetzung, 2. Auflage, völlig neu überarbeitet, Stuttgart 2018


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Wie Versicherer ihr Geschäft digitalisieren

Microservices sind die entscheidende Basis für Agilität.

von Jakob Freund

Mehr als die Hälfte der Verbraucher in Deutschland kann sich vorstellen, vollständig digital eine Versicherung abzuschließen. Viele Kunden versprechen sich davon schneller bearbeitete Anliegen und mehr persönliche Freiräume bei der Absicherung. Das Problem: Veraltete IT-Systeme bremsen die digitale Transformation aus, die dafür notwendig wäre.

Sieben von zehn Unternehmen betreiben Mainframes in der IT und in den Rechenzentren, um die geschäftskritischen Abläufe zu verarbeiten. Diese Systeme ähneln sich darin, dass sie eingehende Anforderungen nacheinander beantworten – first in, first out. Bleibt ein Vorgang dabei hängen, sind davon auch alle anderen betroffen. Gerade im sogenannten „Herbststurm“, wenn sich Abertausende Kunden nach preiswerteren KFZ-Versicherungen umschauen und dafür Tarifrechner auf der Webseite, beim Vermittler oder auf einem Vergleichsportal nutzen, gehen die etablierten IT-Systeme nahezu zwangsläufig in die Knie.

Antragsstrecken digitalisieren

Fast alle Unternehmen haben diese Schwachstelle inzwischen erkannt. Drei Viertel sind sich bewusst, dass sie ihre Legacy-Systeme modernisieren müssen, um mit der digitalen Entwicklung künftig mithalten zu können. Als State of the Art gelten verteilte IT-Systeme, die in der Lage sind, Geschäftsvorfälle parallel und weitgehend automatisch abzuarbeiten. Solche Architekturen lösen zunehmend Großsysteme ab, die von den Versicherern bislang als Alleskönner eingesetzt worden sind. Die IT der Zukunft setzt sich aus einzelnen Minidiensten (Microservices) zusammen, die jeweils nur eine einzige Aufgabe erfüllen und von einem Workflow-System gesteuert werden.

Abb.1: Vereinfachtes BPMN-Schema einer digitalen Antragsstrecke

Dahinter steckt die Idee, möglichst viele oder sogar alle Abläufe innerhalb eines Geschäftsvorfalls komplett dunkel zu verarbeiten. Beispielsweise möchte ein Kunde online eine neue Versicherung für sein Auto abschließen. Nachdem der Kunde seine persönlichen Daten und die des Fahrzeugs eingegeben hat und das Webformular schließlich abschickt, starten mehrere Microservices, die das individuelle Risiko prüfen und automatisch die Police anlegen. Wenn nichts Unerwartetes passiert, bekommt der Kunde seine digital abgeschlossene Versicherung ausgehändigt, ohne dass sich ein Sachbearbeiter den Vorgang überhaupt anschauen musste (vgl. Abb. 1).

Moderne Workflow-Systeme ermöglichen den Unternehmen, einfache Entscheidungs­tabellen über eine Decision-Engine einzubinden. Solche Werkzeuge helfen dabei, Ausnahmen festzulegen, falls ein Vorgang nicht automatisch abgeschlossen werden kann. Ein Ampelsystem kann beispielsweise Fälle aussteuern, die nur ein Sachbearbeiter entscheiden darf oder gleich zu einer Ablehnung führen sollen. Microservices lassen sich zudem dafür einsetzen, für Kunden automatisch einen Webzugang einzurichten, Vertragsunterlagen per Post zu versenden oder geänderte Kundendaten wie eine neue Adresse ins Bestandssystem zu übertragen.

Schäden digital regulieren

Die Vorteile einer solchen IT-Architektur liegen auf der Hand: Keine Datenstaus mehr und falls einzelne Microservices verbessert werden sollen, betreffen die damit verbundenen Anpassungen nicht gleich das gesamte System. Zudem erleichtern Microservices den Anbietern, externe Partner einzubinden wie die für die Bonitätsprüfung häufig angefragte Schufa. Gleiches gilt aber auch für Kooperationspartner, die Versicherungen zusätzlich zu einem eigenen Angebot anbieten wollen und sich dafür eine einfache Möglichkeit zum Abschluss wünschen. Dazu gehören beispielsweise Reiseportale oder Fluggesellschaften, die während der Buchung eine Reiserücktrittsversicherung mitverkaufen möchten und dafür Provisionen erhalten.

Auch im Ernstfall bieten Microservices die Chance, ein digitales Kundenerlebnis zu schaffen, das weitgehend ohne manuelle Zuarbeit durch den Versicherer auskommt.

Jakob Freund

Doch auch im Ernstfall bieten Microservices die Chance, ein digitales Kundenerlebnis zu schaffen, das weitgehend ohne manuelle Zuarbeit durch den Versicherer auskommt. Leicht zu beziffernde Schäden, wie sie etwa bei Glasbruch oder in der privaten Haftpflicht häufig auftreten, lassen sich von der Erfassung bis zur Auszahlung automatisch und fallabschließend bearbeiten. Microservices prüfen dafür, ob eine Versicherung besteht und ob alle Prämien bezahlt worden sind. Die nötigen Angaben wie Tathergang oder sogar Beweisfotos können die Versicherungsnehmer online oder via App an den Versicherer übermitteln. Ist alles in Ordnung, weist ein weiterer Microservice die Zahlung an und trägt die notwendigen Informationen in die bestandsführenden Systeme ein.

In diesem Bereich beginnen immer mehr Versicherer inzwischen damit, künstliche Intelligenz (KI) einzusetzen, um Betrugsversuche zu erkennen. Schon heute kann eine entsprechend trainierte KI erkennen, ob per Foto gemeldete Autoschäden plausibel sind. Das ist deshalb so wichtig, weil die unpersönliche Schadenmeldung Betrüger dazu einlädt, mit nachträglich bearbeiteten oder gleich komplett gefälschten Fotos überhöhte Schäden geltend zu machen. Damit das Geld nicht in falsche Hände gerät, müssen die Versicherer geeignete Kontrollen entwickeln und in die IT-Systeme integrieren.

Interne Abläufe visualisieren

Damit der Schritt in die digitale Zukunft gelingt, müssen Versicherungsunternehmen ein neues Selbstverständnis als Softwareunternehmen entwickeln. Künftig entscheidet nicht mehr allein das beste Angebot, sondern das Kundenerlebnis darüber, ob ein Produkt gekauft wird oder nicht. Und diesen Unterschied können Unternehmen zunehmend nur noch durch die Qualität ihrer IT-Systeme herausarbeiten. Digitalpioniere wie der US-amerikanische Streamingdienst Netflix beispielsweise haben von vornherein auf Microservices gesetzt, um das beste Nutzererlebnis zu bieten. Damit hängen Technologieriesen auch für andere Branchen die Messlatte beständig höher.

Abb. 2: Heatmaps legen Engpässe im Prozessmodell offen.

Zwei Drittel der Deutschen kritisieren heute schon, dass Versicherer weniger schnell, weniger verständlich und weniger gut erreichbar sind als die Angebote von Digitalunternehmen. Digital Natives, die mit solchen Diensten aufgewachsen sind, erwarten zudem, dass sich die Angebote permanent neuen Gegebenheiten anpassen und sich ständig weiterentwickeln. Sie wollen vor allem in ihrer Eigenständigkeit ernst genommen werden und bestehen darauf, möglichst viel allein regeln zu können. Gleichzeitig wollen sie sich nicht mehr um die vielen Details kümmern. Versicherer sollen von selbst aktiv werden, wenn sie etwa einen Umzug melden oder etwas nicht sofort klappt.

Diese neue Anspruchshaltung bedeutet für die Anbieter, dass sie ihre Prozesse laufend überwachen und zügig anpassen müssen, um mit den Kundenerwartungen mithalten zu können. Am einfachsten gelingt das, wenn die Abläufe nicht nur schriftlich erfasst werden, sondern visuell dargestellt. Ideal sind Heatmaps, die während der Laufzeit erfassen, wie häufig einzelne Prozesszweige durchlaufen werden und ob dadurch möglicherweise ein Engpass zu entstehen droht (vgl. Abb. 2). Selbst die Prozessqualität lässt sich messen, wenn das Workflow-System protokolliert, wie häufig und an welchen Stellen manuell eingegriffen werden musste oder wie lange ein Prozess stillstand.

Fazit

Jetzt sind die Versicherer gefordert, technische Schulden abzubauen, die über die Jahre entstanden sind. Drei von vier Euro aus dem IT-Budget wendet die Branche inzwischen dafür auf, Altlasten zu pflegen. Das rächt sich in einem Marktumfeld, das zunehmend kompetitiver wird. Wie schnell sich das Blatt wenden kann, zeigt ein Blick in die Schwesterbranche Banken, in die immer mehr Technologieunternehmen mit praktischen Digitalangeboten einbrechen. Davor schützen nur eine wettbewerbsfähige IT-Infrastruktur und eigenes IT-Know-how, das die Versicherer zügig weiter ausbauen sollten. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Fallbeispiele

Weiterführende Beiträge und Interviews zum Thema finden Sie in unserer
Wirtschaftszeitung TREND REPORT sowie in unseren Open-Content-Werken.

TREND-REPORT-Reportage: Wie schlau ist Ihr Unternehmen? Datenkompetenz wird immer mehr zur Grund­voraussetzung unternehmerischen Erfolgs.
https://trendreport.de/wie-schlau-ist-ihr-unternehmen/


„Künstliche Intelligenz ermöglicht die Simulation von Entwicklungsszenarien und hebt den Firmenwert“, hebt Ansgar Eickeler hervor.
https://trendreport.de/all-in-one-unternehmenssteuerung-mit-ki/


Gastbeitrag von Dr.-Ing. Gerd Staudinger: In vielen Unternehmen schlummert ein verborgener Schatz – Kunden­daten. Die Entscheider wissen das und sehen enormen Nachholbedarf. https://trendreport.de/datenschatz-selbst-heben/


„Nur 34 Prozent der Unternehmen bieten Schulungen zur Verbesserung der Datenkenntnisse an“, mahnt Robert Schmitz. https://trendreport.de/souveraen-arbeiten-und-leben-mit-daten/


Der Innovationsstandort Deutschland hat die Aufgabe, neue KI-Technologien für die Wertschöpfung der Zukunft zu nutzen und die Transformation aller Lebensbereiche mitzugestalten. https://trendreport.de/vernetzung-ki-industrie-gesellschaft/