Beiträge

Blockchain

Ein verteiltes Datenbankmanagementsystem schafft eine neue Form der Sicherheit und Transparenz für die digital vernetzte Welt.

Eine Blockchain ist eine kontinuierlich erweiterbare Liste von Datensätzen, „Blöcke“ genannt, die mittels kryptographischer Verfahren verkettet sind. Jeder Block enthält dabei einen kryptographisch sicheren Hash des vorhergehenden Blocks, einen Zeitstempel und Transaktionsdaten.
Durch die aufeinander aufbauende Speicherung von Daten in einer Blockchain können diese nicht nachträglich geändert werden, ohne die Integrität des Gesamtsystems zu beschädigen, wodurch die Manipulation von Daten erheblich erschwert wird.

Anwendungsmöglichkeiten entstehen nicht nur bei Kryptowährungen à la Bitcoin. Eine Blockchain ermöglicht beispielsweise auch die fälschungssichere Dokumentation einer Lieferkette und auch Notare oder Clearinghäuser werden als Intermediäre überflüssig. Im Prinzip lässt sich die Blockchain überall anwenden, wo Daten fälschungssicher protokolliert werden sollen.

Quelle: Background vector created by freepik – www.freepik.com

Zusätzlich lassen sich auch Computerbefehle in den Code der Blockchain integrieren und gerade im Zusammenhang mit dem (I)IoT entsteht ein enormes Automatisierungspotenzial. Bei einer Blockchain zur Lieferkettenprotokollierung könnte zum Beispiel ein im Container angebrachter Sensor die Temperatur von Lebensmitteln nicht nur messen und dokumentieren, sondern auch automatisch Alarm schlagen, sobald Grenzwerte überschritten werden. //

Eigenschaften einer Blockchain

  • Verkettungsprinzip: Eine Blockchain ist eine verkettete Folge von Datenblöcken, die über die Zeit weiter fortgeschrieben wird.

  • Dezentrale Speicherung: Eine Blockchain wird nicht zentral gespeichert, sondern als verteiltes Register geführt. Alle Beteiligten speichern eine eigene Kopie und schreiben diese fort.

  • Konsensmechanismus: Es muss sichergestellt werden, dass eine bei allen Beteiligten identische Kette entsteht. Hierfür müssen zuerst Vorschläge für neue Blöcke erarbeitet werden. Dies geschieht durch Validatoren (die bei Bitcoin „Miner“ genannt werden). Dann müssen sich die Beteiligten einigen, welcher vorgeschlagene Block tatsächlich in die Kette eingefügt wird. Dies erfolgt durch ein sogenanntes Konsens­protokoll, ein algorithmisches Verfahren zur Abstimmung.

  • Manipulationssicherheit: Durch kryptographische Verfahren wird sichergestellt, dass die Blockchain nicht nachträglich geändert werden kann. Die Kette der Blöcke ist somit unveränderbar, fälschungs- und manipulationssicher.

  • Transparenz / Vertraulichkeit: Die auf der Blockchain gespeicherten Daten sind von allen Beteiligten einsehbar. Sie sind deshalb aber nicht unbedingt auch für alle sinnvoll lesbar, denn Inhalte können verschlüsselt abgespeichert werden. Blockchains erlauben so eine flexible Ausgestaltung des Vertraulichkeitsgrads.

  • Nichtabstreitbarkeit: Durch die Nutzung digitaler Signaturen sind Informationen in der Blockchain speicherbar, die fälschungssicher nachweisen, dass Teilnehmende unabstreitbar bestimmte Daten hinterlegt haben, etwa Transaktionen angestoßen haben.


Quelle: Seite „Blockchain“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 13. März 2019, 23:41 UTC. URL: https://de.wikipedia.org/w/index.php?title=Blockchain&oldid=186562222 (Abgerufen: 8. April 2019, 09:11 UTC)

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Die EU-DSGVO im Kontext der Digitalisierung

Risikofaktor IoT: Schützenswert sind alle Informationen, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen.

von Dr. Ralf Magagnoli

Am 25. Mai 2016 trat die EU-Datenschutzgrundverordnung (EU-DSGVO) in Kraft, ab dem 25. Mai 2018 müssen die EU-Mitgliedstaaten die Verordnung anwenden. Obwohl das Bewusstsein in den Chefetagen der Unternehmen gestiegen ist, sind nicht alle Unternehmen gut aufgestellt.
Mit der EU-DSGVO gibt es erstmals eine Verordnung, die das Datenschutzrecht EU-weit vereinheitlicht und die Unternehmen zum Nachweis verpflichtet, die Prinzipien des EU-Datenschutzes einzuhalten. Sie gilt für in der EU ansässige Unternehmen, aber auch für ausländische Unternehmen, wenn diese eine Niederlassung in der EU haben oder Daten von EU-Bürgern verarbeiten. Also de facto für alle größeren internationalen Unternehmen, aber auch für viele Mittelständler und KMU.
Die Strafen bei Verletzung der EU-DSGVO sind saftig: Bis zu 20 Millionen oder vier Prozent des Jahresumsatzes – im Zweifelsfall gilt der höhere Wert.

DSGVO und IoT

Als Daten gelten dabei nicht nur Kontakdaten wie Name, Adresse, E-Mail-Adresse, Telefonnummer. Damit betrifft sie auch das IoT, sammeln seine Geräte doch zuhauf vielfältige Nutzerdaten. Je nach Funktion reichen diese von Blutgruppe, über das bevorzugte TV-Programm bis hin zum Aufenthaltsort des Hundes. Hier sollte ein Privacy-by-Design-Ansatz verfolgt werden, damit schon bei der Entwicklung die Datenschutzrisiken gering gehalten werden können und Datensicherheit gewährleistet ist. Schließlich ist auch zu klären, wo im Unternehmen die Daten überhaupt gespeichert sind und wer Zugriff darauf hat.

Was ist neu?

Ganz wichtig: Unternehmen haben eine Rechenschaftspflicht. Im Fall einer Klage gilt die Beweislastumkehr: Nicht der Kläger muss nachweisen, dass die EU-DSGVO verletzt worden ist. Das Unternehmen muss beweisen, dass es die strengen Kriterien der Verordnung erfüllt. Hier könnte sich unter Umständen für Unternehmen ein Betätigungsfeld eröffnen, um unliebsamen Konkurrenten zu schaden. Außerdem muss in bestimmten Fällen ein Datenschutzbeauftragter ernannt werden.

Hinzu kommt die Verpflichtung, ein sogenanntes „Privacy by Design“ einzuführen, mit dem datenschutzrelevante Maßnahmen von Beginn an in Design sowie Entwicklung von Systemen, Prozessen und Produkten integriert werden. Auch sind mehr Daten betroffen, so etwa Einzelangaben über persönliche und sachliche Verhältnisse einer bestimmten oder bestimmbaren Person. Die Anforderungen an „bestimmbare Personen“ sind sehr gering. Auch Lieferanten können betroffen sein, zum Beispiel solche, die von einem Unternehmen beauftragt werden, personenbezogene Mitarbeiterdaten zu verarbeiten.

Mehr Rechte für Beschäftigte, mehr Pflichten für die Unternehmen

Nach Auffassung vieler Fachleute werden die Pflichten des Arbeitgebers beim Datenschutz deutlich erhöht, die Rechte der Beschäftigten hingegen gestärkt. Diese erhalten die Hoheit über ihre Daten und das Recht, auf Anfrage zu erfahren, ob, welche und in welchem Umfang personenbezogene Daten durch den Arbeitgeber verarbeitet werden. Das muss laut EU-DSGVO schneller und umfassender geschehen, als dies früher der Fall war. Unternehmen ohne digitale Personalakte haben hier einen großen Aufwand, da die dafür zuständigen Personalabteilungen meist in einem mühseligen Prozess die zerstückelt geführten Personalakten, Gehaltsabrechnungen oder Berichte prüfen müssen.

Vieles hängt von der Art und Größe des Unternehmens ab

Einige Experten warnen, die Aufgaben im Zusammenhang mit der Verordnung zu unterschätzen. Die häufig vertretene Ansicht, dass die Erstellung eines Verarbeitungsverzeichnisses die Erfüllung der Richtlinien gemäß DSGVO bedeutet, ist leider nicht richtig. Ein Verarbeitungsverzeichnis ist zwar wesentlich, jedoch nur einer von mehreren Schritten der Umsetzung. Jedes Unternehmen muss also auch alle technischen und organisatorischen Maßnahmen zur Sicherung und zum Schutz der Daten umsetzen und auch dokumentieren. Nicht zu vergessen, die Einhaltung und Dokumentation aller Betroffenenrechte. Eine Lösung muss all diese Aspekte mitberücksichtigen und ganzheitlich erfüllen. In welchem „Detailgrad“ die Umsetzung auf Unternehmensebene erfolgt, hängt jedoch von der Art und Größe des Unternehmens sowie den verfügbaren Ressourcen ab. Entscheidend ist auch die Branche, da jede ihre ganz eigenen Anforderungen hat.

Von der Geschäftsführung bis hin zum Betriebsrat müssen die Verantwortlichen über die Regelungen und Veränderungen beim Datenschutz informiert und aktiv werden.

Zertifizierungen als Basis

Manche Unternehmen profitieren von bereits vorhandenen Zertifizierungen, etwa nach ISO 9001 oder ISO / IEC 27001. Diese Zertifizierungen dienen als Basis für ein Datenschutzmanagementsystem (DSMS), das die Compliance mit der EU-DSGVO gewährleistet. Ähnliches gilt für die Zertifizierung nach dem Standard BS 10012:2017. Trotzdem muss vieles noch angepasst werden im Hinblick auf die neuen Regeln.

Datenschutz als Querschnittsaufgabe

Wichtig sei es, darin stimmen Experten überein, das Thema EU-DSGVO als Querschnittsthema im gesamten Unternehmen zu verankern und das Bewusstsein der Mitarbeiter für diese Problematik zu schärfen. Vom Vorstand oder der Geschäftsführung bis hin zum Betriebsrat müssen die Verantwortlichen über die Regelungen und Veränderungen beim Datenschutz informiert und teilweise aktiv werden:

  • Vorstand und Geschäftsführung müssen die veränderte datenschutzrechtliche Praxis im Unternehmen kennen;
  • die IT-Abteilung muss prüfen, welche technisch-organisatorischen Maßnahmen für das geforderte Risk-Management notwendig sind;
  • die Finanzabteilung muss die Kosten berücksichtigen, die dem Unternehmen durch Anpassungsprozesse entstehen;
  • die Rechtsabteilung muss viele Verträge anpassen;
  • die Compliance-Abteilung muss die Risiken eines Verstoßes gegen die Verordnungen berücksichtigen – diese betreffen die außerordentlich hohen Bußgelder, aber auch den Vertrauensverlust, der bei Kunden, Lieferanten oder Mitarbeitern entstehen kann;
  • die Forschungs- und Entwicklungsabteilung muss schon bei einem frühen Projektstadium darauf achten, dass die datenschutzrechtlichen Grundsätze eingehalten werden;
  • für die Personalabteilung entsteht ein hoher Aufwand, da sie einerseits Mitarbeiterschulungen zum Thema organisieren, andererseits den Mitarbeitern auf Nachfrage nachweisen muss, wie ihre Daten geschützt werden; auch der Betriebsrat ist einzubinden.

Ist es sinnvoll, darüber hinauszugehen?

Vielleicht aber ist es sinnvoll, noch ein paar Schritte weiterzugehen. Die Einhaltung der EU-DSGVO-Compliance sollte Teil einer umfassenden Unternehmensphilosophie sein und von der Spitze her gelebt werden – damit ist das EU-DSGVO-Management Chefsache. Es sollte nicht einfach eine lästige Pflicht sein, denn immerhin geht es darum, das Image des Unternehmens in der Öffentlichkeit, bei gegenwärtigen und künftigen Mitarbeitern sowie bei Geschäftspartnern als verantwortungsvoll handelnde Organisation zu stärken. Dazu gehören auch ein umfassender Schutz der Daten und der sichere IT-Betrieb.

Die Risiken einer Verletzung des Datenschutzes sind groß und müssen im Einzelfall genau analysiert werden. Doch wie sieht es mit den Chancen aus? Zum Beispiel könnte ein gut umgesetztes Datenschutzmanagementsystem auch den Eintritt in Länder mit einem ähnlich hohen Datenschutzniveau deutlich erleichtern, wie z. B. Kanada oder Japan.

Echte Mehrwerte im Wettbewerb entstehen, wenn es gelingt, über entsprechende Maßnahmen und ihre Dokumentation Vertrauen zu schaffen. Zudem fördern transparente personenbezogene Daten die Automatisierung von Prozessen und treiben somit die Digitalisierung voran. Einige aktuelle Studien belegen, dass Unternehmen, die auf diesem Weg vorangegangen sind, sich bereits Vorteile verschafft haben. Es liegt also an den Unternehmen selbst, ob ihnen die EU-DSGVO mehr nutzt oder doch eher schadet. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Testen, entwickeln, forschen

In praxisnahen „Forschungsfabriken“ können neue Verfahren getestet werden – unter anderem am KIT in Karlsruhe.

Die TREND-REPORT-Redaktion sprach mit Prof. Dr.-Ing. Jürgen Fleischer, Institutsleiter des wbk Instituts für Produktionstechnik des Karlsruher Instituts für Technologie (KIT), über die neue Karlsruher Forschungsfabrik und „Company on Campus“.

Herr Prof. Fleischer, mit welchen Themen und Aufgaben beschäftigt sich Ihr Forschungsbereich?

Mein Forschungsbereich beschäftigt sich mit Maschinen, Anlagen und Prozessautomatisierung. Die Kernkompetenzen dieses Bereichs liegen in der Entwicklung und Auslegung von intelligenten, ressourceneffizienten Komponenten für Maschinen und Anlagen sowie in der Gestaltung flexibler, automatisierter Prozessketten. Neben den wesentlichen Kriterien wie Stückzahl- und Variantenflexibilität rückt der Umgang mit neuen, aber unreifen Technologien, in den Anwendungsfeldern Elektromobilität oder Leichtbaufertigung, in den Vordergrund. Zur Etablierung des Produktionsstandorts Deutschland ist die Entwicklung von Maschinen und Methoden für eine schnelle Industrialisierung von neuen, innovativen Produktionstechnologien essenziell.

Welche Aufgaben hat die „Karlsruher Forschungsfabrik“ im Kontext der neuen Technologien?

Die zunehmen­de Individualisierung und hohe Variantenviel­falt von Produkten sowie die Forderung nach neuen und komplexen Fertigungsprozessen stellen eine große Herausforderung an die produ­zierenden Unternehmen. Ziel der Karlsruher Forschungsfabrik ist es, neue Produktionstechnologien durch die interdisziplinäre Zusammenarbeit des Maschinenbaus und der Informatik schnell in sichere und profitable industrielle Fertigungsprozesse umzusetzen. Hierbei spielt die „Strategie Künstliche Intelligenz“ der Bundesregierung sicherlich eine wichtige Rolle.

Am „Campus-Ost“ des KIT, in unmittelbarer Nähe zum Fraunhofer IOSB und dem Karlsruher Technologiepark, entsteht auf rund 4 500 m² die neue Forschungsfabrik.
Bild: Heinle, Wischer und Partner Freie Architekten GbR

Allerdings kann die KI nur einen effizienten Mehrwert generieren, wenn sie intelligent mit dem domänenspezifischen Wissen von Produktionsexperten kombiniert wird. Zusätzlich sind für die oben genannten Herausforderungen neuartige Produktionsanlagen mit automatisierten Lösungen notwendig, sodass individualisierte Produkte mit kleinen Stückzahlen rentabel und flexibel fertigbar sind. Zur Erreichung dieses Ziels haben wir eine starke Kooperation zwischen dem wbk Institut für Produktionstechnik des KIT und den Fraunhofer Instituten ICT und IOSB etabliert.

Wie sehen die Anwendungsfelder der Forschungsfabrik hier aus?

Neben dem technologischen Wandel in der Mobilität durch die Transformation zu alternativen Antrieben, neuen Fahrzeugkonzepten, Geschäftsmodellen und Digitalisierung steigt der Bedarf an individualisierten, hochwertigen und gleichzeitig schnell verfügbaren Mobilitätsprodukten. Dies stellt hohe Herausforderungen an geeignete Produktionsverfahren gerade in den Anwendungsfeldern Elektromobilität und an die hybride Leichtbaufertigung.

Mit neuen Produkten sehr viel früher als bisher auf den Zielmärkten präsent zu sein … Sie versuchen gerade die „Time to Market“ insbesondere für kleine und mittlere Unternehmen im Kontext der neuen Technologien und Geschäftsmodelle zu verkürzen – wie und welche Unternehmen können sich daran beteiligen?

Ziel ist die Unterstützung der produzierenden Unternehmen und des Maschinenbaus, neue Produktionsverfahren schneller als bisher zu industrialisieren. Daraus resultiert für die Unternehmen auch gleichzeitig ein Wettbewerbsvorteil, indem sie ihre Produkte schneller an den Markt bringen können. Für die Kooperation mit Unternehmen haben wir das Konzept „Company on Campus“ entwickelt. Hier ist das Ziel, dass die Unternehmen mit den Partnern der Forschungsfabrik unter einem Dach in einer langfristigen Kooperation in sogenannten „Innovation Centern“ zusammenarbeiten. Hierfür gibt es zusätzlich moderne Büroarbeitsplätze, Konferenz- und Kreativräume in direkter Nähe zur Forschungsfabrik.

Für die Kooperation mit Unternehmen haben wir das Konzept ‚Company on Campus‘ entwickelt. Hier ist das Ziel, dass die Unternehmen mit den Partnern der Forschungsfabrik unter einem Dach in einer langfristigen Kooperation in sogenannten ‚Innovation Centern‘ zusammenarbeiten.

Welche Möglichkeiten und Vorteile bietet Ihr „Company on Campus“ für Unternehmen?

Die Karlsruher Forschungsfabrik bietet eine Plattform für den engen Austausch von Forschungsinstituten und den Unternehmen zu konkreten Entwicklungsfragen. Der Vorteil ist die Nutzung der Synergien aus der innovativen Forschung und den langjährigen Kompetenzen der Unternehmen. Zusätzlich strahlt der Standort Karlsruhe eine hohe Anziehungskraft für junge, hoch qualifizierte Mitarbeiter aus, sodass Unternehmen und Forschung davon profitieren. Neben dem Zugang zu jungen „Talenten“ aus dem Hochschulumfeld bietet die Kooperation in der Karlsruher Forschungsfabrik Potenzial für die Entwicklung neuer, disruptiver Technologien. Diese sind essenziell für die Zukunftssicherung der Unternehmen und des Produktionsstandorts Deutschland. //


Kontakt zum Interviewpartner

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Digitale Souveränität wahren

Soll sich KI auf breiter Basis durchsetzen, ist es notwendig, dass die Industrie und auch die Verbraucher Vertrauen in die Technologie gewinnen.

Die TREND-REPORT-Redaktion sprach mit Professor Holger Hanselka, Präsident des Karlsruher Instituts für Technologie (KIT) und Mitglied im Lenkungskreis der Plattform Lernende Systeme.

Herr Prof. Hanselka, welche Chancen bieten sich für den Standort Deutschland im Kontext neuer KI-Technologien?

Lernende Systeme, die auf Methoden und Technologien der künstlichen Intelligenz basieren, werden zunehmend zum Treiber der Digitalisierung in Wirtschaft und Gesellschaft. Man denke nur an Industrie 4.0, medizinische Diagnostik, autonomes Fahren sowie die Unterstützung von Rettungskräften in Katastrophengebieten. Das wirtschaftliche Potenzial dieser Systeme für Deutschland ist enorm: Bereits heute entstehen völlig neue Geschäftsmodelle, welche die traditionellen Wertschöpfungsketten drastisch verändern.

Aktuell ist die Herausforderung im Zusammenspiel von Wissenschaft und Wirtschaft, dass wir unser Wissen rasch für neue KI-Anwendungen und Geschäftsmodelle nutzen, denn lernende Systeme sind ein zentraler Wettbewerbsfaktor für die Zukunftsfähigkeit des Innovationsstandortes Deutschland.

Dies bietet Chancen für neue Unternehmen, kann aber auch zur Bedrohung für etablierte Marktführer werden, wenn diese nicht rechtzeitig reagieren. In Deutschland ist es unser erklärtes Ziel, dass künstliche Intelligenz dem Menschen dienen soll, nicht umgekehrt. So steht es auch in der KI-Strategie der Bundesregierung. Dies ist auch der Kerngedanke der Plattform Lernende Systeme, in der Politik, Wirtschaft und Wissenschaft zusammenarbeiten, um die Chancen, die KI bietet, bestmöglich für Deutschland zu nutzen.

Die deutschen Investitionen in KI-Technologien, im Vergleich zu den USA und China, fallen eher nüchtern aus. Wie können wir mit der Forschung am Ball bleiben?

In unserer Forschung zu Industrie 4.0, beim autonomen Fahren oder auch im Bereich der Entwicklung von lernenden Systemen für lebensfeindliche Umgebungen nehmen wir in Deutschland bereits einen Spitzenplatz ein. So halten deutsche Unternehmen weltweit die meisten Patente zum autonomen Fahren. Auch in der IT-Sicherheit, einer wichtigen Voraussetzung für Industrie 4.0, sind wir wissenschaftlich weit vorne. Beispielsweise erforschen wir am Karlsruher Institut für Technologie in unserem Kompetenzzentrum für IT-Sicherheit KASTEL, wie sich KI nutzen lässt, um gegen Angreifer gewappnet zu sein, und wie man sich gegen menschlich und künstlich intelligente Angreifer-Systeme wehrt.

Mit der zunehmenden Vernetzung von Unternehmen und öffentlichen Einrichtungen wächst auch deren potenzielle Verwundbarkeit durch Cyber-Angriffe.

Damit die Industrie Vertrauen in KI gewinnt, ist es erforderlich, dass wir die digitale Souveränität wahren können. Die Herausforderung im Zusammenspiel von Wissenschaft und Wirtschaft ist aktuell, dass wir unser Wissen rasch für neue KI-Anwendungen und Geschäftsmodelle nutzen, denn lernende Systeme sind ein zentraler Wettbewerbsfaktor für die Zukunftsfähigkeit des Innovations­standortes Deutschland.

Wie können wir mehr Start-ups im Kontext der neuen Technologien an den Start bringen und fördern?

Wichtig ist eine Gründerförderung auf allen Ebenen. Daher sieht die KI-Strategie der Bundesregierung konkrete Maßnahmen vor, um die Zahl der Gründungen im Bereich der KI zu erhöhen, von Beratungsangeboten bis hin zur Bereitstellung von Wagniskapital. Klar ist: Das Wissen, das wir aktuell in Deutschland haben, müssen wir in den Markt bringen, sodass es der Gesellschaft und Wirtschaft nutzt. Auch am KIT fördern wir massiv Ausgründungen.

Zwei Beispiele: Das 2016 gegründete Unternehmen „Understand ai“ mit Wurzeln am KIT kombiniert Machine Learning mit menschlicher Sorgfalt und bereitet mithilfe selbstlernender Algorithmen Daten für das autonome Fahren auf. „Things Thinking“ setzt KI ein, um große Textmengen in kurzer Zeit zu analysieren, was beispielsweise Wirtschaftsprüfern, Steuerberatern und Kanzleien weiterhilft. Wichtig ist, dass wir Gründern in jedem Schritt des Unternehmensaufbaus systematisch Beratungsangebote an die Hand geben. Dies bedeutet auch, dass wir im Sinne einer Kultur des Scheiterns gesellschaftlich anerkennen, dass junge Unternehmen auch von negativen Erfahrungen lernen und dadurch immer besser werden.

Wo befinden wir uns ungefähr im Entwicklungsprozess der „wirklichen KI“?

Wenn Sie mit „wirklicher KI“ die Unterscheidung von starker und schwacher KI meinen, dann bin ich der falsche Ansprechpartner, denn ich bin kein Informatiker und auch kein Philosoph. Aber als Ingenieur interessiert mich sehr, wie KI in unterschiedliche technische Entwicklungsprozesse einfließt und dort zu großen Veränderungen führt. Denn letztendlich ist es ja nicht die KI, die gesellschaftliche Veränderungen mit sich bringt, sondern die technischen Veränderungen in unterschiedlichen Anwendungsbereichen, die durch KI erreicht werden können. Und da sind die Veränderungen, die man heute schon durch den Einsatz von KI erreichen kann, durchaus schon beträchtlich.

Diesen Ansatz verfolgen wir ja auch in der Plattform Lernende Systeme, wo drei Arbeitsgruppen sich konkreten Anwendungsszenarien widmen, zu intelligenten Verkehrssystemen, zur Gesundheit und zu lebensfeindlichen Umgebungen.

Teilweise autonom fahrende Fahrzeuge sind bereits Realität.

Was wird in naher Zukunft zu erwarten sein?

Im autonomen Fahren werden wir gewaltige Fortschritte machen. Autos, die selbstständig einparken und die uns von A nach B bringen werden, sind ja bereits heute Realität. Fahrerlose Autos werden mehr und mehr unsere Mobilität prägen, die multimodal sein wird und verschiedene Verkehrsmittel kombiniert, idealerweise geplant mit einer App. Dies wird auch die Stadt- und Regionalentwicklung positiv beeinflussen, weil gerade auch ältere Menschen durch das fahrerlose Auto mobiler sind und nicht mehr zwingend in die Stadt ziehen müssen.

Genauso ist die intelligente integrierte Vernetzung der Produktion ein Prozess, der längst begonnen hat und sich in der globalisierten Welt mehr und mehr durchsetzen wird. Dies hat zur Folge, dass wir nicht in Ländergrenzen denken dürfen, sondern europaweit Strategien entwickeln müssen. Die jüngst verkündete Zusammenarbeit von Daimler und BMW beim autonomen Fahren ist ein wichtiges Zeichen, denn es geht darum, in Europa die Kräfte zu bündeln.

Wir müssen KI fest in die in­ge­nieurwissenschaftliche Ausbildung integrieren.

Auch werden sich Berufsbilder verändern. Das Weltwirtschaftsforum rechnet damit, dass schon bis zum Jahr 2022 weltweit rund 75 Millionen Arbeitsplätze durch Maschinen ersetzt werden. Gleichzeitig werden der Studie zufolge in den kommenden fünf Jahren 133 Millionen neue Stellen geschaffen, für die teilweise ganz neue Fachkenntnisse nötig sein werden, wie Datenanalysten, E-Commerce- und Social-Media-Spezialisten.

Dies bedeutet, dass bereits Schülerinnen und Schüler programmieren lernen und wir KI fest in die ingenieurwissenschaftliche Ausbildung integrieren müssen. Denn künftig werden wir KI in jedem Schritt der Entwicklung von neuen Produkten mitdenken müssen.

Wie könnten in Zukunft die neuen KI-Technologien unsere Netze und Anwendungen sicherer machen und welche Herausforderungen sind noch zu meistern?

Der Hackerangriff auf den Bundestag Ende des letzten Jahres und die Cyberattacke „Wanna Cry“ auf die Deutsche Bahn im Mai 2017 sind nur zwei Beispiele für Angriffe auf IT-Systeme des Staates und der Wirtschaft. Mit der zunehmenden Vernetzung von Unternehmen und öffentlichen Einrichtungen wächst auch deren potenzielle Verwundbarkeit durch Cyber-Angriffe.

KI kann die Sicherheit von IT-Systemen verbessern. Wir sollten aber darauf achten, nicht nur die Außengrenzen eines komplexen IT-Systems zu schützen, das reicht nicht aus. Denn wir müssen auch reagieren können, wenn ein Teil des IT-Systems von einem Angreifer übernommen wurde.

KI-Systeme können ihr Potenzial ausspielen, wenn es um die verlässliche Angriffserkennung geht. Eine Herausforderung besteht darin zu verstehen, warum eine KI dies oder jenes tut. Daher brauchen wir dringend weitere Forschung und Einblicke in die „Blackbox“ der KI, damit wir uns auf die Entscheidungen von KI-Systemen in kritischen Situationen verlassen können. //

Kontakt zum Interviewpartner

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Künstliche Intelligenz ohne Vorurteile

Die Datenqualität bestimmt die Leistungsfähigkeit selbstlernender Systeme.

von Andrea Martin

Künstliche Intelligenz (KI) kreiert Tausende neue Möglichkeiten und stößt Türen in digitale Welten auf, die vorher unerreichbar waren. Um bei diesem Fortschritt nicht den Anschluss zu verpassen, investieren viele Unternehmen derzeit kräftig in Funktionalitäten, die die neue Technologie mit sich bringt. Von Chatbots, die Unternehmen helfen, Gespräche mit ihren Kunden zu personalisieren, bis hin zu Systemen, die jahrzehntelanges institutionelles Wissen für einen Fachexperten sofort zugänglich machen. Die Wunderwaffe von intelligenten KI-Systemen: Dort Muster zu erkennen und intelligente Vorhersagen aus erhobenen Daten zu treffen, wo die kognitiven Fähigkeiten des Menschen nicht mehr ausreichen.

Laut einer aktuellen Studie von IDC haben gut ein Viertel der befragten Unternehmen in Deutschland bereits KI-Projekte umgesetzt. 69 Prozent wollen in den nächsten zwölf Monaten neue KI-Initiativen anstoßen. Gebremst wird diese Entwicklung allerdings von einem mangelnden Vertrauen in die „denkenden Maschinen“. Viele machen sich Gedanken, ob sie den Ergebnissen einer KI-Lösung vertrauen können und ob die neue Technologie auch allen rechtlichen Vorschriften entspricht. Im Zentrum steht dabei die Frage, ob und wie sich die Entscheidungen von selbstlernenden Maschinen nachvollziehen und überprüfen lassen.

Unfaire Verzerrungen in den Daten identifizieren

Die Vision ist simpel: Statt sich auf menschliche Annahmen zu stützen, beispielsweise bei der Kreditvergabe oder bei der Vorauswahl im Bewerbungsprozess, beziehen sich die lernenden Maschinen auf statistische Modelle aus einer Vielzahl von Datenquellen und Parametern. Das Problem dabei: Enthalten die Daten unbewusste Vorurteile, Stereotype und altmodische Rollenbilder, werden diese von den lernenden Algorithmen nicht nur übernommen, sondern noch zusätzlich verstärkt.

Vertrauens- und Transparenzprinzipien

  • Der Zweck einer KI ist es, die menschliche Intelligenz zu erweitern und zu unterstützen.
  • KI-Systeme müssen transparent und erklärbar sein.

  • Daten und Erkenntnisse gehören ihren Schöpfern bzw. den jeweiligen Unternehmen, die das KI-System nutzen.

Wenn Fotos und deren Beschriftungen Kochen überwiegend mit Frauen in Verbindung bringen, dann lernt die Software Kochen immer als Frauentätigkeit zu erkennen. Die Maschinen denken dann genauso in Rollenklischees wie wir Menschen. Mitarbeiter müssen KI-Lösungen und die resultierenden Ergebnisse während der Entwicklung, der Trainingsphase und im Betrieb genau beobachten. Ziel ist, statistische und systematische Fehler zu erkennen, ggf. Gegenmaßnahmen zu ergreifen und deren Effekt zu überwachen.

Vielfalt menschlicher Gesichter stellt KI auf die Probe

Die Herausforderungen beim Training von künstlicher Intelligenz zeigen sich besonders bei der Gesichtserkennung. Es ist nicht einfach, Gesichtserkennungssysteme zu entwickeln, die in puncto Fairness unseren Erwartungen entsprechen. Der Kern des Problems liegt dabei nicht in der KI-Technologie selbst, sondern in der Art und Weise, wie die KI-gestützten Gesichtserkennungssysteme optimiert und trainiert werden.

Wie funktionieren neuronale Netze? 

Neuronale Netzwerke sind Rechenmodelle für das maschinelle Lernen, die von der Struktur des menschlichen Gehirns inspiriert sind. Im Gehirn sind Neuronen hochgradig vernetzt und kommunizieren chemische Signale über Synapsen in den Nervenzellen.

Künstliche neuronale Netze kommunizieren Signale (Zahlen) über Gewichte und Aktivierungsfunktionen (z. B. Sigmoide), die Neuronen aktivieren. Sie werden anhand von Beispielen trainiert und nicht explizit programmiert: Mithilfe eines Trainingsalgorithmus passen die Netzwerke in jeder „Trainingsrunde“ diese Gewichte an, um ein bestimmtes Problem immer besser zu lösen – das Netz „lernt“.

Um die gewünschten, immer exakteren Resultate zu erzielen, müssen die Trainingsdaten vielfältig sein und eine enorme Bandbreite an Informationen abdecken. Nur so kann die KI die Nuancen erkennen, durch die sich Gesichter in verschiedenen Situationen voneinander unterscheiden. Die Trainingsbilder müssen diese unterschiedlichen Gesichtsmerkmale der Gesichter widerspiegeln.

Ein Großteil der Leistungsfähigkeit von KI kommt heute durch den Einsatz von immer präziseren datengetriebenen Deep-Learning-Optimierungseinheiten, die immer größere Datenmengen nutzen können, um KI-Systeme zu trainieren. Die Stärke dieser Methode kann aber wie in den Beispielen dargestellt gleichzeitig auch eine Schwäche sein. Denn KI-Systeme lernen, was ihnen beigebracht wird. Werden sie nicht mit soliden und vielfältigen Datensätzen optimiert, können die Ergebnisse verzerrt werden, damit die Fairness leiden und letztlich auch die Genauigkeit.

Andrea Martin, CTO IBM

Anhand dieser Trainings-Datensätze weiß man jedoch, auf welcher Datengrundlage die KI-Systeme lernen und Entscheidungen treffen. Wie genau die neuronalen Netze aber zu ihren Schlussfolgerungen kommen, lässt sich im Moment noch kaum nachvollziehen. Für Nutzer sind sie oftmals eine Blackbox – undurchsichtig und schwer zu erschließen.

Zu einer transparenten Offenlegung der Entscheidungswege von KI gehört, dass jede Vorhersage, jede Modellversion und jegliche Trainingsdaten dokumentiert und gespeichert werden – und damit Unternehmen bei der auditsicheren Einhaltung von Compliance-Richtlinien und der DSGVO unterstützt.

Andrea Martin

KI-Empfehlungen transparent nachvollziehen

Zu einer transparenten Offenlegung der Entscheidungswege von KI gehört, dass jede Vorhersage, jede Modellversion und jegliche Trainingsdaten dokumentiert und gespeichert werden – und damit Unternehmen bei der auditsicheren Einhaltung von Compliance-Richtlinien und der DSGVO unterstützt.

Das ist besonders in stark regulierten Branchen wie dem Finanz- und Gesundheitswesen oder auch in datenintensiven und -sensiblen Branchen wie der Automobil- oder der Pharmaindustrie relevant, in denen die Einhaltung der DSGVO und anderer umfassender Vorschriften erhebliche Hindernisse für eine breite Anwendung von KI darstellt.

Ohne Ethik gibt es kein Vertrauen

Die Debatte um eine verantwortungsvolle Entwicklung und Nutzung von KI in Deutschland wird inzwischen auch auf höchster politischer Ebene adressiert. Die Bundesregierung begreift künstliche Intelligenz als Schlüsseltechnologie, ist sich jedoch ebenfalls über die gesellschaftlichen und ethischen Implikationen bewusst. Die „Strategie Künstliche Intelligenz“ greift daher die zentralen Fragestellungen auf und wird auch in der Enquete-Kommission „Künstliche Intelligenz“ des Bundestages diskutiert. Sie soll einen Rahmen bilden, wie sich KI gemeinwohlorientiert entwickeln und einsetzen lässt.

Enquete-Kommission

  • Setzt sich aus 19 Mitgliedern des Deutschen Bundestages und 19 sachverständigen externen Expertinnen und Experten zusammen

  • Untersucht die Potenziale und den zukünftigen Einfluss von KI auf unser (Zusammen-)Leben, die deutsche Wirtschaft und die zukünftige Arbeitswelt

  • Erörtert sowohl die Chancen als auch die Herausforderungen von KI für Gesellschaft, Staat und Wirtschaft

  • In öffentlichen Kurzvorträgen umreißen Sachverständige theoretische und praktische Aspekte rund um KI

  • Sitzungen werden im Internet auf www.bundestag.de live (zeitversetzt) übertragen

Um KI-Systemen vertrauen zu können, müssen wir verstehen, warum sie die Entscheidungen treffen, die sie treffen. Die Entwicklung von KI darf kein Selbstzweck sein, sondern muss dem Menschen dienen. Hier bedarf es Leitlinien, Prinzipien und Werte, die eine KI einhalten muss – ähnlich dem Grundgesetz. Denn Vertrauen und Akzeptanz kann nur durch einen vertrauensvollen Umgang mit KI aufgebaut werden. //

Kontakt zur Autorin

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Das „Internet of Medical Things“ (IoMT)

E-Health-Innovationen machen unser Leben sicherer und gesünder – ein Milliardengeschäft.

Das Marktforschungsunternehmen Gartner erwartet bis 2020 weltweit 20 Milliarden vernetzte Medizingeräte, die im Krankenhaus 4.0, beim Arzt, im Smarthome oder in der Smart City zum Einsatz kommen. Der Gesamtwert des IoMT-Marktes in Europa betrug laut einer Studie von Deloitte letztes Jahr rund 12 Mrd. US-Dollar. 2020 sollen es 40 Mrd. sein. Auf dem Markt tummeln sich dabei nicht nur diverse Start-ups, sondern vor allem auch Big Player wie Siemens, Apple und Google bzw. die Alphabet-Tochter verily.

Vielfalt der Sensoren

Herzfrequenzsensoren erkennen Anzeichen eines Vorhofflimmerns, Beschleunigungssensoren registrieren schwere Stürze und schlagen Alarm. Sensoren sind heute in der Lage, nahezu jede Körperfunktion rund um die Uhr zu überwachen, machen unser aller Leben und vor allem das von Patienten leichter und sicherer. Diabetiker, Epileptiker und Herzpatienten werden schon gewarnt, bevor sie selber Anzeichen verspüren und Krankenhäuser und (Not-)Ärzte können frühzeitig alarmiert werden.

Viele Sensoren sind dabei heute so klein, dass sie einfach mit der Smartwatch getragen werden können. Für spezielle Anwendungen geht es auch noch kleiner bzw. filigraner. Sensoren auf Kontaktlinsen etwa sind in der Lage, anhand der Tränenflüssigkeit den Blutzuckerwert zu messen und zu übermitteln. Im Krankenhaus überwachen Sensoren dabei nicht nur Patienten, sondern auch medizinische Geräte. Diese lassen sich so nicht nur leicht lokalisieren, sondern auch rechtzeitig warten. Durch die Möglichkeiten einer Predictive Maintenance werden so Ausfallzeiten verhindert und Kosten gesenkt.

AR und VR

Durch Augmented Reality lassen sich komplette Eingriffe realitätsnah simulieren. Im echten OP erleichtern auf Datenbrillen projizierte Informationen das Operieren. Der Chirurg muss nicht mehr seinen Kopf zum Monitor heben, sondern kann sich komplett auf den Patienten konzentrieren. In Zukunft sollen Mediziner während einer Operation passgenau CT- und MRT-Bilder über den Patienten eingeblendet bekommen, um bestimmte Bereiche besser lokalisieren zu können.

Ein Forscherteam der RWTH und FH Aachen präsentierte im Juni eine 3-D-Betrachtung eines stark verlagerten Kiefergelenkbruchs mittels einer Virtual-Reality-Brille. Dabei wurde deutlich, wie hilfreich eine solche Darstellung für den Chirurgen bei der Planung seines Eingriffs sein kann. Natürlich ist diese Technologie auch während der fachärztlichen Ausbildung oder während des Studiums besonders vielversprechend.

Digitale Gesundheitsakte

Gesundheitsminister Jens Spahn will, dass ab 2021 Versicherte generell ihre Patientendaten auch per Handy oder Tablet einsehen können. Während die Techniker Krankenkasse und die AOK eine eigene Lösung anbieten, ist „vivy“ ein Gemeinschaftsprojekt diverser anderer privater und gesetzlicher Krankenkassen. Die App ist dabei elektronische Gesundheitsakte und persönliche Assistentin zugleich. Sie hilft bei der Einhaltung von Medikationsplänen oder erinnert an den nächsten Impf- / Vorsorgetermin. Welche Daten wann an wen übermittelt werden, entscheidet der Nutzer selbst. Auch soll technisch und organisatorisch sichergestellt sein, dass Krankenversicherungen keinen Zugriff auf persönliche Daten bekommen können. Akzeptanz und Vertrauen in derartige Produkte fehlt allerdings dennoch in breiten Schichten der Bevölkerung.

Sicherheitsbedenken

Vernetzte Geräte bilden naturgemäß eine Angriffsfläche für Hacker. Neben unseren Gesundheitsdaten kann dadurch auch unmittelbar unser Leben bedroht werden, bspw. wenn der Herzschrittmacher gehackt wird. Nach dem Medizinproduktgesetz müssen vernetzte Medizingeräte zwar besonders hohe Sicherheits- und Qualitätsauflagen erfüllen, doch absolute Sicherheit kann auch dadurch nie gewährleistet werden. Das Potenzial das Leben vor allem von Risikopatienten deutlich sicherer zu machen, scheint dabei aktuell die Risiken mehr als aufzuwiegen. Dies darf aber nicht dazu führen, verstärkte Sicherheitsmaßnahmen zu vernachlässigen. //


Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Investieren in Datenkompetenz

Daten werden immer mehr zur universellen Sprache – und Unternehmen, die sie beherrschen, werden erfolgreich sein.

von Bernhard Haselbauer

Der Job eines Data Scientists ist es, aus großen Datenmengen Informationen zu generieren und Handlungsempfehlungen abzuleiten, die das Unternehmen befähigen, effizienter zu arbeiten.

Doch was muss ein Data Scientist können und welche Skills sollte er mitbringen? Zum Beispiel muss er mit den unterschiedlichsten Datenbanksystemen zurechtkommen, doch meistens liegen die Daten nur unstrukturiert vor. Unternehmen arbeiten heute mit CRM-und ERP-Lösungen von Microsoft, SAP, Oracle und Co. Standardmäßig kommen in diesen Fällen relationale Datenbanken zum Einsatz. Demnach sollte ein Data Scientist SQL, „Structured Query Language“, in allen Abwandlungen beherrschen. Werden dann die Daten für die Analyse exportiert, fangen die ersten Schwierigkeiten schon an. Zusätzlich müssen immer mehr unstrukturierte Daten aus Social-Media-Kanälen und anderen Internetquellen analysiert werden.

Diverse Schnittstellen müssen in diesem Kontext bedient werden, um neue Erkenntnisse zu gewinnen. Und so geht es weiter mit Know-how über Verschlüsselungsverfahren, Datenbankanbindungen und das Echtzeitmanagement von Datenströmen. Data-Scientisten sind gefragter denn je, um die digitale Transformation im Unternehmen voranzutreiben. Doch der Markt für Spezialisten ist wie leergefegt.

Bildquelle Lizenz: Designed by macrovector / Freepik

Sich selbst zu helfen, scheint das Gebot der Stunde zu sein. Doch welche Möglichkeiten gibt es, die Datenflut zu meistern? Zum Beispiel muss die Datenanalyse nicht mehr zentral erfolgen, so kann der Self-Service-BI-Ansatz mehr Fachanwendern ermöglichen, selbst Berichte und Analysen zu erstellen. Die IT-Abteilung spart sich dadurch aufwendige Entwicklungsarbeiten für nur einmalig benötigte Auswertungen. Eine dezentrale BI legt die Analysen zur Entscheidungsfindung direkt in die Geschäftsbereiche. Daten und Analysefähigkeiten werden so in die Hände der Abteilungen und Führungskräfte übergeben, um mehr Agilität an den Tag zu legen.

Entscheider die sich zukunfts­fähig im Markt aufstellen wollen, sollten einen Blick auf ihre Daten werfen.

Die Lösungen haben inzwischen einen übersichtlichen und funktionalen Aufbau und sind in der Lage, Quelldaten aus diversen Datenbanken und Beständen einzubinden, auch über diverse Cloud-Infrastrukturen hinweg. Der Bezug von IT-Diensten im Self-Service für diverse BI-Tools hat sich als ausgesprochen produktiv und kostensparend erwiesen.

Fest steht, dass Unternehmen neue Erkenntnisse aus ihren verschiedenen Datenquellen und Datenbanken generieren können. Die Technologie dazu ist da. Moderne Data-Analytics-Lösungen ermöglichen es, Daten aus unterschiedlichsten Quellen miteinander in Beziehung zu setzen und zu erforschen. Dazu muss jedoch aus den verschiedenen Datenbanken eine Datenbank gemacht werden. Jetzt wird es möglich, Finanzdaten mit z. B. operativen Daten zu verknüpfen und daraus neue Entscheidungsgrundlagen zu ziehen. Ziel ist, Menschen durch assoziative Datenanalysen bessere Entscheidungsgrundlagen zur Verfügung zu stellen.

Das Wissen im Umgang mit Daten und Datenbanken muss mehr Verbreitung finden. Diesem Leitgedanken nimmt sich der „Data Literacy Index“ an. Der souveräne Umgang mit Daten ist für Organisationen aller Art und Größe bares Geld wert. Das geht aus einer neuen, weltweiten Studie des Data-Analytics-Spezialisten Qlik hervor. Erstellt wurde der Data Literacy Index durch die amerikanische Wharton School und das Institut IHS Markit.

Laut dem Index können große Organisationen ihren Wert um bis zu 500 Millionen Dollar steigern, wenn sie unternehmensweit und konsequent auf eine datenversierte Kultur setzen. „Es ist das erste Mal, dass die Datenkompetenz auf Unternehmensebene gemessen wird, was nicht nur die Datenkompetenz der Mitarbeiter des Unternehmens umfasst, sondern auch die Nutzung von Daten für Entscheidungen im gesamten Unternehmen“, so Lorin Hitt, Professor an der Wharton School der University of Pennsylvania. „Die Forschung deutet darauf hin, dass Datenkompetenz in Unternehmen eine Reihe von Aspekten umfasst, die sich gegenseitig verstärken und mit finanzieller Leistung verbunden sind.“

Europa hat laut der neuen Untersuchung den höchsten „Data Literacy Score“ aller Regionen, wobei Großbritannien, Deutschland und Frankreich zu den am weitesten fortgeschrittenen Nationen für „Corporate Data Literacy“ gehören. Zwar ist Singapur die datenkundigste Nation weltweit, regional betrachtet liegen die USA und APAC jedoch gleichauf mit einem geringeren Wert als Europa. Dies spiegelt eine größere Anerkennung wider, die europäische Entscheidungsträger offenbar für den Wert von Daten haben.

Denn 72 Prozent von ihnen bestätigen, dass diese „sehr wichtig“ sind – verglichen mit nur 60 Prozent in Asien und 52 Prozent in den USA. Das Maß für die Datenkompetenz von Unternehmen wurde von IHS Markit und einem Professor der Wharton School festgelegt. Es liegt auf einem Kontinuum, das auf den Datenkompetenzen der Mitarbeiter, datengetriebener Entscheidungsfindung und Datenqualitätsstreuung basiert. Eine Umfrage wurde entwickelt, um die drei Dimensionen der Datenkompetenz von Unternehmen zu messen. Antworten wurden mit passenden Skalen und Scores über alle Indikatoren hinweg standardisiert und aggregiert.

Megatrends wie Automatisierung, Robotik und künstliche Intelligenz bedeuten die vierte industrielle Revolution. Daten werden immer mehr zur universellen Sprache – und Unternehmen, die sie beherrschen, werden erfolgreich sein. Entscheider, die sich zukunftsfähig im Markt aufstellen wollen, sollten einen Blick auf ihre Daten werfen.

Übrigens bieten sich viele Weiterbildungsmöglichkeiten für Unternehmen und Mitarbeitende. Das Fraunhofer-Institut IAO zum Beispiel bietet für Führungs- und Fachkräfte sowie IT-Expertinnen und -Experten, die künstliche Intelligenz, maschinelles Lernen und Data Science verstehen möchten, Seminare an. Die Kurse geben einen Überblick über die nötigen Schritte bei der Durchführung von Datenanalysen mittels Methoden der künstlichen Intelligenz im Zeitalter von Big Data sowie die damit verbundenen Herausforderungen. Die Teilnehmenden erhalten eine Einführung in verschiedene Formen und Algorithmen des maschinellen Lernens und erhalten einen Überblick über deren Unterschiede sowie die jeweiligen Stärken und Schwächen. Praxisbeispiele und Tooldemonstrationen machen die vorgestellten Konzepte verständlich und nachvollziehbar. //


Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Health@Home.de

Die Digitalisierung verschiebt die Versorgung aus der Praxis in die Lebensräume des mündig werdenden Patienten.

von Prof. Dr. Roland Trill

Das digitale Gesundheitswesen lag in Deutschland viele Jahre in einem Dornröschenschlaf. Eine sich gegenseitig blockierende Selbstverwaltung, eine desinteressierte Politik hatten zur Folge, dass Deutschland hinsichtlich der Digitalisierung in Europa abgehängt wurde. Ein Indiz ist die über 10-jährige Verzögerung bei der Einführung der Elektronischen Gesundheitskarte.

2018: Ein Wendepunkt?

Prof. Dr. Ronald Trill

2018 könnte einen Wendepunkt markiert haben. Das zweite E-Health-Gesetz ist in der Vorbereitung – hoffentlich innovativer ausgelegt als der erste Versuch –, das elektronische Rezept ist noch für diese Legislaturperiode angekündigt. Die Krankenkassen überbieten sich mit der Entwicklung von Gesundheitsakten für ihre Versicherten und bieten Gesundheits-Coaches an. Die Ärzteschaft „schlachtet“ eine heilige Kuh: das Fernbehandlungsverbot.

Eine Einsicht hat sich wohl durchgesetzt (warum erst jetzt?): Die Digitalisierung des Gesundheitswesens ist alternativlos! Die auf das deutsche Gesundheitswesen zukommenden und bereits spürbaren Herausforderungen (steigender Versorgungsbedarf bei zunehmendem Kostendruck und Fachkräftemangel) werden sich mit den gegenwärtigen Strukturen nicht bewältigen lassen.

Veränderte Patientenrolle

Vor uns liegt ein Paradigmenwechsel. Die Rolle des Patienten wird sich Schritt für Schritt wesentlich verändern. Er wird Treiber dieser Entwicklung! Aus dem duldenden und passiven Kranken wird der aktive Patient, der Entscheidungen gemeinsam mit dem Arzt (oder den Vertretern anderer Gesundheitsberufe) treffen und diese auch verantworten will.

Diese Entwicklung hat bereits begonnen. Gesundheits-Apps sind auf allen neuen Smartphones vorinstalliert. Bürger messen zum Beispiel ihre körperlichen Aktivitäten oder informieren sich über Ernährungsfragen. Weitere häufig verwendete Wearables sind Kopfbänder, Smartwatches, diverse Sensoren in der Kleidung oder im Smartphone selber. Die Versorgung verschiebt sich aus der Praxis dorthin, wo der Patient sich aufhält, z. B. in seine Wohnung. Dieser Trend lässt sich mit dem Begriff „Health@Home“ gut umschreiben. In diese Kategorie fallen auch zwei der Telemedizin zuzurechnende Anwendungen: Die Telesprechstunde und das Telemonitoring.

Das Telemonitoring erlaubt es dem Patienten, orts- und zeit­unabhängig medizinische Parameter zu messen, entweder im Rahmen eines abgestimmten Therapieplanes oder aufgrund eigener Initiative.

Die Telesprechstunde findet bei Bürgern eine immer größere Zustimmung und auch Ärzte erkennen zunehmend die Vorteile. Das Telemonitoring erlaubt es dem Patienten, orts- und zeitunabhängig medizinische Parameter zu messen, entweder im Rahmen eines abgestimmten Therapieplanes oder aufgrund eigener Initiative. Am Beispiel der Volkskrankheit „Diabetes“ wird diese Entwicklung gut nachvollziehbar.

Veränderte Versorgungskonzepte

Vor 30 Jahren musste der Patient zur Blutentnahme in die Praxis. Die Besprechung der Befunde erfolgte dann, im besten Falle, direkt im Anschluss oder es musste ein weiterer Besuch eingeplant werden. Mit der Einführung mobiler Messgeräte und Stechhilfen verlagerte sich die Messung zum Teil in die Wohnung des Erkrankten. Er führte eine Liste mit seinen Messungen, die er bei seinem nächsten Arztbesuch mitnahm. In Verbindung mit dem Smartphone werden die Werte nun direkt erfasst und abgespeichert. Übersichtliche Auswertungen können leicht erstellt werden. Die Werte werden dem Arzt online übermittelt, sodass ggf. eine schnelle Reaktion erfolgen kann.

Kommen nun noch Anwendungen der künstlichen Intelligenz (= KI – auch ein Trend, insbesondere wenn man in die Landschaft der im Gesundheitswesen aktiven Start-ups schaut) dazu, so werden aktive Anpassungen im Therapieplan seitens des Patienten möglich. Analoge Szenarien ließen sich für andere chronische Erkrankungen darstellen, zum Beispiel bei Asthma oder kardiologischen Erkrankungen.

Bei Asthma ist auch schnell erkennbar, dass die Digitalisierung zur Qualitätssteigerung beitragen kann. Inhaler der zweiten Generation erfassten bereits online die verabreichte Menge des Wirkstoffs wie auch den Zeitpunkt der Einnahme. Nun zeigt ein Blick in die Praxis, dass gewünschte Ergebnisse zum Teil nicht erreicht wurden. Ein Grund dafür war die nicht sachgemäße Technik bei der Inhalation. Diese Schwachstelle behebt der Inhaler der dritten Generation. Mithilfe eines Sensors wird gemessen, ob die Positionierung korrekt ist. Sollte sie es nicht sein, gibt es (verbunden mit einer App) Hinweise, die es dem Kranken ermöglichen, sich zu schulen und seine Kompetenz zu verbessern.

Medical Apps

Der Schritt hin zu den Medical Apps (dann als Medizinprodukt zu betrachten) ist also bereits vollzogen, also solchen Apps, die unmittelbar im Diagnostik- und Therapieprozess Eingang finden. Die Entwicklungsgeschwindigkeit ist enorm. War lange Zeit tinnitracks (Therapie-App bei Tinnitus) das Vorzeigebeispiel, so gibt es in jedem Jahr eine große Zahl neuer Anwendungsgebiete und einzelner Anwendungen. Eine kleine Auswahl soll die Breite der Anwendungsszenarien skizzieren.

Mittlerweile gibt es auch in Deutschland einen „Symptom-Checker“, der diesen Namen verdient und sich durch seine Seriosität von solchen auf Webportalen abhebt. Komplexe Algorithmen, der Rückgriff auf große Datenbestände (Health-Analytics) und der Einsatz der KI führen zu guten Ergebnissen. Hier erhält der Patient die Anregungen und Hinweise, die er im Anschluss mit seinem Arzt besprechen kann.

Der Weg zum Lab@Home (als Teil der „Health-Infrastruktur“ des Patienten/Bürgers) ist nicht mehr weit.

Eine Analyse der Sprache kann verwendet werden, um z. B. bei psychisch Erkrankten bevorstehende kritische Episoden vorauszusagen und frühzeitig entgegenwirken zu können.

Programme verschaffen dem Patienten zum Beispiel in der Ergotherapie oder Physiotherapie Möglichkeiten, unabhängig vom Therapeuten Übungen durchzuführen und Korrekturen zu erhalten. Es handelt sich hier nicht um die „klassischen“ pauschalen Videos, sondern um individuelle Lernhilfen, die u. a. durch Sensoren oder Mustererkennung mithilfe von Bildern möglich werden (Anwendungsfelder z. B. Rückenschmerz, Parkinson, MS).

Der Weg zum Lab@Home (als Teil der „Health-Infrastruktur“ des Patienten/Bürgers) ist nicht mehr weit. Die Möglichkeiten, mit einem chipgroßen Wearable Blut abzunehmen und daraus wesentlich Werte zu generieren, werden auch die Labormedizin verändern.

Alle diese Entwicklungen lassen sich wie folgt zusammenfassen. Sie sind

  • mobil,
  • intelligent,

  • entscheidungsunterstützend und

  • kompetenzsteigernd für den Nutzer.

Digitalisierung als Wettbewerbsargument

Für die Krankenkassen ist, wie auch für den einzelnen Arzt, diese Flut neuer Entwicklungen kaum übersehbar. Sie stehen vor der Frage: Welche dieser Anwendungen sollen in die Regelversorgung, also in den ersten Gesundheitsmarkt, aufgenommen werden? Sie werden darauf schnelle Antworten finden müssen, denn es ist absehbar, dass der Versicherte den Zugang zu digitalen Services als einen Wettbewerbsparameter wahrnehmen und nutzen wird. Der aktive Patient wird zum maßgeblichen Treiber dieses Trends.

Kernaussagen

  • Nur durch Digitalisierung kann das deutsche Gesundheitswesen seinen Herausforderungen begegnen.

  • Telemedizin und Medical Apps finden Eingang in den Diagnostik- und Therapieprozess.
  • Krankenkassen stehen vor der Frage, welche neuen Anwendungen in die Regelversorgung aufgenommen werden sollen.

  • Die Gesundheitskompetenz muss verbessert werden, damit der Patient aktiv mitentscheiden kann.

Gesundheitskompetenz und E-Health-Literacy

Nun muss aber an dieser Stelle auch die Frage erlaubt sein, ob der Patient dazu fähig ist, die Technologien für seine Belange einzusetzen? Als aktiver Patient wird er nicht nur „blind“ der Technik vertrauen wollen, er will die Werte verstehen, sie einordnen können, um dann auf Augenhöhe mit dem Behandler über die bestmögliche Therapie zu sprechen. Um zum aktiven, das heißt, seine Gesundheit selbst gestaltenden Patienten zu werden, muss nicht nur die oben beschriebene Technik vorhanden sein – vielmehr ist auch die Gesundheitskompetenz (Health-Literacy) entscheidend. Damit ist die Fähigkeit gemeint, Erkenntnisse auf die eigene Krankheit bzw. Lebenssituation zu übertragen. Indem das Internet und die vielen Apps und Portale zur wichtigen Informationsquelle werden, tritt hier eine Forderung nach einer ausgeprägten E-Health-Literacy hinzu. Hierunter versteht man die Kompetenzen, die ein Patient benötigt, sich im Rahmen der digitalen Welt mit der Vielzahl von Informationen zurechtzufinden, deren Validität einschätzen sowie diese dann auch anwenden zu können.

Leider unterlässt es die Politik nach wie vor, einen entscheidenden Schritt in ein integratives Gesundheitswesen zu gehen.

Internationale Studien zeigen, dass Deutschland in beiden Kompetenzfeldern ebenfalls nur Mittelmaß darstellt. Die digitalen Services werden einerseits dazu beitragen, Gesundheitskompetenz zu entwickeln, setzen aber auch deren Existenz voraus. Daraus lässt sich folgern, dass große Anstrengungen notwendig werden, parallel zu der Implementierung digitaler Angebote Gesundheitskompetenz und E-Health-Literacy zu entwickeln. Hiervon profitieren nicht nur die Patienten, sondern auch die Gesundheitsdienstleister. Es gibt Belege dafür, dass Patienten mit hoher Gesundheitskompetenz zum Beispiel eine höhere Therapietreue aufweisen – mit positiven Effekten auch für die Wirtschaftlichkeit.

Verschlafen

Die beschriebenen Aktivitäten werden das deutsche Gesundheitswesen massiv verändern. Leider unterlässt es die Politik nach wie vor, einen entscheidenden Schritt in ein integratives Gesundheitswesen zu gehen: Die Einführung eines „Electronic Health Records“ (einrichtungsübergreifende Patientenakte) taucht in keiner Agenda auf. Aber genau diese Anwendung markierte in den Staaten mit fortschrittlichen digitalen Gesundheitswesen den Einstieg in ein neues Zeitalter. Dornröschen befindet sich wohl doch noch im Halbschlaf! //


Buchhinweis
Trill, R. (Hrsg.): Praxisbuch eHealth – Von der Idee zur Umsetzung, 2. Auflage, völlig neu überarbeitet, Stuttgart 2018


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Datenbasierte Geschäftsmodellinnovationen

Das IoT wird zum KI-Datenlieferanten: Durch die Algorithmen des maschinellen Lernens entstehen so neue Produkte, Prozesse und Services.

Im Interview mit der TREND-REPORT-Redaktion sprach Prof. Dr. Dr. Schildhauer, Principal Investigator am Weizenbaum-Institut für die vernetzte Gesellschaft, über das Veränderungspotenzial der mit dem IoT einhergehenden Datenmenge (Big Data).

Herr Prof. Schildhauer, inwieweit verändert die KI/AI (Künstliche Intelligenz/Artificial Intelligence) datenbasierte Geschäftsmodelle?
Es entstehen durch weiterentwickelte Algorithmen Chancen, bspw. durch maschinelles Lernen, Systeme zu entwickeln, die basierend auf großen Datenkontingenten helfen, Prozesse, Strukturen und Arbeitsabläufe in Unternehmen zu optimieren und zu steuern. Mit dem Hype-Begriff „Künstliche Intelligenz“ gehe ich in diesem Kontext noch sehr vorsichtig um. Aber sichtbar ist, dass neben maschinellem Lernen weitere Technologien wie Cloud Computing, IoT oder Additive Manufacturing ein wichtiger technischer Enabler für datenbasierte Geschäftsmodelle sind. So entwickeln sich in Deutschland in diesem Zusammenhang neue technologiebasierte Start-ups z. B. in den Sektoren Handel, Logistik, Gesundheit oder Mobilität.

Start-ups, aber auch etablierte Unternehmen entwickeln auf Basis großer Datensammlungen und entsprechender Algorithmen neue Geschäftsmodelle, die beispielsweise Vorhersagen auf künftige Bedarfe oder Nutzerverhalten analysieren und vorhersagen – Predictive Analytics. Insbesondere vollzieht sich der Wandel bei etablierten Unternehmen dort, wo zumeist auf der Ebene unternehmensinterner Prozessoptimierungen Potenziale aus der Analyse großer Datenmengen geschöpft werden. Dies kann im Versicherungsbereich (bspw. Vorhersage über Schadenrisiken aus Daten der Vergangenheit und aktuellen Wetter- und Verhaltensdaten) ebenso wie in Produktionsunternehmen (Predictive Maintenance) zur Anwendung kommen. Ob und wie sich aus diesen Innovationen tragfähige datenbasierte Geschäftsmodelle entwickeln, untersucht die Forschungsgruppe „Datenbasierte Geschäftsmodellinnovation“ am Weizenbaum-Institut für die vernetzte Gesellschaft – Das deutsche Internet-Institut.

Welche Innovationen werden mit diesen neuen Technologien möglich?
Das Innovationspotenzial erstreckt sich über die gesamte Wertschöpfungskette in Unternehmen und führt zu neuen Prozessen, Produkten, Services und Geschäftsmodellen in vielen unterschiedlichen Sektoren. Neben den bereits beschriebenen Beispielen aus Dienstleistungs- und Produktionsbranchen wird die Echtzeitanalyse riesiger Datenbestände mittels Big-Data-Analytics heute auch in der Krebsdiagnostik genauso eingesetzt wie in der personalisierten Werbung. Große Potenziale entstehen auch im Bildungsbereich, diesen untersucht die Forschungsgruppe schwerpunktmäßig.

Der Einsatz von Augmented Reality führt z. B. in der Berufsbildung dazu, dass Auszubildende verstärkt praktische Fähigkeiten durch virtuelle Simulationen erlernen, was vor allem bei riskanten und teuren Arbeitsschritten ein wichtiges Innovationspozential darstellt. Neue digitale Bildungsplattformen verändern den Lehr- und Lernprozess und machen diesen erstmalig messbar. So hat z. B. eine führende Plattform für Online-Kurse im Aus- und Weiterbildungsbereich mittels maschinellen Lernens einen Algorithmus entwickelt, der Teamleiter*innen aufzeigt, welche Kompetenzen Mitarbeiter*innen fehlen und mit welchen offerierten Online-Kursen diese erworben werden können. Auch kann die Sammlung von Verlaufs-, Abbruch- und Abschlussdaten der Lernenden auf Lernplattformen dazu genutzt werden, die Lernsysteme in Echtzeit an das Verhalten der Lernenden anzupassen (Learning Analytics).

Wir gehen der Frage nach, wie durch die Veröffentlichung von Datensätzen neue Geschäftsmodelle im Mobility-Bereich oder in der Bildung entstehen können.

Inwieweit beschäftigen Sie sich in Ihrer Forschungsgruppe mit den Themen IoT und IIot im Kontext datenbasierter Geschäftsmodellinnovationen?
Wir betrachten IoT zwar als Schlüsseltechnologie, aber eben als eine von vielen, die datenbasierten Geschäftsmodellinnovationen zugrunde liegt. Neben diesen Schlüsseltechnologien stehen bei uns vor allem drei Themen im Vordergrund, die parallel erforscht werden. Den ersten inhaltlichen Schwerpunkt setzen wir im Bereich Open Data und gehen der Frage nach, wie durch die Veröffentlichung von Datensätzen neue Geschäftsmodelle im Mobility-Bereich oder in der Bildung entstehen können. Dabei fokussieren wir besonders die Themen Datenschutz, Datenqualität und Datensicherheit. Darüber hinaus untersuchen wir, wie digitale Bildungsplattformen und die dort implementierten Learning Analytics zu neuen datenbasierten Geschäftsmodellen im Bildungssektor führen können.

Zu guter Letzt wird auch die Prozess­ebene von Geschäftsmodellinnovationen erforscht, um mögliche Systematisierungen abzuleiten und Innovations-Tools für die Praxis zu entwickeln. Ein Anwendungsfall bezogen auf IIOT untersucht in diesem Zusammenhang folgende Fragestellung: Da durch zunehmende Machine-to-Machine(M2M)-Kommunikation die Anforderungen an Menschen, die Produktionsprozesse in IIOT-ausgerüsteten Produktionsstraßen steuern, stark anwachsen, müssen diese Menschen mit neuartigen Lernsystemen ausgestattet werden, die ihnen erlauben, situativ und individuell am Ort des (Produktions-)Geschehens die Lerneinheit abrufen zu können, die gerade benötigt wird, um bspw. Fehler, die in der neuen IIOT-gestützten Produktion auftreten, schnell beseitigen zu können. Über die Produktionsstandort-übergreifende Sammlung von Daten (Big Data) können für wiederkehrende Fragestellungen bereits im Vorfeld Lern­einheiten angelegt werden, die den Menschen vor Ort helfen.

Welchen Stellenwert nehmen das IoT und IIoT ein, wenn es um zukünftige datenbasierte Geschäftsmodelle geht?
Im Zusammenhang mit dem IoT und IloT rückt das Konzept des Ökosystems in den Vordergrund. Hier reden wir über mit Sensoren ausgestattete Endgeräte, die digitale Daten generieren und miteinander austauschen. Gegenstände und Prozesse, die zuvor keine Daten generiert haben, werden auf einmal zu Datenlieferanten. Damit ist die IoT-Technologie, wie auch die zuvor thematisierte KI, ein weiterer technischer Enabler für datenbasierte Geschäftsmodellinnovationen. Mit den neuen Datenkontingenten werden die bestehenden unternehmerischen Ressourcen angereichert und es entstehen neue Bedarfe für Analyse-Tools, die aus Rohdaten handlungsrelevantes Wissen generieren. Vielfach bewegen wir uns hier im Bereich der Optimierung, vor allem in B2B-Bereichen wie der Logistik. Aber auch im privaten Bereich ist das IoT bereits angekommen, in Form von Selftracking und Smarthome-Devices. Smartwatches und andere Wearables sind längst in unserer Gesellschaft etabliert – eingebettet in ein Ökosystem digitaler Dienstleistungen.

Wie können in Unternehmen durch Design Thinking innovative IoT-Ideen entstehen?
Ein Kernprinzip von Design Thinking ist immer seine Ergebnisoffenheit und die konsequente Fokussierung auf die Verwender/Nutzer. Das begünstigt zunächst innovative Ideen in allen Industrien, weil vor allem der Prozess im Vordergrund steht und nicht so sehr die einzelne Branche oder die ihr zugrunde liegende Technologie. Dies kann als Stärke und als Schwäche auslegt werden. Für uns ist deshalb die wirklich spannende Frage in diesem Zusammenhang, inwiefern sich die Design-Thinking-Methodik durch die Einbindung großer Datenmengen erweitern lässt, um die spezifischeren Anforderungen von neuen datenbasierten Geschäftsmodellen zu erfüllen. Diesbezüglich gibt es in Deutschland schon erste Vorreiter, die sich z. B. auf Data Thinking spezialisieren, und auch unsere Forschungsgruppe am Weizenbaum-Institut für die vernetzte Gesellschaft – Das Deutsche Internet-Institut beschäftigt sich mit dieser Frage.

Inwieweit können Ausgründungen etablierter Unternehmen neue unternehmerische Strukturen für die Entwicklung datenbasierter Geschäftsmodelle schaffen?
Eine Ausgründung bietet neuen Ideen Platz zum Reifen. Das ist immer dann sinnvoll, wenn innerhalb einer Organisation neue unternehmerische Ideen generiert werden, die im derzeitigen Kerngeschäft keinen Platz finden, es entstehen Spin-offs. Mit dieser organisatorischen und oft auch räumlichen Trennung werden Innovationen davor bewahrt, an der gängigen Branchenlogik und der Performance des operativen Geschäfts gemessen zu werden – also jenen Paradigmen, die eine disruptive Innovation ja gerade auf den Kopf zu stellen versucht. Oftmals gehen diese Initiativen auf die Arbeit der Abteilungen für Forschung und Entwicklung in etablierten Unternehmen zurück, die sich heute mehr denn je mit digitalen und datenbasierten Innovationspotenzialen beschäftigen.

Was können etablierte Unternehmen von Start-ups lernen?
Sie können von ihnen lernen, dass Wandel keine Bedrohung ist, sondern eine Chance. Start-ups sind sehr gut darin, das zu betreiben, was Joseph Schumpeter schon vor über 70 Jahren als schöpferische Zerstörung bezeichnete, und gezielt Lücken zu besetzen, die sich zwischen etablierten Unternehmen und ihren bisherigen Kunden aufgetan haben. Sie bleiben neugierig, probieren auch unkonventionelle Ideen aus und richten den Blick eher nach außen als nach innen. Auch sind sie bereit, Erkenntnisse aus dem Markt schnell zur Veränderung des ursprünglichen Geschäftsmodells zu nutzen. Natürlich darf dabei nicht vergessen werden, dass die viel zitierte Flexibilität und Anpassungsfähigkeit der Start-ups vielfach ihrer prekären Lage geschuldet ist, geprägt von einem Mangel an unternehmerischen Ressourcen und oftmals auch an unternehmerischer Erfahrung. Und trotzdem ist es immer wieder bemerkenswert, wie sie sehr oft erfolgreich aus dieser Not eine Tugend machen. //

Zur Person Prof. Dr. Dr. Thomas Schildhauer

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Das IoT wird zum KI-Datenlieferanten: Durch die Algorithmen des maschinellen Lernens entstehen so neue Produkte, Prozesse und Services.

Enterprise Data Cloud

Die Grundlage für Big Data schaffen

von Daniel Metzger

Wer Digitalisierung sagt, muss auch Daten sagen – und zwar Big Data. Während sich die meisten Unternehmen über die Business-Vorteile von Big-Data-Analysen freuen, stellen die Technologie und die Infrastruktur dahinter oftmals eine Herausforderung dar. Denn Daten sind nicht gleich Daten, sie können strukturiert oder unstrukturiert sein und entweder von Menschen oder von Maschinen sowie Sensoren generiert werden. Um aus diesen Daten Informationen als Basis qualifizierter Entscheidungen zu gewinnen, benötigen Unternehmen Big-Data-Architekturen, die ihnen zuverlässige und vertrauenswürdige Einblicke in diese Daten ermöglichen.

Die Bedeutung von Daten ist in den letzten 20 Jahren enorm gestiegen. Die Vernetzung der Unternehmen, intern wie extern, das Entstehen und das Wachsen sozialer Netzwerke sowie der Beginn der Digitalisierung waren die ersten Treiber dieser Entwicklung. Entsprechend rückte das Speichern, Verwalten, Auswerten und Nutzbarmachen von Daten auf der Agenda immer weiter nach oben – nicht nur in den IT-Abteilungen, sondern auch im höheren Management, das die Bedeutung von Daten für ihren Geschäftserfolg erkannt hat. Diese Notwendigkeit zum Datensammeln hat zu einem explosionsartigen, exponentiellen Anstieg der Datenmengen geführt, wodurch sogenannte Data Lakes als primärer Bestandteil von Datenarchitekturen entstanden sind.

Die vorherrschende Meinung war, dass Unternehmen große Data Lakes entwickeln müssten, in denen sich praktisch alle Daten befinden würden. Doch mit dem Aufkommen der Cloud und immer besserer und leistungsfähigerer Cloud-Dienste begann eine neue Zeitrechnung. Statt alle Daten zentral zu sammeln, wurden diese mehr und mehr verteilt. Hinzu kommt, dass durch die Datenverteilung über mehrere Standorte und teilweise Unternehmen hinweg diese ständig in Bewegung sind – inner- und außerhalb von Rechenzentren sowie der Cloud.

Daten – Strukturiert, unstrukturiert und verteilt

Eine weitere Herausforderung ist, dass unterschiedliche Arten von Daten – wie strukturierte und unstrukturierte, Sensordaten, Lieferanten-, Kunden- und Mitarbeiter-Daten – in jedem der Daten-Cluster liegen können. Gleichzeitig werden aber miteinander verwandte Daten möglicherweise verteilt in unterschiedlichen Orten gespeichert. Beispielsweise kann ein Einzelhandelsunternehmen Preisinformationen zu seinen Waren in einem Rechenzentrum in Bangkok und gleichzeitig Kundeninforma­tionen in einem Rechenzentrum in Dublin speichern. Es gibt aber auch neuartige Daten von Sensoren im Internet of Things (IoT), die in einem Cloud-Service wie Amazon Web Services (AWS) oder Microsoft Azure einfacher zu speichern sind. Diese Art von Daten könnte auch „on premises“, also lokal, auf eigenen, unternehmensinternen Speicherlösungen abgelegt sein. Für zeitnahe und Echtzeitanalysen ist es mittlerweile deutlich einfacher, diese Informationen in der Cloud zu erfassen und zu analysieren, als zu versuchen, dies komplett im eigenen Rechenzentrum abzuarbeiten.

Letztendlich benötigen Unternehmen jedoch eine übergreifende Datenplattform, die alle Daten aus Rechenzentren und Cloud-Infrastrukturen integriert. Diese Plattform ist ständig über den Standort, den Zustand und die Art der Daten informiert und kann auch weitere Services, beispielsweise in Bezug auf Datenschutz und Compliance-Richtlinien, an verschiedenen Standorten bieten.

Die Essenz in den Daten

Mit der Entscheidung für eine passende Datenplattform haben die Unternehmen zwar einen wichtigen Schritt getan, um die erfassten Daten aus technischer Sicht zu analysieren, doch damit allein ist es bei weitem noch nicht getan

Letztendlich benötigen Unternehmen jedoch eine übergreifende Datenplattform, die alle Daten aus Rechenzentren und Cloud-Infrastrukturen integriert.

Daniel Metzger

Wichtig ist ebenfalls, dass das Unternehmen die richtigen Experten auswählt, die zu unterschiedlichen Zeiten der Datenverarbeitung einen qualifizierten Blick auf die Daten werfen. Dazu gehören unter anderem Data Stewards, die in der Lage sein müssen, festzustellen, welchen Datenquellen vertraut wird, sowie wichtige Informationen über jede Quelle bereitzuhalten – zum Beispiel: Wer hat sie erstellt?, wer hat sie geändert und vieles mehr. Diese Datenverwalter sollten in der Lage sein, die Bestimmungen über alle Data Depositories hinweg durchzuführen. Denn nur, wenn die Qualität der eingehenden, gesammelten Daten wirklich hoch ist, sind auch die darauf basierenden Analysen sinnvoll.

Daniel Metzger: „Mit der Entscheidung für eine passende Datenplattform haben die Unternehmen zwar einen wichtigen Schritt getan, um die erfassten Daten aus technischer Sicht zu analysieren, doch damit allein ist es bei weitem noch nicht getan.“

Das Gleiche gilt selbstverständlich auch für alle späteren Schritte, in denen Analysten und Datenwissenschaftler die Daten, die daraus gewonnenen Informationen und schließlich die abgeleiteten Erkenntnisse bewerten, in den richtigen Kontext stellen und in Entscheidungsgrundlagen für die Geschäftsführung einarbeiten. Nur wenn wirklich alle Schritte entsprechend qualifiziert ihren Beitrag zur Analyse leisten, werden aus Massendaten wertvolle Informationen.

Enterprise Data Cloud

All diese Anforderungen müssen bereits bei der Konzeption einer Big-Data-Plattform – oder, wie Cloudera es nennt, einer „Enterprise Data Cloud“ – berücksichtigt werden. Unternehmen, die einen digitalen Wandel durchlaufen, benötigen umfassende Analysemöglichkeiten in Public-, Private-, Hybrid- und Multi-Cloud-Umgebungen. Unternehmen brauchen die Agilität, Elastizität und Benutzerfreundlichkeit von Cloud-Infrastrukturen, aber auch die Möglichkeit, Analyse-Work­loads standortunabhängig laufen zu lassen – egal, wo sich die Daten befinden.
Auch offene Architekturen und die Flexibilität, Workloads in verschiedene Cloud-Umgebungen (Public oder Private) zu verschieben, spielen eine wichtige Rolle. Nicht zuletzt ist es wichtig, mehrere Analysefunktionen auf demselben Datensatz mit einem gemeinsamen Sicherheits- und Governance-Framework ausführen zu können, um den Datenschutz und die Einhaltung gesetzlicher Vorschriften hochzuhalten. All das sind keine „Nice to have“-Features, sondern grundlegende Anforderungen für Unternehmen, die Daten erfolgreich nutzen wollen.


Ein Beispiel aus der Praxis

Thomson Reuters ist eine weltweite Quelle für Nachrichten und Informationen für die Finanz-, Rechts-, Steuer- und Medienbranche. Mit dem Service „Reuters Tracer“ hilft das Unternehmen Journalisten dabei, echte von gefälschten Nachrichten auf Twitter zu unterscheiden. Dafür nutzt Reuters eine umfangreiche Datenanalyse mit maschinellem Lernen. So verarbeitet Reuters Tracer täglich rund 13 Millionen Tweets und bestimmt deren Wahrheitsgehalt und Relevanz mit einem „Newsworthiness Score“. Diese Lösung basiert auf der Datenplattform von Cloudera für maschinelles Lernen, um die Geschwindigkeit und Genauigkeit zu erreichen, die es für die Analyse von Tweets benötigt. Die Plattform ist darauf optimiert, den Inhalt der Tweets, die verwendete Sprache, das Verbreitungsmuster und vieles mehr zu betrachten, genau wie es ein Journalist tun würde. Aufgrund des integrierten maschinellen Lernens unterscheidet der Tracer im Laufe der Zeit immer genauer relevante und wahre von unwichtigen Tweets und solchen, die Lügen verbreiten. Mit Reuters Tracer hilft Thomson Reuters somit einerseits Journalisten und Unternehmen, mit einer sich schnell verändernden Nachrichtenlandschaft Schritt zu halten, und verbessert andererseits seine eigene Wettbewerbsfähigkeit. //


Mehr als 87 Prozent der Unternehmen haben eine geringe Data und Analytics Maturity.

Quelle: Gartner „Take Your Analytics Maturity to the Next Level“

Die vier wichtigsten Merkmale einer Enterprise Data Cloud

Hybrid und Multi-Cloud:
Um Unternehmen Flexibilität zu verleihen, muss eine Enterprise Data Cloud mit gleichwertiger Funktionalität innerhalb und außerhalb des Unternehmens betrieben werden können, wobei alle wichtigen Public Clouds sowie die Private Cloud unterstützt werden sollen.

Multifunktional:
Eine Enterprise Data Cloud muss die dringendsten Anforde­rungen an Daten und Analysen im Un­ter­nehmen effizient lösen. Das Bewerk­stel­ligen realer Geschäftsprobleme erfor­dert in der Regel die Anwendung mehrerer verschiedener Analysefunktionen, denen dieselben Daten zugrunde liegen. So basieren beispielsweise autonome Fahrzeuge auf Echtzeit-Datastreaming und maschinellen Lernalgorithmen.

Sicher und geregelt:
Eine Enterprise Data Cloud muss sicher und regelkonform sein und die strengen Anforderungen an Datenschutz, Governance, Datenmigration und Metadatenmanagement großer Unternehmen in allen ihren Umgebungen erfüllen.

„Open“:
Schließlich muss eine Enterprise Data Cloud auch offen sein. Das bedeutet nicht nur den Einsatz von Open-Source-Software, sondern auch offene Rechenarchitekturen und offene Datenspeicher wie Amazon S3 und Azure Data Lake Storage. Letztendlich wollen Unternehmen die Bindung an den Anbieter (Stichwort: „Vendor Lock-in“) vermeiden, um nicht von einem einzigen Anbieter abhängig zu werden. Offene Plattformen, offene Integrationen und offene Partner-Ökosysteme werden daher bevorzugt. Bei technischen Herausforderungen kann/muss das Unternehmen somit nicht nur vom Hersteller Support beziehen, sondern die gesamte Open-Source-Community kann zur Unterstützung beigezogen werden. Dies sichert nicht nur schnelle Innovationszyklen, sondern auch den eigenen Wettbewerbsvorteil.

Kontakt zum Autor


Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Blockchain & Finanzwirtschaft

Der Wegfall zwischengeschalteter Prüfinstanzen zwingt Banken, ihre Rolle in einem digital vernetzten Ökosystem zu überdenken.

von Christopher Weßels

Selten lagen Chancen und Bedrohung so dicht beieinander: Die Bewegung um Blockchain stellt zwar manches Geschäftsfeld der Finanzbranche in Frage. Doch auf der anderen Seite bietet das Blockchain-Modell der kollektiven Prüfung digitaler Transaktionen ohne externe Echtheitsbestätigung auch gänzlich neue Wertschöpfungsoptionen. Banken sollten sich daher lieber heute als morgen auf ihre neue Rolle in einem grundlegend veränderten Marktumfeld einstellen.

Blockchain wird meist in einem Atemzug mit Kryptowährungen genannt. Virtuelles Geld ist jedoch nur eines von vielen Beispielen für die neue Möglichkeit, praktisch beliebige digitale Güter ohne eine zwischengeschaltete Prüfinstanz zu besitzen und weiterveräußern zu können: So wie ein Bitcoin ohne Bank den Besitzer wechselt, so lassen sich in einer Blockchain auch digitale Verträge ohne Mitwirkung eines Notars beglaubigen. Solche bisher lokalen Echtheitsbestätigungen werden hier gleichsam digitalisiert, automatisiert und globalisiert. Dieses Prinzip ist mit der Blockchain ohne Weiteres auf jede beliebige digitale Dienstleistung übertragbar – z. B. auch auf den Handel mit Videos oder Musikdateien.

Echtheitsgarantie ohne externe Prüfinstanz

Doch was genau versteht man unter einer Blockchain? Zunächst einmal handelt es sich um eine verteilte Datenbank, die kontinuierlich fortgeschrieben und durch neue Datensätze – sogenannte Blöcke – erweitert wird. In solchen Blöcken werden digitale Transaktionen unterschiedlicher Art gespeichert. Was die Blockchain indessen von anderen verteilten Datenbanken unterscheidet, ist die Tatsache, dass sie von vielen Servern im Internet fälschungssicher betrieben wird. Dazu erhält jeder neue Datenblock einen digitalen Fingerabdruck seines Vorgängers: Statt Blöcke lediglich aufzureihen, werden sie per Fingerabdruck im Wortsinn verkettet. Daher der Name Blockchain.

Erzeugt werden die digitalen Fingerabdrücke mit kryptographischen Methoden, wobei eine sogenannte Hashfunktion für jeden Datenblock einen eindeutigen Hashwert als einzigartigen Fingerabdruck berechnet. Bei jedem Versuch, einen Datenblock nachträglich zu verändern, müssten folglich auch alle Nachfolger verändert werden. Da neue Blöcke parallel auf sehr vielen Teilnehmersystemen angefügt werden, hat ein Angreifer kaum eine Chance und dieser Manipulationsversuch würde auffallen. Es ist also die kollektive Prüfung in einem dezentralen Blockchain-Ökosystem, die eine Echtheitsgarantie für digitale Transaktionen ohne externe Beglaubigung erst ermöglicht.

Neues Modell für die organisationsübergreifende Zusammenarbeit

Jenseits von digitalem Besitz eröffnet das Prinzip der verteilten Transaktionsprüfung und Automatisierung insbesondere auch für die unternehmensübergreifende Zusammenarbeit via Internet vollkommen neue Perspektiven. Allerdings empfiehlt sich dafür eine besondere Blockchain-Spielart – nämlich eine sogenannte Consortium-Blockchain: Im Unterschied zu öffentlichen Blockchains à la Bitcoin & Co. ist die Teilnehmerzahl begrenzt und die Mitglieder kennen sich bereits. In diesem Fall kann auf rechenintensive Absicherungsfunktionen – wie bei Bitcoin & Co. – verzichtet werden. Vielmehr regelt in einer Consortium-Blockchain ein vorab ausgehandelter Konsensprozess, wer welche Aufgaben erfüllt. So kann zum Beispiel ein Konsortium aus 15 Banken per Konsens festgelegen, dass mindestens fünf Blockchain-Mitglieder die Echtheit jeder Transaktion parallel zu den daran beteiligten Instituten überprüfen.

Während bei traditionellen Business-Netzwerken Administratoren für die Kontrolle einer zentralen Datenbank zuständig sind, entfällt diese Funktion bei der dezentralisierten Blockchain. Nun übernimmt das Netzwerk den Konsensmechanismus und alle Daten werden bei jedem Nutzer identisch protokolliert.

Fremden bleibt der Zugang zu einer Consortium-Blockchain generell verwehrt. Mitglied kann nur werden, wen die Mehrheit der bisherigen Teilnehmer akzeptiert. Auf diese Weise sichert sich das Konsortium die Kontrolle über seine Blockchain. Ein weiterer Unterschied zur öffentlichen Variante: In einer Consortium-Blockchain lassen sich die Regeln zur Transaktionsverarbeitung weitaus flexibler gestalten und sehr genau an den jeweiligen Anwendungszweck anpassen. Denkbar sind künftig auch Mischformen von Public und Consortium-Blockchains, die miteinander interagieren können: Neben dem vertraglich geregelten Zusammenwirken mit bereits bekannten Partnern wären dann auch spontane Interaktionen ohne Vertragsverhältnis via Public Blockchain möglich.

Blockchains verändern das Marktumfeld

Welchen Einfluss haben Blockchains auf den künftigen Wettbewerb? Wer bei diesem Thema seinen Blick einseitig auf digitales Geld fixiert, nimmt vermutlich nur die – fraglos vorhandenen – Bedrohungen für traditionelle Player in der Kreditwirtschaft wahr: Verdrängt werden Banken beispielsweise aus Handelsgeschäften, deren Zahlungsströme zumindest partiell über eine Kryptowährung abgewickelt werden. Zudem überwindet virtuelles Geld im Internet spielend Ländergrenzen, sodass SWIFT als Monopolist für den grenzüberschreitenden Zahlungsverkehr in diesem Szenario überflüssig wird. Für Banken folgt dieser Schluss aber keineswegs. Denn digitale Münzen müssen irgendwann wieder in reales Geld – oder umgekehrt – umgetauscht werden. Überdies dürfte die Blockchain künftig auch ganz neue Bedarfsfelder generieren – zum Beispiel im Hinblick auf Blockchain-basierte Bürgschafts- und Finanzierungsmodelle.

Umso wichtiger erscheint es aus Sicht der Fiducia & GAD, dass sich die genossenschaftliche Finanzgruppe auf eine grundlegend veränderte Wettbewerbssituation einstellt: Volks- und Raiffeisenbanken müssen künftig in der Lage sein, an den digital vernetzten Geschäftsmodellen der Blockchain-Ära teilzuhaben. Und sie müssen dabei einen originären Mehrwert stiften.

Blitzfinanzierung per Blockchain

Start-ups träumen davon: Am Freitagabend wird eine Geschäftsidee im Netz gepostet, am Wochenende läuft die Finanzierungsrunde und am Montagmorgen ist das Kapital verfügbar. Klingt unrealistisch, ist aber möglich – und zwar mit einer Blockchain-Methode, die sich „Initial Coin Offerings“ (ICO) nennt.

Das Prinzip erinnert an eine initiale Wertpapieremission und funktioniert etwa folgendermaßen: Das Start-up erzeugt in der Blockchain digitale Token und verkauft sie wie digitale Aktien. Allerdings werden mit einem Token nicht unbedingt nur Unternehmensanteile erworben, sondern ebenso Kaufoptionen oder digitale Gutscheine, die einen Anspruch auf bestimmte Dienstleistungen begründen. Auch eine anteilige Gewinnausschüttung in Krypto-Geld ist via Smart Contract ohne Weiteres möglich.

ICOs beschleunigen die Bereitstellung von Kapital für die Umsetzung innovativer Ideen – und kurbeln damit das Innovationstempo an. Attraktiv ist dieses Modell inzwischen nicht nur für Start-ups, sondern zum Beispiel auch für Projektfinanzierungen bei etablierten Unternehmen.



Großes Potenzial für Prozessverbesserungen

Noch lässt eine überzeugende „Killerapplikation“, an der die Richtung der künftigen Entwicklung ablesbar wäre, auf sich warten. Doch Abwarten ist für den genossenschaftlichen IT-Dienstleister keine Option. Vielmehr evaluiert die Fiducia & GAD bereits seit geraumer Zeit das Potenzial und die Erfolgsfaktoren des Blockchain-Modells in der Finanzwirtschaft.

Sinnvoll erscheint der Blockchain-Einsatz beispielsweise, wenn es um Prozesse geht, deren besonders hohe Legitimierungsansprüche ihrer Digitalisierung bislang im Wege standen: Statt Unterschrift und Stempel auf Papier könnte in solchen Fällen die verteilte Transaktionsverarbeitung einer Blockchain für den notwendigen Echtheitsnachweis sorgen. Überdies werden Transaktionen in der Blockchain nicht nur gespeichert, sondern nach dem Verkettungsprinzip in all ihren Phasen permanent fortgeschrieben und damit auch protokolliert. Demnach können alle Teilnehmer jederzeit die komplette Historie einer jeden Transaktion nachvollziehen. Die Blockchain verspricht somit ein bisher nicht gekanntes Maß an Verbindlichkeit und Transparenz. Gleichzeitig ermöglicht das Modell der verteilten Transaktionsverarbeitung signifikante Effizienzsteigerungen – zum Beispiel, weil der Aufwand für periodische Synchronisationen wie Monats- oder Tagesabschüsse entfällt.

Auf qualitativer Ebene wirkt sich die Blockchain insbesondere auf übergreifende Prozesse aus. Denn gemeinsame Regeln, Definitionen und Ablaufmodelle führen fast zwangsläufig zu einer Vereinheitlichung der Transaktionsabwicklung – und damit auch zu einer höheren Prozessqualität. Nicht zuletzt verbessert die Blockchain auch die Stabilität organisationsübergreifender Prozesse. Denn die Arbeitsfähigkeit der verteilten Blockchain-Datenbank leidet unter einem eventuellen Systemausfall bei einem oder sogar mehreren Teilnehmern nicht.

Resümee

Der Wesenskern der Blockchain kreist um ein vernetztes Kollektiv, das klar definierte Leistungen nach vorgegebenen Regeln ohne eine externe Kontrollinstanz erbringt. Wie das Notarbeispiel zeigt, werden vormals lokale Beglaubigungsfunktionen durch Vernetzung gleichsam globalisiert. Vor diesem Hintergrund gilt es heute, klassische Bankkompetenzen neu zu interpretieren – wobei der Fokus weniger auf tradierten Geschäftsmodellen, sondern vielmehr auf künftig veränderten Kundenbedürfnissen liegen sollte. Obwohl das Zeitalter digital vernetzter Ökosysteme erst in Umrissen sichtbar wird, steht eines schon heute fest – nämlich: dass die Blockchain die Erwartungen der Kunden von morgen massiv verändern wird. //

Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

KI für die Arbeitswelten der Zukunft

Wie werden Interaktionen zwischen Menschen und Maschinen den
Arbeitsplatz in Zukunft beeinflussen? Ein Expertengespräch.

Die TREND-REPORT-Redaktion sprach mit Prof. Dr.-Ing. Barbara Deml, Institutsleiterin des Instituts für Arbeitswissenschaft und Betriebsorganisation (ifab) des KIT, über das Thema Mensch-Maschine-Interaktion.

Frau Prof. Deml, mit welchen Themen und Aufgaben beschäftigt sich Ihr Forschungsbereich?

Wie muss ein Assistenzsystem gestaltet sein, um ein Operationsteam richtig zu unterstützen? Wie viele Videobilder kann jemand, der in der Leitwarte eines Kraftwerks arbeitet, gleichzeitig auswerten, ohne dass er dabei überfordert ist? Welche Erwartungen haben Mitarbeiter in der Produktion an einen Roboter, mit dem sie zusammenarbeiten? Wie muss sich ein automatisches Fahrzeug verhalten, damit menschliche Verkehrsteilnehmer oder Passagiere es akzeptieren? Mein Forschungsbereich scheint zunächst sehr breit zu sein.

Alle Themen haben aber eine wesentliche Gemeinsamkeit: Es geht immer um Arbeit und den Menschen dabei. Ich erforsche, wie Men-schen mit Maschinen zusammenwirken und auch, wie Menschen miteinander arbeiten. Interessant sind dabei immer auch die Arbeitsbedingungen und deren Folgen für den Menschen. Mein Ziel ist es, Arbeit so zu gestalten, dass sie menschengerecht, technisch funktional und wirtschaftlich effizient ist.

Wie werden die Arbeitswelten der Zukunft aussehen?

In der Forschung stehen zurzeit lernende Systeme hoch im Kurs. Sicher sind hier in den nächsten zehn Jahren Innovationen zu erwarten, die unsere Arbeit maßgeblich beeinflussen: Wo heute menschliche Dienstleistung zu finden ist, mögen das eine oder andere Computerprogramm oder ein Roboter den Dienst antreten. Expertensysteme können uns helfen, Krankheiten oder Umweltkatastrophen exakter vorherzusagen. Vielleicht wird es deshalb manche Berufe gar nicht mehr geben: Braucht man noch einen Reisekaufmann, um seinen Urlaub zu buchen? Vielleicht bekommen andere Berufe auch eine neue Bedeutung: Ist es nicht Luxus, anstelle eines Computers einen menschlichen Berater um sich zu wissen?

Vorstellen kann man sich heute viel. Es ist deshalb sicher auch kein Zufall, dass Sie nicht nach der „Arbeitswelt der Zukunft“ gefragt haben, sondern sich im Plural für „Arbeitswelten“ interessieren. Das macht deutlich, dass mehrere Varianten realistisch denkbar sind und es auch an uns ist, diese zu gestalten.

Unsere Arbeitswelt wird sich schneller und öfter verändern, als das in den letzten Jahrzehnten der Fall war. Für Arbeitnehmer heißt das, dass sie vielleicht gar nicht mehr fest zu einer Organisation gehören.

OK. – Digitalisierung, künstliche Intelligenz und Robotik werden in unserem Alltag Einzug halten. Doch auf was genau müssen wir uns als Arbeitnehmerinnen und Arbeitnehmer einstellen?

Neben neuen Technologien werden wir uns vor allem auf andere Arbeitsbedingungen einstellen müssen: Unsere Arbeitswelt wird sich schneller und öfter verändern, als das in den letzten Jahrzehnten der Fall war. Für Unternehmen bedeutet das, dass sie flexibler und schlanker werden müssen. Für Arbeitnehmer heißt das, dass sie vielleicht gar nicht mehr fest zu einer Organisation gehören. Sie werden zum Teil ihre Dienstleistung auf Plattformen anbieten und zeitlich befristet für den ein oder anderen Auftraggeber tätig sein. Das kann unsere Arbeitszeiten massiv beeinflussen, unser Verständnis von Unternehmenskultur obsolet machen, und es verlangt von Führungskräften ganz andere Managementkompetenzen. Diese Punkte müssen auch gesellschaftspolitisch adressiert werden und wir müssen zum Beispiel Arbeitsschutz neu denken.

Was sollte uns Sorge bereiten?

In Vorträgen erlebe ich immer wieder, dass viele Menschen beunruhigt auf die vor sich gehenden Veränderungen blicken. Arbeit ist so zentral für die meisten von uns; wir definieren uns oft ganz maßgeblich darüber. Ich kann also sehr gut verstehen, dass die disruptiven Veränderungen, von denen immer die Rede ist, uns wirklich Angst einjagen. Ich sehe aber gleichzeitig wenige, die wirklich mitgestalten wollen, wie eine „Arbeitswelt 4.0“ aussehen soll und wie nicht. Ich glaube, Politik und Wissenschaft müssten hier andere Möglichkeiten zur Mitbestimmung schaffen, als wir sie heute kennen. Sollten sich die Betroffenen nicht einbringen wollen oder können, würde mir das echte Sorgen bereiten.

Welche Fähigkeiten werden erforderlich sein und wo ergeben sich eventuell ganz neue Möglichkeiten?

Man kann sich fragen: Worin sind wir Menschen wirklich gut, was können wir besser als Maschinen? Soziale und kreative Fähigkeiten gehören sicherlich dazu, genauso aber auch die Fähigkeit, umfangreiches Kontextwissen zu integrieren. Damit Deutschland Schritt halten kann, muss es aber vor allem auch Menschen geben, die in der Lage sind, die lernenden Systeme, von denen immer die Rede ist, zu entwickeln. Naturwissenschaftliche und technische Kompetenzen, aber auch analytische Fähigkeiten, sind bestimmt sehr wichtig.

Ich gehe auch davon aus, dass sich unsere Arbeitsbedingungen verändern. Wir brauchen also auch Selbstkompetenzen, um uns zu organisieren und auch zu sagen, was wir wollen und was wir nicht wollen. Das gibt uns als Gesellschaft aber auch die Möglichkeit, insgesamt mündiger und selbstbestimmter zu werden.

In zukünftigen Arbeitswelten werden Computer menschliche Emotionen deuten können.

Welche Chancen und Risiken hat die Gestaltung künftiger Mensch-Maschine-Systeme?

Eine wichtige Chance ist sicherlich, dass Mensch-Maschine-Systeme noch potenter sein werden. Wir werden mit dieser Unterstützung unsere Arbeit wahrscheinlich viel besser ausführen, als das heute der Fall ist. Trotzdem werden die Systeme größtenteils relativ intuitiv sein. In vielen Bereichen besteht daher keine Gefahr, Menschen „abzuhängen“; wir könnten eine hohe Beteiligung realisieren. Denken Sie nur einmal daran, was Sie bereits heute mit Ihrem Mobiltelefon alles tun können.

Die „Risiken und Nebenwirkungen“, die mit künftigen Mensch-Maschine-Systemen assoziiert sind, werden in der Öffentlichkeit sehr aufmerksam diskutiert. Ich möchte mich daher auf zwei beschränken: Wenn Maschinen immer mehr Aufgaben für uns übernehmen, besteht die Gefahr, dass wir selber wichtige Kompetenzen verlieren und von technischen Systemen abhängig werden. Ein potenzielles Risiko besteht auch darin, dass Nutzer oftmals viele Daten von sich Preis geben und wir hier hohe rechtliche und ethische Standards brauchen.

In unseren Forschungen spielt die Analyse von Körperbewegungen, vor allem von Augen- und Blickbewegungen, eine wichtige Rolle.

Sie bringen gerade Maschinen bei, die körperliche Verfassung sowie die Gemütszustände von Menschen zu erfassen und sich entsprechend zu verhalten. Können Sie uns einige Beispiele dazu nennen?

Was machen wir, wenn ein Kollege gestresst ist? Wir verhalten uns entsprechend und versuchen nicht, noch mehr Stress zu verursachen. Genau das sollten auch Maschinen tun. Wenn ein Roboter erkennt, dass ein Mensch mental oder körperlich beansprucht ist, sollte er sich anders verhalten und Hilfe anbieten oder unterstützen. Für uns besteht die Herausforderung heute vor allem darin, Verhaltensabsichten oder relevante Zustände, wie Müdigkeit oder Emotionen, zuverlässig zu erkennen.

Menschen tun das ständig, und uns ist oft gar nicht bewusst, wie wir das machen. Wenn man diese Fähigkeiten für eine Maschine beschreiben möchte, müssen wir menschliches Verhalten besser verstehen. Was verändert sich in unserem Verhalten, wenn wir müde oder ratlos sind und eine bestimmte Assistenz benötigen? In unseren Forschungen spielt die Analyse von Körperbewegungen, vor allem von Augen- und Blickbewegungen, eine wichtige Rolle, aber auch physiologische Parameter, wie die Herzaktivität oder die Hautleitfähigkeit, sind relevant. //

Kontakt zur Autorin

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Personalauswahl 4.0?

Künstliche Intelligenz in der Personalauswahl – Mehr Schein als Sein

von Uwe Peter Kanning

Die Personalauswahl gehört zu den wichtigsten Investitionsentscheidungen eines jeden Unternehmens. Seit mehr als 50 Jahren beschäftigt sich die Psychologie in der Forschung mit der Frage, wie gute Personalauswahlverfahren gestaltet sein müssen. Pro Jahr erscheinen inzwischen mehr als 800 wissenschaftliche Publikationen rund um dieses Thema. Ein Blick in die Praxis zeigt allerdings, dass die meisten der gewonnenen Erkenntnisse hier nicht einmal ansatzweise umgesetzt werden (Kanning, 2015). Die wenigsten Unternehmen haben in ihrer Personalabteilung ausgebildete Diagnostiker. In einem solchen Markt ist es vergleichsweise einfach, auch wertlose Methoden erfolgreich zu vertreiben. Seit wenigen Jahren sind Themen wie „Big Data“, „künstliche Intelligenz“ oder „Digitalisierung“ in Mode gekommen. Die Anbieter entsprechender Technologie befinden sich in einer Art Goldgräberstimmung. Man bietet völlig undurchsichtige Instrumente an und kann blind davon ausgehen, dass die Kunden sich in der Materie noch weniger auskennen als die Berater, die ihnen die Produkte verkaufen.

Die Bandbreite der Produkte ist sehr groß. Manche Anbieter schicken ihre Computerprogramme los, um in den sozialen Medien selbstständig nach geeigneten Bewerbern zu suchen. Andere analysieren die geschriebene Sprache der Bewerber, indem sie eine Software über das Anschreiben laufen lassen. Deutlich komplexer ist da schon der Ansatz, mit Interviews zu arbeiten. Hierbei werden den Bewerbern z. B. belanglose Fragen gestellt, ehe eine Software analysiert, welche Worte, wie häufig, in welcher Betonung etc. gesprochen wurden, und hieraus Persönlichkeitsprofile erstellt. Wem dies nicht reicht, der nutzt die Software eines amerikanischen Anbieters, die nicht nur die Sprache, sondern gleich auch das Aussehen, die Mimik u. Ä. deutet. Zu guter Letzt gibt es erste Anbieter, die den Computer Einstellungsinterviews komplett allein führen lassen, wobei der Rechner nicht nur die Fragen stellt, sondern auch gleich die Antworten interpretiert. Schauen wir uns im Folgenden die Probleme der einzelnen Ansätze an.

Aussagekraft von Informationen aus sozialen Netzwerke

Soziale Netzwerke liefern Informationen über verschiedene berufsbiografische Fakten, aber auch über private Aktivitäten. Seit Jahren zeigt die Forschung, dass biografische Fakten nur sehr eingeschränkt zur Personalauswahl geeignet sind (Kanning, 2018a). Freizeitaktivitäten verraten ebenso wenig über die Persönlichkeit eines Menschen wie Lücken im Lebenslauf. Die Dauer der Führungserfahrung sagt nichts über deren Qualität. Die Länge der Berufserfahrung steht zu gerade einmal sieben Prozent in einem systematischen Zusammenhang zur Qualität der beruflichen Leistung. Deutlich anders sieht es aus, wenn wir uns die Vielfalt und Inhalte der Erfahrungen anschauen. Die stellenspezifische Interpretation der Erfahrungsvielfalt dürfte allerdings durch einen Computer kaum kostengünstig möglich sein.

Das vielleicht wichtigste Problem des Einsatzes künstlicher Intelligenz besteht jedoch im ‚Black-Box-Prinzip‘.

Deutung von Anschreiben

Die Deutung von Anschreiben durch den Computer läuft komplett ins Leere. Dies hat nicht zuletzt damit zu tun, dass heute zwei Drittel der Bewerber ihre Anschreiben nicht mehr selbst formulieren (Kanning, 2017). Wenn die überwiegende Mehrheit der Bewerber mit vorgestanzten Vorlagen arbeitet, die nur noch geringfügig überarbeitet werden, kann das Anschreiben nichts mehr über einzelne Menschen aussagen. Studien, die sich mit der Frage beschäftigen, ob die Gestaltung von Bewerbungsunterlagen (Tippfehler, Darstellung eigener Stärken, Bewerbungsgründe etc.) etwas über die Persönlichkeit von Bewerbern verrät, kommen folgerichtig auch zu negativen Befunden (Kanning, Budde & Hüllskötter, 2018).

Deutung von Physiognomie und Mimik

In der Physiognomie eines Menschen stecken keine Informationen, die Auskunft über seine berufliche Eignung geben könnten. Die Mimik verrät etwas über aktuelle Gefühlszustände. Dies ist etwas völlig anderes als die Aussage über Eigenschaften, die für den Beruf von Bedeutung sein könnten. Schon aus diesen Gründen ist eine Deutung von Physiognomie und Mimik durch den Computer völlig sinnlos.

Deutung der gesprochenen Sprache

Studien, die untersuchen, inwieweit in der Sprache eines Menschen Hinweise auf dessen Persönlichkeit zu finden sind, zeigen durchaus positive Befunde. Die Zusammenhänge sind jedoch so gering, dass sie sich nicht zur Personalauswahl eignen. Die wissenschaftlich belegten Zusammenhänge sind deutlich geringer als die Zusammenhänge, die von Anbietern entsprechender Softwarelösungen verbreitet werden. Doch selbst wenn die Angaben der Anbieter stimmen, ergibt sich ein ganz anderes Problem (Kanning, 2018b): Nehmen wir einmal an, die Sprache wäre in der Lage, zu 50 Prozent die Gewissenhaftigkeit eines Menschen zu erklären. Nun stellt sich die Frage, wie wichtig die Gewissenhaftigkeit für die spätere berufliche Leistung ist. Ein Blick in die Forschung zeigt, dass dies im Durchschnitt nur zu etwa 5 Prozent der Fall ist. Mit anderen Worten, die Sprachanalyse wäre in der Lage, über die Deutung der Gewissenhaftigkeit zu bestenfalls 2,5 Prozent die berufliche Leistung zu prognostizieren. Dies ist absurd wenig. Ein herkömmlicher Intelligenztest wäre um den Faktor 10 besser.

Durchführung von Interviews durch den Computer

Einstellungsinterviews werden nachweislich umso aussagekräftiger, je stärker sie einen engen Bezug zu den Anforderungen des Arbeitsplatzes herstellen. Die Grundlage eines guten Einstellungsinterviews bildet daher eine stellenspezifische Anforderungsanalyse. Aus dieser Anfangsanalyse werden die zu untersuchenden Kompetenzen abgeleitet. Die später im Interview zu stellenden Fragen beziehen sich auf Situationen aus dem Berufsfeld und die Antworten werden vor dem Hintergrund der Anforderungsanalyse bewertet. Auch hier stößt der Computer an seine Grenzen, weil er beispielsweise nur Standardfragen stellen kann und die Antworten nicht stellenspezifisch auswertet.

Jenseits dieser Probleme der einzelnen Ansätze gibt es auch einige grundlegende Probleme. Dies gilt zum Beispiel für die fragwürdige Ethik der Methoden. Zum einen ist es nicht akzeptabel, dass der Computer Daten verarbeitet, die von den Bewerbern nicht hierfür freigegeben wurden (z. B. Einträge in sozialen Netzwerken), zum anderen besteht die Gefahr, dass Computeralgorithmen zur systematischen Diskriminierung beitragen, indem sie z. B. Menschen, die einen bestimmten Akzent sprechen, negativ bewerten.

Literatur

  • Kanning, U. P. (2015). Personalauswahl zwischen Anspruch und Wirklichkeit – Eine wirtschaftspsychologische Analyse. Berlin: Springer.
  • Kanning, U. P. (2017). Strategisches Verhalten in der Personalauswahl – Wie Bewerber versuchen, ein gutes Ergebnis zu erzielen. Zeitschrift für Arbeits- und Organisationspsychologie, 61, 3-17.
  • Kanning, U. P. (2018a). Diagnostik für Führungspositionen. Göttingen: Hogrefe.
  • Kanning, U. P. (2018b). Digitalisierung in der Eignungsdiagnostik. Report Psychologie, 10, 398-405.
  • Kanning, U. P., Budde, L. & Hülskötter, M. (2018). Wie valide ist die regelkonforme Gestaltung von Bewerbungsunterlagen? PERSONALquaterly, 4, 38-45.

Auch juristisch ist der Einsatz der künstlichen Intelligenz keineswegs unproblematisch. Der Gesetzgeber verbietet die wahllose Sammlung von Informationen, die letztlich keinen Bezug zur beruflichen Leistung aufweisen. Darüber hinaus ist es nicht zulässig, Auswahlentscheidungen allein von einem Computer treffen zu lassen.

Erste, bislang noch nicht veröffentlichte Studien zeigen überdies, dass der Einsatz der künstlichen Intelligenz dem Ansehen des Unternehmens in den Augen der Bewerber schadet. Dies ist insbesondere in Zeiten des Fachkräftemangels mehr als bedenklich. Viele Unternehmen bemühen sich heute in besonderer Weise darum, ein positives Bild von sich zu zeichnen. Der Einsatz der künstlichen Intelligenz konterkariert diese Bemühungen.

Das vielleicht wichtigste Problem des Einsatzes künstlicher Intelligenz besteht jedoch im „Black-Box-Prinzip“. Die Anwender erfahren nicht, welche Daten wie zu einem Ergebnis integriert werden und welche statistischen Kennwerte (Messgenauigkeit, Stabilität, Validität etc.) die Verfahren aufweisen. Es ist ihnen daher nicht möglich, die Qualität der Methoden objektiviert einzuschätzen. Dies hängt nicht zuletzt damit zusammen, dass es auch der Forschung nicht möglich ist, die einzelnen Angebote kritisch zu hinterfragen, da die verwendeten Algorithmen geheim gehalten werden.

Alles in allem spricht zum gegenwärtigen Zeitpunkt nichts dafür, sich in der Personalauswahl der künstlichen Intelligenz zu bedienen. Unternehmen, die professionell arbeiten wollen, wären viel besser beraten, ihre bestehenden Methoden vor dem Hintergrund wissenschaftlicher Erkenntnisse zu optimieren. Die Zukunft wird zeigen, ob es seriöse Methoden geben wird. Wahrscheinlich benötigen wir eine Art „Diagnostik-TÜV“, der dabei hilft, die guten von den schlechten Produkten zu unterscheiden. //

Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Digitale Transformation und New Work

Future of Work: Wie die digitale Transformation die Arbeitswelt verändert

von Carsten Feldmann und
Wieland Appelfeller


Alles, was digitalisiert werden kann, wird digitalisiert. Und alles, was vernetzt werden kann, wird auch vernetzt. Das betrifft Menschen, Maschinen und Produkte gleichermaßen.“ Dieses Zitat von T. Höttges, Vorstand Deutsche Telekom, beschreibt treffend die digitale Transformation. Die Arbeitswelt wird sukzessive in eine digitale Ebene überführt: Die analoge, lokale Offline-Welt wandelt sich zur digital vernetzten „Always-on“-Welt.

New Work bezeichnet ursprünglich ein Konzept des Sozialphilosophen Frithjof Bergmann für eine Arbeit, die den Menschen und seinen Wunsch nach Erfüllung und Sinnhaftigkeit in den Mittelpunkt stellt. Aktuell ist es ein Synonym für den Wandel der Arbeit: Digitale Technologien und Geschäftsmodelle ändern Arbeitsplätze und -inhalte. Digitale Arbeitsformen führen u. a. zum Aufweichen von Hierarchien („Holacracy“), agile und iterative Arbeitsmethoden lösen lineares, plangetriebenes Vorgehen ab, Kunden werden in die Produktentwicklung integriert (Co-Creation). Statt eines festen Büros mieten z. B. Start-ups flexible Arbeitsplätze in einem offen gestalteten Büro und nutzen die Vorteile des zusammen Arbeitens (Co-Working).

Abb. 1: Elemente des digitalen Unternehmens (Referenzmodell)(4)

Veränderung von Arbeitsplätzen

Zu quantitativen Auswirkungen der Digitalisierung auf den Arbeitsmarkt gibt es widersprüchliche Prognosen, die auf verschiedene methodische Ansätze sowie differierende Annahmen zurückzuführen sind. Das Substitutionsrisiko bezeichnet die Wahrscheinlichkeit, dass die Aktivitäten eines Mitarbeiters durch Digitalisierung wie z. B. IT-Systeme oder Robotik übernommen werden. Arbeitsplätze mit hohem Substituierbarkeitsrisiko werden entfallen, Arbeitsplätze mit niedrigem Substituier­barkeitsrisiko sich verändern, neue Berufsbilder und Arbeitsplätze werden entstehen.(1)


Zu quantitativen Auswirkungen der Digitalisierung auf den Arbeitsmarkt gibt es widersprüchliche Prognosen, die auf verschiedene methodische Ansätze sowie differierende Annahmen zurückzuführen sind.


Ein eher niedriges Substitutionsrisiko weisen kreative, soziale (empathische) und wissenschaftliche Berufe sowie Professionen mit sensomotorischen Fähigkeiten wie z. B. Physiotherapeut und Arzt auf. Demgegenüber haben Arbeitsplätze mit standardisierten (Routine-)Aktivitäten mit niedriger Komplexität und geringen Qualifikationsanforderungen ein hohes Substituierbarkeitsrisiko. Beispiel: Hilfsarbeiter in der Kommissionierung, aber auch geistige Routinetätigkeiten wie z. B. Rechnungsprüfung lassen sich in vielen Fällen komplett automatisieren. Beispiele für mittel- bis langfristig bedrohte Berufsbilder sind Lkw-Fahrer, Postbote oder Kassierer im Supermarkt. Hier wird menschliche Arbeit durch autonomes Fahren, Drohnen und Self-Services substituiert.

Dieser Wegfall kann jedoch ggf. durch neu entstehende Stellen kompensiert werden, z. B. durch Arbeitsplätze im Kontext digitalisierter Maschinen und Roboter, die programmiert und bedient werden müssen. Außerdem steigt der Bedarf an Datenanalysten und Softwareentwicklern.

Literaturverzeichnis

  • Acatech, Deutsche Akademie der Technikwissenschaften: Kompetenzentwicklungsstudie Industrie 4.0, München 2016.
  • Appelfeller, W.; Feldmann, C. (2018): Die digitale Transformation des Unternehmens – Systematischer Leitfaden mit zehn Elementen zur Strukturierung und Reifegradmessung, Berlin 2018.
  • BMWi (2016): Digitale Bildung – Themenheft Mittelstand Digital, Schriftenreihe des Bundesministeriums für Wirtschaft und Energie 2016.
  • Bonin, H; Gregory, T.; Zierahn, U. (2015): Übertragung der Studie von Frey/Osborne auf Deutschland, Bundesministerium für Arbeit und Soziales, Mannheim 2015.
  • Hirsch-Kreinsen, H. (2017): „Arbeiten in der digitialen Welt“, Vortrag der Technischen Universität Dortmund im Mai 2017.

Nicht nur bei der Arbeitsplatzanzahl gibt es optimistische und pessimistische Sichtweisen, sondern auch bei weiteren Chancen und Risiken.(2) Einerseits fördert orts- und zeitunabhängiges Arbeiten mit digitalen Werkzeugen Autonomie und Vereinbarkeit von Beruf und Familie. Andererseits kann Work-Life-Blending zum Verlust des Privatlebens führen, wenn die Grenze zum Berufsleben verschwimmt. Automatisierung von 3-D-Tätigkeiten (dirty, dangerous, demanding) erscheint wünschenswert, wenn sie mit Aufwertung der verbleibenden Arbeitsinhalte einhergeht. Allerdings kann Digitalisierung Autonomie reduzieren, wenn z. B. Datenbrillen beim Kommissionieren die Arbeitsschritte nicht nur vorgeben, sondern diese zur Kontrolle detailliert nachvollziehbar machen.

Stufen der Digitalisierung von Mitarbeitern

Was bedeutet die „Digitalisierung“ von Mitarbeitern? Dies bedeutet nicht zwangsläufig, dass der Mensch durch einen Roboter oder Avatar ersetzt wird. Vielmehr werden Mitarbeiter mit digitalen Kompetenzen bzw. Endgeräten wie z. B. Smart Glasses ausgestattet.

Auf welche Weise lässt sich messen, welchen Status ein Unternehmen beim Thema digitale Transformation bereits erreicht hat, und wie lässt sich festgelegen, wie es sich in Zukunft weiterentwickeln soll? Das Modell „Das digitale Unternehmen“ in Abb. 1 von Appelfeller/Feldmann(3) nutzt hierzu Reifegradmodelle (vgl. Abb. 2). Für zehn Elemente wie z. B. Prozesse oder Geschäftsmodell werden Bewertungsraster vorgestellt, die die Reifegradstufen von eins (analog) bis vier (volle Digitalisierung) abbilden. Dem Ist-Status wird bei der Zielformulierung für ein Element das Soll-Profil gegenübergestellt, um so Roadmaps für die Weiterentwicklung pro Element zu entwickeln.

Für das Element Mitarbeiter ergeben sich aus der detaillierten Reifegradmessung die Stufen analoger Mitarbeiter ( 1 ), teildigitalisierter Mitarbeiter ( 2 ), vernetzter, voll digitalisierter Mitarbeiter ( 3 ) und vernetzter Roboter ( 4 ). Abb. 2 stellt dies für Mitarbeiter mit vorwiegend geistiger Tätigkeit vor.

Abb. 2: Stufen der Digitalisierung bei Mitarbeitern mit vorwiegend geistiger Tätigkeit(5)

Als analoger Mitarbeiter wird jemand bezeichnet, der ohne IT z. B. papierbasierte Belege abarbeitet, i. d. R. zu festen Arbeitszeiten im selben Büro. Beispiel: Mitarbeiter, der die Eingangspost öffnet, stempelt und verteilt. Der teildigitalisierte Mitarbeiter arbeitet ebenfalls überwiegend zu festen Arbeitszeiten im festen Büro. Er nutzt aber für einen Teil der Arbeitsschritte IT-Systeme.
Beispiel: HR-Mitarbeiter, der eingehende Bewerbungen im IT-System erfasst, Kopien weiterleitet und mit Bewerbern per E-Mail kommuniziert.

Dieser Typus wird zunehmend durch den vernetzten, voll digitalisierten, mobilen Mitarbeiter verdrängt. Er hat weniger fest vorgegebene Strukturen, arbeitet zu flexiblen Zeiten im Unternehmen, zu Hause oder unterwegs. Er nutzt im Großraumbüro den Arbeitsplatz, der gerade frei ist. Über mobile Endgeräte wie Smartphone, Smartwatch und Tablet-PC ist er mit den IT-Systemen, anderen Mitarbeitern und externen Partnern vernetzt und permanent erreichbar.
Beispiel: Überwiegend in standortübergreifenden Projekten tätiger Mitarbeiter. Auf Stufe 4 steht der vernetzte Roboter. Er übernimmt z. B. dort Tätigkeiten, wo der Kunde mit Mitarbeitern spricht und diese nach vordefinierten Logiken handeln. Beispiel: Empfang von Gästen an der Hotelrezeption.

Fazit und Ausblick

Die digitale Transformation lässt sich nicht aufhalten. Daher sollten Unternehmen sie gezielt gestalten. Dabei gilt nicht: Je digitaler, desto besser. Digitalisierung ist kein Selbstzweck, sondern Mittel zum Zweck, um die Strategie des Unternehmens umzusetzen. Hierzu bedarf es des Aufbaus der Kompetenzen der Mitarbeiter wie z. B. Prozess- und IT-Know-how, Datenauswertung und -analyse, interdisziplinäres Denken und Handeln, insbesondere bei Innovationen. (6)

Wie „digital“ müssen Mitarbeiter werden? So digital, dass das Unternehmen konkurrenzfähig bleibt. Dabei ist zum einen die Perspektive des konkurrenzfähigen Unternehmens einzunehmen. Für dieses ist zu klären, welche Aktivitäten sich durch IT effizienter durchführen lassen und welche Kompetenzen und Endgeräte die Mitarbeiter benötigen. Zum anderen stellen sich aus der Sicht des konkurrenzfähigen Arbeitgebers im Rahmen des „War for Talents“ verschiedene Fragen. Wo, wann und wie möchten Mitarbeiter ihre Arbeitsleistung erbringen? Der oben beschriebene vernetzte, mobile und voll digitalisierte Mitarbeiter lässt erkennen, was Mitarbeiter zunehmend fordern könnten.

Die Angst, dass menschliche Arbeit maschinell ersetzt werden könnte, gab es bereits bei der ersten industriellen Revolution. Ein „Ende der Arbeit“ wird es auch diesmal voraussichtlich nicht geben. Eine zentrale Aufgabe für die Unternehmen und ihre Mitarbeiter besteht darin, die Arbeitsplätze rechtzeitig umzugestalten und Qualifikationen anzupassen. //


Kontakt zu den Autoren

Prof. Dr. Wieland Appelfeller

Prof. Dr. Carsten Feldmann

Quellen
(1) Vgl. Bonin 2015.
(2) Vgl. Hirsch-Krainsen (2017).
(3) Vgl. Appelfeller/Feldmann (2018).
(4) Vgl. Appelfeller/Feldmann (2018).
(5) Vgl. Appelfeller/Feldmann (2018).
(6) Vgl. Acatech (2016); BMWi (2016).

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Bild von Gerd Altmann auf Pixabay