Handel mit Zukunft

Tiefere Datenanalyse, NLP und mehr Automatisierung
sind gefragter denn je.

von Frank Zscheile

Omni- oder Multichannel sind für den Handel keine neuen Trends mehr, sondern vielfach gelebte Realität. Welcher Kanal bedient wird, ist zweitrangig, es geht um das Erlebnis, bei dem sich „online“ und „offline“ zu smarten Services ergänzen. Grundlage dafür sind die dahinterliegenden Datenmengen. Sie lassen sich heute durch Analyseinstrumente, die mit künstlicher Intelligenz angereichert sind, immer besser hinsichtlich ihrer weiteren Verwendung im Business-Kontext auswerten.

Neue Algorithmen zur Textanalyse sind inzwischen sogar in der Lage, Stimmungslagen in Kundenschreiben selbstständig zu erkennen. Solche bislang verborgenen Informationen können Handelsunternehmen im Sinne des Geschäftsnutzens einsetzen. Wenn Kundendaten genauer analysiert werden, lassen sich die Ergebnisse als Grundlage für individuelle Kundenansprachen und digitales Marketing einsetzen. Dabei werden alle Kunden-Touchpoints mit relevanten, vom Kunden gewünschten Informationen bespielt – ideal für die Stärkung von Kundenbindung (Customer Loyalty).

Neue Algorithmen zur Textanalyse sind inzwischen sogar in der Lage, Stimmungslagen in Kundenschreiben selbstständig zu erkennen.

Treiber dieser Entwicklung sind die Forderungen der Verbraucher nach Echtzeitunterstützung, kontinuierlicher Unterhaltung sowie umfassender Konnektivität und Sicherheit. So wird Consumer IoT zum nächsten logischen Schritt der digitalen Evolution des Handels.

Automatisierte Service-Interaktionen

„Themen wie künstliche Intelligenz und Blockchain haben ihre Nische längst verlassen und sind zu gesellschaftsrelevanten Themen geworden“, weiß auch Matthias Wahl, Präsident des Bundesverbandes Digitale Wirtschaft (BVDW) e. V. Mit KI lassen sich gleichzeitig Geschäftsabläufe zwischen IT-Systemen des Handels automatisieren, Stichwort „Robotic Process Automation“. B2B-Marktplätze werden an ERP-, CRM- und weitere Backendsysteme und Datenbanken angebunden. Dies führt weiter zu automatisierten Service-Chatbots, bei denen sich die Beschäftigten im Service erst später oder im Bedarfsfall in die konkrete Kundenkommunikation einschalten.

Bekanntheit und Nutzung mobiler KI-Anwendungen

Gartner sagt voraus, dass 2021 15 Prozent aller Service-Interaktionen automatisiert sein werden. Künstliche Intelligenz wird dabei für eine zunehmend natürliche Art solcher sprachlichen Interfaces sorgen, was die Verbreitung wiederum verstärken wird. Wirkliche Dialoge sind es freilich nicht, die mit Chatbots ablaufen, sondern eher kurze Frage-Antwort-Sequenzen. Mit dem durch KI gewonnenen Wissen aus Datenbanken werden sich aber in absehbarer Zeit auch mehrstufige flexible Dialoge automatisieren lassen können. Dadurch erschließen sich neue Anwendungsfelder im Kundenservice, die mit einfachen Frage-Antwort-Systemen nicht adressiert werden können.

Unternehmen müssen „insight-driven“ werden

In seinem Report „The Forrester Wave™: AI-Based Text Analytics Platforms, Q2 2018“ beschreibt das Analystenhaus Forrester, wie sich durch den Einsatz künstlicher Intelligenz aus Daten zusätzliches Wissen gewinnen lässt. „Insight-driven“ müssten Unternehmen werden, fordert Forrester-Analyst Boris Evelson. Dabei geht es vor allem um das in unstrukturierten Daten enthaltene Wissen, welches in Unternehmen heute Schätzungen zufolge rund 80 Prozent ausmacht: E-Mails, PDFs, Archivsysteme, Videos, Tondokumente, Social-Media-Posts etc. Hierfür kommen Techniken der linguistischen und semantischen Analyse („Natural Language Processing – NLP“ oder Computerlinguistik) zum Einsatz.

Unter NLP versteht man die Fähigkeit eines Computerprogramms, menschliche Sprache so zu verstehen, wie sie gesprochen bzw. geschrieben wurde. Tiefergehende NLP-Systeme benutzen die Wortarten zur Extraktion vordefinierter Muster und extrahieren selbstständig bestimmte Kategorien von Begriffen, z. B. Personen- und Ortsnamen, Postleitzahlen, Nummernschilder.

Kundenkorrespondenz modern auswerten

Der eigentliche Prozess des Text-Minings und der Extraktion von Keywords, Themen und Konzepten liegt laut Forrester dabei nur bei rund einem Fünftel des Aufwands. Der weitaus größere Teil entfiele auf den Aufbau von Datenverbindungen, die Integration und Bereinigung der Daten sowie den Aufbau einer domänenspezifischen Ontologie und user­orientierter Oberflächen. Während die meisten Hersteller noch immer hauptsächlich Stimmungsanalysen anbieten, ermöglicht die Software von Clarabridge auch eine hoch differenzierte Emotions-, Anstrengungs- und Absichtsanalyse.

Loyalität aus Daten

Das Konzept von Clarabridge zeigt, wie wichtig es sein kann, das in unstrukturierten Daten verborgene Wissen zu heben. Die Customer Loyalty lässt sich dadurch deutlich festigen. Im Omnichannel ist hier ohnehin noch Luft nach oben, glaubt Michael Bregulla, Head of New Sales bei der Ingenico Marketing Solutions GmbH. Das Unternehmen entwickelt Programme zur Vertiefung der Kundenbeziehungen für alle Verkaufskanäle. „Bindungseffekte sollten im Wesentlichen aus dem Preisvorteil generiert werden, obwohl der eigentliche Wert in den aggregierten Daten des bis dato anonymen Kunden liegt“, so Bregulla. „Schon heute schlummern bei vielen Händlern riesige Datenpotenziale, die gar nicht wertbringend abgeschöpft werden. Die Digitalisierung offenbart jetzt die Chance für eine ganzheitlichere Erfassung des Kundenverhaltens.“

Bindungseffekte sollten im Wesentlichen aus dem Preisvorteil generiert werden, obwohl der eigentliche Wert in den aggregierten Daten des bis dato anonymen Kunden liegt.

Dazu bedürfe es einerseits Werkzeuge wie linguistischer und semantischer Analyse. Gleichfalls sei aber ein erweitertes Mindset bei Handelsunternehmen gefragt und die Bereitschaft, Dinge auszuprobieren und auch wieder zu verwerfen. So kristallisiert sich für Händler ein Gesamtbild der technisch-organisatorischen Rahmenbedingungen heraus, wie sich das Datenpotenzial von Customer-Loyalty-Programmen im Omnichannel zur personalisierten Kundenansprache und Steuerung des Kaufverhaltens nutzen lässt.

Voice Commerce und Audiovermarktung

Smart Speaker wie Amazon Alexa, Google Home, Telekom Magenta und Co. und die dahinterliegende Voice-Technologie haben in jüngster Zeit die nächste Welle losgetreten und den Zugang zu Audio-Content weiter vereinfacht. BVDW-Präsident Matthias Wahl: „Dadurch erhält Audio-Content einen deutlichen Schub, den Unternehmen für sich nutzen müssen.“ Das Medium Audio verändert sich damit grundlegend: Content wird interaktiv und wächst von einer One-Way-Communication zu einem Dialog-Umfeld.

Consumer IoT

Sprachgesteuerte Smart Speaker werden neben der reinen Audio-Content-Nutzung zu hohen Anteilen zur Informationsbeschaffung genutzt. Eine weitere Möglichkeit für Handelsunternehmen, ihre Kunden zu adressieren. Die technologische Basis dieser Produkte ist wiederum die Fähigkeit von Software, menschliche Sprache immer besser zu verstehen. Analog zu anderen Kommunikationskanälen benötigen Unternehmen deshalb eine eigene Voice- und Audiostrategie. Sie müssen eine Audio-Identity und eigenen Audio-Content entwickeln und mit ihren Marken, Produkten und Angeboten ihren Zielgruppen auf die neuen Geräte folgen. Wie dies praktisch umzusetzen ist, dafür gibt der BVDW auf seiner Webseite hilfreiche Hinweise.

Einkauf auf Zuruf

Fragt man die Smart Speaker heute nach einem bekannten Produkt wie Pampers, so wird in der Regel erstmal der Wikipedia-Eintrag vorgelesen. „Voice Search SEO muss noch deutlich gezielter als Desktop und Mobile betrieben werden, um Verkaufschancen über Voice zu steigern – auch weil die Chancen auf Sichtbarkeit deutlich geringer sind als am Desktop“, erklärt Frank Bachér von RMS.

So wird sich Voice Commerce über Skills entwickeln und neben Webshops und Apps der nächste Absatzkanal für den Handel werden, in dem Einkäufe auf Zuruf möglich werden. Vor allem im Bereich der FMCG („Fast Moving Consumer Goods“) dürfte dies einer der spannendsten neuen Trends sein. Damit dürften die smarten Lautsprecher künftig wohl ihrem Namen eher gerecht werden im Vergleich zu heute, wo sie hauptsächlich nur für einfache Aufgaben wie das Abspielen von Musik und die Wettervorhersage genutzt werden. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Die EU-DSGVO im Kontext der Digitalisierung

Risikofaktor IoT: Schützenswert sind alle Informationen, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen.

von Dr. Ralf Magagnoli

Am 25. Mai 2016 trat die EU-Datenschutzgrundverordnung (EU-DSGVO) in Kraft, ab dem 25. Mai 2018 müssen die EU-Mitgliedstaaten die Verordnung anwenden. Obwohl das Bewusstsein in den Chefetagen der Unternehmen gestiegen ist, sind nicht alle Unternehmen gut aufgestellt.
Mit der EU-DSGVO gibt es erstmals eine Verordnung, die das Datenschutzrecht EU-weit vereinheitlicht und die Unternehmen zum Nachweis verpflichtet, die Prinzipien des EU-Datenschutzes einzuhalten. Sie gilt für in der EU ansässige Unternehmen, aber auch für ausländische Unternehmen, wenn diese eine Niederlassung in der EU haben oder Daten von EU-Bürgern verarbeiten. Also de facto für alle größeren internationalen Unternehmen, aber auch für viele Mittelständler und KMU.
Die Strafen bei Verletzung der EU-DSGVO sind saftig: Bis zu 20 Millionen oder vier Prozent des Jahresumsatzes – im Zweifelsfall gilt der höhere Wert.

DSGVO und IoT

Als Daten gelten dabei nicht nur Kontakdaten wie Name, Adresse, E-Mail-Adresse, Telefonnummer. Damit betrifft sie auch das IoT, sammeln seine Geräte doch zuhauf vielfältige Nutzerdaten. Je nach Funktion reichen diese von Blutgruppe, über das bevorzugte TV-Programm bis hin zum Aufenthaltsort des Hundes. Hier sollte ein Privacy-by-Design-Ansatz verfolgt werden, damit schon bei der Entwicklung die Datenschutzrisiken gering gehalten werden können und Datensicherheit gewährleistet ist. Schließlich ist auch zu klären, wo im Unternehmen die Daten überhaupt gespeichert sind und wer Zugriff darauf hat.

Was ist neu?

Ganz wichtig: Unternehmen haben eine Rechenschaftspflicht. Im Fall einer Klage gilt die Beweislastumkehr: Nicht der Kläger muss nachweisen, dass die EU-DSGVO verletzt worden ist. Das Unternehmen muss beweisen, dass es die strengen Kriterien der Verordnung erfüllt. Hier könnte sich unter Umständen für Unternehmen ein Betätigungsfeld eröffnen, um unliebsamen Konkurrenten zu schaden. Außerdem muss in bestimmten Fällen ein Datenschutzbeauftragter ernannt werden.

Hinzu kommt die Verpflichtung, ein sogenanntes „Privacy by Design“ einzuführen, mit dem datenschutzrelevante Maßnahmen von Beginn an in Design sowie Entwicklung von Systemen, Prozessen und Produkten integriert werden. Auch sind mehr Daten betroffen, so etwa Einzelangaben über persönliche und sachliche Verhältnisse einer bestimmten oder bestimmbaren Person. Die Anforderungen an „bestimmbare Personen“ sind sehr gering. Auch Lieferanten können betroffen sein, zum Beispiel solche, die von einem Unternehmen beauftragt werden, personenbezogene Mitarbeiterdaten zu verarbeiten.

Mehr Rechte für Beschäftigte, mehr Pflichten für die Unternehmen

Nach Auffassung vieler Fachleute werden die Pflichten des Arbeitgebers beim Datenschutz deutlich erhöht, die Rechte der Beschäftigten hingegen gestärkt. Diese erhalten die Hoheit über ihre Daten und das Recht, auf Anfrage zu erfahren, ob, welche und in welchem Umfang personenbezogene Daten durch den Arbeitgeber verarbeitet werden. Das muss laut EU-DSGVO schneller und umfassender geschehen, als dies früher der Fall war. Unternehmen ohne digitale Personalakte haben hier einen großen Aufwand, da die dafür zuständigen Personalabteilungen meist in einem mühseligen Prozess die zerstückelt geführten Personalakten, Gehaltsabrechnungen oder Berichte prüfen müssen.

Vieles hängt von der Art und Größe des Unternehmens ab

Einige Experten warnen, die Aufgaben im Zusammenhang mit der Verordnung zu unterschätzen. Die häufig vertretene Ansicht, dass die Erstellung eines Verarbeitungsverzeichnisses die Erfüllung der Richtlinien gemäß DSGVO bedeutet, ist leider nicht richtig. Ein Verarbeitungsverzeichnis ist zwar wesentlich, jedoch nur einer von mehreren Schritten der Umsetzung. Jedes Unternehmen muss also auch alle technischen und organisatorischen Maßnahmen zur Sicherung und zum Schutz der Daten umsetzen und auch dokumentieren. Nicht zu vergessen, die Einhaltung und Dokumentation aller Betroffenenrechte. Eine Lösung muss all diese Aspekte mitberücksichtigen und ganzheitlich erfüllen. In welchem „Detailgrad“ die Umsetzung auf Unternehmensebene erfolgt, hängt jedoch von der Art und Größe des Unternehmens sowie den verfügbaren Ressourcen ab. Entscheidend ist auch die Branche, da jede ihre ganz eigenen Anforderungen hat.

Von der Geschäftsführung bis hin zum Betriebsrat müssen die Verantwortlichen über die Regelungen und Veränderungen beim Datenschutz informiert und aktiv werden.

Zertifizierungen als Basis

Manche Unternehmen profitieren von bereits vorhandenen Zertifizierungen, etwa nach ISO 9001 oder ISO / IEC 27001. Diese Zertifizierungen dienen als Basis für ein Datenschutzmanagementsystem (DSMS), das die Compliance mit der EU-DSGVO gewährleistet. Ähnliches gilt für die Zertifizierung nach dem Standard BS 10012:2017. Trotzdem muss vieles noch angepasst werden im Hinblick auf die neuen Regeln.

Datenschutz als Querschnittsaufgabe

Wichtig sei es, darin stimmen Experten überein, das Thema EU-DSGVO als Querschnittsthema im gesamten Unternehmen zu verankern und das Bewusstsein der Mitarbeiter für diese Problematik zu schärfen. Vom Vorstand oder der Geschäftsführung bis hin zum Betriebsrat müssen die Verantwortlichen über die Regelungen und Veränderungen beim Datenschutz informiert und teilweise aktiv werden:

  • Vorstand und Geschäftsführung müssen die veränderte datenschutzrechtliche Praxis im Unternehmen kennen;
  • die IT-Abteilung muss prüfen, welche technisch-organisatorischen Maßnahmen für das geforderte Risk-Management notwendig sind;
  • die Finanzabteilung muss die Kosten berücksichtigen, die dem Unternehmen durch Anpassungsprozesse entstehen;
  • die Rechtsabteilung muss viele Verträge anpassen;
  • die Compliance-Abteilung muss die Risiken eines Verstoßes gegen die Verordnungen berücksichtigen – diese betreffen die außerordentlich hohen Bußgelder, aber auch den Vertrauensverlust, der bei Kunden, Lieferanten oder Mitarbeitern entstehen kann;
  • die Forschungs- und Entwicklungsabteilung muss schon bei einem frühen Projektstadium darauf achten, dass die datenschutzrechtlichen Grundsätze eingehalten werden;
  • für die Personalabteilung entsteht ein hoher Aufwand, da sie einerseits Mitarbeiterschulungen zum Thema organisieren, andererseits den Mitarbeitern auf Nachfrage nachweisen muss, wie ihre Daten geschützt werden; auch der Betriebsrat ist einzubinden.

Ist es sinnvoll, darüber hinauszugehen?

Vielleicht aber ist es sinnvoll, noch ein paar Schritte weiterzugehen. Die Einhaltung der EU-DSGVO-Compliance sollte Teil einer umfassenden Unternehmensphilosophie sein und von der Spitze her gelebt werden – damit ist das EU-DSGVO-Management Chefsache. Es sollte nicht einfach eine lästige Pflicht sein, denn immerhin geht es darum, das Image des Unternehmens in der Öffentlichkeit, bei gegenwärtigen und künftigen Mitarbeitern sowie bei Geschäftspartnern als verantwortungsvoll handelnde Organisation zu stärken. Dazu gehören auch ein umfassender Schutz der Daten und der sichere IT-Betrieb.

Die Risiken einer Verletzung des Datenschutzes sind groß und müssen im Einzelfall genau analysiert werden. Doch wie sieht es mit den Chancen aus? Zum Beispiel könnte ein gut umgesetztes Datenschutzmanagementsystem auch den Eintritt in Länder mit einem ähnlich hohen Datenschutzniveau deutlich erleichtern, wie z. B. Kanada oder Japan.

Echte Mehrwerte im Wettbewerb entstehen, wenn es gelingt, über entsprechende Maßnahmen und ihre Dokumentation Vertrauen zu schaffen. Zudem fördern transparente personenbezogene Daten die Automatisierung von Prozessen und treiben somit die Digitalisierung voran. Einige aktuelle Studien belegen, dass Unternehmen, die auf diesem Weg vorangegangen sind, sich bereits Vorteile verschafft haben. Es liegt also an den Unternehmen selbst, ob ihnen die EU-DSGVO mehr nutzt oder doch eher schadet. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Cloud-Computing

Tipps für eine zukunftsorientierte Cloud-Strategie

von Bernhard Haselbauer

Dezentral, flexibel und günstig – Cloud-Computing erobert mit hoher Skalierbarkeit bei niedrigen Kosten immer mehr deutsche Unternehmen. Auch in diesem Jahr ist der Cloud-Markt wieder gewachsen. Deutsche Unternehmen setzten mittlerweile auf die Public Cloud, Single-Cloud-Architekturen werden in Zukunft nur noch die Ausnahme darstellen.

Es kann festgehalten werden, dass durch Cloud-Dienstleistungen Betrieb und Wartung von IT‐Ressourcen hinfällig werden. Dies führt zu geringeren Personalkosten in der IT‐Abteilung und Unternehmen müssen weder in Hardware investieren, noch Überkapazitäten für Lastspitzen bereithalten. Momentan lauten die Trendthemen Multi-Cloud, Blockchain, Edge Computing, RPA und künstliche Intelligenz (KI). Aufgrund des großen Anwendungspotenzials steigt die Nachfrage nach Datenverarbeitung und KI immer mehr. Aber wie können wir uns zum Bespiel „KI/AI as a Service“ als Cloud-Dienstleistung vorstellen?

Zum Beispiel haben Cloud-Anbieter bereits KI-Anwendungen für Unternehmen als „as a Service“ in ihr Angebot integriert – d. h., sie stellen diese Anwendungen über „Open Source Platforms“ zur Verfügung, sodass Unternehmen keine eigenen Tools oder Infrastrukturen aufbauen müssen. Der Vorteil für Unternehmen liegt darin, dass Entwicklungszeiten so reduziert und Kosten gesenkt werden können. Das Investitionsrisiko für den Einstieg in KI reduziert sich also, während die Flexibilität steigt. Wollen Unternehmen von verschiedenen KI-Anwendungen Gebrauch machen, die für komplexe Szenarien eingesetzt werden können, so müssen die verschiedenen Anwendungen und Datenbanken zusammenarbeiten. Mit Multi-Cloud-Architekturen kann das weltweit erreicht werden.

Die Ressourcenverteilung der Cloud-Infrastruktur wird künftig nicht nur automatisiert ablaufen, vielmehr werden selbstlernende Computersysteme die zugrunde liegenden Automatismen nutzerspezifisch weiterentwickeln.

Viele Berichte deuten darauf hin, dass 2019 das Jahr der Multi- und Hybrid Cloud werden soll. Aus dem Englischen übersetzt bedeutet Multi-Cloud die Verwendung mehrerer Cloud-Computing- und Storage-Services in einer einzigen heterogenen Architektur. Dies wird auch als Polynimbus-Cloud-Strategie bezeichnet und bezieht sich auch auf die Verteilung von Cloud-Assets, Software, Anwendungen usw. in mehreren Cloud-Hosting-Umgebungen.

Die Multi-Cloud verhält sich aus Anwendersicht wie eine einzige große Cloud. Wie die Hybrid Cloud kann die Multi-Cloud mehrere Cloud-Modelle wie die Private Cloud oder die Public Cloud integrieren.

Die meisten Unternehmen werden wohl zunächst mit Hybrid-Cloud-Lösungen arbeiten, um Abhängigkeiten zu vermeiden. Außerdem können User der Hybrid Cloud Angebote von mehreren Cloud-Anbietern vergleichen und so das Kostenrisiko optimieren. Zusätzlich werden weitere Redundanzen die Ausfallsicherheit erhöhen. Aus diesen Gründen werden wohl die großen Public-Cloud-Anbieter das Thema „Vendor Lock-in“ weiter verfolgen. Wer sich mit dem Thema Cloud-Computing beschäftigt, hat wahrscheinlich den Begriff Vendor-Lock-in bereits gehört. Hier spricht man von einem sogenannten Lock-in-Effekt, wenn sich ein Kunde so abhängig von einem bestimmten Hersteller gemacht hat, dass der Wechsel zu einem alternativen Anbieter aufgrund zu hoher Transaktionskosten unwirtschaftlich ist.

Um die Vorteile einer Hybrid- oder Multi-Cloud-Umgebung zu nutzen, empfehlen wir einen kompetenten „Managed Services Provider“ (MSP) zu konsultieren.


Von Robotik und Automation

Lange verdammt, unentwegt einfachste Handlungen zu verrichten, mutieren Roboter zu autonom agierenden „Kollegen“ mit flexiblen Aufgaben.

von Andreas Fuhrich

Automatisierung ist ein maßgeblicher Erfolgsfaktor des produzierenden Gewerbes. Durch sie lassen sich Kosten senken und dennoch höchste Qualitätsansprüche realisieren. Bezahlbare und leistungsfähige Produkte, vom Smartphone bis zur Sicherheitstechnik im Auto, sind ohne sie nicht denkbar.

War das Thema Automatisierung bis vor einigen Jahren noch den „großen“ Unternehmen vorbehalten, gehen mittlerweile mehr und mehr kleine und mittelständische Betriebe dazu über, ihre Fertigung zu automatisieren.(1)

Roboter, als wesentliche Bausteine der Automatisierung, dienen dabei vermehrt als persönliche Produktionsassistenten, die direkt mit dem Werker in gemeinsamer Arbeitsumgebung ohne trennende Schutzzäune interagieren. Innovative Sicherheitskonzepte verbunden mit dem vermehrten Einsatz von Sensorik, Software und Bildverarbeitungstechnologie bilden die ausschlaggebende Basis der hierfür notwendigen erhöhten Sicherheit.(2)

China ist mit der größte Produzent von Industrierobotern und produzierte laut einer Schätzung der International Federation of Robotics 2017 115 000 Einheiten. Dahinter folgen Südkorea (44 000), Japan (42 000) und USA (36 000). Auf Platz fünf rangiert Deutschland (21 000)(3), wo die Branche 2017 erstmals einen Umsatz von über 14 Mrd. Euro erwirtschaftete.(4)

IoRT – Das Internet of Robotic Things

Während Roboter ursprünglich dazu angedacht waren, einfache repetitive Aufgaben unentwegt auszuüben, sind sie heute in der Lage, mit ihrer Umwelt zu interagieren und intelligentes Verhalten zu zeigen. Ein Roboter mit einer Verbindung zum Internet verfügt dabei über eine immense Informationsquelle, die ihm bei Entscheidungsfindungen und Interaktionen hilft. Vernetzen sich diese Roboter zusätzlich auch untereinander, entsteht eine gemeinsame Intelligenz, die für alle betreffenden Geräte die günstigsten Handlungsabläufe ermitteln kann. Das Konzept der Einbindung von Teams aus Robotern in das IoT wird als das „Internet of Robotic Things“ oder das „IoRT“ bezeichnet.

Autonome Roboter-Schwärme

Derart vernetzte Schwarm-Drohnen werden bald in Gruppen zu Hunderten oder Tausenden um uns schwirren, in Formationen wie bei Vogelschwärmen. In Zukunft könnten solche Schwärme etwa kostengünstig Pipelines, Hochspannungsleitungen und Industrieanlagen inspizieren oder in der Landwirtschaft Pestizide und Herbizide versprühen, und zwar exakt dosiert an den erforderlichen Stellen.

Die Grundlagen der Robotik – Erfassung, Bewegung, Mobilität, Manipulation, Autonomie und Intelligenz – werden durch das Internet of Things auf eine neue Stufe gehoben. Roboter müssen nicht länger selbst mit kognitiven Fähigkeiten ausgerüstet sein, denn schließlich stellt das IoT mit all seinen Sensordaten wiederverwendbare und offen verfügbare Informationen bereit, auf die sie zur Erfüllung ihrer Aufgaben zugreifen können. Dies ermöglicht eine Miniaturisierung vernetzter Roboter-Schwärme bis auf Nano-Ebene, wodurch ganz neue Möglichkeiten eröffnet werden.(5)


Die Trends in Forschung & Entwicklung

Neue digitale Technologien verändern den Innovationsprozess und binden den Kunden stärker in die Produktentstehung mit ein.

von Dr. Ralf Magagnoli

Ziel vieler Unternehmen ist es, in puncto Industrie 4.0 die umfassendste Option zu realisieren, nämlich die des Enablers. Der Enabler ist ein Technologieanbieter für das IoT und nutzt Plattformen (Clouds) zur Entwicklung, Herstellung und Lieferung vernetzter Dienste und Produkte. Was bedeutet dies für die Abteilung Forschung & Entwicklung: Zum einen werden die traditionellen Schranken zwischen Forschung & Entwicklung, Produktmanagement und Produktion tendenziell aufgehoben, zum anderen werden die sogenannten Stakeholder, meistens Kunden, an der Entwicklungsarbeit beteiligt. Die Vorteile sind u. a. schnellere Produktreife, besser ausgetestete Produkte, kostengünstigere Produkte und – last, but not least – völlig neue Produkte. Was also sind die Trends in der Forschungs- und Entwicklungsabteilung?

Künstliche Intelligenz (KI) / Machine Learning

Die Begriffe KI und Machine Learning werden oft synonym verwendet, sind aber nicht deckungsgleich, da Machine Learning nur einen Bereich, allerdings den wichtigsten der KI, ausmacht. So sagt der chinesisch-amerikanische Informatiker Andrew Ng: „99 Prozent des ökonomischen Wertes, den KI heute schafft, wird durch die eine Art von KI erzeugt, die von A nach B lernt, durch Input- zu Output-Mappings“, also durch Machine Learning. Worum geht es? Es geht um selbstständig lernende Maschinen und Computer; diese lernen anhand von Beispielen und können diese nach Ende der Lernphase verallgemeinern, indem sie Muster und Gesetzmäßigkeiten in den Lerndaten „erkennen“.

Für die Forschung & Entwicklung bieten KI und vor allem das Machine Learning riesige Potenziale, wenn es darum geht, das Kundenverhalten über prädiktive Analysen gezielter zu prognostizieren und via Algorithmen fundiertere Innovationsentscheidungen zu fällen.

Dies erfolgt mithilfe von Algorithmen, die sich wiederum in überwachtes Lernen (teilüberwachtes, bestärkendes, aktives Lernen) und unüberwachtes Lernen unterteilen lassen. Für die Forschung & Entwicklung bieten KI und vor allem das Machine Learning riesige Potenziale, wenn es darum geht, das Kundenverhalten über prädiktive Analysen gezielter zu prognostizieren und via Algorithmen fundiertere Innovationsentscheidungen zu fällen. Dies betrifft u. a. den Designprozess – Stichwort Generatives Design – reicht aber weit darüber hinaus.

Generatives Design

Hier übernimmt ein Algorithmus die Aufgabe, die früher der Designer erledigte. Dieser erstellt nur den digitalen „Werkzeugkasten“, während der Computer das Ergebnis erzeugt. Die Aufgabe des Designers besteht darin, das Ergebnis zu beurteilen und ggf. den Quellcode, die Parameter und den Algorithmus zu verändern. Dazu gibt es neue Tools – Stichwort bspw. Low Code – die eine Programmierung auch ohne vertiefte Programmierkenntnis erlauben. Der Gestaltungsspielraum erweitert sich durch Generative Design in erheblicher Weise, wozu Parameter wie Zufall, Struktur oder Wiederholung kombiniert mit traditionellen Faktoren wie Schrift, Form, Farbe und Bild beitragen.

Dabei bietet sich auch in diesem Fall die Open Innovation, also die Zusammenarbeit verschiedener Akteure – meist über eine cloudbasierte Plattform –, an, über die sich nicht nur eine Vielzahl von Entwurfsalternativen erzeugen lässt, sondern über die die Entwürfe auch im Hinblick auf die Kundenakzeptanz geprüft werden können. Im Idealfall werden die verschiedenen Stakeholder, allen voran natürlich die Kunden, am Projekt beteiligt und aktiv in den Designprozess eingebunden. Die Echt­zeitinformationen sorgen für schnellere Durchlaufzeiten von Projekten.

Digitaler Zwilling

Das Gabler Wirtschaftslexikon definiert den „digitalen Zwilling“ (Digital Twin) als „virtuelles Modell z. B. eines Prozesses, eines Produkts oder einer Dienstleistung, welches die reale und virtuelle Welt verbindet“. Notwendig sind dabei drei Elemente: das abzubildende Objekt – bspw. ein Fahrrad –, der digitale Zwilling und die Daten, die beide miteinander integrieren. So wird das reale, mit Sensoren ausgestattete Fahrrad, um diesen Fall zu nehmen, mit dem System verbunden, das die Sensordaten empfängt, verarbeitet und auswertet. Anhand des digitalen Zwillings können dann die Leistungsfähigkeit, die Widerstandskraft und die Haltbarkeit des Fahrrads, etwa unter Extrembedingungen, getestet werden.

Über Simulationen werden so verschiedene Alternativen erforscht, um die in der Regel komplexen Produktanforderungen zu erfüllen – zum Beispiel: Ist das Produkt intuitiv nutzbar? Funktioniert die Elektronik einwandfrei? Wie interagieren die verschiedenen Komponenten? Und, im Hinblick auf das Fahrrad, bei welchen Lastfällen sind welche Bereiche des metallischen Fahrradrahmens oder der Federgabel als kritisch zu beurteilen?

Der digitale Zwilling wird gerne in der Automobilindustrie für Crashtests eingesetzt. Aufgrund der Effektivitätssteigerungen entlang der gesamten Wertschöpfungskette rechnet der Analyst Gartner damit, dass schon 2021 die Hälfte der größeren Industrieunternehmen den digitalen Zwilling einsetzen wird. Dabei geht es auch hier in Richtung künstlicher Intelligenz, sodass man von der gegenseitigen Wahrnehmung und Interaktion zur Kommunikation und eigenständigen Optimierung der Systeme gelangt.

Additive Fertigung / 3-D-Druck

Auch diese beiden Begriffe werden meist synonym verwendet. Worum geht es? Es handelt sich um ein professionelles, sich von konventionellen Methoden unterscheidendes Produktionsverfahren, bei dem Schicht um Schicht Bauteile aufgebaut werden, um Prototypen zu erstellen. Durch ein sogenanntes Rapid Prototyping in der Forschung & Entwicklung können die Produktentwicklung (und damit die Markteinführung) entscheidend beschleunigt werden. (Im Sinne verschwindender Grenzen zwischen Forschung & Entwicklung einerseits und Produktion andererseits hält das Verfahren zunehmend Einzug in die Serienfertigung.)

Der entscheidende Vorteil gegenüber traditionellen Fertigungsmethoden aber liegt im „Design-driven Manufacturing Process“, bei dem nicht die Fertigung die Konstruktion determiniert, sondern bei dem die Konstruktion die Fertigung bestimmt. Die additive Fertigung verspricht zudem Designfreiheit, Funktionsoptimierung und -integration sowie die Individualisierung von Produkten in der Serienfertigung.

VR- & AR-Konzepte werden Forschung und Entwicklung massiv beeinflussen.

Augmented Reality (AR)

Nicht selten wird beim Prototyping auch die „erweiterte Realität“ (Augmented Reality) eingesetzt, die computerbasierte Erweiterung der Realitätswahrnehmung – oft mithilfe von AR-Brillen. So lassen sich in mehrdimensionalen Räumen Objekte, die nur zweidimensional als Baupläne existieren, völlig neu fassen, da das eigene Verhalten virtuell abgebildet werden kann. Bspw. werden virtuell konzipierte Werkstücke, etwa beim Autobau Mittelkonsolen, per AR-Anwendungen simuliert.

Der Entwickler oder – idealerweise über Open Innovation – auch der Kunde hat damit die Möglichkeit, zu prüfen, ob die Teile tatsächlich funktional und anwenderfreundlich angeordnet worden sind oder ob Optimierungsbedarf entsteht. Die Vorteile liegen auf der Hand, vor allem die Reduzierung von Forschungs- und Entwicklungskosten sowie die Verkürzung des Entwicklungsprozesses.

Open Innovation

Der Begriff der Open Innovation stammt von Henry Chesbrough und bezeichnet die meist plattformübergreifende Öffnung des Innovationsprozesses in Unternehmen und die strategische Nutzung der Außenwelt. Dazu müssen die Unternehmen imstande sein, externes Wissen zu internalisieren und internes Wissen zu externalisieren. Das durch steigenden Wettbewerbsdruck, kürzere Produktlebenszyklen und höheren Innovationsdruck begründete Konzept wirkt sich vor allem auf die Forschungs- und Entwicklungsabteilung aus. Lautete das Motto der Closed Innovation, also der Innovation ausschließlich im Unternehmen, „We can do it, we will do it“ („Wir schaffen das“), so gilt für die Open Innovation die Devise „The best from anywhere“. Eigene Mitarbeiter außerhalb des Forschungs- und Entwicklungsteams, aber auch „Stakeholder“ wie Kunden, Lieferanten, Universitäten sowie auch Mitbewerber und Unternehmen anderer Branchen können in den Innovationsprozess eingebunden werden.

Es handelt sich um ein kollaboratives Networking im Bereich der Forschungs- und Entwicklungsarbeit, das auf Wissensaustausch und Vernetzung von Know-how basiert. Da Open Innovation immer ein Geben und Nehmen impliziert und viele Unternehmen immer noch zurückhaltend sind, eigenes Know-how preiszugeben, hat sich das Konzept noch nicht in der Breite durchgesetzt – dennoch ist angesichts des Drucks auf die Unternehmen zu erwarten, dass sich Open Innovation mehr und mehr durchsetzen wird. Beispiele für gelungene Projekte sind InnovationJam, eine IBM-Plattform, über die Unternehmen und Universitäten aus verschiedenen Ländern miteinander kooperieren, oder die Internet-Musikbörse Last.fm, die sogenannte „Hacker-Tage“ organisiert, an denen Nutzer neue Applikationen entwickeln können.

Coopetition

Die Coopetition – ein Kunstwort, das sich aus Competition (Wettbewerb) und Cooperation (Zusammenarbeit) zusammensetzt – bedeutet eine Dualität aus Kooperation und Wettbewerb. So können auf der gleichen Wertschöpfungsstufe – in diesem Fall eben meistens der Forschung & Entwicklung – die Kompetenzen und das Know-how gebündelt werden (horizontale Kooperation), während man etwa in puncto Marketing und Vertrieb Wettbewerber bleibt. Ein Beispiel ist die Kooperation zwischen VW und Ford, die gemeinsam einen Fahrzeugtyp entwickelten, der bei VW als „VW Sharan“ und „Seat Alhambra“, bei Ford als „Ford Galaxy“ vermarktet wurde. Einfacher ist die gemeinsame Produktentwicklung natürlich zwischen Unternehmen, die mit dem Produkt unterschiedliche Anwendungs-zwecke verfolgen und unterschiedliche Zielgruppen bedienen.

Customer Experience

Auch die Customer Experience ist eng mit der Open Innovation verbunden. Hierbei geht es um die gezielte Einbindung von Kunden, oft sogenannter Lead-User, also besonders fortschrittlicher Anwender, zur Verbesserung und Weiterentwicklung von Produkten. In sogenannten „Customer Experience Centres“ haben Kunden die Möglichkeit, Prototypen und Produkte zu testen. Während mit dem Ansatz der Customer Experience generell positive Kundenerfahrungen generiert werden und die Kunden im Idealfall zu „begeisterten Botschaftern“ gemacht werden sollen, bedeutet er für die Forschungs- und Entwicklungsabteilung die passgenaue Identifikation der Kundenwünsche. Nichts ist schlimmer als ein Team verspielter Technikfreaks, die an den Kundenwünschen vorbeiarbeiten. Die zentrale Forderung, gerade für Forschung & Entwicklung, lautet daher: „Customer Experience bedeutet, die Bedürfnisse des Kunden nicht nur zu erfüllen, sondern jederzeit zu übertreffen.“ Voraussetzung dafür ist, sie zu kennen. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Abteilung IT

Die Zukunft der IT-Abteilung liegt in der Automatisierung.

von Dr. Ralf Magagnoli

Die Prophezeiungen der Auguren waren teils düster: „Die IT-Abteilung vor dem Aus retten“, titelte etwa die Computerwoche im Oktober 2018. Sicher ist nur, die IT-Abteilung wird sich wandeln, sie wird neue Aufgaben übernehmen und alte delegieren müssen. Welche Trends sind gegenwärtig erkennbar, die auf die IT-Abteilungen einwirken und mit denen sich die IT-Abteilungen befassen müssen? Wie wirken sich vor allem Automatisierung und Digitalisierung auf die Arbeit der IT-Abteilungen aus?

Der „Chief Digital Officer“ (CDO)

In vielen Unternehmen gibt es ihn bereits als Hauptverantwortlichen der Digitalisierungsstrategie im Unternehmen. Der CDO gehört der obersten Hierarchieebene an. Zu seinen Aufgaben gehören die Analyse der Ist-Situation in den Unternehmen, die Entwicklung einer digitalen Strategie, die Bereitstellung der notwendigen Ressourcen für die digitale Transformation, die Beaufsichtigung des Wandels, die Beobachtung neuer Entwicklungen und die etwaige Übernahme in das bestehende digitale System. Kritisiert wird eine oftmals unklare Rollenverteilung in vielen Unternehmen. Hier gilt es, klare Regeln und Verantwortlichkeiten zu definieren und dem CDO die Möglichkeit zu geben, die digitale Transformation umzusetzen.

Strukturveränderung

Möglicherweise wird sich die Struktur der IT-Abteilung selbst drastisch verändern. Zwei Möglichkeiten stehen hier zur Disposition: Der Analyst Forrester Research schreibt, dass sie möglicherweise in einen Frontend- und einen Backend-Teil, welcher dann an eine Shared-Services-Abteilung berichtet, zerfallen werde. Eine weitere Möglichkeit besteht darin, dass die IT als eigenständige Einheit auf die verschiedenen Abteilungen im Unternehmen aufgeteilt wird. Gut möglich aber auch, dass die IT-Abteilung weitgehend in der bisherigen Form erhalten bleibt. Sicher ist nur, dass, wie auch in anderen Abteilungen, die Anforderungen an die Mitarbeiter in puncto Agilität, Fähigkeit, über den eigenen Tellerrand zu schauen, und Bereitschaft zum Kulturwandel wachsen werden. Anders ausgedrückt: Nerds und „Das haben wir schon immer so gemacht“-Typen werden immer weniger gefragt sein.

Modernisierung der Legacy-Systeme

Unter Legacy-Systemen werden die über Jahre, teilweise über Jahrzehnte gewachsenen IT-Infrastrukturen verstanden, die oft als Altlasten ein Hindernis für die Zukunftsfähigkeit der Unternehmen sind. Dies in zweifacher Hinsicht: Zum einen im Hinblick auf die Geschäftsprozesse, zum anderen auch in finanzieller Hinsicht, denn die Versuche, die IT-Kosten zu senken, führen zu einem Investitionsstau, dessen Folge archaische Systeme sind, deren Wartungskosten steigen, womit wiederum weniger Gelder für Investitionen zur Verfügung stehen. Ein Teufelskreis, den es zu durchbrechen gilt. Hier bietet sich die Verlagerung von Software und Infrastruktur in die Cloud an, die von spezialisierten Dienstleistern auch vorgenommen wird.


Für die IT-Abteilung wie für die Unternehmen wird es darauf ankommen, den Spagat zwischen inkrementeller und disruptiver Methode zu meistern

Ralf Magagnoli

Microservices

Hier kommen oft Standardsysteme mit adaptiven Architekturen zum Einsatz. Diese Dienste sind so konzipiert, dass sie mit den Anforderungen wachsen und zudem einen modularen Aufbau ermöglichen, was wiederum ein „Plug and play“ mit selbst entwickelten, meist allerdings zugekauften Komponenten erlaubt. Über Continuous Integration / Continuous-Deployment-Pipelines sind zudem agilere, produktzentrierte Betriebsmodelle möglich. Zugleich sollten Unternehmen die Risiken im Auge behalten, die sich über eine zu schnelle Übernahme von Standardsystemen ergeben – nämlich, dass der USP unter Umständen verloren gehen kann. Auch hier ist eine „smarte“ Kombination von Standardisierung und Customizing gefordert.

„Software as a Service“ und „Infrastructure as a Service“

Auch dieser Punkt hängt mit den beiden vorangehenden Punkten zusammen. Nicht nur die Software, sondern die gesamte Infrastruktur wird in die Cloud verlagert und, meist von einem spezialisierten Dienstleister, zur Verfügung gestellt. Die Unternehmen brauchen also weder Software zu entwickeln oder einzukaufen noch Rechnerinfrastrukturen aufzubauen, sondern mieten diese. Betrieb und Wartung liegen beim Dienstleister. Tendenziell bestehen die Rechner in den Unternehmen dann aus Thin Clients: Die Anwender greifen dann per Webbrowser auf die Anwendungen in der Cloud zu. Die Vorzüge: Kalkulierbare Kosten (Miete) und Konzentration aufs Kerngeschäft. Dennoch haben immer noch viele Unternehmen Hemmungen, unternehmenskritische Anwendungen Dritten zu überlassen.

Internet of Things (IoT)

Hier besteht ein Unterschied zwischen der Erwartungshaltung – wie bedeutsam ist IoT für das Unternehmen, wie bedeutsam wird IoT für das Unternehmen werden? – und der Umsetzung. Während laut einer aktuellen IDC-Studie rund 43 Prozent der Befragten in Unternehmen IoT für sehr wichtig bzw. wichtig halten und über 63 Prozent glauben, dass die Bedeutung in Zukunft sehr hoch bzw. hoch sein wird, haben nur rund 20 Prozent der Unternehmen IoT-Projekte umgesetzt. Ziel des IoT ist es, die Lücke zwischen der realen und der virtuellen Informationswelt zu schließen, die dadurch entsteht, dass die in der realen Welt verfügbaren Informationen im Internet nicht abrufbar sind. Das hat Auswirkungen zum Beispiel auf den Kundendialog, der mittels IoT über sogenannte Connected Products verbessert wird, was wiederum die Optimierung bestehender und die Kreierung neuer Produkte zur Folge hat. Beispiel: Der Sportartikelhersteller, dessen Turnschuh sich je nach Laufgeschwindigkeit aufpumpt bzw. fester schnürt. Wichtige Daten werden über Sensoren nicht nur an den Kunden, sondern auch an den Hersteller weitergeleitet. Tritt ein Problem auf, kann der Hersteller schnell reagieren und Verbesserungen an dem Produkt vornehmen.

Industrial Internet of Things (IIoT)

Es geht um den Einsatz von IoT im industriellen Bereich, bspw. im produzierenden Gewerbe, im Gesundheitswesen, in der Energiewirtschaft oder im Agrarwesen. Hierbei gilt es, Daten über den gesamten Informationsprozess zu erfassen und zu kontrollieren. Beispiel Produktion. Das Stichwort hier lautet etwa Predictive Maintenance: Die Maschinen geben Zustandsdaten, die eine proaktive Wartung ermöglichen. So etwa, im kostengünstigen Fall, der Tintenstrahldrucker, der vorab informiert, wann der Füllstand unterschritten wird. Bedenkt man, dass bei komplexeren Maschinen ein Ausfall auch nur von zwei oder drei Stunden teuer werden kann, rechnet sich die Predictive Maintenance. Das IIoT umfasst aber auch die Verbesserung und Kontrolle der Supply Chain, die Sicherstellung der Energiezufuhr über Smart Grids, intelligente, dezentrale Verteilnetze oder Werte bzgl. Raumtemperatur, Luftqualität und Ozongehalt in Produktionsstätten.

Data Science

Als Data Science wird die Extraktion von Wissen aus Daten bezeichnet. Angesichts der auch durch IoT und IIoT dramatisch erhöhten Datenmenge kommt dieser Extraktion eine besondere Bedeutung zu, sodass Spezialisten – meist Absolventen der einschlägigen Studiengänge – sehr gefragt sind. Data Scientists benötigen im Prinzip Kenntnisse in fünf Bereichen: Diese reichen von der ersten Schicht, der „Database Technology“, über die zweite Schicht, die „Data Access & Transformation“, die dritte Schicht, die „Programming Language“, die vierte Schicht, die „Data Science Tool & Library“, die fünfte Schicht, die „Data Science Method“, bis zur Fachexpertise im jeweiligen Fachbereich – also etwa der Ingenieurswissenschaft oder der Betriebswirtschaft. Erst wenn ein Mindestmaß an Fachwissen vorhanden ist, kann der Data Scientist die Fachspezialisten gezielt unterstützen. In kleineren Unternehmen wird im Allgemeinen der Data-Science-Allrounder gesucht, der imstande ist, das gesamte Aufgabenspektrum zu übernehmen, das in größeren Unternehmen von den jeweiligen Spezialisten im jeweiligen Bereich übernommen wird.

Digitale Ökosysteme

Oikos im Altgriechischen bedeutet Haus, sýstema das Verbundene. Auch wenn die Abgrenzung digitaler Ökosysteme nicht ganz einfach ist, kann als ihr Ziel das Überwinden komplexer Herausforderungen durch Imitation biologisch-komplexer Systeme genannt werden. Ein digitales Ökosystem, das sich prinzipiell durch Offenheit auszeichnet, setzt sich aus heterogenen Akteuren unterschiedlicher Branchen und Disziplinen zusammen. Hier wird die Aufgabe der IT-Abteilung darin bestehen, die Einbindung des Unternehmens in ein solches digitales Ökosystem zu gewährleisten und die Stabilität dieses heterogenen Netzwerks bei gleichzeitiger Offenheit zu ermöglichen.


Quelle: Computerfutures
https://www.computerfutures.com/de/blog/2018/02/die-zukunft-der-it-abteilung

Automatisierung / „Robotic Process Automation“ (RPA)

Darunter werden virtuelle Mitarbeiter verstanden, die ähnlich den physisch existenten Robotern der klassischen Prozessautomatisierung bestimmte Aufgaben erfüllen. Es handelt sich dabei um Software-Agenten, die menschliches Handeln nachahmen. Dabei kann der Aufgabenbereich der jeweiligen Software-Agenten eher einfache Aufgaben wie das Versenden von Sammelmails, aber auch komplexere Aufgaben erfüllen. Der Vorteil von RPA liegt u. a. darin, dass über Kostenreduktionen Insourcing bestimmter Aufgaben wieder interessant werden kann. Problematisch kann RPA dort werden, wo keine klaren Verantwortlichkeiten benannt sind – für Wartung, Upgrades – oder wo Mitarbeiter an der Konfiguration mitarbeiten sollen, die durch die Anwendungen ersetzt werden sollen. Wichtig ist es, den richtigen Anbieter auszuwählen, der entsprechende Erfahrungen mit RPA-Projekten vorweisen kann, die in der Regel in verschiedenen Schritten vorgenommen werden: Analyse der Arbeitsprozesse (oft über Filmaufnahmen), Definition der Automatisierung, Umsetzung, Erfolgskontrolle.

Künstliche Intelligenz / Machine Learning

Machine Learning ist ein Aspekt künstlicher Intelligenz, wenngleich ein zentraler. Über maschinelles Lernen wird ein Computer in die Lage versetzt, ein selbstlernendes System zu werden, ohne ihn entsprechend zu programmieren. Auch hier wird, ähnlich dem digitalen Ökosystem, die Natur zum Vorbild genommen, etwa über „Rückmeldungen“ Objekte zu identifizieren. Dies geschieht mittels selbstlernender Algorithmen, die in Daten bestimmte Muster und Gesetzmäßigkeiten erkennen. Die Intelligenz besteht darin, ähnlich der menschlichen Intelligenz, Dinge miteinander zu verknüpfen, Zusammenhänge zu erkennen und Rückschlüsse zu ziehen. Entsprechende Programme tragen dazu bei, dass aufwendige und langweilige Arbeiten vom Rechner erledigt werden – dies gilt etwa für die Papierdokumentation.

Digital Workplace

Die Arbeitswelt verändert sich stetig. Vorbei die Zeiten, als der Beschäftigte um acht Uhr das Büro betrat und um siebzehn Uhr das Büro verließ (eine Stunde Mittagspause), wobei die Stempeluhr die Arbeitszeit dokumentierte. Heutzutage verschwimmen tendenziell die Grenzen zwischen Arbeitszeit und Freizeit. Über den Digital Workplace können Mitarbeiter von jedem Ort und zu jeder Zeit auf die Unternehmensanwendungen zugreifen, egal ob vom Rechner im Homeoffice, vom Tablet im Zug oder vom Smartphone am Strand. Das Zauberwort heißt selbstbestimmtes (und damit effektiveres) Arbeiten.

Endpoint-Security / Endpoint-Protection

Dass sich durch Homeoffice-Arbeitsplätze angesichts immer anspruchsvollerer Vorgaben des Gesetzgebers – hier sei etwa die Datenschutzgrundverordnung (DGSVO) genannt – die Anforderungen an die Compliance erhöhen, versteht sich von selbst. Ein Ansatz ist die sogenannte Endpoint-Security oder Endpoint-Protection, über die Netzwerke von Laptops, Tablets, Handys und anderen Geräten gesichert werden sollen. Die Rechtevergabe obliegt dem Systemadministrator, der auch deren Einhaltung überprüft. Dabei können Vergehen gegen die Datensicherheit – etwa unbefugte Zugriffe auf sensible Daten – sofort verfolgt und geahndet werden – wichtig gerade im Hinblick auf die Wirtschaftsspionage. Es bestehen Verbindungen zum Cloud-Computing (Software as a Service, Infrastructure as a Service) und den Thin Clients im Unternehmen.

Self-Service (Low Code)

Low-Code-Plattformen sind grafische Entwicklungsinstrumente für Geschäftsapplikationen. Sie ermöglichen es, Softwareprogramme schnell und leicht zu erstellen und anzupassen. Dazu sind weder spezielle Programmierkenntnisse noch größere Erfahrungen nötig. Über offene Schnittstellen lassen sich bestehende Technologien und Anwendungen meist problemlos nutzen. Die Vorteile liegen auf der Hand: Die Unternehmen sind weniger abhängig von externen Dienstleistern, die Programme werden bis zu zehn Mal schneller erstellt, sie können auch von Mitarbeitern der Fachabteilungen geschrieben werden, wodurch sich der Graben zwischen IT-Abteilung und Fachabteilung verringert, die internen Entwickler können sich um die komplexeren Aufgaben kümmern.

Inkrementelle vs. disruptive Innovation / Bimodale IT

Während es beim inkrementellen Ansatz um schrittweise Optimierungen und Kostensenkungen geht (Beispiele Digital Workplace, Software as a Service, RPA), setzt der disruptive Ansatz auf dramatische Änderungen meist ganzer Geschäftsmodelle. Dementsprechend liegt im IT-Bereich die inkrementelle Innovation tendenziell beim CIO und der IT-Abteilung, während die disruptive Innovation eher Sache des Vorstands (und ggf. des CDO) ist. In den meisten Fällen geht es aber nicht um ein Entweder-oder, sondern um ein Sowohl-als-auch, da beide Ansätze ihre Vor- und Nachteile haben. Stichwort: Bimodale IT. Diese umfasst ein vorhersagbares Kernsystem einerseits und eine experimentelle, agile Form andererseits, die es erlaubt, mit den schnellen Veränderungen in der Geschäftswelt Schritt zu halten. Für die IT-Abteilung wie für die Unternehmen wird es darauf ankommen, den Spagat zwischen inkrementeller und disruptiver Methode zu meistern. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Testen, entwickeln, forschen

In praxisnahen „Forschungsfabriken“ können neue Verfahren getestet werden – unter anderem am KIT in Karlsruhe.

Die TREND-REPORT-Redaktion sprach mit Prof. Dr.-Ing. Jürgen Fleischer, Institutsleiter des wbk Instituts für Produktionstechnik des Karlsruher Instituts für Technologie (KIT), über die neue Karlsruher Forschungsfabrik und „Company on Campus“.

Herr Prof. Fleischer, mit welchen Themen und Aufgaben beschäftigt sich Ihr Forschungsbereich?

Mein Forschungsbereich beschäftigt sich mit Maschinen, Anlagen und Prozessautomatisierung. Die Kernkompetenzen dieses Bereichs liegen in der Entwicklung und Auslegung von intelligenten, ressourceneffizienten Komponenten für Maschinen und Anlagen sowie in der Gestaltung flexibler, automatisierter Prozessketten. Neben den wesentlichen Kriterien wie Stückzahl- und Variantenflexibilität rückt der Umgang mit neuen, aber unreifen Technologien, in den Anwendungsfeldern Elektromobilität oder Leichtbaufertigung, in den Vordergrund. Zur Etablierung des Produktionsstandorts Deutschland ist die Entwicklung von Maschinen und Methoden für eine schnelle Industrialisierung von neuen, innovativen Produktionstechnologien essenziell.

Welche Aufgaben hat die „Karlsruher Forschungsfabrik“ im Kontext der neuen Technologien?

Die zunehmen­de Individualisierung und hohe Variantenviel­falt von Produkten sowie die Forderung nach neuen und komplexen Fertigungsprozessen stellen eine große Herausforderung an die produ­zierenden Unternehmen. Ziel der Karlsruher Forschungsfabrik ist es, neue Produktionstechnologien durch die interdisziplinäre Zusammenarbeit des Maschinenbaus und der Informatik schnell in sichere und profitable industrielle Fertigungsprozesse umzusetzen. Hierbei spielt die „Strategie Künstliche Intelligenz“ der Bundesregierung sicherlich eine wichtige Rolle.

Am „Campus-Ost“ des KIT, in unmittelbarer Nähe zum Fraunhofer IOSB und dem Karlsruher Technologiepark, entsteht auf rund 4 500 m² die neue Forschungsfabrik.
Bild: Heinle, Wischer und Partner Freie Architekten GbR

Allerdings kann die KI nur einen effizienten Mehrwert generieren, wenn sie intelligent mit dem domänenspezifischen Wissen von Produktionsexperten kombiniert wird. Zusätzlich sind für die oben genannten Herausforderungen neuartige Produktionsanlagen mit automatisierten Lösungen notwendig, sodass individualisierte Produkte mit kleinen Stückzahlen rentabel und flexibel fertigbar sind. Zur Erreichung dieses Ziels haben wir eine starke Kooperation zwischen dem wbk Institut für Produktionstechnik des KIT und den Fraunhofer Instituten ICT und IOSB etabliert.

Wie sehen die Anwendungsfelder der Forschungsfabrik hier aus?

Neben dem technologischen Wandel in der Mobilität durch die Transformation zu alternativen Antrieben, neuen Fahrzeugkonzepten, Geschäftsmodellen und Digitalisierung steigt der Bedarf an individualisierten, hochwertigen und gleichzeitig schnell verfügbaren Mobilitätsprodukten. Dies stellt hohe Herausforderungen an geeignete Produktionsverfahren gerade in den Anwendungsfeldern Elektromobilität und an die hybride Leichtbaufertigung.

Mit neuen Produkten sehr viel früher als bisher auf den Zielmärkten präsent zu sein … Sie versuchen gerade die „Time to Market“ insbesondere für kleine und mittlere Unternehmen im Kontext der neuen Technologien und Geschäftsmodelle zu verkürzen – wie und welche Unternehmen können sich daran beteiligen?

Ziel ist die Unterstützung der produzierenden Unternehmen und des Maschinenbaus, neue Produktionsverfahren schneller als bisher zu industrialisieren. Daraus resultiert für die Unternehmen auch gleichzeitig ein Wettbewerbsvorteil, indem sie ihre Produkte schneller an den Markt bringen können. Für die Kooperation mit Unternehmen haben wir das Konzept „Company on Campus“ entwickelt. Hier ist das Ziel, dass die Unternehmen mit den Partnern der Forschungsfabrik unter einem Dach in einer langfristigen Kooperation in sogenannten „Innovation Centern“ zusammenarbeiten. Hierfür gibt es zusätzlich moderne Büroarbeitsplätze, Konferenz- und Kreativräume in direkter Nähe zur Forschungsfabrik.

Für die Kooperation mit Unternehmen haben wir das Konzept ‚Company on Campus‘ entwickelt. Hier ist das Ziel, dass die Unternehmen mit den Partnern der Forschungsfabrik unter einem Dach in einer langfristigen Kooperation in sogenannten ‚Innovation Centern‘ zusammenarbeiten.

Welche Möglichkeiten und Vorteile bietet Ihr „Company on Campus“ für Unternehmen?

Die Karlsruher Forschungsfabrik bietet eine Plattform für den engen Austausch von Forschungsinstituten und den Unternehmen zu konkreten Entwicklungsfragen. Der Vorteil ist die Nutzung der Synergien aus der innovativen Forschung und den langjährigen Kompetenzen der Unternehmen. Zusätzlich strahlt der Standort Karlsruhe eine hohe Anziehungskraft für junge, hoch qualifizierte Mitarbeiter aus, sodass Unternehmen und Forschung davon profitieren. Neben dem Zugang zu jungen „Talenten“ aus dem Hochschulumfeld bietet die Kooperation in der Karlsruher Forschungsfabrik Potenzial für die Entwicklung neuer, disruptiver Technologien. Diese sind essenziell für die Zukunftssicherung der Unternehmen und des Produktionsstandorts Deutschland. //


Kontakt zum Interviewpartner

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Digitale Souveränität wahren

Soll sich KI auf breiter Basis durchsetzen, ist es notwendig, dass die Industrie und auch die Verbraucher Vertrauen in die Technologie gewinnen.

Die TREND-REPORT-Redaktion sprach mit Professor Holger Hanselka, Präsident des Karlsruher Instituts für Technologie (KIT) und Mitglied im Lenkungskreis der Plattform Lernende Systeme.

Herr Prof. Hanselka, welche Chancen bieten sich für den Standort Deutschland im Kontext neuer KI-Technologien?

Lernende Systeme, die auf Methoden und Technologien der künstlichen Intelligenz basieren, werden zunehmend zum Treiber der Digitalisierung in Wirtschaft und Gesellschaft. Man denke nur an Industrie 4.0, medizinische Diagnostik, autonomes Fahren sowie die Unterstützung von Rettungskräften in Katastrophengebieten. Das wirtschaftliche Potenzial dieser Systeme für Deutschland ist enorm: Bereits heute entstehen völlig neue Geschäftsmodelle, welche die traditionellen Wertschöpfungsketten drastisch verändern.

Aktuell ist die Herausforderung im Zusammenspiel von Wissenschaft und Wirtschaft, dass wir unser Wissen rasch für neue KI-Anwendungen und Geschäftsmodelle nutzen, denn lernende Systeme sind ein zentraler Wettbewerbsfaktor für die Zukunftsfähigkeit des Innovationsstandortes Deutschland.

Dies bietet Chancen für neue Unternehmen, kann aber auch zur Bedrohung für etablierte Marktführer werden, wenn diese nicht rechtzeitig reagieren. In Deutschland ist es unser erklärtes Ziel, dass künstliche Intelligenz dem Menschen dienen soll, nicht umgekehrt. So steht es auch in der KI-Strategie der Bundesregierung. Dies ist auch der Kerngedanke der Plattform Lernende Systeme, in der Politik, Wirtschaft und Wissenschaft zusammenarbeiten, um die Chancen, die KI bietet, bestmöglich für Deutschland zu nutzen.

Die deutschen Investitionen in KI-Technologien, im Vergleich zu den USA und China, fallen eher nüchtern aus. Wie können wir mit der Forschung am Ball bleiben?

In unserer Forschung zu Industrie 4.0, beim autonomen Fahren oder auch im Bereich der Entwicklung von lernenden Systemen für lebensfeindliche Umgebungen nehmen wir in Deutschland bereits einen Spitzenplatz ein. So halten deutsche Unternehmen weltweit die meisten Patente zum autonomen Fahren. Auch in der IT-Sicherheit, einer wichtigen Voraussetzung für Industrie 4.0, sind wir wissenschaftlich weit vorne. Beispielsweise erforschen wir am Karlsruher Institut für Technologie in unserem Kompetenzzentrum für IT-Sicherheit KASTEL, wie sich KI nutzen lässt, um gegen Angreifer gewappnet zu sein, und wie man sich gegen menschlich und künstlich intelligente Angreifer-Systeme wehrt.

Mit der zunehmenden Vernetzung von Unternehmen und öffentlichen Einrichtungen wächst auch deren potenzielle Verwundbarkeit durch Cyber-Angriffe.

Damit die Industrie Vertrauen in KI gewinnt, ist es erforderlich, dass wir die digitale Souveränität wahren können. Die Herausforderung im Zusammenspiel von Wissenschaft und Wirtschaft ist aktuell, dass wir unser Wissen rasch für neue KI-Anwendungen und Geschäftsmodelle nutzen, denn lernende Systeme sind ein zentraler Wettbewerbsfaktor für die Zukunftsfähigkeit des Innovations­standortes Deutschland.

Wie können wir mehr Start-ups im Kontext der neuen Technologien an den Start bringen und fördern?

Wichtig ist eine Gründerförderung auf allen Ebenen. Daher sieht die KI-Strategie der Bundesregierung konkrete Maßnahmen vor, um die Zahl der Gründungen im Bereich der KI zu erhöhen, von Beratungsangeboten bis hin zur Bereitstellung von Wagniskapital. Klar ist: Das Wissen, das wir aktuell in Deutschland haben, müssen wir in den Markt bringen, sodass es der Gesellschaft und Wirtschaft nutzt. Auch am KIT fördern wir massiv Ausgründungen.

Zwei Beispiele: Das 2016 gegründete Unternehmen „Understand ai“ mit Wurzeln am KIT kombiniert Machine Learning mit menschlicher Sorgfalt und bereitet mithilfe selbstlernender Algorithmen Daten für das autonome Fahren auf. „Things Thinking“ setzt KI ein, um große Textmengen in kurzer Zeit zu analysieren, was beispielsweise Wirtschaftsprüfern, Steuerberatern und Kanzleien weiterhilft. Wichtig ist, dass wir Gründern in jedem Schritt des Unternehmensaufbaus systematisch Beratungsangebote an die Hand geben. Dies bedeutet auch, dass wir im Sinne einer Kultur des Scheiterns gesellschaftlich anerkennen, dass junge Unternehmen auch von negativen Erfahrungen lernen und dadurch immer besser werden.

Wo befinden wir uns ungefähr im Entwicklungsprozess der „wirklichen KI“?

Wenn Sie mit „wirklicher KI“ die Unterscheidung von starker und schwacher KI meinen, dann bin ich der falsche Ansprechpartner, denn ich bin kein Informatiker und auch kein Philosoph. Aber als Ingenieur interessiert mich sehr, wie KI in unterschiedliche technische Entwicklungsprozesse einfließt und dort zu großen Veränderungen führt. Denn letztendlich ist es ja nicht die KI, die gesellschaftliche Veränderungen mit sich bringt, sondern die technischen Veränderungen in unterschiedlichen Anwendungsbereichen, die durch KI erreicht werden können. Und da sind die Veränderungen, die man heute schon durch den Einsatz von KI erreichen kann, durchaus schon beträchtlich.

Diesen Ansatz verfolgen wir ja auch in der Plattform Lernende Systeme, wo drei Arbeitsgruppen sich konkreten Anwendungsszenarien widmen, zu intelligenten Verkehrssystemen, zur Gesundheit und zu lebensfeindlichen Umgebungen.

Teilweise autonom fahrende Fahrzeuge sind bereits Realität.

Was wird in naher Zukunft zu erwarten sein?

Im autonomen Fahren werden wir gewaltige Fortschritte machen. Autos, die selbstständig einparken und die uns von A nach B bringen werden, sind ja bereits heute Realität. Fahrerlose Autos werden mehr und mehr unsere Mobilität prägen, die multimodal sein wird und verschiedene Verkehrsmittel kombiniert, idealerweise geplant mit einer App. Dies wird auch die Stadt- und Regionalentwicklung positiv beeinflussen, weil gerade auch ältere Menschen durch das fahrerlose Auto mobiler sind und nicht mehr zwingend in die Stadt ziehen müssen.

Genauso ist die intelligente integrierte Vernetzung der Produktion ein Prozess, der längst begonnen hat und sich in der globalisierten Welt mehr und mehr durchsetzen wird. Dies hat zur Folge, dass wir nicht in Ländergrenzen denken dürfen, sondern europaweit Strategien entwickeln müssen. Die jüngst verkündete Zusammenarbeit von Daimler und BMW beim autonomen Fahren ist ein wichtiges Zeichen, denn es geht darum, in Europa die Kräfte zu bündeln.

Wir müssen KI fest in die in­ge­nieurwissenschaftliche Ausbildung integrieren.

Auch werden sich Berufsbilder verändern. Das Weltwirtschaftsforum rechnet damit, dass schon bis zum Jahr 2022 weltweit rund 75 Millionen Arbeitsplätze durch Maschinen ersetzt werden. Gleichzeitig werden der Studie zufolge in den kommenden fünf Jahren 133 Millionen neue Stellen geschaffen, für die teilweise ganz neue Fachkenntnisse nötig sein werden, wie Datenanalysten, E-Commerce- und Social-Media-Spezialisten.

Dies bedeutet, dass bereits Schülerinnen und Schüler programmieren lernen und wir KI fest in die ingenieurwissenschaftliche Ausbildung integrieren müssen. Denn künftig werden wir KI in jedem Schritt der Entwicklung von neuen Produkten mitdenken müssen.

Wie könnten in Zukunft die neuen KI-Technologien unsere Netze und Anwendungen sicherer machen und welche Herausforderungen sind noch zu meistern?

Der Hackerangriff auf den Bundestag Ende des letzten Jahres und die Cyberattacke „Wanna Cry“ auf die Deutsche Bahn im Mai 2017 sind nur zwei Beispiele für Angriffe auf IT-Systeme des Staates und der Wirtschaft. Mit der zunehmenden Vernetzung von Unternehmen und öffentlichen Einrichtungen wächst auch deren potenzielle Verwundbarkeit durch Cyber-Angriffe.

KI kann die Sicherheit von IT-Systemen verbessern. Wir sollten aber darauf achten, nicht nur die Außengrenzen eines komplexen IT-Systems zu schützen, das reicht nicht aus. Denn wir müssen auch reagieren können, wenn ein Teil des IT-Systems von einem Angreifer übernommen wurde.

KI-Systeme können ihr Potenzial ausspielen, wenn es um die verlässliche Angriffserkennung geht. Eine Herausforderung besteht darin zu verstehen, warum eine KI dies oder jenes tut. Daher brauchen wir dringend weitere Forschung und Einblicke in die „Blackbox“ der KI, damit wir uns auf die Entscheidungen von KI-Systemen in kritischen Situationen verlassen können. //

Kontakt zum Interviewpartner

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

5G: Steuerung ohne Latenz

Der 5G-Standard: Grundvoraussetzung für das Industrial IoT

von Kristina Kastner

Immer mehr, immer schneller: Jahrzehntelang wurden mit jedem neuen Mobilfunkstandard die Datenraten massiv erhöht. So auch diesmal, beim Wechsel von 4G zu 5G. Und doch ist diesmal etwas fundamental anders: Für das IoT sind exorbitante Geschwindigkeiten beim Up- und Download zwar interessant, wichtiger aber sind Zuverlässigkeit, niedrige Latenzen und eine gute Festkörperdurchdringung. Im Mittelpunkt der Standardisierungsbemühungen stehen bei 5G mehrere Milliarden Maschinen, Autos, Dinge, die in Echtzeit miteinander kommunizieren wollen.

Mobilfunknetze haben seit den 1980er-Jahren vor allem einen Zweck: Menschen zu verbinden. Zunächst diente das Netz ausschließlich zum Telefonieren, also der Sprachübertragung. Danach gab es ungefähr alle zehn Jahre einen Entwicklungssprung durch die Einführung eines neuen Mobilfunkstandards.

In den 1990er-Jahren kam mit der zweiten Generation (2G) die Textübertragung in Form der SMS hinzu. Internetfähig war kaum ein Mobilgerät. Und wenn doch, wurden mobile Daten über GPRS oder per Edge (E) mit maximal 220 kbit / s übertragen. Das reicht kaum für den Aufbau einer modernen Website.

Mit der dritten Generation (3G oder auch UMTS) begann der Siegeszug der Smartphones und das Internet wurde mobil – um mit der vierten Generation (4G oder auch LTE-Advanced) seine heutige Geschwindigkeit zu erreichen. In der Theorie sind heute Downloadgeschwindigkeiten von 1 000 Mbit / s möglich, in der Praxis sind es allerdings eher 50 Mbit / s. Das liegt zum Beispiel daran, dass zu viele Nutzer in einer Zelle eingewählt sind, oder daran, dass sich der Nutzer in einem geschlossenen Raum befindet und sich der Empfang dadurch deutlich verschlechtert.

Seit 1998 federführend bei der Standardisierungsarbeit ist 3GPP („3rd Generation Partnership Project“), eine weltweite Kooperation von Standardisierungsgremien. Ein Großteil aller Mobilfunknetzbetreiber, -hersteller und -regulierungsbehörden ist hier organisiert und erarbeitet technische Spezifikationen, die alle Aspekte der Mobilfunktechnik möglichst präzise beschreiben. So soll sichergestellt werden, dass die Mobilgeräte der Hersteller in den Mobilfunknetzen weltweit kompatibel sind.

„In der Fabrik der Gegenwart sind zahlreiche Prozesse automatisiert. Zudem werden heute bereits Maschinendaten gesammelt, analysiert und zur Optimierung von Abläufen genutzt.“

Soweit zur Geschichte der Mobilfunkstandards. Die Zukunft heißt 5G und wird für das Jahr 2020 erwartet. 5G verspricht nicht weniger als eine Revolution: Zum ersten Mal steht nicht die Kommunikation zwischen Menschen im Mittelpunkt der Weiterentwicklung, sondern die zwischen Dingen – das Internet of Things. Selbstverständlich wird auch in diesem Entwicklungsschritt das Mobilfunknetz bzw. das mobile Internet noch komfortabler für die menschlichen Anwender. Bis zu 10 Gb / s Downloadgeschwindigkeit und sogar 20 Gb / s im Upload sollen zukünftig laut 3GPP-Spezifikationen – in der Spitze – möglich sein. 5G richtet sich (zumindest in Europa) aber weniger an die Endverbraucher als vielmehr an die Industrie und die hat, über die hohen Bandbreiten hinaus, ganz andere Bedürfnisse.

Vernetzung in der Smart Factory

In der Fabrik der Gegenwart sind zahlreiche Prozesse automatisiert. Zudem werden heute bereits Maschinendaten gesammelt, analysiert und zur Optimierung von Abläufen genutzt. So kann mancherorts der Wartungsbedarf prognostiziert und vorausschauend eingeplant werden – Stillstände werden so vermieden. Um die dafür benötigten Daten zu sammeln, werden die Maschinen mit Sensoren ausgestattet, die in einem lokalen Netzwerk vernetzt sind und die Daten zu einer Plattform in einer Cloud schicken.

Die Fabrik der Zukunft, die Smart Factory, basiert auf solchen intelligenten Einheiten. Das bedeutet, die Zahl der vernetzten Dinge steigt: Dazu gehören etwa fahrerlose Transportfahrzeuge in der Logistik oder Transportbehälter, die ihre aktuelle Position und ihren Füllstand melden, aber auch Augmented-Reality-Brillen, die die Fabrikarbeiter durch komplexe Anwendungen und Arbeitsschritte führen.

Der große Unterschied zwischen heute und morgen: Heutige Vernetzungstechnologien sind größtenteils noch kabelgebunden. Hier kommen vor allem Ethernet- und Feldbus-Technologien zum Einsatz. Die Smart Factory aber muss kabellos funktionieren, denn nur so wird die benötigte Mobilität und Flexibilität möglich – also etwa das Tracken einer Lieferung in einer komplexen Logistikkette. Heutige Funkverbindungen genügen jedoch kaum den Ansprüchen der Smart Factory, insbesondere in Hinblick auf Zuverlässigkeit, Latenzen und die Möglichkeit, eine große Masse an Dingen miteinander – in Echtzeit – zu vernetzen.

Erste Schritte auf dem Weg zur Smart Factory sind heute schon möglich: So existieren bereits jetzt mit Narrowband-IoT und M2M-Kommunikation Technologien und Konzepte, die die Vernetzung zwischen Dingen bzw. Maschinen möglich machen. Narrowband-IoT ist als 3GPP-Standard Teil von „Long Term Evolution“ (LTE). Er funktioniert über simple Funkmodule, die per Plug & Play installiert werden und günstig in der Anschaffung und im Betrieb sind – und somit ideal für IoT-Anwendungen, die nur ab und zu kleine Datenmengen versenden. An Narrowband-IoT lässt sich bereits ablesen, was den 5G-Standard gegenüber seinen Vorgängern so besonders macht: Bei Industrieanwendungen wie dem IoT geht es nur selten um große Bandbreite und hohe Geschwindigkeiten. Vielmehr müssen kleine Datenmengen zuverlässig übertragen werden – auch in schwierigen Umgebungen und über große Distanzen.

Das Netzwerk in Scheiben schneiden

Die Herausforderung, die der 5G-Standard meistern muss, liegt auch und besonders in der Zahl der Geräte, die sich im mobilen Netz befinden. Laut einer Prognose des US-amerikanischen Marktforschungsunternehmens IDC werden im Jahr 2020 etwa 1,8 Milliarden Smartphones weltweit mobiles Internet nutzen – hinzu kommen bis zu 50 Milliarden vernetzte Fahrzeuge, Maschinen und sonstige Geräte, die miteinander, mit der Cloud und mit den Nutzern kommunizieren. Die Lösung liegt darin, das Netz zu entzerren, je nach Anforderung. Das geschieht durch das sogenannte Network-Slicing. Dabei bekommt jede Anwendung das Netz, das sie benötigt, indem das Netz virtuell in Abschnitte oder Sub-Netze mit eigens definierten Ressourcen- und Verfügbarkeits-Garantien unterteilt wird.

Im 5G-Netz werden neue Frequenzbereiche hinzugezogen, die bisher nicht genutzt wurden. Bisher findet der gesamte Mobilfunk im Bereich bis 6 GHz statt. Die Frequenzen darüber hinaus waren nicht nutzbar, da bislang die notwendigen Technologien fehlten. Die neuen, großen Übertragungsraten finden alle oberhalb von 6 GHz statt. Das bedeutet unter anderem, dass das Netz deutlich engmaschiger werden muss, als das bisher der Fall war. Hier werden die Mobilfunkbetreiber investieren müssen, in neue – und vor allem mehr – Antennen. Das Signal der IoT-Endgeräte dagegen muss Wände und andere Festkörper durchdringen können, da es in Gebäuden auch vom Kellergeschoss ins Erdgeschoss gelangen muss. Diese Festkörperdurchdringung ist besonders bei den niedrigen Frequenzen gegeben, außerdem wird in diesem Spektrum eine hohe Zuverlässigkeit erreicht. Für eine flächendeckende Abdeckung ist das 2,6-GHz-Spektrum prädestiniert.

Pro Quadratkilometer eine Million vernetzter Geräte

Das IoT stellt fünf große Anforderungen an das mobile Netz: Größtmögliche Netzabdeckung, robuste Übertragungen, maximale IT-Sicherheit, geringstmöglicher Stromverbrauch und minimale Kosten. IoT-Endgeräte verbrauchen durch die Einschränkungen bei der Datenrate und der Sendefrequenz sehr wenig Strom, sodass ein Batteriesatz zehn Jahre oder länger halten kann. Aufgrund der geringen benötigten Bandbreite lassen sich mehrere 10 000 IoT-Endpunkte (an denen die gesendeten Daten der vernetzten Geräte zusammenlaufen) mit einer Funkzelle versorgen. Das 5G-Netz wird für die Vernetzung von einer Million Geräte / Dinge pro Quadratkilometer ausgelegt sein.

„Die Herausforderung, die der 5G-Standard meistern muss, liegt auch und besonders in der Zahl der Geräte, die sich im mobilen Netz befinden.“

Ein weiterer Faktor, der für das IoT elementar ist, ist die niedrige Latenz. Der Zeitraum zwischen dem Auftreten eines Signals beim Sender und dem Eintreffen desselben beim Empfänger muss für Industrieanwendungen so kurz wie möglich sein, sodass etwa im Falle einer Störung im Produktionsablauf kein Domino-Effekt einsetzt und weitere Schäden nach sich zieht. Gleichzeitig dürfen die betreffenden Anwendungen praktisch keinerlei Ausfall verzeichnen. Im 4G-Netz liegt die Latenz bei 10 ms, sie soll auf 1 ms in 5G sinken.


Quelle: Begleitforschung Technologieprogramm PAiCE

Mitreden bei der Standardisierung

Die Arbeit am 5G-Mobilfunkstandard soll im Rahmen der 3GPP bis Ende 2019 abgeschlossen werden, sodass 2020 mit der Einführung begonnen werden kann. In den einzelnen Arbeitsgruppen sind auch Vertreter aus Forschung und Wirtschaft vertreten, unter anderem auch aus Deutschland. So auch mehrere Projektpartner des Forschungsprojektes IC4F aus dem Technologieprogramm PAiCE des Bundesministeriums für Wirtschaft und Energie (BMWi), das an robusten und echtzeitfähigen Kommunikationslösungen für die verarbeitende Industrie arbeitet. Sie konnten einige relevante Anwendungsfälle und Anforderungen an 5G im Kontext der Smart Factory in die 5G-Standardisierung einbringen. Diese wurden im Technical Report „Study on Communication for Automation in Vertical domains” berücksichtigt. Auf diese Weise können einzelne Branchen Einfluss darauf nehmen, dass ihre Interessen bei der Formulierung des 5G-Standards berücksichtigt werden.

„Die Arbeit am 5G-Mobilfunkstandard soll im Rahmen der 3GPP bis Ende 2019 abgeschlossen werden, sodass 2020 mit der Einführung begonnen werden kann.“

Der betreffende Technical Report deckt Anwendungsfälle aus wichtigen Bereichen wie Service-Robotik, Augmented Reality, Virtual Reality, Fertigungsautomatisierung, Prozesssteuerung und -überwachung, mobile Fernsteuerung und Fernwartung mit Sicherheitsfunktionen sowie massive funkbasierte Sensornetze ab. So konnte etwa festgelegt werden, dass mobile Robotiksysteme, die über ein 5G-Netz kommunizieren, in der Lage sein müssen, in Echtzeit miteinander zu kommunizieren und Kontrolldaten auszutauschen. Dies ist elementar für die kollisionsfreie Zusammenarbeit, da in der Fabrik der Zukunft bis zu hundert (potenziell bis zu 1 000) autonome mobile Robotiksysteme gleichzeitig zusammenarbeiten werden. Einer von vielen Schritten hin zu einem Industrial IoT. //


Autorenvita Kristina Kastner

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Künstliche Intelligenz ohne Vorurteile

Die Datenqualität bestimmt die Leistungsfähigkeit selbstlernender Systeme.

von Andrea Martin

Künstliche Intelligenz (KI) kreiert Tausende neue Möglichkeiten und stößt Türen in digitale Welten auf, die vorher unerreichbar waren. Um bei diesem Fortschritt nicht den Anschluss zu verpassen, investieren viele Unternehmen derzeit kräftig in Funktionalitäten, die die neue Technologie mit sich bringt. Von Chatbots, die Unternehmen helfen, Gespräche mit ihren Kunden zu personalisieren, bis hin zu Systemen, die jahrzehntelanges institutionelles Wissen für einen Fachexperten sofort zugänglich machen. Die Wunderwaffe von intelligenten KI-Systemen: Dort Muster zu erkennen und intelligente Vorhersagen aus erhobenen Daten zu treffen, wo die kognitiven Fähigkeiten des Menschen nicht mehr ausreichen.

Laut einer aktuellen Studie von IDC haben gut ein Viertel der befragten Unternehmen in Deutschland bereits KI-Projekte umgesetzt. 69 Prozent wollen in den nächsten zwölf Monaten neue KI-Initiativen anstoßen. Gebremst wird diese Entwicklung allerdings von einem mangelnden Vertrauen in die „denkenden Maschinen“. Viele machen sich Gedanken, ob sie den Ergebnissen einer KI-Lösung vertrauen können und ob die neue Technologie auch allen rechtlichen Vorschriften entspricht. Im Zentrum steht dabei die Frage, ob und wie sich die Entscheidungen von selbstlernenden Maschinen nachvollziehen und überprüfen lassen.

Unfaire Verzerrungen in den Daten identifizieren

Die Vision ist simpel: Statt sich auf menschliche Annahmen zu stützen, beispielsweise bei der Kreditvergabe oder bei der Vorauswahl im Bewerbungsprozess, beziehen sich die lernenden Maschinen auf statistische Modelle aus einer Vielzahl von Datenquellen und Parametern. Das Problem dabei: Enthalten die Daten unbewusste Vorurteile, Stereotype und altmodische Rollenbilder, werden diese von den lernenden Algorithmen nicht nur übernommen, sondern noch zusätzlich verstärkt.

Vertrauens- und Transparenzprinzipien

  • Der Zweck einer KI ist es, die menschliche Intelligenz zu erweitern und zu unterstützen.
  • KI-Systeme müssen transparent und erklärbar sein.

  • Daten und Erkenntnisse gehören ihren Schöpfern bzw. den jeweiligen Unternehmen, die das KI-System nutzen.

Wenn Fotos und deren Beschriftungen Kochen überwiegend mit Frauen in Verbindung bringen, dann lernt die Software Kochen immer als Frauentätigkeit zu erkennen. Die Maschinen denken dann genauso in Rollenklischees wie wir Menschen. Mitarbeiter müssen KI-Lösungen und die resultierenden Ergebnisse während der Entwicklung, der Trainingsphase und im Betrieb genau beobachten. Ziel ist, statistische und systematische Fehler zu erkennen, ggf. Gegenmaßnahmen zu ergreifen und deren Effekt zu überwachen.

Vielfalt menschlicher Gesichter stellt KI auf die Probe

Die Herausforderungen beim Training von künstlicher Intelligenz zeigen sich besonders bei der Gesichtserkennung. Es ist nicht einfach, Gesichtserkennungssysteme zu entwickeln, die in puncto Fairness unseren Erwartungen entsprechen. Der Kern des Problems liegt dabei nicht in der KI-Technologie selbst, sondern in der Art und Weise, wie die KI-gestützten Gesichtserkennungssysteme optimiert und trainiert werden.

Wie funktionieren neuronale Netze? 

Neuronale Netzwerke sind Rechenmodelle für das maschinelle Lernen, die von der Struktur des menschlichen Gehirns inspiriert sind. Im Gehirn sind Neuronen hochgradig vernetzt und kommunizieren chemische Signale über Synapsen in den Nervenzellen.

Künstliche neuronale Netze kommunizieren Signale (Zahlen) über Gewichte und Aktivierungsfunktionen (z. B. Sigmoide), die Neuronen aktivieren. Sie werden anhand von Beispielen trainiert und nicht explizit programmiert: Mithilfe eines Trainingsalgorithmus passen die Netzwerke in jeder „Trainingsrunde“ diese Gewichte an, um ein bestimmtes Problem immer besser zu lösen – das Netz „lernt“.

Um die gewünschten, immer exakteren Resultate zu erzielen, müssen die Trainingsdaten vielfältig sein und eine enorme Bandbreite an Informationen abdecken. Nur so kann die KI die Nuancen erkennen, durch die sich Gesichter in verschiedenen Situationen voneinander unterscheiden. Die Trainingsbilder müssen diese unterschiedlichen Gesichtsmerkmale der Gesichter widerspiegeln.

Ein Großteil der Leistungsfähigkeit von KI kommt heute durch den Einsatz von immer präziseren datengetriebenen Deep-Learning-Optimierungseinheiten, die immer größere Datenmengen nutzen können, um KI-Systeme zu trainieren. Die Stärke dieser Methode kann aber wie in den Beispielen dargestellt gleichzeitig auch eine Schwäche sein. Denn KI-Systeme lernen, was ihnen beigebracht wird. Werden sie nicht mit soliden und vielfältigen Datensätzen optimiert, können die Ergebnisse verzerrt werden, damit die Fairness leiden und letztlich auch die Genauigkeit.

Andrea Martin, CTO IBM

Anhand dieser Trainings-Datensätze weiß man jedoch, auf welcher Datengrundlage die KI-Systeme lernen und Entscheidungen treffen. Wie genau die neuronalen Netze aber zu ihren Schlussfolgerungen kommen, lässt sich im Moment noch kaum nachvollziehen. Für Nutzer sind sie oftmals eine Blackbox – undurchsichtig und schwer zu erschließen.

Zu einer transparenten Offenlegung der Entscheidungswege von KI gehört, dass jede Vorhersage, jede Modellversion und jegliche Trainingsdaten dokumentiert und gespeichert werden – und damit Unternehmen bei der auditsicheren Einhaltung von Compliance-Richtlinien und der DSGVO unterstützt.

Andrea Martin

KI-Empfehlungen transparent nachvollziehen

Zu einer transparenten Offenlegung der Entscheidungswege von KI gehört, dass jede Vorhersage, jede Modellversion und jegliche Trainingsdaten dokumentiert und gespeichert werden – und damit Unternehmen bei der auditsicheren Einhaltung von Compliance-Richtlinien und der DSGVO unterstützt.

Das ist besonders in stark regulierten Branchen wie dem Finanz- und Gesundheitswesen oder auch in datenintensiven und -sensiblen Branchen wie der Automobil- oder der Pharmaindustrie relevant, in denen die Einhaltung der DSGVO und anderer umfassender Vorschriften erhebliche Hindernisse für eine breite Anwendung von KI darstellt.

Ohne Ethik gibt es kein Vertrauen

Die Debatte um eine verantwortungsvolle Entwicklung und Nutzung von KI in Deutschland wird inzwischen auch auf höchster politischer Ebene adressiert. Die Bundesregierung begreift künstliche Intelligenz als Schlüsseltechnologie, ist sich jedoch ebenfalls über die gesellschaftlichen und ethischen Implikationen bewusst. Die „Strategie Künstliche Intelligenz“ greift daher die zentralen Fragestellungen auf und wird auch in der Enquete-Kommission „Künstliche Intelligenz“ des Bundestages diskutiert. Sie soll einen Rahmen bilden, wie sich KI gemeinwohlorientiert entwickeln und einsetzen lässt.

Enquete-Kommission

  • Setzt sich aus 19 Mitgliedern des Deutschen Bundestages und 19 sachverständigen externen Expertinnen und Experten zusammen

  • Untersucht die Potenziale und den zukünftigen Einfluss von KI auf unser (Zusammen-)Leben, die deutsche Wirtschaft und die zukünftige Arbeitswelt

  • Erörtert sowohl die Chancen als auch die Herausforderungen von KI für Gesellschaft, Staat und Wirtschaft

  • In öffentlichen Kurzvorträgen umreißen Sachverständige theoretische und praktische Aspekte rund um KI

  • Sitzungen werden im Internet auf www.bundestag.de live (zeitversetzt) übertragen

Um KI-Systemen vertrauen zu können, müssen wir verstehen, warum sie die Entscheidungen treffen, die sie treffen. Die Entwicklung von KI darf kein Selbstzweck sein, sondern muss dem Menschen dienen. Hier bedarf es Leitlinien, Prinzipien und Werte, die eine KI einhalten muss – ähnlich dem Grundgesetz. Denn Vertrauen und Akzeptanz kann nur durch einen vertrauensvollen Umgang mit KI aufgebaut werden. //

Kontakt zur Autorin

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Auf Unbekanntes vorbereiten

Im Kontext von Datensicherheit bedeuten KI-Systeme zwangsläufig, dass Organisationen sich auf neuartige Bedrohungen einstellen müssen.

Prof. Dr. Jörn Müller-Quade erläuterte der TREND-REPORT-Redaktion das Forschungs­feld „Kryptographie und Sicher­­heit“ am KIT und mögliche künftige Bedrohungsszenarien im Kontext von KI.

Herr Prof. Müller-Quade, mit welchen Themen und Aufgaben beschäftigt sich Ihr Forschungsbereich?

Ich erforsche kryptographische Protokolle, etwa für Online-Banking oder Online-Wahlen. Für mich sind diese Verfahren wie kleine Wunder, weil scheinbar Unmögliches erreicht wird, so kann etwa die Korrektheit der Auszählung einer Online-Wahl nachgewiesen werden, ohne dass das Wahlgeheimnis verletzt wird. Neben dem Nutzen, den solche Verfahren in der IT-Sicherheit haben, finde ich sie auch für sich genommen faszinierend. Sogenannte Zero-Knowledge-Beweise können einen von einer Aussage überzeugen, ohne dabei aber mehr zu verraten als die Gültigkeit eben jener Aussage. Sichere Mehrparteienberechnungen erlauben es mehreren Teilnehmern gemeinsam, auf geheimen Eingaben der einzelnen Teilnehmer basierend ein Ergebnis verteilt zu berechnen – ohne dass ein Teil der Teilnehmer das Ergebnis manipulieren oder mehr erfahren kann als eben das Ergebnis. Wie man so etwas hinbekommt und wie man aus solchen mächtigen Bausteinen größere Anwendungen bauen kann, sind Grundfragen der kryptographischen Forschung.

Auf welche Gefahren und Szenarien im Kontext von KI-Technologien müssen wir uns einstellen?

KI-Systeme können Angreifer unterstützen, damit können beispielsweise Angriffe, die bisher mühsam von Menschen gemacht werden müssen, automatisiert werden, was zu einer enormen Zunahme solcher Angriffe führen wird. Konkret denke ich an „Spear Phishing“, also maßgeschneiderte Betrugs-E-Mails, die eine Schadsoftware enthalten, die aktiv wird, wenn man den Empfänger dazu verleitet, eine Datei oder einen Link anzuklicken. KI-Systeme entwickeln in manchen Bereichen übermenschliche Leistungen und könnten somit auch völlig neue Angriffe finden. KI-Systeme, wie sie in Zukunft in vielen Anwendungen stecken werden, können auch selbst angegriffen werden. Wenn man das Verhalten einer KI analysiert, kann man diese KI leicht täuschen, oder wenn man Trainingsdaten verfälscht, kann ein sehr unerwünschtes Verhalten der KI bewirkt werden. Ein Problem ist, dass wir KI-Systeme nicht gut verstehen, daher müssen wir KI-Systeme geschickt mit klassischen Systemen kombinieren, wir benötigen ein „KI-Engineering“.

Wie können schlaue Algorithmen und KI im Kontext der Cybersecurity zum Einsatz gebracht werden?

Angriffe lassen sich nicht 100-prozentig verhindern, daher ist auch die Angriffserkennung extrem wichtig. Insbesondere hier werden KI-Systeme enorm nützlich sein. Auch werden KI-Systeme bei Sicherheitstests helfen, etwa Systeme testweise angreifen, um die Systeme weiter zu härten. Dies ist beispielsweise denkbar für sogenannte Seitenkanalangriffe auf Hardware. Ist etwa der Stromverbrauch einer Berechnung korreliert mit geheimen Eingaben der Berechnung, könnten KI-Systeme dies in Zukunft besser erkennen als Menschen. Leider haben solche Ansätze einen Dual-Use-Charakter und könnten auch von Angreifern missbraucht werden, hier erwarte ich ein Hase-und-Igel-Wettrennen. KI-Systeme könnten den Datenschutz verbessern, ein Beispiel ist das NurseEYE-System, bei dem ein schlauer Algorithmus aus Video­daten Stürze von Patienten in einem Krankenhaus erkennt. Erst wenn ein Sturz erkannt wird, werden die hochaufgelösten Videodaten an das Klinikpersonal weitergegeben.

Was meinen Sie mit dem „systemischen Ansatz zur wirksameren Vorbeugung von Cyberangriffen“?

Wenn wir in Zukunft befürchten müssen, dass KI-Systeme oder Mensch-Maschine-Teams völlig neue Angriffe finden, wird es nicht genug sein, unsere IT-Systeme gegen bekannte Angriffe zu patchen. Wir müssen uns auf unbekannte Angriffe vorbereiten. Hier könnte die Kryptographie ein Vorbild sein. Dort gibt es die sogenannte beweisbare Sicherheit, dies ist leider eine sehr missverständliche Bezeichnung, denn die Sicherheit realer Systeme lässt sich nicht beweisen. Dennoch wird in einem mathematischen Modell nachgewiesen, dass jeder erfolgreiche Angriff vorher explizit angegebene Sicherheitsannahmen verletzt. Dieser Zugang berücksichtigt alle Angriffe, auch bisher unbekannte Angriffe, die sich im Modell darstellen lassen. Wird nun ein beweisbar sicheres Verfahren dennoch gebrochen, so ist entweder das Modell noch nicht nahe genug an der Realität oder eine Sicherheitsannahme ist falsch. Durch jeden erfolgreichen Angriff hat man einen Erkenntnisgewinn.

Inwieweit können die Blockchain-Technologien helfen, die IT sicherer zu machen, und welche Rolle spielt dabei die Kryptographie?

Die Blockchain ist ein gutes Beispiel dafür, wie kryptographische Verfahren scheinbar Unmögliches schaffen. So kann eine Blockchain die Basis für eine Währung sein, die ein gewisses Maß an Anonymität hat und obwohl sie überhaupt nicht mehr an stoffliche Artefakte gebunden ist, dennoch einen Wert hat. Neben der Blockchain gibt es aber noch viele andere kryptographische Verfahren, die manchmal sogar viel geeigneter sind, all die Probleme zu lösen, für die zurzeit die Blockchain vorgeschlagen wird. Prinzipiell kann man sich vorstellen, dass all die Aufgaben, für die zur Zeit ein vertrauenswürdiger Vermittler nötig ist, etwa ein Auktionator, ein Notar oder eine Bank, auch von verteilten kryptographischen Verfahren gelöst werden können.

Sichere Verschlüssungsverfahren? Was raten Sie an?

Bei Verschlüsselungsverfahren wird der Erfolg der Kryptographie besonders deutlich. Die Snowden-Enthüllungen haben gezeigt, dass selbst die NSA moderne Verschlüsselungsverfahren nicht brechen konnte und Hintertürchen benutzen musste. Wie KI-Systeme die IT-Sicherheit in Zukunft verändern werden, ist eine der Fragen, der die nationale Plattform Lernende Systeme nachgeht. Bei Verschlüsselungsverfahren bin ich aber optimistisch, dass keine Gefahr besteht. Trotzdem gibt es selbst hier noch Forschungsbedarf, etwa an Verfahren, die auch langfristig sicher bleiben, etwa, wenn Quantencomputer möglich werden. Die eigentliche Schwachstelle bei der sicheren Kommunikation sind die Endgeräte, mein Rat wäre also, verstärkt auch Endgerätesicherheit systematisch zu erforschen.

Kryptographie: Welche Chancen und Möglichkeiten bringt in diesem Kontext das Forschungsgebiet der „sicheren Mehrparteienberechnung“?

Sichere Mehrparteienberechnungen erlauben es mehreren sich gegenseitig misstrauenden Teilnehmern, gemeinsam etwas auszurechnen. Die geheimen Eingaben der Teilnehmer bleiben geschützt und das Ergebnis kann nicht manipuliert werden, selbst wenn einige der Teilnehmer beliebig vom Protokoll abweichen. Anwendungen hierfür wären etwa Berechnungen auf Medizindaten, die in verschiedenen Kliniken vorliegen, aber die Klinik nicht verlassen dürfen, oder automatisierte Verhandlungen, bei denen nichts bekannt wird, außer dem Geschäftsabschluss, wenn er zustande kommt. Auch denkbar ist, dass man mit diesem Paradigma sichere Systeme aus nicht vertrauenswürdigen Komponenten aufbaut und so digitale Souveränität erreichen könnte, ohne alles selber machen zu müssen. //


Kontakt zum Interviewpartner

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Aufmacherbild von Hebi B. auf Pixabay

Das „Internet of Medical Things“ (IoMT)

E-Health-Innovationen machen unser Leben sicherer und gesünder – ein Milliardengeschäft.

Das Marktforschungsunternehmen Gartner erwartet bis 2020 weltweit 20 Milliarden vernetzte Medizingeräte, die im Krankenhaus 4.0, beim Arzt, im Smarthome oder in der Smart City zum Einsatz kommen. Der Gesamtwert des IoMT-Marktes in Europa betrug laut einer Studie von Deloitte letztes Jahr rund 12 Mrd. US-Dollar. 2020 sollen es 40 Mrd. sein. Auf dem Markt tummeln sich dabei nicht nur diverse Start-ups, sondern vor allem auch Big Player wie Siemens, Apple und Google bzw. die Alphabet-Tochter verily.

Vielfalt der Sensoren

Herzfrequenzsensoren erkennen Anzeichen eines Vorhofflimmerns, Beschleunigungssensoren registrieren schwere Stürze und schlagen Alarm. Sensoren sind heute in der Lage, nahezu jede Körperfunktion rund um die Uhr zu überwachen, machen unser aller Leben und vor allem das von Patienten leichter und sicherer. Diabetiker, Epileptiker und Herzpatienten werden schon gewarnt, bevor sie selber Anzeichen verspüren und Krankenhäuser und (Not-)Ärzte können frühzeitig alarmiert werden.

Viele Sensoren sind dabei heute so klein, dass sie einfach mit der Smartwatch getragen werden können. Für spezielle Anwendungen geht es auch noch kleiner bzw. filigraner. Sensoren auf Kontaktlinsen etwa sind in der Lage, anhand der Tränenflüssigkeit den Blutzuckerwert zu messen und zu übermitteln. Im Krankenhaus überwachen Sensoren dabei nicht nur Patienten, sondern auch medizinische Geräte. Diese lassen sich so nicht nur leicht lokalisieren, sondern auch rechtzeitig warten. Durch die Möglichkeiten einer Predictive Maintenance werden so Ausfallzeiten verhindert und Kosten gesenkt.

AR und VR

Durch Augmented Reality lassen sich komplette Eingriffe realitätsnah simulieren. Im echten OP erleichtern auf Datenbrillen projizierte Informationen das Operieren. Der Chirurg muss nicht mehr seinen Kopf zum Monitor heben, sondern kann sich komplett auf den Patienten konzentrieren. In Zukunft sollen Mediziner während einer Operation passgenau CT- und MRT-Bilder über den Patienten eingeblendet bekommen, um bestimmte Bereiche besser lokalisieren zu können.

Ein Forscherteam der RWTH und FH Aachen präsentierte im Juni eine 3-D-Betrachtung eines stark verlagerten Kiefergelenkbruchs mittels einer Virtual-Reality-Brille. Dabei wurde deutlich, wie hilfreich eine solche Darstellung für den Chirurgen bei der Planung seines Eingriffs sein kann. Natürlich ist diese Technologie auch während der fachärztlichen Ausbildung oder während des Studiums besonders vielversprechend.

Digitale Gesundheitsakte

Gesundheitsminister Jens Spahn will, dass ab 2021 Versicherte generell ihre Patientendaten auch per Handy oder Tablet einsehen können. Während die Techniker Krankenkasse und die AOK eine eigene Lösung anbieten, ist „vivy“ ein Gemeinschaftsprojekt diverser anderer privater und gesetzlicher Krankenkassen. Die App ist dabei elektronische Gesundheitsakte und persönliche Assistentin zugleich. Sie hilft bei der Einhaltung von Medikationsplänen oder erinnert an den nächsten Impf- / Vorsorgetermin. Welche Daten wann an wen übermittelt werden, entscheidet der Nutzer selbst. Auch soll technisch und organisatorisch sichergestellt sein, dass Krankenversicherungen keinen Zugriff auf persönliche Daten bekommen können. Akzeptanz und Vertrauen in derartige Produkte fehlt allerdings dennoch in breiten Schichten der Bevölkerung.

Sicherheitsbedenken

Vernetzte Geräte bilden naturgemäß eine Angriffsfläche für Hacker. Neben unseren Gesundheitsdaten kann dadurch auch unmittelbar unser Leben bedroht werden, bspw. wenn der Herzschrittmacher gehackt wird. Nach dem Medizinproduktgesetz müssen vernetzte Medizingeräte zwar besonders hohe Sicherheits- und Qualitätsauflagen erfüllen, doch absolute Sicherheit kann auch dadurch nie gewährleistet werden. Das Potenzial das Leben vor allem von Risikopatienten deutlich sicherer zu machen, scheint dabei aktuell die Risiken mehr als aufzuwiegen. Dies darf aber nicht dazu führen, verstärkte Sicherheitsmaßnahmen zu vernachlässigen. //


Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Innovationsstandort Deutschland?

Wettbewerbsfähigkeit erfordert passende Rahmenbedingungen.

Frank Thelen, CEO von Freigeist Capital, sprach mit der TREND-REPORT-Redaktion über das Potenzial neuer Technologien und darüber, wie Gründer in Deutschland unterstützt werden müssen, um diese zu nutzen.

Herr Thelen, inwieweit braucht künstliche Intelligenz das IoT (IIoT) und umgekehrt?
Künstliche Intelligenz braucht nicht unbedingt IoT, aber IoT braucht KI. Durch IoT und unzählige Sensoren fallen so große Datenmengen an, dass diese von Menschen und „dummen“ Systemen gar nicht sinnvoll ausgewertet werden können, geschweige denn, dass in Echtzeit auf Erkenntnisse aus diesen Datenmengen reagiert werden kann. Big Data ohne KI bringt keine wertvollen Erkenntnisse …

Wenn Blockchain, KI- und IoT-Technologien verschmelzen – welches Potenzial steckt dann in der Konvergenz dieser Technologien?
Das Zusammenspiel dieser Technologien hat das Potenzial, viele Bereiche unseres Lebens grundlegend zu verändern. Denken wir allein an die Energiewirtschaft: Intelligente Stromzähler und Sensoren erkennen, wann und wo wie viel Strom benötigt wird. Eine KI steuert in Abhängigkeit davon in Echtzeit Kraftwerke und die gesamte Abrechnung unter allen Beteiligten erfolgt voll automatisiert und sicher über die Blockchain, ohne dass ein Mensch eingreifen muss. Damit werden ganz neue Konzepte und Modelle bei der Energieversorgung möglich, insbesondere deren Dezentralisierung. Setzen wir diese Möglichkeiten konsequent um, können wir in Deutschland ein echter Vorreiter werden.

Welche Chancen haben Deutschland und unsere Wirtschaft dabei?
Wir haben die Chance, endlich wieder bei einer Schlüsseltechnologie führend zu werden. KI ist wie z. B. das Smartphone eine Grundlagen-Technologie, die unfassbar viele neue Möglichkeiten bringt. In diesem Fall sogar deutlich mehr als das Smartphone, es ist die bisher größte und wichtigste Erfindung der Menschheit. KI ist ja kein Selbstzweck, sondern Voraussetzung für die Weiterentwicklung in vielen anderen Technologiebereichen. Sei es die gerade genannte Energieversorgung, Medizintechnik, Mobilitätskonzepte oder auch die Entwicklung neuer Medikamente oder Werkstoffe – all dies sind Bereiche, in denen die deutsche Wirtschaft noch stark ist. Durch den Einsatz von KI stellen wir sicher, dass wir es bleiben.

Reichen die Ausgaben der Regierung, um den Standort mit der neuen Technologie international voranzubringen?
Nein, die Notwendigkeit, hier mehr tun zu müssen, wurde zwar erkannt, aber noch geben die USA und China deutlich mehr für die Förderung aus. Wollen wir hier den Anschluss nicht verlieren, muss mehr passieren. Damit meine ich nicht nur rein finanzielle Förderung, sondern auch das Schaffen passender Rahmenbedingungen. Es bleibt also viel zu tun.


Künstliche Intelligenzen sind dazu da, uns Menschen zu unterstützen. Sie nehmen uns Routineaufgaben ab und geben uns die Chance, dass wir uns auf die wirklich wichtigen Dinge konzentrieren.


Im Sinne der Chancen … was muss jetzt getan werden?
Natürlich helfen Fördermittel. Wir brauchen aber zusätzlich ein Umdenken: In Deutschland neigen wir dazu, immer nur Risiken und Bedenken zu sehen und eher kritisch zu sein, was neue Technologien und Entwicklungen angeht. Damit stehen wir uns sozusagen selbst im Wege. All dies ist ein weites Feld und umfasst neben einem gesellschaftlichen Umdenken stabile rechtliche Rahmenbedingungen und eine bessere Koordination bestehender Aktivitäten und Projekte.

Was raten Sie deutschen Unternehmern im Hinblick auf neue KI-Projekte?
Unternehmen müssen erkennen, dass KI ihnen in vielen Bereichen ihrer Prozesse helfen kann, in Zukunft vielleicht sogar für ihren Fortbestand entscheidend sein kann. Sie sollten sich daher mit der Materie frühzeitig befassen und z. B. den Kontakt und Austausch mit Start-ups aus dem KI-Bereich suchen.

Wie kann KI in Deutschland implementiert und realisiert werden im Kontext der DSGVO?
Ich bin kein Jurist, aber die DSGVO hat in der gesamten IT-Branche für viel Verunsicherung gesorgt. Und gerade bei KI-Projekten ist die Verarbeitung personenbezogener Daten ja oft notwendig – die DSGVO bremst hier auf jeden Fall. Ja, der Schutz persönlicher Daten ist wichtig, braucht aber praktikable Regeln, die die DSGVO gerade nicht bietet. Das hat die Politik aber erkannt und ich habe die Hoffnung, dass die Regelungen angepasst werden.

Wo befinden wir uns ungefähr im Entwicklungsprozess der „wirklichen“ KI?
Noch sind wir in einer recht frühen Phase der KI. Denken wir an digitale Assistenten wie Siri, Google Now oder Alexa, deren Fähigkeiten doch noch sehr begrenzt sind. Wir haben es bei KI eben noch nicht mit echter Intelligenz zu tun, sondern mit Programmen, die auf Grundlage vorgegebener Algorithmen so etwas wie menschliche Intelligenz simulieren und deren Stärke darin besteht, große Datenmengen schnell verarbeiten zu können, und darin, z. B. Zusammenhänge zu erkennen. Die steigende Leistungsfähigkeit der Computersysteme ermöglicht nun aber schon neuronale Netze, die selber lernen und sich und ihre Methoden optimieren können – die KI lernt sozusagen gerade laufen.

Wie sieht das „neue Menschsein“ aus im Zeitalter von KI?
Künstliche Intelligenzen sind dazu da, uns Menschen zu unterstützen. Sie nehmen uns Routineaufgaben ab und geben uns die Chance, dass wir uns auf die wirklich wichtigen Dinge konzentrieren: Kreativität, Freizeit mit der Familie, Sport, soziales Engagement z. B. KI richtig eingesetzt wird uns die Möglichkeit geben, ein menschlicheres Leben zu führen.

Wo und wann hört der Spaß auf und wie sollte das Risiko- und Chancenmanagement gestaltet werden?
Wir dürfen nie vergessen, dass KI dazu da ist, dem Menschen zu dienen und ihm zu helfen. Es darf nie passieren, dass eine KI gleichsam über dem Menschen steht und von diesem im Zweifel nicht, vereinfacht gesprochen, abgeschaltet werden kann. Der Weg in Richtung KI kennt kein Zurück mehr, aber wir müssen ihn in unserem Sinne gestalten und permanent kritisch hinterfragen, ob die aktuellen Entwicklungen in die gewünschte Richtung gehen. Hierfür braucht es klare und sinnvolle Regulierungen.

Können wir Maschinen Moral beibringen?
Das Maschinen sobald ein echtes Verständnis für Ethik und Moral entwickeln werden, glaube ich nicht. Hier müssen wir ihnen mit Vorgaben und Regeln helfen. Eine Grundlage dafür können übrigens die von Asimov schon 1942 formulierten Robotergesetze sein. Das erste und wichtigste davon besagt, dass ein Roboter kein menschliches Wesen wissentlich verletzen darf. Was sich theoretisch so einfach anhört, ist in der Praxis viel komplizierter: Wie soll sich die KI in einem selbstfahrenden Auto entscheiden, wenn sie das Leben entweder des Fahrers oder das eines Fußgängers gefährden muss, um Schlimmeres zu vermeiden? Die Probleme und Fragestellungen sind also ganz konkret und akut.

Warum gründen in Deutschland im Verhältnis nur wenige Entwickler und Technologiespezialisten?
Forschung fand in Deutschland lange Zeit vornehmlich im akademischen Elfenbeinturm statt und Kontakte mit der Wirtschaft, geschweige denn ein Austausch, galten fast schon als anrüchig. So ist es zu erklären, dass viele Grundlagentechnologien – z. B. MP3 – zwar hierzulande entwickelt, aber von anderen Ländern zum Erfolg geführt wurden. Dieses Denken ist bei vielen noch tief verhaftet. In letzter Zeit gibt es aber Anstrengungen, diese traditionelle Trennung zu überwinden. Ich bin zuversichtlich, dass wir schon bald mehr Gründungen aus diesem Umfeld sehen.


Ich bin kein Jurist, aber die
DSGVO hat in der gesamten IT-Branche für viel Verunsicherung gesorgt.


Wie ergeht es jungen Tech-Gründern und Spezialisten in Deutschland, wenn Seed- oder Wachstumskapital benötigt wird?
Hier haben es deutsche Gründer tatsächlich schwieriger als z. B. die in den USA. Ich sehe drei große Probleme: Zunächst ist das Angebot tatsächlich nicht so groß. Zum anderen ist es – auch aufgrund unserer föderalen Struktur – sehr zersplittert und dementsprechend unübersichtlich. Zuletzt sind die juristischen und formalen Hürden für Beteiligungen hierzulande vergleichsweise hoch. Aber auch dieses Problem ist erkannt worden, wobei Änderungen natürlich Zeit brauchen.

Was hat es mit Ihrem just erschienenen Buch „Startup-DNA“ auf sich und wer sollte es lesen?
Das Buch habe ich aus mehreren Gründen geschrieben. Zum einen werde ich immer wieder gefragt, wie sich mein Weg zum Investor gestaltet hat. Gleichzeitig will ich Menschen ermutigen, ihre Ziele und Ideen in die Tat umzusetzen und selber zu gründen, denn noch nie hat es – dank der aktuellen technischen Entwicklungen – so viele Möglichkeiten gegeben, etwas zu gestalten und zu bewegen. Und diese neuen Möglichkeiten wie KI, Blockchain oder Quantencomputing möchte ich möglichst vielen Menschen näherbringen. Deshalb habe ich diese und andere Zukunftstechnologien im Buch für jedermann verständlich erklärt. Ich kann also ganz unbescheiden sagen: Das Buch sollte jeder lesen, der sich für seine und unsere Zukunft interessiert. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Digitalisierung und Marketing

Der Handel diskutiert bereits intensiv über das Thema der Personalisierung und Indivi­dualisierung.

von Prof. Dr. Thomas Asche

Die Dynamik im Marketing ist ungebrochen. Budgets werden immer schneller zwischen Print und Online, Personen und Maschinen, Inhouse und Dienstleistern hin- und hergeschoben. Die digitale Transformation ist Gegenstand zahlloser Kongresse und Veröffentlichungen. Im Handel führt diese Entwicklung dazu, dass sich Unternehmen nicht mehr nur dem stärker operativ geprägten Geschäft widmen dürfen. Handel ist Wandel bedeutet daher auch, sich besonders mit strategisch relevanten Umbrüchen auseinanderzusetzen.

Es gilt also, für die Zukunftssicherheit des Unternehmens sowohl operativ als auch strategisch zu agieren, wobei sich Weiterentwicklungen nicht nur auf das Online-Geschäft konzentrieren sollten. Bei der Frage, wie das Marketing der Zukunft für den Handel aussehen könnte, ist zunächst zu fragen, wie „Zukunft“ abgegrenzt werden soll. Wenn die nahe Zukunft eher eine operative Sichtweise umfasst, dann wäre die darüber hinausgehende Sichtweise eher strategisch. Insofern lässt sich eine gedankliche Matrix aufspannen, deren Felder die Herausforderungen für den Handel strukturieren.

Auch Preise werden mehr und mehr personalisiert. Willingness-to-pay-Ansätze sind hier weitere Treiber.

Online-Entwicklungen

Der Handel diskutiert bereits intensiv über das Thema der Personalisierung und Individualisierung. In E-Mails und Newslettern erfolgt i. d. R. eine formelle namentliche Ansprache der Adressaten. Wo noch nicht umgesetzt, wird dies unter Reaktionsaspekten notwendig werden. Zur Individualisierung der Online-Kommunikation gehört auch die Gestaltung zielgruppenspezifischer Inhalte in Newslettern und Homepages. Fortschritte in der Informations- und Produktionstechnologie ermöglichen weiterhin die zunehmende Individualisierung von Produkten (vgl. Gondorf, S. 37). Für den Handel zieht dies eine steigende Sortimentsvielfalt mit der Konsequenz einer höheren Artikelanzahl, mehr Regalfläche und ggf. einen geringeren Warenumschlag nach sich. Die induzierte Heterogenität der Sortimente führt zu einer geringeren Vergleichbarkeit der Preise. Auch bzgl. der Preise wird eine größere Individualisierung festgestellt. Preisverhandlungen aus dem stationären Handel oder Online-Auktionen werden noch stärker in das E-Commerce-Geschäft adaptiert. Willingness-to-pay-Ansätze sind hier weitere Treiber.

Einen weitereren Ansatz bei den Online-Entwicklungen stellen Augmented und Mixed Reality dar. Während bei der Augmented Reality erkennbar zusätzliche Informationen zur Umwelt auf das Mobile Device eingeblendet werden, erweitert die Mixed Reality die Umwelt des Nutzers unbewusst um weitere Elemente (vgl. Schart/Tschanz, S. 21). Neben dem Gaming ergeben sich für den B2B-Bereich und die Kaufberatung im Handel vielfältige Anwendungen. Inwieweit sich diese Technologien auch angesichts einer schon jetzt vorhandenen Informationsübersättigung beim Kunden durchsetzen, bleibt abzuwarten. Andere Nationen sind hier technikaffiner. Auf die Frage in einer GfK-Studie in 2016, ob virtuelle Interaktionen mit Menschen und Orten genau so gut sein können wie reale, wurden folgende Unterschiede festgestellt:
Database-Marketing wird weiter an Bedeutung gewinnen, schon allein, um die User nicht mit undifferenzierten Newslettern zu verärgern. Im Rahmen der Big-Data-Diskussion wird es darauf ankommen, die durch die Customer-Journey produzierte Datenflut sinnvoll auswerten zu können (vgl. Frick, 2016). Das klassische Database-Marketing könnte darunter leiden, weil Selektionen mehr und mehr über die getrackten Nutzungseigenschaften der User laufen werden und sich die User damit quasi selbst segmentieren.

Die Akzeptanz von Virtual Reality ist in Deutschland besonders klein bzw. die Ablehnung von Virtual Reality besonders groß. Hierzulande überwiegen also die Skeptiker.

Offline-Entwicklungen

Kunden erwarten auch offline eine immer schnellere Reaktion von Unternehmen. Hier geht es nicht nur um die tagesaktuelle Kommunikation, z. B. bei Anfragen oder Beschwerden. Eine 48-stündige Belieferung wird vorausgesetzt. Das Angebot einer Same-Day-Delivery wird von vielen Bestellern nicht nur im LEH präferiert. Instant Delivery innerhalb von zwei Stunden wird von Unternehmen bereits getestet. Das von Tankstellen schon seit langem praktizierte Dynamic Pricing wird sich auch im stationären Handel durchsetzen (v. Elm, S. 70 f.).

Durch die Verlagerung der Einzelhandelsumsätze in das Internet werden insbesondere 1b- und 1c-Lagen schrumpfen. Diese Lücken werden zukünftig Pop-up-Stores wesentlich öfter füllen. Pop-up-Stores schaffen Abwechslung und damit Attraktivität in innerstädtischen Lagen. Sie sind ein geeignetes Mittel für Sonderaktionen etablierter Händler oder Warenabschleusungen, ohne das eigentliche Ambiente der Hauptverkaufsfläche zu zerstören. Pop-up-Stores werden weiterhin vom Online-Handel eingesetzt, um physische Präsenz zu zeigen und damit die anonyme Distanz zum Kunden zu überwinden.

Der Handel muss sich kurzfristig zudem mit einer weiteren Vertikalisierung auseinandersetzen. Hersteller sind der neue Handel. Die Macht im Absatzkanal verschiebt sich. Deutlich wird dies an der Zunahme der Shop-in-Shop-Konzepte und Monolabel-Läden. Bislang beschränkt sich die Entwicklung auf Gebrauchsgüter (z. B. Haushaltswaren, Textil, Möbel). Es ist zu erwarten, dass insbesondere Hersteller höherwertiger FMGCs in dieser Richtung aktiv werden.

Online-Trends

Im Rahmen längerfristiger Online-Trends schreitet die Entmenschlichung der Kommunikation fort. Avatare begleiten den Kaufprozess, Chat-Robots beantworten Fragen zu Produkten. Das Internet of Things, bei dem Maschinen mit Maschinen kommunizieren, wird auch den B2C-Bereich erfassen – schon heute erlebbar, wenn der Kühlschrank beim Händler Nachschub ordert. Die Entwicklung zu diesem posthumanen Zeitalter wird notwendig durch die demografische Entwicklung, die aufgrund der Knappheit an menschlichen Ressourcen stärker auf smarte Systeme angewiesen sein wird.

Ein weiterer Trend, den die digitale Transformation unterstützt, ist der Trend zur Shared Economy. Der Wertewandel weg vom Eigentum zum Besitz wird durch eine Vielzahl von Geschäftsmodellen unterstützt, die heute ausprobieren, was morgen alltäglich sein wird. So werden Jeans (www.mudjeans.eu), Kinderbekleidung (www.tchibo-share.de) oder Möbel (www.in-lease.com) usw. verliehen. Das größte Wachstum wird nicht bei den Dienstleistern (z. B. Airbnb, Car2go, Uber) gesehen, sondern beim Handel und Konsumgütern. Da insbesondere Jüngere und damit die Wachstums­treiber diesem Trend offen gegenüberstehen, wird die Branche diese Geschäftsmodelle selbst stärker adaptieren müssen (vgl. PwC, 2016). Ausgenommen bleiben Verbrauchsgüter, individualisierte Produkte und Hygieneprodukte.

Die Globalisierung ist ein weiterer langanhaltender Trend. Nicht nur Unternehmen agieren als Global Player. Der Kunde nutzt ebenso das Netz für ein weltweites Sourcing. Die aktuelle Rechtsprechung fördert diese Machtverschiebung mit dem Verbot des Geoblocking. Vereinheitlichte weltweite Zahlungssysteme tun ein Übriges (Lambertz, Pinhammer, S. 26). Zusätzlich bedrängen internationale Unternehmen den europäischen Handel. Amazon, Alibaba und Rakuten haben weite Teile erobert. Ein letzter weißer Fleck ist Afrika, der auf der Suche nach Umsätzen in den Fokus rückt.

Die Absatzkanäle erleben deutliche Marktanteilsverschiebungen. (1)

Offline-Trends

Angesichts der Verschiebung der Marktanteile vom stationären Handel zum E-Commerce stellt sich die Frage nach dessen Profilierung. Ein Überleben kann nur durch eine Kooperation (z. B. intelligente Umkleidekabine, Serviceannahme) oder Omnichanneling gelingen. Der stationäre Handel ist gezwungen, noch viel stärker seine Vorteile (Unmittelbarkeit, Anonymität, Beratung, Haptik) zu kommunizieren. Dabei sollte er nicht den Fehler machen, daraus ein Preispremium abzuleiten. Die notwendigen zusätzlichen DBs kommen aus dem Mengen- und nicht dem Wertwachstum.

Das Handelsmarketing hat sich kurz- und langfristig einer Vielzahl von Herausforderungen zu stellen. Die Unsicherheit darüber, welche Ansätze Erfolg versprechend sind, ist groß.

Die Konsumerismusbewegung gewinnt aufgrund aufgeklärter Verbraucher weiter an Fahrt. Vor dem Hintergrund eines investigativen Journalismus und kritischer Verbrauchersendungen müssen Werbeaussagen auf ihre Glaubwürdigkeit überprüft werden. Das momentan stark diskutierte Influencer-Marketing wird zurückgedrängt. Testurteile und Siegel werden für die Kaufentscheidung dominanter.

Ein dritter Trend betrifft die Nachhaltigkeit. Dessen Ausgangspunkt war die Bio-Welle. Er setzt sich aktuell in der Precycling-Debatte bei (Plastik-)Verpackungen fort. Der Trend wird zukünftig ergänzt durch die stärkere Beachtung des Produktionsstandorts und der damit verbundenen Transportwege sowie die Forderung nach einer Wiederverwendbarkeit bzw. einem Zweitnutzen des Produkts (vgl. Kriener, Grimm, Berg, S. 25 ff.). Der Bezug zur Shared Economy ist offensichtlich.

Das Handelsmarketing hat sich kurz- und langfristig einer Vielzahl von Herausforderungen zu stellen. Die Unsicherheit darüber, welche Ansätze Erfolg versprechend sind, ist groß. Es bleibt wohl nur der Trial-and-Error-Ansatz, also vieles auszuprobieren, dabei zu lernen und sich schnell von nicht marktfähigen Ideen zu trennen. Die verbleibenden Ideen sichern den Fortbestand. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Der Beitrag Digitalisierung und Marketing erschien 2018 im Handbuch Handel

Internet of Things: Ein lernender Markt

Das Internet der Dinge (IoT) beeinflusst unser gesamtes Leben.

von Dr. Ralf Magagnoli

Das IoT ist in aller Munde. Worum geht es? Es geht darum, die mit mikroelektronischen Komponenten versehenen Produkte über das Internet miteinander zu vernetzen. Sogenannte „smarte Produkte“ sammeln über entsprechende Sensoren Daten, analysieren sie und leiten sie via Internet weiter bzw. empfangen Daten von anderen smarten Produkten. Die „Intelligenz“ dieser Produkte führt dazu, dass sie eigenständig Aufgaben ausführen, mit anderen Produkten kommunizieren, sich selbstständig updaten bzw. an veränderte Kundenbedürfnisse anpassen, laufende Kosten senken und den „Return on Investment“ (ROI) erhöhen sowie Risiken und Gefahren voraussehen und Abhilfe schaffen.

Gesamtpotenziale bis 2022 von über 14 Billionen Dollar

Betrachtet man den Nutzen des IoT für die Unternehmen genauer, wird das Potenzial bei Mitarbeiterproduktivität und Arbeitseffizienz auf bis zu 2,5 Billionen US-Dollar bis 2022 geschätzt: Beispiel Datenbrillen, die es Fachkräften erlauben, Fehlerquellen sofort ausfindig zu machen, oder Tools, die dafür sorgen, dass die Mitarbeiter die Hände frei haben, um Arbeitsvorgänge ohne Unterbrechung zu erledigen. Das Potenzial für Kundenbindung beläuft sich, laut Expertenmeinung, auf bis zu 3,7 Billionen Dollar: So können Kunden über eine Vielzahl von Kontaktpunkten („Touchpoints“) mit dem Unternehmen Kontakt aufnehmen und Produkte bzw. Dienstleistungen einkaufen.

Die mit Sensoren versehenen Produkte liefern zudem Informationen über Kundenverhalten und -wünsche. Das reicht im Supermarkt bis hin zu Produkten, die der Kunde nicht nur gekauft, sondern die er vielleicht in den Warenkorb gelegt und dann wieder zurückgestellt hat. Im Hinblick auf Logistik und Supply-Chain-Management beträgt das Potenzial bis zu 2,7 Billionen Dollar. Das Tracking, die Nachverfolgung von Produkten, ermöglicht eine genauere Ressourcenallokation und eine hohe Echtzeit-Transparenz. Die höhere Energieeffizienz und die Vermeidung von Ausfallzeiten – Stichwort Predictive Maintenance – tragen zu Kostensenkungen bei, deren Potenzial mit bis zu 2,5 Billionen US-Dollar zu Buche schlägt.

Last, but not least: Das Potenzial für Innovationen durch Optimierung und Erweiterung bestehender Geschäftsmodelle liegt nach Expertenmeinung bei bis zu drei Billionen US-Dollar. Addiert man die Potenziale zusammen, kommt man auf eine Summe von über 14 Billionen Dollar, was ungefähr dem Bruttoinlandsprodukt Chinas entspricht.

Chancen für neue Geschäftsmodelle

Die wohl gewaltigsten Potenziale durch das IoT liegen in der Entwicklung neuer Geschäftsmodelle. Experten nennen drei Möglichkeiten, die sich den Unternehmen eröffnen: 1. Bestehende Produkte mit IoT-Zusatzservices zu versehen; 2. neue Produkte mit IoT-Funktionen zu entwickeln; 3. produktlose „Smart Services“ zu schaffen.

Die erste Variante ist die wahrscheinlich anspruchsloseste, kann aber die Kundenbindung verstärken und den Umsatz erhöhen und sollte somit Ziel der IoT-Strategie in Unternehmen sein. Ein bestehendes Produkt wird um IoT-Funktionen erweitert. Beispiele sind der Drucker, der feststellt, wann sich der Toner leert, und eine eigene Bestellung aufgibt, oder der Geschirrspülautomat, der ebenfalls selbstständig neue Geschirrspültabs nachbestellt.

Anspruchsvoller ist die zweite Variante, bei der neue Produkte mit IoT-Features entwickelt werden. Ein Beispiel wäre das selbstständig fahrende Google-Auto. Für Unternehmen, in diesem Fall den Internetriesen Google, eröffnet sich die Möglichkeit, in fremde Märkte einzudringen und Marktanteile zu erobern.

Deutlich spürbar ist der Trend vieler Unternehmen vom Produktanbieter zum Serviceanbieter. Dieser Trend basiert auf der Annahme, dass viele Kunden bestimmte Dinge nicht besitzen, sondern einfach einen Service nutzen wollen. Findigen Unternehmern eröffnet das IoT zudem die Möglichkeit, innerhalb kurzer Zeit etablierte Unternehmen zu verdrängen und zu Marktführern aufzusteigen. Umgekehrt sind etablierte Unternehmen gefordert, Szenarien zu entwickeln, wie sie sich an der Spitze behaupten können.

Entwicklung IoT-spezifischer Geschäftsmodelle: Ein Vier-Phasen-Modell

Wie aber Ansätze entwickeln, um IoT-spezifische Geschäftsmodelle zu entwickeln? Der Wissenschaftler Dominik Bilgeri u. a. haben dafür ein Workshop-Modell entwickelt, auf das Unternehmen zurückgreifen können. Es besteht aus vier Phasen: der Ideation, der Präparation, der Evaluation und dem Skaling.

Am Anfang steht die Ideenentwicklung. Das möglichst interdisziplinär zusammengesetzte und hierarchiefrei diskutierende Team sollte Vorfestlegungen vermeiden und „iterativ“ vorgehen. Sinnvoll ist es, auf bewährte Techniken wie das Design Thinking zurückzugreifen. Design-Thinking-Prozesse gliedern sich, generell gesprochen, in folgende Punkte: verstehen, beobachten, Sichtweise definieren, Ideen finden, Prototyp entwickeln, testen. Was bedeutet dies nun konkret für die Entwicklung eines IoT-spezifischen Geschäftsmodells?

Ausgehend von einer grundlegenden „Vision“ werden in der ersten Phase der Ideenfindung im Brainstorming mehrere Ideen entwickelt, die in einer Longlist zusammengefasst und bewertet werden. Diese wird auf eine Shortlist reduziert. In der zweiten Phase werden diese Ideen der Shortlist im Hinblick auf die Kundenperspektive sowie auf die Beziehungen zu den „Stakeholdern“, also zum Beispiel Lieferanten, Investoren, breite Öffentlichkeit, analysiert. Fragestellungen wären etwa, welche Fähigkeiten zur Umsetzung im Unternehmen benötigt werden, welche Vorteile sich für Geschäftspartner ergeben, welche notwendigen Fähigkeiten die Geschäftspartner mitbringen.

Das Ganze wird zu einer Business-Case-Betrachtung verdichtet. In der dritten Phase erfolgt die Prüfung der erarbeiteten Geschäftsmodelle, zu der auch die Entwicklung von Best-Case- sowie Worst-Case-Scenarios gehört. Die vierte Phase besteht aus der Umsetzung der Geschäftsmodelle.

Verfügbar, skalierbar, agil – die IT-Architektur

Bei der Umsetzung ist zu beachten, dass die Anforderungen des IoT an die IT-Architektur sehr hoch sind: Im Vordergrund stehen dabei Verfügbarkeit, Skalierbarkeit, „Continuous Delivery“ und Agilität. Über die Verfügbarkeit wird garantiert, dass Teilausfälle nicht zu einem Ausfall des gesamten Systems führen. Skalierbarkeit bedeutet, dass einzelne, besonders beanspruchte Komponenten angepasst werden können, ohne andere Komponenten zu beeinflussen.

„Continuous Delivery“: Hierbei soll man imstande sein, Änderungen und Verbesserungen vorzunehmen, ohne das ganze System upzudaten. Agilität bedeutet in diesem Fall die Fähigkeit, „Änderungen, Verbesserungen und Erweiterungen (…) unabhängig von der Funktionalität der gesamten Applikation vor(zu)nehmen und ohne andere Teil-Services (zu) beeinträchtigen“. Im Prinzip sieht die Architektur folgendermaßen aus: Die entsprechend ausgestatteten Geräte („Dinge“), die IoT-Devices, leiten die Daten an die Cloud weiter – sogenannte „Low Power Devices“ nutzen dafür ein extra zwischengeschaltetes Gateway, das mit dem IoT-Backend verbunden ist. Dieses ist in Geschäftsapplikationen (Supply Chain, ERP etc.) bzw. in mobile Geräte und Rechner integriert. Der Datenfluss läuft aber in beide Richtungen, sodass die Geräte auch miteinander im Austausch stehen.

Klar ist, dass auch das hohe Datenaufkommen bewältigt werden muss – so fallen allein während eines einzigen Transatlantikfluges rund drei Terabyte Rohdaten an. Dies gilt umso mehr, als einer der Hauptvorteile des IoT in der Vernetzung von Informationsflüssen liegt: Hersteller teilen die Daten entlang der Lieferkette mit allen Beteiligten, also mit Lieferanten, Spediteuren, Subunternehmern, Stakeholdern, manchmal sogar mit Wettbewerbern.

Hier setzt Big Data ein, also Verfahren, mit denen die zusätzlich über die IoT-Technik gewonnenen Daten geordnet und analysiert werden können, um Entscheidungen zu erleichtern. Als Stichworte seien hier spezielle Analyseverfahren (Data Analytics) sowie die Blockchain-Technik genannt, dezentrale, linear erweiterbare Datenbanken, die ständig neue Elemente hinzufügen.

Schließlich gilt es, im Rahmen einer integrierten IT-Security-Strategie etwaige Schwachstellen (etwa unsichere Mobilgeräte oder Cloud-Interfaces) zu ermitteln und auch ein spezielles Risiko-Management für IoT-Geräte einzuführen.

Chance im globalen Wettbewerb

IoT bedeutet für die Unternehmen Chancen im globalen Wettbewerb: Tendenziell wird das statische Element in den Unternehmen verschwinden. Die Unternehmen im 21. Jahrhundert werden sich von den Unternehmen des 20. Jahrhunderts so unterscheiden wie jene von den Manufakturbetrieben des achtzehnten Jahrhunderts. Es kommt für das einzelne Unternehmen nur darauf an, die sich ergebenden Chancen auch zu nutzen. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Bild von Pete Linforth auf Pixabay

Stück für Stück zur Smart Factory

Aufbruch ins IIoT: Wie bestehende Anlagen zukunftsfit werden.

Über den Weg hin zur Predictive Maintenance sprach die Redaktion mit Lumir Boureanu, CEO der compacer GmbH.

Herr Boureanu, wie unterstützen Sie Ihre Kunden bei der Erfassung, Konsolidierung und Auswertung heterogener Maschinendaten?

Foto Becker & Bredel

Mittlerweile liegen viele Daten aus Maschinen und Anlagenparks in deutschen Unternehmen vor. Es ist aber nicht die Frage, ob Unternehmen bereits einen Datenbestand haben, sondern wie die mannigfaltigen Maschinendaten genutzt werden, um neue Erkenntnisse daraus zu gewinnen. Eine Herausforderung stellt vor allem der Medienbruch dar, wenn die Daten aus Maschinen an ERP-Lösungen übergeben werden sollen, um weiter Analysen und Prozesse anzustoßen. Gerade im Maschinen- und Anlagenbau muss der Medienbruch gemeistert werden, um die Anlagen fit für das IIoT zu machen.

Wie sieht in diesem Kontext Ihre Lösung aus?

Nach einer professionellen Ist-Analyse wird die Maschine mit verschiedenen Sensoren ausgestattet. Zum Beispiel mit einem Temperatursensor, einem Vibrationssensor und einem Körperschallsensor. Anschließend werden die generierten analogen Signale über die vBox vom Fraunhofer Institut in digitale Daten umgewandelt. Um diese Daten zu erfassen, aufzubereiten und analysieren zu können, ist nun die Implementierung von „edbic“, unserer Plattform zur Integration und Interpretation, nötig. Denn erst jetzt können diese Daten genutzt werden, um Condition Monitoring zu betreiben, das in Echtzeit Auskunft über den aktuellen Zustand der Maschine gibt.

Was ist und wie funktioniert eigentlich „edbic“?

edbic ist ein modernes Datenintegrationssystem, das alle Beteiligten innerhalb der Wertschöpfungskette miteinander verbindet. Alle Daten unterschiedlicher Formate und Herkunft laufen in edbic zusammen. Mit dieser Middleware können wir Produktions- und Werkmaschinen, Anlagen, Verarbeitungszentren, Geräte, aber auch unterschiedliche Industrieprotokolle wie OPC-UA, Siemens S7 sowie diverse Cloud-Services zusammenführen und integrieren. Ebenso können Prozesse und andere Workflows orchestriert und die dazugehörigen Daten in einem Dashboard gespeichert, angezeigt und analysiert werden. Anschließend kommt unser Tool „edpem“ zum Einsatz.

Das „Process Event Monitoring“-System visualisiert die „rohen“ Daten im Controlling Dashboard und alarmiert, wenn Schwellwerte überschritten werden. Bei registrierten Anomalien verschickt „edpem“ E-Mails oder Slack-Nachrichten. Genauso gut können aber auch die Daten in das vorhandene ERP- oder MES-System gesendet werden. Durch diese sinnvolle Automatisierung werden bestehende Geschäftsprozesse nachhaltig verbessert und für mehr Übersichtlichkeit und Stabilität gesorgt.

Schaubild: Wie die Retrofit-Methode Maschinen ins IIoT einbindet.

Welche Nutzungsmodelle sind vorgesehen?

Wir bieten unseren Kunden Managed Services, Software as a Service oder On-premise-Implementierungen an. Als Unternehmen der eurodata-Gruppe nutzen wir das eurodata-eigene Hochleistungs-Rechenzentrum in Saarbrücken, das nach ISO/IEC 27001 zertifiziert ist.

Der nächste Schritt in Richtung Smart Factory wird nach einem längeren Beobachtungszeitraum realisiert: Nach der Erhebung entsprechender Vergleichsdaten, die sich aus den Monitoring-Daten ergeben, lassen sich Zustandsprognosen ableiten und ein Frühwarnsystem etablieren.

Sind wir jetzt schon bei der Smart Factory?

Durch diese Maßnahmen sind unsere Kunden der Smart Factory bereits ein großes Stück näher gekommen, in jedem Fall sind aus den gewonnenen Daten bereits neue Geschäftspotenziale gewachsen.

Der nächste Schritt in Richtung Smart Factory wird nach einem längeren Beobachtungszeitraum realisiert: Nach der Erhebung entsprechender Vergleichsdaten, die sich aus den Monitoring-Daten ergeben, lassen sich Zustandsprognosen ableiten und ein Frühwarnsystem etablieren. Dadurch werden zukünftig Anomalien, Abnutzungserscheinungen, Ausfälle oder andere Probleme innerhalb des Produktionsprozesses rechtzeitig identifiziert. Sobald genügend Daten vorliegen, geht es weiter in Richtung Predictive Maintenance.

Und wie geht es weiter für Ihr Haus?

Angesichts der Tatsache, dass die Erfassung, Konsolidierung und Auswertung heterogener Maschinendaten und deren Übergabe an ERP-Systeme in den nächsten Jahren die Erfolgsgrundlage von Maschinen- und Anlagenbauern bleiben wird, freue ich mich auf viele neue Projekte. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Industrie 4.0 für Bestandsanlagen

Bestehende Maschinen werden zum Maschinenpark 4.0.

Foto Becker & Bredel

von Lumir Boureanu

Es gibt verschiedene Gründe, wa­rum heute Maschinenparks aufgerüstet und modernisiert werden. Maschinen werden häufig für einen bestimmten Zweck angeschafft, der sich jedoch im Laufe des Lebenszyklus durchaus ändert. Maschinen müssen dann angepasst oder erweitert werden. Ziel unserer Kunden ist es zum Beispiel, eine Verlängerung der Maschinen-Lebensdauer, die Produktqualität und die Versorgung mit Ersatzteilen im Maschinenpark sicherzustellen. Aber digitaler Retrofit für Bestandsanlagen bedeutet im Kontext von Industrie 4.0 (IIoT) für uns noch mehr.

Gehen wir davon aus, dass nicht alle Maschinen die neusten Schnittstellen besitzen und noch analog ihre Dienste verrichten. Zusätzlich treffen wir bei der Beratung unserer Kunden immer wieder auf heterogene Maschinenlandschaften verschiedenster Hersteller und teilweise stammen Spezialmaschinen noch aus den 70er-Jahren.

Aber Digitalisierung erfordert nicht unbedingt neue Maschinen. Mit den richtigen Lösungen lassen sich heterogene Maschinenparks harmonisieren und für das IIoT vorbereiten. Voraussetzung ist dabei stets, dass die Maschinen und Anlagen in der Lage sind, Ereignisse und Zustände real mithilfe von Sensoren analog zu erfassen, diese Informationen in digitale Daten zu verwandeln und dann an ein übergeordnetes System weiterzugeben.

Viele Projekte scheitern, weil sich Unternehmen auf das reine Sammeln von Daten beschränken. Daten alleine schaffen jedoch noch keinen Mehrwert – auf die konkreten Anwendungsfälle kommt es an.

Lumir Boureanu

Aber die Daten müssen nicht nur erfasst, sondern dann auch sinnvoll verarbeitet werden. Insofern geht es bei einem auf die Digitalisierung der Produktion ausgerichteten Retrofit darum, die Maschinen in den digitalen Produktionsprozess zu integrieren.

Dennoch scheitern viele Projekte, weil sich Unternehmen auf das reine Sammeln von Daten beschränken. Daten alleine jedoch schaffen noch lange keinen Mehrwert – auf die konkreten Anwendungsfälle kommt es an. Wichtig ist deshalb, nicht nur die vorhandenen Daten zu betrachten, sondern auch zu überlegen, welche Informationen wirklich gebraucht werden, um das Potenzial zu heben.

Am Anfang steht sicherlich die Analyse der Fähigkeiten der jeweiligen Maschinen und Anlagen. Fragen wie „Sind schon moderne BUS-Systeme integriert, oder nicht?“ müssen nun beantwortet werden, um den Aufwand der Implementierung einzuschätzen. Dann sollten die Auswahl der Sensoren und die Entwicklung einer Retrofit-Strategie angegangen werden. Die Sensoren werden je nach Bedarf und Ziel des Unternehmens und des Maschinentyps ausgewählt.

Dadurch werden Technologie- und Prozessinformationen durchgängig erfasst und bereitgestellt. Damit zum Beispiel eine Prognose über eine Maschine abgegeben werden kann, müssen Daten über den Zustand der Maschine gesammelt werden. Nach einer professionellen Ist-Analyse wird sie deshalb mit verschiedenen Sensoren ausgestattet. Dies können zum Beispiel Temperatursensoren, Vibrationssensoren und Körperschallsensoren sein. Abnutzung und Verschleiß von wichtigen Maschinenbauteilen können jetzt analog erfasst werden.

Die ankommenden analogen Signale werden zunächst digitalisiert. Dies passiert mithilfe der Installation der vBox unseres Technologiepartners Fraunhofer-Institut für Produktionstechnologie IPT. Sie arbeitet gemäß den aktuellen Industriestandards: Das kompakte System kann Positionsdaten ebenso wie digitale In- und Outputs mit Sensordaten synchronisieren und dem Anwender nach Bedarf visuell darstellen – unabhängig von der verwendeten Steuerungstechnik.

Um die Daten zu erfassen, aufzubereiten und analysieren zu können, ist die Implementierung von edbic, einer Plattform zur Integration und Interpretation nötig. Denn erst dann können diese Daten genutzt werden, um Condition Monitoring zu betreiben, das in Echtzeit Auskunft über den aktuellen Zustand der Maschine gibt.

Es können Produktions- und Werkmaschinen, Anlagen, Verarbeitungszentren, Geräte, aber auch unterschiedliche Industrieprotokolle, OPC UA, Siemens S7, sowie Cloud-Services in edbic zusammengeführt und integriert werden. Ebenso können Prozesse und andere Workflows orchestriert und die dazugehörigen Daten in einem Dashboard gespeichert, angezeigt und analysiert werden.

In edbic werden Daten zusammengeführt und können in einem Dashboard gespeichert und analysiert werden. epdem alarmiert, sollten Schwellenwerte überschritten werden.

edpem, ein „Process Event Monitoring“-System, visualisiert die „rohen“ Daten im Controlling Dashboard, alarmiert, wenn Schwellwerte überschritten werden, und verschickt E-Mails oder Slack-Nachrichten bei Anomalien. Genauso gut können aber auch die Daten in das vorhandene ERP- oder MES-System gesendet werden. Vielleicht starten Sie sogar mit einem Pilotprojekt, also zunächst mit einer kleinen Anzahl an Maschinen. So kann der Maschinenpark sukzessiv harmonisiert und vernetzt sowie eine Kommunikation möglich gemacht werden.

Deshalb lohnt sich digitaler Retrofit

  • Retrofit schafft die Basis für die Digitalisierung der Produktion, indem Maschinen und Anlagen in digitale Prozesse integriert werden.

  • Retrofit sorgt für Investitionssicherheit, weil bereits angeschaffte Maschinen und Anlagen weiter genutzt werden können.

  • Im Vergleich zur Neuanschaffung eines Assets ist Retrofit äußerst günstig.

  • Durch Retrofit werden digitale Szenarien möglich – und das bedeutet mehr Transparenz, steigende Effektivität, Effizienz sowie Flexibilität bei den Prozessen und innovativen Use-Cases.

  • Retrofit trägt zu einer längeren Maschinenlebensdauer durch die permanente Überwachung der Maschinen und bessere Ersatzteilversorgung bei.

Der Haupt­unterschied und damit ein großer Vorteil bei der von uns beschriebenen Retrofit-Methode ist die stabile Komplexität. Sie steigt nicht mit der Anzahl der Maschinen, sondern bleibt aufgrund des Business-Integration-Clusters, edbic, tragfähig. Das macht auch Ihr digitales Projekt um vieles leichter und agiler. Folgenden Tipp möchten wir Ihnen noch an die Hand geben: Wenn Sie wirklich die Hebel der Digitalisierung nutzen möchten, dann sollten Sie sich auch mit Ihren Partnern, Kunden und Lieferanten verbinden und zusammenarbeiten. Nur so kann ein effizientes Ecosystem entstehen, das für alle Seiten einen Mehrwert schafft! //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Investieren in Datenkompetenz

Daten werden immer mehr zur universellen Sprache – und Unternehmen, die sie beherrschen, werden erfolgreich sein.

von Bernhard Haselbauer

Der Job eines Data Scientists ist es, aus großen Datenmengen Informationen zu generieren und Handlungsempfehlungen abzuleiten, die das Unternehmen befähigen, effizienter zu arbeiten.

Doch was muss ein Data Scientist können und welche Skills sollte er mitbringen? Zum Beispiel muss er mit den unterschiedlichsten Datenbanksystemen zurechtkommen, doch meistens liegen die Daten nur unstrukturiert vor. Unternehmen arbeiten heute mit CRM-und ERP-Lösungen von Microsoft, SAP, Oracle und Co. Standardmäßig kommen in diesen Fällen relationale Datenbanken zum Einsatz. Demnach sollte ein Data Scientist SQL, „Structured Query Language“, in allen Abwandlungen beherrschen. Werden dann die Daten für die Analyse exportiert, fangen die ersten Schwierigkeiten schon an. Zusätzlich müssen immer mehr unstrukturierte Daten aus Social-Media-Kanälen und anderen Internetquellen analysiert werden.

Diverse Schnittstellen müssen in diesem Kontext bedient werden, um neue Erkenntnisse zu gewinnen. Und so geht es weiter mit Know-how über Verschlüsselungsverfahren, Datenbankanbindungen und das Echtzeitmanagement von Datenströmen. Data-Scientisten sind gefragter denn je, um die digitale Transformation im Unternehmen voranzutreiben. Doch der Markt für Spezialisten ist wie leergefegt.

Bildquelle Lizenz: Designed by macrovector / Freepik

Sich selbst zu helfen, scheint das Gebot der Stunde zu sein. Doch welche Möglichkeiten gibt es, die Datenflut zu meistern? Zum Beispiel muss die Datenanalyse nicht mehr zentral erfolgen, so kann der Self-Service-BI-Ansatz mehr Fachanwendern ermöglichen, selbst Berichte und Analysen zu erstellen. Die IT-Abteilung spart sich dadurch aufwendige Entwicklungsarbeiten für nur einmalig benötigte Auswertungen. Eine dezentrale BI legt die Analysen zur Entscheidungsfindung direkt in die Geschäftsbereiche. Daten und Analysefähigkeiten werden so in die Hände der Abteilungen und Führungskräfte übergeben, um mehr Agilität an den Tag zu legen.

Entscheider die sich zukunfts­fähig im Markt aufstellen wollen, sollten einen Blick auf ihre Daten werfen.

Die Lösungen haben inzwischen einen übersichtlichen und funktionalen Aufbau und sind in der Lage, Quelldaten aus diversen Datenbanken und Beständen einzubinden, auch über diverse Cloud-Infrastrukturen hinweg. Der Bezug von IT-Diensten im Self-Service für diverse BI-Tools hat sich als ausgesprochen produktiv und kostensparend erwiesen.

Fest steht, dass Unternehmen neue Erkenntnisse aus ihren verschiedenen Datenquellen und Datenbanken generieren können. Die Technologie dazu ist da. Moderne Data-Analytics-Lösungen ermöglichen es, Daten aus unterschiedlichsten Quellen miteinander in Beziehung zu setzen und zu erforschen. Dazu muss jedoch aus den verschiedenen Datenbanken eine Datenbank gemacht werden. Jetzt wird es möglich, Finanzdaten mit z. B. operativen Daten zu verknüpfen und daraus neue Entscheidungsgrundlagen zu ziehen. Ziel ist, Menschen durch assoziative Datenanalysen bessere Entscheidungsgrundlagen zur Verfügung zu stellen.

Das Wissen im Umgang mit Daten und Datenbanken muss mehr Verbreitung finden. Diesem Leitgedanken nimmt sich der „Data Literacy Index“ an. Der souveräne Umgang mit Daten ist für Organisationen aller Art und Größe bares Geld wert. Das geht aus einer neuen, weltweiten Studie des Data-Analytics-Spezialisten Qlik hervor. Erstellt wurde der Data Literacy Index durch die amerikanische Wharton School und das Institut IHS Markit.

Laut dem Index können große Organisationen ihren Wert um bis zu 500 Millionen Dollar steigern, wenn sie unternehmensweit und konsequent auf eine datenversierte Kultur setzen. „Es ist das erste Mal, dass die Datenkompetenz auf Unternehmensebene gemessen wird, was nicht nur die Datenkompetenz der Mitarbeiter des Unternehmens umfasst, sondern auch die Nutzung von Daten für Entscheidungen im gesamten Unternehmen“, so Lorin Hitt, Professor an der Wharton School der University of Pennsylvania. „Die Forschung deutet darauf hin, dass Datenkompetenz in Unternehmen eine Reihe von Aspekten umfasst, die sich gegenseitig verstärken und mit finanzieller Leistung verbunden sind.“

Europa hat laut der neuen Untersuchung den höchsten „Data Literacy Score“ aller Regionen, wobei Großbritannien, Deutschland und Frankreich zu den am weitesten fortgeschrittenen Nationen für „Corporate Data Literacy“ gehören. Zwar ist Singapur die datenkundigste Nation weltweit, regional betrachtet liegen die USA und APAC jedoch gleichauf mit einem geringeren Wert als Europa. Dies spiegelt eine größere Anerkennung wider, die europäische Entscheidungsträger offenbar für den Wert von Daten haben.

Denn 72 Prozent von ihnen bestätigen, dass diese „sehr wichtig“ sind – verglichen mit nur 60 Prozent in Asien und 52 Prozent in den USA. Das Maß für die Datenkompetenz von Unternehmen wurde von IHS Markit und einem Professor der Wharton School festgelegt. Es liegt auf einem Kontinuum, das auf den Datenkompetenzen der Mitarbeiter, datengetriebener Entscheidungsfindung und Datenqualitätsstreuung basiert. Eine Umfrage wurde entwickelt, um die drei Dimensionen der Datenkompetenz von Unternehmen zu messen. Antworten wurden mit passenden Skalen und Scores über alle Indikatoren hinweg standardisiert und aggregiert.

Megatrends wie Automatisierung, Robotik und künstliche Intelligenz bedeuten die vierte industrielle Revolution. Daten werden immer mehr zur universellen Sprache – und Unternehmen, die sie beherrschen, werden erfolgreich sein. Entscheider, die sich zukunftsfähig im Markt aufstellen wollen, sollten einen Blick auf ihre Daten werfen.

Übrigens bieten sich viele Weiterbildungsmöglichkeiten für Unternehmen und Mitarbeitende. Das Fraunhofer-Institut IAO zum Beispiel bietet für Führungs- und Fachkräfte sowie IT-Expertinnen und -Experten, die künstliche Intelligenz, maschinelles Lernen und Data Science verstehen möchten, Seminare an. Die Kurse geben einen Überblick über die nötigen Schritte bei der Durchführung von Datenanalysen mittels Methoden der künstlichen Intelligenz im Zeitalter von Big Data sowie die damit verbundenen Herausforderungen. Die Teilnehmenden erhalten eine Einführung in verschiedene Formen und Algorithmen des maschinellen Lernens und erhalten einen Überblick über deren Unterschiede sowie die jeweiligen Stärken und Schwächen. Praxisbeispiele und Tooldemonstrationen machen die vorgestellten Konzepte verständlich und nachvollziehbar. //


Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Trends im digitalen Marketing

Vom Smart Speaker bis zum Influencer

von Matthias Wahl

Als Bundesverband Digitale Wirtschaft (BVDW) e. V. konnten wir 2018 weiterhin eine rasante Digitalisierung der gesamten Wirtschaft beobachten, beispielsweise auch der klassischen Industrie. Die digitale Transformation ist im Vergleich zum Vorjahr nochmals stark vorangeschritten, das sehen wir auch in der lebendigen Entwicklung unserer Mitgliederlandschaft. Player aus immer neuen Branchen stoßen zum BVDW und treiben die digitale Wirtschaft gemeinsam mit den Digital Natives voran. Themen wie künstliche Intelligenz und Blockchain haben ihre Nische längst verlassen und sind zu gesellschaftsrelevanten Themen geworden. Vor allem der Politik fällt es aber schwer, mit diesen Entwicklungen Schritt zu halten. Wir müssen leider feststellen, dass selbst der Breitbandausbau noch immer viel zu langsam vorangeht und dass digitale Bildung in Schulen noch zu selten umfassend stattfindet.

Digitales Marketing

Das digitale Marketing im Speziellen erhält derweil immer neue Möglichkeiten und wird gleichzeitig professioneller. Beispielsweise wurde 2018 ein neuer Code of Conduct Programmatic Advertising entwickelt, der für noch mehr Qualität und Transparenz im Markt sorgt. Mittlerweile haben ihn bereits Großunternehmen wie Google unterschrieben und auch Werbungtreibende sind dabei, ihre Arbeit danach auszurichten.

Im Bereich Markensicherheit haben 2018 die großen deutschen Verbände OWM (Online-Werbungtreibende im Markenverband) und der BVDW erstmals zusammen ein Brand-Safety-Whitepaper entwickelt, das gemeinsame Richtlinien für den Markt definiert hat. Eine solch übergreifende Zusammenarbeit hat es zu Brand-Safety bis dahin nicht gegeben.

Matthias Wahl, Präsident des BVDW

2018 war auch das Jahr der Smart Speaker um Amazon Alexa, Google Home, Telekom Magenta und Co. Immer mehr Deutsche nutzen digitale Sprachassistenten oder haben bereits Smart Speaker in ihren Häusern und Wohnungen stehen. Dadurch erhält Audio-Content einen deutlichen Schub, den Unternehmen für sich nutzen müssen. Das zeigen auch die Zahlen des neuen Online-Audio-Monitors. Einige Ergebnisse:

Trend 1: 6,6 Millionen neue Webradio- und Online-Audio-Hörer

Laut Online-Audio-Monitor(1) wächst Online-Audio weiter dynamisch: Von den aktuell 40,8 Millionen Nutzerinnen und Nutzern in Deutschland haben 16,3 Prozent Online-Audio erst in den letzten zwei Jahren für sich entdeckt. Das entspricht 6,6 Millionen Neunutzern bzw. Personen, die seit 2016 erstmals mindestens eines der vielfältigen Online-Audio-Angebote gehört haben. Unter den neuen Nutzern sind besonders viele Frauen (62 Prozent) und 30- bis 49-Jährige (44 Prozent). Damit nähert sich die Nutzerschaft von Online-Audio weiter dem Bevölkerungsdurchschnitt an.

Viele der Nutzer widmen sich intensiv den vielfältigen Online-Audio-Angeboten. Fast jeder Zweite von ihnen (44 Prozent) verbringt die Hälfte seiner Audio-Zeit mit Angeboten wie Webradio, Podcast bzw. Radiosendungen auf Abruf und Musikstreaming. Außerdem treibt Online-Audio die generelle Audio-Nutzungszeit: 23 Prozent der Online-Audio-Nutzer geben an, im Laufe des letzten Jahres mehr Audio genutzt zu haben im Vergleich zu 16 Prozent bei den Nichtnutzern von Online-Audio.

Zur Bedeutung von künstlicher Intelligenz befragte der BVDW 2018 seine Mitglieder.

Smart Speaker werden vor allem zum Abspielen von Radio- und Audio-Inhalten genutzt

Obwohl viele Anwendungen und Audio-Inhalte auch ohne die Installation spezieller Skills bzw. Actions über die Smart Speaker ansprechbar sind, haben 26,6 Prozent der Nutzer solche Programme eingerichtet – 85 Prozent davon für die Audionutzung. Anwendungen von Musikstreaming-Diensten und Radioplattformen liegen dabei mit 60 Prozent bzw. 59 Prozent vorn. Ob vorinstalliert oder nicht, überzeugt die Audio-Nutzung über Smart Speaker: 92,7 Prozent der Nutzer sind zumindest meistens mit der Audio-Nutzung über die Smart Speaker zufrieden. Das kann ein Grund dafür sein, weshalb mit hoher Regelmäßigkeit auf diese Inhalte zugegriffen wird. So hört jeder Zweite (49,2 Prozent) täglich oder fast täglich Audio-Inhalte über Smart Speaker, bei den unter 30-Jährigen sind es 58,3 Prozent.

Für Unternehmen ist also jetzt die beste Zeit, um eine Audio-Strategie zu erarbeiten. Ein lesenswerter Beitrag, was dabei für Unternehmen zu beachten ist, ist auf der BVDW-Website zu finden(2).

Trend 2: Qualitätsoffensive der digitalen Werbung

Mit dem Ziel, ein einheitlich hohes Qualitätsniveau im digitalen Marketing zu etablieren, startete die Fokusgruppe „Digital Marketing Quality“ (DMQ) im BVDW Ende 2018 mit der „Digital Trust Initiative“. Im digitalen Marketing existieren sowohl national als auch international bereits zahlreiche Zertifikate, Qualitätsstandards und Initiativen, die sich teilweise ergänzen und aufeinander aufbauen, mitunter aber auch die gleichen Ziele verfolgen. Mit der Digital Trust Initiative schaffte der BVDW unter Einbeziehung von Vermarktern, (Media-)Agenturen und Systemanbietern wie z. B. Messdienstleistern die Grundlage, um einen einheitlich hohen Qualitätslevel zu etablieren.

Besonders wichtig ist es, fortlaufend die Marktentwicklungen und spezifischen Anforderungen der Werbungtreibenden zu erfassen, zu bewerten und in die Kriterien der Digital Trust Initiative zu integrieren. Das zentrale Element der DTI ist der drei Säulen enthaltende Kriterienkatalog, auf dessen Grundlage sowohl Vermarkter und Agenturen als auch Systemanbieter bewertet werden: Die erste dieser Säulen „User Experience“ beinhaltet die Verpflichtung auf die Kriterien des „Better Ad Experience Programms“ (Produktportfolio) sowie auf die LEAN-Principles (technische Produktspezifikationen). Bei der zweiten Säule „Verification“ stehen Viewability, Invalid Traffic und Brand-Safety im Fokus. „Transparency“, die dritte Säule, stützt sich auf den Code of Conduct Programmatic Advertising (Unterzeichnung obligatorisch) sowie die verpflichtende Teilnahme an Media-Analysen. Die Kriterien werden unterschiedlich stark gewichtet – für eine erfolgreiche Zertifizierung müssen mindestens 80 Prozent der Anforderungen erfüllt sein.

Quelle: BVDW-Befragung unter 140 Social-Media- und Influencer-Marketing-Experten

Trend 3: Influencer-Marketing

Neben dem Audio-Boom war 2018 auch das Jahr der Influencer. Influencer-Marketing hat einen weiteren Evolutionsschub unternommen, kaum ein Großunternehmen verzichtet heutzutage auf die Zusammenarbeit mit Youtubern, Instagramern und Bloggern. Besonders bei jungen Zielgruppen hat Influencer-Marketing eindeutigen Einfluss auf Verkaufszahlen. Jeder Sechste kauft ein Produkt, das er zuvor bei einem Influencer sah(3). Die Unternehmen reagieren und erhöhen ihre Budgets für Influencer-Marketing. Laut einer neuen Befragung des BVDW (November 2018) unter werbungtreibenden Unternehmen sind bei 61 Prozent der deutschen Social-Media- und Influencer-Marketing-Manager 2019 steigende Budgets für Influencer-Marketing geplant. Die Ausgaben für Instagramer wie Bibi, Caro Daur oder Lisa & Lena belaufen sich bei rund einem Viertel der befragten Unternehmen auf jeweils 10 000 bis 50 000 Euro pro Jahr. Weitere 25 Prozent investieren zwischen 50 000 und 250 000 Euro pro Jahr. Die Unternehmen professionalisieren Influencer-Marketing. Die bevorzugten Partner sind meist Nischen-Influencer, nicht die großen Stars.

In den Medien war Influencer-Marketing vor allem wegen einer neuen Abmahnwelle sehr präsent. Verschiedene Urteile zwangen Influencer dazu, ihre Postings mit dem Hashtag #werbung zu kennzeichnen, obwohl für das Posting kein Geld bezahlt wurde. Mittlerweile gibt es auch Urteile, die solch pauschale Verpflichtungen wieder zurückgenommen haben. Die Diskussion ist nicht abgeschlossen. //


Kontakt zum Autor

Quellen:(1) https://www.online-audio-monitor.de/
(2) https://www.bvdw.org/der-bvdw/news/detail/artikel/google-home-amazon-alexa-co-so-wirds-gemacht/
(3) https://www.bvdw.org/presse/detail/artikel/jeder-sechste-kauft-ein-produkt-das-er-zuvor-bei-einem-influencer-sah-1/

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Internationalisierung beginnt bei der Sprache

Weltweit mitreden können – dank automatisierter Übersetzungsprozesse

von Christian Weih-Sum

Willy Brandt sagte einmal: „I‘m selling to you, I speak your lan­guage. If I‘m buying, dann müssen Sie Deutsch sprechen.“ Dieses Zitat ist nach wie vor aktuell. In internationalen Märkten wird ein Unternehmen seine Produkte nur dann erfolgreich vermarkten, wenn es auch die kulturellen Gegebenheiten der Zielmärkte berücksichtigt. Die Adaption und Lokalisierung der gesamten Produkt- und Unternehmenskommunikation für das jeweilige Land spielen dabei eine zentrale Rolle – nicht zuletzt aufgrund des zunehmenden Einkaufs über das Internet.

Für einen erfolgreichen internationalen Marktauftritt greift das pure Übersetzen also nicht weit genug. Vielmehr müssen Inhalte lokalisiert, also nicht nur von einer Sprache in eine andere transformiert, sondern dabei länderspezifische Gegebenheiten berücksichtigt werden.

Christian Weih-Sum

Bevor ein Interessent sich für ein Produkt entscheidet, hat er sich bereits intensiv im Internet informiert. Umso wichtiger ist es, dass er attraktive Inhalte auf der Webseite eines Anbieters vorfindet, die „Lust auf mehr“ machen. Idealerweise finden sich entlang der Customer Journey an jedem Touchpoint Informationen in verständlicher Form wieder. Verständlichkeit über alle Phasen der Customer Journey hinweg stellt eine Grundvoraussetzung für die Bildung von Vertrauen dar, das als einer der wesentlichen Erfolgsfaktoren für Marken und damit für die Kaufentscheidung gilt. Dazu gehört auch, dass die Inhalte in der jeweiligen Landessprache vorhanden sind.

In Zeiten zunehmender Personalisierung erwarten Interessenten, dass sie Produktbeschreibungen, Artikeltexte, Kategorietexte, Multimedia-Inhalte für Shop und Marktplätze genauso wie Unternehmenswebseiten, Landingpages, Blogs, Kurznews und Ankündigungen, Ratgeberinhalte, E-Books, Kundenfeedbacks und Bewertungen in ihrer Landessprache vorfinden. Entgegen der Annahme vieler Verantwortlicher für Marketing, Content und Verkauf ist es nicht ausreichend, den vorhandenen Content nur in englischer Sprache vorzuhalten.

Dies belegt unter anderem eine Studie von Common Sense Advisory. Sie ergab, dass 60 Prozent der Online-Kunden ein Produkt oder eine Dienstleistung nicht kaufen, wenn die Website nicht in deren Muttersprache verfügbar ist. Hinzu kommt, dass Interessenten in ihrer jeweiligen Landessprache suchen. Für eine erfolgreiche Suchmaschinenoptimierung (SEO) ist es somit unabdingbar, die passenden Keywords für die jeweiligen Zielländer sorgfältig zu recherchieren und den Autoren bzw. Übersetzern zur Verfügung zu stellen.

Ein weiterer wichtiger Punkt: Produkt- und Markennamen können in verschiedenen Ländern unerwünschte Assoziationen wecken. So hatte der Autobauer Fiat mit seinen Modellen „Uno“ und „Regata“ kei­nen Erfolg, denn Finnen denken bei „Uno“ an einen Idioten und „Regata“ heißt auf Schwe­disch „streitsüchtige Frau“.


Kernaussagen

  • Internationalität bedeutet mehr als Englisch.
  • Anbieter sollten Produkt- und Markennamen unbedingt auf globale Verwendbarkeit prüfen.
  • Geeignete Keywords sind in jedem Land unterschiedlich und können sich im Laufe der Zeit ändern.
  • Die Lokalisierung der gesamten Produkt- und Unternehmenskommunikation ist fester Bestandteil einer erfolgreichen Internationalisierungsstrategie.
  • Eine erfolgreiche Customer Journey setzt Inhalte in der jeweiligen Landessprache voraus.
  • Mit Übersetzungsmanagementsystemen können Unternehmen multilingualen Content in hoher Qualität erstellen.

Übersetzen ist nicht ausreichend

Für einen erfolgreichen internationalen Marktauftritt greift das pure Übersetzen also nicht weit genug. Vielmehr müssen Inhalte lokalisiert, also nicht nur von einer Sprache in eine andere transformiert, sondern dabei länderspezifische Gegebenheiten berücksichtigt werden. Wer hierfür lediglich Texte per E-Mail an einen Pool von verschiedenen Übersetzungspartnern schickt, unterschätzt Themen wie konsistente Qualität, Kosten und Datensicherheit.

Um den Lokalisierungsaufwand zu reduzieren und dabei gleichzeitig die Datensicherheit sowie eine hohe Qualität zu garantieren, ist der Einsatz einer Übersetzungsmanagementsoftware ratsam. Sie sorgt vor allem für durchgehend einheitliche Texte und einen hohen Wiederverwendungsgrad bereits übersetzter Inhalte. Grundlage dafür bilden ein integriertes Translation Memory sowie ein Terminologiesystem, die in einer geschlossenen Umgebung allen Beteiligten zur Verfügung stehen. Autoren greifen auf Quelltexte und deren bereits vorliegende Übersetzungen zu und haben gleichzeitig einen Überblick über die Terminologie, die sie verwenden dürfen. Damit bleiben alle wichtigen Keywords konsistent, was auch für eine gut funktionierende SEO wichtig ist. Redundante Übersetzungen gehören der Vergangenheit an.

Die Verwendung einer Übersetzungsmanagementsoftware bringt für die effiziente Lokalisierung von Webseiten und Onlineshops im Rahmen einer internationalen E-Commerce-Strategie zahlreiche Vorteile.

Christian Weih-Sum

Unternehmen können einmal erstellte Inhalte mehrfach für unterschiedliche Kanäle und Formate verwenden. Die gesamte Content-Erstellung inklusive Übersetzung und Review wird in einem Prozess nahtlos abgebildet. Dabei sparen Projektverantwortliche Zeit, indem sie wiederkehrende Prozessschritte automatisieren. Hierzu gehört zum Beispiel das Zuweisen von Übersetzungsaufgaben an die jeweils passenden Übersetzungspartner. Gleichzeitig haben die Mitarbeiter jederzeit einen transparenten Überblick über den Fortschritt der Projekte und erhalten eine Benachrichtigung, sobald eine Aufgabe abgeschlossen ist. Bei der Auswahl einer passenden Übersetzungsmanagementsoftware sollten Unternehmen nicht nur den Funktionsumfang im Blick haben, sondern auch deren Integrierbarkeit. So gewährleisten Schnittstellen, dass Inhalte nahtlos z. B. mit Content-Management-, PIM- oder Webshopsystemen ausgetauscht werden.

Translation-Management-Systeme als sprachübergreifende Plattformen

Die Verwendung einer Übersetzungsmanagementsoftware bringt für die effiziente Lokalisierung von Webseiten und Onlineshops im Rahmen einer internationalen E-Commerce-Strategie zahlreiche Vorteile. Qualitativ hochwertige Übersetzungen stehen schneller zur Verfügung, was die Time to Market deutlich verkürzt. Einheitliche Begriffe vereinfachen die Lesbarkeit und die Verständlichkeit von Inhalten, was wiederum die Customer Experience positiv beeinflusst und sich in einer evidenten Corporate Identity niederschlägt. Kunden und Interessenten gewinnen Vertrauen und entscheiden sich eher, ein Produkt zu kaufen oder eine Dienstleistung in Anspruch zu nehmen – ein guter Start für einen erfolgreichen Markteintritt. //


Kontaktieren Sie den Autor

Namensnennung-Keine Bearbeitung 3.0 Deutschland (CC BY-ND 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Changing Thinking, before Changing Things

Auch wenn es viele noch nicht wahrhaben wollen: Die digitale Transformation reicht weit über Automatisierung und Prozessoptimierung hinaus.

von Uwe Bergmann

Die angesagten Themen im Jahr 2019 sind zweifellos Digitalisierung und digitale Transformation. Und sie werden es auch noch länger bleiben. Allerdings beschränkt sich für viele Unternehmen Digitalisierung und digitale Transformation auf Optimierung und Automatisierung von Produktionssystemen. Das wäre aber nun nicht wirklich etwas Neues, denn darum geht es in der IT doch schon lange. Heute schaut man intensiv nach analogen Prozessen, die man digitalisieren kann, ohne gleich zweckgebundene Prozessoptimierungen damit zu verbinden. Zur digitalen Transformation gehört es, sich über die Prozesse als solche Gedanken zu machen und zu überlegen, wo und wie man die neuen Technologien dazu nutzt, sein Handeln, seine Strukturen, seine Prozesse und sein Businessmodell noch mal zu überdenken.


Daraus ergeben sich neue Aufgaben und Herausforderungen für ERP-Anbieter und Software-Entwickler, IT-Dienstleister und Beratungshäuser. Heute muss ein IT-Partner seine Kunden auf zwei Weisen unterstützen: Er muss moderne, ausgereifte informationstechnologische Werkzeuge bereitstellen, damit seine Kunden in ihrer Branche ganz vorne mitspielen können. Und zusätzlich gibt es einen erheblichen Beratungsbedarf. So verkündet Gartner etwa mit der Postmodern ERP so etwas wie ein Ende der klassischen ERP-Systeme, deren Anschaffung bekanntlich teuer ist und die im Betrieb oft unflexibel sind und durch viele Anpassungen ihre Update-Fähigkeit einbüßen. Es wird zwar weiterhin das klassische On-premises-ERP-System geben, aber daran angeschlossen viele andere Systeme etwa im HR-, CRM- oder Marketing-Bereich. Digitalisierung und digitale Transformation stellen also insgesamt ein ausgesprochen komplexes Projekt dar, das nicht nur außergewöhnliche IT-Kenntnisse erfordert, sondern auch unternehmerisches Um- und Neudenken.

Zeitgemäße Strukturen aufbauen


Will man diese Themen umsetzen, heißt es Entscheidungen zu treffen, wie man sie als Unternehmen angreifen möchte. Will man eher vorneweg gehen oder wartet man ab und schaut, was vielleicht künftig relevant wird? Und dann gibt es den einen oder anderen, der hofft, dass die Veränderungen gar nicht stattfinden. Für den wird es aber eher schwierig. Effizienz und Produktivität stecken zwar schon in der DNA unserer deutschen Mittelständler, trotzdem lassen sich durch die Digitalisierung noch sehr große Potenziale aufspüren. Dafür ist aber ein genereller Change-Prozess nötig. „Haben wir schon immer so gemacht“ wird in der digitalen Zukunft ein Todesurteil sein und kompetente Beratung zur Erarbeitung einer ganzheitlichen IT-Strategie wird zum wesentlichen Beitrag zur Existenz- und Zukunftssicherung – je früher, desto besser.

Workshops zum Thema

Die digitale Transformation mit Leben füllen – das ist Aufgabe der CEOs. In Form von Workshops wird dieses Wissen praxisnah vermittelt. Die Ziele des Programms sind unter anderem:
  • Digitale Reifegradprüfung anhand einer ausführlichen Evaluation
  • Entwicklung einer „digitalen Vision“, welche das Unternehmen erfolgreich vorantreiben soll
  • Anhand der „Design Thinking“-Methode wird ein neues, digitales Geschäftsmodell entwickelt

  • Uwe Bergmann

    Inzwischen ist Microsoft Office 365 auch mehr als Word, Excel und PowerPoint. Es ist eine echte Business-Software, die wir von Cosmo Consult außer speziellen Branchen-Lösungen noch mit etlichen Zusatzlösungen ergänzt haben, um den Nutzen von Software weiter zu erhöhen. Aber auch mit hervorragenden informationstechnologischen Werkzeugen lässt sich die digitale Transformation in keinem Unternehmen in einer Art Urknall umsetzen. Viele beschränken sich zunächst auf die Modernisierung vorhandener IT-Systeme oder die Einführung neuer digitaler Technologien, um zunächst eine Prozessoptimierung zu erreichen.

    Aber Unternehmenssoftware hat nur eine bestimmte Halbwertszeit, sodass sie ohne kontinuierliche Modernisierung rasch nicht mehr aktuellen Anforderungen entspricht und irgendwann stirbt – schlimmstenfalls mit dem Unternehmen. Also ist schon hier Beratung mit entsprechendem IT-Background und technischer Expertise wie von Cosmo Consult erste Wahl, um etwa in Industrie, Dienstleistungsgewerbe oder E-Commerce zeitgemäße IT-Strukturen zu schaffen und zukunftsorientierte digitale Plattformen aufzubauen.


    Ein Kulturwandel gehört dazu

    Die weitere wichtige Komponente ist das Thema Kultur: Wie schafft man ein digitales Mindset und wie geht man mit den neuen Technologien um, wie fördert man Zusammenarbeit und wie nutzt man Wissensaustausch mit den Technologien, die heute verfügbar sind? Auch das Thema Agilität braucht ein digitales Mindset: Wie schaffe ich es, schneller auf neue Trends zu reagieren? Kaufe ich mir heute eine Software, dann ist und bleibt sie so alt, wie sie heute ist. In der Cloud wird sie dagegen kontinuierlich aktualisiert. Ist das Tempo der Veränderungen sehr hoch, muss ich die Frage beantworten, ob ein Update alle zwei, drei Jahre reicht oder ob man besser permanent auf dem Laufenden bleibt. Schließlich gibt es im Business nur einen Sieger: den, der den Auftrag bekommt.

    Bei Cosmo Consult können wir aus Erfahrung über Kulturthemen sprechen, weil wir da selbst unser bester Kunde sind. Wir realisieren seit anderthalb Jahren ein großes Transformationsprojekt im eigenen Haus, in das wir sehr viel Zeit investieren. Das ist nicht nur Technologie, sondern auch ganz viel Mindset und Kultur. Wir wollen da Vorreiter sein, um einerseits selbst vorne mit dabei zu sein, aber auch, um für unsere Kunden Erfahrungen zu sammeln. Die wollen wir nämlich dabei unterstützen, die Gewinner der digitalen Transformation zu werden. Dazu müssen wir unter anderem eine Übersetzungsleistung bringen von den sehr technologischen, teilweise abstrakten Gedanken zum echten Nutzen.

    Darum haben wir ein Digital-Business-Consulting-Team aufgebaut, das unseren Kunden helfen soll, dieses Thema ganzheitlicher zu behandeln. Wir machen ja nicht nur ERP, sondern bieten das gesamte Set von Cloud über die Daten-Services, über Artificial Intelligence, IoT, Modern Workplace, Kollaborationsthemen bis hin zu den klassischen Themen wie ERP, CRM. So verfügen wir über die erforderliche ganzheitliche Kompetenz, Berater und Wegbegleiter in die digitale Zukunft der Unternehmen zu sein. Denn digitale Transformation bedeutet: Changing Thinking, before Changing Things. //


    Kontakt zum Autor


    Bild von Gerd Altmann auf Pixabay


    Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

    Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

    Sie dürfen:

    Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

    Bearbeiten — das Material remixen, verändern und darauf aufbauen
    und zwar für beliebige Zwecke, sogar kommerziell.

    Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

    Unter folgenden Bedingungen:

    Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

    Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

    Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

    Künstliche Intelligenz mit Mehrwert für den Menschen

    KI braucht einen klaren Werterahmen, damit die Technologie für die Menschen nutzbringend eingesetzt werden kann.

    von Markus Heimann

    Ist in Ihr Wohnzimmer auch schon ein Sprachassistent eingezogen? Oder träumen Sie davon, im autonom fahrenden Auto entspannt Zeitung zu lesen? Das sind nur die offensichtlichen Bereiche, bei denen künstliche Intelligenz (KI) zum Einsatz kommt.

    Es gibt eine Vielzahl an Beispielen, wie wir KI zur Verbesserung im Alltag sowie in Wirtschaft und Gesellschaft einsetzen können. Dazu gehören eine verbesserte medizinische Diagnose, eine Optimierung von Lieferketten oder das Bewältigen humanitärer Katastrophen. KI ist mittlerweile zu einem wichtigen Bestandteil der Digitalisierung in Deutschland geworden. Das hat nicht zuletzt die KI-Strategie der Bundesregierung unterstrichen.

    Potenzial von KI

    Dank KI und komplexer Algorithmen gewinnen Unternehmen neue Erkenntnisse, die aufgrund der schieren Menge und Komplexität der vorhandenen Daten vorher nicht möglich gewesen wären. Das Marktforschungsunternehmen Gartner prognostiziert einen Geschäftswert durch KI von 1,2 Billionen Dollar für 2018. Gleichzeitig zeigt eine Umfrage von YouGov, dass die Deutschen gegenüber KI durchaus kritisch sind.

    Vertrauen in KI gelingt nur, wenn ein verbindlicher Werterahmen geschaffen wird.

    Unternehmen haben besondere Verantwortung

    Dies verdeutlicht, welche wichtige Rolle und Verantwortung Unternehmen wie wir als Wegbereiter der Digitalisierung innehaben: Telefónica Deutschland will Chancen von KI nutzen und dabei verantwortungsbewusst handeln. Deshalb zeigen wir, welchen konkreten Nutzen KI bringen kann, haben uns einen klaren Werterahmen zum Einsatz von KI gesteckt und fördern den gesellschaftlichen Diskurs u. a. bei Veranstaltungen im „Telefónica Basecamp“ in Berlin.

    Neben dem konkreten Nutzen von KI ist für die Akzeptanz in der Gesellschaft ein ethischer Werterahmen wichtig.

    Markus Heimann

    Wir verfügen über jede Menge Daten, die täglich milliardenfach durch unsere normalen Geschäftsprozesse entstehen. Sie stammen z. B. aus unserem Netz und unseren IT-Systemen, aber auch aus externen Quellen wie der Marktforschung. Die Analyse dieser Daten und der Einsatz von KI bringt dabei einen erheblichen Mehrwert für unsere Kunden, unsere Mitarbeiter und unser Umfeld.

    Konkrete Beispiele schaffen Vertrauen

    Mittels KI erkennen wir beispielsweise frühzeitig Unregelmäßigkeiten in unserem Mobilfunknetz. Das erleichtert die Wartung und Optimierung des Netzes für ein besseres Kundenerlebnis. Noch offensichtlicher für unsere Kunden ist der Einsatz von KI im Kundenservice: Anfang 2018 hat die Telefónica Gruppe „Aura“ eingeführt, einen Sprachassistenten auf Basis von KI, der die Interaktion unserer Kunden mit uns vereinfacht. Aura lernt die Bedürfnisse der Kunden kennen und ermöglicht somit maßgeschneiderte Lösungen.

    Mit KI können wir auch große gesellschaftliche Probleme angehen. Mein Kollege Enrique Frías aus Madrid und sein Team führen aktuell eine Studie in Kolumbien durch. Sie wollen mithilfe von Mobilfunkdaten Erkenntnisse über die Bewegungsströme von Bevölkerungsgruppen erhalten, die aufgrund von klimawandelbedingten Problemen gezwungen sind zu migrieren.

    Das sind nur einige Beispiele, wie KI einen echten Mehrwert bringen kann. Uns ist es wichtig, dass die Menschen solche und weitere Anwendungsfelder kennen, um den Einsatz von KI besser bewerten zu können.

    Klarer Werterahmen für Einsatz von KI

    Neben dem konkreten Nutzen von KI ist für die Akzeptanz in der Gesellschaft ein ethischer Werterahmen wichtig. Das ist die europäische Stärke gegenüber den aktuellen Ansätzen von KI in den USA oder in China. Die Telefónica Gruppe hat sich weltweit dazu bekannt, künstliche Intelligenz nur nach konkreten Prinzipien der Ethik einzusetzen und somit einen positiven Einfluss der Technologie auf die Gesellschaft zu unterstützen. Wir stellen bei der Anwendung von KI den Menschen in den Mittelpunkt. Dazu gehört auch, dass die Verwendung von Daten transparent sein muss und die Daten geschützt. Und: Ethische Entscheidungen bleiben bei uns dem Menschen vorbehalten. Nur so schaffen wir das Vertrauen in diese neue Technologie. //

    FAZIT

    Künstliche Intelligenz ist ein zentraler Aspekt der Digitalisierung in Deutschland. Gerade deshalb tragen Unternehmen beim Einsatz von KI eine besondere Verantwortung – denn ohne das Vertrauen der Menschen geht es nicht. Es ist wichtig, Beispiele für den Einsatz von KI verständlich darzustellen, und es braucht in Deutschland einen klaren Werterahmen für den Einsatz der Technologie.


    Kontakt zum Autor

    Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

    Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

    Sie dürfen:

    Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

    Bearbeiten — das Material remixen, verändern und darauf aufbauen
    und zwar für beliebige Zwecke, sogar kommerziell.

    Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

    Unter folgenden Bedingungen:

    Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

    Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

    Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

    Datenbasierte Geschäftsmodellinnovationen

    Das IoT wird zum KI-Datenlieferanten: Durch die Algorithmen des maschinellen Lernens entstehen so neue Produkte, Prozesse und Services.

    Im Interview mit der TREND-REPORT-Redaktion sprach Prof. Dr. Dr. Schildhauer, Principal Investigator am Weizenbaum-Institut für die vernetzte Gesellschaft, über das Veränderungspotenzial der mit dem IoT einhergehenden Datenmenge (Big Data).

    Herr Prof. Schildhauer, inwieweit verändert die KI/AI (Künstliche Intelligenz/Artificial Intelligence) datenbasierte Geschäftsmodelle?
    Es entstehen durch weiterentwickelte Algorithmen Chancen, bspw. durch maschinelles Lernen, Systeme zu entwickeln, die basierend auf großen Datenkontingenten helfen, Prozesse, Strukturen und Arbeitsabläufe in Unternehmen zu optimieren und zu steuern. Mit dem Hype-Begriff „Künstliche Intelligenz“ gehe ich in diesem Kontext noch sehr vorsichtig um. Aber sichtbar ist, dass neben maschinellem Lernen weitere Technologien wie Cloud Computing, IoT oder Additive Manufacturing ein wichtiger technischer Enabler für datenbasierte Geschäftsmodelle sind. So entwickeln sich in Deutschland in diesem Zusammenhang neue technologiebasierte Start-ups z. B. in den Sektoren Handel, Logistik, Gesundheit oder Mobilität.

    Start-ups, aber auch etablierte Unternehmen entwickeln auf Basis großer Datensammlungen und entsprechender Algorithmen neue Geschäftsmodelle, die beispielsweise Vorhersagen auf künftige Bedarfe oder Nutzerverhalten analysieren und vorhersagen – Predictive Analytics. Insbesondere vollzieht sich der Wandel bei etablierten Unternehmen dort, wo zumeist auf der Ebene unternehmensinterner Prozessoptimierungen Potenziale aus der Analyse großer Datenmengen geschöpft werden. Dies kann im Versicherungsbereich (bspw. Vorhersage über Schadenrisiken aus Daten der Vergangenheit und aktuellen Wetter- und Verhaltensdaten) ebenso wie in Produktionsunternehmen (Predictive Maintenance) zur Anwendung kommen. Ob und wie sich aus diesen Innovationen tragfähige datenbasierte Geschäftsmodelle entwickeln, untersucht die Forschungsgruppe „Datenbasierte Geschäftsmodellinnovation“ am Weizenbaum-Institut für die vernetzte Gesellschaft – Das deutsche Internet-Institut.

    Welche Innovationen werden mit diesen neuen Technologien möglich?
    Das Innovationspotenzial erstreckt sich über die gesamte Wertschöpfungskette in Unternehmen und führt zu neuen Prozessen, Produkten, Services und Geschäftsmodellen in vielen unterschiedlichen Sektoren. Neben den bereits beschriebenen Beispielen aus Dienstleistungs- und Produktionsbranchen wird die Echtzeitanalyse riesiger Datenbestände mittels Big-Data-Analytics heute auch in der Krebsdiagnostik genauso eingesetzt wie in der personalisierten Werbung. Große Potenziale entstehen auch im Bildungsbereich, diesen untersucht die Forschungsgruppe schwerpunktmäßig.

    Der Einsatz von Augmented Reality führt z. B. in der Berufsbildung dazu, dass Auszubildende verstärkt praktische Fähigkeiten durch virtuelle Simulationen erlernen, was vor allem bei riskanten und teuren Arbeitsschritten ein wichtiges Innovationspozential darstellt. Neue digitale Bildungsplattformen verändern den Lehr- und Lernprozess und machen diesen erstmalig messbar. So hat z. B. eine führende Plattform für Online-Kurse im Aus- und Weiterbildungsbereich mittels maschinellen Lernens einen Algorithmus entwickelt, der Teamleiter*innen aufzeigt, welche Kompetenzen Mitarbeiter*innen fehlen und mit welchen offerierten Online-Kursen diese erworben werden können. Auch kann die Sammlung von Verlaufs-, Abbruch- und Abschlussdaten der Lernenden auf Lernplattformen dazu genutzt werden, die Lernsysteme in Echtzeit an das Verhalten der Lernenden anzupassen (Learning Analytics).

    Wir gehen der Frage nach, wie durch die Veröffentlichung von Datensätzen neue Geschäftsmodelle im Mobility-Bereich oder in der Bildung entstehen können.

    Inwieweit beschäftigen Sie sich in Ihrer Forschungsgruppe mit den Themen IoT und IIot im Kontext datenbasierter Geschäftsmodellinnovationen?
    Wir betrachten IoT zwar als Schlüsseltechnologie, aber eben als eine von vielen, die datenbasierten Geschäftsmodellinnovationen zugrunde liegt. Neben diesen Schlüsseltechnologien stehen bei uns vor allem drei Themen im Vordergrund, die parallel erforscht werden. Den ersten inhaltlichen Schwerpunkt setzen wir im Bereich Open Data und gehen der Frage nach, wie durch die Veröffentlichung von Datensätzen neue Geschäftsmodelle im Mobility-Bereich oder in der Bildung entstehen können. Dabei fokussieren wir besonders die Themen Datenschutz, Datenqualität und Datensicherheit. Darüber hinaus untersuchen wir, wie digitale Bildungsplattformen und die dort implementierten Learning Analytics zu neuen datenbasierten Geschäftsmodellen im Bildungssektor führen können.

    Zu guter Letzt wird auch die Prozess­ebene von Geschäftsmodellinnovationen erforscht, um mögliche Systematisierungen abzuleiten und Innovations-Tools für die Praxis zu entwickeln. Ein Anwendungsfall bezogen auf IIOT untersucht in diesem Zusammenhang folgende Fragestellung: Da durch zunehmende Machine-to-Machine(M2M)-Kommunikation die Anforderungen an Menschen, die Produktionsprozesse in IIOT-ausgerüsteten Produktionsstraßen steuern, stark anwachsen, müssen diese Menschen mit neuartigen Lernsystemen ausgestattet werden, die ihnen erlauben, situativ und individuell am Ort des (Produktions-)Geschehens die Lerneinheit abrufen zu können, die gerade benötigt wird, um bspw. Fehler, die in der neuen IIOT-gestützten Produktion auftreten, schnell beseitigen zu können. Über die Produktionsstandort-übergreifende Sammlung von Daten (Big Data) können für wiederkehrende Fragestellungen bereits im Vorfeld Lern­einheiten angelegt werden, die den Menschen vor Ort helfen.

    Welchen Stellenwert nehmen das IoT und IIoT ein, wenn es um zukünftige datenbasierte Geschäftsmodelle geht?
    Im Zusammenhang mit dem IoT und IloT rückt das Konzept des Ökosystems in den Vordergrund. Hier reden wir über mit Sensoren ausgestattete Endgeräte, die digitale Daten generieren und miteinander austauschen. Gegenstände und Prozesse, die zuvor keine Daten generiert haben, werden auf einmal zu Datenlieferanten. Damit ist die IoT-Technologie, wie auch die zuvor thematisierte KI, ein weiterer technischer Enabler für datenbasierte Geschäftsmodellinnovationen. Mit den neuen Datenkontingenten werden die bestehenden unternehmerischen Ressourcen angereichert und es entstehen neue Bedarfe für Analyse-Tools, die aus Rohdaten handlungsrelevantes Wissen generieren. Vielfach bewegen wir uns hier im Bereich der Optimierung, vor allem in B2B-Bereichen wie der Logistik. Aber auch im privaten Bereich ist das IoT bereits angekommen, in Form von Selftracking und Smarthome-Devices. Smartwatches und andere Wearables sind längst in unserer Gesellschaft etabliert – eingebettet in ein Ökosystem digitaler Dienstleistungen.

    Wie können in Unternehmen durch Design Thinking innovative IoT-Ideen entstehen?
    Ein Kernprinzip von Design Thinking ist immer seine Ergebnisoffenheit und die konsequente Fokussierung auf die Verwender/Nutzer. Das begünstigt zunächst innovative Ideen in allen Industrien, weil vor allem der Prozess im Vordergrund steht und nicht so sehr die einzelne Branche oder die ihr zugrunde liegende Technologie. Dies kann als Stärke und als Schwäche auslegt werden. Für uns ist deshalb die wirklich spannende Frage in diesem Zusammenhang, inwiefern sich die Design-Thinking-Methodik durch die Einbindung großer Datenmengen erweitern lässt, um die spezifischeren Anforderungen von neuen datenbasierten Geschäftsmodellen zu erfüllen. Diesbezüglich gibt es in Deutschland schon erste Vorreiter, die sich z. B. auf Data Thinking spezialisieren, und auch unsere Forschungsgruppe am Weizenbaum-Institut für die vernetzte Gesellschaft – Das Deutsche Internet-Institut beschäftigt sich mit dieser Frage.

    Inwieweit können Ausgründungen etablierter Unternehmen neue unternehmerische Strukturen für die Entwicklung datenbasierter Geschäftsmodelle schaffen?
    Eine Ausgründung bietet neuen Ideen Platz zum Reifen. Das ist immer dann sinnvoll, wenn innerhalb einer Organisation neue unternehmerische Ideen generiert werden, die im derzeitigen Kerngeschäft keinen Platz finden, es entstehen Spin-offs. Mit dieser organisatorischen und oft auch räumlichen Trennung werden Innovationen davor bewahrt, an der gängigen Branchenlogik und der Performance des operativen Geschäfts gemessen zu werden – also jenen Paradigmen, die eine disruptive Innovation ja gerade auf den Kopf zu stellen versucht. Oftmals gehen diese Initiativen auf die Arbeit der Abteilungen für Forschung und Entwicklung in etablierten Unternehmen zurück, die sich heute mehr denn je mit digitalen und datenbasierten Innovationspotenzialen beschäftigen.

    Was können etablierte Unternehmen von Start-ups lernen?
    Sie können von ihnen lernen, dass Wandel keine Bedrohung ist, sondern eine Chance. Start-ups sind sehr gut darin, das zu betreiben, was Joseph Schumpeter schon vor über 70 Jahren als schöpferische Zerstörung bezeichnete, und gezielt Lücken zu besetzen, die sich zwischen etablierten Unternehmen und ihren bisherigen Kunden aufgetan haben. Sie bleiben neugierig, probieren auch unkonventionelle Ideen aus und richten den Blick eher nach außen als nach innen. Auch sind sie bereit, Erkenntnisse aus dem Markt schnell zur Veränderung des ursprünglichen Geschäftsmodells zu nutzen. Natürlich darf dabei nicht vergessen werden, dass die viel zitierte Flexibilität und Anpassungsfähigkeit der Start-ups vielfach ihrer prekären Lage geschuldet ist, geprägt von einem Mangel an unternehmerischen Ressourcen und oftmals auch an unternehmerischer Erfahrung. Und trotzdem ist es immer wieder bemerkenswert, wie sie sehr oft erfolgreich aus dieser Not eine Tugend machen. //

    Zur Person Prof. Dr. Dr. Thomas Schildhauer

    Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

    Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

    Sie dürfen:

    Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

    Bearbeiten — das Material remixen, verändern und darauf aufbauen
    und zwar für beliebige Zwecke, sogar kommerziell.

    Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

    Unter folgenden Bedingungen:

    Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

    Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

    Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

    Das IoT wird zum KI-Datenlieferanten: Durch die Algorithmen des maschinellen Lernens entstehen so neue Produkte, Prozesse und Services.

    Mit Vollgas auf die digitale Überholspur

    Der deutsche Mittelstand strotzt vor Innovationskraft und nimmt mit eigenen Lösungen eine internationale Vorreiterrolle ein.

    von Doris Albiez

    Auch wenn vor allem Großkonzerne als Vorreiter in puncto Digitalisierung gelten – der deutsche Mittelstand mit seinen zahlreichen innovativen Produkten und Geschäftsmodellen ist längst auf der Überholspur. Als Motor Deutschlands genießt er zu Recht weltweit ein hohes Ansehen. Manch heimischer Firmenlenker, aber auch die internationale Konkurrenz kann sich ein Beispiel an ihm nehmen, um nicht den digitalen Anschluss zu verpassen.

    Was wurde nicht schon alles über Digitalisierung gesagt und geschrieben – vor allem darüber, dass Deutschland nach und nach den digitalen Anschluss verliere und drauf und dran sei, im globalen Wettbewerb ins Hintertreffen zu geraten. All diesen Berichten ist eines gemein: Sie schauen vornehmlich auf das, was nicht funktioniert, statt sich vielmehr auf eine differenzierte Betrachtung zu konzentrieren. Trotz aller sicher existierenden Hindernisse und Verzögerungen – die Behauptung, deutsche Unternehmen stünden allesamt vor der Digitalisierung wie der Hase vor der Schlange, ist verkürzt und so nicht haltbar.

    Es ist also Zeit, sich die Firmen und ihre Geschäftsmodelle genauer anzusehen. Zwar mögen digitale Dienste für die Massen von amerikanischen Konzernen wie Google, Amazon oder Facebook beherrscht werden, bei der Digitalisierung der Industrie sind deutsche Unternehmen jedoch Meister. EOS aus dem oberbayerischen Krailling beispielsweise ist führend bei 3-D-Druckern. Schunk aus Lauffen am Neckar, Spezialist für Greifzeuge und Spanntechnik, rüstet Roboter weltweit mit digital gesteuerten Fingern aus, sodass sie Werkstücke exakt bewegen können. TeamViewer mit Sitz im schwäbischen Göppingen, Experte für die Fernwartung von Computern und Smartphones, ist inzwischen auf über 1,8 Milliarden Geräten installiert. Die Märkte und Geschäftsmodelle dieser Unternehmen sind höchst verschieden, aber eins haben sie alle gemeinsam: Sie spielen mit ihren digitalen Lösungen auf internationaler Bühne ganz vorne mit. Hidden Champions – also unbekannte Weltmarktführer – werden solche erfolgreichen Mittelständler genannt.

    Erstmals setzen technische Visionen wie das autonome Fahren oder die flächendeckend vernetzte Industrie 4.0 ein schnelles Internet voraus.

    Die Spur ist frei für den Mittelstand

    Die meist inhabergeführten und nicht dem Shareholder-Value verpflichteten Firmen sind geradezu ein Synonym für Innovation und Unternehmergeist. Ihre besondere unternehmerische Handschrift verleiht ihnen Handlungsstärke und Kontinuität. Viele von ihnen sind – obwohl in Nischen etabliert – längst international aufgestellt. Der Mittelstand muss sich also, was Innovationskraft und Wachstum betrifft, gegenüber den großen Konzernen keineswegs verstecken. Die Beratungsgesellschaft Munich Strategy, die jährlich in Kooperation mit der Wirtschaftswoche die innovativsten mittelständischen Unternehmen Deutschlands kürt, bescheinigt ihnen größere Innovationssprünge sowie höhere Umsatzzuwächse und Gewinne, als sie selbst Dax-Konzerne vorweisen können. Die Top 100 im Ranking für 2018 kommen über eine Spanne von fünf Jahren, die als Berechnungsgrundlage für die Studie herangezogen wurden, auf ein Erlöswachstum von 11,5 Prozent sowie eine Gewinnquote von 14,2 Prozent. Die 30 wichtigsten börsennotierten Firmen dagegen haben beim Fünfjahresumsatz lediglich ein Plus von 6,1 Prozent und beim Ertrag von 9,3 Prozent erreicht.

    Ein Mittelständler, der – neben EOS, Schunk und TeamViewer – das Thema Digitalisierung lebt und mit seiner Geschäftsidee zu den Großen in der Branche gehört, ist die Volke Entwicklungsring SE. Das Unternehmen erstellt Fahrzeugkonzepte von der ersten Idee bis zur Serienreife. Karosserie, Antrieb, Fahrwerk und Elektrik eines neuen Modells können zwar schon länger am Computer entworfen und simuliert werden. Volke hat dies aber auf die Spitze getrieben: In einer „begehbaren“, virtuellen Umgebung mit einem dreidimensionalen Abbild des jeweiligen Autos können Prototypen in digitaler Teamarbeit und standortübergreifend absolut realistisch, proportionsgetreu und in Echtzeit entwickelt und das Design von neuen Modellen in jedem einzelnen Schritt beurteilt und verfeinert werden. Volkswagen, einer der Kunden von Volke, reduziert so spürbar Entwicklungszeit und -kosten, da die händische Arbeit und das Produzieren aufwendiger physischer Testmodelle auf ein Minimum beschränkt werden. Erstes Ergebnis dieser durchgängigen Virtualisierung ist der ID Buggy Concept von VW: Dabei handelt es sich um eine dach- und türlose Neuinterpretation der Buggys aus den Sechzigerjahren, die im Gegensatz zu den historischen Vorbildern ohne Benzin fährt und auf dem Genfer Autosalon 2019 ihr Debut feierte.

    Konzerne können von den Kleineren lernen

    Ganz anders sieht es oftmals bei börsennotierten und damit in der Regel ausschließlich ihren Shareholdern verpflichteten Unternehmen aus – nehmen wir als Beispiel den klassischen Einzelhandel oder traditionelle Banken. Sie drohen zu den eigentlichen Verlierern der Branche zu werden oder sind es sogar bereits. Online-Banken machen den Traditionshäusern massiv Konkurrenz, und immer mehr Kunden bestellen lieber im Netz, als sich auf den Weg in eine der Einzelhandelsketten zu machen.

    Die Start-up-Mentalität, die man sowohl in den Accelerator-Büros in Berlin als auch bei Mittelständlern in der Provinz findet, fehlt diesen Konzernen allzu oft. Während Mittelständler Vorteile wie kürzere Entscheidungswege und einen engeren Kundenkontakt haben, um Innovationen zu schaffen, verlieren sich viele Großunternehmen in der Erreichung ihrer finanziellen Ziele und dem nächsten Quartalsbericht. Eine Digitalisierung, die ihren Namen verdient, geht bei diesem Fokus unter und scheitert oftmals an veralteter Software und sogenannten Spaghetti-Systemen, die nicht so einfach auf neue Lösungen mi­griert werden können. Unvergessen ist der erste und krachend gescheiterte Versuch zweier bis dahin erfolgsverwöhnter Elektronikketten, einen eigenen Web-Shop einzurichten.

    Die meist inhabergeführten und nicht dem Shareholder-Value verpflichteten Firmen des Mittelstandes sind geradezu ein Synonym für Innovation und Unternehmergeist.

    Mehr Förderung und weniger Bürokratie ist gefragt

    Den großen Konzernen fehlt es manchmal an Mut, über den Tellerrand der Shareholder-Erwartungen zu blicken. Aber auch Start-ups und der Mittelstand brauchen trotz all ihrer Erfolge noch deutlich mehr Unterstützung seitens der Politik. Nur so können sie ihr volles Potenzial ausschöpfen. Unterstützung heißt mehr finanzielle Förderung, weniger Bürokratie und die richtige Infrastruktur, um am digitalen Wandel allumfassend teilhaben zu können.

    Es geht bereits los beim altbekannten Problem der schlechten Infrastruktur. Wenn die Bundesministerin für Bildung und Forschung findet, dass man 5G nicht an jeder Milchkanne braucht, ist das schlicht falsch. Erstmals setzen technische Visionen wie das autonome Fahren oder die flächendeckend vernetzte Industrie 4.0 ein schnelles Internet voraus. Auf der anderen Seite sitzt der deutsche Mittelstand eben nicht nur in den Ballungsräumen, sondern vor allem in der Provinz. Auf dem Land kann Mobilfunktechnologie fehlende DSL-Anschlüsse ersetzen. Der zweite Punkt: Es müssen noch mehr Investitionsanreize für Start-ups und mittelständische Unternehmen geschaffen werden. Dazu gehört ein innovatives Finanzierungsumfeld, das über klassische Anlageinvestitionen hinausgeht, Wagniskapital für Gründer mobilisiert und auch Investitionen in immaterielle Vermögensgegenstände ermöglicht. Die Bürokratie bei der Beantragung solcher Hilfen muss abgebaut werden. Zu diskutieren ist darüber hinaus ein vereinfachtes Steuermodell gerade in den Anfangsjahren von Neugründungen. Da geht es auch um die Frage, wie es sein kann, dass Internetgiganten wie Google, Facebook und Co. nur einen Bruchteil der Steuern zahlen, die ein „normales“ Unternehmen an den Staat abführen muss.

    Kernaussagen

    • Der Mittelstand ist häufig innovativer Vorreiter digitaler Entwicklungen.
    • Die Politik sollte Digitalisierungsbestrebungen in der Wirtschaft besser fördern. Hierzu gehört natürlich auch die digitale Infrastruktur. Ein Abbau von Bürokratie kann kreativen und digitalen Geschäftsmodellen helfen.
    • Gerade den großen, börsennotierten Unternehmen fehlt es oft an Mut und an einer gewissen Start-up-Mentalität mit kurzen Entscheidungswegen und engem Kundenkontakt, um Innovationen voranzutreiben.
    • Digitalisierung wird die Welt neu ordnen – in Länder, die neue Technologien nutzen und damit Geschäfte machen, und solche, die tatsächlich den Anschluss verlieren.


    Vielfach wird die Einführung von Innovationen durch ein Übermaß an Bürokratie ausgebremst. Auf der einen Seite verhindern Regulierungen zweifellos, dass Monopolstellungen einzelner Unternehmen andere Marktteilnehmer blockieren. Auf der anderen Seite sind es gerade die zu starren Regeln und vielen Auflagen, die eine schnelle Entwicklung von jungen Firmen erschweren. Wer beispielsweise ein Unternehmen gründet, kann das in Estland digital von überall aus erledigen. Mit einer guten Viertelstunde hält Estland den offiziellen Weltrekord für die schnellste Gründung – ein Wert, von dem Jungunternehmer in Deutschland nur träumen können. Ein anderes Beispiel ist das am 1. Januar 2019 in Kraft getretene neue Verpackungsgesetz. Das Gesetz, das den Umweltschutz großschreibt, sieht unter anderem eine Registrierungspflicht vor. Hersteller und Händler müssen nachweisen, dass sie sich an dualen Systemen wie dem Grünen Punkt beteiligen. Zudem besteht die Pflicht zu einem Reporting, in dem einmal jährlich angegeben werden muss, welche Verpackungsmaterialien in welcher Menge in den Markt gebracht wurden.

    Die ökologische Notwendigkeit dieser Regelung steht außer Frage, gerade für Start-ups im Bereich E-Commerce bedeutet das neue Gesetz aber eine zusätzliche administrative Arbeit. Wer seine Waren europaweit anbietet, muss zudem aktuell in jedem einzelnen EU-Land eine Anmeldung für die Verpackungsordnung einreichen. Sinnvoll wäre eine einheitliche Lösung, um den Verwaltungsaufwand so gering wie möglich zu halten.

    Abseits alter Wege liegt die Zukunft

    Die Politik ist also gefragt, einen Ausgleich zu finden: zwischen dem berechtigten Schutz vor Monopolen und dem Abbau von Bürokratie, zwischen einer kritischen Technik-Folgen-Abschätzung und der Schaffung einer Innovationskultur. Gelingt dies, wird Deutschland den Sprung von einer erfolgreichen Industrienation in eine erfolgreiche Digitalnation schaffen. Die Digitalisierung wird dabei die Welt neu ordnen: in Länder, die die neuen Technologien nutzen und damit Geschäfte machen, und solche, die tatsächlich den Anschluss verlieren. Wenn wir uns auf unsere Stärken besinnen und die Digitalisierung als Chance begreifen, werden wir gegen Amerikaner und Chinesen nicht nur bestehen, sondern eine internationale Vorreiterrolle übernehmen können. //


    Kontakt zur Autorin

    Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

    Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

    Sie dürfen:

    Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

    Bearbeiten — das Material remixen, verändern und darauf aufbauen
    und zwar für beliebige Zwecke, sogar kommerziell.

    Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

    Unter folgenden Bedingungen:

    Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

    Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

    Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

    Innovationsmanagement in der VUCA-Welt

    Warum Flöße die besseren Schnellboote sind

    Umantis-Mitarbeiter wählen ihren CEO selber: Marc Stoffel heißt der Wahlsieger

    von Marc Stoffel

    Die Märkte sind in den letzten Jahrzehnten immer volatiler, unsicherer, komplexer und agiler geworden. Doch eine Grundüberzeugung eint die VUCA-Welt: Firmen, denen es gelingt, ihr Kerngeschäft zu erhalten, während sie gleichzeitig neue Geschäftsfelder erschließen und Innovationen schaffen, sind die Gewinner der digitalen Transformation. Uneinigkeit herrscht hingegen darüber, wie so ein erfolgreiches Innovationsmanagement am besten gelingt. Viele Konzerne gründen losgelöste Innovationshubs, die für disruptive Geschäftsideen sorgen sollen. Doch häufig scheitern diese an der Umsetzung der Initiativen, da es keine Verbindung zwischen dem trägen „Mutterschiff“ und den agilen „Schnellbooten“ gibt.

    Das Unternehmen als Flottenverband

    Bei Haufe haben wir ein Modell entwickelt, das die Beweglichkeit des Unternehmens und damit seine Innovationskraft dadurch steigert, dass das Geschäft in viele End-to-End-verantwortliche Einheiten organisiert wird. Diese unterliegen klaren, aber deutlich voneinander abweichenden Spielregeln, die auf dem jeweiligen Reifegrad der Geschäftsinitiative – von der disruptiven Innovation bis zum Bestandsgeschäft – basieren. Unser Modell namens FLEAT verwendet dabei einfach verständ­liche Metaphern für die unterschiedlichen Stadien des Business und die entsprechenden Rollen der Mitarbeiter, um die Organisation mit einem für jeden verständlichen Rahmen zu versehen.

    Abb. 1: Agiles Lifecycle-Management

    Die neuen End-to-End-verantwortlichen Einheiten werden in verschiedenen Kategorien entlang einer Boote-Metapher skizziert. Boote haben je nach Lebenszyklus unterschiedliche Zielvorgaben, die in einem festgelegten Zeitraum zu erbringen sind. Sie variieren zudem in der Anzahl der Mitarbeiter und der Höhe des jeweiligen Budgets.

    Entscheidend ist, dass die Entstehung eines neuen Bootes immer erst nach dem Durchlauf eines klar geregelten Innovationsprozesses erfolgt, um sicherzustellen, dass vor einem signifikanten Investment in eine Innovation der Geschäftserfolg grundsätzlich gewährleistet ist.

    Verfehlen Boote ihre Ziele innerhalb eines bestimmten Zeitraums, erfolgt keine weitere Finanzierung. Die geschaffenen Assets werden als Lernquelle und Bereicherung für andere Boote und bestehende Initiativen genutzt, die betroffenen Mitarbeiter können ihre Fähigkeiten auf anderen Booten einsetzen.

    Ein erfolgreiches Innovationsmanagement gleicht in unserem Modell dem guten Zusammenspiel einer Flotte mit verschiedenen Bootstypen.

    Flöße statt Schnellboote

    Initiativen, die neue Produktideen vorantreiben wollen, vergleichen wir mit Flößen – denn so fühlt sich der Prozess häufig an: Eine Handvoll Mitarbeiter baut an Material zusammen, was sie finden kann, und lässt das Floß an einem vielversprechenden Fluss (Markt) zu Wasser. Auf dem Floß gibt es keine Arbeitsteilung, jeder macht alles und ist für alles zuständig.

    Schleusen als Proof of Concept

    Hat das Floß die ersten Monate im Wildwasser des Marktes gemeistert, steht der erste Proof of Concept an: Finden sich potenzielle Kunden, die an das neue Produkt glauben? Kann die Mannschaft ein überzeugendes „Minimum Viable Product“ (MVP) entwickeln? Jede dieser Fragestellungen wirkt wie eine Schleuse: Kann sie positiv beantwortet werden, kommt das Floß in ein neues Fahrwasser – und mit jedem Fahrwasser entwickelt sich das Boot weiter.

    Boote-Metapher entlang des FLEAT -Modells

    Vom Floß zum Kreuzfahrtschiff – der Lebenszyklus einer erfolgreichen Innovation

    Je Erfolg versprechender eine Innovation ist – je mehr Schleusen das Boot also erfolgreich passiert – desto komplexer wird das Projektmanagement und desto größer wird das Team. Das Floß wächst und wird zunächst zum Ruderboot. Hier ist immer noch jeder Mitarbeiter direkt im operativen Geschäft tätig, aber es gibt bereits eine gewisse Team-Synchronisation. Passiert das Boot auch die nächste Schleuse, wird es zum Dampfer.
    In diese Phase fällt die erfolgreiche Marktdurchdringung – Mannschaft und Produkt erleben eine Zeit starken Wachstums. Dies führt dazu, dass auf dem Dampfer feste Strukturen und Prozesse mit einer klaren Arbeitsteilung eingeführt werden.

    Die letzte Verwandlung erlebt das Schiff, wenn es vom Dampfer zum Kreuzfahrtschiff wird. Das rasante Wachstum flacht ab, dafür steigt der Komfort für die Kunden. Sie genießen den perfekten Service an Bord und das Dahingleiten in ruhigen Gewässern – kurz: den größtmöglichen Reifegrad des ehemals innovativen Produkts.

    Jedes Schiff braucht ein eigenes Betriebssystem

    Die Innovationsinitiative, die einst als kleines Floß gestartet war, verändert sich im Lauf ihrer Reise aber nicht nur in Bezug auf ihre Größe, sondern auch in Hinblick auf ihr Betriebssystem. Bei Haufe schauen wir gern auf das Zusammenspiel der drei erfolgskritischen Faktoren eines Unternehmens: die Mitarbeiter, das Organisationsdesign und unterstützende Tools. Wir sind überzeugt, dass Unternehmen nur dann erfolgreich geführt werden können, wenn diese drei Dimensionen miteinander im Einklang stehen. Bei unseren Schiffen benötigt jeder Schiffstyp ein eigenes Betriebssystem – je nachdem, welchen Grad an Agilität die jeweilige Initiative benötigt. Dies lässt sich schon an der Rolle der Mitarbeiter erkennen: Für disruptive Missionen in neuen Ozeanen benötigen wir eher Piraten, für die Steuerung von Kreuzfahrtschiffen durch bekannte Routen Kapitäne.

    Bei Haufe haben wir ein Modell entwickelt, das die Beweglichkeit des Unternehmens und damit seine Innovationskraft dadurch steigert, dass das Geschäft in viele End-to-End-verantwortliche Einheiten organisiert wird.

    Auf die richtige Flotte setzen

    Ein erfolgreiches Innovationsmanagement gleicht in unserem Modell dem guten Zusammenspiel einer Flotte mit verschiedenen Boots­typen: Da nur eine von zehn Innovationen zur Marktreife gelangt, hat das Unternehmen viele Flöße in vielversprechenden Flüssen zu Wasser gelassen, hat etliche Ruderboote im Rennen um die nächste Big Idea und verfügt über einige Dampfer und Kreuzfahrtschiffe, die den gegenwärtigen Umsatz erwirtschaften.

    Dieses Modell bietet in unseren Augen gleich drei Vorteile: Dank der zahlreichen End-to-End-verantwortlichen Einheiten gewinnt das Unternehmen an Agilität. Und da jeder Boots­typ über sein jeweils eigenes Betriebssystem verfügt, existiert für jede Phase der Initiative das jeweils richtige Framework aus Mitarbeitern, Strukturen und Prozessen sowie Tools. Die bildhafte Sprache sorgt schließlich für ein gemeinsames Verständnis und klar definierte Spielregeln, was die Aufgaben, Führung und die Verteilung der Verantwortung in den Teams anbelangt. //


    Kontakt zum Autor

    Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

    Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

    Sie dürfen:

    Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

    Bearbeiten — das Material remixen, verändern und darauf aufbauen
    und zwar für beliebige Zwecke, sogar kommerziell.

    Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

    Unter folgenden Bedingungen:

    Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

    Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

    Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.