Beiträge

Handel mit Zukunft

Tiefere Datenanalyse, NLP und mehr Automatisierung
sind gefragter denn je.

von Frank Zscheile

Omni- oder Multichannel sind für den Handel keine neuen Trends mehr, sondern vielfach gelebte Realität. Welcher Kanal bedient wird, ist zweitrangig, es geht um das Erlebnis, bei dem sich „online“ und „offline“ zu smarten Services ergänzen. Grundlage dafür sind die dahinterliegenden Datenmengen. Sie lassen sich heute durch Analyseinstrumente, die mit künstlicher Intelligenz angereichert sind, immer besser hinsichtlich ihrer weiteren Verwendung im Business-Kontext auswerten.

Neue Algorithmen zur Textanalyse sind inzwischen sogar in der Lage, Stimmungslagen in Kundenschreiben selbstständig zu erkennen. Solche bislang verborgenen Informationen können Handelsunternehmen im Sinne des Geschäftsnutzens einsetzen. Wenn Kundendaten genauer analysiert werden, lassen sich die Ergebnisse als Grundlage für individuelle Kundenansprachen und digitales Marketing einsetzen. Dabei werden alle Kunden-Touchpoints mit relevanten, vom Kunden gewünschten Informationen bespielt – ideal für die Stärkung von Kundenbindung (Customer Loyalty).

Neue Algorithmen zur Textanalyse sind inzwischen sogar in der Lage, Stimmungslagen in Kundenschreiben selbstständig zu erkennen.

Treiber dieser Entwicklung sind die Forderungen der Verbraucher nach Echtzeitunterstützung, kontinuierlicher Unterhaltung sowie umfassender Konnektivität und Sicherheit. So wird Consumer IoT zum nächsten logischen Schritt der digitalen Evolution des Handels.

Automatisierte Service-Interaktionen

„Themen wie künstliche Intelligenz und Blockchain haben ihre Nische längst verlassen und sind zu gesellschaftsrelevanten Themen geworden“, weiß auch Matthias Wahl, Präsident des Bundesverbandes Digitale Wirtschaft (BVDW) e. V. Mit KI lassen sich gleichzeitig Geschäftsabläufe zwischen IT-Systemen des Handels automatisieren, Stichwort „Robotic Process Automation“. B2B-Marktplätze werden an ERP-, CRM- und weitere Backendsysteme und Datenbanken angebunden. Dies führt weiter zu automatisierten Service-Chatbots, bei denen sich die Beschäftigten im Service erst später oder im Bedarfsfall in die konkrete Kundenkommunikation einschalten.

Bekanntheit und Nutzung mobiler KI-Anwendungen

Gartner sagt voraus, dass 2021 15 Prozent aller Service-Interaktionen automatisiert sein werden. Künstliche Intelligenz wird dabei für eine zunehmend natürliche Art solcher sprachlichen Interfaces sorgen, was die Verbreitung wiederum verstärken wird. Wirkliche Dialoge sind es freilich nicht, die mit Chatbots ablaufen, sondern eher kurze Frage-Antwort-Sequenzen. Mit dem durch KI gewonnenen Wissen aus Datenbanken werden sich aber in absehbarer Zeit auch mehrstufige flexible Dialoge automatisieren lassen können. Dadurch erschließen sich neue Anwendungsfelder im Kundenservice, die mit einfachen Frage-Antwort-Systemen nicht adressiert werden können.

Unternehmen müssen „insight-driven“ werden

In seinem Report „The Forrester Wave™: AI-Based Text Analytics Platforms, Q2 2018“ beschreibt das Analystenhaus Forrester, wie sich durch den Einsatz künstlicher Intelligenz aus Daten zusätzliches Wissen gewinnen lässt. „Insight-driven“ müssten Unternehmen werden, fordert Forrester-Analyst Boris Evelson. Dabei geht es vor allem um das in unstrukturierten Daten enthaltene Wissen, welches in Unternehmen heute Schätzungen zufolge rund 80 Prozent ausmacht: E-Mails, PDFs, Archivsysteme, Videos, Tondokumente, Social-Media-Posts etc. Hierfür kommen Techniken der linguistischen und semantischen Analyse („Natural Language Processing – NLP“ oder Computerlinguistik) zum Einsatz.

Unter NLP versteht man die Fähigkeit eines Computerprogramms, menschliche Sprache so zu verstehen, wie sie gesprochen bzw. geschrieben wurde. Tiefergehende NLP-Systeme benutzen die Wortarten zur Extraktion vordefinierter Muster und extrahieren selbstständig bestimmte Kategorien von Begriffen, z. B. Personen- und Ortsnamen, Postleitzahlen, Nummernschilder.

Kundenkorrespondenz modern auswerten

Der eigentliche Prozess des Text-Minings und der Extraktion von Keywords, Themen und Konzepten liegt laut Forrester dabei nur bei rund einem Fünftel des Aufwands. Der weitaus größere Teil entfiele auf den Aufbau von Datenverbindungen, die Integration und Bereinigung der Daten sowie den Aufbau einer domänenspezifischen Ontologie und user­orientierter Oberflächen. Während die meisten Hersteller noch immer hauptsächlich Stimmungsanalysen anbieten, ermöglicht die Software von Clarabridge auch eine hoch differenzierte Emotions-, Anstrengungs- und Absichtsanalyse.

Loyalität aus Daten

Das Konzept von Clarabridge zeigt, wie wichtig es sein kann, das in unstrukturierten Daten verborgene Wissen zu heben. Die Customer Loyalty lässt sich dadurch deutlich festigen. Im Omnichannel ist hier ohnehin noch Luft nach oben, glaubt Michael Bregulla, Head of New Sales bei der Ingenico Marketing Solutions GmbH. Das Unternehmen entwickelt Programme zur Vertiefung der Kundenbeziehungen für alle Verkaufskanäle. „Bindungseffekte sollten im Wesentlichen aus dem Preisvorteil generiert werden, obwohl der eigentliche Wert in den aggregierten Daten des bis dato anonymen Kunden liegt“, so Bregulla. „Schon heute schlummern bei vielen Händlern riesige Datenpotenziale, die gar nicht wertbringend abgeschöpft werden. Die Digitalisierung offenbart jetzt die Chance für eine ganzheitlichere Erfassung des Kundenverhaltens.“

Bindungseffekte sollten im Wesentlichen aus dem Preisvorteil generiert werden, obwohl der eigentliche Wert in den aggregierten Daten des bis dato anonymen Kunden liegt.

Dazu bedürfe es einerseits Werkzeuge wie linguistischer und semantischer Analyse. Gleichfalls sei aber ein erweitertes Mindset bei Handelsunternehmen gefragt und die Bereitschaft, Dinge auszuprobieren und auch wieder zu verwerfen. So kristallisiert sich für Händler ein Gesamtbild der technisch-organisatorischen Rahmenbedingungen heraus, wie sich das Datenpotenzial von Customer-Loyalty-Programmen im Omnichannel zur personalisierten Kundenansprache und Steuerung des Kaufverhaltens nutzen lässt.

Voice Commerce und Audiovermarktung

Smart Speaker wie Amazon Alexa, Google Home, Telekom Magenta und Co. und die dahinterliegende Voice-Technologie haben in jüngster Zeit die nächste Welle losgetreten und den Zugang zu Audio-Content weiter vereinfacht. BVDW-Präsident Matthias Wahl: „Dadurch erhält Audio-Content einen deutlichen Schub, den Unternehmen für sich nutzen müssen.“ Das Medium Audio verändert sich damit grundlegend: Content wird interaktiv und wächst von einer One-Way-Communication zu einem Dialog-Umfeld.

Consumer IoT

Sprachgesteuerte Smart Speaker werden neben der reinen Audio-Content-Nutzung zu hohen Anteilen zur Informationsbeschaffung genutzt. Eine weitere Möglichkeit für Handelsunternehmen, ihre Kunden zu adressieren. Die technologische Basis dieser Produkte ist wiederum die Fähigkeit von Software, menschliche Sprache immer besser zu verstehen. Analog zu anderen Kommunikationskanälen benötigen Unternehmen deshalb eine eigene Voice- und Audiostrategie. Sie müssen eine Audio-Identity und eigenen Audio-Content entwickeln und mit ihren Marken, Produkten und Angeboten ihren Zielgruppen auf die neuen Geräte folgen. Wie dies praktisch umzusetzen ist, dafür gibt der BVDW auf seiner Webseite hilfreiche Hinweise.

Einkauf auf Zuruf

Fragt man die Smart Speaker heute nach einem bekannten Produkt wie Pampers, so wird in der Regel erstmal der Wikipedia-Eintrag vorgelesen. „Voice Search SEO muss noch deutlich gezielter als Desktop und Mobile betrieben werden, um Verkaufschancen über Voice zu steigern – auch weil die Chancen auf Sichtbarkeit deutlich geringer sind als am Desktop“, erklärt Frank Bachér von RMS.

So wird sich Voice Commerce über Skills entwickeln und neben Webshops und Apps der nächste Absatzkanal für den Handel werden, in dem Einkäufe auf Zuruf möglich werden. Vor allem im Bereich der FMCG („Fast Moving Consumer Goods“) dürfte dies einer der spannendsten neuen Trends sein. Damit dürften die smarten Lautsprecher künftig wohl ihrem Namen eher gerecht werden im Vergleich zu heute, wo sie hauptsächlich nur für einfache Aufgaben wie das Abspielen von Musik und die Wettervorhersage genutzt werden. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Die Trends in Forschung & Entwicklung

Neue digitale Technologien verändern den Innovationsprozess und binden den Kunden stärker in die Produktentstehung mit ein.

von Dr. Ralf Magagnoli

Ziel vieler Unternehmen ist es, in puncto Industrie 4.0 die umfassendste Option zu realisieren, nämlich die des Enablers. Der Enabler ist ein Technologieanbieter für das IoT und nutzt Plattformen (Clouds) zur Entwicklung, Herstellung und Lieferung vernetzter Dienste und Produkte. Was bedeutet dies für die Abteilung Forschung & Entwicklung: Zum einen werden die traditionellen Schranken zwischen Forschung & Entwicklung, Produktmanagement und Produktion tendenziell aufgehoben, zum anderen werden die sogenannten Stakeholder, meistens Kunden, an der Entwicklungsarbeit beteiligt. Die Vorteile sind u. a. schnellere Produktreife, besser ausgetestete Produkte, kostengünstigere Produkte und – last, but not least – völlig neue Produkte. Was also sind die Trends in der Forschungs- und Entwicklungsabteilung?

Künstliche Intelligenz (KI) / Machine Learning

Die Begriffe KI und Machine Learning werden oft synonym verwendet, sind aber nicht deckungsgleich, da Machine Learning nur einen Bereich, allerdings den wichtigsten der KI, ausmacht. So sagt der chinesisch-amerikanische Informatiker Andrew Ng: „99 Prozent des ökonomischen Wertes, den KI heute schafft, wird durch die eine Art von KI erzeugt, die von A nach B lernt, durch Input- zu Output-Mappings“, also durch Machine Learning. Worum geht es? Es geht um selbstständig lernende Maschinen und Computer; diese lernen anhand von Beispielen und können diese nach Ende der Lernphase verallgemeinern, indem sie Muster und Gesetzmäßigkeiten in den Lerndaten „erkennen“.

Für die Forschung & Entwicklung bieten KI und vor allem das Machine Learning riesige Potenziale, wenn es darum geht, das Kundenverhalten über prädiktive Analysen gezielter zu prognostizieren und via Algorithmen fundiertere Innovationsentscheidungen zu fällen.

Dies erfolgt mithilfe von Algorithmen, die sich wiederum in überwachtes Lernen (teilüberwachtes, bestärkendes, aktives Lernen) und unüberwachtes Lernen unterteilen lassen. Für die Forschung & Entwicklung bieten KI und vor allem das Machine Learning riesige Potenziale, wenn es darum geht, das Kundenverhalten über prädiktive Analysen gezielter zu prognostizieren und via Algorithmen fundiertere Innovationsentscheidungen zu fällen. Dies betrifft u. a. den Designprozess – Stichwort Generatives Design – reicht aber weit darüber hinaus.

Generatives Design

Hier übernimmt ein Algorithmus die Aufgabe, die früher der Designer erledigte. Dieser erstellt nur den digitalen „Werkzeugkasten“, während der Computer das Ergebnis erzeugt. Die Aufgabe des Designers besteht darin, das Ergebnis zu beurteilen und ggf. den Quellcode, die Parameter und den Algorithmus zu verändern. Dazu gibt es neue Tools – Stichwort bspw. Low Code – die eine Programmierung auch ohne vertiefte Programmierkenntnis erlauben. Der Gestaltungsspielraum erweitert sich durch Generative Design in erheblicher Weise, wozu Parameter wie Zufall, Struktur oder Wiederholung kombiniert mit traditionellen Faktoren wie Schrift, Form, Farbe und Bild beitragen.

Dabei bietet sich auch in diesem Fall die Open Innovation, also die Zusammenarbeit verschiedener Akteure – meist über eine cloudbasierte Plattform –, an, über die sich nicht nur eine Vielzahl von Entwurfsalternativen erzeugen lässt, sondern über die die Entwürfe auch im Hinblick auf die Kundenakzeptanz geprüft werden können. Im Idealfall werden die verschiedenen Stakeholder, allen voran natürlich die Kunden, am Projekt beteiligt und aktiv in den Designprozess eingebunden. Die Echt­zeitinformationen sorgen für schnellere Durchlaufzeiten von Projekten.

Digitaler Zwilling

Das Gabler Wirtschaftslexikon definiert den „digitalen Zwilling“ (Digital Twin) als „virtuelles Modell z. B. eines Prozesses, eines Produkts oder einer Dienstleistung, welches die reale und virtuelle Welt verbindet“. Notwendig sind dabei drei Elemente: das abzubildende Objekt – bspw. ein Fahrrad –, der digitale Zwilling und die Daten, die beide miteinander integrieren. So wird das reale, mit Sensoren ausgestattete Fahrrad, um diesen Fall zu nehmen, mit dem System verbunden, das die Sensordaten empfängt, verarbeitet und auswertet. Anhand des digitalen Zwillings können dann die Leistungsfähigkeit, die Widerstandskraft und die Haltbarkeit des Fahrrads, etwa unter Extrembedingungen, getestet werden.

Über Simulationen werden so verschiedene Alternativen erforscht, um die in der Regel komplexen Produktanforderungen zu erfüllen – zum Beispiel: Ist das Produkt intuitiv nutzbar? Funktioniert die Elektronik einwandfrei? Wie interagieren die verschiedenen Komponenten? Und, im Hinblick auf das Fahrrad, bei welchen Lastfällen sind welche Bereiche des metallischen Fahrradrahmens oder der Federgabel als kritisch zu beurteilen?

Der digitale Zwilling wird gerne in der Automobilindustrie für Crashtests eingesetzt. Aufgrund der Effektivitätssteigerungen entlang der gesamten Wertschöpfungskette rechnet der Analyst Gartner damit, dass schon 2021 die Hälfte der größeren Industrieunternehmen den digitalen Zwilling einsetzen wird. Dabei geht es auch hier in Richtung künstlicher Intelligenz, sodass man von der gegenseitigen Wahrnehmung und Interaktion zur Kommunikation und eigenständigen Optimierung der Systeme gelangt.

Additive Fertigung / 3-D-Druck

Auch diese beiden Begriffe werden meist synonym verwendet. Worum geht es? Es handelt sich um ein professionelles, sich von konventionellen Methoden unterscheidendes Produktionsverfahren, bei dem Schicht um Schicht Bauteile aufgebaut werden, um Prototypen zu erstellen. Durch ein sogenanntes Rapid Prototyping in der Forschung & Entwicklung können die Produktentwicklung (und damit die Markteinführung) entscheidend beschleunigt werden. (Im Sinne verschwindender Grenzen zwischen Forschung & Entwicklung einerseits und Produktion andererseits hält das Verfahren zunehmend Einzug in die Serienfertigung.)

Der entscheidende Vorteil gegenüber traditionellen Fertigungsmethoden aber liegt im „Design-driven Manufacturing Process“, bei dem nicht die Fertigung die Konstruktion determiniert, sondern bei dem die Konstruktion die Fertigung bestimmt. Die additive Fertigung verspricht zudem Designfreiheit, Funktionsoptimierung und -integration sowie die Individualisierung von Produkten in der Serienfertigung.

VR- & AR-Konzepte werden Forschung und Entwicklung massiv beeinflussen.

Augmented Reality (AR)

Nicht selten wird beim Prototyping auch die „erweiterte Realität“ (Augmented Reality) eingesetzt, die computerbasierte Erweiterung der Realitätswahrnehmung – oft mithilfe von AR-Brillen. So lassen sich in mehrdimensionalen Räumen Objekte, die nur zweidimensional als Baupläne existieren, völlig neu fassen, da das eigene Verhalten virtuell abgebildet werden kann. Bspw. werden virtuell konzipierte Werkstücke, etwa beim Autobau Mittelkonsolen, per AR-Anwendungen simuliert.

Der Entwickler oder – idealerweise über Open Innovation – auch der Kunde hat damit die Möglichkeit, zu prüfen, ob die Teile tatsächlich funktional und anwenderfreundlich angeordnet worden sind oder ob Optimierungsbedarf entsteht. Die Vorteile liegen auf der Hand, vor allem die Reduzierung von Forschungs- und Entwicklungskosten sowie die Verkürzung des Entwicklungsprozesses.

Open Innovation

Der Begriff der Open Innovation stammt von Henry Chesbrough und bezeichnet die meist plattformübergreifende Öffnung des Innovationsprozesses in Unternehmen und die strategische Nutzung der Außenwelt. Dazu müssen die Unternehmen imstande sein, externes Wissen zu internalisieren und internes Wissen zu externalisieren. Das durch steigenden Wettbewerbsdruck, kürzere Produktlebenszyklen und höheren Innovationsdruck begründete Konzept wirkt sich vor allem auf die Forschungs- und Entwicklungsabteilung aus. Lautete das Motto der Closed Innovation, also der Innovation ausschließlich im Unternehmen, „We can do it, we will do it“ („Wir schaffen das“), so gilt für die Open Innovation die Devise „The best from anywhere“. Eigene Mitarbeiter außerhalb des Forschungs- und Entwicklungsteams, aber auch „Stakeholder“ wie Kunden, Lieferanten, Universitäten sowie auch Mitbewerber und Unternehmen anderer Branchen können in den Innovationsprozess eingebunden werden.

Es handelt sich um ein kollaboratives Networking im Bereich der Forschungs- und Entwicklungsarbeit, das auf Wissensaustausch und Vernetzung von Know-how basiert. Da Open Innovation immer ein Geben und Nehmen impliziert und viele Unternehmen immer noch zurückhaltend sind, eigenes Know-how preiszugeben, hat sich das Konzept noch nicht in der Breite durchgesetzt – dennoch ist angesichts des Drucks auf die Unternehmen zu erwarten, dass sich Open Innovation mehr und mehr durchsetzen wird. Beispiele für gelungene Projekte sind InnovationJam, eine IBM-Plattform, über die Unternehmen und Universitäten aus verschiedenen Ländern miteinander kooperieren, oder die Internet-Musikbörse Last.fm, die sogenannte „Hacker-Tage“ organisiert, an denen Nutzer neue Applikationen entwickeln können.

Coopetition

Die Coopetition – ein Kunstwort, das sich aus Competition (Wettbewerb) und Cooperation (Zusammenarbeit) zusammensetzt – bedeutet eine Dualität aus Kooperation und Wettbewerb. So können auf der gleichen Wertschöpfungsstufe – in diesem Fall eben meistens der Forschung & Entwicklung – die Kompetenzen und das Know-how gebündelt werden (horizontale Kooperation), während man etwa in puncto Marketing und Vertrieb Wettbewerber bleibt. Ein Beispiel ist die Kooperation zwischen VW und Ford, die gemeinsam einen Fahrzeugtyp entwickelten, der bei VW als „VW Sharan“ und „Seat Alhambra“, bei Ford als „Ford Galaxy“ vermarktet wurde. Einfacher ist die gemeinsame Produktentwicklung natürlich zwischen Unternehmen, die mit dem Produkt unterschiedliche Anwendungs-zwecke verfolgen und unterschiedliche Zielgruppen bedienen.

Customer Experience

Auch die Customer Experience ist eng mit der Open Innovation verbunden. Hierbei geht es um die gezielte Einbindung von Kunden, oft sogenannter Lead-User, also besonders fortschrittlicher Anwender, zur Verbesserung und Weiterentwicklung von Produkten. In sogenannten „Customer Experience Centres“ haben Kunden die Möglichkeit, Prototypen und Produkte zu testen. Während mit dem Ansatz der Customer Experience generell positive Kundenerfahrungen generiert werden und die Kunden im Idealfall zu „begeisterten Botschaftern“ gemacht werden sollen, bedeutet er für die Forschungs- und Entwicklungsabteilung die passgenaue Identifikation der Kundenwünsche. Nichts ist schlimmer als ein Team verspielter Technikfreaks, die an den Kundenwünschen vorbeiarbeiten. Die zentrale Forderung, gerade für Forschung & Entwicklung, lautet daher: „Customer Experience bedeutet, die Bedürfnisse des Kunden nicht nur zu erfüllen, sondern jederzeit zu übertreffen.“ Voraussetzung dafür ist, sie zu kennen. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Plattformen im Field-Service

Digitalisierung des Remote Supports im industriellen Service

von Alina Kaspers und Martin Riedel

Hersteller von komplexen Maschinen und Anlagen sind gefordert, einen reibungslosen und meist weltweiten Service anzubieten. Damit die Funktion der Maschinen und Anlagen gewährleistet ist, ist es unabdingbar, geplant, aber auch reaktiv bei technischen Problemen vor Ort Wartungen durchzuführen.

Ist der Servicemitarbeiter vor Ort nicht in der Lage, die Maschine oder Anlage zu reparieren, ist der Austausch mit Experten in der Zentrale unbedingt notwendig. Denn für die Lösung des technischen Problems müssen relevante Informationen unmittelbar an den Einsatzort gebracht werden. Kann ein technisches Problem nicht unmittelbar gelöst werden, drohen, aufgrund von zusätzlichen Reisen und einer aufwendigen Kommunikation, hohe Kosten. Gleichzeitig sinkt die Verfügbarkeit der Maschine und Anlage, die sich signifikant negativ auf die Produktivität auswirkt und die Kundenzufriedenheit belastet. Ein effektiver und kosteneffizienter Service ist daher im globalen und wettbewerbsintensiven Marktumfeld von heute eine „Muss-Bedingung“ und ein enormer Wettbewerbsvorteil gegenüber der nationalen wie internationalen Konkurrenz.

Remote Support ist Kernprozess im industriellen Service, bisher aber analog

Der Remote Support bzw. die Unterstützung der Servicemitarbeiter vor Ort stellt für den Anlagen- und Maschinenbau einen besonders kritischen Prozess dar. Aufgrund der immer steigenden Komplexität der Maschinen und Anlagen ist ein Servicemitarbeiter oftmals nicht eigenständig in der Lage, das Problem vor Ort zu lösen. Dezidiertes Expertenwissen ist gefordert. Daher muss sich der Servicemitarbeiter in den meisten Fällen für die Problemlösung an einen Experten wenden, der oftmals weit entfernt vom Einsatzort sitzt. Die herkömmliche Kommunikation via E-Mail, Telefon und privates Messaging ist jedoch ineffizient, ermöglicht keinen unmittelbaren Austausch von Bildern und Dokumenten und keine direkte Sicht auf das Problem. Eine strukturierte Dokumentation der Fälle bleibt komplett aus, sodass das erarbeitete Expertenwissen verloren geht. Der Austausch über den herkömmlichen Weg führt daher oft zu Ernüchterung und keinem Ergebnis. Die Folge ist, dass Fälle nicht auf Anhieb gelöst werden können und kein Weg daran vorbeiführt, zusätzliche Mitarbeiter anreisen zu lassen, um das Problem zu lösen. Für den Service entstehen dadurch hohe Reisekosten und ein zeitintensiver Prozess, der mit einem hohen personellen Aufwand verbunden ist. Der Stillstand der Maschine oder Anlage sorgt währenddessen für einen Produktionsausfall, der mit zusätzlichen Kosten verbunden ist und für eine hohe Unzufriedenheit bei den Kunden sorgt.

Unterstützung eines Servicemitarbeiters aus der Zentrale über Augmented-Reality-Smartglasses

Digitalisierung des Remote-Support-Prozesses im industriellen Service

Als Anbieter von innovativen Softwarelösungen für den industriellen Service digitalisiert rise den kompletten Remote-Support-Prozess. Auf nur einer Softwareplattform können Nachrichten, Bilder, Videos und Dokumente in chronologischer Abfolge ausgetauscht werden, um Servicemitarbeitern alle relevanten Informationen zur Verfügung zu stellen und den Experten in der Zentrale das technische Problem zu veranschaulichen. Über eine Live-Zusammenarbeit mit zusätzlichen Augmented-Reality-Werkzeugen sind interaktive Videokonferenzen möglich. Anstatt ein Problem missverständlich über das Telefon zu erklären, erhält ein Experte dadurch den wertvollen Blick auf das Geschehen vor Ort und kann den Servicemitarbeiter wirksam instruieren. Das ausgetauschte Expertenwissen kann unmittelbar in rise dokumentiert und strukturiert abgelegt werden, um eine Wissensdatenbank aufzubauen. Diese ermöglicht dem Servicemitarbeiter, bei zukünftig ähnlichen Fällen im Archiv eine Problemlösung zu finden. Dies spart Bearbeitungszeit und minimiert die Anfragen an die Serviceexperten.

Als innovative Softwareplattform kann rise auf allen Endgeräten eingesetzt werden, von Desktop-PCs mit eigenem Programm über Tablets, Smartphones sowie auf Augmented-Reality-Smartglasses. Mithilfe der Smart­glasses (Datenbrillen) ist ein vollständiges Arbeiten mit freien Händen möglich. Dadurch ist für höchste Produktivität und effektivste Unterstützung gesorgt. Anhand einer eingebauten Kamera wird das exakte Sichtfeld des Servicemitarbeiters an den Experten in der Zentrale übertragen. Über Annotationen im Livebild, Bildbearbeitung oder das Teilen von dritten Bildschirminhalten, z. B. von Schaltplänen, kann der Experte intuitiv unterstützen, als ob er vor Ort wäre.

rise lässt sich einfach in bestehende Softwaresysteme integrieren

Remote Support ist ein wesentlicher Prozess­schritt im industriellen Service, der bisher kaum über dezidierte Softwarelösungen abgebildet wurde. Mit zunehmendem Digitalisierungsgrad werden jedoch diverse Prozesse integriert und ineinandergreifende Systeme eingesetzt. Ausgangspunkt für die digitale Servicedienstleistung ist meist ein Ticket- oder CRM-System, in dem maschinen- bzw. kundenbezogen alle relevanten Informationen hinterlegt werden. Geht ein Fall ein, so kann im Ticketsystem direkt ein neuer Fall erstellt werden, in dem die Stammdaten hinterlegt sind. Der Fall wird daraufhin in rise bearbeitet und dokumentiert. Die fertige Dokumentation wird anschließend automatisch an das Ticketsystem weitergeleitet, um alle Aktivitäten zentral zu hinterlegen. Durch die Vielzahl an Daten kann wiederum die Servicedienstleistung verbessert werden, z. B. durch die Wissensdatenbank, Analysen zur Optimierung der Serviceorganisation oder die Etablierung neuer Geschäftsmodelle.

Der Digitale Customer Support

Mithilfe von rise lassen sich nicht nur interne Kosten sparen, sondern auch neue Geschäftsmodelle anbieten. Durch den digitalen Support durch Experten kann der Kunde deutlich einfacher und kosteneffizienter unterstützt werden, wodurch sich neue und margenstarke Einnahmequellen im Service auftun. Gleichzeitig erhält der Kunde einen effektiveren Support bei minimaler Reaktionszeit, um die Verfügbarkeit seiner Maschinen und Anlagen zu erhöhen. Neben zusätzlichen Serviceumsätzen ermöglicht solch ein Modell auch, die Auslastung der internen Servicemitarbeiter zu reduzieren, Mitarbeiter die in Zeiten des Fachkräftemangels ohnehin knapp sind.

„Evolutionsstufen“ des Remote Supports

Der digitale Experte

Die Digitalisierung des industriellen Service schreitet mit großen Schritten voran, auch wenn der bisherige Fokus eher auf CRM und Ticketsystemen lag. Mit der Verfügbarkeit von mobilem Internet, leistungsstarken Smartphones, Smartglasses und der notwendigen Softwaretechnologie lassen sich immer weitere kritische Serviceprozesse – insbesondere der Remote Support – digitalisieren. Die Unterstützung per Augmented-Reality-Smartglasses ist jedoch nur eine weitere Evolutionsstufe.

Vorteile der rise-Plattform
  • Reduzierung von Service- und Reisekosten
  • Wegfall von Wartezeiten auf Servicemitarbeiter
  • Erhöhung der Maschinen- und Anlagenverfügbarkeit
  • Aufbau einer Wissensdatenbank
  • Zugriff auf Expertenwissen von überall
  • Geringere Prozesszeiten
  • Steigerung der Serviceerlöse

In Zukunft wird das notwendige technische Wissen automatisiert bereitgestellt, künstliche Intelligenz und Machine Learning machen dies möglich. Ein Servicefall wird dann wie folgt aussehen: Smartglasses aufsetzen, Maschine über die Serialnummer per Scan identifizieren, Vorschläge mit Detailanleitung für das mögliche Problem erhalten, per interaktiver Anleitung in der Brille das Problem lösen. rise wird damit von der Remote-Support-Plattform zum digitalen Experten.

Fazit

Mit rise lässt sich ein kritischer Serviceprozess in der Industrie digitalisieren. Neben einer deutlich effektiveren Zusammenarbeit im Vergleich zu Telefon, E-Mail und Co. wird erstmals auch eine lückenlose Dokumentation und Archivierung des so wichtigen Expertenwissens möglich. Effektiver Support aus der Ferne bietet neue Chancen, wie beispielsweise die Unterstützung des Kunden und den Aufbau neuer Servicedienstleistungen. Der digitale Experte, der automatisierten Support über die intelligente Brille bietet, ist keine allzu ferne Vision mehr. Bei der zunehmenden Komplexität von Maschinen und Anlagen und bei gleichzeitig hohem Wettbewerbsdruck im internationalen Marktumfeld ist der digitale Remote Support ein entscheidender Bestandteil der Servicestrategie. //

Anwendungsfall Strautmann Umwelttechnik GmbH

Die Strautmann Umwelttechnik GmbH, ein führender Anbieter von Recycling-Maschinen in der Entsorgungslogistik, hat ihren Remote-Support-Prozess erfolgreich digitalisiert. Gibt es technische Probleme bei einer ihrer Maschinen, die oft bei Einzelhandelsketten zum Einsatz kommen, so stockt die Logistikkette zur Verarbeitung und zum Abtransport der recycelten Materialien. Eine schnelle und effektive Unterstützung der Servicemitarbeiter ist daher von hoher Bedeutung. Die bisherige E-Mail-Kommunikation im Service wurde durch rise digitalisiert. Nachrichten, Bilder, Dokumente und Videos werden auf diese Weise deutlich schneller ausgetauscht. Benötigen weitere Personen aus Entwicklung und Qualität Zugriff auf die Informationen, werden die Kollegen einfach zum jeweiligen Fall eingeladen. Eine aufwendige Weiterleitung von Informationen entfällt. Benötigt ein Servicemitarbeiter oder ein Händler im Ausland Unterstützung bei der Lösung eines technischen Problems, wird per Live-Videokonferenz unterstützt. Dadurch konnten in den vergangenen Monaten mehrere zeit- und kostenintensive Reisen insbesondere ins Ausland eingespart werden. Alle Fälle werden nach Lösung des technischen Problems dokumentiert und im Archiv abgelegt. Das Archiv mit mittlerweile mehreren Hundert Fällen dient als Wissensdatenbank, um zukünftige Fälle an Hand vorhandener Lösungsbeschreibungen zu lösen.


Über die Autoren:

Namensnennung-Keine Bearbeitung 3.0 Deutschland (CC BY-ND 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Datenbasierte Geschäftsmodellinnovationen

Das IoT wird zum KI-Datenlieferanten: Durch die Algorithmen des maschinellen Lernens entstehen so neue Produkte, Prozesse und Services.

Im Interview mit der TREND-REPORT-Redaktion sprach Prof. Dr. Dr. Schildhauer, Principal Investigator am Weizenbaum-Institut für die vernetzte Gesellschaft, über das Veränderungspotenzial der mit dem IoT einhergehenden Datenmenge (Big Data).

Herr Prof. Schildhauer, inwieweit verändert die KI/AI (Künstliche Intelligenz/Artificial Intelligence) datenbasierte Geschäftsmodelle?
Es entstehen durch weiterentwickelte Algorithmen Chancen, bspw. durch maschinelles Lernen, Systeme zu entwickeln, die basierend auf großen Datenkontingenten helfen, Prozesse, Strukturen und Arbeitsabläufe in Unternehmen zu optimieren und zu steuern. Mit dem Hype-Begriff „Künstliche Intelligenz“ gehe ich in diesem Kontext noch sehr vorsichtig um. Aber sichtbar ist, dass neben maschinellem Lernen weitere Technologien wie Cloud Computing, IoT oder Additive Manufacturing ein wichtiger technischer Enabler für datenbasierte Geschäftsmodelle sind. So entwickeln sich in Deutschland in diesem Zusammenhang neue technologiebasierte Start-ups z. B. in den Sektoren Handel, Logistik, Gesundheit oder Mobilität.

Start-ups, aber auch etablierte Unternehmen entwickeln auf Basis großer Datensammlungen und entsprechender Algorithmen neue Geschäftsmodelle, die beispielsweise Vorhersagen auf künftige Bedarfe oder Nutzerverhalten analysieren und vorhersagen – Predictive Analytics. Insbesondere vollzieht sich der Wandel bei etablierten Unternehmen dort, wo zumeist auf der Ebene unternehmensinterner Prozessoptimierungen Potenziale aus der Analyse großer Datenmengen geschöpft werden. Dies kann im Versicherungsbereich (bspw. Vorhersage über Schadenrisiken aus Daten der Vergangenheit und aktuellen Wetter- und Verhaltensdaten) ebenso wie in Produktionsunternehmen (Predictive Maintenance) zur Anwendung kommen. Ob und wie sich aus diesen Innovationen tragfähige datenbasierte Geschäftsmodelle entwickeln, untersucht die Forschungsgruppe „Datenbasierte Geschäftsmodellinnovation“ am Weizenbaum-Institut für die vernetzte Gesellschaft – Das deutsche Internet-Institut.

Welche Innovationen werden mit diesen neuen Technologien möglich?
Das Innovationspotenzial erstreckt sich über die gesamte Wertschöpfungskette in Unternehmen und führt zu neuen Prozessen, Produkten, Services und Geschäftsmodellen in vielen unterschiedlichen Sektoren. Neben den bereits beschriebenen Beispielen aus Dienstleistungs- und Produktionsbranchen wird die Echtzeitanalyse riesiger Datenbestände mittels Big-Data-Analytics heute auch in der Krebsdiagnostik genauso eingesetzt wie in der personalisierten Werbung. Große Potenziale entstehen auch im Bildungsbereich, diesen untersucht die Forschungsgruppe schwerpunktmäßig.

Der Einsatz von Augmented Reality führt z. B. in der Berufsbildung dazu, dass Auszubildende verstärkt praktische Fähigkeiten durch virtuelle Simulationen erlernen, was vor allem bei riskanten und teuren Arbeitsschritten ein wichtiges Innovationspozential darstellt. Neue digitale Bildungsplattformen verändern den Lehr- und Lernprozess und machen diesen erstmalig messbar. So hat z. B. eine führende Plattform für Online-Kurse im Aus- und Weiterbildungsbereich mittels maschinellen Lernens einen Algorithmus entwickelt, der Teamleiter*innen aufzeigt, welche Kompetenzen Mitarbeiter*innen fehlen und mit welchen offerierten Online-Kursen diese erworben werden können. Auch kann die Sammlung von Verlaufs-, Abbruch- und Abschlussdaten der Lernenden auf Lernplattformen dazu genutzt werden, die Lernsysteme in Echtzeit an das Verhalten der Lernenden anzupassen (Learning Analytics).

Wir gehen der Frage nach, wie durch die Veröffentlichung von Datensätzen neue Geschäftsmodelle im Mobility-Bereich oder in der Bildung entstehen können.

Inwieweit beschäftigen Sie sich in Ihrer Forschungsgruppe mit den Themen IoT und IIot im Kontext datenbasierter Geschäftsmodellinnovationen?
Wir betrachten IoT zwar als Schlüsseltechnologie, aber eben als eine von vielen, die datenbasierten Geschäftsmodellinnovationen zugrunde liegt. Neben diesen Schlüsseltechnologien stehen bei uns vor allem drei Themen im Vordergrund, die parallel erforscht werden. Den ersten inhaltlichen Schwerpunkt setzen wir im Bereich Open Data und gehen der Frage nach, wie durch die Veröffentlichung von Datensätzen neue Geschäftsmodelle im Mobility-Bereich oder in der Bildung entstehen können. Dabei fokussieren wir besonders die Themen Datenschutz, Datenqualität und Datensicherheit. Darüber hinaus untersuchen wir, wie digitale Bildungsplattformen und die dort implementierten Learning Analytics zu neuen datenbasierten Geschäftsmodellen im Bildungssektor führen können.

Zu guter Letzt wird auch die Prozess­ebene von Geschäftsmodellinnovationen erforscht, um mögliche Systematisierungen abzuleiten und Innovations-Tools für die Praxis zu entwickeln. Ein Anwendungsfall bezogen auf IIOT untersucht in diesem Zusammenhang folgende Fragestellung: Da durch zunehmende Machine-to-Machine(M2M)-Kommunikation die Anforderungen an Menschen, die Produktionsprozesse in IIOT-ausgerüsteten Produktionsstraßen steuern, stark anwachsen, müssen diese Menschen mit neuartigen Lernsystemen ausgestattet werden, die ihnen erlauben, situativ und individuell am Ort des (Produktions-)Geschehens die Lerneinheit abrufen zu können, die gerade benötigt wird, um bspw. Fehler, die in der neuen IIOT-gestützten Produktion auftreten, schnell beseitigen zu können. Über die Produktionsstandort-übergreifende Sammlung von Daten (Big Data) können für wiederkehrende Fragestellungen bereits im Vorfeld Lern­einheiten angelegt werden, die den Menschen vor Ort helfen.

Welchen Stellenwert nehmen das IoT und IIoT ein, wenn es um zukünftige datenbasierte Geschäftsmodelle geht?
Im Zusammenhang mit dem IoT und IloT rückt das Konzept des Ökosystems in den Vordergrund. Hier reden wir über mit Sensoren ausgestattete Endgeräte, die digitale Daten generieren und miteinander austauschen. Gegenstände und Prozesse, die zuvor keine Daten generiert haben, werden auf einmal zu Datenlieferanten. Damit ist die IoT-Technologie, wie auch die zuvor thematisierte KI, ein weiterer technischer Enabler für datenbasierte Geschäftsmodellinnovationen. Mit den neuen Datenkontingenten werden die bestehenden unternehmerischen Ressourcen angereichert und es entstehen neue Bedarfe für Analyse-Tools, die aus Rohdaten handlungsrelevantes Wissen generieren. Vielfach bewegen wir uns hier im Bereich der Optimierung, vor allem in B2B-Bereichen wie der Logistik. Aber auch im privaten Bereich ist das IoT bereits angekommen, in Form von Selftracking und Smarthome-Devices. Smartwatches und andere Wearables sind längst in unserer Gesellschaft etabliert – eingebettet in ein Ökosystem digitaler Dienstleistungen.

Wie können in Unternehmen durch Design Thinking innovative IoT-Ideen entstehen?
Ein Kernprinzip von Design Thinking ist immer seine Ergebnisoffenheit und die konsequente Fokussierung auf die Verwender/Nutzer. Das begünstigt zunächst innovative Ideen in allen Industrien, weil vor allem der Prozess im Vordergrund steht und nicht so sehr die einzelne Branche oder die ihr zugrunde liegende Technologie. Dies kann als Stärke und als Schwäche auslegt werden. Für uns ist deshalb die wirklich spannende Frage in diesem Zusammenhang, inwiefern sich die Design-Thinking-Methodik durch die Einbindung großer Datenmengen erweitern lässt, um die spezifischeren Anforderungen von neuen datenbasierten Geschäftsmodellen zu erfüllen. Diesbezüglich gibt es in Deutschland schon erste Vorreiter, die sich z. B. auf Data Thinking spezialisieren, und auch unsere Forschungsgruppe am Weizenbaum-Institut für die vernetzte Gesellschaft – Das Deutsche Internet-Institut beschäftigt sich mit dieser Frage.

Inwieweit können Ausgründungen etablierter Unternehmen neue unternehmerische Strukturen für die Entwicklung datenbasierter Geschäftsmodelle schaffen?
Eine Ausgründung bietet neuen Ideen Platz zum Reifen. Das ist immer dann sinnvoll, wenn innerhalb einer Organisation neue unternehmerische Ideen generiert werden, die im derzeitigen Kerngeschäft keinen Platz finden, es entstehen Spin-offs. Mit dieser organisatorischen und oft auch räumlichen Trennung werden Innovationen davor bewahrt, an der gängigen Branchenlogik und der Performance des operativen Geschäfts gemessen zu werden – also jenen Paradigmen, die eine disruptive Innovation ja gerade auf den Kopf zu stellen versucht. Oftmals gehen diese Initiativen auf die Arbeit der Abteilungen für Forschung und Entwicklung in etablierten Unternehmen zurück, die sich heute mehr denn je mit digitalen und datenbasierten Innovationspotenzialen beschäftigen.

Was können etablierte Unternehmen von Start-ups lernen?
Sie können von ihnen lernen, dass Wandel keine Bedrohung ist, sondern eine Chance. Start-ups sind sehr gut darin, das zu betreiben, was Joseph Schumpeter schon vor über 70 Jahren als schöpferische Zerstörung bezeichnete, und gezielt Lücken zu besetzen, die sich zwischen etablierten Unternehmen und ihren bisherigen Kunden aufgetan haben. Sie bleiben neugierig, probieren auch unkonventionelle Ideen aus und richten den Blick eher nach außen als nach innen. Auch sind sie bereit, Erkenntnisse aus dem Markt schnell zur Veränderung des ursprünglichen Geschäftsmodells zu nutzen. Natürlich darf dabei nicht vergessen werden, dass die viel zitierte Flexibilität und Anpassungsfähigkeit der Start-ups vielfach ihrer prekären Lage geschuldet ist, geprägt von einem Mangel an unternehmerischen Ressourcen und oftmals auch an unternehmerischer Erfahrung. Und trotzdem ist es immer wieder bemerkenswert, wie sie sehr oft erfolgreich aus dieser Not eine Tugend machen. //

Zur Person Prof. Dr. Dr. Thomas Schildhauer

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Das IoT wird zum KI-Datenlieferanten: Durch die Algorithmen des maschinellen Lernens entstehen so neue Produkte, Prozesse und Services.

Enterprise Data Cloud

Die Grundlage für Big Data schaffen

von Daniel Metzger

Wer Digitalisierung sagt, muss auch Daten sagen – und zwar Big Data. Während sich die meisten Unternehmen über die Business-Vorteile von Big-Data-Analysen freuen, stellen die Technologie und die Infrastruktur dahinter oftmals eine Herausforderung dar. Denn Daten sind nicht gleich Daten, sie können strukturiert oder unstrukturiert sein und entweder von Menschen oder von Maschinen sowie Sensoren generiert werden. Um aus diesen Daten Informationen als Basis qualifizierter Entscheidungen zu gewinnen, benötigen Unternehmen Big-Data-Architekturen, die ihnen zuverlässige und vertrauenswürdige Einblicke in diese Daten ermöglichen.

Die Bedeutung von Daten ist in den letzten 20 Jahren enorm gestiegen. Die Vernetzung der Unternehmen, intern wie extern, das Entstehen und das Wachsen sozialer Netzwerke sowie der Beginn der Digitalisierung waren die ersten Treiber dieser Entwicklung. Entsprechend rückte das Speichern, Verwalten, Auswerten und Nutzbarmachen von Daten auf der Agenda immer weiter nach oben – nicht nur in den IT-Abteilungen, sondern auch im höheren Management, das die Bedeutung von Daten für ihren Geschäftserfolg erkannt hat. Diese Notwendigkeit zum Datensammeln hat zu einem explosionsartigen, exponentiellen Anstieg der Datenmengen geführt, wodurch sogenannte Data Lakes als primärer Bestandteil von Datenarchitekturen entstanden sind.

Die vorherrschende Meinung war, dass Unternehmen große Data Lakes entwickeln müssten, in denen sich praktisch alle Daten befinden würden. Doch mit dem Aufkommen der Cloud und immer besserer und leistungsfähigerer Cloud-Dienste begann eine neue Zeitrechnung. Statt alle Daten zentral zu sammeln, wurden diese mehr und mehr verteilt. Hinzu kommt, dass durch die Datenverteilung über mehrere Standorte und teilweise Unternehmen hinweg diese ständig in Bewegung sind – inner- und außerhalb von Rechenzentren sowie der Cloud.

Daten – Strukturiert, unstrukturiert und verteilt

Eine weitere Herausforderung ist, dass unterschiedliche Arten von Daten – wie strukturierte und unstrukturierte, Sensordaten, Lieferanten-, Kunden- und Mitarbeiter-Daten – in jedem der Daten-Cluster liegen können. Gleichzeitig werden aber miteinander verwandte Daten möglicherweise verteilt in unterschiedlichen Orten gespeichert. Beispielsweise kann ein Einzelhandelsunternehmen Preisinformationen zu seinen Waren in einem Rechenzentrum in Bangkok und gleichzeitig Kundeninforma­tionen in einem Rechenzentrum in Dublin speichern. Es gibt aber auch neuartige Daten von Sensoren im Internet of Things (IoT), die in einem Cloud-Service wie Amazon Web Services (AWS) oder Microsoft Azure einfacher zu speichern sind. Diese Art von Daten könnte auch „on premises“, also lokal, auf eigenen, unternehmensinternen Speicherlösungen abgelegt sein. Für zeitnahe und Echtzeitanalysen ist es mittlerweile deutlich einfacher, diese Informationen in der Cloud zu erfassen und zu analysieren, als zu versuchen, dies komplett im eigenen Rechenzentrum abzuarbeiten.

Letztendlich benötigen Unternehmen jedoch eine übergreifende Datenplattform, die alle Daten aus Rechenzentren und Cloud-Infrastrukturen integriert. Diese Plattform ist ständig über den Standort, den Zustand und die Art der Daten informiert und kann auch weitere Services, beispielsweise in Bezug auf Datenschutz und Compliance-Richtlinien, an verschiedenen Standorten bieten.

Die Essenz in den Daten

Mit der Entscheidung für eine passende Datenplattform haben die Unternehmen zwar einen wichtigen Schritt getan, um die erfassten Daten aus technischer Sicht zu analysieren, doch damit allein ist es bei weitem noch nicht getan

Letztendlich benötigen Unternehmen jedoch eine übergreifende Datenplattform, die alle Daten aus Rechenzentren und Cloud-Infrastrukturen integriert.

Daniel Metzger

Wichtig ist ebenfalls, dass das Unternehmen die richtigen Experten auswählt, die zu unterschiedlichen Zeiten der Datenverarbeitung einen qualifizierten Blick auf die Daten werfen. Dazu gehören unter anderem Data Stewards, die in der Lage sein müssen, festzustellen, welchen Datenquellen vertraut wird, sowie wichtige Informationen über jede Quelle bereitzuhalten – zum Beispiel: Wer hat sie erstellt?, wer hat sie geändert und vieles mehr. Diese Datenverwalter sollten in der Lage sein, die Bestimmungen über alle Data Depositories hinweg durchzuführen. Denn nur, wenn die Qualität der eingehenden, gesammelten Daten wirklich hoch ist, sind auch die darauf basierenden Analysen sinnvoll.

Daniel Metzger: „Mit der Entscheidung für eine passende Datenplattform haben die Unternehmen zwar einen wichtigen Schritt getan, um die erfassten Daten aus technischer Sicht zu analysieren, doch damit allein ist es bei weitem noch nicht getan.“

Das Gleiche gilt selbstverständlich auch für alle späteren Schritte, in denen Analysten und Datenwissenschaftler die Daten, die daraus gewonnenen Informationen und schließlich die abgeleiteten Erkenntnisse bewerten, in den richtigen Kontext stellen und in Entscheidungsgrundlagen für die Geschäftsführung einarbeiten. Nur wenn wirklich alle Schritte entsprechend qualifiziert ihren Beitrag zur Analyse leisten, werden aus Massendaten wertvolle Informationen.

Enterprise Data Cloud

All diese Anforderungen müssen bereits bei der Konzeption einer Big-Data-Plattform – oder, wie Cloudera es nennt, einer „Enterprise Data Cloud“ – berücksichtigt werden. Unternehmen, die einen digitalen Wandel durchlaufen, benötigen umfassende Analysemöglichkeiten in Public-, Private-, Hybrid- und Multi-Cloud-Umgebungen. Unternehmen brauchen die Agilität, Elastizität und Benutzerfreundlichkeit von Cloud-Infrastrukturen, aber auch die Möglichkeit, Analyse-Work­loads standortunabhängig laufen zu lassen – egal, wo sich die Daten befinden.
Auch offene Architekturen und die Flexibilität, Workloads in verschiedene Cloud-Umgebungen (Public oder Private) zu verschieben, spielen eine wichtige Rolle. Nicht zuletzt ist es wichtig, mehrere Analysefunktionen auf demselben Datensatz mit einem gemeinsamen Sicherheits- und Governance-Framework ausführen zu können, um den Datenschutz und die Einhaltung gesetzlicher Vorschriften hochzuhalten. All das sind keine „Nice to have“-Features, sondern grundlegende Anforderungen für Unternehmen, die Daten erfolgreich nutzen wollen.


Ein Beispiel aus der Praxis

Thomson Reuters ist eine weltweite Quelle für Nachrichten und Informationen für die Finanz-, Rechts-, Steuer- und Medienbranche. Mit dem Service „Reuters Tracer“ hilft das Unternehmen Journalisten dabei, echte von gefälschten Nachrichten auf Twitter zu unterscheiden. Dafür nutzt Reuters eine umfangreiche Datenanalyse mit maschinellem Lernen. So verarbeitet Reuters Tracer täglich rund 13 Millionen Tweets und bestimmt deren Wahrheitsgehalt und Relevanz mit einem „Newsworthiness Score“. Diese Lösung basiert auf der Datenplattform von Cloudera für maschinelles Lernen, um die Geschwindigkeit und Genauigkeit zu erreichen, die es für die Analyse von Tweets benötigt. Die Plattform ist darauf optimiert, den Inhalt der Tweets, die verwendete Sprache, das Verbreitungsmuster und vieles mehr zu betrachten, genau wie es ein Journalist tun würde. Aufgrund des integrierten maschinellen Lernens unterscheidet der Tracer im Laufe der Zeit immer genauer relevante und wahre von unwichtigen Tweets und solchen, die Lügen verbreiten. Mit Reuters Tracer hilft Thomson Reuters somit einerseits Journalisten und Unternehmen, mit einer sich schnell verändernden Nachrichtenlandschaft Schritt zu halten, und verbessert andererseits seine eigene Wettbewerbsfähigkeit. //


Mehr als 87 Prozent der Unternehmen haben eine geringe Data und Analytics Maturity.

Quelle: Gartner „Take Your Analytics Maturity to the Next Level“

Die vier wichtigsten Merkmale einer Enterprise Data Cloud

Hybrid und Multi-Cloud:
Um Unternehmen Flexibilität zu verleihen, muss eine Enterprise Data Cloud mit gleichwertiger Funktionalität innerhalb und außerhalb des Unternehmens betrieben werden können, wobei alle wichtigen Public Clouds sowie die Private Cloud unterstützt werden sollen.

Multifunktional:
Eine Enterprise Data Cloud muss die dringendsten Anforde­rungen an Daten und Analysen im Un­ter­nehmen effizient lösen. Das Bewerk­stel­ligen realer Geschäftsprobleme erfor­dert in der Regel die Anwendung mehrerer verschiedener Analysefunktionen, denen dieselben Daten zugrunde liegen. So basieren beispielsweise autonome Fahrzeuge auf Echtzeit-Datastreaming und maschinellen Lernalgorithmen.

Sicher und geregelt:
Eine Enterprise Data Cloud muss sicher und regelkonform sein und die strengen Anforderungen an Datenschutz, Governance, Datenmigration und Metadatenmanagement großer Unternehmen in allen ihren Umgebungen erfüllen.

„Open“:
Schließlich muss eine Enterprise Data Cloud auch offen sein. Das bedeutet nicht nur den Einsatz von Open-Source-Software, sondern auch offene Rechenarchitekturen und offene Datenspeicher wie Amazon S3 und Azure Data Lake Storage. Letztendlich wollen Unternehmen die Bindung an den Anbieter (Stichwort: „Vendor Lock-in“) vermeiden, um nicht von einem einzigen Anbieter abhängig zu werden. Offene Plattformen, offene Integrationen und offene Partner-Ökosysteme werden daher bevorzugt. Bei technischen Herausforderungen kann/muss das Unternehmen somit nicht nur vom Hersteller Support beziehen, sondern die gesamte Open-Source-Community kann zur Unterstützung beigezogen werden. Dies sichert nicht nur schnelle Innovationszyklen, sondern auch den eigenen Wettbewerbsvorteil.

Kontakt zum Autor


Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Fallbeispiele

Weiterführende Beiträge und Interviews zum Thema finden Sie in unserer
Wirtschaftszeitung TREND REPORT sowie in unseren Open-Content-Werken.

Die Demokratisierung von Machine Learning – Daten gehören zum wertvollsten Kapital eines Unternehmens. Durch die Integration neuer Technologien werden Daten nutzbar gemacht. https://www.handbuch-iot.de/die-demokratisierung-von-machine-learning/


Wachstum durch KI: Das digitale Zeitalter wird zum Zeitalter der Algorithmen. Damit Deutschland konkurrenzfähig bleibt, sind eine strategische Vision, Mut und massive Förderung notwendig. https://trendreport.de/wachstum-durch-ki/


Die Chancen der KI zu nutzen, geht einher mit einer erhöhten Sensitivität für die Risiken der digitalen Welt. Frank Romeike schreibt über KI, Robotik und die Menschen.
https://trendreport.de/ki-robotik-und-der-mensch/


Prof. Dr. Jeanette Hofmann erklärt unserer Redaktion im Interview, inwieweit sich die künstliche Intelligenz auf politische Entscheidungen auswirken wird.
https://www.handbuch-iot.de/kontrolle-und-macht-im-zeitalter-von-big-data/


Der Job eines Data Scientists ist es, aus großen Datenmengen Informationen zu generieren und Handlungsempfehlungen abzuleiten, die das Unternehmen befähigen, effizienter zu arbeiten. https://trendreport.de/wie-schlau-ist-ihr-unternehmen/


Wie Versicherer ihr Geschäft digitalisieren

Microservices sind die entscheidende Basis für Agilität.

von Jakob Freund

Mehr als die Hälfte der Verbraucher in Deutschland kann sich vorstellen, vollständig digital eine Versicherung abzuschließen. Viele Kunden versprechen sich davon schneller bearbeitete Anliegen und mehr persönliche Freiräume bei der Absicherung. Das Problem: Veraltete IT-Systeme bremsen die digitale Transformation aus, die dafür notwendig wäre.

Sieben von zehn Unternehmen betreiben Mainframes in der IT und in den Rechenzentren, um die geschäftskritischen Abläufe zu verarbeiten. Diese Systeme ähneln sich darin, dass sie eingehende Anforderungen nacheinander beantworten – first in, first out. Bleibt ein Vorgang dabei hängen, sind davon auch alle anderen betroffen. Gerade im sogenannten „Herbststurm“, wenn sich Abertausende Kunden nach preiswerteren KFZ-Versicherungen umschauen und dafür Tarifrechner auf der Webseite, beim Vermittler oder auf einem Vergleichsportal nutzen, gehen die etablierten IT-Systeme nahezu zwangsläufig in die Knie.

Antragsstrecken digitalisieren

Fast alle Unternehmen haben diese Schwachstelle inzwischen erkannt. Drei Viertel sind sich bewusst, dass sie ihre Legacy-Systeme modernisieren müssen, um mit der digitalen Entwicklung künftig mithalten zu können. Als State of the Art gelten verteilte IT-Systeme, die in der Lage sind, Geschäftsvorfälle parallel und weitgehend automatisch abzuarbeiten. Solche Architekturen lösen zunehmend Großsysteme ab, die von den Versicherern bislang als Alleskönner eingesetzt worden sind. Die IT der Zukunft setzt sich aus einzelnen Minidiensten (Microservices) zusammen, die jeweils nur eine einzige Aufgabe erfüllen und von einem Workflow-System gesteuert werden.

Abb.1: Vereinfachtes BPMN-Schema einer digitalen Antragsstrecke

Dahinter steckt die Idee, möglichst viele oder sogar alle Abläufe innerhalb eines Geschäftsvorfalls komplett dunkel zu verarbeiten. Beispielsweise möchte ein Kunde online eine neue Versicherung für sein Auto abschließen. Nachdem der Kunde seine persönlichen Daten und die des Fahrzeugs eingegeben hat und das Webformular schließlich abschickt, starten mehrere Microservices, die das individuelle Risiko prüfen und automatisch die Police anlegen. Wenn nichts Unerwartetes passiert, bekommt der Kunde seine digital abgeschlossene Versicherung ausgehändigt, ohne dass sich ein Sachbearbeiter den Vorgang überhaupt anschauen musste (vgl. Abb. 1).

Moderne Workflow-Systeme ermöglichen den Unternehmen, einfache Entscheidungs­tabellen über eine Decision-Engine einzubinden. Solche Werkzeuge helfen dabei, Ausnahmen festzulegen, falls ein Vorgang nicht automatisch abgeschlossen werden kann. Ein Ampelsystem kann beispielsweise Fälle aussteuern, die nur ein Sachbearbeiter entscheiden darf oder gleich zu einer Ablehnung führen sollen. Microservices lassen sich zudem dafür einsetzen, für Kunden automatisch einen Webzugang einzurichten, Vertragsunterlagen per Post zu versenden oder geänderte Kundendaten wie eine neue Adresse ins Bestandssystem zu übertragen.

Schäden digital regulieren

Die Vorteile einer solchen IT-Architektur liegen auf der Hand: Keine Datenstaus mehr und falls einzelne Microservices verbessert werden sollen, betreffen die damit verbundenen Anpassungen nicht gleich das gesamte System. Zudem erleichtern Microservices den Anbietern, externe Partner einzubinden wie die für die Bonitätsprüfung häufig angefragte Schufa. Gleiches gilt aber auch für Kooperationspartner, die Versicherungen zusätzlich zu einem eigenen Angebot anbieten wollen und sich dafür eine einfache Möglichkeit zum Abschluss wünschen. Dazu gehören beispielsweise Reiseportale oder Fluggesellschaften, die während der Buchung eine Reiserücktrittsversicherung mitverkaufen möchten und dafür Provisionen erhalten.

Auch im Ernstfall bieten Microservices die Chance, ein digitales Kundenerlebnis zu schaffen, das weitgehend ohne manuelle Zuarbeit durch den Versicherer auskommt.

Jakob Freund

Doch auch im Ernstfall bieten Microservices die Chance, ein digitales Kundenerlebnis zu schaffen, das weitgehend ohne manuelle Zuarbeit durch den Versicherer auskommt. Leicht zu beziffernde Schäden, wie sie etwa bei Glasbruch oder in der privaten Haftpflicht häufig auftreten, lassen sich von der Erfassung bis zur Auszahlung automatisch und fallabschließend bearbeiten. Microservices prüfen dafür, ob eine Versicherung besteht und ob alle Prämien bezahlt worden sind. Die nötigen Angaben wie Tathergang oder sogar Beweisfotos können die Versicherungsnehmer online oder via App an den Versicherer übermitteln. Ist alles in Ordnung, weist ein weiterer Microservice die Zahlung an und trägt die notwendigen Informationen in die bestandsführenden Systeme ein.

In diesem Bereich beginnen immer mehr Versicherer inzwischen damit, künstliche Intelligenz (KI) einzusetzen, um Betrugsversuche zu erkennen. Schon heute kann eine entsprechend trainierte KI erkennen, ob per Foto gemeldete Autoschäden plausibel sind. Das ist deshalb so wichtig, weil die unpersönliche Schadenmeldung Betrüger dazu einlädt, mit nachträglich bearbeiteten oder gleich komplett gefälschten Fotos überhöhte Schäden geltend zu machen. Damit das Geld nicht in falsche Hände gerät, müssen die Versicherer geeignete Kontrollen entwickeln und in die IT-Systeme integrieren.

Interne Abläufe visualisieren

Damit der Schritt in die digitale Zukunft gelingt, müssen Versicherungsunternehmen ein neues Selbstverständnis als Softwareunternehmen entwickeln. Künftig entscheidet nicht mehr allein das beste Angebot, sondern das Kundenerlebnis darüber, ob ein Produkt gekauft wird oder nicht. Und diesen Unterschied können Unternehmen zunehmend nur noch durch die Qualität ihrer IT-Systeme herausarbeiten. Digitalpioniere wie der US-amerikanische Streamingdienst Netflix beispielsweise haben von vornherein auf Microservices gesetzt, um das beste Nutzererlebnis zu bieten. Damit hängen Technologieriesen auch für andere Branchen die Messlatte beständig höher.

Abb. 2: Heatmaps legen Engpässe im Prozessmodell offen.

Zwei Drittel der Deutschen kritisieren heute schon, dass Versicherer weniger schnell, weniger verständlich und weniger gut erreichbar sind als die Angebote von Digitalunternehmen. Digital Natives, die mit solchen Diensten aufgewachsen sind, erwarten zudem, dass sich die Angebote permanent neuen Gegebenheiten anpassen und sich ständig weiterentwickeln. Sie wollen vor allem in ihrer Eigenständigkeit ernst genommen werden und bestehen darauf, möglichst viel allein regeln zu können. Gleichzeitig wollen sie sich nicht mehr um die vielen Details kümmern. Versicherer sollen von selbst aktiv werden, wenn sie etwa einen Umzug melden oder etwas nicht sofort klappt.

Diese neue Anspruchshaltung bedeutet für die Anbieter, dass sie ihre Prozesse laufend überwachen und zügig anpassen müssen, um mit den Kundenerwartungen mithalten zu können. Am einfachsten gelingt das, wenn die Abläufe nicht nur schriftlich erfasst werden, sondern visuell dargestellt. Ideal sind Heatmaps, die während der Laufzeit erfassen, wie häufig einzelne Prozesszweige durchlaufen werden und ob dadurch möglicherweise ein Engpass zu entstehen droht (vgl. Abb. 2). Selbst die Prozessqualität lässt sich messen, wenn das Workflow-System protokolliert, wie häufig und an welchen Stellen manuell eingegriffen werden musste oder wie lange ein Prozess stillstand.

Fazit

Jetzt sind die Versicherer gefordert, technische Schulden abzubauen, die über die Jahre entstanden sind. Drei von vier Euro aus dem IT-Budget wendet die Branche inzwischen dafür auf, Altlasten zu pflegen. Das rächt sich in einem Marktumfeld, das zunehmend kompetitiver wird. Wie schnell sich das Blatt wenden kann, zeigt ein Blick in die Schwesterbranche Banken, in die immer mehr Technologieunternehmen mit praktischen Digitalangeboten einbrechen. Davor schützen nur eine wettbewerbsfähige IT-Infrastruktur und eigenes IT-Know-how, das die Versicherer zügig weiter ausbauen sollten. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

KI für die Arbeitswelten der Zukunft

Wie werden Interaktionen zwischen Menschen und Maschinen den
Arbeitsplatz in Zukunft beeinflussen? Ein Expertengespräch.

Die TREND-REPORT-Redaktion sprach mit Prof. Dr.-Ing. Barbara Deml, Institutsleiterin des Instituts für Arbeitswissenschaft und Betriebsorganisation (ifab) des KIT, über das Thema Mensch-Maschine-Interaktion.

Frau Prof. Deml, mit welchen Themen und Aufgaben beschäftigt sich Ihr Forschungsbereich?

Wie muss ein Assistenzsystem gestaltet sein, um ein Operationsteam richtig zu unterstützen? Wie viele Videobilder kann jemand, der in der Leitwarte eines Kraftwerks arbeitet, gleichzeitig auswerten, ohne dass er dabei überfordert ist? Welche Erwartungen haben Mitarbeiter in der Produktion an einen Roboter, mit dem sie zusammenarbeiten? Wie muss sich ein automatisches Fahrzeug verhalten, damit menschliche Verkehrsteilnehmer oder Passagiere es akzeptieren? Mein Forschungsbereich scheint zunächst sehr breit zu sein.

Alle Themen haben aber eine wesentliche Gemeinsamkeit: Es geht immer um Arbeit und den Menschen dabei. Ich erforsche, wie Men-schen mit Maschinen zusammenwirken und auch, wie Menschen miteinander arbeiten. Interessant sind dabei immer auch die Arbeitsbedingungen und deren Folgen für den Menschen. Mein Ziel ist es, Arbeit so zu gestalten, dass sie menschengerecht, technisch funktional und wirtschaftlich effizient ist.

Wie werden die Arbeitswelten der Zukunft aussehen?

In der Forschung stehen zurzeit lernende Systeme hoch im Kurs. Sicher sind hier in den nächsten zehn Jahren Innovationen zu erwarten, die unsere Arbeit maßgeblich beeinflussen: Wo heute menschliche Dienstleistung zu finden ist, mögen das eine oder andere Computerprogramm oder ein Roboter den Dienst antreten. Expertensysteme können uns helfen, Krankheiten oder Umweltkatastrophen exakter vorherzusagen. Vielleicht wird es deshalb manche Berufe gar nicht mehr geben: Braucht man noch einen Reisekaufmann, um seinen Urlaub zu buchen? Vielleicht bekommen andere Berufe auch eine neue Bedeutung: Ist es nicht Luxus, anstelle eines Computers einen menschlichen Berater um sich zu wissen?

Vorstellen kann man sich heute viel. Es ist deshalb sicher auch kein Zufall, dass Sie nicht nach der „Arbeitswelt der Zukunft“ gefragt haben, sondern sich im Plural für „Arbeitswelten“ interessieren. Das macht deutlich, dass mehrere Varianten realistisch denkbar sind und es auch an uns ist, diese zu gestalten.

Unsere Arbeitswelt wird sich schneller und öfter verändern, als das in den letzten Jahrzehnten der Fall war. Für Arbeitnehmer heißt das, dass sie vielleicht gar nicht mehr fest zu einer Organisation gehören.

OK. – Digitalisierung, künstliche Intelligenz und Robotik werden in unserem Alltag Einzug halten. Doch auf was genau müssen wir uns als Arbeitnehmerinnen und Arbeitnehmer einstellen?

Neben neuen Technologien werden wir uns vor allem auf andere Arbeitsbedingungen einstellen müssen: Unsere Arbeitswelt wird sich schneller und öfter verändern, als das in den letzten Jahrzehnten der Fall war. Für Unternehmen bedeutet das, dass sie flexibler und schlanker werden müssen. Für Arbeitnehmer heißt das, dass sie vielleicht gar nicht mehr fest zu einer Organisation gehören. Sie werden zum Teil ihre Dienstleistung auf Plattformen anbieten und zeitlich befristet für den ein oder anderen Auftraggeber tätig sein. Das kann unsere Arbeitszeiten massiv beeinflussen, unser Verständnis von Unternehmenskultur obsolet machen, und es verlangt von Führungskräften ganz andere Managementkompetenzen. Diese Punkte müssen auch gesellschaftspolitisch adressiert werden und wir müssen zum Beispiel Arbeitsschutz neu denken.

Was sollte uns Sorge bereiten?

In Vorträgen erlebe ich immer wieder, dass viele Menschen beunruhigt auf die vor sich gehenden Veränderungen blicken. Arbeit ist so zentral für die meisten von uns; wir definieren uns oft ganz maßgeblich darüber. Ich kann also sehr gut verstehen, dass die disruptiven Veränderungen, von denen immer die Rede ist, uns wirklich Angst einjagen. Ich sehe aber gleichzeitig wenige, die wirklich mitgestalten wollen, wie eine „Arbeitswelt 4.0“ aussehen soll und wie nicht. Ich glaube, Politik und Wissenschaft müssten hier andere Möglichkeiten zur Mitbestimmung schaffen, als wir sie heute kennen. Sollten sich die Betroffenen nicht einbringen wollen oder können, würde mir das echte Sorgen bereiten.

Welche Fähigkeiten werden erforderlich sein und wo ergeben sich eventuell ganz neue Möglichkeiten?

Man kann sich fragen: Worin sind wir Menschen wirklich gut, was können wir besser als Maschinen? Soziale und kreative Fähigkeiten gehören sicherlich dazu, genauso aber auch die Fähigkeit, umfangreiches Kontextwissen zu integrieren. Damit Deutschland Schritt halten kann, muss es aber vor allem auch Menschen geben, die in der Lage sind, die lernenden Systeme, von denen immer die Rede ist, zu entwickeln. Naturwissenschaftliche und technische Kompetenzen, aber auch analytische Fähigkeiten, sind bestimmt sehr wichtig.

Ich gehe auch davon aus, dass sich unsere Arbeitsbedingungen verändern. Wir brauchen also auch Selbstkompetenzen, um uns zu organisieren und auch zu sagen, was wir wollen und was wir nicht wollen. Das gibt uns als Gesellschaft aber auch die Möglichkeit, insgesamt mündiger und selbstbestimmter zu werden.

In zukünftigen Arbeitswelten werden Computer menschliche Emotionen deuten können.

Welche Chancen und Risiken hat die Gestaltung künftiger Mensch-Maschine-Systeme?

Eine wichtige Chance ist sicherlich, dass Mensch-Maschine-Systeme noch potenter sein werden. Wir werden mit dieser Unterstützung unsere Arbeit wahrscheinlich viel besser ausführen, als das heute der Fall ist. Trotzdem werden die Systeme größtenteils relativ intuitiv sein. In vielen Bereichen besteht daher keine Gefahr, Menschen „abzuhängen“; wir könnten eine hohe Beteiligung realisieren. Denken Sie nur einmal daran, was Sie bereits heute mit Ihrem Mobiltelefon alles tun können.

Die „Risiken und Nebenwirkungen“, die mit künftigen Mensch-Maschine-Systemen assoziiert sind, werden in der Öffentlichkeit sehr aufmerksam diskutiert. Ich möchte mich daher auf zwei beschränken: Wenn Maschinen immer mehr Aufgaben für uns übernehmen, besteht die Gefahr, dass wir selber wichtige Kompetenzen verlieren und von technischen Systemen abhängig werden. Ein potenzielles Risiko besteht auch darin, dass Nutzer oftmals viele Daten von sich Preis geben und wir hier hohe rechtliche und ethische Standards brauchen.

In unseren Forschungen spielt die Analyse von Körperbewegungen, vor allem von Augen- und Blickbewegungen, eine wichtige Rolle.

Sie bringen gerade Maschinen bei, die körperliche Verfassung sowie die Gemütszustände von Menschen zu erfassen und sich entsprechend zu verhalten. Können Sie uns einige Beispiele dazu nennen?

Was machen wir, wenn ein Kollege gestresst ist? Wir verhalten uns entsprechend und versuchen nicht, noch mehr Stress zu verursachen. Genau das sollten auch Maschinen tun. Wenn ein Roboter erkennt, dass ein Mensch mental oder körperlich beansprucht ist, sollte er sich anders verhalten und Hilfe anbieten oder unterstützen. Für uns besteht die Herausforderung heute vor allem darin, Verhaltensabsichten oder relevante Zustände, wie Müdigkeit oder Emotionen, zuverlässig zu erkennen.

Menschen tun das ständig, und uns ist oft gar nicht bewusst, wie wir das machen. Wenn man diese Fähigkeiten für eine Maschine beschreiben möchte, müssen wir menschliches Verhalten besser verstehen. Was verändert sich in unserem Verhalten, wenn wir müde oder ratlos sind und eine bestimmte Assistenz benötigen? In unseren Forschungen spielt die Analyse von Körperbewegungen, vor allem von Augen- und Blickbewegungen, eine wichtige Rolle, aber auch physiologische Parameter, wie die Herzaktivität oder die Hautleitfähigkeit, sind relevant. //

Kontakt zur Autorin

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Personalauswahl 4.0?

Künstliche Intelligenz in der Personalauswahl – Mehr Schein als Sein

von Uwe Peter Kanning

Die Personalauswahl gehört zu den wichtigsten Investitionsentscheidungen eines jeden Unternehmens. Seit mehr als 50 Jahren beschäftigt sich die Psychologie in der Forschung mit der Frage, wie gute Personalauswahlverfahren gestaltet sein müssen. Pro Jahr erscheinen inzwischen mehr als 800 wissenschaftliche Publikationen rund um dieses Thema. Ein Blick in die Praxis zeigt allerdings, dass die meisten der gewonnenen Erkenntnisse hier nicht einmal ansatzweise umgesetzt werden (Kanning, 2015). Die wenigsten Unternehmen haben in ihrer Personalabteilung ausgebildete Diagnostiker. In einem solchen Markt ist es vergleichsweise einfach, auch wertlose Methoden erfolgreich zu vertreiben. Seit wenigen Jahren sind Themen wie „Big Data“, „künstliche Intelligenz“ oder „Digitalisierung“ in Mode gekommen. Die Anbieter entsprechender Technologie befinden sich in einer Art Goldgräberstimmung. Man bietet völlig undurchsichtige Instrumente an und kann blind davon ausgehen, dass die Kunden sich in der Materie noch weniger auskennen als die Berater, die ihnen die Produkte verkaufen.

Die Bandbreite der Produkte ist sehr groß. Manche Anbieter schicken ihre Computerprogramme los, um in den sozialen Medien selbstständig nach geeigneten Bewerbern zu suchen. Andere analysieren die geschriebene Sprache der Bewerber, indem sie eine Software über das Anschreiben laufen lassen. Deutlich komplexer ist da schon der Ansatz, mit Interviews zu arbeiten. Hierbei werden den Bewerbern z. B. belanglose Fragen gestellt, ehe eine Software analysiert, welche Worte, wie häufig, in welcher Betonung etc. gesprochen wurden, und hieraus Persönlichkeitsprofile erstellt. Wem dies nicht reicht, der nutzt die Software eines amerikanischen Anbieters, die nicht nur die Sprache, sondern gleich auch das Aussehen, die Mimik u. Ä. deutet. Zu guter Letzt gibt es erste Anbieter, die den Computer Einstellungsinterviews komplett allein führen lassen, wobei der Rechner nicht nur die Fragen stellt, sondern auch gleich die Antworten interpretiert. Schauen wir uns im Folgenden die Probleme der einzelnen Ansätze an.

Aussagekraft von Informationen aus sozialen Netzwerke

Soziale Netzwerke liefern Informationen über verschiedene berufsbiografische Fakten, aber auch über private Aktivitäten. Seit Jahren zeigt die Forschung, dass biografische Fakten nur sehr eingeschränkt zur Personalauswahl geeignet sind (Kanning, 2018a). Freizeitaktivitäten verraten ebenso wenig über die Persönlichkeit eines Menschen wie Lücken im Lebenslauf. Die Dauer der Führungserfahrung sagt nichts über deren Qualität. Die Länge der Berufserfahrung steht zu gerade einmal sieben Prozent in einem systematischen Zusammenhang zur Qualität der beruflichen Leistung. Deutlich anders sieht es aus, wenn wir uns die Vielfalt und Inhalte der Erfahrungen anschauen. Die stellenspezifische Interpretation der Erfahrungsvielfalt dürfte allerdings durch einen Computer kaum kostengünstig möglich sein.

Das vielleicht wichtigste Problem des Einsatzes künstlicher Intelligenz besteht jedoch im ‚Black-Box-Prinzip‘.

Deutung von Anschreiben

Die Deutung von Anschreiben durch den Computer läuft komplett ins Leere. Dies hat nicht zuletzt damit zu tun, dass heute zwei Drittel der Bewerber ihre Anschreiben nicht mehr selbst formulieren (Kanning, 2017). Wenn die überwiegende Mehrheit der Bewerber mit vorgestanzten Vorlagen arbeitet, die nur noch geringfügig überarbeitet werden, kann das Anschreiben nichts mehr über einzelne Menschen aussagen. Studien, die sich mit der Frage beschäftigen, ob die Gestaltung von Bewerbungsunterlagen (Tippfehler, Darstellung eigener Stärken, Bewerbungsgründe etc.) etwas über die Persönlichkeit von Bewerbern verrät, kommen folgerichtig auch zu negativen Befunden (Kanning, Budde & Hüllskötter, 2018).

Deutung von Physiognomie und Mimik

In der Physiognomie eines Menschen stecken keine Informationen, die Auskunft über seine berufliche Eignung geben könnten. Die Mimik verrät etwas über aktuelle Gefühlszustände. Dies ist etwas völlig anderes als die Aussage über Eigenschaften, die für den Beruf von Bedeutung sein könnten. Schon aus diesen Gründen ist eine Deutung von Physiognomie und Mimik durch den Computer völlig sinnlos.

Deutung der gesprochenen Sprache

Studien, die untersuchen, inwieweit in der Sprache eines Menschen Hinweise auf dessen Persönlichkeit zu finden sind, zeigen durchaus positive Befunde. Die Zusammenhänge sind jedoch so gering, dass sie sich nicht zur Personalauswahl eignen. Die wissenschaftlich belegten Zusammenhänge sind deutlich geringer als die Zusammenhänge, die von Anbietern entsprechender Softwarelösungen verbreitet werden. Doch selbst wenn die Angaben der Anbieter stimmen, ergibt sich ein ganz anderes Problem (Kanning, 2018b): Nehmen wir einmal an, die Sprache wäre in der Lage, zu 50 Prozent die Gewissenhaftigkeit eines Menschen zu erklären. Nun stellt sich die Frage, wie wichtig die Gewissenhaftigkeit für die spätere berufliche Leistung ist. Ein Blick in die Forschung zeigt, dass dies im Durchschnitt nur zu etwa 5 Prozent der Fall ist. Mit anderen Worten, die Sprachanalyse wäre in der Lage, über die Deutung der Gewissenhaftigkeit zu bestenfalls 2,5 Prozent die berufliche Leistung zu prognostizieren. Dies ist absurd wenig. Ein herkömmlicher Intelligenztest wäre um den Faktor 10 besser.

Durchführung von Interviews durch den Computer

Einstellungsinterviews werden nachweislich umso aussagekräftiger, je stärker sie einen engen Bezug zu den Anforderungen des Arbeitsplatzes herstellen. Die Grundlage eines guten Einstellungsinterviews bildet daher eine stellenspezifische Anforderungsanalyse. Aus dieser Anfangsanalyse werden die zu untersuchenden Kompetenzen abgeleitet. Die später im Interview zu stellenden Fragen beziehen sich auf Situationen aus dem Berufsfeld und die Antworten werden vor dem Hintergrund der Anforderungsanalyse bewertet. Auch hier stößt der Computer an seine Grenzen, weil er beispielsweise nur Standardfragen stellen kann und die Antworten nicht stellenspezifisch auswertet.

Jenseits dieser Probleme der einzelnen Ansätze gibt es auch einige grundlegende Probleme. Dies gilt zum Beispiel für die fragwürdige Ethik der Methoden. Zum einen ist es nicht akzeptabel, dass der Computer Daten verarbeitet, die von den Bewerbern nicht hierfür freigegeben wurden (z. B. Einträge in sozialen Netzwerken), zum anderen besteht die Gefahr, dass Computeralgorithmen zur systematischen Diskriminierung beitragen, indem sie z. B. Menschen, die einen bestimmten Akzent sprechen, negativ bewerten.

Literatur

  • Kanning, U. P. (2015). Personalauswahl zwischen Anspruch und Wirklichkeit – Eine wirtschaftspsychologische Analyse. Berlin: Springer.
  • Kanning, U. P. (2017). Strategisches Verhalten in der Personalauswahl – Wie Bewerber versuchen, ein gutes Ergebnis zu erzielen. Zeitschrift für Arbeits- und Organisationspsychologie, 61, 3-17.
  • Kanning, U. P. (2018a). Diagnostik für Führungspositionen. Göttingen: Hogrefe.
  • Kanning, U. P. (2018b). Digitalisierung in der Eignungsdiagnostik. Report Psychologie, 10, 398-405.
  • Kanning, U. P., Budde, L. & Hülskötter, M. (2018). Wie valide ist die regelkonforme Gestaltung von Bewerbungsunterlagen? PERSONALquaterly, 4, 38-45.

Auch juristisch ist der Einsatz der künstlichen Intelligenz keineswegs unproblematisch. Der Gesetzgeber verbietet die wahllose Sammlung von Informationen, die letztlich keinen Bezug zur beruflichen Leistung aufweisen. Darüber hinaus ist es nicht zulässig, Auswahlentscheidungen allein von einem Computer treffen zu lassen.

Erste, bislang noch nicht veröffentlichte Studien zeigen überdies, dass der Einsatz der künstlichen Intelligenz dem Ansehen des Unternehmens in den Augen der Bewerber schadet. Dies ist insbesondere in Zeiten des Fachkräftemangels mehr als bedenklich. Viele Unternehmen bemühen sich heute in besonderer Weise darum, ein positives Bild von sich zu zeichnen. Der Einsatz der künstlichen Intelligenz konterkariert diese Bemühungen.

Das vielleicht wichtigste Problem des Einsatzes künstlicher Intelligenz besteht jedoch im „Black-Box-Prinzip“. Die Anwender erfahren nicht, welche Daten wie zu einem Ergebnis integriert werden und welche statistischen Kennwerte (Messgenauigkeit, Stabilität, Validität etc.) die Verfahren aufweisen. Es ist ihnen daher nicht möglich, die Qualität der Methoden objektiviert einzuschätzen. Dies hängt nicht zuletzt damit zusammen, dass es auch der Forschung nicht möglich ist, die einzelnen Angebote kritisch zu hinterfragen, da die verwendeten Algorithmen geheim gehalten werden.

Alles in allem spricht zum gegenwärtigen Zeitpunkt nichts dafür, sich in der Personalauswahl der künstlichen Intelligenz zu bedienen. Unternehmen, die professionell arbeiten wollen, wären viel besser beraten, ihre bestehenden Methoden vor dem Hintergrund wissenschaftlicher Erkenntnisse zu optimieren. Die Zukunft wird zeigen, ob es seriöse Methoden geben wird. Wahrscheinlich benötigen wir eine Art „Diagnostik-TÜV“, der dabei hilft, die guten von den schlechten Produkten zu unterscheiden. //

Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Nachhaltig digitalisiert

Interview mit Prof. Michael Kuhndt über neue Geschäftsmodelle an der Schnittstelle von Digitalisierung, Nachhaltigkeit und Ressourceneffizienz.

Welches Potenzial räumen sie der Energieeffizienz und der Digitalisierung im Kontext der Nachhaltigkeit ein?
Zunächst einmal: Die Digitalisierung bringt Transparenz. Diese Transparenz ist Grundvoraussetzung für das Wissen über Energie. Also: Wo brauche ich Energie? Was ist an Energie in meine Produkte geflossen? Wie kann ich die Kreisläufe schließen und damit Ressourcen erhalten? Hier kommen wir also sehr schnell auf die Notierung der Circular Economy. Wichtig ist es ja auch zu sehen, dass ein Energieeffizienzthema alleine betrachtet – also in der Nutzenphase eines Produkts – nur ein Aspekt ist. Aber wenn ich die Energieeffizienz im Kontext der Kreislaufwirtschaft sehe, dann habe ich eine direkte Schnittstelle zur Digitalisierung. Also wenn ich den Energieverbrauch möglichst effizient halten möchte, muss ich mit Rohstoffen effizient umgehen. Das heißt, ich muss einen Kreislauf führen. Sonst muss ich z. B. das Aluminium zehnmal produzieren, so kann ich das Aluminium im Kreislauf führen, habe es einmal produziert und kann es dann weiterverarbeiten. Und genau dazu brauche ich die Digitalisierung. Ich muss Transparenz haben: Wo sind die Warenströme? Wo geht es hin? Wo kommt das her? Was genau steckt in den Materialien, die ich z. B. weiterverarbeite? Kann ich das wieder verwerten? Da entstehen momentan mannigfaltig neue Geschäftsmodelle.

Auf der gleichen Grundlage, der Mehrfachnutzung von Resourcen, setzt die Sharing Economy an. Ohne die Digitalisierung wäre so ein Konzept nicht denkbar. Spielt diese spezielle Form von Teilen in Ihrem Beratungsalltag eine Rolle?
Ja, sie spielt eine Rolle. Wir sehen hier ein immer stärkeres Wachstum. Für das Weltwirtschaftsforum haben wir eine Studie zu dem Thema gemacht und sind damit auch auf dem Economic Forum in Davos aufgetreten. Speziell die großen Unternehmen – die diese Studie auch bei uns angefragt haben – sehen die Sharing Economy als „Emerging Trend“, also es wächst, es entsteht, genauso wie die Digitalisierung.

Prof. Michael Kuhndt, CSP Centre gGmbH

Nutzen Unternehmen explizit Konzepte wie die Sharing Economy, wenn sie neue Geschäftsmodelle generieren?
Die Frage ist ja, wie sieht unsere Zukunftsgesellschaft aus? Vielmehr: Wie wollen wir, dass unsere Zukunftsgesellschaft aussieht? Fakt ist: Produkte werden künftig eine untergeordnete Rolle spielen. Die Zukunft des Produkts liegt in der „Subscription-Economy“. Es geht darum, dass man ein Produkt als Dienstleistung versteht. Es entsteht ein Produkt-Dienstleistungs-System. Schauen sie sich Philips an, die sagen: Wir stellen nicht mehr die Lampe her, sondern wir verkaufen Licht, wir verkaufen Helligkeit. Das Geschäftsmodell dazu sieht so aus: Unternehmen kommen zu Philips und sagen: „Kommt doch bitte in unser Büro herein und stellt sicher, dass die Dienstleistung ‚ausgeleuchtete Arbeitsplätze‘ sichergestellt wird.“ Wir als Kunden wollen gar nicht die Produkte selbst kaufen. Diese Entwicklung ist hochinteressant. Es geht also weg vom Besitzen hin zum Nutzen. Übrigens eine Entwicklung, die die Digitalisierung hervorgebracht hat. Genau dieser Gedanke steckt auch hinter der Sharing Economy: Muss ich alles, was ich nutzen will, auch besitzen? Das heißt, wenn wir konkret mit Unternehmen arbeiten, ist das genau auch ein Aspekt unserer Zusammenarbeit, über den die Unternehmen dann auch sprechen wollen. Egal ob Tourismusbranche oder Textilien … Muss man Textilien zum Beispiel immer wieder neu kaufen? Oder könnte man auch sagen: Weil sich der Geschmack, das eigene Gewicht oder Lebensumstände geändert haben, geben wir Textilien fortan eine „Nutzenphase“? Nicht nur wir bringen ein solches Thema an, sondern eben auch konkrete Nachfragen von Großunternehmen, auch vom Handel. Ein weiteres Beispiel aus der Möbelbranche: Möbel, muss ich die immer verkaufen …? Täte es meinem Geschäft nicht viel besser, wenn ich das tatsächlich nur nutzen lasse und ich bekomme es dann wieder zurück? Nebeneffekt: So habe ich für zukünftige Produkte und Weiterentwicklungen gleichzeitig meine Ressourcen im Kreislauf und spare effektiv beim Einkauf.

Geht der Trend also in Richtung „Product as a Service“?
Genau, das ist es. Nicht alles besitzen, aber jederzeit alles nutzen. Das geht natürlich auch wieder einher mit der Digitalisierung. Als Konsument habe ich die mit dem Smartphone ja quasi in der Hand.

Welche Weichen sollten Ihrer Meinung nach jetzt in Politik und Wirtschaft gestellt werden?
Ich denke, das Thema Digitalisierung ist in der Politik angekommen, alle Bundesländer und die Regierung beschäftigen sich damit. Auch die Kommunen diskutieren über diese Themen. Womit sich die Politik beschäftigen muss, sind die Rahmenbedingungen. Treffen Konzepte wie Sharing Economy, Circular Economy oder Subscription-Economy oder hierauf basierende, neue Geschäftsmodelle auf Rahmenbedingungen, die mit ihnen vereinbar sind? Die große Sorge meinerseits besteht darin, dass wir Teile der Gesellschaft von der Digitalisierung entkoppeln: Geschäftsmodelle und auch die sogenannten „Digital Natives“ verändern sich viel schneller als Politik und andere Teile der Gesellschaft es überhaupt können. Nehmen Sie Uber: Hier steht ein Bedürfnis nach Mobilität einer ganzen Branche entgegen, die von ihrem Beruf auch leben können will – und soll. Dafür werden „Sub-Systeme“ immer interessanter. „Spielwiesen auf Stadtebene“, um neue Geschäftsmodelle wie z. B. Energieeffizienz, Smart Home und IoT gemeinsam mit dem Bürger „auszuprobieren“. Dafür brauchen wir einen rechtlichen Rahmen.

Man bräuchte Regelungen für Modell-Städte oder Modell-Viertel?
Genau richtig. So kann man auch die Akzeptanz-Probleme quasi in kleinen Labs, in kleinen Systemen, beseitigen helfen. Erkennen die Menschen den Nutzwert einer Neuerung, wie etwa der „Smart City“, dann lässt sich das auch schnell auf Bundesebene skalieren. Hier muss die Politik dringend Regeln finden.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Zum Interviewpartner

Digitalisierung und Nachhaltigkeit bieten viele Optionen

von Bernward Janzing

Es gibt viele Möglichkeiten, mit Algorithmen Abläufe in Wirtschaft und Gesellschaft im Sinne einer effizienten Ressourcennutzung zu optimieren: Energieverbraucher, die bedarfsgerecht gesteuert werden, sind ein bekanntes Beispiel. Ein weiteres ist eine ausgeklügelte Transportlogistik, die Ladekapazitäten von Fahrzeugen optimal ausnutzt oder durch regionale Belieferung der Kunden Ferntransporte von Waren sogar vermindert. Ein wichtiges Feld ist außerdem die gemeinsame Nutzung von Gütern, die heute mit dem Begriff der „Sharing Economy“ umschrieben wird. Sie lässt sich durch den Einsatz digitaler Systeme optimieren, weil Anbieter und Interessenten von Gütern oder Dienstleistungen schneller zusammenfinden können.

Mit dem Aufbau der Internetkommunikation und der anschließenden Marktdurchdringung mobiler Geräte war der Einzug der Digitalisierung in unternehmerische Prozesse nur eine logische Folge. Dienstleistungen, die zuvor in der analogen Welt zwar schon angeboten wurden, aber oft einigen zeitlichen Vorlauf brauchten (zum Beispiel Mitfahrzentralen oder Car-Sharing), werden nun in der digitalen Welt per App optimiert und quasi in Echtzeit angeboten. Die Kundenzahlen nehmen seither deutlich zu.

Somit kommen mit der fortschreitenden Digitalisierung erhebliche Veränderungen auf die Gesellschaft zu. Doch so sehr die neuen Angebote den Menschen manches erleichtern, so sehr haben sie auch eine andere Seite, mit der sich die Gesellschaft beschäftigen muss und wird. Die neuen Angebote werden zum Beispiel immer mehr persönliche Daten nutzen. Manche werden auch Bewegungsprofile erstellen, wieder andere Lebensgewohnheiten erfassen, wie es zum Beispiel mit dem elektronischen Stromzähler („Smart Meter“) möglich ist. Allenthalben entstehen somit Daten, die den persönlichen Tagesablauf und die Gewohnheiten in mehr oder weniger großen Teilen abbilden können.

Entsprechend gibt es in der öffentlichen Debatte natürlich auch viele Aspekte, die bei den Bürgern auf Vorbehalte stoßen und mit denen sich Industrie und Politik auseinandersetzen müssen. Zum einen ist das die Datensicherheit aus IT-Sicht: Sind die Systeme ausreichend gegen Hacker geschützt? Vor allem dort, wo es um vitale Strukturen der Gesellschaft geht (zum Beispiel in der Stromversorgung), müssen Cyber-Angriffe absolut ausgeschlossen werden. Zum zweiten sind die Ängste der Menschen ernst zu nehmen, die sich durch ihre zunehmend erhobenen persönlichen Daten, wie Bewegungsprofile und Kommunikation, allzu gläsern fühlen. Eine Datenaggregation, die am Ende keine Rückschlüsse auf die einzelne Person mehr ermöglicht, kann die Akzeptanz deutlich erhöhen.
Und drittens fürchten Bürger zumindest in einigen Lebensbereichen auch eine „Entmündigung“ durch die Algorithmen und die neuen Abhängigkeiten von der Technik. So ist die Vorstellung, das Auto werde künftig von einem Computer gelenkt, für viele Menschen heute noch gewöhnungsbedürftig. Kritisch zu hinterfragen ist bei allen Ansätzen zugleich auch immer, in welchen Einsatzgebieten der technische Aufwand sowohl aus wirtschaftlichen wie auch aus ressourcenökonomischen Gründen gerechtfertigt ist. Denn der Aufbau einer digitalen Infrastruktur kostet natürlich erst einmal Geld, und er braucht durch die Fertigung der elektronischen Komponenten auch erst einmal Ressourcen. Manche Ansätze der Digitalisierung im Wohnumfeld – etwa die Waschmaschine, die bei günstigen Strompreisen startet – haben sich bisher nicht durchsetzen können, weil die Wirtschaftlichkeit für die Konsumenten nicht gegeben war.
Nur dort, wo der spätere Vorteil die anfänglichen Investitionen tatsächlich überwiegt, wird im Sinne der Nachhaltigkeit künftig ein Gewinn zu erzielen sein. Diese Ansätze zu finden, stellt die Herausforderung der Zukunft dar.

Neurofinance

Ein neuer Ansatz sorgt für Furore an den Kapitalmärkten: Roland Ullrich und Bernd Weber gewähren Einblicke in ein vielversprechendes Forschungsgebiet.

Herr Prof. Weber, noch ist die Beratung in Banken eine Bastion der menschlichen Intelligenz. Wann werden selbstlernende Computersysteme mit Siri-Stimme und Avatar-Gesicht den klassischen Kundenberater ersetzen?
Man sieht derzeit in vielen Bereichen der Kundeninteraktion die Nutzung von Avataren. Dies stößt bei vielen Verbrauchern auf dem jetzigen Stand der Technik aber auch auf große Skepsis bis Ablehnung. Menschen reagieren sehr sensibel auf ihr Gegenüber und Nuancen in sozialen Interaktionen. Bei den aktuellen Systemen der „künstlichen Berater“ ist dies sehr weit von natürlichen Interaktionen entfernt und führt eher zur Ablehnung durch die Kunden. Selbstlernende Algorithmen, die auf die individuellen und eben auch schwankenden emotionalen Bedürfnisse der Kunden eingehen, wird es auf absehbare Zeit nicht geben.

Herr Ullrich, Sie schreiben, der Schwerpunkt Ihrer Konferenz ist der Transfer von Forschungsergebnissen in die Praxis der Finanzindustrie, welche Trends machen Sie aus?

Roland Ullrich

Die spannenden Erkenntnisse der modernen Hirnforschung sind mittlerweile in den Management- und Finanzkreisen der deutschen Wirtschaft angekommen. Neurofinance macht sich die neuesten neurowissenschaftlichen Methoden und Technologien zunutze, um das Verhalten der Menschen an den Finanzmärkten zu analysieren. Dabei hat sich herausgestellt, dass wir trotz all dem Wissen und der Informationen, die wir „real time“ zur Verfügung haben, nicht in der Lage sind, vernünftig mit Geld umzugehen. Aus der Evolution stammende, unbewusste Verhaltensmuster spielen uns allzu oft einen Streich.  Denn unsere uralten Gehirnsysteme sind das Ergebnis eines evolutionären Selektionsprozesses. Sie sind uns zum Überleben gegeben und einfach nicht dafür geeignet, rationale Entscheidungen an komplexen Finanzmärkten zu treffen. Finanzmärkte folgen völlig anderen Gesetzen. Die gute Nachricht ist, dass unser Gehirn vollkommen plastisch ist, d. h. lebenslang wandelbar. Wir können lernen, die Kontrolle über unsere automatischen Gehirnaktivitäten zu erlangen. Hirnforscher sind heute in der Lage, Anlegerverhalten vorherzusagen und zu beeinflussen. Mit dem Bewusstsein, wie unser Gehirn finanzielle Entscheidungen trifft, können wir Methoden erlernen, die uns helfen, im ökonomischen Sinn rationaler, d. h. besser mit Geld umzugehen. Hierzu zählen zum Beispiel Mindfulness-Training, Neurofeedback und Neurocoaching. Bei vielen angelsächsischen Investoren sind diese Methoden populär. Zusammen mit der DFVA wollen wir die Ergebnisse der Neurofinance Forschung in Deutschland bekannter machen und eine Plattform für die verschiedenen Anwendungsmöglichkeiten bieten. Gleichzeitig zeigt der Trend zur Digitalisierung der Finanzbranche, wie irrationales Anlegerverhalten mithilfe kognitiver Technologien ausgeschaltet werden kann. Algorithmen-basierte Anlageprodukte und digitales Asset-Management können dazu beitragen, dass Anleger und Investoren ihre Emotionen besser in den Griff bekommen.

Herr Ullrich, welche Schwerpunkte und Themen haben Sie für die erste „Neurofinance-Konferenz“ gewählt?
Gemeinsam mit der DVFA haben wir ein Konferenzkonzept entwickelt, welches aus zwei Bausteinen besteht. Zu Beginn geht es darum, die spannenden Erkenntnisse der Neurofinance-Forschung den Teilnehmern verständlich zu machen. Mit dem Bewusstsein, wie emotional und oftmals irrational wir finanzielle Entscheidungen treffen, geht es im zweiten Baustein darum, dieses Wissen in die Praxis zu übertragen und Anwendungsmöglichkeiten vorzustellen. Liegt die Zukunft in kognitiven Trainingsmethoden zur Verbesserung finanzieller Entscheidungsprozesse oder werden uns bald selbstlernende Algorithmen und Künstliche Intelligenz steuern? Mensch oder Maschine? Oder lässt sich menschliche Intelligenz mit kognitiven Technologien verbinden?
Herr Prof. Weber, können Sie uns kurz und bündig erklären, was wir unter den Begriffen „Neurofeedback“ oder „Mindfulness“ verstehen dürfen?
Diese verschiedenen „Interventionen“ stellen Verfahren dar, die dazu dienen sollen, die Prozesse von Entscheidungen zu verbessern. Bei Neurofeedbackmethoden werden direkt biologische Signale visualisiert und den Nutzern zurückgespielt. Diese sollen dann lernen, bestimmte neuronale Muster zu verstärken oder abzuschwächen. Hier existieren eine Reihe von Studien, v.  a. im medizinischen Kontext, dass diese Feedbackmethoden in der Lage sind, z. B. die Symptome bei Angst- oder Suchterkrankungen zu verbessern. Mindfulness – oder ähnliche Traingsverfahren – sollen dazu dienen, sich seiner emotionalen Zustände bewusster zu werden und damit in der Lage zu sein, diese besser in Entscheidungen zu nutzen. Auch diese Verfahren sind im Bereich der Psychotherapie stark etabliert und zeigen auch positive Effekte für ökonomisches Entscheidungsverhalten.

Herr Prof. Weber, wo sehen Sie wichtige Aspekte für die Zukunft der Forschung im Bereich der Neurofinance?

Prof. Bernd Weber

In den letzten Jahren haben wir extrem viel über basale Mechanismen von Entscheidungen gelernt. Wir stehen trotzdem noch am Anfang. Obwohl sich viele Studien mit Themen wie „nudging“ von Finanzentscheidungen beschäftigt haben, existieren noch eine Reihe spannender Fragen, welche helfen könnten, Interventionen oder Unterstützungen von Entscheidern zu verbessern. Ein wichtiger Aspekt dabei wäre z. B., die riesige Anzahl von Entscheidungsverzerrungen, die bisher beschrieben sind, auf eine geringe Anzahl von Prinzipien zu reduzieren, welche es ermöglichen würde, bessere Modelle von Entscheidungen zu entwickeln. Aber auch ganz konkrete Fragen wie: Welche Rolle spielen soziale Medien oder genereller soziale Interaktionen in Finanzentscheidungen? Wieso sind viele Privatinvestoren bereit, größere Gebühren für aktiv gemanagte Fonds zu bezahlen, wobei ein Großteil der Daten zeigt, dass günstigere z. B. Indexfonds eigentlich die gewinnbringendere Wahl für sie wären?

 

 

 

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Prof. Bernd Weber

Informationen zu Roland Ullrich

Digital Finance

FinTechs gehen mit frischen Ideen auf den Markt und verändern diesen nachhaltig. Neue Technologien offenbaren ihr disruptives Potenzial.

von Andreas Fuhrich

Zwar begann die Digitalisierung der Banken mit dem Online-Banking schon im letzten Jahrtausend, doch weitere Innovationen blieben lange aus. Für den Knotenpunkt aller Geldgeschäfte galt der Bankkunde als Selbstverständlichkeit und musste nicht mit technischen Neuerungen gebunden werden. Selbst das Online-Banking diente mehr dem Stellenabbau und der damit verbundenen Gewinnoptimierung als dazu, einen wirklichen Service anzubieten. Heute noch beworbene Tagesgeldkonten wirken wie absurde Überbleibsel aus der Zeit, in der sie mit lukrativen Zinsen als Online-Banking-Marketingmaschine fungierten.
Seit einigen Jahren verändert nun die aufstrebende FinTech-Branche den Finanzmarkt. Dem Kundenwunsch nach mehr digitalen Lösungen, der vor allem durch die Entwicklungen der Mobile Devices mit ständigem Internetzugriff noch verstärkt wird, soll entsprochen werden. Vormals ineffiziente und unflexible Geschäftsfelder werden revolutioniert oder zumindest den neuen technologischen Möglichkeiten angepasst. Die Finanzkrise 2008, das zerstörte Vertrauensverhältnis zu den Großbanken, diente dabei als Katalysator für die junge Branche, die offen in Konkurrenz zu den alteingesessenen Instituten tritt.

Durch den Druck der FinTechs und der Digitalisierung der Finanzbranche haben mittlerweile auch traditionelle Bankhäuser erkannt, dass sie aktuelle Techniken einsetzen müssen, um den Bedürfnissen der Kunden zu entsprechen. Zwar arbeitet man jetzt verstärkt an der Modernisierung und Technologisierung der gesamten Dienstleistungskette, kann jedoch nicht mit der Innovationskraft eines agilen Start-ups mithalten. Verschärfte Regulierungen und neue BIZ-Eigenkapitalvorschriften erschweren  den Prozess zusätzlich. Wohl deshalb treten viele Banken seit einiger Zeit nicht mehr nur als Konkurrent, sondern als Partner von FinTechs auf. So erhalten sie die Möglichkeit, zeitnah ihren Kunden Innovationen anzubieten, ohne eigene Forschung betreiben zu müssen. Auch FinTechs haben erkannt, dass durch Partnerschaften Win-win-Situationen entstehen. Die vielen Regularien machen es für Start-ups fast unmöglich, die Bedingungen für eine Banklizenz zu erfüllen, die für manche Dienstleistungen, wie z. B. die Kreditvergabe, aber zwingend erforderlich ist. Anstatt sich selbst mit den hohen Anforderungen auseinanderzusetzen, übernimmt jetzt die lizensierte Partnerbank die endgültige Abwicklung.

Die Innovationen der Finanztechnologie beginnen dabei gerade erst, die Branche immer stärker und immer schneller umzukrempeln. Eine accenture-Studie belegt, dass die Investitionen in FinTechs von weltweiten 1,791 Milliarden Dollar im Jahr 2010 auf über 22 Milliarden 2015 anwuchsen.(1)
Allein in den letzten beiden Jahren machten zwei Schlagwörter auf sich aufmerksam, denen ein ungeheures disruptives Potenzial zugesprochen wird. 2015 wurden weltweit über 800 Millionen Dollar in InsurTech-Start-ups investiert,(2) also in Unternehmen, die neue Lösungen für die Versicherungsbranche liefern. Laut einer McKinsey-Studie könnte dadurch in den nächsten zehn Jahren jeder vierte Arbeitsplatz in der westeuropäischen Versicherungsbranche verloren gehen.(3) 2016 sorgte der Begriff „Blockchain“ für Aufsehen. Ob die Technologie hinter dem Bitcoin tatsächlich dem disruptiven Potenzial gerecht wird, welches ihr zugesprochen wird, bleibt abzuwarten.

Quellen:

(1)    accenture-Studie: „Fintech and  the evolving landscape: landing points for the industry“ von: Julian Skan, James Dickerson und  Luca Gagliardi, 2016. URL: https://www.fintechinnovationlablondon.co.uk/pdf/Fintech_Evolving_Landscape_2016.pdf (Abgerufen: 16. November 2016).
(2)    Seite „Versicherungstechnologie“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 26. August 2016, 13:13 UTC. URL: https://de.wikipedia.org/w/index.php?title=Versicherungstechnologie&oldid=157401432 (Abgerufen: 16. November 2016, 09:44 UTC).
(3)    McKinsey Studie: „Automating the insurance industry“ von: Sylvain Johansson und Ulrike Vogelgesang, 2016, URL: https://www.mckinsey.com/industries/financial-services/our-insights/automating-the-insurance-industry (Abgerufen: 16. November 2016).

Big – Smart – Fast

Unser Arbeitsalltag wird zunehmend von digitalen Daten beeinflusst. Big Data berührt alle Branchen und Märkte.

Werfen wir im Kontext der Digitalisierung einen  kurzen Blick zurück: Es wird angenommen, dass es der Menschheit im Jahr 2002 zum ersten Mal möglich war, mehr Informationen digital als analog zu speichern – der Beginn des „Digitalen Zeitalters“. Alles was heute an analogen Informationen in Bits und Bytes gewandelt werden kann, wird zu Daten. Im Zuge der Digitalisierung, die Unternehmen im Kontext betrieblicher Abläufe zu Effizienzsteigerung und damit einer verbesserten Wirtschaftlichkeit verhilft, wachsen die Daten dementsprechend exponentiell. Wir sprechen heute von Big Data. Der aus dem englischen Sprachraum stammende Begriff Big Data oder auf gut Deutsch Massendaten steht dabei grundsätzlich für große digitale Datenmengen, aber auch für deren Analyse, Nutzung, Sammlung, Verwertung und Vermarktung. In der Definition von Big Data bezieht sich das „Big“ auf die drei Dimensionen „volume“, für Umfang und Datenvolumen, „velocity“ für die Geschwindigkeit, mit der die Datenmengen generiert und transferiert werden, sowie „variety“ für die Bandbreite der Datentypen und -quellen. Erweitert wird diese Definition um die zwei V „value“ und „validity“, welche für einen unternehmerischen Mehrwert und die Sicherstellung der Datenqualität stehen.

Die gesammelten Daten können dabei aus verschiedensten Quellen stammen: Überwachungssysteme, Nutzung von Kunden- oder Bank- bzw. Bezahlkarten, jegliche elektronische Kommunikation, Navigationssysteme, GPS, Smartphones, Smart Homes, Fahrzeuge aller Art, von Behörden und Unternehmen erhobene und gesammelte Daten, Sensordaten im Kontext von IoT und Industrie.
Die Analyse, Erfassung und Verarbeitung von großen Datenmengen ist heute in vielen Bereichen alltäglich, aber verbesserungswürdig hinsichtlich Big Data.

TREND REPORT zum Thema

Unser Arbeitsalltag wird zunehmend von digitalen Daten beeinflusst. Business-Intelligence-Lösungen helfen, Geschäftsprozesse zu optimieren und Ordnung in das Big-Data-Chaos zu bringen, weiß Brian Gentile. https://trendreport.de/bi-daten-clever-nutzen/

Mit der TREND-REPORT-Redaktion sprach Tom Becker über die Herausforderungen und die Bedeutung der Datenanalyse für den Geschäftserfolg und welchen Vorteil Self-Service-Datenanalysetools bieten. https://trendreport.de/analyse-der-datenanalyse/

Datenmengen sind und werden zu groß, zu komplex, zu schnelllebig oder zu schwach strukturiert, um sie mit herkömmlichen Methoden der Datenverarbeitung auszuwerten. Aktuelle Entwicklungen von Software für die Verarbeitung von Big Data kommen neben klassischen prioritären Anbietern oft aus dem Open-Source-Bereich. Bekannt ist hier z. B. Apache Hadoop, ein freies Framework für skalierbare, verteilt arbeitende Software, die es ermöglicht, intensive Rechenprozesse mit großen Datenmengen auf Computerclustern durchzuführen. Big Data kann Geschäftsprozess-Verbesserungen in allen Funktionsbereichen von Unternehmen, vor allem aber im Bereich der Technologieentwicklung und Informationstechnik sowie des Marketings erzeugen. Die Erhebung und Verwertung der Datenmengen dient dabei im Allgemeinen der Umsetzung von Unternehmenszielen. Bisher haben vor allem große Branchen, Unternehmen und Anwendungsbereiche der Wirtschaft, Marktforschung, Vertriebs- und Servicesteuerung, Medizin, Verwaltung und Nachrichtendienste die entsprechenden digitalen Methoden für sich genutzt: Die erfassten Daten sollen weiterentwickelt und nutzbringend eingesetzt werden. Die Erhebung der Daten dient dabei meistens für konzernorientierte Geschäftsmodelle sowie Trendforschung in den sozialen Medien und Werbeanalysen, um zukunftsweisende und möglicherweise gewinnbringende Entwicklungen zu erkennen. Big Data kann die Triebfeder für innovative Geschäftsmodelle und Produkte werden. Welches Marktpotential tatsächlich in Big Data Lösungen steckt scheint nicht vorhersehbar: 2013 prognostizierte der US-Marktforscher IDC den weltweiten Umsatz für 2017 auf gut 32 Milliarden Dollar. Tatsächlich betrug er 2015 bereits 125 Milliarden.

Quellen:
Wikipedia – Data Scientist: https://de.wikipedia.org/wiki/Data_Science
Wikipedia – Big Data
Wikipedia – Business Intelligence
Martin Hilbert, Priscila López: The World’s Technological Capacity to Store, Communicate, and Compute Information. In: Science, 2011, 332(6025), S. 60-65; martinhilbert.net/WorldInfoCapacity.html (Kostenfreier Zugriff auf den Artikel). The World’s Technological Capacity to Store, Communicate, and Compute Information from 1986 to 2010. (Abgerufen am 15. April 2015 PDF).
Big Data: 32 Milliarden Dollar Umsatz bis 2017 erwartet – 125 Milliarden Dollar 2015 Realität, von: Michael Kroker. URL: https://blog.wiwo.de/look-at-it/2016/07/26/big-data-32-milliarden-dollar-umsatz-bis-2017-erwartet-125-milliarden-dollar-2015-realitaet/ (Abgerufen: 6. Dezember 2016)

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/

Kommunikation – Herzstück erfolgreicher Digitalstrategien

von Klaus Stöckert

Die aktuelle Entwicklung digitaler Technologien teilt die Unternehmenswelt in zwei Gruppen: Die eine sind Firmen, die ihre digitale Transformation bereits angehen oder schon hinter sich haben. Und dann die zweite Gruppe, die Firmen, die den Wandel noch vor sich haben – oder ihr Business an disruptive, digitale Geschäfts­ideen verlieren. Unify, das Tochterunternehmen von Atos für Kommunikationssoftware und -services, gehört zur ersten Gruppe. Die digitale Transformation hat Unify zahlreiche Erkenntnisse gebracht, wie Unternehmen die Digitalisierung optimal angehen können. Ein wichtiger Lerneffekt: Soll die digitale Strategie Erfolg haben, darf sie sich nicht auf ein Produkt oder eine bestimmte Technologie fokussieren. Vielmehr müssen der Mensch und damit auch das Team im Mittelpunkt stehen. User-Experience wird zum wichtigen Stichwort.

Kulturwandel bereits im Gang

Klaus Stöckert

Eine Studie im Auftrag von Unify aus dem Jahr 2016 belegt, dass der Kulturwandel bereits in vollem Gange und auch bei den Arbeitnehmern angekommen ist. Die Studie „The Way We Work“, für die weltweit rund 9 000 Wissensarbeiter befragt wurden – davon 3 019 in Deutschland –, zeigt: Über die Hälfte (55 %) der befragten deutschen Wissensarbeiter gehen davon aus, dass sich ihre Rolle im Unternehmen in Zukunft ändern wird. Die Gründe dafür sind vielfältig: Die Arbeitswelt verändert sich rasant, die Wirtschaft entwickelt sich hin zu einer On-Demand-Economy. Die digitale Transformation spielt dabei ebenso eine wichtige Rolle.
Die Veränderungen für die Mitarbeiter sind bereits jetzt deutlich spürbar, wie die Umfrage zeigt. Eine wichtige Erkenntnis lautet nämlich, dass Virtualität für viele Teams die neue Realität ist. Global gaben bereits über die Hälfte (52 %), in Deutschland immerhin schon rund ein Drittel (34 %) der Wissensarbeiter an, dass sie jetzt stärker in virtuelle Teams eingebunden sind, als das früher der Fall war. Virtuell bedeutet in diesem Fall, dass die Teams über verschiedene Büros und Standorte, also über größere Entfernungen hinweg zusammenarbeiten. Generell steigt die Bedeutung von Technologie. Fast die Hälfte der Befragten weltweit (49 %) sowie in Deutschland (48 %) gaben an, dass ihr Unternehmen eher durch Technologie und Kommunikation funktioniert statt auf Basis von lokalen Büros und Standorten.

Schlüsselfaktor Kommunikation

Kommunikation ist dabei ein Faktor, der kaum hoch genug einzuschätzen ist. Um in virtuellen Teams genauso gut und produktiv zusammenzuarbeiten wie aus dem herkömmlichen Büro gewohnt, oder sogar noch besser, brauchen die Mitarbeiter das richtige Werkzeug. Lösungen für Kommunikation und Zusammenarbeit, die technisch hoch belastbar sind und nicht frühzeitig an ihre Grenzen kommen, sind hier unabdingbar. Solche Tools für „Unified Communications and Collaboration“ (UCC) integrieren idealerweise alle Kommunikationskanäle auf einer übersichtlichen, leicht bedienbaren Oberfläche – so, wie die Mitarbeiter das aus den privat genutzten Apps und Portalen gewohnt sind. Noch steht die Entwicklung in diesem Bereich am Anfang. Die klassische E-Mail ist nach wie vor des deutschen Wissensarbeiters liebstes Kommunikationsmittel. Rund die Hälfte (46 %) gaben das bei der Umfrage an. Trotzdem nutzt bereits ein Fünftel (20 %) von ihnen regelmäßig Videokonferenzen. Auch On-Demand-Werkzeuge stehen hoch im Kurs: 63 Prozent der Befragten nutzen diese internet- oder cloudbasierten Dienste regelmäßig oder zumindest gelegentlich.

Kernaussagen

Die digitale Transformation ist unausweichlich – Unify spricht aus Erfahrung. Allerdings müssen statt Produkten und Technologie Menschen und Teams im Mittelpunkt der digitalen Strategie stehen, um erfolgreich zu sein.
Der Kulturwandel hin zum Digital Workplace ist bereits im Gang, wie eine Studie von Unify zeigt: Der klassische Arbeitsplatz verändert sich rasant. Kommunikation spielt dabei eine zentrale Rolle.
Kommunikationsplattformen wie Circuit von Unify, die nahtlos in vorhandene UCC-Lösungen integriert und unabhängig vom eingesetzten Endgerät sind, bieten eine ideale Möglichkeit, virtuelle Teams und Remote Worker zu vernetzen.

Der digitale Arbeitstag – anders als gewohnt

Der Arbeitstag eines virtuellen Wissensarbeiters unterscheidet sich heute entsprechend von der herkömmlichen Routine. Der wohl größte Unterschied: Es spielt im virtuellen Team keine Rolle mehr, von wo aus die einzelnen Teammitglieder arbeiten, solange sie einen stabilen Internetzugang haben. Der Arbeitstag beginnt mit einem Blick in die Kommunikationsplattform – gibt es neue Informationen? Sind Dateien geändert worden und müssen überprüft werden? Idealerweise funktioniert das alles mit wenigen Klicks auf einer einzigen Oberfläche. Anschließend steht die Teambesprechung an. Ein weiterer Klick, schon nimmt der Mitarbeiter an einer Videokonferenz teil. Kein Wechsel des Arbeitsortes mehr, keine Suche nach einem freien Besprechungsraum, schon gar keine langwierigen Dienstreisen. Zuletzt ist ein Bericht fällig – die Daten und Fakten, die als Grundlage dienen, sind alle einfach erreichbar und im richtigen Kontext abgelegt. Damit geht die Bearbeitung schnell, die generierten Dateien lassen sich ebenso schnell und einfach wieder im richtigen Zusammenhang einbetten. Vor dem Feierabend noch ein schneller Blick auf die Kommunikationsplattform, diesmal nicht vom Laptop aus, sondern übers Smartphone. Die Oberfläche ist dieselbe, das erleichtert die Bedienung wesentlich.

Damit all das auch so funktioniert, müssen solche UCC-Lösungen nahtlos in bestehende Infrastrukturen eingebunden werden. Außerdem müssen sie flexibel skalieren können, damit neue Teammitglieder schnell und einfach eingebunden werden können. Dazu gehören sowohl neue und bestehende Mitarbeiter als auch Freelancer oder externe Partner und Zulieferer. Das wird künftig noch wichtiger werden, wenn Teams ganz im Sinne des On-Demand-Ansatzes kurzfristig und projektbezogen zusammengestellt, vergrößert und dann möglicherweise auch wieder aufgelöst werden.

In fünf Schritten zur optimalen Kommunikation

Damit die digitale Wandlung gelingt, sollten Unternehmen insbesondere die Infrastruktur für Kommunikation und Zusammenarbeit gründlich aufsetzen. Die folgenden fünf Schritte führen zum Erfolg:

1. Die Strategie ist das Fundament
Unternehmen brauchen eine umfassende Strategie, die alle Prozesse, Unternehmensbereiche und natürlich die Mitarbeiter mit einschließt. Sonst greift die Veränderung zu kurz. Es sollte selbstverständlich sein, dass ein so tief greifender Wandel Chefsache ist und nicht nur an einzelne Abteilungen delegiert werden kann.
2. Prozesse klar definieren
Steht die Strategie, müssen die verschiedenen digitalen Prozesse definiert werden und es muss eine Roadmap entstehen. Sie legt klar fest, was genau bis wann umgesetzt werden muss, wer dafür verantwortlich ist und wie der jeweilige Bereich in die Gesamtstrategie eingebunden ist.
3. Die vorhandene Infrastruktur unter die Lupe nehmen
Jedes Unternehmen verfügt bereits über Kommunikationsmittel, und seien es nur Tischtelefone. Soll die Kommunikation digitalisiert werden, muss jetzt genau geprüft werden, wie die bestehende Infrastruktur aussieht. Ist erst vor Kurzem viel investiert worden? Dann soll dieses Investment natürlich geschützt werden. Oder ist die vorhandene Telefonanlage beinahe schon antik? Dann stünde ein Austausch ohnehin über kurz oder lang auf der Agenda und kann jetzt angepackt werden.
4. Lösungen und Partner suchen
Im nächsten Schritt geht es dann an die Auswahl der passenden Lösung. Hier sollten die Verantwortlichen den eigenen Bedarf genau kennen: Ein kleines Unternehmen ist mit einem System für Großkonzerne schlecht beraten, sie bezahlen dabei für Ressourcen, die sie nicht nutzen. Im schlechtesten Fall sind sie mit der Instandhaltung überfordert. Große Unternehmen dagegen brauchen mög­licher­weise eine flexible Lösung, um möglichst schnell skalieren zu können. Ist ein eigenes IT-Team vorhanden, das Installation und Wartung übernehmen kann? Ansonsten ist es ausgesprochen wichtig, einen guten Service-Partner zu finden. Hier gilt es, die vereinbarten Service-Level-Agreements (SLAs) genau zu prüfen – je nach Branche können einige Stunden Downtime völlig unproblematisch sein oder aber das Geschäft gefährden.
5. Digitalisierung bedeutet Kulturwandel
Hier schließt sich der Kreis: Digitalisierung ist weit mehr als eine rein technische Angelegenheit. Sind erst einmal die technischen Fragen geklärt, muss sich auch die Kultur im Unternehmen ändern. Die Strategie für den „New Way to Work“ kann noch so ausgefeilt sein – wenn sie nur im Rechenzentrum ankommt, aber nicht in den Köpfen und Herzen der Mitarbeiter, dann sind die Aussichten auf Erfolg gering.

UCC-Plattformen: offen, flexibel, intuitiv

All diese Punkte sind in die Entwicklung von Circuit eingeflossen, der Collaboration-Plattform von Unify. Einer der wichtigsten Aspekte war der Bedienkomfort. Gemeinsam mit frog design entwickelte Unify eine einheitliche, intuitive Bedienoberfläche für sämtliche Endgeräte, vom PC über Tablets bis hin zu Smartphones. Alle nötigen Informationen sind in umfangreichen Kontext eingebettet und einfach über die Suchfunktion zu erreichen. Die Inhalte sind übersichtlich in Konversationen strukturiert, ganz so, wie Menschen normalerweise miteinander kommunizieren und zusammenarbeiten. Um die nötige Integrationsfähigkeit und Skalierbarkeit zu gewährleisten, sollte eine solche Plattform auf offenen Standards basieren und über gut dokumentierte Programmierschnittstellen (APIs) verfügen. Unify hat Circuit beispielsweise von Anfang an als „Collaborative Platform as a Service“ (cPaaS) konzipiert – also als Webservice mit möglichst offenem Zugang für Entwickler. Mehrere Hackathons haben bereits gezeigt, dass neue Entwicklungen einfach zu bewerkstelligen sind und die Lösung damit an die unterschiedlichsten Bedürfnisse angepasst werden kann. Was mindestens ebenso wichtig ist: Die Lösung muss ohne Komplikationen auf jedem Endgerät funktionieren. Unify setzt dafür auf WebRTC. Der Standard macht die Übertragung von Voice- und Videodaten in Echtzeit über den Browser möglich, ohne dass dafür Clients installiert oder Plug-ins heruntergeladen werden müssen. Damit wird der Browser zur Kommunikationszentrale.

Was ist WebRTC?

„Web-based Real-Time Communications“ ist aus einem Projekt entstanden, das Google 2010 initiiert hat. Ziel ist es, einen übergreifenden Standard für Protokolle und Programmierschnittstellen zu entwickeln, der für alle Browser gültig ist. Damit ist Echtzeitkommunikation über jeden beliebigen Browser möglich, indem Daten vom Browser des Gegenübers abgerufen werden. WebRTC ist quelloffen, so können Entwickler die Technologie in eigene Anwendungen integrieren. Seit Frühjahr 2011 ist WebRTC im Standardisierungsprozess des World Wide Web Consortium (W3C). Maßgebliche Unterstützer sind Google, Mozilla und Opera Software ASA. Unify macht seit Ende 2014 diese Technologie mit seinem Cloud-Service Circuit.com für Unternehmen nutzbar.

Diese Art von flexiblen, leicht integrierbaren und skalierbaren Plattformen macht die Zusammenarbeit in virtuellen Teams einfach und produktiv. Damit sind Unternehmen in der Lage, einerseits die eigenen Mitarbeiter in die digitale Zukunft zu bringen und die Strukturen und Abläufe an den digitalen Wandel anzupassen. Andererseits lassen sich damit auch Kunden leichter und direkter ansprechen, weil die Kommunikation intuitiv, nahtlos und im richtigen Kontext abläuft.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Klaus Stöckert

Handel mit Zukunft: Customer-Centricity

Dem Kunden mithilfe digitaler Technologien Einkaufserlebnisse zu bieten, die ihm im Gedächtnis bleiben, ist die heutige Herausforderung.

von Frank Zscheile

Der Kunde ist König, diese Weisheit gilt im Handel im Grunde schon immer (den real existierenden Sozialismus einmal außen vor gelassen). Seit einiger Zeit nun erfährt sie gleichsam eine Renaissance. „Customer-Centricity“ heißt es heute, wenn Unternehmen ihre gesamte Kultur, Strategie und damit Wertschöpfungskette an den Wünschen und Bedürfnissen des Kunden ausrichten.

Dass „Customer-Centricity“ über den bloßen Begriff des „König Kunde“ hinausführt, liegt an der digitalen Transformation. Deren neue Techniken versetzen Handelsunternehmen in die Lage, Customer-Journey und Customer-Experience positiv zu beeinflussen. Wenn sie etwa die ureigenen Vorteile des stationären Geschäfts geschickt mit den Möglichkeiten der Online-Welt verknüpfen. Oder durch digitale Technologien die „echten“ Bedürfnisse ihrer Kunden auf bisher nicht gekannte Weise erschließen. Entlang von Touchpoints im Laden oder durch Online-Befragungen lässt sich die Kundenhistorie sehr engmaschig erstellen.
Customer    -Centricity bedeutet also weit mehr als bloße Neugestaltung von Sortiment, Ladenfläche oder Werbemaßnahme. Es findet im Handel vielmehr ein Kulturwandel statt, der auf den neuen Möglichkeiten der Digitalisierung basiert. Sie stellt Unternehmen vor bislang ungekannte Herausforderungen: Märkte werden transparent und schnelllebig und was heute angesagt ist, kann schon morgen überholt sein. Touchpoints entlang der Customer-Journey wollen erschlossen und bedient werden. Lokale Händler müssen sich der Konkurrenz global agierender Internetkonzerne stellen. Neue Medien, moderne Kommunikationskanäle, Internet of Things und die Methoden für Echtzeitanalysen riesiger Datenbestände kommen als Technologien zum Einsatz. Sie setzen die Trends und schaffen gleichzeitig neue Geschäftsmodelle.

Der Handel der Zukunft, er entsteht in diesem Moment! Wer hier mithalten will, muss auf die digitale Transformation setzen. Denn wie selbstverständlich tragen die Kunden ihre gestiegenen Erwartungen aus dem privaten Umfeld an den Handel heran: Eine direkte und individualisierte Kommunikation, wie sie sie aus sozialen Medien kennen; Produkte und Services, die sie jederzeit, mobil und auf einfache Art und Weise einsehen, bestellen und bewerten können – dies möchten sie bitte auch von ihrem Händler geboten bekommen. Wer agil ist und mit den passenden Methoden den Kunden ins Zentrum rückt, hat dabei die entscheidenden Erfolgsfaktoren auf seiner Seite.

Weiterführende Reportagen aus TREND REPORT

Heft 3/2015 „Vernetzte Gesellschaft“
„Handel mit Zukunft“, Autor Chris Löwer
https://trendreport.de/handel-mit-zukunft/

 

 

Heft 1/2016 „Creative Companies“
Reportage „Future Store“, Autor Chris Löwer
https://trendreport.de/future-store-handel-mit-zukunft/

 

 

Heft 3/2016 „#DigitaleTransformation“
„Future Store 2.0 – Handel mit Zukunft“,
Autor Frank Zscheile
https://trendreport.de/future-store-2-0-handel-mit-zukunft/

 

 

 

Dem Kunden mithilfe digitaler Techniken neue Kundenerlebnisse zu verschaffen, ist also die heutige Herausforderung für Handelsunternehmen. Dass dafür Kundendaten benötigt werden – und zwar je mehr, desto besser–, darin sehen Fachleute derzeit allerdings noch einen Hemmschuh bei der digitalen Transformation. Zumindest bei deutschen Unternehmen, die der internationalen Konkurrenz an dieser Stelle noch hinterherlaufen. Zwar plaudern die Menschen auf Facebook & Co. Intimes in großer Menge heraus, gleichzeitig sorgen sie sich aber um die Sicherheit und Verwertung einmal preisgegebener Daten.
Flankiert wird diese Haltung durch eine in Deutschland starke Regulierung der Datenverwendung. Da fällt es schwer, mal eben ein digitales Profil des Kunden anzulegen, um ihn besser kennenzulernen und damit bedienen zu können. Die Unternehmen wissen dies und fordern von ihren Kunden folglich weniger Daten ein, als sie für den Aufbau neuer Geschäftsmodelle eigentlich bräuchten. Bis also Systeme zur Vorhersage des Kaufverhaltens („Predictive Marketing“) nicht nur im angelsächsischen und asiatischen Raum, sondern auch hierzulande im Sinne der digitalen Transformation eingesetzt werden, braucht es wohl noch einige Zeit.

Offene Logistikplattform erhöht die Transparenz

von Geert-Jan Gorter

Regelmäßig landet die Logistik in Studien, in denen der Reifegrad der digitalen Transformation in der Wirtschaft untersucht wird, auf den hinteren Plätzen. So zeigte die Befragung „Digitale Transformation der Supply-Chain – Stand heute und in fünf Jahren” von Capgemini Consulting, dass fast die Hälfte der Logistikunternehmen in der Kommunikation mit Partnern in der Lieferkette immer noch an erster Stelle auf „traditionelle Methoden“ – wie beispielsweise Telefon, Fax und E-Mail – vertrauen. Für 75 % der befragten Führungskräfte ist die digitale Transformation der Supply-Chain zwar „wichtig“ bis „sehr wichtig“, 70 % gaben zudem an, sich bereits mit dem Thema auseinanderzusetzen. Doch mit dem Ergebnis der Bemühungen ist ein Drittel der Befragten „unzufrieden“ – und lediglich 5 % sind bereits „sehr zufrieden“.

Hindernisse für Logistik 4.0

Komplexe Dienstleisterstrukturen – wie etwa im Kombinierten Verkehr mit Speditionen, Eisenbahnen, Reedereien, Terminalbetreibern, Instandhaltern und Verladern – erschweren Abstimmungen und damit das Management arbeitsteiliger Prozesse. Hinzu kommt, dass in die Supply-Chain eingebundene Unternehmen in der Regel über eigene, historisch gewachsene IT-Landschaften verfügen, die einen ungehinderten horizontalen und vertikalen Informationsfluss im Sinne einer Logistik 4.0 nach allgemeiner Auffassung nicht zulassen. Dabei ist gerade die Logistikbranche mit ihren vielen manuellen Prozessen prädestiniert für enorme Fortschritte durch digitale Innovationen.

Fallbeispiel DB Cargo BTT

Die Digitalisierung erfolgreich in Angriff genommen
Die DB Cargo BTT ist auf den Transport von Chemie-, Mineralöl- und Düngemitteltransporten im Kombinierten Verkehr und im Wagenladungsverkehr spezialisiert. Sie organisiert den Hauptlauf auf der Schiene, den Umschlag im Terminal und den Vor- und Nachlauf auf der Straße für alle europäischen Relationen. Mithilfe von catkin wurde innerhalb von nur vier Wochen für die internationalen Aluminiumverkehre des Unternehmens eine Vernetzung der beteiligten Partner in der Transportkette realisiert. Trotz des komplexen Verkehrskonzepts mit einer Vielzahl von Akteuren über unterschiedliche Transportmittel, Zeitzonen und Sprachen hinweg, gibt es nun die völlige Transparenz in Echtzeit. Etwa über den Auftragsstatus, die eingesetzten Transporteinheiten und schadhaftes Equipment.

Flexible Prozessplattform

Das cloudbasierte Logistikportal catkin vernetzt Kunden und Dienstleister über frei konfigurierbare Aufträge. Es ermöglicht so eine systemunabhängige, unternehmensübergreifende und zugleich standardisierte Kommunikation und unterstützt das Management von mobilen Ressourcen, wie etwa Personal, Loks und Waggons, aber auch Container, Lkw oder Auflieger.
So ist etwa das Tracking von Containern lückenlos von der Aufnahme bis zur Zustellung möglich. Als universelle Plattform für alle Auftragstypen erlaubt catkin die Vernetzung unterschiedlicher Assets. Mobiles Personal, Depots und Terminals sind leicht zu integrieren.

Flexible Beteiligungsmöglichkeiten

Jeder Teilnehmer kann sich über das Web und die mobile App beteiligen. Kleinunternehmen und Freiberufler verwenden Browser und App, Unternehmen mit einer etablierten IT integrieren ihre Systeme sukzessive über die offene Plattformspezifikation. Die Anbindung an vorhandene ERP-, Telematik- oder auch Speditionslösungen ist über die vorhandenen Anwendungsschnittstellen (APIs) recht einfach zu bewerkstelligen.

Fallbeispiel TX Logistik

Auftragsdurchlaufzeiten um 25 Prozent reduziert
Das Schienenlogistikunternehmen TX Logistik verbessert mithilfe des catkin-Portals das Management von Ganzzügen und des Kombinierten Verkehrs. Durch die Integration der zur Verfügung gestellten Funktionalitäten in das eigene Planungs- und Steuerungsprogramm halbierte sich bei den Vor- und Nachläufen per Spedition die Fehlerquote und der Arbeitsaufwand sank um 12 Prozent. Gleichzeitig konnten die Auftragsdurchlaufzeiten um 25 Prozent reduziert werden. Weitere Erfolge zeigen sich in Form einer verbesserten Abstimmung mit den Bahn-Dienstleistern und im operativen Personaleinsatz. Die erhöhte Transparenz führt hier zu einer deutlichen Reduzierung von Verspätungen und 50 % weniger Support-Anrufen im European Control Center der Güterbahn.

Sicherheit und Datenschutz

Auch die Integration neuer Akteure und Prozesse sowie eine zügige Implementierung neuer Standards sind jederzeit möglich. Die Konfiguration von neuen Auftragsstrukturen und Arbeitsabläufen geschieht ohne aufwändige Programmierung. Die Kombination von standardisierter Technik und flexiblen Strukturen ermöglicht so dynamische Prozesse.
Der sichere Austausch der Daten entlang der gesamten Data-Supply-Chain ist dabei eine wesentliche Voraussetzung. Disponenten etwa, die das catkin-Portal nutzen, können sicher sein, dass ihre Daten nicht in irgendeiner Cloud jenseits des großen Teichs unterwegs sind, sondern sich in einem modernen deutschen Rechenzentrum befinden –  unter Einhaltung aller Datenschutzbestimmungen. Zudem werden die im Zuge der Auftragsabwicklung erzeugten Daten nach Abschluss innerhalb eines gewissen Zeitfensters wieder aus dem System entfernt.

Nahtlose Kollaboration

Der Ansatz von catkin integriert die Beteiligten am Erbringen einer Logistikdienstleistung unmittelbar horizontal und stellt somit sofort für alle Teilnehmer gleichermaßen ein Kunden- als auch Dienstleisterportal dar. Zudem wird die Steuerung von mobilen Personalen und „rollendem Material“ automatisch unterstützt. Auftragsdaten und Lieferfortschritt lassen sich sicher, einfach und in Echtzeit kommunizieren, wodurch im Sinne von Logistik 4.0 eine nahtlose Kollaboration über Unternehmensgrenzen hinaus realisiert wird. Voraussetzung für Smart Services, innovative Leis­tungsangebote und automatisierte Geschäftsprozesse in der Logistik 4.0 sind der sichere Austausch und die einfache Kombination von Daten in Wertschöpfungsnetzwerken – ohne dass die Beteiligten in der Lieferkette die Souveränität über die eigenen Daten verlieren.

Fallbeispiel Kloiber Transporte

Optimierter Container-Transport
Die Spedition Kloiber aus Bayern, ein Familienunternehmen mit jährlich 85 000 transportierten Ladeeinheiten und einer Flotte von 150 Lastwagen, führte catkin als Kundenportal ein und koppelte es an das vorhandene Planungssystem. Die Vernetzung zwischen den Beteiligten – etwa Reeder, Zoll, Bahn, Operateur, Lkw-Spediteur, Fahrer und Kunde – kann ebenso auf Basis der Containernummer, die eine eindeutige Identifikation ermöglicht, erfolgen. Statt einer weiteren Insellösung verfügt Kloiber nun über eine offene Plattform, die eine einfache Anbindung von weiteren Kunden und beliebigen Subunternehmern ermöglicht.

„Industrial Data Space“

Die Initiative „Industrial Data Space“, an der mit Unterstützung des Bundesministeriums für Bildung und Forschung verschiedene Fraunhofer-Institute und Unternehmen unterschiedlichster Branchen und Größen – darunter auch catkin – beteiligt sind, schafft die Voraussetzungen für den dringend nötigen sicheren Datenraum. Zwischen allen Beteiligten am Datenaustausch wird ein standardisierter Vertrag geschlossen, der in Software „gegossen“ den Daten immer mitgegeben wird. Er beschreibt, was der Empfänger mit den Daten tun darf und was nicht. Der Sender bleibt Eigentümer, kann Bedingungen der Nutzung festlegen und auch den Zeitraum der Gültigkeit.

Mehr Informationen unter https://www.catkin.eu/HandbuchDigitalisierung

Kernaussagen

Fast die Hälfte der Logistikunternehmen vertrauen in der Kommunikation mit Partnern in der Lieferkette immer noch an erster Stelle auf „traditionelle Methoden“ – wie beispielsweise Telefon, Fax und E-Mail.
Komplexe Dienstleisterstrukturen – wie etwa im Kombinierten Verkehr – erschweren Abstimmungen und damit das Management arbeitsteiliger Prozesse. Trotzdem ist gerade die Logistikbranche mit ihren vielen manuellen Prozessen prädestiniert für enorme Fortschritte durch digitale Innovationen.
Mithilfe einer universellen Logistikplattform für eine vernetzte Auftragsabwicklung und Kommunikation wie zum Beispiel catkin kann bereits heute der Weg in eine Logistik 4.0 beschritten werden, bei der die Transparenz der Supply-Chain im Mittelpunkt steht.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Geert-Jan Gorter

Logistik braucht IT

Nichts bewegt sich ohne eine enge Verzahnung von Logistik und IT. In Zukunft wird der 3D-Druck Dienstleistungen rund um die Logistik verändern.

Die Logistikbranche wird und muss sich im Zuge der Digitalisierung umfassend verändern. Prozesse werden mit Hilfe von neuen Technologien wie RFID, Beacons oder Pick-by-Solutions revolutioniert.
Beispielhaft sind E-Procurement und E-Marketplaces in der Beschaffungslogistik, die mit den zunehmenden Möglichkeiten des Internets überhaupt erst möglich sind. Unternehmen werden flexibler in ihren Beschaffungswegen, -zeiten und -quellen. In der Produktionslogistik wird in Zukunft mit Hilfe von Digitalen Fabriken ein gesamtes Unternehmen in vereinfachter Form abgebildet werden, von Mitarbeitern über Prozesse bis zu den IT-Anwendungen, was der Planung und Steuerung immens hilft. Durch Pick-by-Methoden kann der Kommissionierungsvorgang drastisch beschleunigt werden.

Die Prozesse der Distributionslogistik werden im Bereich der Routenplanung verbessert, was vor allem an einer verbesserten Kommunikationsmöglichkeit liegt. Das ermöglicht eine schnellere Zustellung der Lieferungen. Zusätzlicher Service wird dem Kunden durch Sendungsverfolgung geboten. In den kommenden Jahren werden sich Prozesse noch weiter verbessern, besonders in der Distributionslogistik. Autonom fahrende LKWs, Schiffe, Roboter und Drohnen werden die Zustellung, gerade auch auf der „letzten Meile“ zum Kunden revolutionieren und Personal für diese Bereiche nahezu obsolet machen.

Umfassende Änderungen werden die Logistikbranche treffen. Unternehmen müssen sich also mit  neue Technologien auseinandersetzen und in sie investieren, um konkurrenzfähig zu bleiben. Ein völlig neuer Konkurrent für Logistiker ist z.B. der 3D-Drucker. Denn wieso sollte man sich etwas liefern lassen, wenn man es sich auch zu Hause ausdrucken kann? Das geht schneller, und ist womöglich sogar noch billiger. Zur Zeit ist das Problem nicht so ernst zu nehmen, da die Möglichkeiten des 3D-Drucks noch begrenzt sind. Die meisten Dinge wird man sich schlicht liefern lassen müssen, wobei auch aktuelle Lieferzeiten in den meisten Fällen verkraftbar sind. Startup-Unternehmen haben aktuell bessere Chancen denn je.

TREND REPORT zum Thema

Heft 3/2015 „Vernetzte Gesellschaft“
„Industrie 4.0: Vision wird Realität“, Autor Chris Löwer
https://trendreport.de/industrie-4-0-vision-wird-realitaet-2/

Heft 2/16 „Standort Deutschland digital“
Reportage „IoT: Beginn der Vernetzung“, Autor Chris Löwer, https://trendreport.de/iot-beginn-der-vernetzung/

Bezüglich ihrer Konkurrenzfähigkeit geben sich deutsche Unternehmen relativ zuversichtlich. Wie realistisch diese Einschätzung ist, wird die Zeit zeigen. Wer auch immer in Zukunft führender Logistikdienstleister im deutschen Raum sein wird: Kunden profitieren von neuen Komfort. Zustellungen innerhalb von einem Tag, also Same-Day-Delivery-Modelle, werden zum Standard werden. Für Beschäftigte der Branche gestaltet sich die Lage anders: operative Berufe wie Lagerarbeiter oder auch LKW-Fahrer könnten schnell wegfallen, aber es werden neue Arbeitsplätze in Bereichen wie IT und Controlling geschaffen werden. Wie jede Neuerung bringt die Digitalisierung eben nicht nur positive Auswirkungen für Unternehmen. Neben den sich bietenden Möglichkeiten entsteht die Gefahr, den Anschluss an Konkurrenten zu verlieren und so vom Markt verdrängt zu werden. Grund genug für die BVL, ein Positionspapier zu erstellen, das die Herausforderungen für Politik und Unternehmen beschreibt und Handlungsempfehlungen gibt. Das von den Logistikexperten Professor Michael ten Hompel, Professor Jakob Rehof und Frauke Heistermann erstellte Papier definiert Logistik als „ganzheitliche Planung, Steuerung, Koordination, Durchführung und Kontrolle aller unternehmensinternen und unternehmensübergreifenden Informations- und Güterflüsse.“ Mit dieser Definition der Logistik ist die enge Verzahnung von Logistik und IT festgeschrieben, die im Positionspapier weiter ausgeführt wird.

Quelle und Textlizenz:
https://winfwiki.wi-fom.de/index.php/Einfluss_der_Digitalisierung_auf_die_Logistikbranche; Autoren: Federica Scichilone, Rico Schulte, Niklas Leppkes

Lizenzbestimmungen: https://www.gnu.org/licenses/fdl-1.2

Zukunft des 3D-Drucks und Industrie 4.0

Die TREND-REPORT-Redaktion im Dialog mit Prof. Dr. Welf Wawers von der Hochschule Bonn-Rhein-Sieg über das Thema 3D-Druck und die Folgen für die Industrie 4.0.

Herr Prof. Dr. Wawers, welches Potenzial hat die 3D-Drucktechnologie für das Internet of Things bzw. für Industrie 4.0?
In der Industrie 4.0 stehen intelligente Maschinen, Anlagen und Geräte, kurz cyberphysische Systeme, in Kommunikation und Kooperation mit Menschen, Logistik und Produkten. Ziel dieser Vernetzung ist die endverbrauchernahe industrielle Produktion des personalisierten Produkts, am liebsten in Echtzeit. Diese gewollt dezentralisierte Organisation kann nicht an einer zentralisierten Fertigungsstätte, beispielsweise einem Fließband in Fernost, enden. Hier muss, in logischer Konsequenz, eine disruptive Technologie wie der 3D-Druck stehen, der dann quasi die Vollendung dieses Wertschöpfungsnetzwerks bildet. Mit ihrer extrem hohen Flexibilität ist die 3D-Drucktechnologie in der Lage, die von den cyberphysischen Systemen über das Internet der Dinge gesammelten Daten zur z. B. Beanspruchung, Nutzung oder Alterung eines Produktes direkt in entsprechende bauliche Optimierungen umzusetzen. Für jedes einzelne Produkt, wohlgemerkt. Das Austauschprodukt oder Nachfolgemodell steht dann für den Nutzer passend zum Ende des Produktlebens zur Abholung bereit. Und zwar in der intelligenten Fabrik 4.0, zwei Straßenecken weiter. Tatsächlich haben jetzt schon laut der Erhebung des jungen Amsterdamer Unternehmens 3D Hubs eine Milliarde Menschen Zugang zu einer 3D-Produktionsstätte in höchstens 16 km Entfernung. Und Schätzungen gehen davon aus, dass sich die Zahl der 3D-Drucker jährlich verdoppeln wird.

Was ist in diesem Kontext dann disruptiv?
Durch die sich der 3D-Drucktechnik bedienende Fabrik 4.0 wird nahezu jeder Bereich der Produktentstehungskette beeinflusst, wenn nicht revolutioniert. Das beginnt bereits bei der Produktplanung und -bewerbung. In der konservativen Massenproduktion stellen aufwändige Studien und Feldversuche sicher, dass ein und dasselbe Produkt die Bedürfnisse eines möglichst großen Personenkreises erfüllt. Die individualisierte 3D-Drucktechnik stellt diese Sichtweise auf den Kopf. Nicht mehr das in den Forschungsabteilungen ausgeklügelte Design eines Produkts entscheidet über dessen Markterfolg, sondern wie weit sich dieses Design bei voller Funktionalität individualisieren lässt. Auch ermöglicht die 3D-Drucktechnologie die Herstellung völlig neuer Produkte mit hochkomplexem, bislang nicht herstellbarem Design. Stichwort hier ist beispielsweise der Leichtbau nach dem Vorbild von Knochenstrukturen. Reverse Engineering, die Erforschung und der Nachbau vorhandener Strukturen, erhält hier einen ganz neuen Stellenwert in den Entwicklungsabteilungen. Vor nicht minder großen Neuerungen steht die Produktion, Logistik und Lagerhaltung. Mit der 3D-Drucktechnik wird die Herstellung eines Einzelstückes genauso kostengünstig wie ein Bauteil aus der Massenproduktion. Damit wird einer der Hauptauslöser der zweiten industriellen Revolution, heute würde man sagen der Industrie 2.0, praktisch zu Grabe getragen. Die hochautomatisierte Produktion 4.0 ist darüber hinaus auch in Hochlohnländern rentabel. Die Verlagerung von Produktionsstätten nach Fernost und der damit verbundene weltweite Warentransfer sind nicht mehr erforderlich. Die Hersteller von Massenprodukten müssen dann nicht nur die Konzeption und Lage ihrer Fabrikationsstätten überdenken, sie sehen sich auch einer neuen Konkurrenz gegenüber. Mit konventionellen Fertigungsverfahren stellt der Einstieg in ein neues Produkt oftmals eine große finanzielle und logistische Herausforderung dar. Produktionslinien müssen umgestellt werden, Arbeiter an neuen Maschinen angelernt werden usw. Verglichen damit sind die Anstrengungen in der hochflexiblen 3D-Drucktechnologie minimal. Ein und dieselbe Maschine kann heute Zahnbürsten produzieren und morgen Turnschuhe. Lediglich Herstelldaten und Rohmaterial müssen ausgetauscht werden. Damit fallen für viele Firmen Hindernisse weg, die bislang den Einstieg in neue Produkte erschwerten oder gar verwehrten. Wenn wir noch einen Schritt weiterdenken, wird sich die Produktion auch in die Haushalte verlagern, die zunehmend über eigene 3D-Drucker verfügen. Einige Medien sprechen hier bereits von einer „Demokratisierung des Produkts“. Auch wenn die 3D-Drucktechnologie die konventionellen Fertigungsmethoden nicht vollständig verdrängen wird, werden durch sie tiefgreifende Veränderungen ausgelöst. Nicht nur in der Produktion, auch im Handel und in der Gesellschaft.

Wie reagiert darauf die deutsche Maschinenbaubranche? Was sollten dann deutsche Maschinenbauer tun und wie schnell wird sich der 3D-Druck verbreiten?
Die traditionell eher konservativ eingestellte deutsche Industrie scheint dieser neuen Technologie gegenüber recht aufgeschlossen zu sein. Laut einer aktuellen Studie von Ernst & Young sind deutsche Firmen beim 3D-Druck sogar weltweit führend, was die Umsätze mit 3D-Produkten angeht. In Zahlen ausgedrückt kommt Ernst & Young auf einen Jahresumsatz von fast einer Milliarde Euro, bei weltweit ca. 10 Milliarden Euro. Verglichen mit dem Gesamtumsatz des deutschen Maschinenbaus, in 2015 rund 247 Milliarden Euro, ist das aber immer noch relativ gering. Umso überraschender ist, dass von den 200 deutschen von Ernst & Young befragten Unternehmen immerhin 37 % Prozent angaben, die 3D-Drucktechnologie bereits zu nutzen. Die Diskrepanz erklärt sich wahrscheinlich dadurch, dass viele der befragten Firmen die Technik für interne Prozesse nutzen, beispielsweise den Prototypenbau, und keinen direkten Umsatz mit dem Vertrieb dieser Bauteile erzielen. Es gibt aber auch kritische Stimmen, die die deutsche Maschinenbaubranche der Technologie hinterherfahren sehen. So schrieb das manager-magazin noch 2015 von der Gefahr, dass deutsche Unternehmen den Siegeszug des 3D-Drucks verschlafen könnten. Als einer der weltweiten Vorreiter wurde hier China genannt, wo heute bereits neben kompletten Autos auch Wohnhäuser im 3-Druck erstellt werden. Während das in Deutschland derzeit noch undenkbar ist, planen die Chinesen bereits mit einem weltweiten Massenmarkt. Und die Nachfrage gibt ihnen Recht, Ägypten hat zum Beispiel schon 20 000 gedruckte Häuser geordert. Tatsache ist, dass wir weltweit gerade erst dabei sind, das immense Potenzial und die revolutionierenden Veränderungen zu begreifen, die mit der rasant anwachsenden 3D-Drucktechnologie einhergehen. Schätzungen sehen das jährliche Wachstum des Marktes bei 30 % (Roland Berger) oder sogar 34 % (Morgan Stanley). Der US-Marktforscher Gartner geht davon aus, dass bereits 2018 50 % aller Hersteller von Konsumgütern, Schwergütern und Biogütern die 3D-Drucktechnik nutzen werden. Siemens sagte 2015 für die nächsten fünf Jahre ein Anwachsen der Druckgeschwindigkeit um 400 % bei gleichzeitiger Halbierung der 3D-Druckkosten voraus. Wenn man die Zahlen der weltweit verkauften 3D-Drucker betrachtet, summieren sich diese in konservativen Schätzungen für 2020 auf ca. 25 Millionen, die wiederum Milliarden von Bauteilen ausdrucken werden. Der Zug ist also noch lange nicht abgefahren, im Gegenteil. Baldiges Aufspringen wäre aber trotzdem ratsam.

In welchen Industriezweigen wird sich der 3D-Druck zunächst durchsetzen?
Bereits lange fest etabliert ist der 3D-Druck im Prototypenbau, der ersten, als „Rapid Prototyping“ bezeichneten Anwendung. Aber auch im Werkzeugbau, Formenbau und in der Ersatzteilherstellung hat das Verfahren als „Rapid Manufacturing“ oder auch „Additive Manufacturing“ Fuß gefasst. Hier haben die großen, teilweise einzigartigen Vorteile des Verfahrens, die extrem hohe Flexibilität und die nahezu uneingeschränkte Geometriefreiheit, frühzeitig Vorbehalte gegenüber dieser neuen Technologie beiseitegeschoben. Ein gutes Beispiel ist der Spritzguss in der Kunststoffproduktion. Bis zu 70 % kann die Kühlzeit innerhalb der Zykluszeit der Serienfertigung ausmachen. Um die Kühlzeit zu reduzieren, sind im Spritzgusswerkzeug konturnahe Kühlkanäle erforderlich. Deren Herstellung bringt den konventionellen Werkzeugbau aufgrund der komplexen Geometrien oftmals an seine Grenzen, im 3D-Druck ist das problemlos herstellbar. Der nächste Schritt, den einige Hersteller schon gegangen sind, ist es, die Werkzeuge gleich ganz wegzulassen und die Kunststoffbauteile direkt im 3D-Druck herzustellen. Ermöglicht wird dies durch die rasante Zunahme der Druckgeschwindigkeit und die kontinuierliche Qualitätsverbesserung der Ausdrucke. Damit öffnet sich auch der Massenmarkt für Konsumgüter der 3D-Produktion. Ein anderer Industriezweig, der vorwiegend Individualprodukte hervorbringt und daher auch schon länger den 3D-Druck erfolgreich einsetzt, ist die Medizintechnik. Neben Zahnimplantaten können passgenaue Titan-Prothesen im 3D-Drucker hergestellt werden. Originalgetreue, schnell aufgebaute 3D-Modelle beschädigter Organe helfen bei der Operationsvorbereitung. Zukunftsvision, aber bereits im Forschungsstadium befindlich ist der 3D-Druck funktionsfähiger Organe und Stammzellen. Auch im Leichtbau, und speziell in der Luftfahrtindustrie, hat die Technologie Einzug gehalten und wird weiter wachsen. Die Geometriefreiheit des 3D-Drucks eröffnet hier neue Möglichkeiten der Gewichtseinsparung bei erhöhter Steifigkeit. Und auch der Mittelstand beginnt die Vorteile der neuen Technologie für sich zu entdecken. Einer Umfrage des Münchner Marktforschungsinstituts Pierre Audoin Consultants (PAC) im Auftrag der Freudenberg IT zufolge sind 45 % der befragten mittelständischen Fertigungsunternehmen der Meinung, dass sich mit dem Einsatz von 3D-Druckern Kosten- und Effizienzvorteile realisieren lassen, Tendenz steigend.

Gibt es anschauliche Beispiele?
Es gibt viele Beispiele dafür, dass Unternehmen, auch aus Deutschland, das Potenzial der 3D-Drucktechnologie schon erkannt haben. Im Bereich der Massenproduktion baut adidas derzeit eine „Speedfactory“ im fränkischen Ansbach auf. Dank 3D-Drucktechnik und vernetzter Maschinen sollen ab 2017 auf 4 600 m² 500 000 Paar Schuhe pro Jahr gefertigt werden, zum ersten Mal seit 30 Jahren wieder „Made in Germany“. Airbus setzt in seinem Werk in Bremen verstärkt auf den 3D-Druck und plant, 10 % seiner Ersatzteile mit diesem Verfahren selber herzustellen. 3D-gedruckte Prototypen werden bei Mercedes-Benz Lkw schon seit einigen Jahren eingesetzt, und seit September dieses Jahres bietet das Unternehmen auch erstmals Ersatzteile aus dem 3D-Drucker an. Mercedes-Benz betont dabei, dass bei der Qualität, Langlebigkeit, Zuverlässigkeit, Wirtschaftlichkeit und Funktionalität die gleichen Maßstäbe wie in der klassischen Ersatzteilproduktion angelegt werden. Auch die BMW AG benutzt bereits die 3D-Drucktechnologie. Bislang wurden damit hauptsächlich exotische Bauteile wie die im metallischen 3D-Druck hergestellte Wasserpumpe des DTM-Rennwagens hergestellt. Nun soll der 3D-Druck langfristig in die Produktionsstrategie auch für Serienteile integriert werden. BMW arbeitet dabei mit HP zusammen, das nach langem Zögern seit Mai dieses Jahres seine ersten eigenen 3D-Drucker anbietet. Überhaupt ist es verwunderlich, dass die großen Drucker-Hersteller so spät in die 3D-Drucktechnik eingestiegen sind. Canon ist seit 2015 dabei, Epson bereitet immerhin gerade den Einstieg in die 3D-Drucktechnik vor. Bei Brother und bei Lexmark sucht man derzeit noch vergeblich nach einem 3D-Drucker. Gerade diese Zurückhaltung hat aber jungen deutschen Unternehmen die Möglichkeit gegeben, sich zu entfalten. Mit SLM Solutions aus Lübeck ist 2014 der erste deutsche Hersteller von industrietauglichen 3D-Druckanlagen an die Frankfurter Börse gegangen, kurz nachdem das ebenfalls deutsche Unternehmen Voxeljet an der New Yorker Börse notiert hat. Weitere bedeutende Hersteller sind Concept Laser aus dem bayrischen Lichtenfels und EOS aus Krailling bei München, um einige zu nennen. Tatsächlich sind deutsche Hersteller industrietauglicher 3D-Druckanlagen laut der WirtschaftsWoche vom Januar 2014 ihren Mitbewerbern aus den USA und Asien technisch um Jahre voraus.

Kernaussagen

  • Die Wirkung des 3D-Drucks ist bis weit in die Gesellschaft hinein. Durch 3D-Drucker für den Heimgebrauch sprechen Experten schon von der „Demokratisierung des Produktes“.
  • Im „Rapid Prototyping“ ist der 3D-Druck bereits lange fest etabliert. Weitere Einsatzbereiche sind z. B. Werkzeugbau, Formenbau und Ersatzteilherstellung.
  • Die Produktion eines Konsumguts kann nun auch wieder in Hochlohnländern lohnenswert sein.

Mit welchen Weiterentwicklungen und Innovationen ist in den nächsten zwei bis drei Jahren zu rechnen?
Der Bereich der technischen Weiterentwicklungen der 3D-Drucktechnologie konzentriert sich auf die Erhöhung der Druckgeschwindigkeit, die Reduzierung der Druckkosten und die Verbesserung der Druckqualität. Auch in der teilweise aufwändigen und bei Metallen auch nicht ganz ungefährlichen Rohmaterialherstellung wird intensiv geforscht. Feines Pulver, sei es von Metallen oder anderen Stoffen, ist besonders reaktionsfreudig, wodurch es sich leicht entzünden kann. Ein Beispiel dafür sind Mehlstaubexplosionen in Getreidemühlen. Ein weiterer Forschungsschwerpunkt ist die Weiterentwicklung der Druckstrategie. Das betrifft beispielsweise den Ausdruck eines Bauteils aus verschiedenen Materialien oder die Herstellung kompletter, aus beweglichen Teilen bestehender Baugruppen in einem 3D-Druck, „Print-in-Place“ (PIP) genannt. Mitsubishi hat kürzlich auch den „5D-Druck“ vorgestellt. Tatsächlich handelt es sich dabei um einen 3D-Drucker mit 5 Achsen. Die hergestellten Musterbauteile, Druckkappen, halten einem drei- bis fünfmal stärkeren Berstdruck gegenüber „nur“ 3D-gedruckten Bauteilen stand. Die Technik ist also noch lange nicht ausgereizt, mit technischen Innovationen ist auch weiterhin zu rechnen. Was die Marktentwicklung und das Wachstum der 3D-Drucktechnologie angeht, gibt es zahlreiche positive Zukunftsprognosen, die bereits erwähnt wurden. Außerdem werden sich auch neue Märkte und Geschäftsmodelle eröffnen. 3D-Druck-Shops werden zunehmen. Manche nach Art der Copy-Shops, in denen man eben schnell den durchgebrochenen Hebel der Kaffeemaschine 3D-kopiert, aber auch kleine Fabrikationsstätten, die Bauteile von Einzelstücken bis zur Großserie in Lohnfertigung herstellen. Und da auch immer mehr Konsumenten über eigene 3D-Drucker verfügen, wird sich auch ein Markt für virtuelle Bauteile eröffnen, in dem statt physischer Produkte deren 3D-Design verkauft wird. Es ist auch vorstellbar, dass diese Konsumenten ihre privaten 3D-Drucker zur Bauteilherstellung auf Internetplattformen anbieten, sich also quasi „Baubörsen“ bilden werden. Natürlich werden solche Geschäftsmodelle, und auch die 3D-Druck-Shops, Fragen nach der Produkthoheit und dem Gebrauchsmusterschutz aufwerfen. Andere Geschäftsbereiche werden sich verändern müssen. Im Zuge der endverbrauchernahen, bedarfsgerechten 3D-Produktion wird es nicht mehr notwendig sein, Produkte über weite Strecken zu transportieren oder große Stückzahlen davon zu lagern. Die Logistik oder der After-Market stehen hier vor ganz neuen Herausforderungen, während die Industrie wieder im Heimatmarkt produzieren kann. Dieser Trend des „Reshorings“, der Rückkehr der Produktion in die Heimmärkte, ist derzeit weltweit zu beobachten, wie das Beispiel adidas zeigt. Abschließend, aber deswegen nicht weniger wichtig, sei noch der Aspekt des Umweltschutzes erwähnt. Der weltweite Warenverkehr stellt eine enorme Belastung der Umwelt dar. Endverbrauchernahe Produktion wird damit zur umweltgerechten Produktion. Wenn dieses Label von Politik und Gesellschaft erkannt wird, bekommen Unternehmen, die noch nicht in die 3D-Drucktechnologie eingestiegen sind und an ihren Produktionsstätten in Niedriglohnländern festhalten, ein Problem. All diese Entwicklungen werden sicher nicht innerhalb der nächsten zwei bis drei Jahre passieren, aber zumindest ihren Anfang nehmen.

Gibt es aktuelle Forschungsprojekte?
Meine Forschungsarbeiten an der Hochschule Bonn-Rhein-Sieg stehen als neuberufener Professor noch am Anfang. Derzeit bauen wir gerade mehrere Laserlabore auf. Geplant sind u. a. Forschungsarbeiten zum „Selective Laser Melting“ (SLM), dem marktführenden 3D-Druckverfahren für metallische Bauteile. Ein Thema, dem ich mich am Fraunhofer Institut für Lasertechnik bereits während meiner Studienzeit gewidmet habe. Konkrete Forschungsfragen sind beispielsweise, inwieweit sich bionische Strukturen mittels Reverse Engineering und dem 3D-Druck für technische Anwendungen, z. B. den Leichtbau, nutzbar machen lassen.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Prof. Dr. Welf Wawers

Internet of Things

Smart Things kommunizieren über das Internet der Dinge miteinander, wodurch neue Möglichkeiten automatischer Prozesse entstehen.

von Andreas Fuhrich

Statt selbst Gegenstand der menschlichen Aufmerksamkeit zu sein, soll das „Internet der Dinge“ den Menschen bei seinen Tätigkeiten unmerklich unterstützen. Dabei bezeichnet das Internet of Things (IoT) die Verknüpfung eindeutig identifizierbarer physischer Objekte mit einer virtuellen Repräsentation in einer internetähnlichen Struktur.

Die automatische Identifikation mittels RFID wird oft als Grundlage für das Internet der Dinge angesehen. Allerdings kann eine eindeutige Identifikation von Objekten auch mittels anderer Identifikationsverfahren, wie Strichcode oder 2D-Code, erfolgen. Bauteile wie Sensoren und Aktoren erweitern die Funktionalität um die Erfassung von Zuständen bzw. die Ausführung von Aktionen.

Ziel des IoT ist die automatische Übertragung von Zustandsdaten realer Dinge in die virtuelle Welt, um dort weiterverarbeitet werden zu können. Solche Daten können beispielsweise Informationen über die aktuelle Nutzung, den Verbrauch, aber auch über besondere Umweltbedingungen am Ort des „Things“ sein. In einem IoT-Netzwerk kommunizieren auf diese Weise mehrere Dinge miteinander und sind in der Lage, sich gegenseitig Aufgaben zuzuweisen.

Wearables sind ein typisches Einsatzgebiet des IoT. Eine Smartwatch kann beispielsweise ihren Träger genau lokalisieren und diese Daten an die Heizung im Smart Home übermitteln. So kann sich diese automatisch ausschalten, falls das Haus verlassen wird, und sich einschalten, wenn man sich nähert.
In der Wirtschaft spielt das IoT vor allem im Zusammenhang mit der Industrie 4.0 eine wichtige Rolle. Dabei soll, nach Plänen der Bundesregierung, eine weitestgehend selbst­organisierte Produktion möglich werden: Menschen, Maschinen, Anlagen und Produkte kommunizieren und kooperieren direkt miteinander. Durch die Vernetzung soll es möglich werden, nicht mehr nur einen Produktionsschritt, sondern eine ganze Wertschöpfungskette zu optimieren. Das Netz soll zudem alle Phasen des Lebenszyklus des Produktes einschließen – von der Idee eines Produkts über die Entwicklung, Fertigung, Nutzung und Wartung bis hin zum Recycling. Durch die Aktionen, die auf Basis der Daten des eigenständigen Informationsaustauschs zwischen Produktionsmaschinen, Lagersystemen und Betriebsmitteln entstehen, ergeben sich diverse Vorteile: Produkte können effizienter hergestellt werden und die Produktqualität kann verbessert. Der Energieverbrauch kann optimiert werden, da die einzelnen Teilnehmer eines IoT-Netzwerks nur dann aktiv sind, wenn sie wirklich benötigt werden. Durch die Nutzung moderner Technologien wird der Arbeitsplatz auch für die Mitarbeiter attraktiver. Zudem können Produkte kundenindividueller hergestellt werden, wodurch die Kundenbindung verbessert wird.

Von entscheidender Bedeutung beim IoT ist das Thema Sicherheit. Schließlich können Hacker nicht nur Daten stehlen oder verändern, sondern auch die Steuerung der Dinge übernehmen. Das Gefahrenpotenzial etwa im E-Health-Bereich oder bei Steuerungssystemen eines Kraftwerks ist daher außerordentlich.

Digitalisierung als Treiber der Mission: Mitarbeiter

von Doris Albiez

Bereits zum dritten Mal innerhalb weniger Jahrzehnte verändert die IT nun unsere Arbeitswelt. Als Ende der 60er-Jahre zum ersten Mal IT-Systeme, sie hießen damals noch „EDV“, auf breiter Front eingeführt wurden, betraf das nur große Unternehmen. Der gewaltige Umbruch ist fast schon vergessen, und dass davor Banken die Konten noch weitgehend von Hand verwalteten, dass Einwohnermeldeämter mit riesigen Karteikästen arbeiteten, ist kaum noch vorstellbar. Die Arbeit in Banken, Versicherungen und Behörden veränderte sich, und der grün leuchtende Bildschirm eines Großrechner-Terminals wurde an vielen Arbeitsplätzen unverzichtbar. Damals verschwanden die „Kontoristen“ aus den Büros, neue Berufsbilder entstanden: „Programmierer“ oder – schon wieder fast vergessen – „Datentypistin“.

Ein zweiter Umbruch der Arbeitswelt erfolgte mit den Arbeitsplatzrechnern Anfang der 80er-Jahre. Jetzt übernahmen PCs viele manuelle Arbeitsprozesse in Unternehmen aller Größenordnungen bis zu Arztpraxen und Kanzleien. Wieder verschwanden ganze Berufsbilder – die Schreibkraft ebenso wie das hoch angesehene Handwerk des Schriftsetzers. Zugleich entstanden neue Berufe. Man konnte nun Netzwerkadministrator, EDV-Kaufmann oder Medizininformatiker werden. Doch die IT veränderte innerhalb weniger Jahre auch nahezu alle Berufe: Ob Ärzte, Buchhalter, Piloten, Musiker, Bäcker, Vertreter oder Designer, früher oder später bekamen es alle mit dem PC zu tun.

Derzeit stehen wir am Anfang einer dritten Umwälzung der Arbeitswelt durch IT-Technologien. Diesmal werden die Veränderungen noch tiefgreifender sein. Die Digitalisierung vernetzt intelligente Systeme umfassend und grenzenlos; der ständige Zugang zu Informationen aus aller Welt und eine universelle Kommunikationsfähigkeit revolutionieren sämtliche Arbeitsprozesse. Sie werden flexibler, weil sie nicht mehr an bestimmte Orte und Zeiten gebunden sind und die nötigen digitalen Ressourcen überall zur Verfügung stehen, sei es auf mobilen Geräten oder in der Cloud. Das hat natürlich erhebliche Auswirkungen auf die jeweiligen Arbeitsplätze und damit auf die Mitarbeiter, die dabei nicht auf der Strecke bleiben dürfen.

Arbeitsprozesse

Doch die aktuellen Veränderungen unterscheiden sich erheblich von den früheren. Der durch die Digitalisierung initiierte Wandel ist umfassender, weil er alle Branchen und alle Berufsgruppen betrifft: Banken und Versicherungen, Handel, Industrie, Medien oder Gesundheitswesen. Vor allem aber sind alle Ebenen betroffen: Intelligente Tools, vernetzte, selbstlernende Systeme oder „künstliche Intelligenz“ können Arbeitsprozesse auf breiter Front automatisieren und effizienter organisieren. Wurde zum Beispiel die ehemalige Schreibkraft weitgehend durch Angestellte mit Textverarbeitungssystemen ersetzt, so geht die Digitalisierung nun noch einen Schritt weiter: Sie automatisiert durch selbstlernende Systeme das Erstellen des Contents selbst. Software-Roboter schreiben dann beispielsweise Börsennachrichten.
Es werden also nicht mehr wie bisher nur Routinetätigkeiten automatisiert, sondern auch qualitativ hochwertigere Aufgaben von „Wissensarbeitern“, zum Beispiel von Lehrern, Bankangestellten oder Anwälten. Der Unterschied der Digitalisierung zu den früheren Phasen ist deutlich: Der Arzt nutzt nicht mehr nur eine Arzt-Software zu Verwaltung von Patientendaten, er wird bei der Diagnose von intelligenten Systemen unterstützt und in manchen Fällen können solche Systeme Aufgaben auch ganz übernehmen.

Arbeitsplätze

Diese Entwicklungen führen dazu, dass sich die Arbeitsplätze erheblich verändern. Wie der Arbeitsplatz der Zukunft genau aussieht, lässt sich heute noch kaum abschätzen, und die Mehrzahl der Berufe, in denen wir in fünf oder zehn Jahren arbeiten werden, sind heute noch gar nicht bekannt. Wissensmanager, Produktionstechnologe oder IoT-Planer könnten solche Berufe sein. Darauf müssen sich nicht nur die Arbeitnehmer selbst einstellen, sondern auch die Unternehmen; beide Seiten müssen hier umdenken und können nicht erwarten, dass sich bisheriges einfach fortschreiben lässt.

Zugleich schafft die Digitalisierung auch neue Modelle des Arbeitens. Herkömmliche Arbeitsstrukturen lösen sich langsam auf oder werden zurückgedrängt. Immer häufiger arbeiten Mitarbeiter in virtuellen Teams, die unabhängig von festen Orten für Projekte aus wechselnden Mitgliedern zusammengestellt werden. Fachkräfte arbeiten im Homeoffice, von unterwegs aus oder flexibel als Freelancer mal für dieses, mal für jenes Unternehmen.

Arbeitnehmer

Was für Mitarbeiter wirklich wichtig ist…

Arbeitsplätze sind aber nicht abstrakte Entitäten, sondern bedeuten immer auch Mitarbeiter. Sie sind von der Digitalisierung ganz persönlich massiv betroffen. Mühevoll erworbenes Wissen wird überflüssig, langjährige Erfahrung obsolet – neues Wissen ist verlangt und entsteht nicht von selbst. Der enorme Anpassungsaufwand bringt unvermeidlich auch Reibungen. Für den Erfolg der Digitalisierung wird es nicht zuletzt darauf ankommen, wie Unternehmen diese Anpassungen bewältigen. Sie müssen dem Mitarbeiter Anerkennung und Wertschätzung vermitteln. Vom Wissen, von der Kreativität, aber auch von der Motivation der Beschäftigten hängt ab, ob das alles tatsächlich so funktionieren wird, wie es sich die Strategen der Digitalisierung vorstellen. Unternehmen müssen daher eine „Mission Mitarbeiter“ starten und ihr Verhältnis zu Mitarbeitern neu definieren. So hat Dell im Plan 2020, in dem die Position des Unternehmens in Umwelt und Gesellschaft festgehalten wurde, den Mitarbeitern viel Raum eingeräumt und spezielle Förderprogramme aufgesetzt. Der Arbeitsplatz der Zukunft braucht ein attraktives Arbeitsumfeld, in dem die Teammitglieder ihr Potenzial entfalten und ihre persönlichen Ziele erreichen können.

Eines der bemerkenswertesten Resultate der aktuellen Studie zur „Future Workforce“, die Dell und Intel erstellt haben, ist der hohe Wert von 89 Prozent, der sich in Deutschland für die Zufriedenheit mit dem aktuellen Job ergab. Dieser außerordentliche Motivationsfaktor muss in den Umwälzungen der Digitalisierung erhalten bleiben. Ein motiviertes Team war immer schon ein Wettbewerbsvorteil – in der Digitalisierung ist es eine Voraussetzung, ohne die Unternehmen ein derart anspruchsvolles Konzept nicht realisieren können.

Future-Workforce-Studie

Ob und wie weit die Mitarbeiter für diesen Prozess bereit sind, ist für einen erfolgreichen Transformationsprozess entscheidend. Die Future-Workforce-Studie zeigt, dass die Mitarbeiter bei der künftigen Entwicklung der Arbeitswelt der Technologie eine wichtige Rolle zumessen: In Deutschland erwartet sich davon eine deutliche Mehrheit mehr Produktivität – soweit es sich um konkrete Anwendungen handelt: So erreichen schnelleres Internet (63%), moderne Geräte (63%) und besseres Messaging (51%) hohe Zustimmung, während die Möglichkeiten der Produktivitätssteigerung etwa durch künstliche Intelligenz (38%) weniger vorteilhaft gesehen werden. Von einer ablehnenden Haltung gegenüber neuen Technologien kann bei den Mitarbeitern jedenfalls keine Rede sein.
Die mit der Digitalisierung verbundene Neuorganisation der Arbeitswelt ist bei den Beschäftigten noch nicht durchgängig angekommen. Auf die Frage, wo sie am besten arbeiten können, nennt mehr als die Hälfte das traditionelle Büro, nur 14 Prozent nennen das Homeoffice und ebenso viele geteilte Arbeitsräume („Shared Office Space“).

Mitarbeiter bevorzugen den persönlichen Kontakt

Eine zentrale Rolle spielen für die Beschäftigten der Studie zufolge die sozialen Aspekte des Arbeitsumfelds: persönlicher Kontakt und direkter Austausch mit Kollegen ist wichtiger als die eingesetzte Technologie. Nicht zuletzt davon hängen die hohen Werte für die Zufriedenheit mit dem aktuellen Job ab, die wiederum eine Voraussetzung für Motivation und hohe Produktivität ist. Es wird in der digitalen Transformation wesentlich darauf ankommen, dieses Zufriedenheitsniveau der Mitarbeiter auch über die anstehenden Veränderungen hinweg zu erhalten und im Zuge einer „Mission Mitarbeiter“ ein attraktives und interessantes Arbeitsumfeld zu schaffen, in dem alle Teammitglieder ihr Potenzial entfalten können.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Doris Albiez

New Work und Arbeiten 4.0

In Zeiten des Umbruchs werden die Weichen für die Zukunft gestellt.
Auch die der Arbeit.

von Christoph Berger

Die Digitalisierung verändert derzeit ganze Märkte und Branchen. Diese Transformation hat folglich auch Einfluss auf die Arbeit an sich und die Personalarbeit im Besonderen. Die Unternehmensstrukturen und Büroumgebungen verändern sich, die Grenzen zwischen Privat- und Berufsleben sind immer weniger eindeutig erkennbar. Das Zukunftsinstitut in Frankfurt hat den Megatrend „New Work“(1) ausgemacht.

Start-ups zeigen etablierten Unternehmen im Zeitalter der Digitalisierung und bei der Transformation von der Industrie- hin zur Wissensgesellschaft nicht nur, wie Geschäfts­prozesse effizienter gestaltet werden und Kunden komfortabler und schnel­ler an ihr Ziel kommen können -man denke hier zum Beispiel an die jungen Finanztech­nologieunternehmen die sogenannten FinTechs – sondern leben man­ches Mal auch vor, dass es ohne oder zumindest mit flachen Hierarchien funktio­niert. Dabei ist es wichtig, die Mitarbeiter auf dem Weg in die Zukunft mitzunehmen, ihnen Verantwortung zu geben und Eigeninitiati­ve zuzulassen.  Immer häufiger ist von agilen Strukturen die Rede. Das bedeutet, beweglich zu sein, intern und extern schnell auf sich verändernde Herausforderungen reagieren zu können. Die großen Unternehmen beginnen zu lernen und öffnen sich ihrerseits Schritt für Schritt den Neuerungen.

Welche Relevanz und welchen Einfluss das Thema Digitalisierung auf die Arbeit hat, wird auch durch das vom Bundesministerium für Arbeit und Soziales herausgegebene Weißbuch „Arbeiten 4.0“(2) deutlich. IT und Software mit Cloud-Technologie und künstlicher Intelligenz, Robotik und Sensorik einhergehend mit neuen Fertigungstechniken sowie die Vernetzung sind die drei Bereiche, die demnach mit ihrem Fortschritt und durch ihr Zusammenwirken eine neue Qualität der Digitalisierung vorantreiben. Mit der Publikation wird aber auch herausgestellt, dass eine tiefgehende Auseinandersetzung mit der Thematik in allen Teilen der Gesellschaft notwendig ist, um zum einen ihre Komplexität erfassen und bewerten zu können, zum anderen, um die Zukunft zu gestalten und Werte darüber festzulegen, wie wir in Zukunft arbeiten werden und wollen.

Denn vieles, was derzeit passiert, kann aus unterschiedlichsten Richtungen betrachtet werden. So schaffen die technischen Entwicklungen zwar viele neue Möglichkeiten – zum Beispiel neue Geschäftsmodelle mithilfe von Big Data –, die Folgen für den Menschen sind dabei aber nicht immer absehbar. Ein Beispiel: Mobile Endgeräte ermöglichen es zwar, von unterschiedlichsten Orten zu arbeiten, versprechen gleichzeitig aber auch eine ständige Erreichbarkeit. Letzteres erhöht den Druck auf die Mitarbeiter. Die Folge ist eine Zunahme psychischer Erkrankungen. Demgegenüber hat das Institut der deutschen Wirtschaft Köln (IW) in einer Studie herausgefunden, dass die Digitalisierung die Unternehmen familienfreundlicher machen kann – insofern sie richtig eingesetzt wird. (3) So arbeiten inzwischen rund 57 Prozent der Deutschen digital und mobil, jeder Fünfte nutzt mobile Endgeräte wie Smartphone oder Tablet beruflich sogar häufig. Laut den Ergebnissen sind mobil arbeitende Menschen prinzipiell eher in der Lage, Beruf und Familie miteinander zu verbinden, als dies nicht mobil arbeitende Mitarbeiter tun.

Es gilt also, eine Gratwanderung zu bewältigen und Lösungen zu finden, die für möglichst alle annehmbar sind, und so viele wie möglich mitnehmen – sowie die neuen Möglichkeiten zu nutzen.

Quellen:
(1)    Zukunftsinstitut GmbH: https://www.zukunftsinstitut.de/dossier/megatrend-new-work
(2)    Bundesministerium für Arbeit und Soziales, Abteilung Grundsatzfragen des Sozialstaats, der Arbeitswelt und der sozialen Marktwirtschaft (2016): Weißbuch Arbeiten 4.0, https://www.arbeitenviernull.de
(3)    Andrea Hammermann, Oliver Stettes (2016): Familienfreundliche Arbeitswelt im Zeichen der Digitalisierung, in: IW-Trends 4.2016, Institut der Deutschen Wirtschaft Köln.

Abteilung Produktion & Fertigung

Einfluss der Digitalisierung auf Produktion & Fertigung

von Andreas Fuhrich

Unter dem Begriff Industrie 4.0 subsumiert die Bundesregierung diverse technologische Trends wie Maschine-zu-Maschine-Kommunikation und das Internet der Dinge. Sie erwartet, dass die Organisation und Steuerung der gesamten Wertschöpfungskette über den kompletten Lebenszyklus hinweg sich durch den Einzug neuer Technologien verändern wird. Grundlage bildet dabei die  Verfügbarkeit aller notwendigen Informationen in Echtzeit, durch die Vernetzung aller beteiligten Instanzen. (1)

Der Trend geht dabei weg von standardisierten, hin zu individuellen, auf den Kunden zugeschnittenen, Produkten. Durch die Möglichkeiten des 3D-Drucks und sogenannter Smart Factories  kann der Endkunde jetzt selbst unmittelbar Einfluss auf die Fertigung des Produkts nehmen, etwa über eine einfach zu nutzende CAD-Software, welche ihm kostenlos zum download bereitgestellt wird.

Cyber-physische-Fertigungseinheiten kommunizieren über das Internet der Dinge in Echtzeit sowohl miteinander als auch mit der Fertigungsanlage. Auf diese Weise werden die miteinander vernetzten Produktionsbestandteile in die Lage versetzt jederzeit auf Veränderungen zu reagieren, ohne dass die Produktionskette hierfür unterbrochen werden muss. Individuelle Kundenwünsche können auf diese Weise kosteneffizient umgesetzt werden.

Die Struktur der Vernetzung kann jedoch auch über einzelne Fertigungsanlage hinaus erweitert werden, so dass ganze selbst organisierende, unternehmensübergreifende Wertschöpfungsnetzwerke entstehen. Diese Netzwerke lassen sich beispielsweise nach Kriterien wie Kosten, Verfügbarkeit oder Ressourcenverbrauch optimieren. Die Fähigkeit, die Datenmenge der Cyber-physischen-Systeme (BigData) effektiv zu analysieren und daraus Optimierungsschritte abzuleiten wird in diesem Zusammenhang immer wichtiger.  Aufgabenbereiche von traditionellen Produktionsmitarbeitern und Wissensarbeiter, wie z.B. Datenanalysten, werden weiter zusammen wachsen. Die Erfahrung der Produktionsmitarbeiter kann in Kombination mit Big Data dazu genutzt werden Produkte weiter zu entwickeln oder neue Produkte zu fertigen. Zusätzlich können selbstlernende Systeme die in der Wertschöpfungskette entstehenden Daten laufend analysieren und darauf aufbauend die Prozesse optimieren. Unwirtschaftliche Fertigungsschritte werden durch die Analysemöglichkeiten besser erkannt und immer häufiger aufgelöst bzw. durch externe Zulieferer ersetzt. Der Komplexitätsgrad eines Unternehmens wird weiter steigen und die Vernetzung von Unternehmen nimmt immer weiter zu. Auf Plattformen entstehen bereits branchenspezifische Eco-Systems mit sich ergänzenden Dienstleistungen unterschiedlicher Unternehmen. Die Fertigungstiefe innerhalb des Unternehmens nimmt ab, dafür steigt der Aufwand die Zulieferer zu steuern und zu kontrollieren.

Entscheidend  wird daher in Zukunft der Umgang  mit kurzzyklischen Schwankungen der Märkte sein,  die zum einen aus der steigenden internationalen Vernetzung  resultieren, aber auch aus der Anforderung immer nach Kundenauftrag zu arbeiten. Der wichtigste Erfolgsfaktor für Produktionsunternehmen wird durch Vernetzung und Echtzeitanalyse der Produktion die schnelle Reaktion auf Kundenanforderungen sein. (2)

Die zunehmende Automatisierung von Produktion und Fertigung sowie das Internet der Dinge bietet auch in puncto Nachhaltigkeit ein enormes Potential. Maschinen laufen nur dann, wenn sie wirklich benötigt werden, intelligente Heiz- und Kühlsysteme regulieren die Temperatur bei höchster Ressourcenseffizienz und mittels Bodensensoren kann jeder einzelne Fleck eines Feldes optimal gedüngt und bewässert werden, um nur einige Beispiele zu nennen.
Tipp: Durch die Ersparnis an Rohstoffen und Energiekosten können sich Ausgaben in solche Technologien schon nach kurzer Zeit amortisieren.

Trends

1. Predictive Maintenance
Hersteller von Fertigungsmaschine sind durch das Internet der Dinge in der Lage Predictive Maintenance (vorausschauende Instandhaltung) anzubieten.  Über Sensoren erfassen die Maschinen kontinuierlich eigene  Zustandsdaten und übertragen diese anschließend in die Cloud des Herstellers. Dort werden die verschiedenen Daten stetig analysiert um rechtzeitig Verschleißteile auszutauschen oder bei Auffälligkeiten und auf Störung hindeutenden Mustern entsprechende Maßnahmen zu ergreifen. Produktionsausfälle durch plötzliche Standzeiten und unvorhergesehene Ausfälle werden dadurch vermieden.

2. Farming 4.0
Durch die Digitalisierung, dem Internet der Dinge und dem Einsatz cyber-physischer Systeme, entstehen auch in der Landwirtschaft Möglichkeiten nahezu sämtliche Produktionsprozesse neu zu gestalten. IoT –Sensoren erfassen beispielsweise die Menge der gegebenen Milch so wie Daten über den Stoffwechsel. Aufbauend auf diesen Daten lässt sich der optimale Melkzeitpunkt für jedes Tier ermitteln. Außerdem werden dadurch auch Krankheiten früh erkannt.

3. Augmented Reality (AR)
Unter Augmented Reality versteht man die computergestützte Erweiterung der Realitätswahrnehmung. Vor allem visuelle AR-Devices werden immer häufiger in der Produktion eingesetzt.  Hier können beispielsweise AR-Brillen dem Träger wichtige Informationen zur Verfügung stellen, wie etwa millimetergenaue Positionsdaten für das nächste Einbauteil, oder auch eine Schritt-für-Schritt-Anleitung.

4. Individualisierung
Während früher Ingenieure aufwendig die Maschinensteuerung für unterschiedliche Produkte anpassen mussten, genügt mittlerweile eine einfachere Benutzeroberfläche. Ausgeklügelte Automatismen intelligenter Maschinen übernehmen dann autonom die Fertigung. Durch Smart Factories und 3D-Druck wird so sogar der Endkunde in die Lage versetzt selbst zum Produzenten zu werden. Kleinserien und Einzelstücke lassen sich kostengünstig herstellen. Individuelle Wünsche, z.B. im Oberflächendesign, lassen sich selbst kurzfristig noch ändern und realisieren, ohne dass dafür die Produktion heruntergefahren werden müsste.

5. Kollaborierende Roboter (Cobots)
Kollaborierende Industrieroboter entlasten in einem gemeinsamen Arbeitsprozess den Menschen und unterstützen ihn bei seiner Tätigkeit. Durch kognitive Systeme werden sie zudem in die Lage versetzt die Bedürfnisse der Mitarbeiter selbst zu erkennen und dementsprechend zu reagieren. So können sie beispielsweise schwere Gegenstände heben um die Montage zu erleichtern oder auch benötigte Ersatzteile und Werkzeuge beschaffen.

Quellen und Textlizenz:
(1) Platform Industrie 4.0: Umsetzungsstrategie Industrie 4.0 April 2015, Seite 8. URL https://www.bmwi.de/BMWi/Redaktion/PDF/I/industrie-40-verbaendeplattform-bericht,property=pdf,bereich=bmwi2012,sprache=de,rwb=true.pdf (Abgerufen 5. Dezember)
(2) Fallstudienarbeit „Einsatz von Big Data im Bereich Produktion“ von Stefan Schulte, Nicolai Schütte, 2015. URL https://winfwiki.wi-fom.de/index.php/Einsatz_von_Big_Data_im_Bereich_Produktion (Abgerufen: 5. Dezember 2016);

Lizenz: https://www.gnu.org/licenses/fdl-1.2

Abteilung Geschäftsleitung

Digitalisierung ist Chefsache. Unternehmen müssen sie als notwendigen Prozess begreifen und Geschäftsmodelle anpassen oder neu entwerfen.

von Bernhard Haselbauer

Zielgruppe:
Der nachfolgende Digital-Leitfaden richtet sich an Inhaber und Führungskräfte mittelständischer Unternehmen sowie an kleinere und mittlere Unternehmen (KMU). Unser Ziel ist es, Ihnen Möglichlichkeiten aufzuzeigen, um die „Digitale Transformation“ Schritt für Schritt zu meistern.

1. Digitalisierung von Geschäftsprozessen
Der Fokus liegt in diesem Kontext auf Steigerung der Effizienz und Margen sowie auf einer höheren Produktivität durch die Implementierung moderner Informationstechnologie und Software-Lösungen. Weitere Vorteile sind die Senkung von Kosten und eine Verbesserung der Leistungsfähigkeit Ihrer Unternehmung. Die Digitalisierung von Geschäftsprozessen führt in der Regel zu sogenannten „inkrementellen Innovationen“. Inkrementelle Innovation ist die stetige und schrittweise Verbesserung von bestehenden Produkten, Dienstleistungen sowie Geschäftsprozessen. Die Digitalisierung der betrieblichen Abläufe ist ein evolutionärer Prozess, mit dem Sie Wettbewerbsvorteile generieren können.

Vorteile von inkrementellen Innovationen:

  • Sicherung Ihrer Marktposition durch optimierte Produkte mit beständiger Qualität;
    schnelle Stärkung Ihrer Wettbewerbsposition;
  • positive Erfolge können in ein bis zwei Jahren realisiert werden;
  • schnelle Gewinne erzielen.

Tipp:
Entwickeln Sie die inkrementelle Optimierung Ihrer Geschäftsprozesse durch das Wissen und die Erfahrungen Ihrer Mitarbeiter sowie mit Kunden und Partnern.

Weiterführende Beiträge aus TREND REPORT zum Thema

Die Realität wird durch Business-Process-Mining in Echtzeit visualisiert. Das ganze Bild vor Augen, werden mögliche Schwachstellen einzelner Arbeitsschritte aufgedeckt, berichtet Bastian Nominacher. https://trendreport.de/geheimwaffe-fuer-mehr-effizienz/

 

Die Digitalisierung treibt die Wirtschaft voran und Aufsichtsräte müssen bei dieser Entwicklung mitziehen. Thomas Deutschmann spricht über die Vorbildfunktion des „digitalen Aufsichtsrats“. https://trendreport.de/keine-effizienz-im-aufsichtsrat-ohne-digitalisierung/

 

Wie eine konstante Vernetzung mit Innovatoren aus dem Silicon Valley gelingen kann, um digitale Transformationsprojekte zu beschleunigen und zu professionalisieren, wissen Dr. Ulrich Spandau und Jan Stenger. https://trendreport.de/siliconvalley/

 

 

2. Digitalisierung von Geschäftsmodellen
Die Digitalisierung von Geschäftsmodellen kann die Bereitschaft erfordern, sich auch selbst zu kannibalisieren. Denken Sie daran, bevor dies Wettbewerber oder meistens neue Marktteilnehmer tun. Sie sollten jedoch auch die Chancen für neue Geschäftsmodelle, die sich durch die Digitalisierung  ergeben, erkennen. Meist sind es nicht die etablierten Unternehmen, die disruptive Innovationen hervorbringen.
Bei der Digitalisierung von Geschäftsmodellen wandeln sich gewachsene Märkte innerhalb kurzer Zeit – und zwar in vielen Fällen radikal und damit disruptiv. Nur wer erkennt, dass digitale Transformation neben technologischem vor allem kulturellen Wandel bedeutet, wird seine Company erfolgreich in die digitale Zukunft führen.

So verbessern Sie Ihren digitalen Reifegrad:

  1. Seien Sie neugierig und machen Sie Digitalisierung zur Chefsache.
  2. Stellen Sie ein agil arbeitendes und denkendes Digitalisierungsteam für Ihr Unternehmen zusammen.
  3. Schreiben Sie eine neue Position für Ihren CDO aus („Chief Digital Officer“).
  4. Entwickeln Sie Ihre Digitalstrategie.
  5. Investieren Sie in die digitale Bildung Ihrer Mitarbeiter.
  6. Digitalisieren Sie Ihre Geschäftsgrundlage / Ihr Geschäftsmodel.
  7. Analysieren Sie alle verfügbaren Daten Ihres Unternehmen.
  8. Setzen Sie auf neue IT-Technologien.
  9. Planen und entwickeln Sie digitale Lösungen in enger Zusammenarbeit mit Ihren Kunden und Partnern.
  10. Beobachten Sie regelmäßig Hightech-Unternehmen und neue disruptiv agierende Marktteilnehmer mit ihren Geschäftsmodellen.
  11. Verbünden Sie sich mit Start-ups in Form von strategischen Allianzen.
  12. Beteiligen Sie sich an universitären Forschungsprojekten (Technologietransfer).
  13. Starten Sie die Einführung von agilen Strukturen und Mitarbeiterteams.

Erfolgsstrategien im digitalen Business

Studieren Sie die Erfolgsstrategien global agierender „Digital Leader“, um durch die Analyse der digitalen Geschäftspraktiken Ihr Geschäftsmodell zu optimieren.
Apple, Google, Facebook und Amazon sind die Leitbilder vieler Manager, wenn es darum geht, den digitalen Wandel zu gestalten. Aber nur ganz wenigen scheint es zu gelingen, den Erfolg dieser Giganten nachzubilden. Was machen Apple und Co. „richtig“?

Unserer Redaktion hat das Werk „Think new!“, das im Hanser Verlag (ISBN 978-3-446-44228-3) erschienen ist, sehr geholfen, um die Tricks und Kniffe international agierender Konzerne zu verstehen. Die Autoren haben 22 Erfolgsprinzipien ermittelt, auf denen der Erfolg dieser Unternehmen basiert. Das Buch stellt nun diese Prinzipien theoretisch fundiert und praxisorientiert dar. Viele Beispiele und konkrete Tipps erleichtern den Transfer in die eigene unternehmerische Praxis.

Der Autor Christian Hoffmeister ist geschäftsführender Gesellschafter der DCI Institute GmbH. Schwerpunkt seiner Tätigkeit ist die Beratung und Unterstützung von Unternehmen, die von Geschäftsmodell- und Technologie-Disruptionen betroffen sind.

Der Autor Yorck von Borcke ist Professor für Medienmanagement und leitet den Bachelor-Studiengang Mediamanagement sowie das Masterprogramm Mediamanagement & Entrepreneurship an der Hochschule Fresenius in Hamburg.

Führen im digitalen Zeitalter

Die Keywords der aktuellen Digitalisierungswelle sind allgegenwärtig. Big Data, Industrie 4.0, Künstliche Intelligenz, Soziale Netzwerke und Automatisierung. Sie verändern die Arbeitswelt nachhaltig und schnell. Erfordert die Digitalisierung einen neuen, einen anderen Führungsstil? Der Wandel ist beständig und ändert grundlegend bisherige Muster.

Beispiele für den kulturellen Wandel durch die Evolution der Digitalisierung

  • Wissensarbeiter können durch die Vernetzung weltweit lernen und ihre Arbeiten verrichten.
  • Mitarbeiter erwarten digitale Kompetenz vom Arbeitgeber.
  • Suchmaschinen und kognitive Algorithmen beeinflussen das Sozial- und Konsumverhalten.
  • Maschinen ersetzen zunehmend menschliche Leistungen und Arbeit.
  • Sharing ist en vogue und zieht sich durch viele Lebensbereiche.
  • Soziale Netzwerke bilden unser gesellschaftliches Umfeld ab.
  • Virtual Reality verändert die Berufswelt.
  • Künstliche Intelligenz und kognitive Systeme verändern den Arbeitsmarkt.
  • Neue Führungsmodelle und Denkansätze

Demokratische Strukturen und Partizipation:
Mitarbeiter brauchen den Überblick über die gesamte Wertschöpfungskette, die sogenannte Value-Chain, um innovativ und mit Eigenverantwortung  arbeiten zu können.
Motivieren und inspirieren:
Überreden und Anweisungen durch Coaching ersetzten, Führen ohne Weisungen und  Anordnungen, aber mit Vertrauen und Wertschätzung realisieren.
Agilität leben:
Die Digitalisierung erfordert eine schnelle und dynamische Anpassung an Veränderungen.
Disruption:
Inkrementelle Innovationen im  Kontext von Geschäftsprozessen reichen nicht mehr aus.  Neue Geschäftsmodelle radikal  andenken durch Umdenken.
Schnellere Time-to-Market:
Mit agilen Produktionsmethoden Lösungen und Produkte schneller auf den Markt bringen. Agiles Testen mit Kunden und Partner vorantreiben.

Neue und offene Fehlerkultur

Adaptieren Sie Denkweisen US-amerikanischer Konzerne  und schnuppern Sie die Aufbruchstimmung zum Beispiel aus dem Silicon Valley. Lernen Sie aus Misserfolgen und definieren Sie diese als Weg zum Ziel.

Nur das Ergebnis zählt
Gute Ergebnisse von Mitarbeitern, die das Unternehmen weiterbringen, können durchaus auch dezentral aus dem Homeoffice erbracht werden.

Silodenken abschaffen
Bahnbrechende Ideen und neue Geschäftsmodelle entstehen meistens abteilungsübergreifend durch den Austausch von Erfahrungen.

Feste Arbeitszeiten überdenken
Agile Projektteams in Konzernen arbeiten ohne feste Arbeitszeiten.

Inkrementelle Innovation vs. Disruption

Disruption
Das Prinzip der Disruption geht auf Clayton M. Christensen und seinen Fachaufsatz „Catching the wave“ (1995) zurück.
Disruptive Innovationen sind meist am unteren Ende des Marktes und in neuen Märkten zu finden. Die neuen Märkte entstehen für die etablierten Anbieter in der Regel unerwartet und sind für diese, besonders aufgrund ihres zunächst kleinen Volumens oder Kundensegmentes, uninteressant. Sie können im Zeitverlauf ein starkes Wachstum aufweisen und vorhandene Märkte bzw. Produkte und Dienstleistungen komplett oder teilweise verdrängen.
Disruptive Technologien sind etablierten Produkten anfangs meist unterlegen. Beispiele für disruptive Technologien sind die Flash-Technologie, Smartphones oder auch Uber und Mitfahrzentralen für Taxis.
(Quelle: Wikipedia)

Inkrementelle Innovation
Als inkrementelle Innovation wird die stetige, schrittweise und nachhaltige Verbesserung eines Produktes, eines Dienstes oder eines Geschäftsmodells bezeichnet.
In stabilen Märkten sichert diese durch feste Zuständigkeiten, klare Regeln und definierte Abläufe gekennzeichnete Form der Innovation den Unternehmen ihre Wettbewerbsposition. Bekannte Technologien oder auch Produkte, Dienstleistungen und Prozesse werden dabei weiterentwickelt, bleiben im Kern aber erhalten. Ähnlich einer Versionierung.
Inkrementelle Innovation setzt auf die vorhandenen Vertriebskanäle und wird aus der Kundenperspektive heraus als Neuauflage betrachtet. Eine inkrementelle Innovation folgt aus dem im Unternehmen vorhandenen Erfahrungsschatz. Es müssen keine Mitarbeiter neu eingestellt werden – neue Ideen kommen aber häufig nur von außen.