Beiträge

Künstliche Intelligenz

Selbstlernende Maschinen nutzen Big Data und Cloud-Computing,
um laufend die abhängigen Prozesse zu optimieren.

von Andreas Fuhrich

Ob künstliche Intelligenz, maschinelles Lernen oder Deep Learning, in der Praxis werden diese Begriffe häufig als Synonyme verwendet. Dabei besitzen die drei Begrifflichkeiten große Unterschiede in ihrer Bedeutung und stehen in einer strikten Hierarchie zueinander. Die künstliche Intelligenz ist der Oberbegriff für alle Methoden und Technologien, die ein intelligentes Verhalten vorweisen. Das maschinelle Lernen ist dabei ein Teilgebiet der KI, welches eine Vielzahl an (Lern-)Methoden basierend auf der mathematischen Optimierung und Statistik umfasst. Deep Learning wiederum ist ein spezieller Teilbereich des maschinellen Lernens, der versucht, die statistischen Korrelationen in den Daten durch künstliche neuronale Netze abzubilden.

All diese Technologien brauchen Daten als Rohstoff des Fortschritts. Durch die Entwicklung der Informationstechnologie und vor allem die zunehmende Vielfalt an (I)IoT-Devices sind diese in immer größeren Mengen verfügbar. Sie enthalten oft implizites Wissen, das, wenn es bekannt wäre, große wirtschaftliche oder wissenschaftliche Bedeutung hätte. Unter Data Mining versteht man die Suche nach potenziell nützlichem Wissen in großen Datenmengen – maschinelle Lernverfahren gehören zu den Schlüsseltechnologien innerhalb dieses Gebiets. Sie unterstützen den Data-Mining-Prozess vor allem beim Aufspüren neuer Muster und Gesetzmäßigkeiten.

„Künstliche Intelligenz hat in den letzten Jahren eine neue Reifephase erreicht und entwickelt sich als Basisinnovation zum Treiber der Digitalisierung und autonomer Systeme in allen Lebensbereichen“, schildert die am 15. November 2018 verabschiedete Strategie Künstliche Intelligenz die Ausgangssituation. Durch sie sollen „die vielfältigen Anwendungsmöglichkeiten von KI in allen Bereichen der Gesellschaft im Sinne eines spürbaren gesellschaftlichen Fortschritts und im Interesse der Bürgerinnen und Bürger gefördert werden“. Die Zeichen stehen auf Wachstum. Deutschland soll zum weltweit führenden Standort für künstliche Intelligenz werden und „AI made in Germany“ zum weltweit anerkannten Gütesiegel.(1) Da haben wir uns etwas vorgenommen.

Die Erwartungen an die Politik sind entsprechend hoch. Neben der Schaffung rechtlicher Rahmenbedingungen spielt auch die Förderung junger Unternehmen eine entscheidende Rolle. Oft stammen wegweisende Innovationen von Start-ups. Dafür bedarf es eines Umfelds, in dem Gründer ohne bürokratische Hürden ihre Unternehmen aufbauen können, gut ausgebildete Mitarbeiter finden und einfachen Zugang zum Markt erhalten.

Aber wie sieht es mit den Investitionen unseres Staates wirklich aus? Sicher ist, dass Deutschland mit seinen Fördergeldern für KI hinter China und den USA zurückbleibt. Drei Milliarden Euro will Deutschland bis 2025 investieren. Demgegenüber steht der chinesische Plan „Nächste Generationen der KI-Technologien“ mit Staatsfördermitteln von 150 Milliarden Dollar bis 2030.

Und auch zeitlich hinkt Deutschland hinterher. Während KI für uns alle noch Neuland ist, existiert der Plan der Volksrepublik bereits seit Juni 2017. Die USA profitieren beim KI-Wettlauf vor allem von spendablen Risikokapitalgebern, die allein 2017 ca. 10 Milliarden Dollar in die Technologie pumpten, sowie ihrem Ökosystem aus Tech-Giganten. Apple, Tesla, Microsoft, Google, Facebook und IBM sind die Big Player am Markt, was nicht zuletzt auch der Bekanntheitsgrad von Watson, Siri, Alexa, Cortana oder OK Google belegt.

Die digitalen Helfer fungieren dabei nicht nur im Alltag, sondern auch Unternehmen können ihr Potenzial nutzen. Der Umgang mit den Maschinen wird dabei immer natürlicher und auch die Identifikation einer Person anhand ihrer Stimme ist möglich. Doch noch sind wir in einer recht frühen Phase der Entwicklung und die Fähigkeiten der digitalen sind sehr begrenzt.

Wir haben es bei KI eben noch nicht mit echter Intelligenz zu tun, sondern mit Programmen, die auf Grundlage vorgegebener Algorithmen so etwas wie menschliche Intelligenz simulieren und deren Stärke darin besteht, große Datenmengen schnell verarbeiten zu können, und darin, z. B. Zusammenhänge zu erkennen. Die steigende Leistungsfähigkeit der Computersysteme ermöglicht nun aber schon neuronale Netze, die selber lernen und sich und ihre Methoden optimieren können – die KI lernt sozusagen gerade laufen.

Überblick Machine Learning

Welche klassischen Machine-Learning-Techniken und -Algorithmen gibt es?

  • Linear Classifiers (z. B. Support-Vector-Machines)

  • Clustering (z. B. K-Means, Tree-based)

  • Regression-Analysis Dimensionality-Reduction (z. B. PCA, tSNE)

  • Decision-Tree Learning Ensemble Learning (z. B. Randomforest, Gradient Boosting)

  • Instance-based Neural Networks (z. B. KNN)

  • Descriptive Statistics

Dies ist nur eine beispielhafte Auswahl ohne Anspruch auf Vollständigkeit.

Darüber hinaus sollten noch die nachfolgenden ML-Techniken erwähnt werden, die eher der KI zugeordnet werden:

  • Deep Learning Neural Networks (z. B. Feed Forward Neural Networks, CNNs, RNNs, GANs)

  • Reinforcement Learning

  • Transfer Learning

Zukünftig werden Maschinen immer kreativer. Wir bringen ihnen bei, autonome Entscheidungen zu treffen, und machen sie damit zu handelnden Subjekten. Die zunehmende Autonomisierung bringt auch ethische Fragen mit sich. Darf KI im Krieg verwendet werden? Wer trägt die Verantwortung, wenn autonome Systeme Schäden verursachen? Brauchen wir in Zukunft ein Gefängnis für Maschinen?

Noch können wir die Zukunft mitgestalten. „AI for Good“-Initiativen sind bestrebt, mittels KI Lösungen für globale Probleme zu finden. Sie soll vor allem helfen, die Nachhaltigkeitsziele im Zuge des Klimawandels zu erfüllen, aber auch im Gesundheitswesen oder bei humanitären Katastrophen sind Lösungen angestrebt.

(1) https://www.bmbf.de/files/Nationale_KI-Strategie.pdf (abgerufen am 05.04.19)

Testen, entwickeln, forschen

In praxisnahen „Forschungsfabriken“ können neue Verfahren getestet werden – unter anderem am KIT in Karlsruhe.

Die TREND-REPORT-Redaktion sprach mit Prof. Dr.-Ing. Jürgen Fleischer, Institutsleiter des wbk Instituts für Produktionstechnik des Karlsruher Instituts für Technologie (KIT), über die neue Karlsruher Forschungsfabrik und „Company on Campus“.

Herr Prof. Fleischer, mit welchen Themen und Aufgaben beschäftigt sich Ihr Forschungsbereich?

Mein Forschungsbereich beschäftigt sich mit Maschinen, Anlagen und Prozessautomatisierung. Die Kernkompetenzen dieses Bereichs liegen in der Entwicklung und Auslegung von intelligenten, ressourceneffizienten Komponenten für Maschinen und Anlagen sowie in der Gestaltung flexibler, automatisierter Prozessketten. Neben den wesentlichen Kriterien wie Stückzahl- und Variantenflexibilität rückt der Umgang mit neuen, aber unreifen Technologien, in den Anwendungsfeldern Elektromobilität oder Leichtbaufertigung, in den Vordergrund. Zur Etablierung des Produktionsstandorts Deutschland ist die Entwicklung von Maschinen und Methoden für eine schnelle Industrialisierung von neuen, innovativen Produktionstechnologien essenziell.

Welche Aufgaben hat die „Karlsruher Forschungsfabrik“ im Kontext der neuen Technologien?

Die zunehmen­de Individualisierung und hohe Variantenviel­falt von Produkten sowie die Forderung nach neuen und komplexen Fertigungsprozessen stellen eine große Herausforderung an die produ­zierenden Unternehmen. Ziel der Karlsruher Forschungsfabrik ist es, neue Produktionstechnologien durch die interdisziplinäre Zusammenarbeit des Maschinenbaus und der Informatik schnell in sichere und profitable industrielle Fertigungsprozesse umzusetzen. Hierbei spielt die „Strategie Künstliche Intelligenz“ der Bundesregierung sicherlich eine wichtige Rolle.

Am „Campus-Ost“ des KIT, in unmittelbarer Nähe zum Fraunhofer IOSB und dem Karlsruher Technologiepark, entsteht auf rund 4 500 m² die neue Forschungsfabrik.
Bild: Heinle, Wischer und Partner Freie Architekten GbR

Allerdings kann die KI nur einen effizienten Mehrwert generieren, wenn sie intelligent mit dem domänenspezifischen Wissen von Produktionsexperten kombiniert wird. Zusätzlich sind für die oben genannten Herausforderungen neuartige Produktionsanlagen mit automatisierten Lösungen notwendig, sodass individualisierte Produkte mit kleinen Stückzahlen rentabel und flexibel fertigbar sind. Zur Erreichung dieses Ziels haben wir eine starke Kooperation zwischen dem wbk Institut für Produktionstechnik des KIT und den Fraunhofer Instituten ICT und IOSB etabliert.

Wie sehen die Anwendungsfelder der Forschungsfabrik hier aus?

Neben dem technologischen Wandel in der Mobilität durch die Transformation zu alternativen Antrieben, neuen Fahrzeugkonzepten, Geschäftsmodellen und Digitalisierung steigt der Bedarf an individualisierten, hochwertigen und gleichzeitig schnell verfügbaren Mobilitätsprodukten. Dies stellt hohe Herausforderungen an geeignete Produktionsverfahren gerade in den Anwendungsfeldern Elektromobilität und an die hybride Leichtbaufertigung.

Mit neuen Produkten sehr viel früher als bisher auf den Zielmärkten präsent zu sein … Sie versuchen gerade die „Time to Market“ insbesondere für kleine und mittlere Unternehmen im Kontext der neuen Technologien und Geschäftsmodelle zu verkürzen – wie und welche Unternehmen können sich daran beteiligen?

Ziel ist die Unterstützung der produzierenden Unternehmen und des Maschinenbaus, neue Produktionsverfahren schneller als bisher zu industrialisieren. Daraus resultiert für die Unternehmen auch gleichzeitig ein Wettbewerbsvorteil, indem sie ihre Produkte schneller an den Markt bringen können. Für die Kooperation mit Unternehmen haben wir das Konzept „Company on Campus“ entwickelt. Hier ist das Ziel, dass die Unternehmen mit den Partnern der Forschungsfabrik unter einem Dach in einer langfristigen Kooperation in sogenannten „Innovation Centern“ zusammenarbeiten. Hierfür gibt es zusätzlich moderne Büroarbeitsplätze, Konferenz- und Kreativräume in direkter Nähe zur Forschungsfabrik.

Für die Kooperation mit Unternehmen haben wir das Konzept ‚Company on Campus‘ entwickelt. Hier ist das Ziel, dass die Unternehmen mit den Partnern der Forschungsfabrik unter einem Dach in einer langfristigen Kooperation in sogenannten ‚Innovation Centern‘ zusammenarbeiten.

Welche Möglichkeiten und Vorteile bietet Ihr „Company on Campus“ für Unternehmen?

Die Karlsruher Forschungsfabrik bietet eine Plattform für den engen Austausch von Forschungsinstituten und den Unternehmen zu konkreten Entwicklungsfragen. Der Vorteil ist die Nutzung der Synergien aus der innovativen Forschung und den langjährigen Kompetenzen der Unternehmen. Zusätzlich strahlt der Standort Karlsruhe eine hohe Anziehungskraft für junge, hoch qualifizierte Mitarbeiter aus, sodass Unternehmen und Forschung davon profitieren. Neben dem Zugang zu jungen „Talenten“ aus dem Hochschulumfeld bietet die Kooperation in der Karlsruher Forschungsfabrik Potenzial für die Entwicklung neuer, disruptiver Technologien. Diese sind essenziell für die Zukunftssicherung der Unternehmen und des Produktionsstandorts Deutschland. //


Kontakt zum Interviewpartner

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

5G: Steuerung ohne Latenz

Der 5G-Standard: Grundvoraussetzung für das Industrial IoT

von Kristina Kastner

Immer mehr, immer schneller: Jahrzehntelang wurden mit jedem neuen Mobilfunkstandard die Datenraten massiv erhöht. So auch diesmal, beim Wechsel von 4G zu 5G. Und doch ist diesmal etwas fundamental anders: Für das IoT sind exorbitante Geschwindigkeiten beim Up- und Download zwar interessant, wichtiger aber sind Zuverlässigkeit, niedrige Latenzen und eine gute Festkörperdurchdringung. Im Mittelpunkt der Standardisierungsbemühungen stehen bei 5G mehrere Milliarden Maschinen, Autos, Dinge, die in Echtzeit miteinander kommunizieren wollen.

Mobilfunknetze haben seit den 1980er-Jahren vor allem einen Zweck: Menschen zu verbinden. Zunächst diente das Netz ausschließlich zum Telefonieren, also der Sprachübertragung. Danach gab es ungefähr alle zehn Jahre einen Entwicklungssprung durch die Einführung eines neuen Mobilfunkstandards.

In den 1990er-Jahren kam mit der zweiten Generation (2G) die Textübertragung in Form der SMS hinzu. Internetfähig war kaum ein Mobilgerät. Und wenn doch, wurden mobile Daten über GPRS oder per Edge (E) mit maximal 220 kbit / s übertragen. Das reicht kaum für den Aufbau einer modernen Website.

Mit der dritten Generation (3G oder auch UMTS) begann der Siegeszug der Smartphones und das Internet wurde mobil – um mit der vierten Generation (4G oder auch LTE-Advanced) seine heutige Geschwindigkeit zu erreichen. In der Theorie sind heute Downloadgeschwindigkeiten von 1 000 Mbit / s möglich, in der Praxis sind es allerdings eher 50 Mbit / s. Das liegt zum Beispiel daran, dass zu viele Nutzer in einer Zelle eingewählt sind, oder daran, dass sich der Nutzer in einem geschlossenen Raum befindet und sich der Empfang dadurch deutlich verschlechtert.

Seit 1998 federführend bei der Standardisierungsarbeit ist 3GPP („3rd Generation Partnership Project“), eine weltweite Kooperation von Standardisierungsgremien. Ein Großteil aller Mobilfunknetzbetreiber, -hersteller und -regulierungsbehörden ist hier organisiert und erarbeitet technische Spezifikationen, die alle Aspekte der Mobilfunktechnik möglichst präzise beschreiben. So soll sichergestellt werden, dass die Mobilgeräte der Hersteller in den Mobilfunknetzen weltweit kompatibel sind.

„In der Fabrik der Gegenwart sind zahlreiche Prozesse automatisiert. Zudem werden heute bereits Maschinendaten gesammelt, analysiert und zur Optimierung von Abläufen genutzt.“

Soweit zur Geschichte der Mobilfunkstandards. Die Zukunft heißt 5G und wird für das Jahr 2020 erwartet. 5G verspricht nicht weniger als eine Revolution: Zum ersten Mal steht nicht die Kommunikation zwischen Menschen im Mittelpunkt der Weiterentwicklung, sondern die zwischen Dingen – das Internet of Things. Selbstverständlich wird auch in diesem Entwicklungsschritt das Mobilfunknetz bzw. das mobile Internet noch komfortabler für die menschlichen Anwender. Bis zu 10 Gb / s Downloadgeschwindigkeit und sogar 20 Gb / s im Upload sollen zukünftig laut 3GPP-Spezifikationen – in der Spitze – möglich sein. 5G richtet sich (zumindest in Europa) aber weniger an die Endverbraucher als vielmehr an die Industrie und die hat, über die hohen Bandbreiten hinaus, ganz andere Bedürfnisse.

Vernetzung in der Smart Factory

In der Fabrik der Gegenwart sind zahlreiche Prozesse automatisiert. Zudem werden heute bereits Maschinendaten gesammelt, analysiert und zur Optimierung von Abläufen genutzt. So kann mancherorts der Wartungsbedarf prognostiziert und vorausschauend eingeplant werden – Stillstände werden so vermieden. Um die dafür benötigten Daten zu sammeln, werden die Maschinen mit Sensoren ausgestattet, die in einem lokalen Netzwerk vernetzt sind und die Daten zu einer Plattform in einer Cloud schicken.

Die Fabrik der Zukunft, die Smart Factory, basiert auf solchen intelligenten Einheiten. Das bedeutet, die Zahl der vernetzten Dinge steigt: Dazu gehören etwa fahrerlose Transportfahrzeuge in der Logistik oder Transportbehälter, die ihre aktuelle Position und ihren Füllstand melden, aber auch Augmented-Reality-Brillen, die die Fabrikarbeiter durch komplexe Anwendungen und Arbeitsschritte führen.

Der große Unterschied zwischen heute und morgen: Heutige Vernetzungstechnologien sind größtenteils noch kabelgebunden. Hier kommen vor allem Ethernet- und Feldbus-Technologien zum Einsatz. Die Smart Factory aber muss kabellos funktionieren, denn nur so wird die benötigte Mobilität und Flexibilität möglich – also etwa das Tracken einer Lieferung in einer komplexen Logistikkette. Heutige Funkverbindungen genügen jedoch kaum den Ansprüchen der Smart Factory, insbesondere in Hinblick auf Zuverlässigkeit, Latenzen und die Möglichkeit, eine große Masse an Dingen miteinander – in Echtzeit – zu vernetzen.

Erste Schritte auf dem Weg zur Smart Factory sind heute schon möglich: So existieren bereits jetzt mit Narrowband-IoT und M2M-Kommunikation Technologien und Konzepte, die die Vernetzung zwischen Dingen bzw. Maschinen möglich machen. Narrowband-IoT ist als 3GPP-Standard Teil von „Long Term Evolution“ (LTE). Er funktioniert über simple Funkmodule, die per Plug & Play installiert werden und günstig in der Anschaffung und im Betrieb sind – und somit ideal für IoT-Anwendungen, die nur ab und zu kleine Datenmengen versenden. An Narrowband-IoT lässt sich bereits ablesen, was den 5G-Standard gegenüber seinen Vorgängern so besonders macht: Bei Industrieanwendungen wie dem IoT geht es nur selten um große Bandbreite und hohe Geschwindigkeiten. Vielmehr müssen kleine Datenmengen zuverlässig übertragen werden – auch in schwierigen Umgebungen und über große Distanzen.

Das Netzwerk in Scheiben schneiden

Die Herausforderung, die der 5G-Standard meistern muss, liegt auch und besonders in der Zahl der Geräte, die sich im mobilen Netz befinden. Laut einer Prognose des US-amerikanischen Marktforschungsunternehmens IDC werden im Jahr 2020 etwa 1,8 Milliarden Smartphones weltweit mobiles Internet nutzen – hinzu kommen bis zu 50 Milliarden vernetzte Fahrzeuge, Maschinen und sonstige Geräte, die miteinander, mit der Cloud und mit den Nutzern kommunizieren. Die Lösung liegt darin, das Netz zu entzerren, je nach Anforderung. Das geschieht durch das sogenannte Network-Slicing. Dabei bekommt jede Anwendung das Netz, das sie benötigt, indem das Netz virtuell in Abschnitte oder Sub-Netze mit eigens definierten Ressourcen- und Verfügbarkeits-Garantien unterteilt wird.

Im 5G-Netz werden neue Frequenzbereiche hinzugezogen, die bisher nicht genutzt wurden. Bisher findet der gesamte Mobilfunk im Bereich bis 6 GHz statt. Die Frequenzen darüber hinaus waren nicht nutzbar, da bislang die notwendigen Technologien fehlten. Die neuen, großen Übertragungsraten finden alle oberhalb von 6 GHz statt. Das bedeutet unter anderem, dass das Netz deutlich engmaschiger werden muss, als das bisher der Fall war. Hier werden die Mobilfunkbetreiber investieren müssen, in neue – und vor allem mehr – Antennen. Das Signal der IoT-Endgeräte dagegen muss Wände und andere Festkörper durchdringen können, da es in Gebäuden auch vom Kellergeschoss ins Erdgeschoss gelangen muss. Diese Festkörperdurchdringung ist besonders bei den niedrigen Frequenzen gegeben, außerdem wird in diesem Spektrum eine hohe Zuverlässigkeit erreicht. Für eine flächendeckende Abdeckung ist das 2,6-GHz-Spektrum prädestiniert.

Pro Quadratkilometer eine Million vernetzter Geräte

Das IoT stellt fünf große Anforderungen an das mobile Netz: Größtmögliche Netzabdeckung, robuste Übertragungen, maximale IT-Sicherheit, geringstmöglicher Stromverbrauch und minimale Kosten. IoT-Endgeräte verbrauchen durch die Einschränkungen bei der Datenrate und der Sendefrequenz sehr wenig Strom, sodass ein Batteriesatz zehn Jahre oder länger halten kann. Aufgrund der geringen benötigten Bandbreite lassen sich mehrere 10 000 IoT-Endpunkte (an denen die gesendeten Daten der vernetzten Geräte zusammenlaufen) mit einer Funkzelle versorgen. Das 5G-Netz wird für die Vernetzung von einer Million Geräte / Dinge pro Quadratkilometer ausgelegt sein.

„Die Herausforderung, die der 5G-Standard meistern muss, liegt auch und besonders in der Zahl der Geräte, die sich im mobilen Netz befinden.“

Ein weiterer Faktor, der für das IoT elementar ist, ist die niedrige Latenz. Der Zeitraum zwischen dem Auftreten eines Signals beim Sender und dem Eintreffen desselben beim Empfänger muss für Industrieanwendungen so kurz wie möglich sein, sodass etwa im Falle einer Störung im Produktionsablauf kein Domino-Effekt einsetzt und weitere Schäden nach sich zieht. Gleichzeitig dürfen die betreffenden Anwendungen praktisch keinerlei Ausfall verzeichnen. Im 4G-Netz liegt die Latenz bei 10 ms, sie soll auf 1 ms in 5G sinken.


Quelle: Begleitforschung Technologieprogramm PAiCE

Mitreden bei der Standardisierung

Die Arbeit am 5G-Mobilfunkstandard soll im Rahmen der 3GPP bis Ende 2019 abgeschlossen werden, sodass 2020 mit der Einführung begonnen werden kann. In den einzelnen Arbeitsgruppen sind auch Vertreter aus Forschung und Wirtschaft vertreten, unter anderem auch aus Deutschland. So auch mehrere Projektpartner des Forschungsprojektes IC4F aus dem Technologieprogramm PAiCE des Bundesministeriums für Wirtschaft und Energie (BMWi), das an robusten und echtzeitfähigen Kommunikationslösungen für die verarbeitende Industrie arbeitet. Sie konnten einige relevante Anwendungsfälle und Anforderungen an 5G im Kontext der Smart Factory in die 5G-Standardisierung einbringen. Diese wurden im Technical Report „Study on Communication for Automation in Vertical domains” berücksichtigt. Auf diese Weise können einzelne Branchen Einfluss darauf nehmen, dass ihre Interessen bei der Formulierung des 5G-Standards berücksichtigt werden.

„Die Arbeit am 5G-Mobilfunkstandard soll im Rahmen der 3GPP bis Ende 2019 abgeschlossen werden, sodass 2020 mit der Einführung begonnen werden kann.“

Der betreffende Technical Report deckt Anwendungsfälle aus wichtigen Bereichen wie Service-Robotik, Augmented Reality, Virtual Reality, Fertigungsautomatisierung, Prozesssteuerung und -überwachung, mobile Fernsteuerung und Fernwartung mit Sicherheitsfunktionen sowie massive funkbasierte Sensornetze ab. So konnte etwa festgelegt werden, dass mobile Robotiksysteme, die über ein 5G-Netz kommunizieren, in der Lage sein müssen, in Echtzeit miteinander zu kommunizieren und Kontrolldaten auszutauschen. Dies ist elementar für die kollisionsfreie Zusammenarbeit, da in der Fabrik der Zukunft bis zu hundert (potenziell bis zu 1 000) autonome mobile Robotiksysteme gleichzeitig zusammenarbeiten werden. Einer von vielen Schritten hin zu einem Industrial IoT. //


Autorenvita Kristina Kastner

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Plattformen im Field-Service

Digitalisierung des Remote Supports im industriellen Service

von Alina Kaspers und Martin Riedel

Hersteller von komplexen Maschinen und Anlagen sind gefordert, einen reibungslosen und meist weltweiten Service anzubieten. Damit die Funktion der Maschinen und Anlagen gewährleistet ist, ist es unabdingbar, geplant, aber auch reaktiv bei technischen Problemen vor Ort Wartungen durchzuführen.

Ist der Servicemitarbeiter vor Ort nicht in der Lage, die Maschine oder Anlage zu reparieren, ist der Austausch mit Experten in der Zentrale unbedingt notwendig. Denn für die Lösung des technischen Problems müssen relevante Informationen unmittelbar an den Einsatzort gebracht werden. Kann ein technisches Problem nicht unmittelbar gelöst werden, drohen, aufgrund von zusätzlichen Reisen und einer aufwendigen Kommunikation, hohe Kosten. Gleichzeitig sinkt die Verfügbarkeit der Maschine und Anlage, die sich signifikant negativ auf die Produktivität auswirkt und die Kundenzufriedenheit belastet. Ein effektiver und kosteneffizienter Service ist daher im globalen und wettbewerbsintensiven Marktumfeld von heute eine „Muss-Bedingung“ und ein enormer Wettbewerbsvorteil gegenüber der nationalen wie internationalen Konkurrenz.

Remote Support ist Kernprozess im industriellen Service, bisher aber analog

Der Remote Support bzw. die Unterstützung der Servicemitarbeiter vor Ort stellt für den Anlagen- und Maschinenbau einen besonders kritischen Prozess dar. Aufgrund der immer steigenden Komplexität der Maschinen und Anlagen ist ein Servicemitarbeiter oftmals nicht eigenständig in der Lage, das Problem vor Ort zu lösen. Dezidiertes Expertenwissen ist gefordert. Daher muss sich der Servicemitarbeiter in den meisten Fällen für die Problemlösung an einen Experten wenden, der oftmals weit entfernt vom Einsatzort sitzt. Die herkömmliche Kommunikation via E-Mail, Telefon und privates Messaging ist jedoch ineffizient, ermöglicht keinen unmittelbaren Austausch von Bildern und Dokumenten und keine direkte Sicht auf das Problem. Eine strukturierte Dokumentation der Fälle bleibt komplett aus, sodass das erarbeitete Expertenwissen verloren geht. Der Austausch über den herkömmlichen Weg führt daher oft zu Ernüchterung und keinem Ergebnis. Die Folge ist, dass Fälle nicht auf Anhieb gelöst werden können und kein Weg daran vorbeiführt, zusätzliche Mitarbeiter anreisen zu lassen, um das Problem zu lösen. Für den Service entstehen dadurch hohe Reisekosten und ein zeitintensiver Prozess, der mit einem hohen personellen Aufwand verbunden ist. Der Stillstand der Maschine oder Anlage sorgt währenddessen für einen Produktionsausfall, der mit zusätzlichen Kosten verbunden ist und für eine hohe Unzufriedenheit bei den Kunden sorgt.

Unterstützung eines Servicemitarbeiters aus der Zentrale über Augmented-Reality-Smartglasses

Digitalisierung des Remote-Support-Prozesses im industriellen Service

Als Anbieter von innovativen Softwarelösungen für den industriellen Service digitalisiert rise den kompletten Remote-Support-Prozess. Auf nur einer Softwareplattform können Nachrichten, Bilder, Videos und Dokumente in chronologischer Abfolge ausgetauscht werden, um Servicemitarbeitern alle relevanten Informationen zur Verfügung zu stellen und den Experten in der Zentrale das technische Problem zu veranschaulichen. Über eine Live-Zusammenarbeit mit zusätzlichen Augmented-Reality-Werkzeugen sind interaktive Videokonferenzen möglich. Anstatt ein Problem missverständlich über das Telefon zu erklären, erhält ein Experte dadurch den wertvollen Blick auf das Geschehen vor Ort und kann den Servicemitarbeiter wirksam instruieren. Das ausgetauschte Expertenwissen kann unmittelbar in rise dokumentiert und strukturiert abgelegt werden, um eine Wissensdatenbank aufzubauen. Diese ermöglicht dem Servicemitarbeiter, bei zukünftig ähnlichen Fällen im Archiv eine Problemlösung zu finden. Dies spart Bearbeitungszeit und minimiert die Anfragen an die Serviceexperten.

Als innovative Softwareplattform kann rise auf allen Endgeräten eingesetzt werden, von Desktop-PCs mit eigenem Programm über Tablets, Smartphones sowie auf Augmented-Reality-Smartglasses. Mithilfe der Smart­glasses (Datenbrillen) ist ein vollständiges Arbeiten mit freien Händen möglich. Dadurch ist für höchste Produktivität und effektivste Unterstützung gesorgt. Anhand einer eingebauten Kamera wird das exakte Sichtfeld des Servicemitarbeiters an den Experten in der Zentrale übertragen. Über Annotationen im Livebild, Bildbearbeitung oder das Teilen von dritten Bildschirminhalten, z. B. von Schaltplänen, kann der Experte intuitiv unterstützen, als ob er vor Ort wäre.

rise lässt sich einfach in bestehende Softwaresysteme integrieren

Remote Support ist ein wesentlicher Prozess­schritt im industriellen Service, der bisher kaum über dezidierte Softwarelösungen abgebildet wurde. Mit zunehmendem Digitalisierungsgrad werden jedoch diverse Prozesse integriert und ineinandergreifende Systeme eingesetzt. Ausgangspunkt für die digitale Servicedienstleistung ist meist ein Ticket- oder CRM-System, in dem maschinen- bzw. kundenbezogen alle relevanten Informationen hinterlegt werden. Geht ein Fall ein, so kann im Ticketsystem direkt ein neuer Fall erstellt werden, in dem die Stammdaten hinterlegt sind. Der Fall wird daraufhin in rise bearbeitet und dokumentiert. Die fertige Dokumentation wird anschließend automatisch an das Ticketsystem weitergeleitet, um alle Aktivitäten zentral zu hinterlegen. Durch die Vielzahl an Daten kann wiederum die Servicedienstleistung verbessert werden, z. B. durch die Wissensdatenbank, Analysen zur Optimierung der Serviceorganisation oder die Etablierung neuer Geschäftsmodelle.

Der Digitale Customer Support

Mithilfe von rise lassen sich nicht nur interne Kosten sparen, sondern auch neue Geschäftsmodelle anbieten. Durch den digitalen Support durch Experten kann der Kunde deutlich einfacher und kosteneffizienter unterstützt werden, wodurch sich neue und margenstarke Einnahmequellen im Service auftun. Gleichzeitig erhält der Kunde einen effektiveren Support bei minimaler Reaktionszeit, um die Verfügbarkeit seiner Maschinen und Anlagen zu erhöhen. Neben zusätzlichen Serviceumsätzen ermöglicht solch ein Modell auch, die Auslastung der internen Servicemitarbeiter zu reduzieren, Mitarbeiter die in Zeiten des Fachkräftemangels ohnehin knapp sind.

„Evolutionsstufen“ des Remote Supports

Der digitale Experte

Die Digitalisierung des industriellen Service schreitet mit großen Schritten voran, auch wenn der bisherige Fokus eher auf CRM und Ticketsystemen lag. Mit der Verfügbarkeit von mobilem Internet, leistungsstarken Smartphones, Smartglasses und der notwendigen Softwaretechnologie lassen sich immer weitere kritische Serviceprozesse – insbesondere der Remote Support – digitalisieren. Die Unterstützung per Augmented-Reality-Smartglasses ist jedoch nur eine weitere Evolutionsstufe.

Vorteile der rise-Plattform
  • Reduzierung von Service- und Reisekosten
  • Wegfall von Wartezeiten auf Servicemitarbeiter
  • Erhöhung der Maschinen- und Anlagenverfügbarkeit
  • Aufbau einer Wissensdatenbank
  • Zugriff auf Expertenwissen von überall
  • Geringere Prozesszeiten
  • Steigerung der Serviceerlöse

In Zukunft wird das notwendige technische Wissen automatisiert bereitgestellt, künstliche Intelligenz und Machine Learning machen dies möglich. Ein Servicefall wird dann wie folgt aussehen: Smartglasses aufsetzen, Maschine über die Serialnummer per Scan identifizieren, Vorschläge mit Detailanleitung für das mögliche Problem erhalten, per interaktiver Anleitung in der Brille das Problem lösen. rise wird damit von der Remote-Support-Plattform zum digitalen Experten.

Fazit

Mit rise lässt sich ein kritischer Serviceprozess in der Industrie digitalisieren. Neben einer deutlich effektiveren Zusammenarbeit im Vergleich zu Telefon, E-Mail und Co. wird erstmals auch eine lückenlose Dokumentation und Archivierung des so wichtigen Expertenwissens möglich. Effektiver Support aus der Ferne bietet neue Chancen, wie beispielsweise die Unterstützung des Kunden und den Aufbau neuer Servicedienstleistungen. Der digitale Experte, der automatisierten Support über die intelligente Brille bietet, ist keine allzu ferne Vision mehr. Bei der zunehmenden Komplexität von Maschinen und Anlagen und bei gleichzeitig hohem Wettbewerbsdruck im internationalen Marktumfeld ist der digitale Remote Support ein entscheidender Bestandteil der Servicestrategie. //

Anwendungsfall Strautmann Umwelttechnik GmbH

Die Strautmann Umwelttechnik GmbH, ein führender Anbieter von Recycling-Maschinen in der Entsorgungslogistik, hat ihren Remote-Support-Prozess erfolgreich digitalisiert. Gibt es technische Probleme bei einer ihrer Maschinen, die oft bei Einzelhandelsketten zum Einsatz kommen, so stockt die Logistikkette zur Verarbeitung und zum Abtransport der recycelten Materialien. Eine schnelle und effektive Unterstützung der Servicemitarbeiter ist daher von hoher Bedeutung. Die bisherige E-Mail-Kommunikation im Service wurde durch rise digitalisiert. Nachrichten, Bilder, Dokumente und Videos werden auf diese Weise deutlich schneller ausgetauscht. Benötigen weitere Personen aus Entwicklung und Qualität Zugriff auf die Informationen, werden die Kollegen einfach zum jeweiligen Fall eingeladen. Eine aufwendige Weiterleitung von Informationen entfällt. Benötigt ein Servicemitarbeiter oder ein Händler im Ausland Unterstützung bei der Lösung eines technischen Problems, wird per Live-Videokonferenz unterstützt. Dadurch konnten in den vergangenen Monaten mehrere zeit- und kostenintensive Reisen insbesondere ins Ausland eingespart werden. Alle Fälle werden nach Lösung des technischen Problems dokumentiert und im Archiv abgelegt. Das Archiv mit mittlerweile mehreren Hundert Fällen dient als Wissensdatenbank, um zukünftige Fälle an Hand vorhandener Lösungsbeschreibungen zu lösen.


Über die Autoren:

Namensnennung-Keine Bearbeitung 3.0 Deutschland (CC BY-ND 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Datenbasierte Geschäftsmodellinnovationen

Das IoT wird zum KI-Datenlieferanten: Durch die Algorithmen des maschinellen Lernens entstehen so neue Produkte, Prozesse und Services.

Im Interview mit der TREND-REPORT-Redaktion sprach Prof. Dr. Dr. Schildhauer, Principal Investigator am Weizenbaum-Institut für die vernetzte Gesellschaft, über das Veränderungspotenzial der mit dem IoT einhergehenden Datenmenge (Big Data).

Herr Prof. Schildhauer, inwieweit verändert die KI/AI (Künstliche Intelligenz/Artificial Intelligence) datenbasierte Geschäftsmodelle?
Es entstehen durch weiterentwickelte Algorithmen Chancen, bspw. durch maschinelles Lernen, Systeme zu entwickeln, die basierend auf großen Datenkontingenten helfen, Prozesse, Strukturen und Arbeitsabläufe in Unternehmen zu optimieren und zu steuern. Mit dem Hype-Begriff „Künstliche Intelligenz“ gehe ich in diesem Kontext noch sehr vorsichtig um. Aber sichtbar ist, dass neben maschinellem Lernen weitere Technologien wie Cloud Computing, IoT oder Additive Manufacturing ein wichtiger technischer Enabler für datenbasierte Geschäftsmodelle sind. So entwickeln sich in Deutschland in diesem Zusammenhang neue technologiebasierte Start-ups z. B. in den Sektoren Handel, Logistik, Gesundheit oder Mobilität.

Start-ups, aber auch etablierte Unternehmen entwickeln auf Basis großer Datensammlungen und entsprechender Algorithmen neue Geschäftsmodelle, die beispielsweise Vorhersagen auf künftige Bedarfe oder Nutzerverhalten analysieren und vorhersagen – Predictive Analytics. Insbesondere vollzieht sich der Wandel bei etablierten Unternehmen dort, wo zumeist auf der Ebene unternehmensinterner Prozessoptimierungen Potenziale aus der Analyse großer Datenmengen geschöpft werden. Dies kann im Versicherungsbereich (bspw. Vorhersage über Schadenrisiken aus Daten der Vergangenheit und aktuellen Wetter- und Verhaltensdaten) ebenso wie in Produktionsunternehmen (Predictive Maintenance) zur Anwendung kommen. Ob und wie sich aus diesen Innovationen tragfähige datenbasierte Geschäftsmodelle entwickeln, untersucht die Forschungsgruppe „Datenbasierte Geschäftsmodellinnovation“ am Weizenbaum-Institut für die vernetzte Gesellschaft – Das deutsche Internet-Institut.

Welche Innovationen werden mit diesen neuen Technologien möglich?
Das Innovationspotenzial erstreckt sich über die gesamte Wertschöpfungskette in Unternehmen und führt zu neuen Prozessen, Produkten, Services und Geschäftsmodellen in vielen unterschiedlichen Sektoren. Neben den bereits beschriebenen Beispielen aus Dienstleistungs- und Produktionsbranchen wird die Echtzeitanalyse riesiger Datenbestände mittels Big-Data-Analytics heute auch in der Krebsdiagnostik genauso eingesetzt wie in der personalisierten Werbung. Große Potenziale entstehen auch im Bildungsbereich, diesen untersucht die Forschungsgruppe schwerpunktmäßig.

Der Einsatz von Augmented Reality führt z. B. in der Berufsbildung dazu, dass Auszubildende verstärkt praktische Fähigkeiten durch virtuelle Simulationen erlernen, was vor allem bei riskanten und teuren Arbeitsschritten ein wichtiges Innovationspozential darstellt. Neue digitale Bildungsplattformen verändern den Lehr- und Lernprozess und machen diesen erstmalig messbar. So hat z. B. eine führende Plattform für Online-Kurse im Aus- und Weiterbildungsbereich mittels maschinellen Lernens einen Algorithmus entwickelt, der Teamleiter*innen aufzeigt, welche Kompetenzen Mitarbeiter*innen fehlen und mit welchen offerierten Online-Kursen diese erworben werden können. Auch kann die Sammlung von Verlaufs-, Abbruch- und Abschlussdaten der Lernenden auf Lernplattformen dazu genutzt werden, die Lernsysteme in Echtzeit an das Verhalten der Lernenden anzupassen (Learning Analytics).

Wir gehen der Frage nach, wie durch die Veröffentlichung von Datensätzen neue Geschäftsmodelle im Mobility-Bereich oder in der Bildung entstehen können.

Inwieweit beschäftigen Sie sich in Ihrer Forschungsgruppe mit den Themen IoT und IIot im Kontext datenbasierter Geschäftsmodellinnovationen?
Wir betrachten IoT zwar als Schlüsseltechnologie, aber eben als eine von vielen, die datenbasierten Geschäftsmodellinnovationen zugrunde liegt. Neben diesen Schlüsseltechnologien stehen bei uns vor allem drei Themen im Vordergrund, die parallel erforscht werden. Den ersten inhaltlichen Schwerpunkt setzen wir im Bereich Open Data und gehen der Frage nach, wie durch die Veröffentlichung von Datensätzen neue Geschäftsmodelle im Mobility-Bereich oder in der Bildung entstehen können. Dabei fokussieren wir besonders die Themen Datenschutz, Datenqualität und Datensicherheit. Darüber hinaus untersuchen wir, wie digitale Bildungsplattformen und die dort implementierten Learning Analytics zu neuen datenbasierten Geschäftsmodellen im Bildungssektor führen können.

Zu guter Letzt wird auch die Prozess­ebene von Geschäftsmodellinnovationen erforscht, um mögliche Systematisierungen abzuleiten und Innovations-Tools für die Praxis zu entwickeln. Ein Anwendungsfall bezogen auf IIOT untersucht in diesem Zusammenhang folgende Fragestellung: Da durch zunehmende Machine-to-Machine(M2M)-Kommunikation die Anforderungen an Menschen, die Produktionsprozesse in IIOT-ausgerüsteten Produktionsstraßen steuern, stark anwachsen, müssen diese Menschen mit neuartigen Lernsystemen ausgestattet werden, die ihnen erlauben, situativ und individuell am Ort des (Produktions-)Geschehens die Lerneinheit abrufen zu können, die gerade benötigt wird, um bspw. Fehler, die in der neuen IIOT-gestützten Produktion auftreten, schnell beseitigen zu können. Über die Produktionsstandort-übergreifende Sammlung von Daten (Big Data) können für wiederkehrende Fragestellungen bereits im Vorfeld Lern­einheiten angelegt werden, die den Menschen vor Ort helfen.

Welchen Stellenwert nehmen das IoT und IIoT ein, wenn es um zukünftige datenbasierte Geschäftsmodelle geht?
Im Zusammenhang mit dem IoT und IloT rückt das Konzept des Ökosystems in den Vordergrund. Hier reden wir über mit Sensoren ausgestattete Endgeräte, die digitale Daten generieren und miteinander austauschen. Gegenstände und Prozesse, die zuvor keine Daten generiert haben, werden auf einmal zu Datenlieferanten. Damit ist die IoT-Technologie, wie auch die zuvor thematisierte KI, ein weiterer technischer Enabler für datenbasierte Geschäftsmodellinnovationen. Mit den neuen Datenkontingenten werden die bestehenden unternehmerischen Ressourcen angereichert und es entstehen neue Bedarfe für Analyse-Tools, die aus Rohdaten handlungsrelevantes Wissen generieren. Vielfach bewegen wir uns hier im Bereich der Optimierung, vor allem in B2B-Bereichen wie der Logistik. Aber auch im privaten Bereich ist das IoT bereits angekommen, in Form von Selftracking und Smarthome-Devices. Smartwatches und andere Wearables sind längst in unserer Gesellschaft etabliert – eingebettet in ein Ökosystem digitaler Dienstleistungen.

Wie können in Unternehmen durch Design Thinking innovative IoT-Ideen entstehen?
Ein Kernprinzip von Design Thinking ist immer seine Ergebnisoffenheit und die konsequente Fokussierung auf die Verwender/Nutzer. Das begünstigt zunächst innovative Ideen in allen Industrien, weil vor allem der Prozess im Vordergrund steht und nicht so sehr die einzelne Branche oder die ihr zugrunde liegende Technologie. Dies kann als Stärke und als Schwäche auslegt werden. Für uns ist deshalb die wirklich spannende Frage in diesem Zusammenhang, inwiefern sich die Design-Thinking-Methodik durch die Einbindung großer Datenmengen erweitern lässt, um die spezifischeren Anforderungen von neuen datenbasierten Geschäftsmodellen zu erfüllen. Diesbezüglich gibt es in Deutschland schon erste Vorreiter, die sich z. B. auf Data Thinking spezialisieren, und auch unsere Forschungsgruppe am Weizenbaum-Institut für die vernetzte Gesellschaft – Das Deutsche Internet-Institut beschäftigt sich mit dieser Frage.

Inwieweit können Ausgründungen etablierter Unternehmen neue unternehmerische Strukturen für die Entwicklung datenbasierter Geschäftsmodelle schaffen?
Eine Ausgründung bietet neuen Ideen Platz zum Reifen. Das ist immer dann sinnvoll, wenn innerhalb einer Organisation neue unternehmerische Ideen generiert werden, die im derzeitigen Kerngeschäft keinen Platz finden, es entstehen Spin-offs. Mit dieser organisatorischen und oft auch räumlichen Trennung werden Innovationen davor bewahrt, an der gängigen Branchenlogik und der Performance des operativen Geschäfts gemessen zu werden – also jenen Paradigmen, die eine disruptive Innovation ja gerade auf den Kopf zu stellen versucht. Oftmals gehen diese Initiativen auf die Arbeit der Abteilungen für Forschung und Entwicklung in etablierten Unternehmen zurück, die sich heute mehr denn je mit digitalen und datenbasierten Innovationspotenzialen beschäftigen.

Was können etablierte Unternehmen von Start-ups lernen?
Sie können von ihnen lernen, dass Wandel keine Bedrohung ist, sondern eine Chance. Start-ups sind sehr gut darin, das zu betreiben, was Joseph Schumpeter schon vor über 70 Jahren als schöpferische Zerstörung bezeichnete, und gezielt Lücken zu besetzen, die sich zwischen etablierten Unternehmen und ihren bisherigen Kunden aufgetan haben. Sie bleiben neugierig, probieren auch unkonventionelle Ideen aus und richten den Blick eher nach außen als nach innen. Auch sind sie bereit, Erkenntnisse aus dem Markt schnell zur Veränderung des ursprünglichen Geschäftsmodells zu nutzen. Natürlich darf dabei nicht vergessen werden, dass die viel zitierte Flexibilität und Anpassungsfähigkeit der Start-ups vielfach ihrer prekären Lage geschuldet ist, geprägt von einem Mangel an unternehmerischen Ressourcen und oftmals auch an unternehmerischer Erfahrung. Und trotzdem ist es immer wieder bemerkenswert, wie sie sehr oft erfolgreich aus dieser Not eine Tugend machen. //

Zur Person Prof. Dr. Dr. Thomas Schildhauer

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Das IoT wird zum KI-Datenlieferanten: Durch die Algorithmen des maschinellen Lernens entstehen so neue Produkte, Prozesse und Services.