Digitaler Arbeitsplatz

An Team-Collaboration führt kein Weg vorbei

von Dr. Bernd Wagner und Lutz Herrmann

Der Digital Workplace rückt Nutzer und deren Anforderungen in den Mittelpunkt. Einfacher Zugriff auf Daten, Applikationen und Dienste bildet die Basis für bestmögliche Kollaboration und neue, innovative Arbeitskonzepte. Damit realisiert der digitale Arbeitsplatz mobile Arbeitswelten, bei denen Teams über die ganze Welt verteilt sein und sich in virtuellen Konferenzräumen treffen und eng austauschen können.

Das ist nicht nur Zukunftsmusik, sondern ein Thema, mit dem sich viele Unternehmen konkret beschäftigen. Dies bestätigt eine von dem Digitalisierungsspezialisten Atos in Auftrag gegebene Umfrage von CIO WaterCooler unter 500 CIOs und CTOs: 73 Prozent gaben an, in den nächsten fünf Jahren Collaboration-Tools einführen zu wollen, 58 Prozent wollen künftig auf Lösungen für virtuelle Meetings setzen.

Collaboration-Plattformen: Kommunikation mit Überblick

Moderne digitale Geschäftsmodelle erfordern erweiterte Funktionalitäten. Telefonie, Messaging und Dateiaustausch müssen sowohl sicher als auch flexibel, effizient und geräteunabhängig sein – kurz: die Produktivität fördern, statt einzuschränken. Um dies zu erreichen, bedarf es der Vereinigung aller für die Kommunikation relevanten Funktionen in einer Anwendung, einer so genannten Collaboration-Plattform, sowie einer einfachen Anbindung an bestehende Kommunikationskanäle und Datenbanken. Plattformen wie Circuit vereinen die Funktionen einzelner Kommunikationstools wie Voice, Video, Screen-Sharing, Messaging und Filesharing auf einer intuitiven Nutzeroberfläche.

Lutz Herrmann

Mit einer solchen umfassenden Plattform kann der User beispielweise von einem beliebigen Endgerät aus an Telefonkonferenzen teilnehmen oder das Endgerät während einer laufenden Unterhaltung bei Bedarf wechseln, ohne die laufende Unterhaltung zu unterbrechen.

Die Anbieter entwickeln die Plattformen kontinuierlich weiter und passen sie an die sich verändernden Anforderungen an. Dabei geht es sowohl darum, bewährte Features zu verbessern als auch neue Funktionen zu ergänzen – insbesondere um Arbeitsabläufe und die Zusammenarbeit zu unterstützen. Beispielweise erfassen erweiterte Suchfunktionen nun die gesamte Kommunikation und steigern damit ihren Nutzen.

Moderne Team Collaboration: Mobilität und Flexibilität

Eine ganzheitliche UCC-Plattform stellt Mitarbeitern auf einer einzigen Oberfläche sämtliche Informationen zur Verfügung. Medienbrüche durch den Wechsel zwischen diversen Anwendungsfenstern gibt es nicht mehr, selbst das Tischtelefon am Schreibtisch sollte nahtlos integriert werden: Geht ein Anruf ein, entscheidet der Mitarbeiter selbst, ob er das Telefonat mit dem Tischtelefon, dem Handy oder via PC führen möchte.

Die ideale Applikation ist außerdem mobil: Den Nutzern sollte eine komplette Collaboration-Suite auf Smartphone, Tablet, Laptop oder Smart Watch zur Verfügung stehen. Über die Cloud werden alle Inhalte über alle Endgeräte synchronisiert, sodass Mitarbeiter stets auf dem aktuellen Stand bleiben und effizient zusammenarbeiten können.

Die UCC-Plattform Circuit berücksichtigt die Anforderungen an den digitalen Arbeitsplatz: Die Zusammenarbeit und Kommunikation innerhalb der Teams verläuft dynamisch über Instant-Messaging-Chats, in denen sich Nachrichten und Dateien austauschen lassen. Durch die Bündelung der gesamten Kommunikation in einem Kanal bleibt deren Verlauf für alle Nutzer nachvollziehbar und da es keine Medienbrüche mehr gibt, gewinnen bekannte Features wie die Suchfunktion an Nutzen und Effizienz.

Dieser ganzheitliche Kommunikationsansatz ermöglicht eine schnelle Integration neuer Teammitglieder sowie einen raschen Wiedereinstieg nach längerer Abwesenheit, wie dem wohlverdienten Sommerurlaub.

Ein typischer Tag im Leben eines Digitalen Arbeiters

  • Ein Projektmanager kann schon morgens beim Frühstück mit dem Tablet per sicherer Verbindung Nachrichten und Termine synchronisieren und Veränderungen in laufenden Projekten abfragen, bevor er sich auf den Weg ins Büro macht.

  • Unterwegs kann er via Smartphone bereits erste Telefonate tätigen und wichtige Dokumente per File-Sharing auch anderen Teammitgliedern zur Verfügung stellen. UCC-Tools ermöglichen eine mobile Teilnahme an Telefon- und Videokonferenzen. In seinem Büro angekommen, kann der Projektmanager die auf dem Smartphone begonnene Konferenz nahtlos auf seinem Desktop-PC weiterführen, inklusive Screen-Sharing auf dem größeren Bildschirm.

  • Eine häufige Herausforderung im Büroalltag – insbesondere für mobile Mitarbeiter: Man möchte Dokumente ausdrucken, aber der Drucker im Büro ist noch nicht installiert und eingerichtet. Der virtuelle Assistent AVA (Atos Virtual Assistant) von Atos schafft via Sprachsteuerung Abhilfe: Ein autorisierter Mitarbeiter sendet über Atos OneContact den entsprechenden Zugangscode, der den Zugriff auf den Drucker freigibt. Im Shop-Portal kann der Mitarbeiter weitere nützliche Tools wie PDF-Reader herunterladen, um seine Arbeit schnell und autonom zu erledigen.

  • Das Einrichten eines Laptops und das Einbinden der Hardware in Projektprozesse und Sicherheitsinfrastrukturen sind weitere Herausforderungen digitaler Mitarbeiter. Ein standardisierter Self-Service ermöglicht ihnen, in weniger als zehn Minuten einen personalisierten Laptop aufzusetzen, der automatisch sämtliche Security-Voraussetzungen und Unternehmenspolicies erfüllt.

Im Fokus steht die User Experience

Bei der Weiterentwicklung von Plattform-Features steht die „User Experience“ im Fokus: Anwender wollen zunehmend große Dateien teilen – Daher wurde beispielsweise die UCC-Plattform Circuit um Schnittstellen zu weit verbreiteten Filesharing-Diensten wie Syncplicity und Microsoft OneDrive ergänzt.

Personalisierungsmöglichkeiten für die Nutzeroberfläche stehen ebenfalls hoch im Kurs: Um die Organisation und Suche zu erleichtern, können Circuit-Nutzer Konversationen mit Labels versehen, abgeschlossene Konversationen archivieren oder via Meeting-Reminder ohne hektische Einwahldatensuche an einem Termin teilnehmen.

Wichtig für die Anwender ist zudem, dass gängiges Zubehör wie Headsets mit der Collaboration-Lösung kompatibel ist und mobile Apps für die gängigen mobilen Endgeräte zur Verfügung stehen. Die Verquickung mit Sprachassistenten wie Siri ist ebenfalls ein geschätztes „Add-on“: So können Nutzer Siri per Sprachbefehl „beauftragen“, Anrufe zu tätigen und Nachrichten zu versenden.

Auch Circuit ist über Audiokommentare steuerbar und verfügt über umfangreiche weitere Funktionalitäten, um Mitarbeiter mit Hör- und/oder Sehbehinderung im Arbeitsalltag zu unterstützen. In der Benutzeroberfläche lassen sich Kontrast und Helligkeit für eine optimale Lesbarkeit einstellen und auch Unterstützung von Screenreader-Software ist gewährleistet.

Dr. Bernd Wagner

Auch die Zusammenarbeit mit Kunden und Partnern wird durch moderne Kommunikationstools vertieft. Beratung, Support und Service lassen sich in vielen Fällen in Chat Rooms, telefonisch mit Visualisierung (Video und/oder Screenshare) oder über Social-Media-Kanäle genauso gut durchführen, als säße man im selben Raum. „Zero Distance“ heißt das Zauberwort – viele Leistungen können aus der Entfernung (remote) in derselben Qualität erbracht werden wie aus der Nähe.

Mit einfachen Plug-and-Play-Videosystemen können so auch kleinere Unternehmen schnell und unkompliziert eine weit spannende Konferenzinfrastruktur errichten – ohne ihre bisherige Hardware kostspielig umrüsten zu müssen. Diese raumbasierten Videosysteme sind damit auch besonders für Mitarbeiter geeignet, die regelmäßig aus dem Home Office heraus arbeiten.

Die Zukunft von UCC liegt in der Cloud

Cloud-basierte Lösungen wie Circuit werden mehr und mehr zum Standard – nicht nur aufgrund der ISDN-Abschaltung: Die hohe Skalierbarkeit schafft zusätzliche Zukunfts- und Planungssicherheit – gerade für Start-ups und den Mittelstand ein wichtiger Aspekt. Solche Lösungen erfordern außerdem keinerlei zusätzliche Hardware, beschleunigen damit Rollouts und minimieren Installations- und Administrationsaufwand auf Unternehmensseite. Die Plattform ist darüber hinaus auch mit VDI-Clients von VMware und Citrix kompatibel und wird damit zum Bestandteil dieser sicheren, zentralisierten Desktop-Management-Lösungen.

Durchdachte und ganzheitlich integrierte UCC-Applikationen sind die Basis für eine erfolgreiche und zukunftsgewandte Kommunikation und Zusammenarbeit von Teams im Zeitalter der Digitalisierung.


Kontakt zu den Autoren

Dr. Bernd Wagner

Lutz Herrmann

Namensnennung-Keine Bearbeitung 3.0 Deutschland (CC BY-ND 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Logistik braucht IT

Nichts bewegt sich ohne eine enge Verzahnung von Logistik und IT. In Zukunft wird der 3-D-Druck Dienstleistungen rund um die Logistik verändern.

Die Logistikbranche verändert sich umfassend. Technologien wie Schwarmintelligenz, Blockchain und das (I)IoT revolutionieren die Prozesse. Digitalisierte Produktionstechnologien und Logistiklösungen beeinflussen Geschäftsmodelle und verändern Marktstrukturen. Es entstehen in rasanter Geschwindigkeit spannende, völlig neue Perspektiven, Produkte und Anwendungen.

Unternehmen werden flexibler in ihren Beschaffungswegen, -zeiten und -quellen. Längst haben Roboter, fahrerlose Transportfahrzeuge und intelligente Regale Einzug in Forschung und Industrie gehalten. Zukünftig werden sich diese mittels Schwarmintelligenz immer häufiger selbst organisieren. Massiv aufgebaute und unflexible Stetigfördertechnik wird durch eine Vielzahl kleiner autonomer Fahrzeuge ersetzt und der Materialfluss so flexibilisiert. Die intelligenten und miteinander vernetzten Transportfahrzeuge führen Transporte von einem Hochregallager zu Arbeitsstationen aus. Dabei koordinieren sie sich selbstständig untereinander ohne jegliche zentrale Steuerung. Die Transportleistung des Gesamtsystems lässt sich an die Anzahl der Fahrzeuge anpassen.(1)

Die Prozesse der Distributionslogistik werden im Bereich der Routenplanung verbessert, was vor allem an einer verbesserten Kommunikationsmöglichkeit liegt. Das ermöglicht eine schnellere Zustellung der Lieferungen. Zusätzlicher Service wird dem Kunden durch Sendungsverfolgung geboten. In den kommenden Jahren werden sich Prozesse noch weiter verbessern, besonders in der Distributionslogistik. Autonom fahrende Lkws, Schiffe, Roboter und Drohnen werden die Zustellung, gerade auch auf der „letzten Meile“ zum Kunden, revolutionieren. Zustellungen innerhalb von einem Tag, also Same-Day-Delivery-Modelle, werden zum Standard. Operative Berufe wie Lagerarbeiter und Lkw-Fahrer drohen durch die zunehmende Automatisierung obsolet zu werden. Dass neue Arbeitsplätze im Bereich IT und Controlling entstehen, dürfte dabei für die meisten Paketzusteller nur ein schwacher Trost sein.

Papierlose Prozesse in der Distributionslogistik verspricht die Blockchain. In ihr hat jeder am Prozess Beteiligte stets Zugriff auf alle relevanten und dort in digitaler Form gespeicherten Dokumente. Änderungen und Löschungen werden transparent und fälschungssicher protokolliert. Die papierlose Form der Dokumentation vereinfacht nicht nur die Prozesse – der Versand einer Ladung Blumen aus Übersee kann bis zu 200 Papierdokumente von Dutzenden Lieferanten erzeugen(2) –, sondern auch Versandbetrug lässt sich auf diese Weise besser bekämpfen.

Unternehmen müssen sich also mit neuen Technologien auseinandersetzen und in sie investieren, um konkurrenzfähig zu bleiben. Ein völlig neuer Konkurrent für Logistiker ist z. B. der 3-D-Drucker. Denn wieso sollte man sich etwas liefern lassen, wenn man es sich auch zu Hause ausdrucken kann? Das geht schneller und ist womöglich sogar noch billiger. Zurzeit ist das Problem noch nicht so ernst zu nehmen, da die Möglichkeiten des 3-D-Drucks noch begrenzt sind.(3)


Quellen:
(1) Vgl.: https://www.iml.fraunhofer.de/de/unser-institut/forschungshallenlabore/zft-halle.html (abgerufen am 04.04.2019)
(2) Vgl.: https://www.heise.de/solutions/ibm-blockchain/wie-blockchains-fuer-mehr-vertrauen-in-der-lieferkette-sorgen-koennen/ (abgerufen am 04.04.2019)
(3) Vgl.: Logistik braucht IT, in: Handbuch Digitalisierung, hrsg. von ayway media, Bonn 2016, S.123. https://www.handbuch-digitalisierung.de/digital-lesen/#p=123

Handel mit Zukunft

Tiefere Datenanalyse, NLP und mehr Automatisierung
sind gefragter denn je.

von Frank Zscheile

Omni- oder Multichannel sind für den Handel keine neuen Trends mehr, sondern vielfach gelebte Realität. Welcher Kanal bedient wird, ist zweitrangig, es geht um das Erlebnis, bei dem sich „online“ und „offline“ zu smarten Services ergänzen. Grundlage dafür sind die dahinterliegenden Datenmengen. Sie lassen sich heute durch Analyseinstrumente, die mit künstlicher Intelligenz angereichert sind, immer besser hinsichtlich ihrer weiteren Verwendung im Business-Kontext auswerten.

Neue Algorithmen zur Textanalyse sind inzwischen sogar in der Lage, Stimmungslagen in Kundenschreiben selbstständig zu erkennen. Solche bislang verborgenen Informationen können Handelsunternehmen im Sinne des Geschäftsnutzens einsetzen. Wenn Kundendaten genauer analysiert werden, lassen sich die Ergebnisse als Grundlage für individuelle Kundenansprachen und digitales Marketing einsetzen. Dabei werden alle Kunden-Touchpoints mit relevanten, vom Kunden gewünschten Informationen bespielt – ideal für die Stärkung von Kundenbindung (Customer Loyalty).

Neue Algorithmen zur Textanalyse sind inzwischen sogar in der Lage, Stimmungslagen in Kundenschreiben selbstständig zu erkennen.

Treiber dieser Entwicklung sind die Forderungen der Verbraucher nach Echtzeitunterstützung, kontinuierlicher Unterhaltung sowie umfassender Konnektivität und Sicherheit. So wird Consumer IoT zum nächsten logischen Schritt der digitalen Evolution des Handels.

Automatisierte Service-Interaktionen

„Themen wie künstliche Intelligenz und Blockchain haben ihre Nische längst verlassen und sind zu gesellschaftsrelevanten Themen geworden“, weiß auch Matthias Wahl, Präsident des Bundesverbandes Digitale Wirtschaft (BVDW) e. V. Mit KI lassen sich gleichzeitig Geschäftsabläufe zwischen IT-Systemen des Handels automatisieren, Stichwort „Robotic Process Automation“. B2B-Marktplätze werden an ERP-, CRM- und weitere Backendsysteme und Datenbanken angebunden. Dies führt weiter zu automatisierten Service-Chatbots, bei denen sich die Beschäftigten im Service erst später oder im Bedarfsfall in die konkrete Kundenkommunikation einschalten.

Bekanntheit und Nutzung mobiler KI-Anwendungen

Gartner sagt voraus, dass 2021 15 Prozent aller Service-Interaktionen automatisiert sein werden. Künstliche Intelligenz wird dabei für eine zunehmend natürliche Art solcher sprachlichen Interfaces sorgen, was die Verbreitung wiederum verstärken wird. Wirkliche Dialoge sind es freilich nicht, die mit Chatbots ablaufen, sondern eher kurze Frage-Antwort-Sequenzen. Mit dem durch KI gewonnenen Wissen aus Datenbanken werden sich aber in absehbarer Zeit auch mehrstufige flexible Dialoge automatisieren lassen können. Dadurch erschließen sich neue Anwendungsfelder im Kundenservice, die mit einfachen Frage-Antwort-Systemen nicht adressiert werden können.

Unternehmen müssen „insight-driven“ werden

In seinem Report „The Forrester Wave™: AI-Based Text Analytics Platforms, Q2 2018“ beschreibt das Analystenhaus Forrester, wie sich durch den Einsatz künstlicher Intelligenz aus Daten zusätzliches Wissen gewinnen lässt. „Insight-driven“ müssten Unternehmen werden, fordert Forrester-Analyst Boris Evelson. Dabei geht es vor allem um das in unstrukturierten Daten enthaltene Wissen, welches in Unternehmen heute Schätzungen zufolge rund 80 Prozent ausmacht: E-Mails, PDFs, Archivsysteme, Videos, Tondokumente, Social-Media-Posts etc. Hierfür kommen Techniken der linguistischen und semantischen Analyse („Natural Language Processing – NLP“ oder Computerlinguistik) zum Einsatz.

Unter NLP versteht man die Fähigkeit eines Computerprogramms, menschliche Sprache so zu verstehen, wie sie gesprochen bzw. geschrieben wurde. Tiefergehende NLP-Systeme benutzen die Wortarten zur Extraktion vordefinierter Muster und extrahieren selbstständig bestimmte Kategorien von Begriffen, z. B. Personen- und Ortsnamen, Postleitzahlen, Nummernschilder.

Kundenkorrespondenz modern auswerten

Der eigentliche Prozess des Text-Minings und der Extraktion von Keywords, Themen und Konzepten liegt laut Forrester dabei nur bei rund einem Fünftel des Aufwands. Der weitaus größere Teil entfiele auf den Aufbau von Datenverbindungen, die Integration und Bereinigung der Daten sowie den Aufbau einer domänenspezifischen Ontologie und user­orientierter Oberflächen. Während die meisten Hersteller noch immer hauptsächlich Stimmungsanalysen anbieten, ermöglicht die Software von Clarabridge auch eine hoch differenzierte Emotions-, Anstrengungs- und Absichtsanalyse.

Loyalität aus Daten

Das Konzept von Clarabridge zeigt, wie wichtig es sein kann, das in unstrukturierten Daten verborgene Wissen zu heben. Die Customer Loyalty lässt sich dadurch deutlich festigen. Im Omnichannel ist hier ohnehin noch Luft nach oben, glaubt Michael Bregulla, Head of New Sales bei der Ingenico Marketing Solutions GmbH. Das Unternehmen entwickelt Programme zur Vertiefung der Kundenbeziehungen für alle Verkaufskanäle. „Bindungseffekte sollten im Wesentlichen aus dem Preisvorteil generiert werden, obwohl der eigentliche Wert in den aggregierten Daten des bis dato anonymen Kunden liegt“, so Bregulla. „Schon heute schlummern bei vielen Händlern riesige Datenpotenziale, die gar nicht wertbringend abgeschöpft werden. Die Digitalisierung offenbart jetzt die Chance für eine ganzheitlichere Erfassung des Kundenverhaltens.“

Bindungseffekte sollten im Wesentlichen aus dem Preisvorteil generiert werden, obwohl der eigentliche Wert in den aggregierten Daten des bis dato anonymen Kunden liegt.

Dazu bedürfe es einerseits Werkzeuge wie linguistischer und semantischer Analyse. Gleichfalls sei aber ein erweitertes Mindset bei Handelsunternehmen gefragt und die Bereitschaft, Dinge auszuprobieren und auch wieder zu verwerfen. So kristallisiert sich für Händler ein Gesamtbild der technisch-organisatorischen Rahmenbedingungen heraus, wie sich das Datenpotenzial von Customer-Loyalty-Programmen im Omnichannel zur personalisierten Kundenansprache und Steuerung des Kaufverhaltens nutzen lässt.

Voice Commerce und Audiovermarktung

Smart Speaker wie Amazon Alexa, Google Home, Telekom Magenta und Co. und die dahinterliegende Voice-Technologie haben in jüngster Zeit die nächste Welle losgetreten und den Zugang zu Audio-Content weiter vereinfacht. BVDW-Präsident Matthias Wahl: „Dadurch erhält Audio-Content einen deutlichen Schub, den Unternehmen für sich nutzen müssen.“ Das Medium Audio verändert sich damit grundlegend: Content wird interaktiv und wächst von einer One-Way-Communication zu einem Dialog-Umfeld.

Consumer IoT

Sprachgesteuerte Smart Speaker werden neben der reinen Audio-Content-Nutzung zu hohen Anteilen zur Informationsbeschaffung genutzt. Eine weitere Möglichkeit für Handelsunternehmen, ihre Kunden zu adressieren. Die technologische Basis dieser Produkte ist wiederum die Fähigkeit von Software, menschliche Sprache immer besser zu verstehen. Analog zu anderen Kommunikationskanälen benötigen Unternehmen deshalb eine eigene Voice- und Audiostrategie. Sie müssen eine Audio-Identity und eigenen Audio-Content entwickeln und mit ihren Marken, Produkten und Angeboten ihren Zielgruppen auf die neuen Geräte folgen. Wie dies praktisch umzusetzen ist, dafür gibt der BVDW auf seiner Webseite hilfreiche Hinweise.

Einkauf auf Zuruf

Fragt man die Smart Speaker heute nach einem bekannten Produkt wie Pampers, so wird in der Regel erstmal der Wikipedia-Eintrag vorgelesen. „Voice Search SEO muss noch deutlich gezielter als Desktop und Mobile betrieben werden, um Verkaufschancen über Voice zu steigern – auch weil die Chancen auf Sichtbarkeit deutlich geringer sind als am Desktop“, erklärt Frank Bachér von RMS.

So wird sich Voice Commerce über Skills entwickeln und neben Webshops und Apps der nächste Absatzkanal für den Handel werden, in dem Einkäufe auf Zuruf möglich werden. Vor allem im Bereich der FMCG („Fast Moving Consumer Goods“) dürfte dies einer der spannendsten neuen Trends sein. Damit dürften die smarten Lautsprecher künftig wohl ihrem Namen eher gerecht werden im Vergleich zu heute, wo sie hauptsächlich nur für einfache Aufgaben wie das Abspielen von Musik und die Wettervorhersage genutzt werden. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Drohnen und fahrerlose Transportfahrzeuge

Autonome Vehikel surren und schwirren durch die Lagerhallen der Zukunft.

Das „Innovationslabor Hybride Dienstleistungen in der Logistik“ ist ein Gemeinschaftsprojekt des Fraunhofer IML und der Technischen Universität Dortmund. In dem 570 Quadratmeter großen Forschungszentrum werden verschiedene Referenzsysteme eingesetzt, wie z. B. ein Laserprojektionssystem bestehend aus acht „Kvant“-Lasern. Das Leitliniensystem für Mensch und Roboter kann beispielsweise mit Laserpfeilen den Weg vorgeben. Ein optisches Referenzsystem, welches das größte seiner Art in Europa ist, ermöglicht zusätzlich durch 38 Hightech-Kameras die Echtzeitlokalisierung von Objekten und Menschen, die mit einem Marker ausgestattet sind. Damit können bis zu 100 Objekte gleichzeitig getrackt werden. Auf diese Weise lassen sich nicht nur am Boden befindliche Objekte tracken, sondern auch solche, die in der Luft sind – zum Beispiel Drohnen.

Drohnen, sogar ganze Schwärme, spielen dabei eine entscheidende Rolle. „Wir nutzen den Drohnenschwarm, um Algorithmen zu entwickeln, mit denen wir autonome Fahrzeuge und Maschinen untereinander und in Interaktion mit dem Menschen steuern“, erklärt Prof. Dr. Dr. h. c. Michael ten Hompel, geschäftsführender Institutsleiter des Fraunhofer IML. „Drohnen sind gut geeignet, da wir praktisch beliebige Szenarien im industriellen Maßstab dreidimensional und hochdynamisch abbilden können.“

Eine der autonom fliegenden Drohnen ist aus dem Forschungsprojekt „InventAIRy“ hervorgegangen. Sie ist in der Lage, durch ein Lager zu navigieren und logistische Objekte zu erfassen. Dadurch kann sie die Belegung der Stellplätze im Lager dokumentieren – Inventur auf Knopfdruck.

„Neben Drohnen kommen auch fahrerlose Transportfahrzeuge (FTF) zum Einsatz. Sie bewegen Waren automatisiert durch die Lagerhallen.“

Neben Drohnen kommen auch fahrerlose Transportfahrzeuge (FTF) zum Einsatz. Sie bewegen Waren automatisiert durch die Lagerhallen. Der Transportroboter TORU beispielsweise kann selbstständig durch das Lager navigieren und Picklisten abarbeiten. Dabei kann er Objekte aus einer Höhe von bis zu 1,75 Metern greifen und diese nach Beendigung des Auftrags zur Kommissionierstation bringen. Bei Zalando in Erfurt ist der von der Magazino GmbH entwickelte Roboter jetzt im Praxistest.

Abb. 1: Laserlicht leitet Transportroboter

EMILI (Ergonomischer, mobiler, interaktiver Ladungsträger für die Intralogistik) ist sogar das erste autonome FTF, das eine intuitive Kommunikation zwischen Mensch und Maschine ermöglicht. Sie lässt sich in Verbindung mit Wearables über Gesten, Sprache oder Smartphones, Tablets und AR-Brillen steuern. Über ein integriertes Display an ihrer Front kann sie sich den Menschen in ihrer Umgebung mitteilen: Lächelt ihr Gesicht, funktioniert sie einwandfrei und kann beladen werden. Hat sie einen eher unzufriedenen Gesichtsausdruck, ist etwas nicht in Ordnung. Wie ihr geholfen werden kann, erklärt sie selbst; zum Beispiel mithilfe eines Tablets, das eine Schritt-für-Schritt-Anleitung zur Fehlerbehebung anzeigt.

Abb. 2: Transportroboter EMILI teilt seinen Betriebszustand direkt auf einem Display mit.

Dabei ist ein Roboter wie EMILI nur ein erster Schritt beim Rennen um künstliche Intelligenz. „Ein Robotersystem wirklich intelligent zu machen“, bedeutet für ten Hompel, „dass das System mit seiner Umgebung kooperiert, die Umgebung wahrnimmt, mit anderen Robotern und dem Menschen kooperiert – und auf diese Weise lernt und sich weiterentwickelt“.

Sicherheit

Wollen Mensch und Maschine in Zukunft wirklich zusammen sicher kooperieren können, müssen zunächst sichere Rahmenbedingungen gewährleistet werden. Die beteiligten Teams des EU-Projekts „SafeLog“ entwickeln eine Systemlösung, die von vornherein Zusammenstöße zwischen Mensch und Maschine bei ihren Touren durch die Lagerhallen vermeiden soll. Dabei könnten künftig auch Roboter eingesetzt werden, die besonders schnell sind oder besonders schwere Lasten heben, ohne den Menschen zu gefährden. Ein speziell entwickeltes Flottenmanagementsystem verteilt Aufgaben für Mensch und Maschine so, dass ein Kreuzen der Wege minimiert wird. Zusätzlich schickt eine speziell entwickelte Warnweste für menschliche Mitarbeiter ein Signal an fahrerlose Transportfahrzeuge, die sich in der Nähe aufhalten. Diese drosseln dann ihr Tempo oder stoppen ganz – denn der Werker hat immer „Vorfahrt“. //


Quelle: Logistik entdecken #19 – Magazin des Fraunhofer-Instituts für Materialfluss und Logistik IML Dortmund

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Blockchain

Ein verteiltes Datenbankmanagementsystem schafft eine neue Form der Sicherheit und Transparenz für die digital vernetzte Welt.

Eine Blockchain ist eine kontinuierlich erweiterbare Liste von Datensätzen, „Blöcke“ genannt, die mittels kryptographischer Verfahren verkettet sind. Jeder Block enthält dabei einen kryptographisch sicheren Hash des vorhergehenden Blocks, einen Zeitstempel und Transaktionsdaten.
Durch die aufeinander aufbauende Speicherung von Daten in einer Blockchain können diese nicht nachträglich geändert werden, ohne die Integrität des Gesamtsystems zu beschädigen, wodurch die Manipulation von Daten erheblich erschwert wird.

Anwendungsmöglichkeiten entstehen nicht nur bei Kryptowährungen à la Bitcoin. Eine Blockchain ermöglicht beispielsweise auch die fälschungssichere Dokumentation einer Lieferkette und auch Notare oder Clearinghäuser werden als Intermediäre überflüssig. Im Prinzip lässt sich die Blockchain überall anwenden, wo Daten fälschungssicher protokolliert werden sollen.

Quelle: Background vector created by freepik – www.freepik.com

Zusätzlich lassen sich auch Computerbefehle in den Code der Blockchain integrieren und gerade im Zusammenhang mit dem (I)IoT entsteht ein enormes Automatisierungspotenzial. Bei einer Blockchain zur Lieferkettenprotokollierung könnte zum Beispiel ein im Container angebrachter Sensor die Temperatur von Lebensmitteln nicht nur messen und dokumentieren, sondern auch automatisch Alarm schlagen, sobald Grenzwerte überschritten werden. //

Eigenschaften einer Blockchain

  • Verkettungsprinzip: Eine Blockchain ist eine verkettete Folge von Datenblöcken, die über die Zeit weiter fortgeschrieben wird.

  • Dezentrale Speicherung: Eine Blockchain wird nicht zentral gespeichert, sondern als verteiltes Register geführt. Alle Beteiligten speichern eine eigene Kopie und schreiben diese fort.

  • Konsensmechanismus: Es muss sichergestellt werden, dass eine bei allen Beteiligten identische Kette entsteht. Hierfür müssen zuerst Vorschläge für neue Blöcke erarbeitet werden. Dies geschieht durch Validatoren (die bei Bitcoin „Miner“ genannt werden). Dann müssen sich die Beteiligten einigen, welcher vorgeschlagene Block tatsächlich in die Kette eingefügt wird. Dies erfolgt durch ein sogenanntes Konsens­protokoll, ein algorithmisches Verfahren zur Abstimmung.

  • Manipulationssicherheit: Durch kryptographische Verfahren wird sichergestellt, dass die Blockchain nicht nachträglich geändert werden kann. Die Kette der Blöcke ist somit unveränderbar, fälschungs- und manipulationssicher.

  • Transparenz / Vertraulichkeit: Die auf der Blockchain gespeicherten Daten sind von allen Beteiligten einsehbar. Sie sind deshalb aber nicht unbedingt auch für alle sinnvoll lesbar, denn Inhalte können verschlüsselt abgespeichert werden. Blockchains erlauben so eine flexible Ausgestaltung des Vertraulichkeitsgrads.

  • Nichtabstreitbarkeit: Durch die Nutzung digitaler Signaturen sind Informationen in der Blockchain speicherbar, die fälschungssicher nachweisen, dass Teilnehmende unabstreitbar bestimmte Daten hinterlegt haben, etwa Transaktionen angestoßen haben.


Quelle: Seite „Blockchain“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 13. März 2019, 23:41 UTC. URL: https://de.wikipedia.org/w/index.php?title=Blockchain&oldid=186562222 (Abgerufen: 8. April 2019, 09:11 UTC)

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Künstliche Intelligenz

Selbstlernende Maschinen nutzen Big Data und Cloud-Computing,
um laufend die abhängigen Prozesse zu optimieren.

von Andreas Fuhrich

Ob künstliche Intelligenz, maschinelles Lernen oder Deep Learning, in der Praxis werden diese Begriffe häufig als Synonyme verwendet. Dabei besitzen die drei Begrifflichkeiten große Unterschiede in ihrer Bedeutung und stehen in einer strikten Hierarchie zueinander. Die künstliche Intelligenz ist der Oberbegriff für alle Methoden und Technologien, die ein intelligentes Verhalten vorweisen. Das maschinelle Lernen ist dabei ein Teilgebiet der KI, welches eine Vielzahl an (Lern-)Methoden basierend auf der mathematischen Optimierung und Statistik umfasst. Deep Learning wiederum ist ein spezieller Teilbereich des maschinellen Lernens, der versucht, die statistischen Korrelationen in den Daten durch künstliche neuronale Netze abzubilden.

All diese Technologien brauchen Daten als Rohstoff des Fortschritts. Durch die Entwicklung der Informationstechnologie und vor allem die zunehmende Vielfalt an (I)IoT-Devices sind diese in immer größeren Mengen verfügbar. Sie enthalten oft implizites Wissen, das, wenn es bekannt wäre, große wirtschaftliche oder wissenschaftliche Bedeutung hätte. Unter Data Mining versteht man die Suche nach potenziell nützlichem Wissen in großen Datenmengen – maschinelle Lernverfahren gehören zu den Schlüsseltechnologien innerhalb dieses Gebiets. Sie unterstützen den Data-Mining-Prozess vor allem beim Aufspüren neuer Muster und Gesetzmäßigkeiten.

„Künstliche Intelligenz hat in den letzten Jahren eine neue Reifephase erreicht und entwickelt sich als Basisinnovation zum Treiber der Digitalisierung und autonomer Systeme in allen Lebensbereichen“, schildert die am 15. November 2018 verabschiedete Strategie Künstliche Intelligenz die Ausgangssituation. Durch sie sollen „die vielfältigen Anwendungsmöglichkeiten von KI in allen Bereichen der Gesellschaft im Sinne eines spürbaren gesellschaftlichen Fortschritts und im Interesse der Bürgerinnen und Bürger gefördert werden“. Die Zeichen stehen auf Wachstum. Deutschland soll zum weltweit führenden Standort für künstliche Intelligenz werden und „AI made in Germany“ zum weltweit anerkannten Gütesiegel.(1) Da haben wir uns etwas vorgenommen.

Die Erwartungen an die Politik sind entsprechend hoch. Neben der Schaffung rechtlicher Rahmenbedingungen spielt auch die Förderung junger Unternehmen eine entscheidende Rolle. Oft stammen wegweisende Innovationen von Start-ups. Dafür bedarf es eines Umfelds, in dem Gründer ohne bürokratische Hürden ihre Unternehmen aufbauen können, gut ausgebildete Mitarbeiter finden und einfachen Zugang zum Markt erhalten.

Aber wie sieht es mit den Investitionen unseres Staates wirklich aus? Sicher ist, dass Deutschland mit seinen Fördergeldern für KI hinter China und den USA zurückbleibt. Drei Milliarden Euro will Deutschland bis 2025 investieren. Demgegenüber steht der chinesische Plan „Nächste Generationen der KI-Technologien“ mit Staatsfördermitteln von 150 Milliarden Dollar bis 2030.

Und auch zeitlich hinkt Deutschland hinterher. Während KI für uns alle noch Neuland ist, existiert der Plan der Volksrepublik bereits seit Juni 2017. Die USA profitieren beim KI-Wettlauf vor allem von spendablen Risikokapitalgebern, die allein 2017 ca. 10 Milliarden Dollar in die Technologie pumpten, sowie ihrem Ökosystem aus Tech-Giganten. Apple, Tesla, Microsoft, Google, Facebook und IBM sind die Big Player am Markt, was nicht zuletzt auch der Bekanntheitsgrad von Watson, Siri, Alexa, Cortana oder OK Google belegt.

Die digitalen Helfer fungieren dabei nicht nur im Alltag, sondern auch Unternehmen können ihr Potenzial nutzen. Der Umgang mit den Maschinen wird dabei immer natürlicher und auch die Identifikation einer Person anhand ihrer Stimme ist möglich. Doch noch sind wir in einer recht frühen Phase der Entwicklung und die Fähigkeiten der digitalen sind sehr begrenzt.

Wir haben es bei KI eben noch nicht mit echter Intelligenz zu tun, sondern mit Programmen, die auf Grundlage vorgegebener Algorithmen so etwas wie menschliche Intelligenz simulieren und deren Stärke darin besteht, große Datenmengen schnell verarbeiten zu können, und darin, z. B. Zusammenhänge zu erkennen. Die steigende Leistungsfähigkeit der Computersysteme ermöglicht nun aber schon neuronale Netze, die selber lernen und sich und ihre Methoden optimieren können – die KI lernt sozusagen gerade laufen.

Überblick Machine Learning

Welche klassischen Machine-Learning-Techniken und -Algorithmen gibt es?

  • Linear Classifiers (z. B. Support-Vector-Machines)

  • Clustering (z. B. K-Means, Tree-based)

  • Regression-Analysis Dimensionality-Reduction (z. B. PCA, tSNE)

  • Decision-Tree Learning Ensemble Learning (z. B. Randomforest, Gradient Boosting)

  • Instance-based Neural Networks (z. B. KNN)

  • Descriptive Statistics

Dies ist nur eine beispielhafte Auswahl ohne Anspruch auf Vollständigkeit.

Darüber hinaus sollten noch die nachfolgenden ML-Techniken erwähnt werden, die eher der KI zugeordnet werden:

  • Deep Learning Neural Networks (z. B. Feed Forward Neural Networks, CNNs, RNNs, GANs)

  • Reinforcement Learning

  • Transfer Learning

Zukünftig werden Maschinen immer kreativer. Wir bringen ihnen bei, autonome Entscheidungen zu treffen, und machen sie damit zu handelnden Subjekten. Die zunehmende Autonomisierung bringt auch ethische Fragen mit sich. Darf KI im Krieg verwendet werden? Wer trägt die Verantwortung, wenn autonome Systeme Schäden verursachen? Brauchen wir in Zukunft ein Gefängnis für Maschinen?

Noch können wir die Zukunft mitgestalten. „AI for Good“-Initiativen sind bestrebt, mittels KI Lösungen für globale Probleme zu finden. Sie soll vor allem helfen, die Nachhaltigkeitsziele im Zuge des Klimawandels zu erfüllen, aber auch im Gesundheitswesen oder bei humanitären Katastrophen sind Lösungen angestrebt.

(1) https://www.bmbf.de/files/Nationale_KI-Strategie.pdf (abgerufen am 05.04.19)

Going Global

Mehr Wachstum durch die Erschließung neuer Märkte

Internationalisierung bietet Online-Händlern die Chance, ihre Umsätze zu steigern. Doch die Expansion ins Ausland ist mit Hürden verbunden, die zunächst gemeistert werden müssen.

Nicht jedes Land ist gleichermaßen als Expansionsziel geeignet. Generell ist es einfacher, sich zunächst in den Ländern auszubreiten, die sprachlich und kulturell wenig Unterschiede aufweisen und daher keine komplexere Anpassung des Online-Shops erfordern. Je nach feilgebotener Ware kann es natürlich gute Gründe geben, von dieser Regel abzuweichen, wie beispielsweise die Konkurrenzsituation und auch damit verbundene Unterschiede in der zu erwartenden Nachfrage.

Location-Intelligence-Dienste können helfen, den geeigneten Zielmarkt zu finden. Unter „Location Intelligence“ versteht man die Fähigkeit, Wissen anzuwenden, das durch den Zugriff auf Informationen und deren Analyse und Aufbereitung unter Berücksichtigung räumlicher Zusammenhänge entsteht. Sie beschreibt das Konzept, dass Organisationen mithilfe von Standortinformationen ihre Kunden, Bürger und Märkte besser verstehen und einen Wettbewerbsvorteil erzielen.(1)

Um die Prozesse und Systeme mit den Anforderungen der Zielländer in Einklang zu bringen, ist lokale Expertise immer von Vorteil, aber auch Software-Tools können hinsichtlich einer Compliance-Überprüfung hilfreich sein. Um Vertrauen im Zielland aufzubauen, ist es unerlässlich, alle rechtlichen Standards einzuhalten: Impressum, AGBs, Liefer-, Zahlungs- und Einfuhrbestimmungen sowie Kennzeichnungspflichten müssen berücksichtigt werden. Zudem lässt sich die Vertrauenswürdigkeit des eigenen Online-Shops im Ausland erhöhen, wenn er mit einem Gütesiegel zertifiziert wurde.

Die technische und die logistische Infrastruktur sind die Grundpfeiler des E-Commerce. IT-Infrastrukturen wie „Content Delivery Networks“ helfen Latenzen und Ausfallzeiten für den Web-Shop zu vermeiden. Natürlich sollte auch der Warenversand schnell, kostengünstig und nachvollziehbar sein. Digitale Lösungen wie Sendungsverfolgung oder Lieferung in den Kofferraum bieten zusätzlich Komfort und erhöhen damit das Kundenbindungspotenzial.

Achten Sie auch bei den Zahlungsmitteln darauf, dass Sie den Gepflogenheiten des Landes entsprechen. Während hierzulande noch viel auf Rechnung gekauft wird, führt in China kein Weg an Mobile-Payment-Plattformen wie WeChat Pay und Alipay vorbei.

Die Anpassung eines Online-Shops an die Zielländer ist maßgeblich für den Erfolg. Die Übersetzung steht dabei an erster Stelle, wobei insbesondere auch auf die richtigen Maßeinheiten zu achten ist. Generell sollten alle Marketingmaßnahmen und somit auch die Gestaltung der Seite und die auf der Startpage beworbene Produktauswahl an die Vorlieben im Zielland angepasst werden. Achten Sie auch bei Suchmaschinenoptimierungen auf landesspezifische Besonderheiten. Google dominiert zwar weltweit den Markt, spielt aber in China (Baidu) und Russland (Yandex) keine Rolle. Vergleichbares gilt natürlich auch bei der Nutzung sozialer Medien.

IT-Dienstleistungen


Gerade der IT-Dienstleistungssektor ist geprägt von internationalem Wettbewerb. Durch Cloud-Computing-Plattformen wie Amazon Web Services oder Microsoft Azure sind Dienstleistungsmarktplätze entstanden, worüber schlüsselfertige Softwarelösungen bezogen werden können. Buchbare Dienste reichen von Betriebssystemen über Cloud-Speicher bis hin zu AI, Blockchain oder IoT-Anwendungen. Wer hier seine eigenen Leistungen einstellt, ist mit einem Schlag international abrufbar.

Das im internationalen Vergleich extrem unterschiedliche Preisniveau macht ein IT-Offshoring besonders lukrativ. In Ländern wie Indien, den Philippinen, China, Thailand, Sri Lanka oder Mexiko sind IT-Dienstleistungen wesentlich günstiger. Dies betrifft nicht nur die Löhne, sondern auch die Miete, zudem bestehen teils steuerliche Vorteile. Wichtig dabei ist, auf die Datenschutzbestimmungen des eigenen Landes zu achten, da ein Verstoß kostspielige Konsequenzen mit sich bringt. Zusätzlich entsteht beim IT-Offshoring ein besonders hohes Risiko der Wirtschaftsspionage. Auch wenn keine sensiblen Firmendaten im Ausland verarbeitet werden, lässt sich durch den Datenaustausch besonders leicht Malware einschleusen. //


(1) Seite „Location Intelligence“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 13. September 2018, 18:34 UTC. URL: https://de.wikipedia.org/w/index.php?title=Location_Intelligence&oldid=180881672 (Abgerufen: 12. April 2019, 11:54 UTC)


Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Virtual & Augmented Reality

Augmented und Virtual Reality verschmelzen zur Mixed Reality.
Die Daten des IoT lumineszieren beim Gang durch die vernetzte Welt.

Computergenerierte interaktive Simulationen mittels kleiner Devices in unserem Leben eröffnen schier unendliche Potenziale an Möglichkeiten, um die Welt neu zu erfahren. Technologische Entwicklungen, die es uns jetzt schon erlauben, die Wirklichkeit zunehmend zu virtualisieren, sind vorhanden. Schon jetzt lässt sich erahnen, welche Änderungen auf uns zukommen. Die Art, wie wir miteinander interagieren und wie wir die vernetzte Welt mit ihren datenfunkenden IoT-Sensoren wahrnehmen, wird nicht mehr dieselbe sein.

Was ist Augmented Reality?

Unter „Augmented Reality“ (kurz AR), also erweiterte Realität, versteht man die computergestützte Erweiterung der Realitätswahrnehmung. Diese Informationen können alle menschlichen Sinnesmodalitäten ansprechen. Häufig wird jedoch unter erweiterter Realität nur die visuelle Darstellung von Informationen verstanden, also die Ergänzung von Bildern oder Videos mit computergenerierten Zusatzinformationen oder virtuellen Objekten mittels Einblendung/Überlagerung. Bei Fußball-Übertragungen ist erweiterte Realität beispielsweise das Einblenden von Entfernungen bei Freistößen mithilfe eines Kreises oder einer Linie. (Wikipedia – Erweiterte Realität)

Im „Realitäts-Virtualitäts-Kontinuum“ (nach Paul Milgram et al., 1994) sind die erweiterte Realität („Augmented Reality“) und erweiterte Virtualität („Augmented Virtuality“) Teil der sogenannten gemischten Realität („Mixed Reality“). Während der Begriff Augmented Virtuality kaum benutzt wird, werden Augmented Reality und Mixed Reality, selten auch Enhanced Reality, meist synonym verwendet.

Im Gegensatz zur virtuellen Realität (kurz VR), bei welcher der Benutzer komplett in eine virtuelle Welt eintaucht, steht bei der erweiterten Realität die Darstellung zusätzlicher Informationen im Vordergrund. Virtuelle Realität und die Realität werden also miteinander kombiniert oder teilweise überlagert. Interaktivität in Echtzeit, in der reale und virtuelle Objekte dreidimensional zueinander in Bezug stehen. Diese Definition umfasst jedoch nur technische Merkmale und beschränkt sich dabei auf einen Teilaspekt von AR. Andere Arbeiten definieren AR als eine Ausweitung der Sinneswahrnehmung des Menschen durch Sensoren um Umgebungseigenschaften, die der Mensch selbst nicht wahrnehmen kann, wie z. B. Radar, Infrarot und Distanzbilder. Menschliche Eigenschaften können damit durch AR verstärkt oder gar ergänzt werden.

Allein die visuelle Modalität bedeutet eine nicht unwesentliche komplexe Herausforderung an die Positionsbestimmung (Tracking) und Kalibrierung. Um eine Augmented-Reality-Anwendung aufzubauen, benötigt es AR-Systeme (kurz ARS), die sich aus technischen Bestandteilen, wie z. B. Kamera, Trackinggeräte, Unterstützungssoftware usw., zusammensetzen. VR und AR sind weit mehr als nur ein Hype. Erkennen lässt sich dies nicht nur an ernst zu nehmenden Hardware-Entwicklungen / Devices für AR-Systeme, wie Facebooks Oculus Rift, HTC VIVE und Microsofts HoloLens, die mittlerweile durchaus massentauglich sind. Auch geistiges Eigentum wird sich einverleibt.

Begriffserklärung

Am besten veranschaulicht man sich diese abstrakten Begriffe an konkreten Beispielen:

  • Reine Realität ist ein Mensch, der zum Einkaufen in den Supermarkt geht.

  • Erweiterte Realität sind Brillengläser, auf deren Innenseite ein Computer den Einkaufszettel des Benutzers projiziert; und zwar so, dass beim Benutzer der Eindruck entsteht, der Einkaufszettel sei an die Wand des Supermarktes angeschrieben. Die Wirklichkeit wird hier um virtuelle Informationen angereichert.

  • Erweiterte Virtualität ist ein Computerspiel, das über einen VR-Helm gespielt wird und das die Türsprechanlage auf die Kopfhörer überträgt, wenn es an der Tür klingelt.

  • Die Virtualität wird hier um reelle Informationen angereichert. Virtuelle Realität ist ein Computerspiel, das über einen VR-Helm gespielt wird und nicht auf die reale Außenwelt des Benutzers reagiert.

    (Quelle: Wikipedia„Mixed Reality“)

Die großen Player am Markt bereiten sich offensichtlich auf eine Zukunft mit AR vor. Viele Argumente sprechen zudem für den Einsatz und das Wachstumspotenzial dieser neuen Technologien: Kostenersparnisse, Qualitätssteigerungen, Sicherheit.

VR- und-AR-Technologien verändern zunehmend unsere Lebens- und Arbeitswelt. AR-Brillen kommunizieren jetzt schon mit den Fächern in den Lagerhallen und weisen dem Picker den Weg. Zu wartende Maschinen helfen bei der Reparatur, indem sie sinnvolle Daten auf einem AR-Device einblenden oder durch Bildmaterial eine Sicht aus jeder Perspektive und durch alles hindurch ermöglichen. Gleiches gilt auch in der Montage in den Werkshallen.

Lesen Sie auf Seite 2: VR & AR: Trends

Die EU-DSGVO im Kontext der Digitalisierung

Risikofaktor IoT: Schützenswert sind alle Informationen, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen.

von Dr. Ralf Magagnoli

Am 25. Mai 2016 trat die EU-Datenschutzgrundverordnung (EU-DSGVO) in Kraft, ab dem 25. Mai 2018 müssen die EU-Mitgliedstaaten die Verordnung anwenden. Obwohl das Bewusstsein in den Chefetagen der Unternehmen gestiegen ist, sind nicht alle Unternehmen gut aufgestellt.
Mit der EU-DSGVO gibt es erstmals eine Verordnung, die das Datenschutzrecht EU-weit vereinheitlicht und die Unternehmen zum Nachweis verpflichtet, die Prinzipien des EU-Datenschutzes einzuhalten. Sie gilt für in der EU ansässige Unternehmen, aber auch für ausländische Unternehmen, wenn diese eine Niederlassung in der EU haben oder Daten von EU-Bürgern verarbeiten. Also de facto für alle größeren internationalen Unternehmen, aber auch für viele Mittelständler und KMU.
Die Strafen bei Verletzung der EU-DSGVO sind saftig: Bis zu 20 Millionen oder vier Prozent des Jahresumsatzes – im Zweifelsfall gilt der höhere Wert.

DSGVO und IoT

Als Daten gelten dabei nicht nur Kontakdaten wie Name, Adresse, E-Mail-Adresse, Telefonnummer. Damit betrifft sie auch das IoT, sammeln seine Geräte doch zuhauf vielfältige Nutzerdaten. Je nach Funktion reichen diese von Blutgruppe, über das bevorzugte TV-Programm bis hin zum Aufenthaltsort des Hundes. Hier sollte ein Privacy-by-Design-Ansatz verfolgt werden, damit schon bei der Entwicklung die Datenschutzrisiken gering gehalten werden können und Datensicherheit gewährleistet ist. Schließlich ist auch zu klären, wo im Unternehmen die Daten überhaupt gespeichert sind und wer Zugriff darauf hat.

Was ist neu?

Ganz wichtig: Unternehmen haben eine Rechenschaftspflicht. Im Fall einer Klage gilt die Beweislastumkehr: Nicht der Kläger muss nachweisen, dass die EU-DSGVO verletzt worden ist. Das Unternehmen muss beweisen, dass es die strengen Kriterien der Verordnung erfüllt. Hier könnte sich unter Umständen für Unternehmen ein Betätigungsfeld eröffnen, um unliebsamen Konkurrenten zu schaden. Außerdem muss in bestimmten Fällen ein Datenschutzbeauftragter ernannt werden.

Hinzu kommt die Verpflichtung, ein sogenanntes „Privacy by Design“ einzuführen, mit dem datenschutzrelevante Maßnahmen von Beginn an in Design sowie Entwicklung von Systemen, Prozessen und Produkten integriert werden. Auch sind mehr Daten betroffen, so etwa Einzelangaben über persönliche und sachliche Verhältnisse einer bestimmten oder bestimmbaren Person. Die Anforderungen an „bestimmbare Personen“ sind sehr gering. Auch Lieferanten können betroffen sein, zum Beispiel solche, die von einem Unternehmen beauftragt werden, personenbezogene Mitarbeiterdaten zu verarbeiten.

Mehr Rechte für Beschäftigte, mehr Pflichten für die Unternehmen

Nach Auffassung vieler Fachleute werden die Pflichten des Arbeitgebers beim Datenschutz deutlich erhöht, die Rechte der Beschäftigten hingegen gestärkt. Diese erhalten die Hoheit über ihre Daten und das Recht, auf Anfrage zu erfahren, ob, welche und in welchem Umfang personenbezogene Daten durch den Arbeitgeber verarbeitet werden. Das muss laut EU-DSGVO schneller und umfassender geschehen, als dies früher der Fall war. Unternehmen ohne digitale Personalakte haben hier einen großen Aufwand, da die dafür zuständigen Personalabteilungen meist in einem mühseligen Prozess die zerstückelt geführten Personalakten, Gehaltsabrechnungen oder Berichte prüfen müssen.

Vieles hängt von der Art und Größe des Unternehmens ab

Einige Experten warnen, die Aufgaben im Zusammenhang mit der Verordnung zu unterschätzen. Die häufig vertretene Ansicht, dass die Erstellung eines Verarbeitungsverzeichnisses die Erfüllung der Richtlinien gemäß DSGVO bedeutet, ist leider nicht richtig. Ein Verarbeitungsverzeichnis ist zwar wesentlich, jedoch nur einer von mehreren Schritten der Umsetzung. Jedes Unternehmen muss also auch alle technischen und organisatorischen Maßnahmen zur Sicherung und zum Schutz der Daten umsetzen und auch dokumentieren. Nicht zu vergessen, die Einhaltung und Dokumentation aller Betroffenenrechte. Eine Lösung muss all diese Aspekte mitberücksichtigen und ganzheitlich erfüllen. In welchem „Detailgrad“ die Umsetzung auf Unternehmensebene erfolgt, hängt jedoch von der Art und Größe des Unternehmens sowie den verfügbaren Ressourcen ab. Entscheidend ist auch die Branche, da jede ihre ganz eigenen Anforderungen hat.

Von der Geschäftsführung bis hin zum Betriebsrat müssen die Verantwortlichen über die Regelungen und Veränderungen beim Datenschutz informiert und aktiv werden.

Zertifizierungen als Basis

Manche Unternehmen profitieren von bereits vorhandenen Zertifizierungen, etwa nach ISO 9001 oder ISO / IEC 27001. Diese Zertifizierungen dienen als Basis für ein Datenschutzmanagementsystem (DSMS), das die Compliance mit der EU-DSGVO gewährleistet. Ähnliches gilt für die Zertifizierung nach dem Standard BS 10012:2017. Trotzdem muss vieles noch angepasst werden im Hinblick auf die neuen Regeln.

Datenschutz als Querschnittsaufgabe

Wichtig sei es, darin stimmen Experten überein, das Thema EU-DSGVO als Querschnittsthema im gesamten Unternehmen zu verankern und das Bewusstsein der Mitarbeiter für diese Problematik zu schärfen. Vom Vorstand oder der Geschäftsführung bis hin zum Betriebsrat müssen die Verantwortlichen über die Regelungen und Veränderungen beim Datenschutz informiert und teilweise aktiv werden:

  • Vorstand und Geschäftsführung müssen die veränderte datenschutzrechtliche Praxis im Unternehmen kennen;
  • die IT-Abteilung muss prüfen, welche technisch-organisatorischen Maßnahmen für das geforderte Risk-Management notwendig sind;
  • die Finanzabteilung muss die Kosten berücksichtigen, die dem Unternehmen durch Anpassungsprozesse entstehen;
  • die Rechtsabteilung muss viele Verträge anpassen;
  • die Compliance-Abteilung muss die Risiken eines Verstoßes gegen die Verordnungen berücksichtigen – diese betreffen die außerordentlich hohen Bußgelder, aber auch den Vertrauensverlust, der bei Kunden, Lieferanten oder Mitarbeitern entstehen kann;
  • die Forschungs- und Entwicklungsabteilung muss schon bei einem frühen Projektstadium darauf achten, dass die datenschutzrechtlichen Grundsätze eingehalten werden;
  • für die Personalabteilung entsteht ein hoher Aufwand, da sie einerseits Mitarbeiterschulungen zum Thema organisieren, andererseits den Mitarbeitern auf Nachfrage nachweisen muss, wie ihre Daten geschützt werden; auch der Betriebsrat ist einzubinden.

Ist es sinnvoll, darüber hinauszugehen?

Vielleicht aber ist es sinnvoll, noch ein paar Schritte weiterzugehen. Die Einhaltung der EU-DSGVO-Compliance sollte Teil einer umfassenden Unternehmensphilosophie sein und von der Spitze her gelebt werden – damit ist das EU-DSGVO-Management Chefsache. Es sollte nicht einfach eine lästige Pflicht sein, denn immerhin geht es darum, das Image des Unternehmens in der Öffentlichkeit, bei gegenwärtigen und künftigen Mitarbeitern sowie bei Geschäftspartnern als verantwortungsvoll handelnde Organisation zu stärken. Dazu gehören auch ein umfassender Schutz der Daten und der sichere IT-Betrieb.

Die Risiken einer Verletzung des Datenschutzes sind groß und müssen im Einzelfall genau analysiert werden. Doch wie sieht es mit den Chancen aus? Zum Beispiel könnte ein gut umgesetztes Datenschutzmanagementsystem auch den Eintritt in Länder mit einem ähnlich hohen Datenschutzniveau deutlich erleichtern, wie z. B. Kanada oder Japan.

Echte Mehrwerte im Wettbewerb entstehen, wenn es gelingt, über entsprechende Maßnahmen und ihre Dokumentation Vertrauen zu schaffen. Zudem fördern transparente personenbezogene Daten die Automatisierung von Prozessen und treiben somit die Digitalisierung voran. Einige aktuelle Studien belegen, dass Unternehmen, die auf diesem Weg vorangegangen sind, sich bereits Vorteile verschafft haben. Es liegt also an den Unternehmen selbst, ob ihnen die EU-DSGVO mehr nutzt oder doch eher schadet. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Cloud-Computing

Tipps für eine zukunftsorientierte Cloud-Strategie

von Bernhard Haselbauer

Dezentral, flexibel und günstig – Cloud-Computing erobert mit hoher Skalierbarkeit bei niedrigen Kosten immer mehr deutsche Unternehmen. Auch in diesem Jahr ist der Cloud-Markt wieder gewachsen. Deutsche Unternehmen setzten mittlerweile auf die Public Cloud, Single-Cloud-Architekturen werden in Zukunft nur noch die Ausnahme darstellen.

Es kann festgehalten werden, dass durch Cloud-Dienstleistungen Betrieb und Wartung von IT‐Ressourcen hinfällig werden. Dies führt zu geringeren Personalkosten in der IT‐Abteilung und Unternehmen müssen weder in Hardware investieren, noch Überkapazitäten für Lastspitzen bereithalten. Momentan lauten die Trendthemen Multi-Cloud, Blockchain, Edge Computing, RPA und künstliche Intelligenz (KI). Aufgrund des großen Anwendungspotenzials steigt die Nachfrage nach Datenverarbeitung und KI immer mehr. Aber wie können wir uns zum Bespiel „KI/AI as a Service“ als Cloud-Dienstleistung vorstellen?

Zum Beispiel haben Cloud-Anbieter bereits KI-Anwendungen für Unternehmen als „as a Service“ in ihr Angebot integriert – d. h., sie stellen diese Anwendungen über „Open Source Platforms“ zur Verfügung, sodass Unternehmen keine eigenen Tools oder Infrastrukturen aufbauen müssen. Der Vorteil für Unternehmen liegt darin, dass Entwicklungszeiten so reduziert und Kosten gesenkt werden können. Das Investitionsrisiko für den Einstieg in KI reduziert sich also, während die Flexibilität steigt. Wollen Unternehmen von verschiedenen KI-Anwendungen Gebrauch machen, die für komplexe Szenarien eingesetzt werden können, so müssen die verschiedenen Anwendungen und Datenbanken zusammenarbeiten. Mit Multi-Cloud-Architekturen kann das weltweit erreicht werden.

Die Ressourcenverteilung der Cloud-Infrastruktur wird künftig nicht nur automatisiert ablaufen, vielmehr werden selbstlernende Computersysteme die zugrunde liegenden Automatismen nutzerspezifisch weiterentwickeln.

Viele Berichte deuten darauf hin, dass 2019 das Jahr der Multi- und Hybrid Cloud werden soll. Aus dem Englischen übersetzt bedeutet Multi-Cloud die Verwendung mehrerer Cloud-Computing- und Storage-Services in einer einzigen heterogenen Architektur. Dies wird auch als Polynimbus-Cloud-Strategie bezeichnet und bezieht sich auch auf die Verteilung von Cloud-Assets, Software, Anwendungen usw. in mehreren Cloud-Hosting-Umgebungen.

Die Multi-Cloud verhält sich aus Anwendersicht wie eine einzige große Cloud. Wie die Hybrid Cloud kann die Multi-Cloud mehrere Cloud-Modelle wie die Private Cloud oder die Public Cloud integrieren.

Die meisten Unternehmen werden wohl zunächst mit Hybrid-Cloud-Lösungen arbeiten, um Abhängigkeiten zu vermeiden. Außerdem können User der Hybrid Cloud Angebote von mehreren Cloud-Anbietern vergleichen und so das Kostenrisiko optimieren. Zusätzlich werden weitere Redundanzen die Ausfallsicherheit erhöhen. Aus diesen Gründen werden wohl die großen Public-Cloud-Anbieter das Thema „Vendor Lock-in“ weiter verfolgen. Wer sich mit dem Thema Cloud-Computing beschäftigt, hat wahrscheinlich den Begriff Vendor-Lock-in bereits gehört. Hier spricht man von einem sogenannten Lock-in-Effekt, wenn sich ein Kunde so abhängig von einem bestimmten Hersteller gemacht hat, dass der Wechsel zu einem alternativen Anbieter aufgrund zu hoher Transaktionskosten unwirtschaftlich ist.

Um die Vorteile einer Hybrid- oder Multi-Cloud-Umgebung zu nutzen, empfehlen wir einen kompetenten „Managed Services Provider“ (MSP) zu konsultieren.


Von Robotik und Automation

Lange verdammt, unentwegt einfachste Handlungen zu verrichten, mutieren Roboter zu autonom agierenden „Kollegen“ mit flexiblen Aufgaben.

von Andreas Fuhrich

Automatisierung ist ein maßgeblicher Erfolgsfaktor des produzierenden Gewerbes. Durch sie lassen sich Kosten senken und dennoch höchste Qualitätsansprüche realisieren. Bezahlbare und leistungsfähige Produkte, vom Smartphone bis zur Sicherheitstechnik im Auto, sind ohne sie nicht denkbar.

War das Thema Automatisierung bis vor einigen Jahren noch den „großen“ Unternehmen vorbehalten, gehen mittlerweile mehr und mehr kleine und mittelständische Betriebe dazu über, ihre Fertigung zu automatisieren.(1)

Roboter, als wesentliche Bausteine der Automatisierung, dienen dabei vermehrt als persönliche Produktionsassistenten, die direkt mit dem Werker in gemeinsamer Arbeitsumgebung ohne trennende Schutzzäune interagieren. Innovative Sicherheitskonzepte verbunden mit dem vermehrten Einsatz von Sensorik, Software und Bildverarbeitungstechnologie bilden die ausschlaggebende Basis der hierfür notwendigen erhöhten Sicherheit.(2)

China ist mit der größte Produzent von Industrierobotern und produzierte laut einer Schätzung der International Federation of Robotics 2017 115 000 Einheiten. Dahinter folgen Südkorea (44 000), Japan (42 000) und USA (36 000). Auf Platz fünf rangiert Deutschland (21 000)(3), wo die Branche 2017 erstmals einen Umsatz von über 14 Mrd. Euro erwirtschaftete.(4)

IoRT – Das Internet of Robotic Things

Während Roboter ursprünglich dazu angedacht waren, einfache repetitive Aufgaben unentwegt auszuüben, sind sie heute in der Lage, mit ihrer Umwelt zu interagieren und intelligentes Verhalten zu zeigen. Ein Roboter mit einer Verbindung zum Internet verfügt dabei über eine immense Informationsquelle, die ihm bei Entscheidungsfindungen und Interaktionen hilft. Vernetzen sich diese Roboter zusätzlich auch untereinander, entsteht eine gemeinsame Intelligenz, die für alle betreffenden Geräte die günstigsten Handlungsabläufe ermitteln kann. Das Konzept der Einbindung von Teams aus Robotern in das IoT wird als das „Internet of Robotic Things“ oder das „IoRT“ bezeichnet.

Autonome Roboter-Schwärme

Derart vernetzte Schwarm-Drohnen werden bald in Gruppen zu Hunderten oder Tausenden um uns schwirren, in Formationen wie bei Vogelschwärmen. In Zukunft könnten solche Schwärme etwa kostengünstig Pipelines, Hochspannungsleitungen und Industrieanlagen inspizieren oder in der Landwirtschaft Pestizide und Herbizide versprühen, und zwar exakt dosiert an den erforderlichen Stellen.

Die Grundlagen der Robotik – Erfassung, Bewegung, Mobilität, Manipulation, Autonomie und Intelligenz – werden durch das Internet of Things auf eine neue Stufe gehoben. Roboter müssen nicht länger selbst mit kognitiven Fähigkeiten ausgerüstet sein, denn schließlich stellt das IoT mit all seinen Sensordaten wiederverwendbare und offen verfügbare Informationen bereit, auf die sie zur Erfüllung ihrer Aufgaben zugreifen können. Dies ermöglicht eine Miniaturisierung vernetzter Roboter-Schwärme bis auf Nano-Ebene, wodurch ganz neue Möglichkeiten eröffnet werden.(5)


Digital Banking

FinTechs, Tech-Giganten und neue Technologien verändern die Branche.

Zwar begann die Digitalisierung der Banken mit dem Online-Banking schon im letzten Jahrtausend, doch weitere Innovationen blieben lange aus. Für den Knotenpunkt aller Geldgeschäfte galt der Bankkunde als Selbstverständlichkeit und musste nicht mit technischen Neuerungen gebunden werden. Selbst das Online-Banking diente mehr dem Stellenabbau und der damit verbundenen Gewinnoptimierung als dazu, einen wirklichen Service anzubieten. Heute noch beworbene Tagesgeldkonten wirken wie absurde Überbleibsel aus der Zeit, in der sie mit lukrativen Zinsen als Online-Banking-Marketingmaschine fungierten.

Seit einigen Jahren verändert nun die aufstrebende FinTech-Branche den Finanzmarkt. Dem Kundenwunsch nach mehr digitalen Lösungen, der vor allem durch die Entwicklungen der Mobile Devices mit ständigem Internetzugriff noch verstärkt wird, soll entsprochen werden. Vormals ineffiziente und unflexible Geschäftsfelder werden revolutioniert oder zumindest den neuen technologischen Möglichkeiten angepasst. Durch die PSD2-Richtlinie wurde mittlerweile auch das Monopol der Banken in Bezug auf Kontoinformationen gebrochen. Sie sind nun verpflichtet, eine API-Schnittstelle anzubieten, und, die Einverständniserklärung des Kunden vorausgesetzt, auch anderen Unternehmen Zugriff zu gewähren.

Mittlerweile haben auch viele der altehrwürdigen Bankhäuser erkannt, wie wichtig es im Wettbewerb um die Gunst der Kunden ist, durch eine Modernisierung und Technologisierung der gesamten Dienstleistungskette zu punkten. Oftmals machen sie sich dabei die Innovationskraft eines agilen Start-ups zunutze. Nicht selten agieren diese als White-Label-Lösung im Verborgenen, profitieren aber im Gegenzug von der bereits aufgebauten Kundschaft der etablierten Institute. Auf der anderen Seite machen es die vielen Regularien für Start-ups fast unmöglich, die Bedingungen für eine Banklizenz zu erfüllen. Gerade bei besonders populären FinTech-Lösungen, wie dem Crowdlending, agieren daher nun die Banken im Hintergrund und regeln beispielsweise die Abwicklung der Kreditvergaben.

Zwar machten kleine Start-ups den Anfang, doch mittlerweile bitten auch die Tech-Giganten auf dem Finanzparkett zum Tanz. Siri ermöglicht mittlerweile Überweisungen per Sprachbefehl und ebenso wie Apple Pay ermöglicht auch das Android-Pendant Google Pay das Bezahlen via Smartphone an der Kasse.

Amazon-Go-Filialen schaffen Kassensysteme sogar komplett ab. Eine auf dem Smartphone installierte App vernetzt sich mit der ausgeklügelten Technik im Geschäft, die genau erkennt, welche Waren der Kunde einsteckt. Nach Verlassen des Ladens erhält dieser nur noch eine Push-Benachrichtigung, einen digitalen Kassenbon. Zusätzlich setzen sich die Unternehmen auch im Online-Commerce an die Schnittstelle zwischen Händler und Kunden, indem sie bei Bezahlungen per App Rabatte anbieten oder als Identitätsdienst die Registrierung beim Onlineshop mit nur einem Klick ermöglichen.

Enormes disruptives Potenzial wird auch der Blockchain zugesprochen. Der Hype der Kryptowährungen endete zwar relativ schnell nach dem Bitcoin-Höchststand im Dezember 2017, doch nicht nur FIAT-Währungen werden durch die Technologie in Frage gestellt. Blockchain-Ökosysteme ermöglichen Legitimation, Absicherung und Auslandszahlungsverkehr – also Kerndienstleistungen der Banken.


Die Trends in Forschung & Entwicklung

Neue digitale Technologien verändern den Innovationsprozess und binden den Kunden stärker in die Produktentstehung mit ein.

von Dr. Ralf Magagnoli

Ziel vieler Unternehmen ist es, in puncto Industrie 4.0 die umfassendste Option zu realisieren, nämlich die des Enablers. Der Enabler ist ein Technologieanbieter für das IoT und nutzt Plattformen (Clouds) zur Entwicklung, Herstellung und Lieferung vernetzter Dienste und Produkte. Was bedeutet dies für die Abteilung Forschung & Entwicklung: Zum einen werden die traditionellen Schranken zwischen Forschung & Entwicklung, Produktmanagement und Produktion tendenziell aufgehoben, zum anderen werden die sogenannten Stakeholder, meistens Kunden, an der Entwicklungsarbeit beteiligt. Die Vorteile sind u. a. schnellere Produktreife, besser ausgetestete Produkte, kostengünstigere Produkte und – last, but not least – völlig neue Produkte. Was also sind die Trends in der Forschungs- und Entwicklungsabteilung?

Künstliche Intelligenz (KI) / Machine Learning

Die Begriffe KI und Machine Learning werden oft synonym verwendet, sind aber nicht deckungsgleich, da Machine Learning nur einen Bereich, allerdings den wichtigsten der KI, ausmacht. So sagt der chinesisch-amerikanische Informatiker Andrew Ng: „99 Prozent des ökonomischen Wertes, den KI heute schafft, wird durch die eine Art von KI erzeugt, die von A nach B lernt, durch Input- zu Output-Mappings“, also durch Machine Learning. Worum geht es? Es geht um selbstständig lernende Maschinen und Computer; diese lernen anhand von Beispielen und können diese nach Ende der Lernphase verallgemeinern, indem sie Muster und Gesetzmäßigkeiten in den Lerndaten „erkennen“.

Für die Forschung & Entwicklung bieten KI und vor allem das Machine Learning riesige Potenziale, wenn es darum geht, das Kundenverhalten über prädiktive Analysen gezielter zu prognostizieren und via Algorithmen fundiertere Innovationsentscheidungen zu fällen.

Dies erfolgt mithilfe von Algorithmen, die sich wiederum in überwachtes Lernen (teilüberwachtes, bestärkendes, aktives Lernen) und unüberwachtes Lernen unterteilen lassen. Für die Forschung & Entwicklung bieten KI und vor allem das Machine Learning riesige Potenziale, wenn es darum geht, das Kundenverhalten über prädiktive Analysen gezielter zu prognostizieren und via Algorithmen fundiertere Innovationsentscheidungen zu fällen. Dies betrifft u. a. den Designprozess – Stichwort Generatives Design – reicht aber weit darüber hinaus.

Generatives Design

Hier übernimmt ein Algorithmus die Aufgabe, die früher der Designer erledigte. Dieser erstellt nur den digitalen „Werkzeugkasten“, während der Computer das Ergebnis erzeugt. Die Aufgabe des Designers besteht darin, das Ergebnis zu beurteilen und ggf. den Quellcode, die Parameter und den Algorithmus zu verändern. Dazu gibt es neue Tools – Stichwort bspw. Low Code – die eine Programmierung auch ohne vertiefte Programmierkenntnis erlauben. Der Gestaltungsspielraum erweitert sich durch Generative Design in erheblicher Weise, wozu Parameter wie Zufall, Struktur oder Wiederholung kombiniert mit traditionellen Faktoren wie Schrift, Form, Farbe und Bild beitragen.

Dabei bietet sich auch in diesem Fall die Open Innovation, also die Zusammenarbeit verschiedener Akteure – meist über eine cloudbasierte Plattform –, an, über die sich nicht nur eine Vielzahl von Entwurfsalternativen erzeugen lässt, sondern über die die Entwürfe auch im Hinblick auf die Kundenakzeptanz geprüft werden können. Im Idealfall werden die verschiedenen Stakeholder, allen voran natürlich die Kunden, am Projekt beteiligt und aktiv in den Designprozess eingebunden. Die Echt­zeitinformationen sorgen für schnellere Durchlaufzeiten von Projekten.

Digitaler Zwilling

Das Gabler Wirtschaftslexikon definiert den „digitalen Zwilling“ (Digital Twin) als „virtuelles Modell z. B. eines Prozesses, eines Produkts oder einer Dienstleistung, welches die reale und virtuelle Welt verbindet“. Notwendig sind dabei drei Elemente: das abzubildende Objekt – bspw. ein Fahrrad –, der digitale Zwilling und die Daten, die beide miteinander integrieren. So wird das reale, mit Sensoren ausgestattete Fahrrad, um diesen Fall zu nehmen, mit dem System verbunden, das die Sensordaten empfängt, verarbeitet und auswertet. Anhand des digitalen Zwillings können dann die Leistungsfähigkeit, die Widerstandskraft und die Haltbarkeit des Fahrrads, etwa unter Extrembedingungen, getestet werden.

Über Simulationen werden so verschiedene Alternativen erforscht, um die in der Regel komplexen Produktanforderungen zu erfüllen – zum Beispiel: Ist das Produkt intuitiv nutzbar? Funktioniert die Elektronik einwandfrei? Wie interagieren die verschiedenen Komponenten? Und, im Hinblick auf das Fahrrad, bei welchen Lastfällen sind welche Bereiche des metallischen Fahrradrahmens oder der Federgabel als kritisch zu beurteilen?

Der digitale Zwilling wird gerne in der Automobilindustrie für Crashtests eingesetzt. Aufgrund der Effektivitätssteigerungen entlang der gesamten Wertschöpfungskette rechnet der Analyst Gartner damit, dass schon 2021 die Hälfte der größeren Industrieunternehmen den digitalen Zwilling einsetzen wird. Dabei geht es auch hier in Richtung künstlicher Intelligenz, sodass man von der gegenseitigen Wahrnehmung und Interaktion zur Kommunikation und eigenständigen Optimierung der Systeme gelangt.

Additive Fertigung / 3-D-Druck

Auch diese beiden Begriffe werden meist synonym verwendet. Worum geht es? Es handelt sich um ein professionelles, sich von konventionellen Methoden unterscheidendes Produktionsverfahren, bei dem Schicht um Schicht Bauteile aufgebaut werden, um Prototypen zu erstellen. Durch ein sogenanntes Rapid Prototyping in der Forschung & Entwicklung können die Produktentwicklung (und damit die Markteinführung) entscheidend beschleunigt werden. (Im Sinne verschwindender Grenzen zwischen Forschung & Entwicklung einerseits und Produktion andererseits hält das Verfahren zunehmend Einzug in die Serienfertigung.)

Der entscheidende Vorteil gegenüber traditionellen Fertigungsmethoden aber liegt im „Design-driven Manufacturing Process“, bei dem nicht die Fertigung die Konstruktion determiniert, sondern bei dem die Konstruktion die Fertigung bestimmt. Die additive Fertigung verspricht zudem Designfreiheit, Funktionsoptimierung und -integration sowie die Individualisierung von Produkten in der Serienfertigung.

VR- & AR-Konzepte werden Forschung und Entwicklung massiv beeinflussen.

Augmented Reality (AR)

Nicht selten wird beim Prototyping auch die „erweiterte Realität“ (Augmented Reality) eingesetzt, die computerbasierte Erweiterung der Realitätswahrnehmung – oft mithilfe von AR-Brillen. So lassen sich in mehrdimensionalen Räumen Objekte, die nur zweidimensional als Baupläne existieren, völlig neu fassen, da das eigene Verhalten virtuell abgebildet werden kann. Bspw. werden virtuell konzipierte Werkstücke, etwa beim Autobau Mittelkonsolen, per AR-Anwendungen simuliert.

Der Entwickler oder – idealerweise über Open Innovation – auch der Kunde hat damit die Möglichkeit, zu prüfen, ob die Teile tatsächlich funktional und anwenderfreundlich angeordnet worden sind oder ob Optimierungsbedarf entsteht. Die Vorteile liegen auf der Hand, vor allem die Reduzierung von Forschungs- und Entwicklungskosten sowie die Verkürzung des Entwicklungsprozesses.

Open Innovation

Der Begriff der Open Innovation stammt von Henry Chesbrough und bezeichnet die meist plattformübergreifende Öffnung des Innovationsprozesses in Unternehmen und die strategische Nutzung der Außenwelt. Dazu müssen die Unternehmen imstande sein, externes Wissen zu internalisieren und internes Wissen zu externalisieren. Das durch steigenden Wettbewerbsdruck, kürzere Produktlebenszyklen und höheren Innovationsdruck begründete Konzept wirkt sich vor allem auf die Forschungs- und Entwicklungsabteilung aus. Lautete das Motto der Closed Innovation, also der Innovation ausschließlich im Unternehmen, „We can do it, we will do it“ („Wir schaffen das“), so gilt für die Open Innovation die Devise „The best from anywhere“. Eigene Mitarbeiter außerhalb des Forschungs- und Entwicklungsteams, aber auch „Stakeholder“ wie Kunden, Lieferanten, Universitäten sowie auch Mitbewerber und Unternehmen anderer Branchen können in den Innovationsprozess eingebunden werden.

Es handelt sich um ein kollaboratives Networking im Bereich der Forschungs- und Entwicklungsarbeit, das auf Wissensaustausch und Vernetzung von Know-how basiert. Da Open Innovation immer ein Geben und Nehmen impliziert und viele Unternehmen immer noch zurückhaltend sind, eigenes Know-how preiszugeben, hat sich das Konzept noch nicht in der Breite durchgesetzt – dennoch ist angesichts des Drucks auf die Unternehmen zu erwarten, dass sich Open Innovation mehr und mehr durchsetzen wird. Beispiele für gelungene Projekte sind InnovationJam, eine IBM-Plattform, über die Unternehmen und Universitäten aus verschiedenen Ländern miteinander kooperieren, oder die Internet-Musikbörse Last.fm, die sogenannte „Hacker-Tage“ organisiert, an denen Nutzer neue Applikationen entwickeln können.

Coopetition

Die Coopetition – ein Kunstwort, das sich aus Competition (Wettbewerb) und Cooperation (Zusammenarbeit) zusammensetzt – bedeutet eine Dualität aus Kooperation und Wettbewerb. So können auf der gleichen Wertschöpfungsstufe – in diesem Fall eben meistens der Forschung & Entwicklung – die Kompetenzen und das Know-how gebündelt werden (horizontale Kooperation), während man etwa in puncto Marketing und Vertrieb Wettbewerber bleibt. Ein Beispiel ist die Kooperation zwischen VW und Ford, die gemeinsam einen Fahrzeugtyp entwickelten, der bei VW als „VW Sharan“ und „Seat Alhambra“, bei Ford als „Ford Galaxy“ vermarktet wurde. Einfacher ist die gemeinsame Produktentwicklung natürlich zwischen Unternehmen, die mit dem Produkt unterschiedliche Anwendungs-zwecke verfolgen und unterschiedliche Zielgruppen bedienen.

Customer Experience

Auch die Customer Experience ist eng mit der Open Innovation verbunden. Hierbei geht es um die gezielte Einbindung von Kunden, oft sogenannter Lead-User, also besonders fortschrittlicher Anwender, zur Verbesserung und Weiterentwicklung von Produkten. In sogenannten „Customer Experience Centres“ haben Kunden die Möglichkeit, Prototypen und Produkte zu testen. Während mit dem Ansatz der Customer Experience generell positive Kundenerfahrungen generiert werden und die Kunden im Idealfall zu „begeisterten Botschaftern“ gemacht werden sollen, bedeutet er für die Forschungs- und Entwicklungsabteilung die passgenaue Identifikation der Kundenwünsche. Nichts ist schlimmer als ein Team verspielter Technikfreaks, die an den Kundenwünschen vorbeiarbeiten. Die zentrale Forderung, gerade für Forschung & Entwicklung, lautet daher: „Customer Experience bedeutet, die Bedürfnisse des Kunden nicht nur zu erfüllen, sondern jederzeit zu übertreffen.“ Voraussetzung dafür ist, sie zu kennen. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Kapitel 3: Herausforderungen

Kapitel 2: Abteilungen

Einfluss der Digitalisierung auf die Unternehmensabteilungen

Die Digitalisierung, Automatisierung und „Datafizierung“ betrifft das gesamte Unternehmen, wirkt sich aber unterschiedlich auf die jeweiligen Abteilun­gen aus. Die Aufgabe der Geschäftsleitung ist es, den Kurs der digitalen Transformation vorzugeben (2.1), während die IT-Abteilung schließlich die Systeme am Laufen halten muss. (2.2) Im Marketing wird der Kunde analysiert und individualisiert monetarisiert. (2.6) Die Daten werden dabei auch aus IoT-Devices gesammelt und als Feedback an die Produktion und Fertigung weitergeleitet, um eine stetige Verbesserung zu ermöglichen. (2.7) Passgenaue Informationen sind auch für den Vertrieb eine wertvolle Hilfe im persönlichen Kundenkontakt (2.5), der auch das Lebenselixier des Einkäufers ist. Von der Automatisierung getrieben, ist er verdammt, zu einem Netzwerker mit Mehrwert zu werden. (2.8) Natürlich darf bei all den anfallenden Daten der Schutz nicht vergessen werden. Die EU-DSGVO stellt insbesondere an die Buchhaltung (2.3) und das Personalwesen (2.4) Anforderungen, die sich mit Papierakten nicht mehr bewältigen lassen. //

Das Kapitel im Überblick

Abteilung IT

Die Zukunft der IT-Abteilung liegt in der Automatisierung.

von Dr. Ralf Magagnoli

Die Prophezeiungen der Auguren waren teils düster: „Die IT-Abteilung vor dem Aus retten“, titelte etwa die Computerwoche im Oktober 2018. Sicher ist nur, die IT-Abteilung wird sich wandeln, sie wird neue Aufgaben übernehmen und alte delegieren müssen. Welche Trends sind gegenwärtig erkennbar, die auf die IT-Abteilungen einwirken und mit denen sich die IT-Abteilungen befassen müssen? Wie wirken sich vor allem Automatisierung und Digitalisierung auf die Arbeit der IT-Abteilungen aus?

Der „Chief Digital Officer“ (CDO)

In vielen Unternehmen gibt es ihn bereits als Hauptverantwortlichen der Digitalisierungsstrategie im Unternehmen. Der CDO gehört der obersten Hierarchieebene an. Zu seinen Aufgaben gehören die Analyse der Ist-Situation in den Unternehmen, die Entwicklung einer digitalen Strategie, die Bereitstellung der notwendigen Ressourcen für die digitale Transformation, die Beaufsichtigung des Wandels, die Beobachtung neuer Entwicklungen und die etwaige Übernahme in das bestehende digitale System. Kritisiert wird eine oftmals unklare Rollenverteilung in vielen Unternehmen. Hier gilt es, klare Regeln und Verantwortlichkeiten zu definieren und dem CDO die Möglichkeit zu geben, die digitale Transformation umzusetzen.

Strukturveränderung

Möglicherweise wird sich die Struktur der IT-Abteilung selbst drastisch verändern. Zwei Möglichkeiten stehen hier zur Disposition: Der Analyst Forrester Research schreibt, dass sie möglicherweise in einen Frontend- und einen Backend-Teil, welcher dann an eine Shared-Services-Abteilung berichtet, zerfallen werde. Eine weitere Möglichkeit besteht darin, dass die IT als eigenständige Einheit auf die verschiedenen Abteilungen im Unternehmen aufgeteilt wird. Gut möglich aber auch, dass die IT-Abteilung weitgehend in der bisherigen Form erhalten bleibt. Sicher ist nur, dass, wie auch in anderen Abteilungen, die Anforderungen an die Mitarbeiter in puncto Agilität, Fähigkeit, über den eigenen Tellerrand zu schauen, und Bereitschaft zum Kulturwandel wachsen werden. Anders ausgedrückt: Nerds und „Das haben wir schon immer so gemacht“-Typen werden immer weniger gefragt sein.

Modernisierung der Legacy-Systeme

Unter Legacy-Systemen werden die über Jahre, teilweise über Jahrzehnte gewachsenen IT-Infrastrukturen verstanden, die oft als Altlasten ein Hindernis für die Zukunftsfähigkeit der Unternehmen sind. Dies in zweifacher Hinsicht: Zum einen im Hinblick auf die Geschäftsprozesse, zum anderen auch in finanzieller Hinsicht, denn die Versuche, die IT-Kosten zu senken, führen zu einem Investitionsstau, dessen Folge archaische Systeme sind, deren Wartungskosten steigen, womit wiederum weniger Gelder für Investitionen zur Verfügung stehen. Ein Teufelskreis, den es zu durchbrechen gilt. Hier bietet sich die Verlagerung von Software und Infrastruktur in die Cloud an, die von spezialisierten Dienstleistern auch vorgenommen wird.


Für die IT-Abteilung wie für die Unternehmen wird es darauf ankommen, den Spagat zwischen inkrementeller und disruptiver Methode zu meistern

Ralf Magagnoli

Microservices

Hier kommen oft Standardsysteme mit adaptiven Architekturen zum Einsatz. Diese Dienste sind so konzipiert, dass sie mit den Anforderungen wachsen und zudem einen modularen Aufbau ermöglichen, was wiederum ein „Plug and play“ mit selbst entwickelten, meist allerdings zugekauften Komponenten erlaubt. Über Continuous Integration / Continuous-Deployment-Pipelines sind zudem agilere, produktzentrierte Betriebsmodelle möglich. Zugleich sollten Unternehmen die Risiken im Auge behalten, die sich über eine zu schnelle Übernahme von Standardsystemen ergeben – nämlich, dass der USP unter Umständen verloren gehen kann. Auch hier ist eine „smarte“ Kombination von Standardisierung und Customizing gefordert.

„Software as a Service“ und „Infrastructure as a Service“

Auch dieser Punkt hängt mit den beiden vorangehenden Punkten zusammen. Nicht nur die Software, sondern die gesamte Infrastruktur wird in die Cloud verlagert und, meist von einem spezialisierten Dienstleister, zur Verfügung gestellt. Die Unternehmen brauchen also weder Software zu entwickeln oder einzukaufen noch Rechnerinfrastrukturen aufzubauen, sondern mieten diese. Betrieb und Wartung liegen beim Dienstleister. Tendenziell bestehen die Rechner in den Unternehmen dann aus Thin Clients: Die Anwender greifen dann per Webbrowser auf die Anwendungen in der Cloud zu. Die Vorzüge: Kalkulierbare Kosten (Miete) und Konzentration aufs Kerngeschäft. Dennoch haben immer noch viele Unternehmen Hemmungen, unternehmenskritische Anwendungen Dritten zu überlassen.

Internet of Things (IoT)

Hier besteht ein Unterschied zwischen der Erwartungshaltung – wie bedeutsam ist IoT für das Unternehmen, wie bedeutsam wird IoT für das Unternehmen werden? – und der Umsetzung. Während laut einer aktuellen IDC-Studie rund 43 Prozent der Befragten in Unternehmen IoT für sehr wichtig bzw. wichtig halten und über 63 Prozent glauben, dass die Bedeutung in Zukunft sehr hoch bzw. hoch sein wird, haben nur rund 20 Prozent der Unternehmen IoT-Projekte umgesetzt. Ziel des IoT ist es, die Lücke zwischen der realen und der virtuellen Informationswelt zu schließen, die dadurch entsteht, dass die in der realen Welt verfügbaren Informationen im Internet nicht abrufbar sind. Das hat Auswirkungen zum Beispiel auf den Kundendialog, der mittels IoT über sogenannte Connected Products verbessert wird, was wiederum die Optimierung bestehender und die Kreierung neuer Produkte zur Folge hat. Beispiel: Der Sportartikelhersteller, dessen Turnschuh sich je nach Laufgeschwindigkeit aufpumpt bzw. fester schnürt. Wichtige Daten werden über Sensoren nicht nur an den Kunden, sondern auch an den Hersteller weitergeleitet. Tritt ein Problem auf, kann der Hersteller schnell reagieren und Verbesserungen an dem Produkt vornehmen.

Industrial Internet of Things (IIoT)

Es geht um den Einsatz von IoT im industriellen Bereich, bspw. im produzierenden Gewerbe, im Gesundheitswesen, in der Energiewirtschaft oder im Agrarwesen. Hierbei gilt es, Daten über den gesamten Informationsprozess zu erfassen und zu kontrollieren. Beispiel Produktion. Das Stichwort hier lautet etwa Predictive Maintenance: Die Maschinen geben Zustandsdaten, die eine proaktive Wartung ermöglichen. So etwa, im kostengünstigen Fall, der Tintenstrahldrucker, der vorab informiert, wann der Füllstand unterschritten wird. Bedenkt man, dass bei komplexeren Maschinen ein Ausfall auch nur von zwei oder drei Stunden teuer werden kann, rechnet sich die Predictive Maintenance. Das IIoT umfasst aber auch die Verbesserung und Kontrolle der Supply Chain, die Sicherstellung der Energiezufuhr über Smart Grids, intelligente, dezentrale Verteilnetze oder Werte bzgl. Raumtemperatur, Luftqualität und Ozongehalt in Produktionsstätten.

Data Science

Als Data Science wird die Extraktion von Wissen aus Daten bezeichnet. Angesichts der auch durch IoT und IIoT dramatisch erhöhten Datenmenge kommt dieser Extraktion eine besondere Bedeutung zu, sodass Spezialisten – meist Absolventen der einschlägigen Studiengänge – sehr gefragt sind. Data Scientists benötigen im Prinzip Kenntnisse in fünf Bereichen: Diese reichen von der ersten Schicht, der „Database Technology“, über die zweite Schicht, die „Data Access & Transformation“, die dritte Schicht, die „Programming Language“, die vierte Schicht, die „Data Science Tool & Library“, die fünfte Schicht, die „Data Science Method“, bis zur Fachexpertise im jeweiligen Fachbereich – also etwa der Ingenieurswissenschaft oder der Betriebswirtschaft. Erst wenn ein Mindestmaß an Fachwissen vorhanden ist, kann der Data Scientist die Fachspezialisten gezielt unterstützen. In kleineren Unternehmen wird im Allgemeinen der Data-Science-Allrounder gesucht, der imstande ist, das gesamte Aufgabenspektrum zu übernehmen, das in größeren Unternehmen von den jeweiligen Spezialisten im jeweiligen Bereich übernommen wird.

Digitale Ökosysteme

Oikos im Altgriechischen bedeutet Haus, sýstema das Verbundene. Auch wenn die Abgrenzung digitaler Ökosysteme nicht ganz einfach ist, kann als ihr Ziel das Überwinden komplexer Herausforderungen durch Imitation biologisch-komplexer Systeme genannt werden. Ein digitales Ökosystem, das sich prinzipiell durch Offenheit auszeichnet, setzt sich aus heterogenen Akteuren unterschiedlicher Branchen und Disziplinen zusammen. Hier wird die Aufgabe der IT-Abteilung darin bestehen, die Einbindung des Unternehmens in ein solches digitales Ökosystem zu gewährleisten und die Stabilität dieses heterogenen Netzwerks bei gleichzeitiger Offenheit zu ermöglichen.


Quelle: Computerfutures
https://www.computerfutures.com/de/blog/2018/02/die-zukunft-der-it-abteilung

Automatisierung / „Robotic Process Automation“ (RPA)

Darunter werden virtuelle Mitarbeiter verstanden, die ähnlich den physisch existenten Robotern der klassischen Prozessautomatisierung bestimmte Aufgaben erfüllen. Es handelt sich dabei um Software-Agenten, die menschliches Handeln nachahmen. Dabei kann der Aufgabenbereich der jeweiligen Software-Agenten eher einfache Aufgaben wie das Versenden von Sammelmails, aber auch komplexere Aufgaben erfüllen. Der Vorteil von RPA liegt u. a. darin, dass über Kostenreduktionen Insourcing bestimmter Aufgaben wieder interessant werden kann. Problematisch kann RPA dort werden, wo keine klaren Verantwortlichkeiten benannt sind – für Wartung, Upgrades – oder wo Mitarbeiter an der Konfiguration mitarbeiten sollen, die durch die Anwendungen ersetzt werden sollen. Wichtig ist es, den richtigen Anbieter auszuwählen, der entsprechende Erfahrungen mit RPA-Projekten vorweisen kann, die in der Regel in verschiedenen Schritten vorgenommen werden: Analyse der Arbeitsprozesse (oft über Filmaufnahmen), Definition der Automatisierung, Umsetzung, Erfolgskontrolle.

Künstliche Intelligenz / Machine Learning

Machine Learning ist ein Aspekt künstlicher Intelligenz, wenngleich ein zentraler. Über maschinelles Lernen wird ein Computer in die Lage versetzt, ein selbstlernendes System zu werden, ohne ihn entsprechend zu programmieren. Auch hier wird, ähnlich dem digitalen Ökosystem, die Natur zum Vorbild genommen, etwa über „Rückmeldungen“ Objekte zu identifizieren. Dies geschieht mittels selbstlernender Algorithmen, die in Daten bestimmte Muster und Gesetzmäßigkeiten erkennen. Die Intelligenz besteht darin, ähnlich der menschlichen Intelligenz, Dinge miteinander zu verknüpfen, Zusammenhänge zu erkennen und Rückschlüsse zu ziehen. Entsprechende Programme tragen dazu bei, dass aufwendige und langweilige Arbeiten vom Rechner erledigt werden – dies gilt etwa für die Papierdokumentation.

Digital Workplace

Die Arbeitswelt verändert sich stetig. Vorbei die Zeiten, als der Beschäftigte um acht Uhr das Büro betrat und um siebzehn Uhr das Büro verließ (eine Stunde Mittagspause), wobei die Stempeluhr die Arbeitszeit dokumentierte. Heutzutage verschwimmen tendenziell die Grenzen zwischen Arbeitszeit und Freizeit. Über den Digital Workplace können Mitarbeiter von jedem Ort und zu jeder Zeit auf die Unternehmensanwendungen zugreifen, egal ob vom Rechner im Homeoffice, vom Tablet im Zug oder vom Smartphone am Strand. Das Zauberwort heißt selbstbestimmtes (und damit effektiveres) Arbeiten.

Endpoint-Security / Endpoint-Protection

Dass sich durch Homeoffice-Arbeitsplätze angesichts immer anspruchsvollerer Vorgaben des Gesetzgebers – hier sei etwa die Datenschutzgrundverordnung (DGSVO) genannt – die Anforderungen an die Compliance erhöhen, versteht sich von selbst. Ein Ansatz ist die sogenannte Endpoint-Security oder Endpoint-Protection, über die Netzwerke von Laptops, Tablets, Handys und anderen Geräten gesichert werden sollen. Die Rechtevergabe obliegt dem Systemadministrator, der auch deren Einhaltung überprüft. Dabei können Vergehen gegen die Datensicherheit – etwa unbefugte Zugriffe auf sensible Daten – sofort verfolgt und geahndet werden – wichtig gerade im Hinblick auf die Wirtschaftsspionage. Es bestehen Verbindungen zum Cloud-Computing (Software as a Service, Infrastructure as a Service) und den Thin Clients im Unternehmen.

Self-Service (Low Code)

Low-Code-Plattformen sind grafische Entwicklungsinstrumente für Geschäftsapplikationen. Sie ermöglichen es, Softwareprogramme schnell und leicht zu erstellen und anzupassen. Dazu sind weder spezielle Programmierkenntnisse noch größere Erfahrungen nötig. Über offene Schnittstellen lassen sich bestehende Technologien und Anwendungen meist problemlos nutzen. Die Vorteile liegen auf der Hand: Die Unternehmen sind weniger abhängig von externen Dienstleistern, die Programme werden bis zu zehn Mal schneller erstellt, sie können auch von Mitarbeitern der Fachabteilungen geschrieben werden, wodurch sich der Graben zwischen IT-Abteilung und Fachabteilung verringert, die internen Entwickler können sich um die komplexeren Aufgaben kümmern.

Inkrementelle vs. disruptive Innovation / Bimodale IT

Während es beim inkrementellen Ansatz um schrittweise Optimierungen und Kostensenkungen geht (Beispiele Digital Workplace, Software as a Service, RPA), setzt der disruptive Ansatz auf dramatische Änderungen meist ganzer Geschäftsmodelle. Dementsprechend liegt im IT-Bereich die inkrementelle Innovation tendenziell beim CIO und der IT-Abteilung, während die disruptive Innovation eher Sache des Vorstands (und ggf. des CDO) ist. In den meisten Fällen geht es aber nicht um ein Entweder-oder, sondern um ein Sowohl-als-auch, da beide Ansätze ihre Vor- und Nachteile haben. Stichwort: Bimodale IT. Diese umfasst ein vorhersagbares Kernsystem einerseits und eine experimentelle, agile Form andererseits, die es erlaubt, mit den schnellen Veränderungen in der Geschäftswelt Schritt zu halten. Für die IT-Abteilung wie für die Unternehmen wird es darauf ankommen, den Spagat zwischen inkrementeller und disruptiver Methode zu meistern. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Kapitel 1: Treiber und Trends

Das Potenzial vernetzter Dinge ist immens. Smart ist, wer es zu nutzen weiß.

Die Politik verantwortet die Wettbewerbsfähigkeit des digitalen Standorts Deutschland. Das betrifft vor allem Themen wie künstliche Intelligenz (1.1) oder den 5G-Netzaufbau (1.2). In den Büros beginnt die digitale Transformation mit der Standardisierung von Dokumenten in ein auswertbares Format. Sie ebnet den Weg für eine konsistente Datenbasis, mit der Prozesse automatisierbar und KI-Anwendun­gen leichter umsetzbar sind. (1.8) Beim Thema digitale Innovationen muss der deutsche Mittelstand den internationalen Vergleich nicht scheuen (1.4), wobei gerade auch in der Forschung und Entwicklung neue digitale Technologien den Innovationsprozess verändern (1.7) und agile Teams die Time to Market verkürzen (1.5). Dem Erfolg „Made in Germany“ folgt die Internationalisierung. Sprachgrenzen überwinden automatisierte Übersetzungsprozesse. (1.3) Doch Vorsicht: Mit dem technologischen Fortschritt fällt schnell so manches Geschäftsmodell der Disruption zum Opfer. Nur, wer zum Wandel bereit ist, überlebt. (1.6)

Das Kapitel im Überblick

Testen, entwickeln, forschen

In praxisnahen „Forschungsfabriken“ können neue Verfahren getestet werden – unter anderem am KIT in Karlsruhe.

Die TREND-REPORT-Redaktion sprach mit Prof. Dr.-Ing. Jürgen Fleischer, Institutsleiter des wbk Instituts für Produktionstechnik des Karlsruher Instituts für Technologie (KIT), über die neue Karlsruher Forschungsfabrik und „Company on Campus“.

Herr Prof. Fleischer, mit welchen Themen und Aufgaben beschäftigt sich Ihr Forschungsbereich?

Mein Forschungsbereich beschäftigt sich mit Maschinen, Anlagen und Prozessautomatisierung. Die Kernkompetenzen dieses Bereichs liegen in der Entwicklung und Auslegung von intelligenten, ressourceneffizienten Komponenten für Maschinen und Anlagen sowie in der Gestaltung flexibler, automatisierter Prozessketten. Neben den wesentlichen Kriterien wie Stückzahl- und Variantenflexibilität rückt der Umgang mit neuen, aber unreifen Technologien, in den Anwendungsfeldern Elektromobilität oder Leichtbaufertigung, in den Vordergrund. Zur Etablierung des Produktionsstandorts Deutschland ist die Entwicklung von Maschinen und Methoden für eine schnelle Industrialisierung von neuen, innovativen Produktionstechnologien essenziell.

Welche Aufgaben hat die „Karlsruher Forschungsfabrik“ im Kontext der neuen Technologien?

Die zunehmen­de Individualisierung und hohe Variantenviel­falt von Produkten sowie die Forderung nach neuen und komplexen Fertigungsprozessen stellen eine große Herausforderung an die produ­zierenden Unternehmen. Ziel der Karlsruher Forschungsfabrik ist es, neue Produktionstechnologien durch die interdisziplinäre Zusammenarbeit des Maschinenbaus und der Informatik schnell in sichere und profitable industrielle Fertigungsprozesse umzusetzen. Hierbei spielt die „Strategie Künstliche Intelligenz“ der Bundesregierung sicherlich eine wichtige Rolle.

Am „Campus-Ost“ des KIT, in unmittelbarer Nähe zum Fraunhofer IOSB und dem Karlsruher Technologiepark, entsteht auf rund 4 500 m² die neue Forschungsfabrik.
Bild: Heinle, Wischer und Partner Freie Architekten GbR

Allerdings kann die KI nur einen effizienten Mehrwert generieren, wenn sie intelligent mit dem domänenspezifischen Wissen von Produktionsexperten kombiniert wird. Zusätzlich sind für die oben genannten Herausforderungen neuartige Produktionsanlagen mit automatisierten Lösungen notwendig, sodass individualisierte Produkte mit kleinen Stückzahlen rentabel und flexibel fertigbar sind. Zur Erreichung dieses Ziels haben wir eine starke Kooperation zwischen dem wbk Institut für Produktionstechnik des KIT und den Fraunhofer Instituten ICT und IOSB etabliert.

Wie sehen die Anwendungsfelder der Forschungsfabrik hier aus?

Neben dem technologischen Wandel in der Mobilität durch die Transformation zu alternativen Antrieben, neuen Fahrzeugkonzepten, Geschäftsmodellen und Digitalisierung steigt der Bedarf an individualisierten, hochwertigen und gleichzeitig schnell verfügbaren Mobilitätsprodukten. Dies stellt hohe Herausforderungen an geeignete Produktionsverfahren gerade in den Anwendungsfeldern Elektromobilität und an die hybride Leichtbaufertigung.

Mit neuen Produkten sehr viel früher als bisher auf den Zielmärkten präsent zu sein … Sie versuchen gerade die „Time to Market“ insbesondere für kleine und mittlere Unternehmen im Kontext der neuen Technologien und Geschäftsmodelle zu verkürzen – wie und welche Unternehmen können sich daran beteiligen?

Ziel ist die Unterstützung der produzierenden Unternehmen und des Maschinenbaus, neue Produktionsverfahren schneller als bisher zu industrialisieren. Daraus resultiert für die Unternehmen auch gleichzeitig ein Wettbewerbsvorteil, indem sie ihre Produkte schneller an den Markt bringen können. Für die Kooperation mit Unternehmen haben wir das Konzept „Company on Campus“ entwickelt. Hier ist das Ziel, dass die Unternehmen mit den Partnern der Forschungsfabrik unter einem Dach in einer langfristigen Kooperation in sogenannten „Innovation Centern“ zusammenarbeiten. Hierfür gibt es zusätzlich moderne Büroarbeitsplätze, Konferenz- und Kreativräume in direkter Nähe zur Forschungsfabrik.

Für die Kooperation mit Unternehmen haben wir das Konzept ‚Company on Campus‘ entwickelt. Hier ist das Ziel, dass die Unternehmen mit den Partnern der Forschungsfabrik unter einem Dach in einer langfristigen Kooperation in sogenannten ‚Innovation Centern‘ zusammenarbeiten.

Welche Möglichkeiten und Vorteile bietet Ihr „Company on Campus“ für Unternehmen?

Die Karlsruher Forschungsfabrik bietet eine Plattform für den engen Austausch von Forschungsinstituten und den Unternehmen zu konkreten Entwicklungsfragen. Der Vorteil ist die Nutzung der Synergien aus der innovativen Forschung und den langjährigen Kompetenzen der Unternehmen. Zusätzlich strahlt der Standort Karlsruhe eine hohe Anziehungskraft für junge, hoch qualifizierte Mitarbeiter aus, sodass Unternehmen und Forschung davon profitieren. Neben dem Zugang zu jungen „Talenten“ aus dem Hochschulumfeld bietet die Kooperation in der Karlsruher Forschungsfabrik Potenzial für die Entwicklung neuer, disruptiver Technologien. Diese sind essenziell für die Zukunftssicherung der Unternehmen und des Produktionsstandorts Deutschland. //


Kontakt zum Interviewpartner

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Digitale Souveränität wahren

Soll sich KI auf breiter Basis durchsetzen, ist es notwendig, dass die Industrie und auch die Verbraucher Vertrauen in die Technologie gewinnen.

Die TREND-REPORT-Redaktion sprach mit Professor Holger Hanselka, Präsident des Karlsruher Instituts für Technologie (KIT) und Mitglied im Lenkungskreis der Plattform Lernende Systeme.

Herr Prof. Hanselka, welche Chancen bieten sich für den Standort Deutschland im Kontext neuer KI-Technologien?

Lernende Systeme, die auf Methoden und Technologien der künstlichen Intelligenz basieren, werden zunehmend zum Treiber der Digitalisierung in Wirtschaft und Gesellschaft. Man denke nur an Industrie 4.0, medizinische Diagnostik, autonomes Fahren sowie die Unterstützung von Rettungskräften in Katastrophengebieten. Das wirtschaftliche Potenzial dieser Systeme für Deutschland ist enorm: Bereits heute entstehen völlig neue Geschäftsmodelle, welche die traditionellen Wertschöpfungsketten drastisch verändern.

Aktuell ist die Herausforderung im Zusammenspiel von Wissenschaft und Wirtschaft, dass wir unser Wissen rasch für neue KI-Anwendungen und Geschäftsmodelle nutzen, denn lernende Systeme sind ein zentraler Wettbewerbsfaktor für die Zukunftsfähigkeit des Innovationsstandortes Deutschland.

Dies bietet Chancen für neue Unternehmen, kann aber auch zur Bedrohung für etablierte Marktführer werden, wenn diese nicht rechtzeitig reagieren. In Deutschland ist es unser erklärtes Ziel, dass künstliche Intelligenz dem Menschen dienen soll, nicht umgekehrt. So steht es auch in der KI-Strategie der Bundesregierung. Dies ist auch der Kerngedanke der Plattform Lernende Systeme, in der Politik, Wirtschaft und Wissenschaft zusammenarbeiten, um die Chancen, die KI bietet, bestmöglich für Deutschland zu nutzen.

Die deutschen Investitionen in KI-Technologien, im Vergleich zu den USA und China, fallen eher nüchtern aus. Wie können wir mit der Forschung am Ball bleiben?

In unserer Forschung zu Industrie 4.0, beim autonomen Fahren oder auch im Bereich der Entwicklung von lernenden Systemen für lebensfeindliche Umgebungen nehmen wir in Deutschland bereits einen Spitzenplatz ein. So halten deutsche Unternehmen weltweit die meisten Patente zum autonomen Fahren. Auch in der IT-Sicherheit, einer wichtigen Voraussetzung für Industrie 4.0, sind wir wissenschaftlich weit vorne. Beispielsweise erforschen wir am Karlsruher Institut für Technologie in unserem Kompetenzzentrum für IT-Sicherheit KASTEL, wie sich KI nutzen lässt, um gegen Angreifer gewappnet zu sein, und wie man sich gegen menschlich und künstlich intelligente Angreifer-Systeme wehrt.

Mit der zunehmenden Vernetzung von Unternehmen und öffentlichen Einrichtungen wächst auch deren potenzielle Verwundbarkeit durch Cyber-Angriffe.

Damit die Industrie Vertrauen in KI gewinnt, ist es erforderlich, dass wir die digitale Souveränität wahren können. Die Herausforderung im Zusammenspiel von Wissenschaft und Wirtschaft ist aktuell, dass wir unser Wissen rasch für neue KI-Anwendungen und Geschäftsmodelle nutzen, denn lernende Systeme sind ein zentraler Wettbewerbsfaktor für die Zukunftsfähigkeit des Innovations­standortes Deutschland.

Wie können wir mehr Start-ups im Kontext der neuen Technologien an den Start bringen und fördern?

Wichtig ist eine Gründerförderung auf allen Ebenen. Daher sieht die KI-Strategie der Bundesregierung konkrete Maßnahmen vor, um die Zahl der Gründungen im Bereich der KI zu erhöhen, von Beratungsangeboten bis hin zur Bereitstellung von Wagniskapital. Klar ist: Das Wissen, das wir aktuell in Deutschland haben, müssen wir in den Markt bringen, sodass es der Gesellschaft und Wirtschaft nutzt. Auch am KIT fördern wir massiv Ausgründungen.

Zwei Beispiele: Das 2016 gegründete Unternehmen „Understand ai“ mit Wurzeln am KIT kombiniert Machine Learning mit menschlicher Sorgfalt und bereitet mithilfe selbstlernender Algorithmen Daten für das autonome Fahren auf. „Things Thinking“ setzt KI ein, um große Textmengen in kurzer Zeit zu analysieren, was beispielsweise Wirtschaftsprüfern, Steuerberatern und Kanzleien weiterhilft. Wichtig ist, dass wir Gründern in jedem Schritt des Unternehmensaufbaus systematisch Beratungsangebote an die Hand geben. Dies bedeutet auch, dass wir im Sinne einer Kultur des Scheiterns gesellschaftlich anerkennen, dass junge Unternehmen auch von negativen Erfahrungen lernen und dadurch immer besser werden.

Wo befinden wir uns ungefähr im Entwicklungsprozess der „wirklichen KI“?

Wenn Sie mit „wirklicher KI“ die Unterscheidung von starker und schwacher KI meinen, dann bin ich der falsche Ansprechpartner, denn ich bin kein Informatiker und auch kein Philosoph. Aber als Ingenieur interessiert mich sehr, wie KI in unterschiedliche technische Entwicklungsprozesse einfließt und dort zu großen Veränderungen führt. Denn letztendlich ist es ja nicht die KI, die gesellschaftliche Veränderungen mit sich bringt, sondern die technischen Veränderungen in unterschiedlichen Anwendungsbereichen, die durch KI erreicht werden können. Und da sind die Veränderungen, die man heute schon durch den Einsatz von KI erreichen kann, durchaus schon beträchtlich.

Diesen Ansatz verfolgen wir ja auch in der Plattform Lernende Systeme, wo drei Arbeitsgruppen sich konkreten Anwendungsszenarien widmen, zu intelligenten Verkehrssystemen, zur Gesundheit und zu lebensfeindlichen Umgebungen.

Teilweise autonom fahrende Fahrzeuge sind bereits Realität.

Was wird in naher Zukunft zu erwarten sein?

Im autonomen Fahren werden wir gewaltige Fortschritte machen. Autos, die selbstständig einparken und die uns von A nach B bringen werden, sind ja bereits heute Realität. Fahrerlose Autos werden mehr und mehr unsere Mobilität prägen, die multimodal sein wird und verschiedene Verkehrsmittel kombiniert, idealerweise geplant mit einer App. Dies wird auch die Stadt- und Regionalentwicklung positiv beeinflussen, weil gerade auch ältere Menschen durch das fahrerlose Auto mobiler sind und nicht mehr zwingend in die Stadt ziehen müssen.

Genauso ist die intelligente integrierte Vernetzung der Produktion ein Prozess, der längst begonnen hat und sich in der globalisierten Welt mehr und mehr durchsetzen wird. Dies hat zur Folge, dass wir nicht in Ländergrenzen denken dürfen, sondern europaweit Strategien entwickeln müssen. Die jüngst verkündete Zusammenarbeit von Daimler und BMW beim autonomen Fahren ist ein wichtiges Zeichen, denn es geht darum, in Europa die Kräfte zu bündeln.

Wir müssen KI fest in die in­ge­nieurwissenschaftliche Ausbildung integrieren.

Auch werden sich Berufsbilder verändern. Das Weltwirtschaftsforum rechnet damit, dass schon bis zum Jahr 2022 weltweit rund 75 Millionen Arbeitsplätze durch Maschinen ersetzt werden. Gleichzeitig werden der Studie zufolge in den kommenden fünf Jahren 133 Millionen neue Stellen geschaffen, für die teilweise ganz neue Fachkenntnisse nötig sein werden, wie Datenanalysten, E-Commerce- und Social-Media-Spezialisten.

Dies bedeutet, dass bereits Schülerinnen und Schüler programmieren lernen und wir KI fest in die ingenieurwissenschaftliche Ausbildung integrieren müssen. Denn künftig werden wir KI in jedem Schritt der Entwicklung von neuen Produkten mitdenken müssen.

Wie könnten in Zukunft die neuen KI-Technologien unsere Netze und Anwendungen sicherer machen und welche Herausforderungen sind noch zu meistern?

Der Hackerangriff auf den Bundestag Ende des letzten Jahres und die Cyberattacke „Wanna Cry“ auf die Deutsche Bahn im Mai 2017 sind nur zwei Beispiele für Angriffe auf IT-Systeme des Staates und der Wirtschaft. Mit der zunehmenden Vernetzung von Unternehmen und öffentlichen Einrichtungen wächst auch deren potenzielle Verwundbarkeit durch Cyber-Angriffe.

KI kann die Sicherheit von IT-Systemen verbessern. Wir sollten aber darauf achten, nicht nur die Außengrenzen eines komplexen IT-Systems zu schützen, das reicht nicht aus. Denn wir müssen auch reagieren können, wenn ein Teil des IT-Systems von einem Angreifer übernommen wurde.

KI-Systeme können ihr Potenzial ausspielen, wenn es um die verlässliche Angriffserkennung geht. Eine Herausforderung besteht darin zu verstehen, warum eine KI dies oder jenes tut. Daher brauchen wir dringend weitere Forschung und Einblicke in die „Blackbox“ der KI, damit wir uns auf die Entscheidungen von KI-Systemen in kritischen Situationen verlassen können. //

Kontakt zum Interviewpartner

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

5G: Steuerung ohne Latenz

Der 5G-Standard: Grundvoraussetzung für das Industrial IoT

von Kristina Kastner

Immer mehr, immer schneller: Jahrzehntelang wurden mit jedem neuen Mobilfunkstandard die Datenraten massiv erhöht. So auch diesmal, beim Wechsel von 4G zu 5G. Und doch ist diesmal etwas fundamental anders: Für das IoT sind exorbitante Geschwindigkeiten beim Up- und Download zwar interessant, wichtiger aber sind Zuverlässigkeit, niedrige Latenzen und eine gute Festkörperdurchdringung. Im Mittelpunkt der Standardisierungsbemühungen stehen bei 5G mehrere Milliarden Maschinen, Autos, Dinge, die in Echtzeit miteinander kommunizieren wollen.

Mobilfunknetze haben seit den 1980er-Jahren vor allem einen Zweck: Menschen zu verbinden. Zunächst diente das Netz ausschließlich zum Telefonieren, also der Sprachübertragung. Danach gab es ungefähr alle zehn Jahre einen Entwicklungssprung durch die Einführung eines neuen Mobilfunkstandards.

In den 1990er-Jahren kam mit der zweiten Generation (2G) die Textübertragung in Form der SMS hinzu. Internetfähig war kaum ein Mobilgerät. Und wenn doch, wurden mobile Daten über GPRS oder per Edge (E) mit maximal 220 kbit / s übertragen. Das reicht kaum für den Aufbau einer modernen Website.

Mit der dritten Generation (3G oder auch UMTS) begann der Siegeszug der Smartphones und das Internet wurde mobil – um mit der vierten Generation (4G oder auch LTE-Advanced) seine heutige Geschwindigkeit zu erreichen. In der Theorie sind heute Downloadgeschwindigkeiten von 1 000 Mbit / s möglich, in der Praxis sind es allerdings eher 50 Mbit / s. Das liegt zum Beispiel daran, dass zu viele Nutzer in einer Zelle eingewählt sind, oder daran, dass sich der Nutzer in einem geschlossenen Raum befindet und sich der Empfang dadurch deutlich verschlechtert.

Seit 1998 federführend bei der Standardisierungsarbeit ist 3GPP („3rd Generation Partnership Project“), eine weltweite Kooperation von Standardisierungsgremien. Ein Großteil aller Mobilfunknetzbetreiber, -hersteller und -regulierungsbehörden ist hier organisiert und erarbeitet technische Spezifikationen, die alle Aspekte der Mobilfunktechnik möglichst präzise beschreiben. So soll sichergestellt werden, dass die Mobilgeräte der Hersteller in den Mobilfunknetzen weltweit kompatibel sind.

„In der Fabrik der Gegenwart sind zahlreiche Prozesse automatisiert. Zudem werden heute bereits Maschinendaten gesammelt, analysiert und zur Optimierung von Abläufen genutzt.“

Soweit zur Geschichte der Mobilfunkstandards. Die Zukunft heißt 5G und wird für das Jahr 2020 erwartet. 5G verspricht nicht weniger als eine Revolution: Zum ersten Mal steht nicht die Kommunikation zwischen Menschen im Mittelpunkt der Weiterentwicklung, sondern die zwischen Dingen – das Internet of Things. Selbstverständlich wird auch in diesem Entwicklungsschritt das Mobilfunknetz bzw. das mobile Internet noch komfortabler für die menschlichen Anwender. Bis zu 10 Gb / s Downloadgeschwindigkeit und sogar 20 Gb / s im Upload sollen zukünftig laut 3GPP-Spezifikationen – in der Spitze – möglich sein. 5G richtet sich (zumindest in Europa) aber weniger an die Endverbraucher als vielmehr an die Industrie und die hat, über die hohen Bandbreiten hinaus, ganz andere Bedürfnisse.

Vernetzung in der Smart Factory

In der Fabrik der Gegenwart sind zahlreiche Prozesse automatisiert. Zudem werden heute bereits Maschinendaten gesammelt, analysiert und zur Optimierung von Abläufen genutzt. So kann mancherorts der Wartungsbedarf prognostiziert und vorausschauend eingeplant werden – Stillstände werden so vermieden. Um die dafür benötigten Daten zu sammeln, werden die Maschinen mit Sensoren ausgestattet, die in einem lokalen Netzwerk vernetzt sind und die Daten zu einer Plattform in einer Cloud schicken.

Die Fabrik der Zukunft, die Smart Factory, basiert auf solchen intelligenten Einheiten. Das bedeutet, die Zahl der vernetzten Dinge steigt: Dazu gehören etwa fahrerlose Transportfahrzeuge in der Logistik oder Transportbehälter, die ihre aktuelle Position und ihren Füllstand melden, aber auch Augmented-Reality-Brillen, die die Fabrikarbeiter durch komplexe Anwendungen und Arbeitsschritte führen.

Der große Unterschied zwischen heute und morgen: Heutige Vernetzungstechnologien sind größtenteils noch kabelgebunden. Hier kommen vor allem Ethernet- und Feldbus-Technologien zum Einsatz. Die Smart Factory aber muss kabellos funktionieren, denn nur so wird die benötigte Mobilität und Flexibilität möglich – also etwa das Tracken einer Lieferung in einer komplexen Logistikkette. Heutige Funkverbindungen genügen jedoch kaum den Ansprüchen der Smart Factory, insbesondere in Hinblick auf Zuverlässigkeit, Latenzen und die Möglichkeit, eine große Masse an Dingen miteinander – in Echtzeit – zu vernetzen.

Erste Schritte auf dem Weg zur Smart Factory sind heute schon möglich: So existieren bereits jetzt mit Narrowband-IoT und M2M-Kommunikation Technologien und Konzepte, die die Vernetzung zwischen Dingen bzw. Maschinen möglich machen. Narrowband-IoT ist als 3GPP-Standard Teil von „Long Term Evolution“ (LTE). Er funktioniert über simple Funkmodule, die per Plug & Play installiert werden und günstig in der Anschaffung und im Betrieb sind – und somit ideal für IoT-Anwendungen, die nur ab und zu kleine Datenmengen versenden. An Narrowband-IoT lässt sich bereits ablesen, was den 5G-Standard gegenüber seinen Vorgängern so besonders macht: Bei Industrieanwendungen wie dem IoT geht es nur selten um große Bandbreite und hohe Geschwindigkeiten. Vielmehr müssen kleine Datenmengen zuverlässig übertragen werden – auch in schwierigen Umgebungen und über große Distanzen.

Das Netzwerk in Scheiben schneiden

Die Herausforderung, die der 5G-Standard meistern muss, liegt auch und besonders in der Zahl der Geräte, die sich im mobilen Netz befinden. Laut einer Prognose des US-amerikanischen Marktforschungsunternehmens IDC werden im Jahr 2020 etwa 1,8 Milliarden Smartphones weltweit mobiles Internet nutzen – hinzu kommen bis zu 50 Milliarden vernetzte Fahrzeuge, Maschinen und sonstige Geräte, die miteinander, mit der Cloud und mit den Nutzern kommunizieren. Die Lösung liegt darin, das Netz zu entzerren, je nach Anforderung. Das geschieht durch das sogenannte Network-Slicing. Dabei bekommt jede Anwendung das Netz, das sie benötigt, indem das Netz virtuell in Abschnitte oder Sub-Netze mit eigens definierten Ressourcen- und Verfügbarkeits-Garantien unterteilt wird.

Im 5G-Netz werden neue Frequenzbereiche hinzugezogen, die bisher nicht genutzt wurden. Bisher findet der gesamte Mobilfunk im Bereich bis 6 GHz statt. Die Frequenzen darüber hinaus waren nicht nutzbar, da bislang die notwendigen Technologien fehlten. Die neuen, großen Übertragungsraten finden alle oberhalb von 6 GHz statt. Das bedeutet unter anderem, dass das Netz deutlich engmaschiger werden muss, als das bisher der Fall war. Hier werden die Mobilfunkbetreiber investieren müssen, in neue – und vor allem mehr – Antennen. Das Signal der IoT-Endgeräte dagegen muss Wände und andere Festkörper durchdringen können, da es in Gebäuden auch vom Kellergeschoss ins Erdgeschoss gelangen muss. Diese Festkörperdurchdringung ist besonders bei den niedrigen Frequenzen gegeben, außerdem wird in diesem Spektrum eine hohe Zuverlässigkeit erreicht. Für eine flächendeckende Abdeckung ist das 2,6-GHz-Spektrum prädestiniert.

Pro Quadratkilometer eine Million vernetzter Geräte

Das IoT stellt fünf große Anforderungen an das mobile Netz: Größtmögliche Netzabdeckung, robuste Übertragungen, maximale IT-Sicherheit, geringstmöglicher Stromverbrauch und minimale Kosten. IoT-Endgeräte verbrauchen durch die Einschränkungen bei der Datenrate und der Sendefrequenz sehr wenig Strom, sodass ein Batteriesatz zehn Jahre oder länger halten kann. Aufgrund der geringen benötigten Bandbreite lassen sich mehrere 10 000 IoT-Endpunkte (an denen die gesendeten Daten der vernetzten Geräte zusammenlaufen) mit einer Funkzelle versorgen. Das 5G-Netz wird für die Vernetzung von einer Million Geräte / Dinge pro Quadratkilometer ausgelegt sein.

„Die Herausforderung, die der 5G-Standard meistern muss, liegt auch und besonders in der Zahl der Geräte, die sich im mobilen Netz befinden.“

Ein weiterer Faktor, der für das IoT elementar ist, ist die niedrige Latenz. Der Zeitraum zwischen dem Auftreten eines Signals beim Sender und dem Eintreffen desselben beim Empfänger muss für Industrieanwendungen so kurz wie möglich sein, sodass etwa im Falle einer Störung im Produktionsablauf kein Domino-Effekt einsetzt und weitere Schäden nach sich zieht. Gleichzeitig dürfen die betreffenden Anwendungen praktisch keinerlei Ausfall verzeichnen. Im 4G-Netz liegt die Latenz bei 10 ms, sie soll auf 1 ms in 5G sinken.


Quelle: Begleitforschung Technologieprogramm PAiCE

Mitreden bei der Standardisierung

Die Arbeit am 5G-Mobilfunkstandard soll im Rahmen der 3GPP bis Ende 2019 abgeschlossen werden, sodass 2020 mit der Einführung begonnen werden kann. In den einzelnen Arbeitsgruppen sind auch Vertreter aus Forschung und Wirtschaft vertreten, unter anderem auch aus Deutschland. So auch mehrere Projektpartner des Forschungsprojektes IC4F aus dem Technologieprogramm PAiCE des Bundesministeriums für Wirtschaft und Energie (BMWi), das an robusten und echtzeitfähigen Kommunikationslösungen für die verarbeitende Industrie arbeitet. Sie konnten einige relevante Anwendungsfälle und Anforderungen an 5G im Kontext der Smart Factory in die 5G-Standardisierung einbringen. Diese wurden im Technical Report „Study on Communication for Automation in Vertical domains” berücksichtigt. Auf diese Weise können einzelne Branchen Einfluss darauf nehmen, dass ihre Interessen bei der Formulierung des 5G-Standards berücksichtigt werden.

„Die Arbeit am 5G-Mobilfunkstandard soll im Rahmen der 3GPP bis Ende 2019 abgeschlossen werden, sodass 2020 mit der Einführung begonnen werden kann.“

Der betreffende Technical Report deckt Anwendungsfälle aus wichtigen Bereichen wie Service-Robotik, Augmented Reality, Virtual Reality, Fertigungsautomatisierung, Prozesssteuerung und -überwachung, mobile Fernsteuerung und Fernwartung mit Sicherheitsfunktionen sowie massive funkbasierte Sensornetze ab. So konnte etwa festgelegt werden, dass mobile Robotiksysteme, die über ein 5G-Netz kommunizieren, in der Lage sein müssen, in Echtzeit miteinander zu kommunizieren und Kontrolldaten auszutauschen. Dies ist elementar für die kollisionsfreie Zusammenarbeit, da in der Fabrik der Zukunft bis zu hundert (potenziell bis zu 1 000) autonome mobile Robotiksysteme gleichzeitig zusammenarbeiten werden. Einer von vielen Schritten hin zu einem Industrial IoT. //


Autorenvita Kristina Kastner

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Künstliche Intelligenz ohne Vorurteile

Die Datenqualität bestimmt die Leistungsfähigkeit selbstlernender Systeme.

von Andrea Martin

Künstliche Intelligenz (KI) kreiert Tausende neue Möglichkeiten und stößt Türen in digitale Welten auf, die vorher unerreichbar waren. Um bei diesem Fortschritt nicht den Anschluss zu verpassen, investieren viele Unternehmen derzeit kräftig in Funktionalitäten, die die neue Technologie mit sich bringt. Von Chatbots, die Unternehmen helfen, Gespräche mit ihren Kunden zu personalisieren, bis hin zu Systemen, die jahrzehntelanges institutionelles Wissen für einen Fachexperten sofort zugänglich machen. Die Wunderwaffe von intelligenten KI-Systemen: Dort Muster zu erkennen und intelligente Vorhersagen aus erhobenen Daten zu treffen, wo die kognitiven Fähigkeiten des Menschen nicht mehr ausreichen.

Laut einer aktuellen Studie von IDC haben gut ein Viertel der befragten Unternehmen in Deutschland bereits KI-Projekte umgesetzt. 69 Prozent wollen in den nächsten zwölf Monaten neue KI-Initiativen anstoßen. Gebremst wird diese Entwicklung allerdings von einem mangelnden Vertrauen in die „denkenden Maschinen“. Viele machen sich Gedanken, ob sie den Ergebnissen einer KI-Lösung vertrauen können und ob die neue Technologie auch allen rechtlichen Vorschriften entspricht. Im Zentrum steht dabei die Frage, ob und wie sich die Entscheidungen von selbstlernenden Maschinen nachvollziehen und überprüfen lassen.

Unfaire Verzerrungen in den Daten identifizieren

Die Vision ist simpel: Statt sich auf menschliche Annahmen zu stützen, beispielsweise bei der Kreditvergabe oder bei der Vorauswahl im Bewerbungsprozess, beziehen sich die lernenden Maschinen auf statistische Modelle aus einer Vielzahl von Datenquellen und Parametern. Das Problem dabei: Enthalten die Daten unbewusste Vorurteile, Stereotype und altmodische Rollenbilder, werden diese von den lernenden Algorithmen nicht nur übernommen, sondern noch zusätzlich verstärkt.

Vertrauens- und Transparenzprinzipien

  • Der Zweck einer KI ist es, die menschliche Intelligenz zu erweitern und zu unterstützen.
  • KI-Systeme müssen transparent und erklärbar sein.

  • Daten und Erkenntnisse gehören ihren Schöpfern bzw. den jeweiligen Unternehmen, die das KI-System nutzen.

Wenn Fotos und deren Beschriftungen Kochen überwiegend mit Frauen in Verbindung bringen, dann lernt die Software Kochen immer als Frauentätigkeit zu erkennen. Die Maschinen denken dann genauso in Rollenklischees wie wir Menschen. Mitarbeiter müssen KI-Lösungen und die resultierenden Ergebnisse während der Entwicklung, der Trainingsphase und im Betrieb genau beobachten. Ziel ist, statistische und systematische Fehler zu erkennen, ggf. Gegenmaßnahmen zu ergreifen und deren Effekt zu überwachen.

Vielfalt menschlicher Gesichter stellt KI auf die Probe

Die Herausforderungen beim Training von künstlicher Intelligenz zeigen sich besonders bei der Gesichtserkennung. Es ist nicht einfach, Gesichtserkennungssysteme zu entwickeln, die in puncto Fairness unseren Erwartungen entsprechen. Der Kern des Problems liegt dabei nicht in der KI-Technologie selbst, sondern in der Art und Weise, wie die KI-gestützten Gesichtserkennungssysteme optimiert und trainiert werden.

Wie funktionieren neuronale Netze? 

Neuronale Netzwerke sind Rechenmodelle für das maschinelle Lernen, die von der Struktur des menschlichen Gehirns inspiriert sind. Im Gehirn sind Neuronen hochgradig vernetzt und kommunizieren chemische Signale über Synapsen in den Nervenzellen.

Künstliche neuronale Netze kommunizieren Signale (Zahlen) über Gewichte und Aktivierungsfunktionen (z. B. Sigmoide), die Neuronen aktivieren. Sie werden anhand von Beispielen trainiert und nicht explizit programmiert: Mithilfe eines Trainingsalgorithmus passen die Netzwerke in jeder „Trainingsrunde“ diese Gewichte an, um ein bestimmtes Problem immer besser zu lösen – das Netz „lernt“.

Um die gewünschten, immer exakteren Resultate zu erzielen, müssen die Trainingsdaten vielfältig sein und eine enorme Bandbreite an Informationen abdecken. Nur so kann die KI die Nuancen erkennen, durch die sich Gesichter in verschiedenen Situationen voneinander unterscheiden. Die Trainingsbilder müssen diese unterschiedlichen Gesichtsmerkmale der Gesichter widerspiegeln.

Ein Großteil der Leistungsfähigkeit von KI kommt heute durch den Einsatz von immer präziseren datengetriebenen Deep-Learning-Optimierungseinheiten, die immer größere Datenmengen nutzen können, um KI-Systeme zu trainieren. Die Stärke dieser Methode kann aber wie in den Beispielen dargestellt gleichzeitig auch eine Schwäche sein. Denn KI-Systeme lernen, was ihnen beigebracht wird. Werden sie nicht mit soliden und vielfältigen Datensätzen optimiert, können die Ergebnisse verzerrt werden, damit die Fairness leiden und letztlich auch die Genauigkeit.

Andrea Martin, CTO IBM

Anhand dieser Trainings-Datensätze weiß man jedoch, auf welcher Datengrundlage die KI-Systeme lernen und Entscheidungen treffen. Wie genau die neuronalen Netze aber zu ihren Schlussfolgerungen kommen, lässt sich im Moment noch kaum nachvollziehen. Für Nutzer sind sie oftmals eine Blackbox – undurchsichtig und schwer zu erschließen.

Zu einer transparenten Offenlegung der Entscheidungswege von KI gehört, dass jede Vorhersage, jede Modellversion und jegliche Trainingsdaten dokumentiert und gespeichert werden – und damit Unternehmen bei der auditsicheren Einhaltung von Compliance-Richtlinien und der DSGVO unterstützt.

Andrea Martin

KI-Empfehlungen transparent nachvollziehen

Zu einer transparenten Offenlegung der Entscheidungswege von KI gehört, dass jede Vorhersage, jede Modellversion und jegliche Trainingsdaten dokumentiert und gespeichert werden – und damit Unternehmen bei der auditsicheren Einhaltung von Compliance-Richtlinien und der DSGVO unterstützt.

Das ist besonders in stark regulierten Branchen wie dem Finanz- und Gesundheitswesen oder auch in datenintensiven und -sensiblen Branchen wie der Automobil- oder der Pharmaindustrie relevant, in denen die Einhaltung der DSGVO und anderer umfassender Vorschriften erhebliche Hindernisse für eine breite Anwendung von KI darstellt.

Ohne Ethik gibt es kein Vertrauen

Die Debatte um eine verantwortungsvolle Entwicklung und Nutzung von KI in Deutschland wird inzwischen auch auf höchster politischer Ebene adressiert. Die Bundesregierung begreift künstliche Intelligenz als Schlüsseltechnologie, ist sich jedoch ebenfalls über die gesellschaftlichen und ethischen Implikationen bewusst. Die „Strategie Künstliche Intelligenz“ greift daher die zentralen Fragestellungen auf und wird auch in der Enquete-Kommission „Künstliche Intelligenz“ des Bundestages diskutiert. Sie soll einen Rahmen bilden, wie sich KI gemeinwohlorientiert entwickeln und einsetzen lässt.

Enquete-Kommission

  • Setzt sich aus 19 Mitgliedern des Deutschen Bundestages und 19 sachverständigen externen Expertinnen und Experten zusammen

  • Untersucht die Potenziale und den zukünftigen Einfluss von KI auf unser (Zusammen-)Leben, die deutsche Wirtschaft und die zukünftige Arbeitswelt

  • Erörtert sowohl die Chancen als auch die Herausforderungen von KI für Gesellschaft, Staat und Wirtschaft

  • In öffentlichen Kurzvorträgen umreißen Sachverständige theoretische und praktische Aspekte rund um KI

  • Sitzungen werden im Internet auf www.bundestag.de live (zeitversetzt) übertragen

Um KI-Systemen vertrauen zu können, müssen wir verstehen, warum sie die Entscheidungen treffen, die sie treffen. Die Entwicklung von KI darf kein Selbstzweck sein, sondern muss dem Menschen dienen. Hier bedarf es Leitlinien, Prinzipien und Werte, die eine KI einhalten muss – ähnlich dem Grundgesetz. Denn Vertrauen und Akzeptanz kann nur durch einen vertrauensvollen Umgang mit KI aufgebaut werden. //

Kontakt zur Autorin

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Auf Unbekanntes vorbereiten

Im Kontext von Datensicherheit bedeuten KI-Systeme zwangsläufig, dass Organisationen sich auf neuartige Bedrohungen einstellen müssen.

Prof. Dr. Jörn Müller-Quade erläuterte der TREND-REPORT-Redaktion das Forschungs­feld „Kryptographie und Sicher­­heit“ am KIT und mögliche künftige Bedrohungsszenarien im Kontext von KI.

Herr Prof. Müller-Quade, mit welchen Themen und Aufgaben beschäftigt sich Ihr Forschungsbereich?

Ich erforsche kryptographische Protokolle, etwa für Online-Banking oder Online-Wahlen. Für mich sind diese Verfahren wie kleine Wunder, weil scheinbar Unmögliches erreicht wird, so kann etwa die Korrektheit der Auszählung einer Online-Wahl nachgewiesen werden, ohne dass das Wahlgeheimnis verletzt wird. Neben dem Nutzen, den solche Verfahren in der IT-Sicherheit haben, finde ich sie auch für sich genommen faszinierend. Sogenannte Zero-Knowledge-Beweise können einen von einer Aussage überzeugen, ohne dabei aber mehr zu verraten als die Gültigkeit eben jener Aussage. Sichere Mehrparteienberechnungen erlauben es mehreren Teilnehmern gemeinsam, auf geheimen Eingaben der einzelnen Teilnehmer basierend ein Ergebnis verteilt zu berechnen – ohne dass ein Teil der Teilnehmer das Ergebnis manipulieren oder mehr erfahren kann als eben das Ergebnis. Wie man so etwas hinbekommt und wie man aus solchen mächtigen Bausteinen größere Anwendungen bauen kann, sind Grundfragen der kryptographischen Forschung.

Auf welche Gefahren und Szenarien im Kontext von KI-Technologien müssen wir uns einstellen?

KI-Systeme können Angreifer unterstützen, damit können beispielsweise Angriffe, die bisher mühsam von Menschen gemacht werden müssen, automatisiert werden, was zu einer enormen Zunahme solcher Angriffe führen wird. Konkret denke ich an „Spear Phishing“, also maßgeschneiderte Betrugs-E-Mails, die eine Schadsoftware enthalten, die aktiv wird, wenn man den Empfänger dazu verleitet, eine Datei oder einen Link anzuklicken. KI-Systeme entwickeln in manchen Bereichen übermenschliche Leistungen und könnten somit auch völlig neue Angriffe finden. KI-Systeme, wie sie in Zukunft in vielen Anwendungen stecken werden, können auch selbst angegriffen werden. Wenn man das Verhalten einer KI analysiert, kann man diese KI leicht täuschen, oder wenn man Trainingsdaten verfälscht, kann ein sehr unerwünschtes Verhalten der KI bewirkt werden. Ein Problem ist, dass wir KI-Systeme nicht gut verstehen, daher müssen wir KI-Systeme geschickt mit klassischen Systemen kombinieren, wir benötigen ein „KI-Engineering“.

Wie können schlaue Algorithmen und KI im Kontext der Cybersecurity zum Einsatz gebracht werden?

Angriffe lassen sich nicht 100-prozentig verhindern, daher ist auch die Angriffserkennung extrem wichtig. Insbesondere hier werden KI-Systeme enorm nützlich sein. Auch werden KI-Systeme bei Sicherheitstests helfen, etwa Systeme testweise angreifen, um die Systeme weiter zu härten. Dies ist beispielsweise denkbar für sogenannte Seitenkanalangriffe auf Hardware. Ist etwa der Stromverbrauch einer Berechnung korreliert mit geheimen Eingaben der Berechnung, könnten KI-Systeme dies in Zukunft besser erkennen als Menschen. Leider haben solche Ansätze einen Dual-Use-Charakter und könnten auch von Angreifern missbraucht werden, hier erwarte ich ein Hase-und-Igel-Wettrennen. KI-Systeme könnten den Datenschutz verbessern, ein Beispiel ist das NurseEYE-System, bei dem ein schlauer Algorithmus aus Video­daten Stürze von Patienten in einem Krankenhaus erkennt. Erst wenn ein Sturz erkannt wird, werden die hochaufgelösten Videodaten an das Klinikpersonal weitergegeben.

Was meinen Sie mit dem „systemischen Ansatz zur wirksameren Vorbeugung von Cyberangriffen“?

Wenn wir in Zukunft befürchten müssen, dass KI-Systeme oder Mensch-Maschine-Teams völlig neue Angriffe finden, wird es nicht genug sein, unsere IT-Systeme gegen bekannte Angriffe zu patchen. Wir müssen uns auf unbekannte Angriffe vorbereiten. Hier könnte die Kryptographie ein Vorbild sein. Dort gibt es die sogenannte beweisbare Sicherheit, dies ist leider eine sehr missverständliche Bezeichnung, denn die Sicherheit realer Systeme lässt sich nicht beweisen. Dennoch wird in einem mathematischen Modell nachgewiesen, dass jeder erfolgreiche Angriff vorher explizit angegebene Sicherheitsannahmen verletzt. Dieser Zugang berücksichtigt alle Angriffe, auch bisher unbekannte Angriffe, die sich im Modell darstellen lassen. Wird nun ein beweisbar sicheres Verfahren dennoch gebrochen, so ist entweder das Modell noch nicht nahe genug an der Realität oder eine Sicherheitsannahme ist falsch. Durch jeden erfolgreichen Angriff hat man einen Erkenntnisgewinn.

Inwieweit können die Blockchain-Technologien helfen, die IT sicherer zu machen, und welche Rolle spielt dabei die Kryptographie?

Die Blockchain ist ein gutes Beispiel dafür, wie kryptographische Verfahren scheinbar Unmögliches schaffen. So kann eine Blockchain die Basis für eine Währung sein, die ein gewisses Maß an Anonymität hat und obwohl sie überhaupt nicht mehr an stoffliche Artefakte gebunden ist, dennoch einen Wert hat. Neben der Blockchain gibt es aber noch viele andere kryptographische Verfahren, die manchmal sogar viel geeigneter sind, all die Probleme zu lösen, für die zurzeit die Blockchain vorgeschlagen wird. Prinzipiell kann man sich vorstellen, dass all die Aufgaben, für die zur Zeit ein vertrauenswürdiger Vermittler nötig ist, etwa ein Auktionator, ein Notar oder eine Bank, auch von verteilten kryptographischen Verfahren gelöst werden können.

Sichere Verschlüssungsverfahren? Was raten Sie an?

Bei Verschlüsselungsverfahren wird der Erfolg der Kryptographie besonders deutlich. Die Snowden-Enthüllungen haben gezeigt, dass selbst die NSA moderne Verschlüsselungsverfahren nicht brechen konnte und Hintertürchen benutzen musste. Wie KI-Systeme die IT-Sicherheit in Zukunft verändern werden, ist eine der Fragen, der die nationale Plattform Lernende Systeme nachgeht. Bei Verschlüsselungsverfahren bin ich aber optimistisch, dass keine Gefahr besteht. Trotzdem gibt es selbst hier noch Forschungsbedarf, etwa an Verfahren, die auch langfristig sicher bleiben, etwa, wenn Quantencomputer möglich werden. Die eigentliche Schwachstelle bei der sicheren Kommunikation sind die Endgeräte, mein Rat wäre also, verstärkt auch Endgerätesicherheit systematisch zu erforschen.

Kryptographie: Welche Chancen und Möglichkeiten bringt in diesem Kontext das Forschungsgebiet der „sicheren Mehrparteienberechnung“?

Sichere Mehrparteienberechnungen erlauben es mehreren sich gegenseitig misstrauenden Teilnehmern, gemeinsam etwas auszurechnen. Die geheimen Eingaben der Teilnehmer bleiben geschützt und das Ergebnis kann nicht manipuliert werden, selbst wenn einige der Teilnehmer beliebig vom Protokoll abweichen. Anwendungen hierfür wären etwa Berechnungen auf Medizindaten, die in verschiedenen Kliniken vorliegen, aber die Klinik nicht verlassen dürfen, oder automatisierte Verhandlungen, bei denen nichts bekannt wird, außer dem Geschäftsabschluss, wenn er zustande kommt. Auch denkbar ist, dass man mit diesem Paradigma sichere Systeme aus nicht vertrauenswürdigen Komponenten aufbaut und so digitale Souveränität erreichen könnte, ohne alles selber machen zu müssen. //


Kontakt zum Interviewpartner

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Aufmacherbild von Hebi B. auf Pixabay

Das „Internet of Medical Things“ (IoMT)

E-Health-Innovationen machen unser Leben sicherer und gesünder – ein Milliardengeschäft.

Das Marktforschungsunternehmen Gartner erwartet bis 2020 weltweit 20 Milliarden vernetzte Medizingeräte, die im Krankenhaus 4.0, beim Arzt, im Smarthome oder in der Smart City zum Einsatz kommen. Der Gesamtwert des IoMT-Marktes in Europa betrug laut einer Studie von Deloitte letztes Jahr rund 12 Mrd. US-Dollar. 2020 sollen es 40 Mrd. sein. Auf dem Markt tummeln sich dabei nicht nur diverse Start-ups, sondern vor allem auch Big Player wie Siemens, Apple und Google bzw. die Alphabet-Tochter verily.

Vielfalt der Sensoren

Herzfrequenzsensoren erkennen Anzeichen eines Vorhofflimmerns, Beschleunigungssensoren registrieren schwere Stürze und schlagen Alarm. Sensoren sind heute in der Lage, nahezu jede Körperfunktion rund um die Uhr zu überwachen, machen unser aller Leben und vor allem das von Patienten leichter und sicherer. Diabetiker, Epileptiker und Herzpatienten werden schon gewarnt, bevor sie selber Anzeichen verspüren und Krankenhäuser und (Not-)Ärzte können frühzeitig alarmiert werden.

Viele Sensoren sind dabei heute so klein, dass sie einfach mit der Smartwatch getragen werden können. Für spezielle Anwendungen geht es auch noch kleiner bzw. filigraner. Sensoren auf Kontaktlinsen etwa sind in der Lage, anhand der Tränenflüssigkeit den Blutzuckerwert zu messen und zu übermitteln. Im Krankenhaus überwachen Sensoren dabei nicht nur Patienten, sondern auch medizinische Geräte. Diese lassen sich so nicht nur leicht lokalisieren, sondern auch rechtzeitig warten. Durch die Möglichkeiten einer Predictive Maintenance werden so Ausfallzeiten verhindert und Kosten gesenkt.

AR und VR

Durch Augmented Reality lassen sich komplette Eingriffe realitätsnah simulieren. Im echten OP erleichtern auf Datenbrillen projizierte Informationen das Operieren. Der Chirurg muss nicht mehr seinen Kopf zum Monitor heben, sondern kann sich komplett auf den Patienten konzentrieren. In Zukunft sollen Mediziner während einer Operation passgenau CT- und MRT-Bilder über den Patienten eingeblendet bekommen, um bestimmte Bereiche besser lokalisieren zu können.

Ein Forscherteam der RWTH und FH Aachen präsentierte im Juni eine 3-D-Betrachtung eines stark verlagerten Kiefergelenkbruchs mittels einer Virtual-Reality-Brille. Dabei wurde deutlich, wie hilfreich eine solche Darstellung für den Chirurgen bei der Planung seines Eingriffs sein kann. Natürlich ist diese Technologie auch während der fachärztlichen Ausbildung oder während des Studiums besonders vielversprechend.

Digitale Gesundheitsakte

Gesundheitsminister Jens Spahn will, dass ab 2021 Versicherte generell ihre Patientendaten auch per Handy oder Tablet einsehen können. Während die Techniker Krankenkasse und die AOK eine eigene Lösung anbieten, ist „vivy“ ein Gemeinschaftsprojekt diverser anderer privater und gesetzlicher Krankenkassen. Die App ist dabei elektronische Gesundheitsakte und persönliche Assistentin zugleich. Sie hilft bei der Einhaltung von Medikationsplänen oder erinnert an den nächsten Impf- / Vorsorgetermin. Welche Daten wann an wen übermittelt werden, entscheidet der Nutzer selbst. Auch soll technisch und organisatorisch sichergestellt sein, dass Krankenversicherungen keinen Zugriff auf persönliche Daten bekommen können. Akzeptanz und Vertrauen in derartige Produkte fehlt allerdings dennoch in breiten Schichten der Bevölkerung.

Sicherheitsbedenken

Vernetzte Geräte bilden naturgemäß eine Angriffsfläche für Hacker. Neben unseren Gesundheitsdaten kann dadurch auch unmittelbar unser Leben bedroht werden, bspw. wenn der Herzschrittmacher gehackt wird. Nach dem Medizinproduktgesetz müssen vernetzte Medizingeräte zwar besonders hohe Sicherheits- und Qualitätsauflagen erfüllen, doch absolute Sicherheit kann auch dadurch nie gewährleistet werden. Das Potenzial das Leben vor allem von Risikopatienten deutlich sicherer zu machen, scheint dabei aktuell die Risiken mehr als aufzuwiegen. Dies darf aber nicht dazu führen, verstärkte Sicherheitsmaßnahmen zu vernachlässigen. //


Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Innovationsstandort Deutschland?

Wettbewerbsfähigkeit erfordert passende Rahmenbedingungen.

Frank Thelen, CEO von Freigeist Capital, sprach mit der TREND-REPORT-Redaktion über das Potenzial neuer Technologien und darüber, wie Gründer in Deutschland unterstützt werden müssen, um diese zu nutzen.

Herr Thelen, inwieweit braucht künstliche Intelligenz das IoT (IIoT) und umgekehrt?
Künstliche Intelligenz braucht nicht unbedingt IoT, aber IoT braucht KI. Durch IoT und unzählige Sensoren fallen so große Datenmengen an, dass diese von Menschen und „dummen“ Systemen gar nicht sinnvoll ausgewertet werden können, geschweige denn, dass in Echtzeit auf Erkenntnisse aus diesen Datenmengen reagiert werden kann. Big Data ohne KI bringt keine wertvollen Erkenntnisse …

Wenn Blockchain, KI- und IoT-Technologien verschmelzen – welches Potenzial steckt dann in der Konvergenz dieser Technologien?
Das Zusammenspiel dieser Technologien hat das Potenzial, viele Bereiche unseres Lebens grundlegend zu verändern. Denken wir allein an die Energiewirtschaft: Intelligente Stromzähler und Sensoren erkennen, wann und wo wie viel Strom benötigt wird. Eine KI steuert in Abhängigkeit davon in Echtzeit Kraftwerke und die gesamte Abrechnung unter allen Beteiligten erfolgt voll automatisiert und sicher über die Blockchain, ohne dass ein Mensch eingreifen muss. Damit werden ganz neue Konzepte und Modelle bei der Energieversorgung möglich, insbesondere deren Dezentralisierung. Setzen wir diese Möglichkeiten konsequent um, können wir in Deutschland ein echter Vorreiter werden.

Welche Chancen haben Deutschland und unsere Wirtschaft dabei?
Wir haben die Chance, endlich wieder bei einer Schlüsseltechnologie führend zu werden. KI ist wie z. B. das Smartphone eine Grundlagen-Technologie, die unfassbar viele neue Möglichkeiten bringt. In diesem Fall sogar deutlich mehr als das Smartphone, es ist die bisher größte und wichtigste Erfindung der Menschheit. KI ist ja kein Selbstzweck, sondern Voraussetzung für die Weiterentwicklung in vielen anderen Technologiebereichen. Sei es die gerade genannte Energieversorgung, Medizintechnik, Mobilitätskonzepte oder auch die Entwicklung neuer Medikamente oder Werkstoffe – all dies sind Bereiche, in denen die deutsche Wirtschaft noch stark ist. Durch den Einsatz von KI stellen wir sicher, dass wir es bleiben.

Reichen die Ausgaben der Regierung, um den Standort mit der neuen Technologie international voranzubringen?
Nein, die Notwendigkeit, hier mehr tun zu müssen, wurde zwar erkannt, aber noch geben die USA und China deutlich mehr für die Förderung aus. Wollen wir hier den Anschluss nicht verlieren, muss mehr passieren. Damit meine ich nicht nur rein finanzielle Förderung, sondern auch das Schaffen passender Rahmenbedingungen. Es bleibt also viel zu tun.


Künstliche Intelligenzen sind dazu da, uns Menschen zu unterstützen. Sie nehmen uns Routineaufgaben ab und geben uns die Chance, dass wir uns auf die wirklich wichtigen Dinge konzentrieren.


Im Sinne der Chancen … was muss jetzt getan werden?
Natürlich helfen Fördermittel. Wir brauchen aber zusätzlich ein Umdenken: In Deutschland neigen wir dazu, immer nur Risiken und Bedenken zu sehen und eher kritisch zu sein, was neue Technologien und Entwicklungen angeht. Damit stehen wir uns sozusagen selbst im Wege. All dies ist ein weites Feld und umfasst neben einem gesellschaftlichen Umdenken stabile rechtliche Rahmenbedingungen und eine bessere Koordination bestehender Aktivitäten und Projekte.

Was raten Sie deutschen Unternehmern im Hinblick auf neue KI-Projekte?
Unternehmen müssen erkennen, dass KI ihnen in vielen Bereichen ihrer Prozesse helfen kann, in Zukunft vielleicht sogar für ihren Fortbestand entscheidend sein kann. Sie sollten sich daher mit der Materie frühzeitig befassen und z. B. den Kontakt und Austausch mit Start-ups aus dem KI-Bereich suchen.

Wie kann KI in Deutschland implementiert und realisiert werden im Kontext der DSGVO?
Ich bin kein Jurist, aber die DSGVO hat in der gesamten IT-Branche für viel Verunsicherung gesorgt. Und gerade bei KI-Projekten ist die Verarbeitung personenbezogener Daten ja oft notwendig – die DSGVO bremst hier auf jeden Fall. Ja, der Schutz persönlicher Daten ist wichtig, braucht aber praktikable Regeln, die die DSGVO gerade nicht bietet. Das hat die Politik aber erkannt und ich habe die Hoffnung, dass die Regelungen angepasst werden.

Wo befinden wir uns ungefähr im Entwicklungsprozess der „wirklichen“ KI?
Noch sind wir in einer recht frühen Phase der KI. Denken wir an digitale Assistenten wie Siri, Google Now oder Alexa, deren Fähigkeiten doch noch sehr begrenzt sind. Wir haben es bei KI eben noch nicht mit echter Intelligenz zu tun, sondern mit Programmen, die auf Grundlage vorgegebener Algorithmen so etwas wie menschliche Intelligenz simulieren und deren Stärke darin besteht, große Datenmengen schnell verarbeiten zu können, und darin, z. B. Zusammenhänge zu erkennen. Die steigende Leistungsfähigkeit der Computersysteme ermöglicht nun aber schon neuronale Netze, die selber lernen und sich und ihre Methoden optimieren können – die KI lernt sozusagen gerade laufen.

Wie sieht das „neue Menschsein“ aus im Zeitalter von KI?
Künstliche Intelligenzen sind dazu da, uns Menschen zu unterstützen. Sie nehmen uns Routineaufgaben ab und geben uns die Chance, dass wir uns auf die wirklich wichtigen Dinge konzentrieren: Kreativität, Freizeit mit der Familie, Sport, soziales Engagement z. B. KI richtig eingesetzt wird uns die Möglichkeit geben, ein menschlicheres Leben zu führen.

Wo und wann hört der Spaß auf und wie sollte das Risiko- und Chancenmanagement gestaltet werden?
Wir dürfen nie vergessen, dass KI dazu da ist, dem Menschen zu dienen und ihm zu helfen. Es darf nie passieren, dass eine KI gleichsam über dem Menschen steht und von diesem im Zweifel nicht, vereinfacht gesprochen, abgeschaltet werden kann. Der Weg in Richtung KI kennt kein Zurück mehr, aber wir müssen ihn in unserem Sinne gestalten und permanent kritisch hinterfragen, ob die aktuellen Entwicklungen in die gewünschte Richtung gehen. Hierfür braucht es klare und sinnvolle Regulierungen.

Können wir Maschinen Moral beibringen?
Das Maschinen sobald ein echtes Verständnis für Ethik und Moral entwickeln werden, glaube ich nicht. Hier müssen wir ihnen mit Vorgaben und Regeln helfen. Eine Grundlage dafür können übrigens die von Asimov schon 1942 formulierten Robotergesetze sein. Das erste und wichtigste davon besagt, dass ein Roboter kein menschliches Wesen wissentlich verletzen darf. Was sich theoretisch so einfach anhört, ist in der Praxis viel komplizierter: Wie soll sich die KI in einem selbstfahrenden Auto entscheiden, wenn sie das Leben entweder des Fahrers oder das eines Fußgängers gefährden muss, um Schlimmeres zu vermeiden? Die Probleme und Fragestellungen sind also ganz konkret und akut.

Warum gründen in Deutschland im Verhältnis nur wenige Entwickler und Technologiespezialisten?
Forschung fand in Deutschland lange Zeit vornehmlich im akademischen Elfenbeinturm statt und Kontakte mit der Wirtschaft, geschweige denn ein Austausch, galten fast schon als anrüchig. So ist es zu erklären, dass viele Grundlagentechnologien – z. B. MP3 – zwar hierzulande entwickelt, aber von anderen Ländern zum Erfolg geführt wurden. Dieses Denken ist bei vielen noch tief verhaftet. In letzter Zeit gibt es aber Anstrengungen, diese traditionelle Trennung zu überwinden. Ich bin zuversichtlich, dass wir schon bald mehr Gründungen aus diesem Umfeld sehen.


Ich bin kein Jurist, aber die
DSGVO hat in der gesamten IT-Branche für viel Verunsicherung gesorgt.


Wie ergeht es jungen Tech-Gründern und Spezialisten in Deutschland, wenn Seed- oder Wachstumskapital benötigt wird?
Hier haben es deutsche Gründer tatsächlich schwieriger als z. B. die in den USA. Ich sehe drei große Probleme: Zunächst ist das Angebot tatsächlich nicht so groß. Zum anderen ist es – auch aufgrund unserer föderalen Struktur – sehr zersplittert und dementsprechend unübersichtlich. Zuletzt sind die juristischen und formalen Hürden für Beteiligungen hierzulande vergleichsweise hoch. Aber auch dieses Problem ist erkannt worden, wobei Änderungen natürlich Zeit brauchen.

Was hat es mit Ihrem just erschienenen Buch „Startup-DNA“ auf sich und wer sollte es lesen?
Das Buch habe ich aus mehreren Gründen geschrieben. Zum einen werde ich immer wieder gefragt, wie sich mein Weg zum Investor gestaltet hat. Gleichzeitig will ich Menschen ermutigen, ihre Ziele und Ideen in die Tat umzusetzen und selber zu gründen, denn noch nie hat es – dank der aktuellen technischen Entwicklungen – so viele Möglichkeiten gegeben, etwas zu gestalten und zu bewegen. Und diese neuen Möglichkeiten wie KI, Blockchain oder Quantencomputing möchte ich möglichst vielen Menschen näherbringen. Deshalb habe ich diese und andere Zukunftstechnologien im Buch für jedermann verständlich erklärt. Ich kann also ganz unbescheiden sagen: Das Buch sollte jeder lesen, der sich für seine und unsere Zukunft interessiert. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Abteilung Buchhaltung

Einfluss der Digitalisierung auf die Buchhaltung und das Rechnungswesen

Die Idee des „papierlosen Büros“ steht im Zentrum der Transformationbestrebungen der Finanzabteilung. Sämtliche Abläufe in der Buchhaltung und Lohnbuchhaltung sowie die Büroverwaltung sollen auf rein digitalem Weg organisiert und gespeichert werden. Die papierlose Buchhaltung hilft so, Kosten zu sparen, und optimiert bestehende Prozesse.

Kostenreduktionen machen sich dabei nicht nur im Unternehmen durch den schnelleren Austausch von Dokumenten bemerkbar, sondern auch im Umgang mit externen Dienstleistern, beispielsweise beim digitalen Versenden der Unternehmensunterlagen an den eigenen Steuerberater.

Das digitale Belegwesen ist dabei die dynamische Weiterentwicklung der heutigen Finanzbuchhaltung. Im digitalen Belegwesen werden relevante Belege digitalisiert (z. B. per Scanner) und in die Buchhaltungssysteme übernommen. Dort können sie dann, teilweise automatisch, bearbeitet werden. Dabei ist darauf zu achten, dass die fiskalischen Regeln für das manipulationssichere Speichern der gescannten Belege eingehalten werden. Zunehmend werden Geschäftsvorfälle zwischen Firmen auch vollständig digital abgewickelt, sodass eine Digitalisierung von Belegen entfällt.(1)

Ein weiteres Beispiel einer Effizienzsteigerung ist die Einführung einer Software zur automatischen Verbuchung von Eingangsrechnungen. Per OCR-Erkennung sind Systeme in der Lage, die bestellte Ware mit der Rechnung zu vergleichen. Zahlreiche manuelle Bearbeitungsschritte im Rechnungseingangs- und Rechnungsprüfungsprozess werden eliminiert und auch Bearbeitungsfehler werden reduziert. Durch den beschleunigten Rechnungsdurchlauf lassen sich auch Skontomöglichkeiten besser ausnutzen.

Stammdatenmanagement / EU-DSGVO

Die Qualität der Stammdaten ist ein weiterer zentraler Aspekt bei der Digitalisierung der Finanzabteilung. Im Rahmen der EU-DSGVO müssen für die Stammdatenpflege dabei Prozesse definiert werden, die sowohl das Auskunftsrecht als auch das „Recht auf Vergessen“ gewährleisten.

Da in vielen Unternehmen die Buchhaltung entweder Anwendungen in die Cloud verlagert oder aber eine externe Steuerkanzlei beschäftigt, muss sichergestellt werden, dass Cloud-Anbieter oder Steuerberater ebenfalls die EU-DSGVO-Kriterien erfüllen. Beide sind in der Pflicht, eine entsprechende Konformität nachzuweisen, wobei sich Unternehmen diese vertraglich garantieren lassen sollten.