Logistik braucht IT

Nichts bewegt sich ohne eine enge Verzahnung von Logistik und IT. In Zukunft wird der 3-D-Druck Dienstleistungen rund um die Logistik verändern.

Die Logistikbranche verändert sich umfassend. Technologien wie Schwarmintelligenz, Blockchain und das (I)IoT revolutionieren die Prozesse. Digitalisierte Produktionstechnologien und Logistiklösungen beeinflussen Geschäftsmodelle und verändern Marktstrukturen. Es entstehen in rasanter Geschwindigkeit spannende, völlig neue Perspektiven, Produkte und Anwendungen.

Unternehmen werden flexibler in ihren Beschaffungswegen, -zeiten und -quellen. Längst haben Roboter, fahrerlose Transportfahrzeuge und intelligente Regale Einzug in Forschung und Industrie gehalten. Zukünftig werden sich diese mittels Schwarmintelligenz immer häufiger selbst organisieren. Massiv aufgebaute und unflexible Stetigfördertechnik wird durch eine Vielzahl kleiner autonomer Fahrzeuge ersetzt und der Materialfluss so flexibilisiert. Die intelligenten und miteinander vernetzten Transportfahrzeuge führen Transporte von einem Hochregallager zu Arbeitsstationen aus. Dabei koordinieren sie sich selbstständig untereinander ohne jegliche zentrale Steuerung. Die Transportleistung des Gesamtsystems lässt sich an die Anzahl der Fahrzeuge anpassen.(1)

Die Prozesse der Distributionslogistik werden im Bereich der Routenplanung verbessert, was vor allem an einer verbesserten Kommunikationsmöglichkeit liegt. Das ermöglicht eine schnellere Zustellung der Lieferungen. Zusätzlicher Service wird dem Kunden durch Sendungsverfolgung geboten. In den kommenden Jahren werden sich Prozesse noch weiter verbessern, besonders in der Distributionslogistik. Autonom fahrende Lkws, Schiffe, Roboter und Drohnen werden die Zustellung, gerade auch auf der „letzten Meile“ zum Kunden, revolutionieren. Zustellungen innerhalb von einem Tag, also Same-Day-Delivery-Modelle, werden zum Standard. Operative Berufe wie Lagerarbeiter und Lkw-Fahrer drohen durch die zunehmende Automatisierung obsolet zu werden. Dass neue Arbeitsplätze im Bereich IT und Controlling entstehen, dürfte dabei für die meisten Paketzusteller nur ein schwacher Trost sein.

Papierlose Prozesse in der Distributionslogistik verspricht die Blockchain. In ihr hat jeder am Prozess Beteiligte stets Zugriff auf alle relevanten und dort in digitaler Form gespeicherten Dokumente. Änderungen und Löschungen werden transparent und fälschungssicher protokolliert. Die papierlose Form der Dokumentation vereinfacht nicht nur die Prozesse – der Versand einer Ladung Blumen aus Übersee kann bis zu 200 Papierdokumente von Dutzenden Lieferanten erzeugen(2) –, sondern auch Versandbetrug lässt sich auf diese Weise besser bekämpfen.

Unternehmen müssen sich also mit neuen Technologien auseinandersetzen und in sie investieren, um konkurrenzfähig zu bleiben. Ein völlig neuer Konkurrent für Logistiker ist z. B. der 3-D-Drucker. Denn wieso sollte man sich etwas liefern lassen, wenn man es sich auch zu Hause ausdrucken kann? Das geht schneller und ist womöglich sogar noch billiger. Zurzeit ist das Problem noch nicht so ernst zu nehmen, da die Möglichkeiten des 3-D-Drucks noch begrenzt sind.(3)


Quellen:
(1) Vgl.: https://www.iml.fraunhofer.de/de/unser-institut/forschungshallenlabore/zft-halle.html (abgerufen am 04.04.2019)
(2) Vgl.: https://www.heise.de/solutions/ibm-blockchain/wie-blockchains-fuer-mehr-vertrauen-in-der-lieferkette-sorgen-koennen/ (abgerufen am 04.04.2019)
(3) Vgl.: Logistik braucht IT, in: Handbuch Digitalisierung, hrsg. von ayway media, Bonn 2016, S.123. https://www.handbuch-digitalisierung.de/digital-lesen/#p=123

Handel mit Zukunft

Tiefere Datenanalyse, NLP und mehr Automatisierung
sind gefragter denn je.

von Frank Zscheile

Omni- oder Multichannel sind für den Handel keine neuen Trends mehr, sondern vielfach gelebte Realität. Welcher Kanal bedient wird, ist zweitrangig, es geht um das Erlebnis, bei dem sich „online“ und „offline“ zu smarten Services ergänzen. Grundlage dafür sind die dahinterliegenden Datenmengen. Sie lassen sich heute durch Analyseinstrumente, die mit künstlicher Intelligenz angereichert sind, immer besser hinsichtlich ihrer weiteren Verwendung im Business-Kontext auswerten.

Neue Algorithmen zur Textanalyse sind inzwischen sogar in der Lage, Stimmungslagen in Kundenschreiben selbstständig zu erkennen. Solche bislang verborgenen Informationen können Handelsunternehmen im Sinne des Geschäftsnutzens einsetzen. Wenn Kundendaten genauer analysiert werden, lassen sich die Ergebnisse als Grundlage für individuelle Kundenansprachen und digitales Marketing einsetzen. Dabei werden alle Kunden-Touchpoints mit relevanten, vom Kunden gewünschten Informationen bespielt – ideal für die Stärkung von Kundenbindung (Customer Loyalty).

Neue Algorithmen zur Textanalyse sind inzwischen sogar in der Lage, Stimmungslagen in Kundenschreiben selbstständig zu erkennen.

Treiber dieser Entwicklung sind die Forderungen der Verbraucher nach Echtzeitunterstützung, kontinuierlicher Unterhaltung sowie umfassender Konnektivität und Sicherheit. So wird Consumer IoT zum nächsten logischen Schritt der digitalen Evolution des Handels.

Automatisierte Service-Interaktionen

„Themen wie künstliche Intelligenz und Blockchain haben ihre Nische längst verlassen und sind zu gesellschaftsrelevanten Themen geworden“, weiß auch Matthias Wahl, Präsident des Bundesverbandes Digitale Wirtschaft (BVDW) e. V. Mit KI lassen sich gleichzeitig Geschäftsabläufe zwischen IT-Systemen des Handels automatisieren, Stichwort „Robotic Process Automation“. B2B-Marktplätze werden an ERP-, CRM- und weitere Backendsysteme und Datenbanken angebunden. Dies führt weiter zu automatisierten Service-Chatbots, bei denen sich die Beschäftigten im Service erst später oder im Bedarfsfall in die konkrete Kundenkommunikation einschalten.

Bekanntheit und Nutzung mobiler KI-Anwendungen

Gartner sagt voraus, dass 2021 15 Prozent aller Service-Interaktionen automatisiert sein werden. Künstliche Intelligenz wird dabei für eine zunehmend natürliche Art solcher sprachlichen Interfaces sorgen, was die Verbreitung wiederum verstärken wird. Wirkliche Dialoge sind es freilich nicht, die mit Chatbots ablaufen, sondern eher kurze Frage-Antwort-Sequenzen. Mit dem durch KI gewonnenen Wissen aus Datenbanken werden sich aber in absehbarer Zeit auch mehrstufige flexible Dialoge automatisieren lassen können. Dadurch erschließen sich neue Anwendungsfelder im Kundenservice, die mit einfachen Frage-Antwort-Systemen nicht adressiert werden können.

Unternehmen müssen „insight-driven“ werden

In seinem Report „The Forrester Wave™: AI-Based Text Analytics Platforms, Q2 2018“ beschreibt das Analystenhaus Forrester, wie sich durch den Einsatz künstlicher Intelligenz aus Daten zusätzliches Wissen gewinnen lässt. „Insight-driven“ müssten Unternehmen werden, fordert Forrester-Analyst Boris Evelson. Dabei geht es vor allem um das in unstrukturierten Daten enthaltene Wissen, welches in Unternehmen heute Schätzungen zufolge rund 80 Prozent ausmacht: E-Mails, PDFs, Archivsysteme, Videos, Tondokumente, Social-Media-Posts etc. Hierfür kommen Techniken der linguistischen und semantischen Analyse („Natural Language Processing – NLP“ oder Computerlinguistik) zum Einsatz.

Unter NLP versteht man die Fähigkeit eines Computerprogramms, menschliche Sprache so zu verstehen, wie sie gesprochen bzw. geschrieben wurde. Tiefergehende NLP-Systeme benutzen die Wortarten zur Extraktion vordefinierter Muster und extrahieren selbstständig bestimmte Kategorien von Begriffen, z. B. Personen- und Ortsnamen, Postleitzahlen, Nummernschilder.

Kundenkorrespondenz modern auswerten

Der eigentliche Prozess des Text-Minings und der Extraktion von Keywords, Themen und Konzepten liegt laut Forrester dabei nur bei rund einem Fünftel des Aufwands. Der weitaus größere Teil entfiele auf den Aufbau von Datenverbindungen, die Integration und Bereinigung der Daten sowie den Aufbau einer domänenspezifischen Ontologie und user­orientierter Oberflächen. Während die meisten Hersteller noch immer hauptsächlich Stimmungsanalysen anbieten, ermöglicht die Software von Clarabridge auch eine hoch differenzierte Emotions-, Anstrengungs- und Absichtsanalyse.

Loyalität aus Daten

Das Konzept von Clarabridge zeigt, wie wichtig es sein kann, das in unstrukturierten Daten verborgene Wissen zu heben. Die Customer Loyalty lässt sich dadurch deutlich festigen. Im Omnichannel ist hier ohnehin noch Luft nach oben, glaubt Michael Bregulla, Head of New Sales bei der Ingenico Marketing Solutions GmbH. Das Unternehmen entwickelt Programme zur Vertiefung der Kundenbeziehungen für alle Verkaufskanäle. „Bindungseffekte sollten im Wesentlichen aus dem Preisvorteil generiert werden, obwohl der eigentliche Wert in den aggregierten Daten des bis dato anonymen Kunden liegt“, so Bregulla. „Schon heute schlummern bei vielen Händlern riesige Datenpotenziale, die gar nicht wertbringend abgeschöpft werden. Die Digitalisierung offenbart jetzt die Chance für eine ganzheitlichere Erfassung des Kundenverhaltens.“

Bindungseffekte sollten im Wesentlichen aus dem Preisvorteil generiert werden, obwohl der eigentliche Wert in den aggregierten Daten des bis dato anonymen Kunden liegt.

Dazu bedürfe es einerseits Werkzeuge wie linguistischer und semantischer Analyse. Gleichfalls sei aber ein erweitertes Mindset bei Handelsunternehmen gefragt und die Bereitschaft, Dinge auszuprobieren und auch wieder zu verwerfen. So kristallisiert sich für Händler ein Gesamtbild der technisch-organisatorischen Rahmenbedingungen heraus, wie sich das Datenpotenzial von Customer-Loyalty-Programmen im Omnichannel zur personalisierten Kundenansprache und Steuerung des Kaufverhaltens nutzen lässt.

Voice Commerce und Audiovermarktung

Smart Speaker wie Amazon Alexa, Google Home, Telekom Magenta und Co. und die dahinterliegende Voice-Technologie haben in jüngster Zeit die nächste Welle losgetreten und den Zugang zu Audio-Content weiter vereinfacht. BVDW-Präsident Matthias Wahl: „Dadurch erhält Audio-Content einen deutlichen Schub, den Unternehmen für sich nutzen müssen.“ Das Medium Audio verändert sich damit grundlegend: Content wird interaktiv und wächst von einer One-Way-Communication zu einem Dialog-Umfeld.

Consumer IoT

Sprachgesteuerte Smart Speaker werden neben der reinen Audio-Content-Nutzung zu hohen Anteilen zur Informationsbeschaffung genutzt. Eine weitere Möglichkeit für Handelsunternehmen, ihre Kunden zu adressieren. Die technologische Basis dieser Produkte ist wiederum die Fähigkeit von Software, menschliche Sprache immer besser zu verstehen. Analog zu anderen Kommunikationskanälen benötigen Unternehmen deshalb eine eigene Voice- und Audiostrategie. Sie müssen eine Audio-Identity und eigenen Audio-Content entwickeln und mit ihren Marken, Produkten und Angeboten ihren Zielgruppen auf die neuen Geräte folgen. Wie dies praktisch umzusetzen ist, dafür gibt der BVDW auf seiner Webseite hilfreiche Hinweise.

Einkauf auf Zuruf

Fragt man die Smart Speaker heute nach einem bekannten Produkt wie Pampers, so wird in der Regel erstmal der Wikipedia-Eintrag vorgelesen. „Voice Search SEO muss noch deutlich gezielter als Desktop und Mobile betrieben werden, um Verkaufschancen über Voice zu steigern – auch weil die Chancen auf Sichtbarkeit deutlich geringer sind als am Desktop“, erklärt Frank Bachér von RMS.

So wird sich Voice Commerce über Skills entwickeln und neben Webshops und Apps der nächste Absatzkanal für den Handel werden, in dem Einkäufe auf Zuruf möglich werden. Vor allem im Bereich der FMCG („Fast Moving Consumer Goods“) dürfte dies einer der spannendsten neuen Trends sein. Damit dürften die smarten Lautsprecher künftig wohl ihrem Namen eher gerecht werden im Vergleich zu heute, wo sie hauptsächlich nur für einfache Aufgaben wie das Abspielen von Musik und die Wettervorhersage genutzt werden. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Drohnen und fahrerlose Transportfahrzeuge

Autonome Vehikel surren und schwirren durch die Lagerhallen der Zukunft.

Das „Innovationslabor Hybride Dienstleistungen in der Logistik“ ist ein Gemeinschaftsprojekt des Fraunhofer IML und der Technischen Universität Dortmund. In dem 570 Quadratmeter großen Forschungszentrum werden verschiedene Referenzsysteme eingesetzt, wie z. B. ein Laserprojektionssystem bestehend aus acht „Kvant“-Lasern. Das Leitliniensystem für Mensch und Roboter kann beispielsweise mit Laserpfeilen den Weg vorgeben. Ein optisches Referenzsystem, welches das größte seiner Art in Europa ist, ermöglicht zusätzlich durch 38 Hightech-Kameras die Echtzeitlokalisierung von Objekten und Menschen, die mit einem Marker ausgestattet sind. Damit können bis zu 100 Objekte gleichzeitig getrackt werden. Auf diese Weise lassen sich nicht nur am Boden befindliche Objekte tracken, sondern auch solche, die in der Luft sind – zum Beispiel Drohnen.

Drohnen, sogar ganze Schwärme, spielen dabei eine entscheidende Rolle. „Wir nutzen den Drohnenschwarm, um Algorithmen zu entwickeln, mit denen wir autonome Fahrzeuge und Maschinen untereinander und in Interaktion mit dem Menschen steuern“, erklärt Prof. Dr. Dr. h. c. Michael ten Hompel, geschäftsführender Institutsleiter des Fraunhofer IML. „Drohnen sind gut geeignet, da wir praktisch beliebige Szenarien im industriellen Maßstab dreidimensional und hochdynamisch abbilden können.“

Eine der autonom fliegenden Drohnen ist aus dem Forschungsprojekt „InventAIRy“ hervorgegangen. Sie ist in der Lage, durch ein Lager zu navigieren und logistische Objekte zu erfassen. Dadurch kann sie die Belegung der Stellplätze im Lager dokumentieren – Inventur auf Knopfdruck.

„Neben Drohnen kommen auch fahrerlose Transportfahrzeuge (FTF) zum Einsatz. Sie bewegen Waren automatisiert durch die Lagerhallen.“

Neben Drohnen kommen auch fahrerlose Transportfahrzeuge (FTF) zum Einsatz. Sie bewegen Waren automatisiert durch die Lagerhallen. Der Transportroboter TORU beispielsweise kann selbstständig durch das Lager navigieren und Picklisten abarbeiten. Dabei kann er Objekte aus einer Höhe von bis zu 1,75 Metern greifen und diese nach Beendigung des Auftrags zur Kommissionierstation bringen. Bei Zalando in Erfurt ist der von der Magazino GmbH entwickelte Roboter jetzt im Praxistest.

Abb. 1: Laserlicht leitet Transportroboter

EMILI (Ergonomischer, mobiler, interaktiver Ladungsträger für die Intralogistik) ist sogar das erste autonome FTF, das eine intuitive Kommunikation zwischen Mensch und Maschine ermöglicht. Sie lässt sich in Verbindung mit Wearables über Gesten, Sprache oder Smartphones, Tablets und AR-Brillen steuern. Über ein integriertes Display an ihrer Front kann sie sich den Menschen in ihrer Umgebung mitteilen: Lächelt ihr Gesicht, funktioniert sie einwandfrei und kann beladen werden. Hat sie einen eher unzufriedenen Gesichtsausdruck, ist etwas nicht in Ordnung. Wie ihr geholfen werden kann, erklärt sie selbst; zum Beispiel mithilfe eines Tablets, das eine Schritt-für-Schritt-Anleitung zur Fehlerbehebung anzeigt.

Abb. 2: Transportroboter EMILI teilt seinen Betriebszustand direkt auf einem Display mit.

Dabei ist ein Roboter wie EMILI nur ein erster Schritt beim Rennen um künstliche Intelligenz. „Ein Robotersystem wirklich intelligent zu machen“, bedeutet für ten Hompel, „dass das System mit seiner Umgebung kooperiert, die Umgebung wahrnimmt, mit anderen Robotern und dem Menschen kooperiert – und auf diese Weise lernt und sich weiterentwickelt“.

Sicherheit

Wollen Mensch und Maschine in Zukunft wirklich zusammen sicher kooperieren können, müssen zunächst sichere Rahmenbedingungen gewährleistet werden. Die beteiligten Teams des EU-Projekts „SafeLog“ entwickeln eine Systemlösung, die von vornherein Zusammenstöße zwischen Mensch und Maschine bei ihren Touren durch die Lagerhallen vermeiden soll. Dabei könnten künftig auch Roboter eingesetzt werden, die besonders schnell sind oder besonders schwere Lasten heben, ohne den Menschen zu gefährden. Ein speziell entwickeltes Flottenmanagementsystem verteilt Aufgaben für Mensch und Maschine so, dass ein Kreuzen der Wege minimiert wird. Zusätzlich schickt eine speziell entwickelte Warnweste für menschliche Mitarbeiter ein Signal an fahrerlose Transportfahrzeuge, die sich in der Nähe aufhalten. Diese drosseln dann ihr Tempo oder stoppen ganz – denn der Werker hat immer „Vorfahrt“. //


Quelle: Logistik entdecken #19 – Magazin des Fraunhofer-Instituts für Materialfluss und Logistik IML Dortmund

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Blockchain

Ein verteiltes Datenbankmanagementsystem schafft eine neue Form der Sicherheit und Transparenz für die digital vernetzte Welt.

Eine Blockchain ist eine kontinuierlich erweiterbare Liste von Datensätzen, „Blöcke“ genannt, die mittels kryptographischer Verfahren verkettet sind. Jeder Block enthält dabei einen kryptographisch sicheren Hash des vorhergehenden Blocks, einen Zeitstempel und Transaktionsdaten.
Durch die aufeinander aufbauende Speicherung von Daten in einer Blockchain können diese nicht nachträglich geändert werden, ohne die Integrität des Gesamtsystems zu beschädigen, wodurch die Manipulation von Daten erheblich erschwert wird.

Anwendungsmöglichkeiten entstehen nicht nur bei Kryptowährungen à la Bitcoin. Eine Blockchain ermöglicht beispielsweise auch die fälschungssichere Dokumentation einer Lieferkette und auch Notare oder Clearinghäuser werden als Intermediäre überflüssig. Im Prinzip lässt sich die Blockchain überall anwenden, wo Daten fälschungssicher protokolliert werden sollen.

Quelle: Background vector created by freepik – www.freepik.com

Zusätzlich lassen sich auch Computerbefehle in den Code der Blockchain integrieren und gerade im Zusammenhang mit dem (I)IoT entsteht ein enormes Automatisierungspotenzial. Bei einer Blockchain zur Lieferkettenprotokollierung könnte zum Beispiel ein im Container angebrachter Sensor die Temperatur von Lebensmitteln nicht nur messen und dokumentieren, sondern auch automatisch Alarm schlagen, sobald Grenzwerte überschritten werden. //

Eigenschaften einer Blockchain

  • Verkettungsprinzip: Eine Blockchain ist eine verkettete Folge von Datenblöcken, die über die Zeit weiter fortgeschrieben wird.

  • Dezentrale Speicherung: Eine Blockchain wird nicht zentral gespeichert, sondern als verteiltes Register geführt. Alle Beteiligten speichern eine eigene Kopie und schreiben diese fort.

  • Konsensmechanismus: Es muss sichergestellt werden, dass eine bei allen Beteiligten identische Kette entsteht. Hierfür müssen zuerst Vorschläge für neue Blöcke erarbeitet werden. Dies geschieht durch Validatoren (die bei Bitcoin „Miner“ genannt werden). Dann müssen sich die Beteiligten einigen, welcher vorgeschlagene Block tatsächlich in die Kette eingefügt wird. Dies erfolgt durch ein sogenanntes Konsens­protokoll, ein algorithmisches Verfahren zur Abstimmung.

  • Manipulationssicherheit: Durch kryptographische Verfahren wird sichergestellt, dass die Blockchain nicht nachträglich geändert werden kann. Die Kette der Blöcke ist somit unveränderbar, fälschungs- und manipulationssicher.

  • Transparenz / Vertraulichkeit: Die auf der Blockchain gespeicherten Daten sind von allen Beteiligten einsehbar. Sie sind deshalb aber nicht unbedingt auch für alle sinnvoll lesbar, denn Inhalte können verschlüsselt abgespeichert werden. Blockchains erlauben so eine flexible Ausgestaltung des Vertraulichkeitsgrads.

  • Nichtabstreitbarkeit: Durch die Nutzung digitaler Signaturen sind Informationen in der Blockchain speicherbar, die fälschungssicher nachweisen, dass Teilnehmende unabstreitbar bestimmte Daten hinterlegt haben, etwa Transaktionen angestoßen haben.


Quelle: Seite „Blockchain“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 13. März 2019, 23:41 UTC. URL: https://de.wikipedia.org/w/index.php?title=Blockchain&oldid=186562222 (Abgerufen: 8. April 2019, 09:11 UTC)

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Künstliche Intelligenz

Selbstlernende Maschinen nutzen Big Data und Cloud-Computing,
um laufend die abhängigen Prozesse zu optimieren.

von Andreas Fuhrich

Ob künstliche Intelligenz, maschinelles Lernen oder Deep Learning, in der Praxis werden diese Begriffe häufig als Synonyme verwendet. Dabei besitzen die drei Begrifflichkeiten große Unterschiede in ihrer Bedeutung und stehen in einer strikten Hierarchie zueinander. Die künstliche Intelligenz ist der Oberbegriff für alle Methoden und Technologien, die ein intelligentes Verhalten vorweisen. Das maschinelle Lernen ist dabei ein Teilgebiet der KI, welches eine Vielzahl an (Lern-)Methoden basierend auf der mathematischen Optimierung und Statistik umfasst. Deep Learning wiederum ist ein spezieller Teilbereich des maschinellen Lernens, der versucht, die statistischen Korrelationen in den Daten durch künstliche neuronale Netze abzubilden.

All diese Technologien brauchen Daten als Rohstoff des Fortschritts. Durch die Entwicklung der Informationstechnologie und vor allem die zunehmende Vielfalt an (I)IoT-Devices sind diese in immer größeren Mengen verfügbar. Sie enthalten oft implizites Wissen, das, wenn es bekannt wäre, große wirtschaftliche oder wissenschaftliche Bedeutung hätte. Unter Data Mining versteht man die Suche nach potenziell nützlichem Wissen in großen Datenmengen – maschinelle Lernverfahren gehören zu den Schlüsseltechnologien innerhalb dieses Gebiets. Sie unterstützen den Data-Mining-Prozess vor allem beim Aufspüren neuer Muster und Gesetzmäßigkeiten.

„Künstliche Intelligenz hat in den letzten Jahren eine neue Reifephase erreicht und entwickelt sich als Basisinnovation zum Treiber der Digitalisierung und autonomer Systeme in allen Lebensbereichen“, schildert die am 15. November 2018 verabschiedete Strategie Künstliche Intelligenz die Ausgangssituation. Durch sie sollen „die vielfältigen Anwendungsmöglichkeiten von KI in allen Bereichen der Gesellschaft im Sinne eines spürbaren gesellschaftlichen Fortschritts und im Interesse der Bürgerinnen und Bürger gefördert werden“. Die Zeichen stehen auf Wachstum. Deutschland soll zum weltweit führenden Standort für künstliche Intelligenz werden und „AI made in Germany“ zum weltweit anerkannten Gütesiegel.(1) Da haben wir uns etwas vorgenommen.

Die Erwartungen an die Politik sind entsprechend hoch. Neben der Schaffung rechtlicher Rahmenbedingungen spielt auch die Förderung junger Unternehmen eine entscheidende Rolle. Oft stammen wegweisende Innovationen von Start-ups. Dafür bedarf es eines Umfelds, in dem Gründer ohne bürokratische Hürden ihre Unternehmen aufbauen können, gut ausgebildete Mitarbeiter finden und einfachen Zugang zum Markt erhalten.

Aber wie sieht es mit den Investitionen unseres Staates wirklich aus? Sicher ist, dass Deutschland mit seinen Fördergeldern für KI hinter China und den USA zurückbleibt. Drei Milliarden Euro will Deutschland bis 2025 investieren. Demgegenüber steht der chinesische Plan „Nächste Generationen der KI-Technologien“ mit Staatsfördermitteln von 150 Milliarden Dollar bis 2030.

Und auch zeitlich hinkt Deutschland hinterher. Während KI für uns alle noch Neuland ist, existiert der Plan der Volksrepublik bereits seit Juni 2017. Die USA profitieren beim KI-Wettlauf vor allem von spendablen Risikokapitalgebern, die allein 2017 ca. 10 Milliarden Dollar in die Technologie pumpten, sowie ihrem Ökosystem aus Tech-Giganten. Apple, Tesla, Microsoft, Google, Facebook und IBM sind die Big Player am Markt, was nicht zuletzt auch der Bekanntheitsgrad von Watson, Siri, Alexa, Cortana oder OK Google belegt.

Die digitalen Helfer fungieren dabei nicht nur im Alltag, sondern auch Unternehmen können ihr Potenzial nutzen. Der Umgang mit den Maschinen wird dabei immer natürlicher und auch die Identifikation einer Person anhand ihrer Stimme ist möglich. Doch noch sind wir in einer recht frühen Phase der Entwicklung und die Fähigkeiten der digitalen sind sehr begrenzt.

Wir haben es bei KI eben noch nicht mit echter Intelligenz zu tun, sondern mit Programmen, die auf Grundlage vorgegebener Algorithmen so etwas wie menschliche Intelligenz simulieren und deren Stärke darin besteht, große Datenmengen schnell verarbeiten zu können, und darin, z. B. Zusammenhänge zu erkennen. Die steigende Leistungsfähigkeit der Computersysteme ermöglicht nun aber schon neuronale Netze, die selber lernen und sich und ihre Methoden optimieren können – die KI lernt sozusagen gerade laufen.

Überblick Machine Learning

Welche klassischen Machine-Learning-Techniken und -Algorithmen gibt es?

  • Linear Classifiers (z. B. Support-Vector-Machines)

  • Clustering (z. B. K-Means, Tree-based)

  • Regression-Analysis Dimensionality-Reduction (z. B. PCA, tSNE)

  • Decision-Tree Learning Ensemble Learning (z. B. Randomforest, Gradient Boosting)

  • Instance-based Neural Networks (z. B. KNN)

  • Descriptive Statistics

Dies ist nur eine beispielhafte Auswahl ohne Anspruch auf Vollständigkeit.

Darüber hinaus sollten noch die nachfolgenden ML-Techniken erwähnt werden, die eher der KI zugeordnet werden:

  • Deep Learning Neural Networks (z. B. Feed Forward Neural Networks, CNNs, RNNs, GANs)

  • Reinforcement Learning

  • Transfer Learning

Zukünftig werden Maschinen immer kreativer. Wir bringen ihnen bei, autonome Entscheidungen zu treffen, und machen sie damit zu handelnden Subjekten. Die zunehmende Autonomisierung bringt auch ethische Fragen mit sich. Darf KI im Krieg verwendet werden? Wer trägt die Verantwortung, wenn autonome Systeme Schäden verursachen? Brauchen wir in Zukunft ein Gefängnis für Maschinen?

Noch können wir die Zukunft mitgestalten. „AI for Good“-Initiativen sind bestrebt, mittels KI Lösungen für globale Probleme zu finden. Sie soll vor allem helfen, die Nachhaltigkeitsziele im Zuge des Klimawandels zu erfüllen, aber auch im Gesundheitswesen oder bei humanitären Katastrophen sind Lösungen angestrebt.

(1) https://www.bmbf.de/files/Nationale_KI-Strategie.pdf (abgerufen am 05.04.19)

Going Global

Mehr Wachstum durch die Erschließung neuer Märkte

Internationalisierung bietet Online-Händlern die Chance, ihre Umsätze zu steigern. Doch die Expansion ins Ausland ist mit Hürden verbunden, die zunächst gemeistert werden müssen.

Nicht jedes Land ist gleichermaßen als Expansionsziel geeignet. Generell ist es einfacher, sich zunächst in den Ländern auszubreiten, die sprachlich und kulturell wenig Unterschiede aufweisen und daher keine komplexere Anpassung des Online-Shops erfordern. Je nach feilgebotener Ware kann es natürlich gute Gründe geben, von dieser Regel abzuweichen, wie beispielsweise die Konkurrenzsituation und auch damit verbundene Unterschiede in der zu erwartenden Nachfrage.

Location-Intelligence-Dienste können helfen, den geeigneten Zielmarkt zu finden. Unter „Location Intelligence“ versteht man die Fähigkeit, Wissen anzuwenden, das durch den Zugriff auf Informationen und deren Analyse und Aufbereitung unter Berücksichtigung räumlicher Zusammenhänge entsteht. Sie beschreibt das Konzept, dass Organisationen mithilfe von Standortinformationen ihre Kunden, Bürger und Märkte besser verstehen und einen Wettbewerbsvorteil erzielen.(1)

Um die Prozesse und Systeme mit den Anforderungen der Zielländer in Einklang zu bringen, ist lokale Expertise immer von Vorteil, aber auch Software-Tools können hinsichtlich einer Compliance-Überprüfung hilfreich sein. Um Vertrauen im Zielland aufzubauen, ist es unerlässlich, alle rechtlichen Standards einzuhalten: Impressum, AGBs, Liefer-, Zahlungs- und Einfuhrbestimmungen sowie Kennzeichnungspflichten müssen berücksichtigt werden. Zudem lässt sich die Vertrauenswürdigkeit des eigenen Online-Shops im Ausland erhöhen, wenn er mit einem Gütesiegel zertifiziert wurde.

Die technische und die logistische Infrastruktur sind die Grundpfeiler des E-Commerce. IT-Infrastrukturen wie „Content Delivery Networks“ helfen Latenzen und Ausfallzeiten für den Web-Shop zu vermeiden. Natürlich sollte auch der Warenversand schnell, kostengünstig und nachvollziehbar sein. Digitale Lösungen wie Sendungsverfolgung oder Lieferung in den Kofferraum bieten zusätzlich Komfort und erhöhen damit das Kundenbindungspotenzial.

Achten Sie auch bei den Zahlungsmitteln darauf, dass Sie den Gepflogenheiten des Landes entsprechen. Während hierzulande noch viel auf Rechnung gekauft wird, führt in China kein Weg an Mobile-Payment-Plattformen wie WeChat Pay und Alipay vorbei.

Die Anpassung eines Online-Shops an die Zielländer ist maßgeblich für den Erfolg. Die Übersetzung steht dabei an erster Stelle, wobei insbesondere auch auf die richtigen Maßeinheiten zu achten ist. Generell sollten alle Marketingmaßnahmen und somit auch die Gestaltung der Seite und die auf der Startpage beworbene Produktauswahl an die Vorlieben im Zielland angepasst werden. Achten Sie auch bei Suchmaschinenoptimierungen auf landesspezifische Besonderheiten. Google dominiert zwar weltweit den Markt, spielt aber in China (Baidu) und Russland (Yandex) keine Rolle. Vergleichbares gilt natürlich auch bei der Nutzung sozialer Medien.

IT-Dienstleistungen


Gerade der IT-Dienstleistungssektor ist geprägt von internationalem Wettbewerb. Durch Cloud-Computing-Plattformen wie Amazon Web Services oder Microsoft Azure sind Dienstleistungsmarktplätze entstanden, worüber schlüsselfertige Softwarelösungen bezogen werden können. Buchbare Dienste reichen von Betriebssystemen über Cloud-Speicher bis hin zu AI, Blockchain oder IoT-Anwendungen. Wer hier seine eigenen Leistungen einstellt, ist mit einem Schlag international abrufbar.

Das im internationalen Vergleich extrem unterschiedliche Preisniveau macht ein IT-Offshoring besonders lukrativ. In Ländern wie Indien, den Philippinen, China, Thailand, Sri Lanka oder Mexiko sind IT-Dienstleistungen wesentlich günstiger. Dies betrifft nicht nur die Löhne, sondern auch die Miete, zudem bestehen teils steuerliche Vorteile. Wichtig dabei ist, auf die Datenschutzbestimmungen des eigenen Landes zu achten, da ein Verstoß kostspielige Konsequenzen mit sich bringt. Zusätzlich entsteht beim IT-Offshoring ein besonders hohes Risiko der Wirtschaftsspionage. Auch wenn keine sensiblen Firmendaten im Ausland verarbeitet werden, lässt sich durch den Datenaustausch besonders leicht Malware einschleusen. //


(1) Seite „Location Intelligence“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 13. September 2018, 18:34 UTC. URL: https://de.wikipedia.org/w/index.php?title=Location_Intelligence&oldid=180881672 (Abgerufen: 12. April 2019, 11:54 UTC)


Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Virtual & Augmented Reality

Augmented und Virtual Reality verschmelzen zur Mixed Reality.
Die Daten des IoT lumineszieren beim Gang durch die vernetzte Welt.

Computergenerierte interaktive Simulationen mittels kleiner Devices in unserem Leben eröffnen schier unendliche Potenziale an Möglichkeiten, um die Welt neu zu erfahren. Technologische Entwicklungen, die es uns jetzt schon erlauben, die Wirklichkeit zunehmend zu virtualisieren, sind vorhanden. Schon jetzt lässt sich erahnen, welche Änderungen auf uns zukommen. Die Art, wie wir miteinander interagieren und wie wir die vernetzte Welt mit ihren datenfunkenden IoT-Sensoren wahrnehmen, wird nicht mehr dieselbe sein.

Was ist Augmented Reality?

Unter „Augmented Reality“ (kurz AR), also erweiterte Realität, versteht man die computergestützte Erweiterung der Realitätswahrnehmung. Diese Informationen können alle menschlichen Sinnesmodalitäten ansprechen. Häufig wird jedoch unter erweiterter Realität nur die visuelle Darstellung von Informationen verstanden, also die Ergänzung von Bildern oder Videos mit computergenerierten Zusatzinformationen oder virtuellen Objekten mittels Einblendung/Überlagerung. Bei Fußball-Übertragungen ist erweiterte Realität beispielsweise das Einblenden von Entfernungen bei Freistößen mithilfe eines Kreises oder einer Linie. (Wikipedia – Erweiterte Realität)

Im „Realitäts-Virtualitäts-Kontinuum“ (nach Paul Milgram et al., 1994) sind die erweiterte Realität („Augmented Reality“) und erweiterte Virtualität („Augmented Virtuality“) Teil der sogenannten gemischten Realität („Mixed Reality“). Während der Begriff Augmented Virtuality kaum benutzt wird, werden Augmented Reality und Mixed Reality, selten auch Enhanced Reality, meist synonym verwendet.

Im Gegensatz zur virtuellen Realität (kurz VR), bei welcher der Benutzer komplett in eine virtuelle Welt eintaucht, steht bei der erweiterten Realität die Darstellung zusätzlicher Informationen im Vordergrund. Virtuelle Realität und die Realität werden also miteinander kombiniert oder teilweise überlagert. Interaktivität in Echtzeit, in der reale und virtuelle Objekte dreidimensional zueinander in Bezug stehen. Diese Definition umfasst jedoch nur technische Merkmale und beschränkt sich dabei auf einen Teilaspekt von AR. Andere Arbeiten definieren AR als eine Ausweitung der Sinneswahrnehmung des Menschen durch Sensoren um Umgebungseigenschaften, die der Mensch selbst nicht wahrnehmen kann, wie z. B. Radar, Infrarot und Distanzbilder. Menschliche Eigenschaften können damit durch AR verstärkt oder gar ergänzt werden.

Allein die visuelle Modalität bedeutet eine nicht unwesentliche komplexe Herausforderung an die Positionsbestimmung (Tracking) und Kalibrierung. Um eine Augmented-Reality-Anwendung aufzubauen, benötigt es AR-Systeme (kurz ARS), die sich aus technischen Bestandteilen, wie z. B. Kamera, Trackinggeräte, Unterstützungssoftware usw., zusammensetzen. VR und AR sind weit mehr als nur ein Hype. Erkennen lässt sich dies nicht nur an ernst zu nehmenden Hardware-Entwicklungen / Devices für AR-Systeme, wie Facebooks Oculus Rift, HTC VIVE und Microsofts HoloLens, die mittlerweile durchaus massentauglich sind. Auch geistiges Eigentum wird sich einverleibt.

Begriffserklärung

Am besten veranschaulicht man sich diese abstrakten Begriffe an konkreten Beispielen:

  • Reine Realität ist ein Mensch, der zum Einkaufen in den Supermarkt geht.

  • Erweiterte Realität sind Brillengläser, auf deren Innenseite ein Computer den Einkaufszettel des Benutzers projiziert; und zwar so, dass beim Benutzer der Eindruck entsteht, der Einkaufszettel sei an die Wand des Supermarktes angeschrieben. Die Wirklichkeit wird hier um virtuelle Informationen angereichert.

  • Erweiterte Virtualität ist ein Computerspiel, das über einen VR-Helm gespielt wird und das die Türsprechanlage auf die Kopfhörer überträgt, wenn es an der Tür klingelt.

  • Die Virtualität wird hier um reelle Informationen angereichert. Virtuelle Realität ist ein Computerspiel, das über einen VR-Helm gespielt wird und nicht auf die reale Außenwelt des Benutzers reagiert.

    (Quelle: Wikipedia„Mixed Reality“)

Die großen Player am Markt bereiten sich offensichtlich auf eine Zukunft mit AR vor. Viele Argumente sprechen zudem für den Einsatz und das Wachstumspotenzial dieser neuen Technologien: Kostenersparnisse, Qualitätssteigerungen, Sicherheit.

VR- und-AR-Technologien verändern zunehmend unsere Lebens- und Arbeitswelt. AR-Brillen kommunizieren jetzt schon mit den Fächern in den Lagerhallen und weisen dem Picker den Weg. Zu wartende Maschinen helfen bei der Reparatur, indem sie sinnvolle Daten auf einem AR-Device einblenden oder durch Bildmaterial eine Sicht aus jeder Perspektive und durch alles hindurch ermöglichen. Gleiches gilt auch in der Montage in den Werkshallen.

Lesen Sie auf Seite 2: VR & AR: Trends

Die EU-DSGVO im Kontext der Digitalisierung

Risikofaktor IoT: Schützenswert sind alle Informationen, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen.

von Dr. Ralf Magagnoli

Am 25. Mai 2016 trat die EU-Datenschutzgrundverordnung (EU-DSGVO) in Kraft, ab dem 25. Mai 2018 müssen die EU-Mitgliedstaaten die Verordnung anwenden. Obwohl das Bewusstsein in den Chefetagen der Unternehmen gestiegen ist, sind nicht alle Unternehmen gut aufgestellt.
Mit der EU-DSGVO gibt es erstmals eine Verordnung, die das Datenschutzrecht EU-weit vereinheitlicht und die Unternehmen zum Nachweis verpflichtet, die Prinzipien des EU-Datenschutzes einzuhalten. Sie gilt für in der EU ansässige Unternehmen, aber auch für ausländische Unternehmen, wenn diese eine Niederlassung in der EU haben oder Daten von EU-Bürgern verarbeiten. Also de facto für alle größeren internationalen Unternehmen, aber auch für viele Mittelständler und KMU.
Die Strafen bei Verletzung der EU-DSGVO sind saftig: Bis zu 20 Millionen oder vier Prozent des Jahresumsatzes – im Zweifelsfall gilt der höhere Wert.

DSGVO und IoT

Als Daten gelten dabei nicht nur Kontakdaten wie Name, Adresse, E-Mail-Adresse, Telefonnummer. Damit betrifft sie auch das IoT, sammeln seine Geräte doch zuhauf vielfältige Nutzerdaten. Je nach Funktion reichen diese von Blutgruppe, über das bevorzugte TV-Programm bis hin zum Aufenthaltsort des Hundes. Hier sollte ein Privacy-by-Design-Ansatz verfolgt werden, damit schon bei der Entwicklung die Datenschutzrisiken gering gehalten werden können und Datensicherheit gewährleistet ist. Schließlich ist auch zu klären, wo im Unternehmen die Daten überhaupt gespeichert sind und wer Zugriff darauf hat.

Was ist neu?

Ganz wichtig: Unternehmen haben eine Rechenschaftspflicht. Im Fall einer Klage gilt die Beweislastumkehr: Nicht der Kläger muss nachweisen, dass die EU-DSGVO verletzt worden ist. Das Unternehmen muss beweisen, dass es die strengen Kriterien der Verordnung erfüllt. Hier könnte sich unter Umständen für Unternehmen ein Betätigungsfeld eröffnen, um unliebsamen Konkurrenten zu schaden. Außerdem muss in bestimmten Fällen ein Datenschutzbeauftragter ernannt werden.

Hinzu kommt die Verpflichtung, ein sogenanntes „Privacy by Design“ einzuführen, mit dem datenschutzrelevante Maßnahmen von Beginn an in Design sowie Entwicklung von Systemen, Prozessen und Produkten integriert werden. Auch sind mehr Daten betroffen, so etwa Einzelangaben über persönliche und sachliche Verhältnisse einer bestimmten oder bestimmbaren Person. Die Anforderungen an „bestimmbare Personen“ sind sehr gering. Auch Lieferanten können betroffen sein, zum Beispiel solche, die von einem Unternehmen beauftragt werden, personenbezogene Mitarbeiterdaten zu verarbeiten.

Mehr Rechte für Beschäftigte, mehr Pflichten für die Unternehmen

Nach Auffassung vieler Fachleute werden die Pflichten des Arbeitgebers beim Datenschutz deutlich erhöht, die Rechte der Beschäftigten hingegen gestärkt. Diese erhalten die Hoheit über ihre Daten und das Recht, auf Anfrage zu erfahren, ob, welche und in welchem Umfang personenbezogene Daten durch den Arbeitgeber verarbeitet werden. Das muss laut EU-DSGVO schneller und umfassender geschehen, als dies früher der Fall war. Unternehmen ohne digitale Personalakte haben hier einen großen Aufwand, da die dafür zuständigen Personalabteilungen meist in einem mühseligen Prozess die zerstückelt geführten Personalakten, Gehaltsabrechnungen oder Berichte prüfen müssen.

Vieles hängt von der Art und Größe des Unternehmens ab

Einige Experten warnen, die Aufgaben im Zusammenhang mit der Verordnung zu unterschätzen. Die häufig vertretene Ansicht, dass die Erstellung eines Verarbeitungsverzeichnisses die Erfüllung der Richtlinien gemäß DSGVO bedeutet, ist leider nicht richtig. Ein Verarbeitungsverzeichnis ist zwar wesentlich, jedoch nur einer von mehreren Schritten der Umsetzung. Jedes Unternehmen muss also auch alle technischen und organisatorischen Maßnahmen zur Sicherung und zum Schutz der Daten umsetzen und auch dokumentieren. Nicht zu vergessen, die Einhaltung und Dokumentation aller Betroffenenrechte. Eine Lösung muss all diese Aspekte mitberücksichtigen und ganzheitlich erfüllen. In welchem „Detailgrad“ die Umsetzung auf Unternehmensebene erfolgt, hängt jedoch von der Art und Größe des Unternehmens sowie den verfügbaren Ressourcen ab. Entscheidend ist auch die Branche, da jede ihre ganz eigenen Anforderungen hat.

Von der Geschäftsführung bis hin zum Betriebsrat müssen die Verantwortlichen über die Regelungen und Veränderungen beim Datenschutz informiert und aktiv werden.

Zertifizierungen als Basis

Manche Unternehmen profitieren von bereits vorhandenen Zertifizierungen, etwa nach ISO 9001 oder ISO / IEC 27001. Diese Zertifizierungen dienen als Basis für ein Datenschutzmanagementsystem (DSMS), das die Compliance mit der EU-DSGVO gewährleistet. Ähnliches gilt für die Zertifizierung nach dem Standard BS 10012:2017. Trotzdem muss vieles noch angepasst werden im Hinblick auf die neuen Regeln.

Datenschutz als Querschnittsaufgabe

Wichtig sei es, darin stimmen Experten überein, das Thema EU-DSGVO als Querschnittsthema im gesamten Unternehmen zu verankern und das Bewusstsein der Mitarbeiter für diese Problematik zu schärfen. Vom Vorstand oder der Geschäftsführung bis hin zum Betriebsrat müssen die Verantwortlichen über die Regelungen und Veränderungen beim Datenschutz informiert und teilweise aktiv werden:

  • Vorstand und Geschäftsführung müssen die veränderte datenschutzrechtliche Praxis im Unternehmen kennen;
  • die IT-Abteilung muss prüfen, welche technisch-organisatorischen Maßnahmen für das geforderte Risk-Management notwendig sind;
  • die Finanzabteilung muss die Kosten berücksichtigen, die dem Unternehmen durch Anpassungsprozesse entstehen;
  • die Rechtsabteilung muss viele Verträge anpassen;
  • die Compliance-Abteilung muss die Risiken eines Verstoßes gegen die Verordnungen berücksichtigen – diese betreffen die außerordentlich hohen Bußgelder, aber auch den Vertrauensverlust, der bei Kunden, Lieferanten oder Mitarbeitern entstehen kann;
  • die Forschungs- und Entwicklungsabteilung muss schon bei einem frühen Projektstadium darauf achten, dass die datenschutzrechtlichen Grundsätze eingehalten werden;
  • für die Personalabteilung entsteht ein hoher Aufwand, da sie einerseits Mitarbeiterschulungen zum Thema organisieren, andererseits den Mitarbeitern auf Nachfrage nachweisen muss, wie ihre Daten geschützt werden; auch der Betriebsrat ist einzubinden.

Ist es sinnvoll, darüber hinauszugehen?

Vielleicht aber ist es sinnvoll, noch ein paar Schritte weiterzugehen. Die Einhaltung der EU-DSGVO-Compliance sollte Teil einer umfassenden Unternehmensphilosophie sein und von der Spitze her gelebt werden – damit ist das EU-DSGVO-Management Chefsache. Es sollte nicht einfach eine lästige Pflicht sein, denn immerhin geht es darum, das Image des Unternehmens in der Öffentlichkeit, bei gegenwärtigen und künftigen Mitarbeitern sowie bei Geschäftspartnern als verantwortungsvoll handelnde Organisation zu stärken. Dazu gehören auch ein umfassender Schutz der Daten und der sichere IT-Betrieb.

Die Risiken einer Verletzung des Datenschutzes sind groß und müssen im Einzelfall genau analysiert werden. Doch wie sieht es mit den Chancen aus? Zum Beispiel könnte ein gut umgesetztes Datenschutzmanagementsystem auch den Eintritt in Länder mit einem ähnlich hohen Datenschutzniveau deutlich erleichtern, wie z. B. Kanada oder Japan.

Echte Mehrwerte im Wettbewerb entstehen, wenn es gelingt, über entsprechende Maßnahmen und ihre Dokumentation Vertrauen zu schaffen. Zudem fördern transparente personenbezogene Daten die Automatisierung von Prozessen und treiben somit die Digitalisierung voran. Einige aktuelle Studien belegen, dass Unternehmen, die auf diesem Weg vorangegangen sind, sich bereits Vorteile verschafft haben. Es liegt also an den Unternehmen selbst, ob ihnen die EU-DSGVO mehr nutzt oder doch eher schadet. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Cloud-Computing

Tipps für eine zukunftsorientierte Cloud-Strategie

von Bernhard Haselbauer

Dezentral, flexibel und günstig – Cloud-Computing erobert mit hoher Skalierbarkeit bei niedrigen Kosten immer mehr deutsche Unternehmen. Auch in diesem Jahr ist der Cloud-Markt wieder gewachsen. Deutsche Unternehmen setzten mittlerweile auf die Public Cloud, Single-Cloud-Architekturen werden in Zukunft nur noch die Ausnahme darstellen.

Es kann festgehalten werden, dass durch Cloud-Dienstleistungen Betrieb und Wartung von IT‐Ressourcen hinfällig werden. Dies führt zu geringeren Personalkosten in der IT‐Abteilung und Unternehmen müssen weder in Hardware investieren, noch Überkapazitäten für Lastspitzen bereithalten. Momentan lauten die Trendthemen Multi-Cloud, Blockchain, Edge Computing, RPA und künstliche Intelligenz (KI). Aufgrund des großen Anwendungspotenzials steigt die Nachfrage nach Datenverarbeitung und KI immer mehr. Aber wie können wir uns zum Bespiel „KI/AI as a Service“ als Cloud-Dienstleistung vorstellen?

Zum Beispiel haben Cloud-Anbieter bereits KI-Anwendungen für Unternehmen als „as a Service“ in ihr Angebot integriert – d. h., sie stellen diese Anwendungen über „Open Source Platforms“ zur Verfügung, sodass Unternehmen keine eigenen Tools oder Infrastrukturen aufbauen müssen. Der Vorteil für Unternehmen liegt darin, dass Entwicklungszeiten so reduziert und Kosten gesenkt werden können. Das Investitionsrisiko für den Einstieg in KI reduziert sich also, während die Flexibilität steigt. Wollen Unternehmen von verschiedenen KI-Anwendungen Gebrauch machen, die für komplexe Szenarien eingesetzt werden können, so müssen die verschiedenen Anwendungen und Datenbanken zusammenarbeiten. Mit Multi-Cloud-Architekturen kann das weltweit erreicht werden.

Die Ressourcenverteilung der Cloud-Infrastruktur wird künftig nicht nur automatisiert ablaufen, vielmehr werden selbstlernende Computersysteme die zugrunde liegenden Automatismen nutzerspezifisch weiterentwickeln.

Viele Berichte deuten darauf hin, dass 2019 das Jahr der Multi- und Hybrid Cloud werden soll. Aus dem Englischen übersetzt bedeutet Multi-Cloud die Verwendung mehrerer Cloud-Computing- und Storage-Services in einer einzigen heterogenen Architektur. Dies wird auch als Polynimbus-Cloud-Strategie bezeichnet und bezieht sich auch auf die Verteilung von Cloud-Assets, Software, Anwendungen usw. in mehreren Cloud-Hosting-Umgebungen.

Die Multi-Cloud verhält sich aus Anwendersicht wie eine einzige große Cloud. Wie die Hybrid Cloud kann die Multi-Cloud mehrere Cloud-Modelle wie die Private Cloud oder die Public Cloud integrieren.

Die meisten Unternehmen werden wohl zunächst mit Hybrid-Cloud-Lösungen arbeiten, um Abhängigkeiten zu vermeiden. Außerdem können User der Hybrid Cloud Angebote von mehreren Cloud-Anbietern vergleichen und so das Kostenrisiko optimieren. Zusätzlich werden weitere Redundanzen die Ausfallsicherheit erhöhen. Aus diesen Gründen werden wohl die großen Public-Cloud-Anbieter das Thema „Vendor Lock-in“ weiter verfolgen. Wer sich mit dem Thema Cloud-Computing beschäftigt, hat wahrscheinlich den Begriff Vendor-Lock-in bereits gehört. Hier spricht man von einem sogenannten Lock-in-Effekt, wenn sich ein Kunde so abhängig von einem bestimmten Hersteller gemacht hat, dass der Wechsel zu einem alternativen Anbieter aufgrund zu hoher Transaktionskosten unwirtschaftlich ist.

Um die Vorteile einer Hybrid- oder Multi-Cloud-Umgebung zu nutzen, empfehlen wir einen kompetenten „Managed Services Provider“ (MSP) zu konsultieren.


Von Robotik und Automation

Lange verdammt, unentwegt einfachste Handlungen zu verrichten, mutieren Roboter zu autonom agierenden „Kollegen“ mit flexiblen Aufgaben.

von Andreas Fuhrich

Automatisierung ist ein maßgeblicher Erfolgsfaktor des produzierenden Gewerbes. Durch sie lassen sich Kosten senken und dennoch höchste Qualitätsansprüche realisieren. Bezahlbare und leistungsfähige Produkte, vom Smartphone bis zur Sicherheitstechnik im Auto, sind ohne sie nicht denkbar.

War das Thema Automatisierung bis vor einigen Jahren noch den „großen“ Unternehmen vorbehalten, gehen mittlerweile mehr und mehr kleine und mittelständische Betriebe dazu über, ihre Fertigung zu automatisieren.(1)

Roboter, als wesentliche Bausteine der Automatisierung, dienen dabei vermehrt als persönliche Produktionsassistenten, die direkt mit dem Werker in gemeinsamer Arbeitsumgebung ohne trennende Schutzzäune interagieren. Innovative Sicherheitskonzepte verbunden mit dem vermehrten Einsatz von Sensorik, Software und Bildverarbeitungstechnologie bilden die ausschlaggebende Basis der hierfür notwendigen erhöhten Sicherheit.(2)

China ist mit der größte Produzent von Industrierobotern und produzierte laut einer Schätzung der International Federation of Robotics 2017 115 000 Einheiten. Dahinter folgen Südkorea (44 000), Japan (42 000) und USA (36 000). Auf Platz fünf rangiert Deutschland (21 000)(3), wo die Branche 2017 erstmals einen Umsatz von über 14 Mrd. Euro erwirtschaftete.(4)

IoRT – Das Internet of Robotic Things

Während Roboter ursprünglich dazu angedacht waren, einfache repetitive Aufgaben unentwegt auszuüben, sind sie heute in der Lage, mit ihrer Umwelt zu interagieren und intelligentes Verhalten zu zeigen. Ein Roboter mit einer Verbindung zum Internet verfügt dabei über eine immense Informationsquelle, die ihm bei Entscheidungsfindungen und Interaktionen hilft. Vernetzen sich diese Roboter zusätzlich auch untereinander, entsteht eine gemeinsame Intelligenz, die für alle betreffenden Geräte die günstigsten Handlungsabläufe ermitteln kann. Das Konzept der Einbindung von Teams aus Robotern in das IoT wird als das „Internet of Robotic Things“ oder das „IoRT“ bezeichnet.

Autonome Roboter-Schwärme

Derart vernetzte Schwarm-Drohnen werden bald in Gruppen zu Hunderten oder Tausenden um uns schwirren, in Formationen wie bei Vogelschwärmen. In Zukunft könnten solche Schwärme etwa kostengünstig Pipelines, Hochspannungsleitungen und Industrieanlagen inspizieren oder in der Landwirtschaft Pestizide und Herbizide versprühen, und zwar exakt dosiert an den erforderlichen Stellen.

Die Grundlagen der Robotik – Erfassung, Bewegung, Mobilität, Manipulation, Autonomie und Intelligenz – werden durch das Internet of Things auf eine neue Stufe gehoben. Roboter müssen nicht länger selbst mit kognitiven Fähigkeiten ausgerüstet sein, denn schließlich stellt das IoT mit all seinen Sensordaten wiederverwendbare und offen verfügbare Informationen bereit, auf die sie zur Erfüllung ihrer Aufgaben zugreifen können. Dies ermöglicht eine Miniaturisierung vernetzter Roboter-Schwärme bis auf Nano-Ebene, wodurch ganz neue Möglichkeiten eröffnet werden.(5)


Digital Banking

FinTechs, Tech-Giganten und neue Technologien verändern die Branche.

Zwar begann die Digitalisierung der Banken mit dem Online-Banking schon im letzten Jahrtausend, doch weitere Innovationen blieben lange aus. Für den Knotenpunkt aller Geldgeschäfte galt der Bankkunde als Selbstverständlichkeit und musste nicht mit technischen Neuerungen gebunden werden. Selbst das Online-Banking diente mehr dem Stellenabbau und der damit verbundenen Gewinnoptimierung als dazu, einen wirklichen Service anzubieten. Heute noch beworbene Tagesgeldkonten wirken wie absurde Überbleibsel aus der Zeit, in der sie mit lukrativen Zinsen als Online-Banking-Marketingmaschine fungierten.

Seit einigen Jahren verändert nun die aufstrebende FinTech-Branche den Finanzmarkt. Dem Kundenwunsch nach mehr digitalen Lösungen, der vor allem durch die Entwicklungen der Mobile Devices mit ständigem Internetzugriff noch verstärkt wird, soll entsprochen werden. Vormals ineffiziente und unflexible Geschäftsfelder werden revolutioniert oder zumindest den neuen technologischen Möglichkeiten angepasst. Durch die PSD2-Richtlinie wurde mittlerweile auch das Monopol der Banken in Bezug auf Kontoinformationen gebrochen. Sie sind nun verpflichtet, eine API-Schnittstelle anzubieten, und, die Einverständniserklärung des Kunden vorausgesetzt, auch anderen Unternehmen Zugriff zu gewähren.

Mittlerweile haben auch viele der altehrwürdigen Bankhäuser erkannt, wie wichtig es im Wettbewerb um die Gunst der Kunden ist, durch eine Modernisierung und Technologisierung der gesamten Dienstleistungskette zu punkten. Oftmals machen sie sich dabei die Innovationskraft eines agilen Start-ups zunutze. Nicht selten agieren diese als White-Label-Lösung im Verborgenen, profitieren aber im Gegenzug von der bereits aufgebauten Kundschaft der etablierten Institute. Auf der anderen Seite machen es die vielen Regularien für Start-ups fast unmöglich, die Bedingungen für eine Banklizenz zu erfüllen. Gerade bei besonders populären FinTech-Lösungen, wie dem Crowdlending, agieren daher nun die Banken im Hintergrund und regeln beispielsweise die Abwicklung der Kreditvergaben.

Zwar machten kleine Start-ups den Anfang, doch mittlerweile bitten auch die Tech-Giganten auf dem Finanzparkett zum Tanz. Siri ermöglicht mittlerweile Überweisungen per Sprachbefehl und ebenso wie Apple Pay ermöglicht auch das Android-Pendant Google Pay das Bezahlen via Smartphone an der Kasse.

Amazon-Go-Filialen schaffen Kassensysteme sogar komplett ab. Eine auf dem Smartphone installierte App vernetzt sich mit der ausgeklügelten Technik im Geschäft, die genau erkennt, welche Waren der Kunde einsteckt. Nach Verlassen des Ladens erhält dieser nur noch eine Push-Benachrichtigung, einen digitalen Kassenbon. Zusätzlich setzen sich die Unternehmen auch im Online-Commerce an die Schnittstelle zwischen Händler und Kunden, indem sie bei Bezahlungen per App Rabatte anbieten oder als Identitätsdienst die Registrierung beim Onlineshop mit nur einem Klick ermöglichen.

Enormes disruptives Potenzial wird auch der Blockchain zugesprochen. Der Hype der Kryptowährungen endete zwar relativ schnell nach dem Bitcoin-Höchststand im Dezember 2017, doch nicht nur FIAT-Währungen werden durch die Technologie in Frage gestellt. Blockchain-Ökosysteme ermöglichen Legitimation, Absicherung und Auslandszahlungsverkehr – also Kerndienstleistungen der Banken.


Die Trends in Forschung & Entwicklung

Neue digitale Technologien verändern den Innovationsprozess und binden den Kunden stärker in die Produktentstehung mit ein.

von Dr. Ralf Magagnoli

Ziel vieler Unternehmen ist es, in puncto Industrie 4.0 die umfassendste Option zu realisieren, nämlich die des Enablers. Der Enabler ist ein Technologieanbieter für das IoT und nutzt Plattformen (Clouds) zur Entwicklung, Herstellung und Lieferung vernetzter Dienste und Produkte. Was bedeutet dies für die Abteilung Forschung & Entwicklung: Zum einen werden die traditionellen Schranken zwischen Forschung & Entwicklung, Produktmanagement und Produktion tendenziell aufgehoben, zum anderen werden die sogenannten Stakeholder, meistens Kunden, an der Entwicklungsarbeit beteiligt. Die Vorteile sind u. a. schnellere Produktreife, besser ausgetestete Produkte, kostengünstigere Produkte und – last, but not least – völlig neue Produkte. Was also sind die Trends in der Forschungs- und Entwicklungsabteilung?

Künstliche Intelligenz (KI) / Machine Learning

Die Begriffe KI und Machine Learning werden oft synonym verwendet, sind aber nicht deckungsgleich, da Machine Learning nur einen Bereich, allerdings den wichtigsten der KI, ausmacht. So sagt der chinesisch-amerikanische Informatiker Andrew Ng: „99 Prozent des ökonomischen Wertes, den KI heute schafft, wird durch die eine Art von KI erzeugt, die von A nach B lernt, durch Input- zu Output-Mappings“, also durch Machine Learning. Worum geht es? Es geht um selbstständig lernende Maschinen und Computer; diese lernen anhand von Beispielen und können diese nach Ende der Lernphase verallgemeinern, indem sie Muster und Gesetzmäßigkeiten in den Lerndaten „erkennen“.

Für die Forschung & Entwicklung bieten KI und vor allem das Machine Learning riesige Potenziale, wenn es darum geht, das Kundenverhalten über prädiktive Analysen gezielter zu prognostizieren und via Algorithmen fundiertere Innovationsentscheidungen zu fällen.

Dies erfolgt mithilfe von Algorithmen, die sich wiederum in überwachtes Lernen (teilüberwachtes, bestärkendes, aktives Lernen) und unüberwachtes Lernen unterteilen lassen. Für die Forschung & Entwicklung bieten KI und vor allem das Machine Learning riesige Potenziale, wenn es darum geht, das Kundenverhalten über prädiktive Analysen gezielter zu prognostizieren und via Algorithmen fundiertere Innovationsentscheidungen zu fällen. Dies betrifft u. a. den Designprozess – Stichwort Generatives Design – reicht aber weit darüber hinaus.

Generatives Design

Hier übernimmt ein Algorithmus die Aufgabe, die früher der Designer erledigte. Dieser erstellt nur den digitalen „Werkzeugkasten“, während der Computer das Ergebnis erzeugt. Die Aufgabe des Designers besteht darin, das Ergebnis zu beurteilen und ggf. den Quellcode, die Parameter und den Algorithmus zu verändern. Dazu gibt es neue Tools – Stichwort bspw. Low Code – die eine Programmierung auch ohne vertiefte Programmierkenntnis erlauben. Der Gestaltungsspielraum erweitert sich durch Generative Design in erheblicher Weise, wozu Parameter wie Zufall, Struktur oder Wiederholung kombiniert mit traditionellen Faktoren wie Schrift, Form, Farbe und Bild beitragen.

Dabei bietet sich auch in diesem Fall die Open Innovation, also die Zusammenarbeit verschiedener Akteure – meist über eine cloudbasierte Plattform –, an, über die sich nicht nur eine Vielzahl von Entwurfsalternativen erzeugen lässt, sondern über die die Entwürfe auch im Hinblick auf die Kundenakzeptanz geprüft werden können. Im Idealfall werden die verschiedenen Stakeholder, allen voran natürlich die Kunden, am Projekt beteiligt und aktiv in den Designprozess eingebunden. Die Echt­zeitinformationen sorgen für schnellere Durchlaufzeiten von Projekten.

Digitaler Zwilling

Das Gabler Wirtschaftslexikon definiert den „digitalen Zwilling“ (Digital Twin) als „virtuelles Modell z. B. eines Prozesses, eines Produkts oder einer Dienstleistung, welches die reale und virtuelle Welt verbindet“. Notwendig sind dabei drei Elemente: das abzubildende Objekt – bspw. ein Fahrrad –, der digitale Zwilling und die Daten, die beide miteinander integrieren. So wird das reale, mit Sensoren ausgestattete Fahrrad, um diesen Fall zu nehmen, mit dem System verbunden, das die Sensordaten empfängt, verarbeitet und auswertet. Anhand des digitalen Zwillings können dann die Leistungsfähigkeit, die Widerstandskraft und die Haltbarkeit des Fahrrads, etwa unter Extrembedingungen, getestet werden.

Über Simulationen werden so verschiedene Alternativen erforscht, um die in der Regel komplexen Produktanforderungen zu erfüllen – zum Beispiel: Ist das Produkt intuitiv nutzbar? Funktioniert die Elektronik einwandfrei? Wie interagieren die verschiedenen Komponenten? Und, im Hinblick auf das Fahrrad, bei welchen Lastfällen sind welche Bereiche des metallischen Fahrradrahmens oder der Federgabel als kritisch zu beurteilen?

Der digitale Zwilling wird gerne in der Automobilindustrie für Crashtests eingesetzt. Aufgrund der Effektivitätssteigerungen entlang der gesamten Wertschöpfungskette rechnet der Analyst Gartner damit, dass schon 2021 die Hälfte der größeren Industrieunternehmen den digitalen Zwilling einsetzen wird. Dabei geht es auch hier in Richtung künstlicher Intelligenz, sodass man von der gegenseitigen Wahrnehmung und Interaktion zur Kommunikation und eigenständigen Optimierung der Systeme gelangt.

Additive Fertigung / 3-D-Druck

Auch diese beiden Begriffe werden meist synonym verwendet. Worum geht es? Es handelt sich um ein professionelles, sich von konventionellen Methoden unterscheidendes Produktionsverfahren, bei dem Schicht um Schicht Bauteile aufgebaut werden, um Prototypen zu erstellen. Durch ein sogenanntes Rapid Prototyping in der Forschung & Entwicklung können die Produktentwicklung (und damit die Markteinführung) entscheidend beschleunigt werden. (Im Sinne verschwindender Grenzen zwischen Forschung & Entwicklung einerseits und Produktion andererseits hält das Verfahren zunehmend Einzug in die Serienfertigung.)

Der entscheidende Vorteil gegenüber traditionellen Fertigungsmethoden aber liegt im „Design-driven Manufacturing Process“, bei dem nicht die Fertigung die Konstruktion determiniert, sondern bei dem die Konstruktion die Fertigung bestimmt. Die additive Fertigung verspricht zudem Designfreiheit, Funktionsoptimierung und -integration sowie die Individualisierung von Produkten in der Serienfertigung.

VR- & AR-Konzepte werden Forschung und Entwicklung massiv beeinflussen.

Augmented Reality (AR)

Nicht selten wird beim Prototyping auch die „erweiterte Realität“ (Augmented Reality) eingesetzt, die computerbasierte Erweiterung der Realitätswahrnehmung – oft mithilfe von AR-Brillen. So lassen sich in mehrdimensionalen Räumen Objekte, die nur zweidimensional als Baupläne existieren, völlig neu fassen, da das eigene Verhalten virtuell abgebildet werden kann. Bspw. werden virtuell konzipierte Werkstücke, etwa beim Autobau Mittelkonsolen, per AR-Anwendungen simuliert.

Der Entwickler oder – idealerweise über Open Innovation – auch der Kunde hat damit die Möglichkeit, zu prüfen, ob die Teile tatsächlich funktional und anwenderfreundlich angeordnet worden sind oder ob Optimierungsbedarf entsteht. Die Vorteile liegen auf der Hand, vor allem die Reduzierung von Forschungs- und Entwicklungskosten sowie die Verkürzung des Entwicklungsprozesses.

Open Innovation

Der Begriff der Open Innovation stammt von Henry Chesbrough und bezeichnet die meist plattformübergreifende Öffnung des Innovationsprozesses in Unternehmen und die strategische Nutzung der Außenwelt. Dazu müssen die Unternehmen imstande sein, externes Wissen zu internalisieren und internes Wissen zu externalisieren. Das durch steigenden Wettbewerbsdruck, kürzere Produktlebenszyklen und höheren Innovationsdruck begründete Konzept wirkt sich vor allem auf die Forschungs- und Entwicklungsabteilung aus. Lautete das Motto der Closed Innovation, also der Innovation ausschließlich im Unternehmen, „We can do it, we will do it“ („Wir schaffen das“), so gilt für die Open Innovation die Devise „The best from anywhere“. Eigene Mitarbeiter außerhalb des Forschungs- und Entwicklungsteams, aber auch „Stakeholder“ wie Kunden, Lieferanten, Universitäten sowie auch Mitbewerber und Unternehmen anderer Branchen können in den Innovationsprozess eingebunden werden.

Es handelt sich um ein kollaboratives Networking im Bereich der Forschungs- und Entwicklungsarbeit, das auf Wissensaustausch und Vernetzung von Know-how basiert. Da Open Innovation immer ein Geben und Nehmen impliziert und viele Unternehmen immer noch zurückhaltend sind, eigenes Know-how preiszugeben, hat sich das Konzept noch nicht in der Breite durchgesetzt – dennoch ist angesichts des Drucks auf die Unternehmen zu erwarten, dass sich Open Innovation mehr und mehr durchsetzen wird. Beispiele für gelungene Projekte sind InnovationJam, eine IBM-Plattform, über die Unternehmen und Universitäten aus verschiedenen Ländern miteinander kooperieren, oder die Internet-Musikbörse Last.fm, die sogenannte „Hacker-Tage“ organisiert, an denen Nutzer neue Applikationen entwickeln können.

Coopetition

Die Coopetition – ein Kunstwort, das sich aus Competition (Wettbewerb) und Cooperation (Zusammenarbeit) zusammensetzt – bedeutet eine Dualität aus Kooperation und Wettbewerb. So können auf der gleichen Wertschöpfungsstufe – in diesem Fall eben meistens der Forschung & Entwicklung – die Kompetenzen und das Know-how gebündelt werden (horizontale Kooperation), während man etwa in puncto Marketing und Vertrieb Wettbewerber bleibt. Ein Beispiel ist die Kooperation zwischen VW und Ford, die gemeinsam einen Fahrzeugtyp entwickelten, der bei VW als „VW Sharan“ und „Seat Alhambra“, bei Ford als „Ford Galaxy“ vermarktet wurde. Einfacher ist die gemeinsame Produktentwicklung natürlich zwischen Unternehmen, die mit dem Produkt unterschiedliche Anwendungs-zwecke verfolgen und unterschiedliche Zielgruppen bedienen.

Customer Experience

Auch die Customer Experience ist eng mit der Open Innovation verbunden. Hierbei geht es um die gezielte Einbindung von Kunden, oft sogenannter Lead-User, also besonders fortschrittlicher Anwender, zur Verbesserung und Weiterentwicklung von Produkten. In sogenannten „Customer Experience Centres“ haben Kunden die Möglichkeit, Prototypen und Produkte zu testen. Während mit dem Ansatz der Customer Experience generell positive Kundenerfahrungen generiert werden und die Kunden im Idealfall zu „begeisterten Botschaftern“ gemacht werden sollen, bedeutet er für die Forschungs- und Entwicklungsabteilung die passgenaue Identifikation der Kundenwünsche. Nichts ist schlimmer als ein Team verspielter Technikfreaks, die an den Kundenwünschen vorbeiarbeiten. Die zentrale Forderung, gerade für Forschung & Entwicklung, lautet daher: „Customer Experience bedeutet, die Bedürfnisse des Kunden nicht nur zu erfüllen, sondern jederzeit zu übertreffen.“ Voraussetzung dafür ist, sie zu kennen. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Kapitel 3: Herausforderungen

Kapitel 2: Abteilungen

Einfluss der Digitalisierung auf die Unternehmensabteilungen

Die Digitalisierung, Automatisierung und „Datafizierung“ betrifft das gesamte Unternehmen, wirkt sich aber unterschiedlich auf die jeweiligen Abteilun­gen aus. Die Aufgabe der Geschäftsleitung ist es, den Kurs der digitalen Transformation vorzugeben (2.1), während die IT-Abteilung schließlich die Systeme am Laufen halten muss. (2.2) Im Marketing wird der Kunde analysiert und individualisiert monetarisiert. (2.6) Die Daten werden dabei auch aus IoT-Devices gesammelt und als Feedback an die Produktion und Fertigung weitergeleitet, um eine stetige Verbesserung zu ermöglichen. (2.7) Passgenaue Informationen sind auch für den Vertrieb eine wertvolle Hilfe im persönlichen Kundenkontakt (2.5), der auch das Lebenselixier des Einkäufers ist. Von der Automatisierung getrieben, ist er verdammt, zu einem Netzwerker mit Mehrwert zu werden. (2.8) Natürlich darf bei all den anfallenden Daten der Schutz nicht vergessen werden. Die EU-DSGVO stellt insbesondere an die Buchhaltung (2.3) und das Personalwesen (2.4) Anforderungen, die sich mit Papierakten nicht mehr bewältigen lassen. //

Das Kapitel im Überblick

Abteilung IT

Die Zukunft der IT-Abteilung liegt in der Automatisierung.

von Dr. Ralf Magagnoli

Die Prophezeiungen der Auguren waren teils düster: „Die IT-Abteilung vor dem Aus retten“, titelte etwa die Computerwoche im Oktober 2018. Sicher ist nur, die IT-Abteilung wird sich wandeln, sie wird neue Aufgaben übernehmen und alte delegieren müssen. Welche Trends sind gegenwärtig erkennbar, die auf die IT-Abteilungen einwirken und mit denen sich die IT-Abteilungen befassen müssen? Wie wirken sich vor allem Automatisierung und Digitalisierung auf die Arbeit der IT-Abteilungen aus?

Der „Chief Digital Officer“ (CDO)

In vielen Unternehmen gibt es ihn bereits als Hauptverantwortlichen der Digitalisierungsstrategie im Unternehmen. Der CDO gehört der obersten Hierarchieebene an. Zu seinen Aufgaben gehören die Analyse der Ist-Situation in den Unternehmen, die Entwicklung einer digitalen Strategie, die Bereitstellung der notwendigen Ressourcen für die digitale Transformation, die Beaufsichtigung des Wandels, die Beobachtung neuer Entwicklungen und die etwaige Übernahme in das bestehende digitale System. Kritisiert wird eine oftmals unklare Rollenverteilung in vielen Unternehmen. Hier gilt es, klare Regeln und Verantwortlichkeiten zu definieren und dem CDO die Möglichkeit zu geben, die digitale Transformation umzusetzen.

Strukturveränderung

Möglicherweise wird sich die Struktur der IT-Abteilung selbst drastisch verändern. Zwei Möglichkeiten stehen hier zur Disposition: Der Analyst Forrester Research schreibt, dass sie möglicherweise in einen Frontend- und einen Backend-Teil, welcher dann an eine Shared-Services-Abteilung berichtet, zerfallen werde. Eine weitere Möglichkeit besteht darin, dass die IT als eigenständige Einheit auf die verschiedenen Abteilungen im Unternehmen aufgeteilt wird. Gut möglich aber auch, dass die IT-Abteilung weitgehend in der bisherigen Form erhalten bleibt. Sicher ist nur, dass, wie auch in anderen Abteilungen, die Anforderungen an die Mitarbeiter in puncto Agilität, Fähigkeit, über den eigenen Tellerrand zu schauen, und Bereitschaft zum Kulturwandel wachsen werden. Anders ausgedrückt: Nerds und „Das haben wir schon immer so gemacht“-Typen werden immer weniger gefragt sein.

Modernisierung der Legacy-Systeme

Unter Legacy-Systemen werden die über Jahre, teilweise über Jahrzehnte gewachsenen IT-Infrastrukturen verstanden, die oft als Altlasten ein Hindernis für die Zukunftsfähigkeit der Unternehmen sind. Dies in zweifacher Hinsicht: Zum einen im Hinblick auf die Geschäftsprozesse, zum anderen auch in finanzieller Hinsicht, denn die Versuche, die IT-Kosten zu senken, führen zu einem Investitionsstau, dessen Folge archaische Systeme sind, deren Wartungskosten steigen, womit wiederum weniger Gelder für Investitionen zur Verfügung stehen. Ein Teufelskreis, den es zu durchbrechen gilt. Hier bietet sich die Verlagerung von Software und Infrastruktur in die Cloud an, die von spezialisierten Dienstleistern auch vorgenommen wird.


Für die IT-Abteilung wie für die Unternehmen wird es darauf ankommen, den Spagat zwischen inkrementeller und disruptiver Methode zu meistern

Ralf Magagnoli

Microservices

Hier kommen oft Standardsysteme mit adaptiven Architekturen zum Einsatz. Diese Dienste sind so konzipiert, dass sie mit den Anforderungen wachsen und zudem einen modularen Aufbau ermöglichen, was wiederum ein „Plug and play“ mit selbst entwickelten, meist allerdings zugekauften Komponenten erlaubt. Über Continuous Integration / Continuous-Deployment-Pipelines sind zudem agilere, produktzentrierte Betriebsmodelle möglich. Zugleich sollten Unternehmen die Risiken im Auge behalten, die sich über eine zu schnelle Übernahme von Standardsystemen ergeben – nämlich, dass der USP unter Umständen verloren gehen kann. Auch hier ist eine „smarte“ Kombination von Standardisierung und Customizing gefordert.

„Software as a Service“ und „Infrastructure as a Service“

Auch dieser Punkt hängt mit den beiden vorangehenden Punkten zusammen. Nicht nur die Software, sondern die gesamte Infrastruktur wird in die Cloud verlagert und, meist von einem spezialisierten Dienstleister, zur Verfügung gestellt. Die Unternehmen brauchen also weder Software zu entwickeln oder einzukaufen noch Rechnerinfrastrukturen aufzubauen, sondern mieten diese. Betrieb und Wartung liegen beim Dienstleister. Tendenziell bestehen die Rechner in den Unternehmen dann aus Thin Clients: Die Anwender greifen dann per Webbrowser auf die Anwendungen in der Cloud zu. Die Vorzüge: Kalkulierbare Kosten (Miete) und Konzentration aufs Kerngeschäft. Dennoch haben immer noch viele Unternehmen Hemmungen, unternehmenskritische Anwendungen Dritten zu überlassen.

Internet of Things (IoT)

Hier besteht ein Unterschied zwischen der Erwartungshaltung – wie bedeutsam ist IoT für das Unternehmen, wie bedeutsam wird IoT für das Unternehmen werden? – und der Umsetzung. Während laut einer aktuellen IDC-Studie rund 43 Prozent der Befragten in Unternehmen IoT für sehr wichtig bzw. wichtig halten und über 63 Prozent glauben, dass die Bedeutung in Zukunft sehr hoch bzw. hoch sein wird, haben nur rund 20 Prozent der Unternehmen IoT-Projekte umgesetzt. Ziel des IoT ist es, die Lücke zwischen der realen und der virtuellen Informationswelt zu schließen, die dadurch entsteht, dass die in der realen Welt verfügbaren Informationen im Internet nicht abrufbar sind. Das hat Auswirkungen zum Beispiel auf den Kundendialog, der mittels IoT über sogenannte Connected Products verbessert wird, was wiederum die Optimierung bestehender und die Kreierung neuer Produkte zur Folge hat. Beispiel: Der Sportartikelhersteller, dessen Turnschuh sich je nach Laufgeschwindigkeit aufpumpt bzw. fester schnürt. Wichtige Daten werden über Sensoren nicht nur an den Kunden, sondern auch an den Hersteller weitergeleitet. Tritt ein Problem auf, kann der Hersteller schnell reagieren und Verbesserungen an dem Produkt vornehmen.

Industrial Internet of Things (IIoT)

Es geht um den Einsatz von IoT im industriellen Bereich, bspw. im produzierenden Gewerbe, im Gesundheitswesen, in der Energiewirtschaft oder im Agrarwesen. Hierbei gilt es, Daten über den gesamten Informationsprozess zu erfassen und zu kontrollieren. Beispiel Produktion. Das Stichwort hier lautet etwa Predictive Maintenance: Die Maschinen geben Zustandsdaten, die eine proaktive Wartung ermöglichen. So etwa, im kostengünstigen Fall, der Tintenstrahldrucker, der vorab informiert, wann der Füllstand unterschritten wird. Bedenkt man, dass bei komplexeren Maschinen ein Ausfall auch nur von zwei oder drei Stunden teuer werden kann, rechnet sich die Predictive Maintenance. Das IIoT umfasst aber auch die Verbesserung und Kontrolle der Supply Chain, die Sicherstellung der Energiezufuhr über Smart Grids, intelligente, dezentrale Verteilnetze oder Werte bzgl. Raumtemperatur, Luftqualität und Ozongehalt in Produktionsstätten.

Data Science

Als Data Science wird die Extraktion von Wissen aus Daten bezeichnet. Angesichts der auch durch IoT und IIoT dramatisch erhöhten Datenmenge kommt dieser Extraktion eine besondere Bedeutung zu, sodass Spezialisten – meist Absolventen der einschlägigen Studiengänge – sehr gefragt sind. Data Scientists benötigen im Prinzip Kenntnisse in fünf Bereichen: Diese reichen von der ersten Schicht, der „Database Technology“, über die zweite Schicht, die „Data Access & Transformation“, die dritte Schicht, die „Programming Language“, die vierte Schicht, die „Data Science Tool & Library“, die fünfte Schicht, die „Data Science Method“, bis zur Fachexpertise im jeweiligen Fachbereich – also etwa der Ingenieurswissenschaft oder der Betriebswirtschaft. Erst wenn ein Mindestmaß an Fachwissen vorhanden ist, kann der Data Scientist die Fachspezialisten gezielt unterstützen. In kleineren Unternehmen wird im Allgemeinen der Data-Science-Allrounder gesucht, der imstande ist, das gesamte Aufgabenspektrum zu übernehmen, das in größeren Unternehmen von den jeweiligen Spezialisten im jeweiligen Bereich übernommen wird.

Digitale Ökosysteme

Oikos im Altgriechischen bedeutet Haus, sýstema das Verbundene. Auch wenn die Abgrenzung digitaler Ökosysteme nicht ganz einfach ist, kann als ihr Ziel das Überwinden komplexer Herausforderungen durch Imitation biologisch-komplexer Systeme genannt werden. Ein digitales Ökosystem, das sich prinzipiell durch Offenheit auszeichnet, setzt sich aus heterogenen Akteuren unterschiedlicher Branchen und Disziplinen zusammen. Hier wird die Aufgabe der IT-Abteilung darin bestehen, die Einbindung des Unternehmens in ein solches digitales Ökosystem zu gewährleisten und die Stabilität dieses heterogenen Netzwerks bei gleichzeitiger Offenheit zu ermöglichen.


Quelle: Computerfutures
https://www.computerfutures.com/de/blog/2018/02/die-zukunft-der-it-abteilung

Automatisierung / „Robotic Process Automation“ (RPA)

Darunter werden virtuelle Mitarbeiter verstanden, die ähnlich den physisch existenten Robotern der klassischen Prozessautomatisierung bestimmte Aufgaben erfüllen. Es handelt sich dabei um Software-Agenten, die menschliches Handeln nachahmen. Dabei kann der Aufgabenbereich der jeweiligen Software-Agenten eher einfache Aufgaben wie das Versenden von Sammelmails, aber auch komplexere Aufgaben erfüllen. Der Vorteil von RPA liegt u. a. darin, dass über Kostenreduktionen Insourcing bestimmter Aufgaben wieder interessant werden kann. Problematisch kann RPA dort werden, wo keine klaren Verantwortlichkeiten benannt sind – für Wartung, Upgrades – oder wo Mitarbeiter an der Konfiguration mitarbeiten sollen, die durch die Anwendungen ersetzt werden sollen. Wichtig ist es, den richtigen Anbieter auszuwählen, der entsprechende Erfahrungen mit RPA-Projekten vorweisen kann, die in der Regel in verschiedenen Schritten vorgenommen werden: Analyse der Arbeitsprozesse (oft über Filmaufnahmen), Definition der Automatisierung, Umsetzung, Erfolgskontrolle.

Künstliche Intelligenz / Machine Learning

Machine Learning ist ein Aspekt künstlicher Intelligenz, wenngleich ein zentraler. Über maschinelles Lernen wird ein Computer in die Lage versetzt, ein selbstlernendes System zu werden, ohne ihn entsprechend zu programmieren. Auch hier wird, ähnlich dem digitalen Ökosystem, die Natur zum Vorbild genommen, etwa über „Rückmeldungen“ Objekte zu identifizieren. Dies geschieht mittels selbstlernender Algorithmen, die in Daten bestimmte Muster und Gesetzmäßigkeiten erkennen. Die Intelligenz besteht darin, ähnlich der menschlichen Intelligenz, Dinge miteinander zu verknüpfen, Zusammenhänge zu erkennen und Rückschlüsse zu ziehen. Entsprechende Programme tragen dazu bei, dass aufwendige und langweilige Arbeiten vom Rechner erledigt werden – dies gilt etwa für die Papierdokumentation.

Digital Workplace

Die Arbeitswelt verändert sich stetig. Vorbei die Zeiten, als der Beschäftigte um acht Uhr das Büro betrat und um siebzehn Uhr das Büro verließ (eine Stunde Mittagspause), wobei die Stempeluhr die Arbeitszeit dokumentierte. Heutzutage verschwimmen tendenziell die Grenzen zwischen Arbeitszeit und Freizeit. Über den Digital Workplace können Mitarbeiter von jedem Ort und zu jeder Zeit auf die Unternehmensanwendungen zugreifen, egal ob vom Rechner im Homeoffice, vom Tablet im Zug oder vom Smartphone am Strand. Das Zauberwort heißt selbstbestimmtes (und damit effektiveres) Arbeiten.

Endpoint-Security / Endpoint-Protection

Dass sich durch Homeoffice-Arbeitsplätze angesichts immer anspruchsvollerer Vorgaben des Gesetzgebers – hier sei etwa die Datenschutzgrundverordnung (DGSVO) genannt – die Anforderungen an die Compliance erhöhen, versteht sich von selbst. Ein Ansatz ist die sogenannte Endpoint-Security oder Endpoint-Protection, über die Netzwerke von Laptops, Tablets, Handys und anderen Geräten gesichert werden sollen. Die Rechtevergabe obliegt dem Systemadministrator, der auch deren Einhaltung überprüft. Dabei können Vergehen gegen die Datensicherheit – etwa unbefugte Zugriffe auf sensible Daten – sofort verfolgt und geahndet werden – wichtig gerade im Hinblick auf die Wirtschaftsspionage. Es bestehen Verbindungen zum Cloud-Computing (Software as a Service, Infrastructure as a Service) und den Thin Clients im Unternehmen.

Self-Service (Low Code)

Low-Code-Plattformen sind grafische Entwicklungsinstrumente für Geschäftsapplikationen. Sie ermöglichen es, Softwareprogramme schnell und leicht zu erstellen und anzupassen. Dazu sind weder spezielle Programmierkenntnisse noch größere Erfahrungen nötig. Über offene Schnittstellen lassen sich bestehende Technologien und Anwendungen meist problemlos nutzen. Die Vorteile liegen auf der Hand: Die Unternehmen sind weniger abhängig von externen Dienstleistern, die Programme werden bis zu zehn Mal schneller erstellt, sie können auch von Mitarbeitern der Fachabteilungen geschrieben werden, wodurch sich der Graben zwischen IT-Abteilung und Fachabteilung verringert, die internen Entwickler können sich um die komplexeren Aufgaben kümmern.

Inkrementelle vs. disruptive Innovation / Bimodale IT

Während es beim inkrementellen Ansatz um schrittweise Optimierungen und Kostensenkungen geht (Beispiele Digital Workplace, Software as a Service, RPA), setzt der disruptive Ansatz auf dramatische Änderungen meist ganzer Geschäftsmodelle. Dementsprechend liegt im IT-Bereich die inkrementelle Innovation tendenziell beim CIO und der IT-Abteilung, während die disruptive Innovation eher Sache des Vorstands (und ggf. des CDO) ist. In den meisten Fällen geht es aber nicht um ein Entweder-oder, sondern um ein Sowohl-als-auch, da beide Ansätze ihre Vor- und Nachteile haben. Stichwort: Bimodale IT. Diese umfasst ein vorhersagbares Kernsystem einerseits und eine experimentelle, agile Form andererseits, die es erlaubt, mit den schnellen Veränderungen in der Geschäftswelt Schritt zu halten. Für die IT-Abteilung wie für die Unternehmen wird es darauf ankommen, den Spagat zwischen inkrementeller und disruptiver Methode zu meistern. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Kapitel 1: Treiber und Trends

Das Potenzial vernetzter Dinge ist immens. Smart ist, wer es zu nutzen weiß.

Die Politik verantwortet die Wettbewerbsfähigkeit des digitalen Standorts Deutschland. Das betrifft vor allem Themen wie künstliche Intelligenz (1.1) oder den 5G-Netzaufbau (1.2). In den Büros beginnt die digitale Transformation mit der Standardisierung von Dokumenten in ein auswertbares Format. Sie ebnet den Weg für eine konsistente Datenbasis, mit der Prozesse automatisierbar und KI-Anwendun­gen leichter umsetzbar sind. (1.8) Beim Thema digitale Innovationen muss der deutsche Mittelstand den internationalen Vergleich nicht scheuen (1.4), wobei gerade auch in der Forschung und Entwicklung neue digitale Technologien den Innovationsprozess verändern (1.7) und agile Teams die Time to Market verkürzen (1.5). Dem Erfolg „Made in Germany“ folgt die Internationalisierung. Sprachgrenzen überwinden automatisierte Übersetzungsprozesse. (1.3) Doch Vorsicht: Mit dem technologischen Fortschritt fällt schnell so manches Geschäftsmodell der Disruption zum Opfer. Nur, wer zum Wandel bereit ist, überlebt. (1.6)

Das Kapitel im Überblick

Das „Internet of Medical Things“ (IoMT)

E-Health-Innovationen machen unser Leben sicherer und gesünder – ein Milliardengeschäft.

Das Marktforschungsunternehmen Gartner erwartet bis 2020 weltweit 20 Milliarden vernetzte Medizingeräte, die im Krankenhaus 4.0, beim Arzt, im Smarthome oder in der Smart City zum Einsatz kommen. Der Gesamtwert des IoMT-Marktes in Europa betrug laut einer Studie von Deloitte letztes Jahr rund 12 Mrd. US-Dollar. 2020 sollen es 40 Mrd. sein. Auf dem Markt tummeln sich dabei nicht nur diverse Start-ups, sondern vor allem auch Big Player wie Siemens, Apple und Google bzw. die Alphabet-Tochter verily.

Vielfalt der Sensoren

Herzfrequenzsensoren erkennen Anzeichen eines Vorhofflimmerns, Beschleunigungssensoren registrieren schwere Stürze und schlagen Alarm. Sensoren sind heute in der Lage, nahezu jede Körperfunktion rund um die Uhr zu überwachen, machen unser aller Leben und vor allem das von Patienten leichter und sicherer. Diabetiker, Epileptiker und Herzpatienten werden schon gewarnt, bevor sie selber Anzeichen verspüren und Krankenhäuser und (Not-)Ärzte können frühzeitig alarmiert werden.

Viele Sensoren sind dabei heute so klein, dass sie einfach mit der Smartwatch getragen werden können. Für spezielle Anwendungen geht es auch noch kleiner bzw. filigraner. Sensoren auf Kontaktlinsen etwa sind in der Lage, anhand der Tränenflüssigkeit den Blutzuckerwert zu messen und zu übermitteln. Im Krankenhaus überwachen Sensoren dabei nicht nur Patienten, sondern auch medizinische Geräte. Diese lassen sich so nicht nur leicht lokalisieren, sondern auch rechtzeitig warten. Durch die Möglichkeiten einer Predictive Maintenance werden so Ausfallzeiten verhindert und Kosten gesenkt.

AR und VR

Durch Augmented Reality lassen sich komplette Eingriffe realitätsnah simulieren. Im echten OP erleichtern auf Datenbrillen projizierte Informationen das Operieren. Der Chirurg muss nicht mehr seinen Kopf zum Monitor heben, sondern kann sich komplett auf den Patienten konzentrieren. In Zukunft sollen Mediziner während einer Operation passgenau CT- und MRT-Bilder über den Patienten eingeblendet bekommen, um bestimmte Bereiche besser lokalisieren zu können.

Ein Forscherteam der RWTH und FH Aachen präsentierte im Juni eine 3-D-Betrachtung eines stark verlagerten Kiefergelenkbruchs mittels einer Virtual-Reality-Brille. Dabei wurde deutlich, wie hilfreich eine solche Darstellung für den Chirurgen bei der Planung seines Eingriffs sein kann. Natürlich ist diese Technologie auch während der fachärztlichen Ausbildung oder während des Studiums besonders vielversprechend.

Digitale Gesundheitsakte

Gesundheitsminister Jens Spahn will, dass ab 2021 Versicherte generell ihre Patientendaten auch per Handy oder Tablet einsehen können. Während die Techniker Krankenkasse und die AOK eine eigene Lösung anbieten, ist „vivy“ ein Gemeinschaftsprojekt diverser anderer privater und gesetzlicher Krankenkassen. Die App ist dabei elektronische Gesundheitsakte und persönliche Assistentin zugleich. Sie hilft bei der Einhaltung von Medikationsplänen oder erinnert an den nächsten Impf- / Vorsorgetermin. Welche Daten wann an wen übermittelt werden, entscheidet der Nutzer selbst. Auch soll technisch und organisatorisch sichergestellt sein, dass Krankenversicherungen keinen Zugriff auf persönliche Daten bekommen können. Akzeptanz und Vertrauen in derartige Produkte fehlt allerdings dennoch in breiten Schichten der Bevölkerung.

Sicherheitsbedenken

Vernetzte Geräte bilden naturgemäß eine Angriffsfläche für Hacker. Neben unseren Gesundheitsdaten kann dadurch auch unmittelbar unser Leben bedroht werden, bspw. wenn der Herzschrittmacher gehackt wird. Nach dem Medizinproduktgesetz müssen vernetzte Medizingeräte zwar besonders hohe Sicherheits- und Qualitätsauflagen erfüllen, doch absolute Sicherheit kann auch dadurch nie gewährleistet werden. Das Potenzial das Leben vor allem von Risikopatienten deutlich sicherer zu machen, scheint dabei aktuell die Risiken mehr als aufzuwiegen. Dies darf aber nicht dazu führen, verstärkte Sicherheitsmaßnahmen zu vernachlässigen. //


Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Abteilung Personal

Einfluss der Digitalisierung auf das Personalwesen

In der heutigen Zeit greift die Digitalisierung immer weiter in die Arbeitswelt und in die damit vorhandenen Prozesse eines Unternehmens ein. Es existiert kaum ein Prozess in der Personalabteilung, der nicht unter dem Einfluss der Digitalisierung steht. Dadurch entstehen neue Möglichkeiten der Organisation von Personalarbeit, neue Herausforderungen an Mitarbeiter und neue Risiken.

Die Aufgabenprofile wandeln sich durch künstliche Intelligenz (KI) und Automatisierung. Software-Bots und smarte Assistenten helfen, stupides Arbeiten zu vermeiden, und schaffen neue Freiräume für Personaler, die mit strategischen Aufgeben besetzt werden. Der HR-Bereich wird so zum Partner der Geschäftsführung und der einstige Verwalter von Mitarbeitern wird zum proaktiven Dienstleister im Unternehmen.

Eine der wichtigsten Aufgaben der HR 4.0: die knappen Fachkräfte an das Unternehmen zu binden. Dabei helfen neue Recruitingmaßnahmen und Analysen sowie ein gekonntes Employer-Branding.

Vorhandenes Fachpersonal wird durch neu eingeführte Lernmethoden und Motivationsprogramme weiterentwickelt und ist in der Lage, durch Performancemanagement mittels Big Data Prozesse optimal zu steuern.
HR-Personal der Zukunft wird aufgrund der großen Masse an personenbezogenen Daten, die gesammelt werden, zunehmend die Balance zwischen Daten- und Mitarbeiterschutz finden müssen, Datensicherheit und Datenschutz werden daher eine wichtige Rolle im digitalisierten Personalwesen einnehmen. Gerade die Nutzung personenbezogener Daten für KI-optimierte Prozesse ist dabei problembehaftet.

Neue Kompetenzfelder des Personalwesens durch Einfluss der Digitalisierung

Neue Kompetenzanforderungen

Megatrends wie die Digitalisierung oder der demografische Wandel stellen die jetzige Position des Personalwesens in Unternehmen mit Blick auf die Wahrnehmung seiner Funktionen und seines Wertbeitrages vor große Herausforderungen. Technologietreiber der Märkte sorgen für neue Geschäftsmodelle, Unternehmensstrukturen und Arbeitsumfelder für Arbeitnehmer, die Verknappung von lokalen Fachkräften und Spezialisten sorgt zusätzlich für Veränderungen in der strategischen Personalplanung. Gleichzeitig wächst die sogenannte Gig-Economy: Vor allem im IT-Bereich gehören Arbeitnehmer nicht länger fest zu einer Organisation, sondern bieten ihre Dienstleistung projektbezogen auf Plattformen an und sind so zeitlich befristet für verschiedene Auftraggeber tätig. Die On- und Offboarding-Prozesse im Unternehmen nehmen entsprechend zu, wodurch auch der administrative Aufwand steigt und sich die Einführung einer Automatisierungslösung entsprechend rentiert.

Um den verschiedenen Herausforderungen Rechnung zu tragen, werden völlig neue Kompetenzen von den Mitarbeitern des Personalwesens erwartet. Diese können in die Kategorien Recruitment, Learning & Development, Performancemanagement und Employer-Branding unterteilt werden.

Heutige Personalfunktionen generieren eine große Menge an Daten, welche zukünftig analytisch durch Big-Data-Verfahren ausgewertet werden müssen, um strategische Schlussfolgerungen und Problemlösungen anbieten zu können.


Weiterführende Beiträge aus TREND REPORT zum Thema

Wie die HR-Abteilung neue Herausforderungen, wie die zunehmende Agilität und die Gig-Economy, mit digitalen Lösungen bewältigen kann und Mitarbeiter begeistert werden, weiß Wieland Volkert. https://trendreport.de/herausforderungen-digital-begegnen/

Post and pray – Stellen ausschreiben und abwarten – war gestern. Wie Unternehmen ein neues Recruiting Mindset entwickeln können, verrät
Frank Rechsteiner. https://trendreport.de/recruiting-mindset-schluessel-zum-unternehmenserfolg/


Recruitment & Employer-Branding

Der „War for Talents“ hat bereits begonnen und wird durch den Megatrend „demografischer Wandel“ auch bestehen bleiben. Unternehmen, die in Zukunft die fähigsten Fachkräfte zu den günstigsten Konditionen in kürzester Zeit für sich gewinnen können, werden sich so einen entscheidenden Wettbewerbsvorteil sichern können, der nur schwer wieder einzuholen sein wird. Recruiter werden hier in der Lage sein müssen, mittels analytischer Verfahren dynamisch wechselnde Bedarfssituationen vorausschauend zu erkennen und mit neuen innovativen Recruitingverfahren Bewerber für das Unternehmen zu gewinnen.

Beispielsweise bietet es sich bei einer großen Zahl eingehender Bewerbungen an, Chatbots und schlaue Algorithmen für die Vorauswahl einzusetzen. Big Data und Predictive Analytics ermöglichen objektiv fundierte Entscheidungen, wenn sie zur Aggregation und Darstellung sämtlicher Bewerberdaten eingesetzt werden. Damit Kandidaten ihre Unterlagen mit minimalem Aufwand an die Wunscharbeitgeber senden können, sollten Unternehmen One-Click-Bewerbungsmöglichkeiten zur Verfügung stellen. Die Liste ließe sich noch deutlich erweitern und es ist die Aufgabe der HR-Verantwortlichen, die richtigen Technologien einzusetzen und dabei auf dem neusten Stand zu bleiben.

Trotz aller technischen Möglichkeiten sollte das Unternehmen jedoch weiterhin den direkten Kontakt mit den Kandidaten pflegen und persönliche Personalentscheidungen fällen: Je rarer die begehrten Fachkräfte werden, desto mehr legen sie bei einer Stellenbewerbung darauf Wert, als VIP behandelt – wenn nicht gar hofiert – zu werden. Active Sourcing, also die proaktive Recherche und Ansprache potenzieller Mitarbeiter im Rahmen von Social Media, Karriere-Netzwerken, Messen und unternehmenseigenen Talent-Pools, geht in die gleiche Schlagrichtung.

Ziel ist der Aufbau einer langfristigen Beziehung zu interessanten Kandidaten, um sie bei Bedarf für neu entstehende Vakanzen zu gewinnen. Auch eigene Mitarbeiter können dabei als Markenbotschafter wirken. Dieses Influencer-Recruiting wirkt meist effektiver als sämtliche Argumente im Bewerbungsgespräch.(1)

Learning & Development

Mithilfe von neuen Lerntechniken, Wissensdatenbanken und Anreizen zum spielerischen Lernen wird es wichtig sein, Mitarbeiter zu motivieren, neue Aufgaben im Unternehmen wahrzunehmen und somit auch einen Wettbewerbsbeitrag zu leisten. Die Methoden der Wissensvermittlung in der beruflichen Aus- und Weiterbildung ändern sich. Lernziele werden zukünftig als Matrix organisiert, d. h. in „Fast Verticals“, also Fachschulungen mit einer Dauer von drei bis vier Tagen, und „Continuous Horizontals“, längerfristig angelegten Lerneinheiten, die kompetenzbasiertes Lernen ermöglichen.

Performancemanagement

Heutige Personalfunktionen generieren eine große Menge an Daten, welche zukünftig analytisch durch Big-Data-Verfahren ausgewertet werden müssen, um strategische Schlussfolgerungen und Problemlösungen anbieten zu können

Digitale Trends im Personalwesen

  1. Social Media
    Der Begriff Social Media beschreibt allgemein die Möglichkeit, im Internet Meinungen, Erfahrungen und Informationen auszutauschen. Für Unternehmen im Speziellen stellt das einen weiteren Kanal im E-Recruitment dar, über welchen diese sich selbst repräsentieren, vakante Stellen ausschreiben und aktiv potenzielle Mitarbeiter suchen können.
  2. Cloud-Dienstleistungen – „Software as a Service“ (SaaS)
    Cloud-Angebote wie „Software as a Service“ (SaaS) sind als wichtiger Trend bei den Unternehmen angekommen. Bei der Wahl des Standortes des Cloud-Anbieters spielt der Datenschutz eine prägende Rolle.
  3. Big Data
    Durch den Einsatz von Big Data ist es möglich, die Zuordnung eines Beschäftigten zu einer Stelle optimal zu gestalten. Die Auswertung der Daten von Beschäftigten wie z. B. Weiterbildung, Interessen, Fähigkeiten mit internen und externen Daten können eine Unter- und Überforderung vermeiden. Das Vereinen der Unternehmensziele bzw. des Anforderungsprofils mit den persönlichen Zielen der Beschäftigten stellt für die Personalabteilung eine Herausforderung dar. Diese Hürde kann mithilfe von Big Data überwunden werden.
  4. Unternehmenswebseite
    Die Unternehmenswebseite zählt heutzutage zum Standard eines jeden mittelständischen Unternehmens. Wurde früher noch durch das Web 1.0 die Unternehmensseite als einseitiger Informationskanal nach außen verwendet, so kann man heute die Homepage nutzen, um sich nicht nur zu präsentieren, sondern auch den Rückkanal verwenden, um z. B. neue Mitarbeiter für sich zu gewinnen.
  5. Online-Jobbörsen
    Online-Jobbörsen stellen neben der Unternehmenswebseite einen weiteren wichtigen Kanal zur Findung neuer Mitarbeiter im E-Recruitment dar. Im Jahre 1995 ging die erste Online-Jobbörse in Deutschland an den Markt. Mittlerweile gibt es in Deutschland über 1 000 Jobportale mit mehreren Millionen vakanten Stellen.
  6. Mobile Recruiting
    Ein ebenfalls immer wichtiger werdender Punkt in der Personalbeschaffung ist das Thema Mobile Recruiting. Unter dem Begriff versteht sich das Erreichen potenzieller Bewerber über mobile Endgeräte wie z. B. Smartphones oder Tablets.
  7. Talent-Relationship-Management
    Der übliche Ablauf zum Besetzen vakanter Stellen ist, dass die Personalabteilung, sobald eine Stelle zu besetzen ist, eine Anzeige schaltet und auf den Eingang von Bewerbungen wartet. Dieser Vorgang ist reaktiv und eher passiv. „Talent Relationship Management“, kurz TRM, beschreibt dagegen einen Bereich im Personalwesen, bei welchem gegenüber anderen Rekrutierungsmaßnahmen der Fokus auf dem Finden und Halten von potenziellen neuen Mitarbeitern liegt, bevor eine vakante Stelle verfügbar ist.
  8. Digitale Bewerberauswahl
    Telefoninterviews sind ein bereits verbreitetes Mittel zur Vorauswahl neuer Mitarbeiter für eine zu besetzende Stelle. Daneben sind ein Anstieg digitaler Einstellungsinterviews und der Einsatz von Online-Assessment-Centern zu verzeichnen. Bei einer großen Zahl eingehender Bewerbungen bietet es sich an, Chatbots und schlaue Algorithmen für die Vorauswahl einzusetzen.
  9. Employee-Self-Service
    Hinter dem Begriff Employee-Self-Service stehen administrative Tätigkeiten, auf die im späteren Verlauf genauer eingegangen wird. Employee-Self-Service ist ein Teil eines Mitarbeiterportals. Unter dem Begriff „Portal“ wird verstanden, dass es sich um einen IT-Marktplatz im Internet oder Intranet handelt. Ziele solcher Mitarbeiterportale sind, die breite Masse an Informationen zu bündeln und relevante Daten für Mitarbeiter bereitzustellen. Aber auch personenbezogene Daten werden dort hinterlegt, wie z. B. die Lohnabrechnungsdaten.
  10. Digitale Personalakte
    Unter einer digitalen Personalakte ist eine personifizierte digitale Datei zu verstehen, die die analoge Papier-Personalakte ersetzt. Dabei ist eine digitale Personalakte Teil eines Dokumenten-Management-Systems, so kann die Personalakte direkt in Arbeitsabläufe integriert werden. Sie bildet die Basis der vielen Automatisierungsprozesse innerhalb der Personalabteilung.
  11. Automatisierte Zeugnisgeneratoren
    Egal ob manuell oder halbautomatisch erstellt, das Arbeitszeugnis ist das „ungeliebte Kind“ eines jeden Personalers, denn es wird als zeitaufwendige und ressourcenintensive Last empfunden, der wir gem. § 630 BGB in Verbindung mit § 109 GewO (Gewerbeordnung) nachkommen müssen (Österreich §1163 ABGB, §39 AngG; Schweiz Art. 330a OR). Umso mehr, weil wir gerade beim Austrittszeugnis für das Unternehmen gar keinen Mehrwert mehr haben – der Mitarbeiter verlässt uns ohnehin. Schon deshalb lohnt es sich, den Prozess so schlank und unaufwendig wie nur irgend möglich zu gestalten.(2) //

Quelle:
Hochschule für Oekonomie & Management, Düsseldorf, Studiengang Bachelor Wirtschaftsinformatik; Autoren: René Seiffert, Dario Lohr, Béla Varga, Christian Hoffmann; betreuender Professor: Prof. Dr. Uwe Kern; Typ: Fallstudienarbeit.
(1) Vgl. TREND REPORT 1/19 S.16: https://trendreport.de/digital-lesen/2019-01/#p=16
(2) Vgl.: Dr. Grentzer, Martin, Personalarbeit neu denken: Arbeitszeugnis in 15 Sekunden, in: Handbuch HR-Management, New Work & Arbeiten 4.0, hrsg. von ayway media GmbH, Bonn 2017, S.155-159. https://handbuch-hr.de/digital-lesen/#p=155

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Abteilung Marketing

Mit digitalem Marketing den Kunden individualisiert ansprechen

Um heutzutage eine erfolgreiche Marketing-Strategie zu erstellen, sollten Werbetreibende vor allem die Synergien innerhalb der verschiedenen Kanäle, aber auch die Wechselwirkung zwischen den klassischen und digitalen Kanälen berücksichtigen. Verantwortliche müssen verstehen, welche Kontaktpunkte zur Marke bestehen und welcher Einfluss damit verbunden ist.

Um zur richtigen Zeit die richtige Botschaft auszuspielen, ist ein Multichannel-Ansatz daher Grundvoraussetzung und vielfach schon gelebte Realität. Daten aus allen Kanälen laufen in einem zentralen System zusammen und ermöglichen einen ganzheitlichen Blick auf alle Maßnahmen.

Der schnellste und effektivste Kanal – die menschliche Sprache – wird dabei im Zeitalter der digitalen Assistenten und Smart Speaker immer wichtiger und eine Präsenz in Alexa und Co. zum festen Bestandteil des Markenerlebnisses. Analog zu anderen Kommunikationskanälen benötigen Unternehmen deshalb eine eigene Voice- und Audiostrategie. Sie müssen eine Audio-Identity und eigenen Audio-Content entwickeln und mit ihren Marken, Produkten und Angeboten ihren Zielgruppen auf die neuen Geräte folgen. Die künstliche Intelligenz ist dabei mittlerweile so weit, dass sie nicht nur Sprache verstehen kann, sondern aus den gesprochenen Worten Emotionen herausliest. Ein unschätzbarer Datenschatz, der auch im Callcenter entsteht und aus dem das Marketing wertvolle Rückschlüsse gewinnen kann.

Smart Speaker gehören zu den großen Trends im digitalen
Marketing und interagieren durch immer natürlichere
Sprache mit ihren Benutzern.

In Verbindung mit weiteren Daten, die bei jedem Online-Werbekontakt oder dem Besuch einer Website entstehen, lässt sich das Bild über die Interessen, Abneigungen und Absichten des Users weiter präzisieren, wobei die Datengrundlage in Umfang und Qualität mit der fortschreitenden Digitalisierung zunimmt.

Wir befinden uns im Zeitalter des Kunden. Dies bedeutet: in Echtzeit zu wissen, was der Kunde will, individuelle Kundenwünsche zu erfüllen und das jederzeit über alle Kanäle hinweg. Dazu müssen nicht nur Prozesse und Reaktionszeiten beschleunigt werden, das gesamte Unternehmen muss sich digital transformieren. Vorhandene Daten sind in Wissen über die Kunden zu verwandeln und die Chancen hierfür über alle Kanäle hinweg zu nutzen. Potenzielle Kunden sind mit genau den passenden Werbebotschaften zu genau dem richtigen Zeitpunkt über genau den richtigen Kanal zu kontaktieren.

Unternehmen haben mit Big-Data-Analysen die Möglichkeit, auf Kundenwünsche schnell und individuell zu reagieren, können aber oftmals die Vielzahl an Daten nicht miteinander richtig verknüpfen und auswerten. Hier gilt es die richtigen Weichen für den Erfolg zu stellen. Das Produktinformationsmanagement übernimmt dabei in der Praxis eine entscheidende Rolle. Informationen liegen in einem Unternehmen häufig nicht zentral gebündelt vor, sondern verstreut bei Mitarbeitern und in Abteilungen – etwa in der Entwicklungsabteilung, im Warenwirtschaftssystem oder im Vertrieb.

Dabei werden Daten in unterschiedlichen Formaten abgespeichert oder sind nur als Druckversion verfügbar. Diese Informationen werden in verschiedenen Umgebungen und Kontexten verwendet – etwa im Verkaufskatalog für eine detaillierte Produktbeschreibung mit Preisangabe oder in der Logistikabteilung für Angaben zu Größe und Gewicht zur Frachtkostenberechnung. PIM stellt hier einen Lösungsansatz zur zentralen, medienneutralen Datenhaltung dar, um einkaufs-, produktions- und kommunikationsrelevante Daten für die Mehrfachnutzung über mehrere IT-Systeme, Sprachen, Ausgabemedien und Publikationen hinweg bereitzustellen. Es bietet zudem Lösungen zur effizienten Datenübernahme, -verwaltung, -anreicherung und -ausgabe.(1)


Durch die Digitalisierung sind Unternehmen angebots- und preistransparent. Kunden haben dadurch eine stärkere Markt­position.


Für viele Unternehmen ist der Hauptgrund, digitale Kanäle nicht zu nutzen, der Datenschutz. Unternehmen müssen besonders vertrauensvoll mit den Daten der Kunden umgehen, sodass zwar Erkenntnisse abgeleitet werden, aber kein Datenmissbrauch betrieben wird. Die digitalen Kanäle sind günstiger als die klassischen Marketingmedien, aber Kunden fühlen sich teilweise überrollt von Werbung. Kunden entwickeln und nutzen daher auch Technologien, um sich gegen diese Art des Marketing (Customer Resistance) zu schützen. Verbraucher nutzen Pop-up-Blocker, um Werbung beim Surfen zu entgehen, oder filtern E-Mail-Newsletter über die Junk-Mail-Funktion.

Die Chancen, mit digitalen Kanälen seinen Bekanntheitsgrad zu steigern und in neue Märkte einzusteigen, sind dennoch groß, bergen aber auch Risiken. Durch die Digitalisierung sind Unternehmen angebots- und preistransparent. Kunden haben dadurch eine stärkere Marktposition. Der Einfluss der Digitalisierung auf den Bereich Marketing hat zusätzlich dazu geführt, dass Kunden durch verschiedene Technologie wie zum Beispiel Social Media ein Sprachrohr erhalten und so einen Einfluss auf Unternehmen erlangen. Auch hier gilt es, Strategien zu entwickeln, um unkontrollierten Kommuni­kationseffekten, sogenannten „Shitstorms“, entgegenzuwirken oder zumindest richtig mit ihnen umzugehen.

Quelle:
(1) Vgl.: Seite „Produktinformationsmanagement“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 27. März 2019, 08:49 UTC. URL: https://de.wikipedia.org/w/index.php?title=Produktinformationsmanagement&oldid=186977501 (Abgerufen: 9. April 2019, 13:08 UTC)

Abteilung Einkauf & Beschaffung

Die Automatisierung stellt neue Anforderungen an das Procurement.

Die ständig wachsenden Herausforderungen und die Digitalisierung auf den globalen Märkten führen dazu, dass die Beschaffung immer mehr an Bedeutung gewinnt. Die Beschaffungsoptimierung hat direkte Auswirkungen auf den Gewinn des Unternehmens. Im Vergleich zu traditionellen Beschaffungsstrukturen, die sich durch Ineffizienz kennzeichnen, ermöglicht die konsequente Integration von E-Procurement-Systemen eine Vielzahl von Vorteilen zur Prozessverbesserung und Kosteneinsparung. Das Ziel von E-Procurement ist, die strategische, aber auch die operative Beschaffung durch elektronische Hilfsmittel zu unterstützen. Das passiert in der Praxis durch den Einsatz verschiedener E-Procurement-Werkzeuge.

Das Katalogmanagement spielt dabei eine wichtige Rolle. Produktkataloge können der Auswahl und Beschaffung von Produkten auf Kundenseite, Lieferseite oder auf Marktplätzen dienen. Neue Technologien, rasante Digitalisierung und massiv geänderte Kundenerwartungen stellen die bisherige Einkaufsorganisation auf den Prüfstand. Die Entwicklungen im Zusammenhang mit der Digitalisierung sollten nicht losgelöst voneinander betrachtet werden. So spielt der CPO („Chief Procurement Officer“) im Einkauf und damit bei der Umsetzung von Industrie 4.0 in Zukunft eine zentrale Rolle. Er muss die Technologien und Innovationen mit dem CDO und der Geschäftsleitung ins Unternehmen bringen, damit es die vierte industrielle Revolution erfolgreich meistern kann. In diesem Kontext ist Einkauf 4.0 nicht nur ein Buzzword. Künstliche Intelligenz und kognitive Systeme werden in Zukunft das Lager mit der Produktion und dem Einkauf verbinden. Die digitale Konvergenz zieht sich durch: nicht nur durch den kompletten Lebenszyklus eines Produktes, sondern auch durch die komplette Produktwertschöpfungskette.

Die Digitalisierung ist damit auch der Treiber für das Next-Level-Procurement, bei dem neue Anforderungen wie Agilität, Kollaboration und Analytik gefragt sind. Zu deren Umsetzung ist die Prozesskompetenz und Marktexpertise des CPOs und des CDOs unverzichtbar.

Mit der vierten industriellen Revolution bietet sich dem Einkauf die Chance, eine neue strategische Rolle im Unternehmen einzunehmen und damit der zunehmenden Automatisierung zu entgehen. Je digitaler und vor allem autonomer und effizienter die Einkaufsprozesse werden, desto eher kann sich der Einkauf auf seine strategischen Aufgaben konzentrieren.


Die Digitalisierung des Einkaufs und dessen enge Vernetzung nach innen und außen bieten die Möglichkeit, dass innovative Erfolgsstrategien für das gesamte Unternehmen entwickelt werden.

Die Lagerhaltung der Zukunft wird ohne die momentan gebräuchlichen Scanner auskommen und mit innovativer Kamera- und Sensortechnik sowie deren Analyseverfahren Echtzeitinformationen zur Verfügung stellen. Mit Location-based Services lassen sich schon heute Inhouse-Warenströme in Echtzeit analysieren, um Ware sicher bis auf die Verkaufsflächen nachzuverfolgen.

Alles was sich auf einer Palette befindet, die sich durch das Lager bewegt, kann durch moderne Funk-Technologie in Realtime getrackt werden. Kameras und Sensoren identifizieren zum Beispiel (autonome) Transportfahrzeuge und ihre Bewegung. Es lässt sich so verfolgen, ob Fahrzeuge Lasten aufgenommen oder abgegeben haben. Stellplätze und Lagerflächen werden effizient überwacht, damit weitere Lagerhaltungsprozesse angestoßen werden können.

Daten im Kontext aller logistischen Vorgänge wie z. B. der Ein- oder Auslagerungen sind in Echtzeit abrufbar und werden automatisch mit dem ERP- oder Lagerverwaltungssystem abgeglichen. Die Anzahl der Mitarbeiter im Einkauf, sowohl im operativen als auch im strategischen Bereich, wird sich dadurch verringern. Der operative Einkäufer wird aussterben und der komplette operative und administrative Bereich wird digitalisiert sein.

Durch den Wandel brauchen die Einkäufer zukünftig viele neue Fähigkeiten:

  • Der Einkauf agiert als Koordinator, Multi-Talent, Controller, Vertragsmanager.
  • Der Einkauf wird zum Berater.
  • Der Einkäufer entwickelt sich immer mehr zum Produktentwickler.
  • Der Einkäufer wird zum Datenanalysten.
  • Der Einkäufer wird Manager der Rahmenbedingungen.
  • Der Einkäufer wird noch mehr zum Schnittstellenmanager.

Der Mensch wird weiterhin eine zentrale Rolle beim Einkaufen behalten, da der persönliche Kontakt und die „Chemie“ wichtig für Verhandlungen und Lieferantenbeziehungen bleiben. Es sind also seine Fähigkeiten als Netzwerker, die im Vergleich zur Maschine noch einen Mehrwert für Unternehmen bieten. Dadurch, dass es im strategischen Einkauf weniger Einkäufer geben wird, diese aber komplexere Aufgaben bewältigen müssen, erfordert dies ein höheres Qualifikationsniveau.

Die Digitalisierung des Einkaufs und dessen enge Vernetzung nach innen und außen bieten die Möglichkeit, dass innovative Erfolgsstrategien für das gesamte Unternehmen entwickelt werden. In Zukunft bedeutet Einkauf Mehrwert, der durch Digitalisierung und Automation der Supply Chain erzeugt wird. Deswegen geht der Einkauf 4.0 über das E-Procurement und E-Sourcing hinaus. Zulieferer und Einkauf werden in Zukunft auch enger aneinander angebunden sein, damit im Idealfall die Warenbestände automatisiert sind und in Echtzeit diese abgefragt und angefordert werden können.

Durch Verträge abgesicherte Allianzen und Partnerschaften werden nötig sein, um kundenspezifische Lösungen zu realisieren, denn herkömmliche Produkte werden intelligent und somit zu einer Kernkomponente der Industrie 4.0. Dies macht die Prozesskompetenz und Marktexpertise des Einkaufs unverzichtbar, um das Internet der Dinge und Dienste umzusetzen. Ziel soll sein, eine voll integrierte Steuerung der Lieferkette über mehrere Unternehmen hinweg zu haben und je nach Marktentwicklung die besten Gewinnaussichten oder niedrigsten Kosten zu haben.

Einkauf und die Logistik stehen im Zentrum der Digitalisierung der Wirtschaft, denn ohne Einkauf und organisierte Supply Chain kann das Internet der Dinge nicht stattfinden. Durch gutes Knowledge-Management und die Nutzung von E-Tools kann aber das Hoheitswissen, über welches ein strategischer Einkäufer verfügt, einfacher übertragen werden.

Unternehmen werden sich daher in Zukunft die Frage stellen, wo der Einkauf stattfinden wird, da die Einkaufsabteilung, wie andere Serviceprozesse auch (Human Resource, Buchhaltung, Logistik), in Shared-Service-Centern gebündelt und gegebenenfalls komplett outgesourct werden kann. Der Einkauf muss durch permanente Innovation und neue Wertbeiträge einen dauerhaften positiven ROSMA („Return on Supply Management Assets“) generieren. //


Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Bild von athree23 auf Pixabay

Internet of Things: Ein lernender Markt

Das Internet der Dinge (IoT) beeinflusst unser gesamtes Leben.

von Dr. Ralf Magagnoli

Das IoT ist in aller Munde. Worum geht es? Es geht darum, die mit mikroelektronischen Komponenten versehenen Produkte über das Internet miteinander zu vernetzen. Sogenannte „smarte Produkte“ sammeln über entsprechende Sensoren Daten, analysieren sie und leiten sie via Internet weiter bzw. empfangen Daten von anderen smarten Produkten. Die „Intelligenz“ dieser Produkte führt dazu, dass sie eigenständig Aufgaben ausführen, mit anderen Produkten kommunizieren, sich selbstständig updaten bzw. an veränderte Kundenbedürfnisse anpassen, laufende Kosten senken und den „Return on Investment“ (ROI) erhöhen sowie Risiken und Gefahren voraussehen und Abhilfe schaffen.

Gesamtpotenziale bis 2022 von über 14 Billionen Dollar

Betrachtet man den Nutzen des IoT für die Unternehmen genauer, wird das Potenzial bei Mitarbeiterproduktivität und Arbeitseffizienz auf bis zu 2,5 Billionen US-Dollar bis 2022 geschätzt: Beispiel Datenbrillen, die es Fachkräften erlauben, Fehlerquellen sofort ausfindig zu machen, oder Tools, die dafür sorgen, dass die Mitarbeiter die Hände frei haben, um Arbeitsvorgänge ohne Unterbrechung zu erledigen. Das Potenzial für Kundenbindung beläuft sich, laut Expertenmeinung, auf bis zu 3,7 Billionen Dollar: So können Kunden über eine Vielzahl von Kontaktpunkten („Touchpoints“) mit dem Unternehmen Kontakt aufnehmen und Produkte bzw. Dienstleistungen einkaufen.

Die mit Sensoren versehenen Produkte liefern zudem Informationen über Kundenverhalten und -wünsche. Das reicht im Supermarkt bis hin zu Produkten, die der Kunde nicht nur gekauft, sondern die er vielleicht in den Warenkorb gelegt und dann wieder zurückgestellt hat. Im Hinblick auf Logistik und Supply-Chain-Management beträgt das Potenzial bis zu 2,7 Billionen Dollar. Das Tracking, die Nachverfolgung von Produkten, ermöglicht eine genauere Ressourcenallokation und eine hohe Echtzeit-Transparenz. Die höhere Energieeffizienz und die Vermeidung von Ausfallzeiten – Stichwort Predictive Maintenance – tragen zu Kostensenkungen bei, deren Potenzial mit bis zu 2,5 Billionen US-Dollar zu Buche schlägt.

Last, but not least: Das Potenzial für Innovationen durch Optimierung und Erweiterung bestehender Geschäftsmodelle liegt nach Expertenmeinung bei bis zu drei Billionen US-Dollar. Addiert man die Potenziale zusammen, kommt man auf eine Summe von über 14 Billionen Dollar, was ungefähr dem Bruttoinlandsprodukt Chinas entspricht.

Chancen für neue Geschäftsmodelle

Die wohl gewaltigsten Potenziale durch das IoT liegen in der Entwicklung neuer Geschäftsmodelle. Experten nennen drei Möglichkeiten, die sich den Unternehmen eröffnen: 1. Bestehende Produkte mit IoT-Zusatzservices zu versehen; 2. neue Produkte mit IoT-Funktionen zu entwickeln; 3. produktlose „Smart Services“ zu schaffen.

Die erste Variante ist die wahrscheinlich anspruchsloseste, kann aber die Kundenbindung verstärken und den Umsatz erhöhen und sollte somit Ziel der IoT-Strategie in Unternehmen sein. Ein bestehendes Produkt wird um IoT-Funktionen erweitert. Beispiele sind der Drucker, der feststellt, wann sich der Toner leert, und eine eigene Bestellung aufgibt, oder der Geschirrspülautomat, der ebenfalls selbstständig neue Geschirrspültabs nachbestellt.

Anspruchsvoller ist die zweite Variante, bei der neue Produkte mit IoT-Features entwickelt werden. Ein Beispiel wäre das selbstständig fahrende Google-Auto. Für Unternehmen, in diesem Fall den Internetriesen Google, eröffnet sich die Möglichkeit, in fremde Märkte einzudringen und Marktanteile zu erobern.

Deutlich spürbar ist der Trend vieler Unternehmen vom Produktanbieter zum Serviceanbieter. Dieser Trend basiert auf der Annahme, dass viele Kunden bestimmte Dinge nicht besitzen, sondern einfach einen Service nutzen wollen. Findigen Unternehmern eröffnet das IoT zudem die Möglichkeit, innerhalb kurzer Zeit etablierte Unternehmen zu verdrängen und zu Marktführern aufzusteigen. Umgekehrt sind etablierte Unternehmen gefordert, Szenarien zu entwickeln, wie sie sich an der Spitze behaupten können.

Entwicklung IoT-spezifischer Geschäftsmodelle: Ein Vier-Phasen-Modell

Wie aber Ansätze entwickeln, um IoT-spezifische Geschäftsmodelle zu entwickeln? Der Wissenschaftler Dominik Bilgeri u. a. haben dafür ein Workshop-Modell entwickelt, auf das Unternehmen zurückgreifen können. Es besteht aus vier Phasen: der Ideation, der Präparation, der Evaluation und dem Skaling.

Am Anfang steht die Ideenentwicklung. Das möglichst interdisziplinär zusammengesetzte und hierarchiefrei diskutierende Team sollte Vorfestlegungen vermeiden und „iterativ“ vorgehen. Sinnvoll ist es, auf bewährte Techniken wie das Design Thinking zurückzugreifen. Design-Thinking-Prozesse gliedern sich, generell gesprochen, in folgende Punkte: verstehen, beobachten, Sichtweise definieren, Ideen finden, Prototyp entwickeln, testen. Was bedeutet dies nun konkret für die Entwicklung eines IoT-spezifischen Geschäftsmodells?

Ausgehend von einer grundlegenden „Vision“ werden in der ersten Phase der Ideenfindung im Brainstorming mehrere Ideen entwickelt, die in einer Longlist zusammengefasst und bewertet werden. Diese wird auf eine Shortlist reduziert. In der zweiten Phase werden diese Ideen der Shortlist im Hinblick auf die Kundenperspektive sowie auf die Beziehungen zu den „Stakeholdern“, also zum Beispiel Lieferanten, Investoren, breite Öffentlichkeit, analysiert. Fragestellungen wären etwa, welche Fähigkeiten zur Umsetzung im Unternehmen benötigt werden, welche Vorteile sich für Geschäftspartner ergeben, welche notwendigen Fähigkeiten die Geschäftspartner mitbringen.

Das Ganze wird zu einer Business-Case-Betrachtung verdichtet. In der dritten Phase erfolgt die Prüfung der erarbeiteten Geschäftsmodelle, zu der auch die Entwicklung von Best-Case- sowie Worst-Case-Scenarios gehört. Die vierte Phase besteht aus der Umsetzung der Geschäftsmodelle.

Verfügbar, skalierbar, agil – die IT-Architektur

Bei der Umsetzung ist zu beachten, dass die Anforderungen des IoT an die IT-Architektur sehr hoch sind: Im Vordergrund stehen dabei Verfügbarkeit, Skalierbarkeit, „Continuous Delivery“ und Agilität. Über die Verfügbarkeit wird garantiert, dass Teilausfälle nicht zu einem Ausfall des gesamten Systems führen. Skalierbarkeit bedeutet, dass einzelne, besonders beanspruchte Komponenten angepasst werden können, ohne andere Komponenten zu beeinflussen.

„Continuous Delivery“: Hierbei soll man imstande sein, Änderungen und Verbesserungen vorzunehmen, ohne das ganze System upzudaten. Agilität bedeutet in diesem Fall die Fähigkeit, „Änderungen, Verbesserungen und Erweiterungen (…) unabhängig von der Funktionalität der gesamten Applikation vor(zu)nehmen und ohne andere Teil-Services (zu) beeinträchtigen“. Im Prinzip sieht die Architektur folgendermaßen aus: Die entsprechend ausgestatteten Geräte („Dinge“), die IoT-Devices, leiten die Daten an die Cloud weiter – sogenannte „Low Power Devices“ nutzen dafür ein extra zwischengeschaltetes Gateway, das mit dem IoT-Backend verbunden ist. Dieses ist in Geschäftsapplikationen (Supply Chain, ERP etc.) bzw. in mobile Geräte und Rechner integriert. Der Datenfluss läuft aber in beide Richtungen, sodass die Geräte auch miteinander im Austausch stehen.

Klar ist, dass auch das hohe Datenaufkommen bewältigt werden muss – so fallen allein während eines einzigen Transatlantikfluges rund drei Terabyte Rohdaten an. Dies gilt umso mehr, als einer der Hauptvorteile des IoT in der Vernetzung von Informationsflüssen liegt: Hersteller teilen die Daten entlang der Lieferkette mit allen Beteiligten, also mit Lieferanten, Spediteuren, Subunternehmern, Stakeholdern, manchmal sogar mit Wettbewerbern.

Hier setzt Big Data ein, also Verfahren, mit denen die zusätzlich über die IoT-Technik gewonnenen Daten geordnet und analysiert werden können, um Entscheidungen zu erleichtern. Als Stichworte seien hier spezielle Analyseverfahren (Data Analytics) sowie die Blockchain-Technik genannt, dezentrale, linear erweiterbare Datenbanken, die ständig neue Elemente hinzufügen.

Schließlich gilt es, im Rahmen einer integrierten IT-Security-Strategie etwaige Schwachstellen (etwa unsichere Mobilgeräte oder Cloud-Interfaces) zu ermitteln und auch ein spezielles Risiko-Management für IoT-Geräte einzuführen.

Chance im globalen Wettbewerb

IoT bedeutet für die Unternehmen Chancen im globalen Wettbewerb: Tendenziell wird das statische Element in den Unternehmen verschwinden. Die Unternehmen im 21. Jahrhundert werden sich von den Unternehmen des 20. Jahrhunderts so unterscheiden wie jene von den Manufakturbetrieben des achtzehnten Jahrhunderts. Es kommt für das einzelne Unternehmen nur darauf an, die sich ergebenden Chancen auch zu nutzen. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Bild von Pete Linforth auf Pixabay

Investieren in Datenkompetenz

Daten werden immer mehr zur universellen Sprache – und Unternehmen, die sie beherrschen, werden erfolgreich sein.

von Bernhard Haselbauer

Der Job eines Data Scientists ist es, aus großen Datenmengen Informationen zu generieren und Handlungsempfehlungen abzuleiten, die das Unternehmen befähigen, effizienter zu arbeiten.

Doch was muss ein Data Scientist können und welche Skills sollte er mitbringen? Zum Beispiel muss er mit den unterschiedlichsten Datenbanksystemen zurechtkommen, doch meistens liegen die Daten nur unstrukturiert vor. Unternehmen arbeiten heute mit CRM-und ERP-Lösungen von Microsoft, SAP, Oracle und Co. Standardmäßig kommen in diesen Fällen relationale Datenbanken zum Einsatz. Demnach sollte ein Data Scientist SQL, „Structured Query Language“, in allen Abwandlungen beherrschen. Werden dann die Daten für die Analyse exportiert, fangen die ersten Schwierigkeiten schon an. Zusätzlich müssen immer mehr unstrukturierte Daten aus Social-Media-Kanälen und anderen Internetquellen analysiert werden.

Diverse Schnittstellen müssen in diesem Kontext bedient werden, um neue Erkenntnisse zu gewinnen. Und so geht es weiter mit Know-how über Verschlüsselungsverfahren, Datenbankanbindungen und das Echtzeitmanagement von Datenströmen. Data-Scientisten sind gefragter denn je, um die digitale Transformation im Unternehmen voranzutreiben. Doch der Markt für Spezialisten ist wie leergefegt.

Bildquelle Lizenz: Designed by macrovector / Freepik

Sich selbst zu helfen, scheint das Gebot der Stunde zu sein. Doch welche Möglichkeiten gibt es, die Datenflut zu meistern? Zum Beispiel muss die Datenanalyse nicht mehr zentral erfolgen, so kann der Self-Service-BI-Ansatz mehr Fachanwendern ermöglichen, selbst Berichte und Analysen zu erstellen. Die IT-Abteilung spart sich dadurch aufwendige Entwicklungsarbeiten für nur einmalig benötigte Auswertungen. Eine dezentrale BI legt die Analysen zur Entscheidungsfindung direkt in die Geschäftsbereiche. Daten und Analysefähigkeiten werden so in die Hände der Abteilungen und Führungskräfte übergeben, um mehr Agilität an den Tag zu legen.

Entscheider die sich zukunfts­fähig im Markt aufstellen wollen, sollten einen Blick auf ihre Daten werfen.

Die Lösungen haben inzwischen einen übersichtlichen und funktionalen Aufbau und sind in der Lage, Quelldaten aus diversen Datenbanken und Beständen einzubinden, auch über diverse Cloud-Infrastrukturen hinweg. Der Bezug von IT-Diensten im Self-Service für diverse BI-Tools hat sich als ausgesprochen produktiv und kostensparend erwiesen.

Fest steht, dass Unternehmen neue Erkenntnisse aus ihren verschiedenen Datenquellen und Datenbanken generieren können. Die Technologie dazu ist da. Moderne Data-Analytics-Lösungen ermöglichen es, Daten aus unterschiedlichsten Quellen miteinander in Beziehung zu setzen und zu erforschen. Dazu muss jedoch aus den verschiedenen Datenbanken eine Datenbank gemacht werden. Jetzt wird es möglich, Finanzdaten mit z. B. operativen Daten zu verknüpfen und daraus neue Entscheidungsgrundlagen zu ziehen. Ziel ist, Menschen durch assoziative Datenanalysen bessere Entscheidungsgrundlagen zur Verfügung zu stellen.

Das Wissen im Umgang mit Daten und Datenbanken muss mehr Verbreitung finden. Diesem Leitgedanken nimmt sich der „Data Literacy Index“ an. Der souveräne Umgang mit Daten ist für Organisationen aller Art und Größe bares Geld wert. Das geht aus einer neuen, weltweiten Studie des Data-Analytics-Spezialisten Qlik hervor. Erstellt wurde der Data Literacy Index durch die amerikanische Wharton School und das Institut IHS Markit.

Laut dem Index können große Organisationen ihren Wert um bis zu 500 Millionen Dollar steigern, wenn sie unternehmensweit und konsequent auf eine datenversierte Kultur setzen. „Es ist das erste Mal, dass die Datenkompetenz auf Unternehmensebene gemessen wird, was nicht nur die Datenkompetenz der Mitarbeiter des Unternehmens umfasst, sondern auch die Nutzung von Daten für Entscheidungen im gesamten Unternehmen“, so Lorin Hitt, Professor an der Wharton School der University of Pennsylvania. „Die Forschung deutet darauf hin, dass Datenkompetenz in Unternehmen eine Reihe von Aspekten umfasst, die sich gegenseitig verstärken und mit finanzieller Leistung verbunden sind.“

Europa hat laut der neuen Untersuchung den höchsten „Data Literacy Score“ aller Regionen, wobei Großbritannien, Deutschland und Frankreich zu den am weitesten fortgeschrittenen Nationen für „Corporate Data Literacy“ gehören. Zwar ist Singapur die datenkundigste Nation weltweit, regional betrachtet liegen die USA und APAC jedoch gleichauf mit einem geringeren Wert als Europa. Dies spiegelt eine größere Anerkennung wider, die europäische Entscheidungsträger offenbar für den Wert von Daten haben.

Denn 72 Prozent von ihnen bestätigen, dass diese „sehr wichtig“ sind – verglichen mit nur 60 Prozent in Asien und 52 Prozent in den USA. Das Maß für die Datenkompetenz von Unternehmen wurde von IHS Markit und einem Professor der Wharton School festgelegt. Es liegt auf einem Kontinuum, das auf den Datenkompetenzen der Mitarbeiter, datengetriebener Entscheidungsfindung und Datenqualitätsstreuung basiert. Eine Umfrage wurde entwickelt, um die drei Dimensionen der Datenkompetenz von Unternehmen zu messen. Antworten wurden mit passenden Skalen und Scores über alle Indikatoren hinweg standardisiert und aggregiert.

Megatrends wie Automatisierung, Robotik und künstliche Intelligenz bedeuten die vierte industrielle Revolution. Daten werden immer mehr zur universellen Sprache – und Unternehmen, die sie beherrschen, werden erfolgreich sein. Entscheider, die sich zukunftsfähig im Markt aufstellen wollen, sollten einen Blick auf ihre Daten werfen.

Übrigens bieten sich viele Weiterbildungsmöglichkeiten für Unternehmen und Mitarbeitende. Das Fraunhofer-Institut IAO zum Beispiel bietet für Führungs- und Fachkräfte sowie IT-Expertinnen und -Experten, die künstliche Intelligenz, maschinelles Lernen und Data Science verstehen möchten, Seminare an. Die Kurse geben einen Überblick über die nötigen Schritte bei der Durchführung von Datenanalysen mittels Methoden der künstlichen Intelligenz im Zeitalter von Big Data sowie die damit verbundenen Herausforderungen. Die Teilnehmenden erhalten eine Einführung in verschiedene Formen und Algorithmen des maschinellen Lernens und erhalten einen Überblick über deren Unterschiede sowie die jeweiligen Stärken und Schwächen. Praxisbeispiele und Tooldemonstrationen machen die vorgestellten Konzepte verständlich und nachvollziehbar. //


Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Fallbeispiele

Weiterführende Beiträge und Interviews zum Thema finden Sie in unserer
Wirtschaftszeitung TREND REPORT sowie in unseren Open-Content-Werken.

Um die Aufmerksamkeit des Kunden auf den eigenen Shop zu lenken, gehen die Handelsunternehmen neue Wege und entwickeln innovative Formate. Anschauliche Beispiele hierzu liefert Stefan Genth.
https://handbuch-handel.de/technologiebranche-handel/


Wie verändert der 3-D-Druck die Lieferketten und was bedeutet das für den stationären Handel? Über die neue Supply Chain berichtet Prof. Dr. Welf Wawers.
https://handbuch-handel.de/zukunft-des-3-d-drucks-und-industrie-4-0/


Das Internet der Dinge und unstrukturierte Datenmassen schaffen neue Herausforderungen im Kundenbeziehungsmanagement. Über Big-Data- und BI-Trends schreibt in diesem Kontext Bernhard Haselbauer.
https://handbuch-handel.de/big-smart-fast/


Die Blockchain schafft mehr als neue Währungssysteme. Wie das „Internet des Vertrauens“ vor allem den internationalen Handel beeinflussen wird, weiß Andreas Fuhrich.
https://handbuch-handel.de/wie-die-blockchain-den-handel-veraendert/


Der Abgesang des Bargelds: In Zukunft ist der Mensch gefordert, sich mit den digitalen Währungen auseinanderzusetzen, um mit diesen umzugehen. Argumente dafür liefert Bernhard Haselbauer. https://handbuch-handel.de/pro-und-contra-leben-ohne-bargeld/


Fallbeispiele

Weiterführende Beiträge und Interviews zum Thema finden Sie in unserer
Wirtschaftszeitung TREND REPORT sowie in unseren Open-Content-Werken.

Das IoT in Form von vernetzten Systemen wird nicht nur Arbeitsprozesse und Tätigkeiten fundamental verändern. Martin Lundgold und Peter Stamm fordern auf sich anzupassen.
https://www.handbuch-iot.de/der-arbeitsplatz-der-zukunft/


Das IoT verändert die Bedingungen und Qualifikationsanforderungen der Beschäftigten. Über Chancen und Risiken berichtet PD Dr. Martin Krzywdzinski.
https://www.handbuch-iot.de/der-mensch-in-hoch-automatisierten-prozessen/


Vertrauen in Big Data aufbauen und die Mitarbeiter mitnehmen: Nur wenn jeder überzeugt ist, kann das enorme Potenzial, welches in der Analyse großer Datenmengen steckt, voll ausgeschöpft werden.
https://handbuch-hr.de/big-data-im-personalwesen/


Transparenz und Effizienz in personalwirtschaftliche Abläufe zu bringen, ist das Ziel des sogenannten „Employee Self Services“. Wie wichtig dabei Garantien für Sicherheit und Service sind, weiß Dr. Ralf Magagnoli.
https://handbuch-hr.de/employee-self-service/


Mensch, Technik, Organisation und Arbeitswelt 4.0: Prof. Dr. Peter M. Wald über aktuelle Entwicklungen und Anforderungen an das sich durch die Digitalisierung ändernde Personalmanagement.
https://handbuch-hr.de/mensch-und-arbeitswelt-4-0/

Fallbeispiele

Weiterführende Beiträge und Interviews zum Thema finden Sie in unserer
Wirtschaftszeitung TREND REPORT sowie in unseren Open-Content-Werken.

Andreas Fuhrich weiß: „Dezentral, flexibel und günstig – Cloud-Computing erobert mit hoher Skalierbarkeit bei niedrigen Kosten immer mehr deutsche Unternehmen.“
https://handbuch-­digitalisierung.de/cloud-computing-2/


Der Begriff Open Source beschränkt sich nicht nur auf Software, sondern bezieht sich auch auf freies Wissen und Information durch freie Inhalte.
https://handbuch-digitalisierung.de/die-open-bewegung/


Abstract network background with low poly design with connecting lines

Geschäftsmodelle im Fokus: Selbstlernende Maschinen nutzen Big Data und Cloud-Computing, um laufend die abhängigen Prozesse zu optimieren.
https://handbuch-handel.de/­kuenstliche-intelligenz/


Big – Smart – Fast: Unser Arbeitsalltag wird zunehmend von digitalen Daten beeinflusst. Big Data berührt alle Branchen und Märkte.
https://handbuch-handel.de/big-smart-fast/


Die TREND-REPORT-Redaktion sprach mit Maurizio Riva über die intelligente Cloud: „Wir haben dabei natürlich besonderen Fokus auf künstliche Intelligenz, 5G und den ‚Netzwerk­rand‘ gelegt.“ https://trendreport.de/die-intelligente-cloud-ermoeglichen/