Beiträge

Handel mit Zukunft

Tiefere Datenanalyse, NLP und mehr Automatisierung
sind gefragter denn je.

von Frank Zscheile

Omni- oder Multichannel sind für den Handel keine neuen Trends mehr, sondern vielfach gelebte Realität. Welcher Kanal bedient wird, ist zweitrangig, es geht um das Erlebnis, bei dem sich „online“ und „offline“ zu smarten Services ergänzen. Grundlage dafür sind die dahinterliegenden Datenmengen. Sie lassen sich heute durch Analyseinstrumente, die mit künstlicher Intelligenz angereichert sind, immer besser hinsichtlich ihrer weiteren Verwendung im Business-Kontext auswerten.

Neue Algorithmen zur Textanalyse sind inzwischen sogar in der Lage, Stimmungslagen in Kundenschreiben selbstständig zu erkennen. Solche bislang verborgenen Informationen können Handelsunternehmen im Sinne des Geschäftsnutzens einsetzen. Wenn Kundendaten genauer analysiert werden, lassen sich die Ergebnisse als Grundlage für individuelle Kundenansprachen und digitales Marketing einsetzen. Dabei werden alle Kunden-Touchpoints mit relevanten, vom Kunden gewünschten Informationen bespielt – ideal für die Stärkung von Kundenbindung (Customer Loyalty).

Neue Algorithmen zur Textanalyse sind inzwischen sogar in der Lage, Stimmungslagen in Kundenschreiben selbstständig zu erkennen.

Treiber dieser Entwicklung sind die Forderungen der Verbraucher nach Echtzeitunterstützung, kontinuierlicher Unterhaltung sowie umfassender Konnektivität und Sicherheit. So wird Consumer IoT zum nächsten logischen Schritt der digitalen Evolution des Handels.

Automatisierte Service-Interaktionen

„Themen wie künstliche Intelligenz und Blockchain haben ihre Nische längst verlassen und sind zu gesellschaftsrelevanten Themen geworden“, weiß auch Matthias Wahl, Präsident des Bundesverbandes Digitale Wirtschaft (BVDW) e. V. Mit KI lassen sich gleichzeitig Geschäftsabläufe zwischen IT-Systemen des Handels automatisieren, Stichwort „Robotic Process Automation“. B2B-Marktplätze werden an ERP-, CRM- und weitere Backendsysteme und Datenbanken angebunden. Dies führt weiter zu automatisierten Service-Chatbots, bei denen sich die Beschäftigten im Service erst später oder im Bedarfsfall in die konkrete Kundenkommunikation einschalten.

Bekanntheit und Nutzung mobiler KI-Anwendungen

Gartner sagt voraus, dass 2021 15 Prozent aller Service-Interaktionen automatisiert sein werden. Künstliche Intelligenz wird dabei für eine zunehmend natürliche Art solcher sprachlichen Interfaces sorgen, was die Verbreitung wiederum verstärken wird. Wirkliche Dialoge sind es freilich nicht, die mit Chatbots ablaufen, sondern eher kurze Frage-Antwort-Sequenzen. Mit dem durch KI gewonnenen Wissen aus Datenbanken werden sich aber in absehbarer Zeit auch mehrstufige flexible Dialoge automatisieren lassen können. Dadurch erschließen sich neue Anwendungsfelder im Kundenservice, die mit einfachen Frage-Antwort-Systemen nicht adressiert werden können.

Unternehmen müssen „insight-driven“ werden

In seinem Report „The Forrester Wave™: AI-Based Text Analytics Platforms, Q2 2018“ beschreibt das Analystenhaus Forrester, wie sich durch den Einsatz künstlicher Intelligenz aus Daten zusätzliches Wissen gewinnen lässt. „Insight-driven“ müssten Unternehmen werden, fordert Forrester-Analyst Boris Evelson. Dabei geht es vor allem um das in unstrukturierten Daten enthaltene Wissen, welches in Unternehmen heute Schätzungen zufolge rund 80 Prozent ausmacht: E-Mails, PDFs, Archivsysteme, Videos, Tondokumente, Social-Media-Posts etc. Hierfür kommen Techniken der linguistischen und semantischen Analyse („Natural Language Processing – NLP“ oder Computerlinguistik) zum Einsatz.

Unter NLP versteht man die Fähigkeit eines Computerprogramms, menschliche Sprache so zu verstehen, wie sie gesprochen bzw. geschrieben wurde. Tiefergehende NLP-Systeme benutzen die Wortarten zur Extraktion vordefinierter Muster und extrahieren selbstständig bestimmte Kategorien von Begriffen, z. B. Personen- und Ortsnamen, Postleitzahlen, Nummernschilder.

Kundenkorrespondenz modern auswerten

Der eigentliche Prozess des Text-Minings und der Extraktion von Keywords, Themen und Konzepten liegt laut Forrester dabei nur bei rund einem Fünftel des Aufwands. Der weitaus größere Teil entfiele auf den Aufbau von Datenverbindungen, die Integration und Bereinigung der Daten sowie den Aufbau einer domänenspezifischen Ontologie und user­orientierter Oberflächen. Während die meisten Hersteller noch immer hauptsächlich Stimmungsanalysen anbieten, ermöglicht die Software von Clarabridge auch eine hoch differenzierte Emotions-, Anstrengungs- und Absichtsanalyse.

Loyalität aus Daten

Das Konzept von Clarabridge zeigt, wie wichtig es sein kann, das in unstrukturierten Daten verborgene Wissen zu heben. Die Customer Loyalty lässt sich dadurch deutlich festigen. Im Omnichannel ist hier ohnehin noch Luft nach oben, glaubt Michael Bregulla, Head of New Sales bei der Ingenico Marketing Solutions GmbH. Das Unternehmen entwickelt Programme zur Vertiefung der Kundenbeziehungen für alle Verkaufskanäle. „Bindungseffekte sollten im Wesentlichen aus dem Preisvorteil generiert werden, obwohl der eigentliche Wert in den aggregierten Daten des bis dato anonymen Kunden liegt“, so Bregulla. „Schon heute schlummern bei vielen Händlern riesige Datenpotenziale, die gar nicht wertbringend abgeschöpft werden. Die Digitalisierung offenbart jetzt die Chance für eine ganzheitlichere Erfassung des Kundenverhaltens.“

Bindungseffekte sollten im Wesentlichen aus dem Preisvorteil generiert werden, obwohl der eigentliche Wert in den aggregierten Daten des bis dato anonymen Kunden liegt.

Dazu bedürfe es einerseits Werkzeuge wie linguistischer und semantischer Analyse. Gleichfalls sei aber ein erweitertes Mindset bei Handelsunternehmen gefragt und die Bereitschaft, Dinge auszuprobieren und auch wieder zu verwerfen. So kristallisiert sich für Händler ein Gesamtbild der technisch-organisatorischen Rahmenbedingungen heraus, wie sich das Datenpotenzial von Customer-Loyalty-Programmen im Omnichannel zur personalisierten Kundenansprache und Steuerung des Kaufverhaltens nutzen lässt.

Voice Commerce und Audiovermarktung

Smart Speaker wie Amazon Alexa, Google Home, Telekom Magenta und Co. und die dahinterliegende Voice-Technologie haben in jüngster Zeit die nächste Welle losgetreten und den Zugang zu Audio-Content weiter vereinfacht. BVDW-Präsident Matthias Wahl: „Dadurch erhält Audio-Content einen deutlichen Schub, den Unternehmen für sich nutzen müssen.“ Das Medium Audio verändert sich damit grundlegend: Content wird interaktiv und wächst von einer One-Way-Communication zu einem Dialog-Umfeld.

Consumer IoT

Sprachgesteuerte Smart Speaker werden neben der reinen Audio-Content-Nutzung zu hohen Anteilen zur Informationsbeschaffung genutzt. Eine weitere Möglichkeit für Handelsunternehmen, ihre Kunden zu adressieren. Die technologische Basis dieser Produkte ist wiederum die Fähigkeit von Software, menschliche Sprache immer besser zu verstehen. Analog zu anderen Kommunikationskanälen benötigen Unternehmen deshalb eine eigene Voice- und Audiostrategie. Sie müssen eine Audio-Identity und eigenen Audio-Content entwickeln und mit ihren Marken, Produkten und Angeboten ihren Zielgruppen auf die neuen Geräte folgen. Wie dies praktisch umzusetzen ist, dafür gibt der BVDW auf seiner Webseite hilfreiche Hinweise.

Einkauf auf Zuruf

Fragt man die Smart Speaker heute nach einem bekannten Produkt wie Pampers, so wird in der Regel erstmal der Wikipedia-Eintrag vorgelesen. „Voice Search SEO muss noch deutlich gezielter als Desktop und Mobile betrieben werden, um Verkaufschancen über Voice zu steigern – auch weil die Chancen auf Sichtbarkeit deutlich geringer sind als am Desktop“, erklärt Frank Bachér von RMS.

So wird sich Voice Commerce über Skills entwickeln und neben Webshops und Apps der nächste Absatzkanal für den Handel werden, in dem Einkäufe auf Zuruf möglich werden. Vor allem im Bereich der FMCG („Fast Moving Consumer Goods“) dürfte dies einer der spannendsten neuen Trends sein. Damit dürften die smarten Lautsprecher künftig wohl ihrem Namen eher gerecht werden im Vergleich zu heute, wo sie hauptsächlich nur für einfache Aufgaben wie das Abspielen von Musik und die Wettervorhersage genutzt werden. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Going Global

Mehr Wachstum durch die Erschließung neuer Märkte

Internationalisierung bietet Online-Händlern die Chance, ihre Umsätze zu steigern. Doch die Expansion ins Ausland ist mit Hürden verbunden, die zunächst gemeistert werden müssen.

Nicht jedes Land ist gleichermaßen als Expansionsziel geeignet. Generell ist es einfacher, sich zunächst in den Ländern auszubreiten, die sprachlich und kulturell wenig Unterschiede aufweisen und daher keine komplexere Anpassung des Online-Shops erfordern. Je nach feilgebotener Ware kann es natürlich gute Gründe geben, von dieser Regel abzuweichen, wie beispielsweise die Konkurrenzsituation und auch damit verbundene Unterschiede in der zu erwartenden Nachfrage.

Location-Intelligence-Dienste können helfen, den geeigneten Zielmarkt zu finden. Unter „Location Intelligence“ versteht man die Fähigkeit, Wissen anzuwenden, das durch den Zugriff auf Informationen und deren Analyse und Aufbereitung unter Berücksichtigung räumlicher Zusammenhänge entsteht. Sie beschreibt das Konzept, dass Organisationen mithilfe von Standortinformationen ihre Kunden, Bürger und Märkte besser verstehen und einen Wettbewerbsvorteil erzielen.(1)

Um die Prozesse und Systeme mit den Anforderungen der Zielländer in Einklang zu bringen, ist lokale Expertise immer von Vorteil, aber auch Software-Tools können hinsichtlich einer Compliance-Überprüfung hilfreich sein. Um Vertrauen im Zielland aufzubauen, ist es unerlässlich, alle rechtlichen Standards einzuhalten: Impressum, AGBs, Liefer-, Zahlungs- und Einfuhrbestimmungen sowie Kennzeichnungspflichten müssen berücksichtigt werden. Zudem lässt sich die Vertrauenswürdigkeit des eigenen Online-Shops im Ausland erhöhen, wenn er mit einem Gütesiegel zertifiziert wurde.

Die technische und die logistische Infrastruktur sind die Grundpfeiler des E-Commerce. IT-Infrastrukturen wie „Content Delivery Networks“ helfen Latenzen und Ausfallzeiten für den Web-Shop zu vermeiden. Natürlich sollte auch der Warenversand schnell, kostengünstig und nachvollziehbar sein. Digitale Lösungen wie Sendungsverfolgung oder Lieferung in den Kofferraum bieten zusätzlich Komfort und erhöhen damit das Kundenbindungspotenzial.

Achten Sie auch bei den Zahlungsmitteln darauf, dass Sie den Gepflogenheiten des Landes entsprechen. Während hierzulande noch viel auf Rechnung gekauft wird, führt in China kein Weg an Mobile-Payment-Plattformen wie WeChat Pay und Alipay vorbei.

Die Anpassung eines Online-Shops an die Zielländer ist maßgeblich für den Erfolg. Die Übersetzung steht dabei an erster Stelle, wobei insbesondere auch auf die richtigen Maßeinheiten zu achten ist. Generell sollten alle Marketingmaßnahmen und somit auch die Gestaltung der Seite und die auf der Startpage beworbene Produktauswahl an die Vorlieben im Zielland angepasst werden. Achten Sie auch bei Suchmaschinenoptimierungen auf landesspezifische Besonderheiten. Google dominiert zwar weltweit den Markt, spielt aber in China (Baidu) und Russland (Yandex) keine Rolle. Vergleichbares gilt natürlich auch bei der Nutzung sozialer Medien.

IT-Dienstleistungen


Gerade der IT-Dienstleistungssektor ist geprägt von internationalem Wettbewerb. Durch Cloud-Computing-Plattformen wie Amazon Web Services oder Microsoft Azure sind Dienstleistungsmarktplätze entstanden, worüber schlüsselfertige Softwarelösungen bezogen werden können. Buchbare Dienste reichen von Betriebssystemen über Cloud-Speicher bis hin zu AI, Blockchain oder IoT-Anwendungen. Wer hier seine eigenen Leistungen einstellt, ist mit einem Schlag international abrufbar.

Das im internationalen Vergleich extrem unterschiedliche Preisniveau macht ein IT-Offshoring besonders lukrativ. In Ländern wie Indien, den Philippinen, China, Thailand, Sri Lanka oder Mexiko sind IT-Dienstleistungen wesentlich günstiger. Dies betrifft nicht nur die Löhne, sondern auch die Miete, zudem bestehen teils steuerliche Vorteile. Wichtig dabei ist, auf die Datenschutzbestimmungen des eigenen Landes zu achten, da ein Verstoß kostspielige Konsequenzen mit sich bringt. Zusätzlich entsteht beim IT-Offshoring ein besonders hohes Risiko der Wirtschaftsspionage. Auch wenn keine sensiblen Firmendaten im Ausland verarbeitet werden, lässt sich durch den Datenaustausch besonders leicht Malware einschleusen. //


(1) Seite „Location Intelligence“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 13. September 2018, 18:34 UTC. URL: https://de.wikipedia.org/w/index.php?title=Location_Intelligence&oldid=180881672 (Abgerufen: 12. April 2019, 11:54 UTC)


Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Nachhaltig digitalisiert

Interview mit Prof. Michael Kuhndt über neue Geschäftsmodelle an der Schnittstelle von Digitalisierung, Nachhaltigkeit und Ressourceneffizienz.

Welches Potenzial räumen sie der Energieeffizienz und der Digitalisierung im Kontext der Nachhaltigkeit ein?
Zunächst einmal: Die Digitalisierung bringt Transparenz. Diese Transparenz ist Grundvoraussetzung für das Wissen über Energie. Also: Wo brauche ich Energie? Was ist an Energie in meine Produkte geflossen? Wie kann ich die Kreisläufe schließen und damit Ressourcen erhalten? Hier kommen wir also sehr schnell auf die Notierung der Circular Economy. Wichtig ist es ja auch zu sehen, dass ein Energieeffizienzthema alleine betrachtet – also in der Nutzenphase eines Produkts – nur ein Aspekt ist. Aber wenn ich die Energieeffizienz im Kontext der Kreislaufwirtschaft sehe, dann habe ich eine direkte Schnittstelle zur Digitalisierung. Also wenn ich den Energieverbrauch möglichst effizient halten möchte, muss ich mit Rohstoffen effizient umgehen. Das heißt, ich muss einen Kreislauf führen. Sonst muss ich z. B. das Aluminium zehnmal produzieren, so kann ich das Aluminium im Kreislauf führen, habe es einmal produziert und kann es dann weiterverarbeiten. Und genau dazu brauche ich die Digitalisierung. Ich muss Transparenz haben: Wo sind die Warenströme? Wo geht es hin? Wo kommt das her? Was genau steckt in den Materialien, die ich z. B. weiterverarbeite? Kann ich das wieder verwerten? Da entstehen momentan mannigfaltig neue Geschäftsmodelle.

Auf der gleichen Grundlage, der Mehrfachnutzung von Resourcen, setzt die Sharing Economy an. Ohne die Digitalisierung wäre so ein Konzept nicht denkbar. Spielt diese spezielle Form von Teilen in Ihrem Beratungsalltag eine Rolle?
Ja, sie spielt eine Rolle. Wir sehen hier ein immer stärkeres Wachstum. Für das Weltwirtschaftsforum haben wir eine Studie zu dem Thema gemacht und sind damit auch auf dem Economic Forum in Davos aufgetreten. Speziell die großen Unternehmen – die diese Studie auch bei uns angefragt haben – sehen die Sharing Economy als „Emerging Trend“, also es wächst, es entsteht, genauso wie die Digitalisierung.

Prof. Michael Kuhndt, CSP Centre gGmbH

Nutzen Unternehmen explizit Konzepte wie die Sharing Economy, wenn sie neue Geschäftsmodelle generieren?
Die Frage ist ja, wie sieht unsere Zukunftsgesellschaft aus? Vielmehr: Wie wollen wir, dass unsere Zukunftsgesellschaft aussieht? Fakt ist: Produkte werden künftig eine untergeordnete Rolle spielen. Die Zukunft des Produkts liegt in der „Subscription-Economy“. Es geht darum, dass man ein Produkt als Dienstleistung versteht. Es entsteht ein Produkt-Dienstleistungs-System. Schauen sie sich Philips an, die sagen: Wir stellen nicht mehr die Lampe her, sondern wir verkaufen Licht, wir verkaufen Helligkeit. Das Geschäftsmodell dazu sieht so aus: Unternehmen kommen zu Philips und sagen: „Kommt doch bitte in unser Büro herein und stellt sicher, dass die Dienstleistung ‚ausgeleuchtete Arbeitsplätze‘ sichergestellt wird.“ Wir als Kunden wollen gar nicht die Produkte selbst kaufen. Diese Entwicklung ist hochinteressant. Es geht also weg vom Besitzen hin zum Nutzen. Übrigens eine Entwicklung, die die Digitalisierung hervorgebracht hat. Genau dieser Gedanke steckt auch hinter der Sharing Economy: Muss ich alles, was ich nutzen will, auch besitzen? Das heißt, wenn wir konkret mit Unternehmen arbeiten, ist das genau auch ein Aspekt unserer Zusammenarbeit, über den die Unternehmen dann auch sprechen wollen. Egal ob Tourismusbranche oder Textilien … Muss man Textilien zum Beispiel immer wieder neu kaufen? Oder könnte man auch sagen: Weil sich der Geschmack, das eigene Gewicht oder Lebensumstände geändert haben, geben wir Textilien fortan eine „Nutzenphase“? Nicht nur wir bringen ein solches Thema an, sondern eben auch konkrete Nachfragen von Großunternehmen, auch vom Handel. Ein weiteres Beispiel aus der Möbelbranche: Möbel, muss ich die immer verkaufen …? Täte es meinem Geschäft nicht viel besser, wenn ich das tatsächlich nur nutzen lasse und ich bekomme es dann wieder zurück? Nebeneffekt: So habe ich für zukünftige Produkte und Weiterentwicklungen gleichzeitig meine Ressourcen im Kreislauf und spare effektiv beim Einkauf.

Geht der Trend also in Richtung „Product as a Service“?
Genau, das ist es. Nicht alles besitzen, aber jederzeit alles nutzen. Das geht natürlich auch wieder einher mit der Digitalisierung. Als Konsument habe ich die mit dem Smartphone ja quasi in der Hand.

Welche Weichen sollten Ihrer Meinung nach jetzt in Politik und Wirtschaft gestellt werden?
Ich denke, das Thema Digitalisierung ist in der Politik angekommen, alle Bundesländer und die Regierung beschäftigen sich damit. Auch die Kommunen diskutieren über diese Themen. Womit sich die Politik beschäftigen muss, sind die Rahmenbedingungen. Treffen Konzepte wie Sharing Economy, Circular Economy oder Subscription-Economy oder hierauf basierende, neue Geschäftsmodelle auf Rahmenbedingungen, die mit ihnen vereinbar sind? Die große Sorge meinerseits besteht darin, dass wir Teile der Gesellschaft von der Digitalisierung entkoppeln: Geschäftsmodelle und auch die sogenannten „Digital Natives“ verändern sich viel schneller als Politik und andere Teile der Gesellschaft es überhaupt können. Nehmen Sie Uber: Hier steht ein Bedürfnis nach Mobilität einer ganzen Branche entgegen, die von ihrem Beruf auch leben können will – und soll. Dafür werden „Sub-Systeme“ immer interessanter. „Spielwiesen auf Stadtebene“, um neue Geschäftsmodelle wie z. B. Energieeffizienz, Smart Home und IoT gemeinsam mit dem Bürger „auszuprobieren“. Dafür brauchen wir einen rechtlichen Rahmen.

Man bräuchte Regelungen für Modell-Städte oder Modell-Viertel?
Genau richtig. So kann man auch die Akzeptanz-Probleme quasi in kleinen Labs, in kleinen Systemen, beseitigen helfen. Erkennen die Menschen den Nutzwert einer Neuerung, wie etwa der „Smart City“, dann lässt sich das auch schnell auf Bundesebene skalieren. Hier muss die Politik dringend Regeln finden.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Zum Interviewpartner

Digitalisierung und Nachhaltigkeit bieten viele Optionen

von Bernward Janzing

Es gibt viele Möglichkeiten, mit Algorithmen Abläufe in Wirtschaft und Gesellschaft im Sinne einer effizienten Ressourcennutzung zu optimieren: Energieverbraucher, die bedarfsgerecht gesteuert werden, sind ein bekanntes Beispiel. Ein weiteres ist eine ausgeklügelte Transportlogistik, die Ladekapazitäten von Fahrzeugen optimal ausnutzt oder durch regionale Belieferung der Kunden Ferntransporte von Waren sogar vermindert. Ein wichtiges Feld ist außerdem die gemeinsame Nutzung von Gütern, die heute mit dem Begriff der „Sharing Economy“ umschrieben wird. Sie lässt sich durch den Einsatz digitaler Systeme optimieren, weil Anbieter und Interessenten von Gütern oder Dienstleistungen schneller zusammenfinden können.

Mit dem Aufbau der Internetkommunikation und der anschließenden Marktdurchdringung mobiler Geräte war der Einzug der Digitalisierung in unternehmerische Prozesse nur eine logische Folge. Dienstleistungen, die zuvor in der analogen Welt zwar schon angeboten wurden, aber oft einigen zeitlichen Vorlauf brauchten (zum Beispiel Mitfahrzentralen oder Car-Sharing), werden nun in der digitalen Welt per App optimiert und quasi in Echtzeit angeboten. Die Kundenzahlen nehmen seither deutlich zu.

Somit kommen mit der fortschreitenden Digitalisierung erhebliche Veränderungen auf die Gesellschaft zu. Doch so sehr die neuen Angebote den Menschen manches erleichtern, so sehr haben sie auch eine andere Seite, mit der sich die Gesellschaft beschäftigen muss und wird. Die neuen Angebote werden zum Beispiel immer mehr persönliche Daten nutzen. Manche werden auch Bewegungsprofile erstellen, wieder andere Lebensgewohnheiten erfassen, wie es zum Beispiel mit dem elektronischen Stromzähler („Smart Meter“) möglich ist. Allenthalben entstehen somit Daten, die den persönlichen Tagesablauf und die Gewohnheiten in mehr oder weniger großen Teilen abbilden können.

Entsprechend gibt es in der öffentlichen Debatte natürlich auch viele Aspekte, die bei den Bürgern auf Vorbehalte stoßen und mit denen sich Industrie und Politik auseinandersetzen müssen. Zum einen ist das die Datensicherheit aus IT-Sicht: Sind die Systeme ausreichend gegen Hacker geschützt? Vor allem dort, wo es um vitale Strukturen der Gesellschaft geht (zum Beispiel in der Stromversorgung), müssen Cyber-Angriffe absolut ausgeschlossen werden. Zum zweiten sind die Ängste der Menschen ernst zu nehmen, die sich durch ihre zunehmend erhobenen persönlichen Daten, wie Bewegungsprofile und Kommunikation, allzu gläsern fühlen. Eine Datenaggregation, die am Ende keine Rückschlüsse auf die einzelne Person mehr ermöglicht, kann die Akzeptanz deutlich erhöhen.
Und drittens fürchten Bürger zumindest in einigen Lebensbereichen auch eine „Entmündigung“ durch die Algorithmen und die neuen Abhängigkeiten von der Technik. So ist die Vorstellung, das Auto werde künftig von einem Computer gelenkt, für viele Menschen heute noch gewöhnungsbedürftig. Kritisch zu hinterfragen ist bei allen Ansätzen zugleich auch immer, in welchen Einsatzgebieten der technische Aufwand sowohl aus wirtschaftlichen wie auch aus ressourcenökonomischen Gründen gerechtfertigt ist. Denn der Aufbau einer digitalen Infrastruktur kostet natürlich erst einmal Geld, und er braucht durch die Fertigung der elektronischen Komponenten auch erst einmal Ressourcen. Manche Ansätze der Digitalisierung im Wohnumfeld – etwa die Waschmaschine, die bei günstigen Strompreisen startet – haben sich bisher nicht durchsetzen können, weil die Wirtschaftlichkeit für die Konsumenten nicht gegeben war.
Nur dort, wo der spätere Vorteil die anfänglichen Investitionen tatsächlich überwiegt, wird im Sinne der Nachhaltigkeit künftig ein Gewinn zu erzielen sein. Diese Ansätze zu finden, stellt die Herausforderung der Zukunft dar.

Virtual & Augmented Reality

Postdigitale Transformation: Augmented und Virtual Reality – wenn Devices unser aller zweite Haut werden

Computergenerierte interaktive Simulationen mittels kleiner Devices in unserem Leben eröffnen schier unendliche Potenziale an Möglichkeiten, um die Welt neu zu erfahren. Technologische Entwicklungen, die es uns jetzt schon erlauben, die Wirklichkeit zunehmend zu virtualisieren, sind vorhanden. Schon jetzt lässt sich erahnen, welche Änderungen auf uns zukommen. Die Art, wie wir miteinander interagieren und wie wir die Welt wahrnehmen werden, wird nicht mehr dieselbe sein.

Was ist Augmented Reality?
Unter „Augmented Reality“ (kurz AR), also erweiterte Realität, versteht man die computergestützte Erweiterung der Realitätswahrnehmung. Diese Informationen können alle menschlichen Sinnesmodalitäten ansprechen.  Häufig wird jedoch unter erweiterter Realität nur die visuelle Darstellung von Informationen verstanden, also die Ergänzung von Bildern oder Videos mit computergenerierten Zusatzinformationen oder virtuellen Objekten mittels Einblendung/Überlagerung. Bei Fußball-Übertragungen ist erweiterte Realität beispielsweise das Einblenden von Entfernungen bei Freistößen mithilfe eines Kreises oder einer Linie. (Wikipedia – Erweiterte Realität)

Im „Realitäts-Virtualitäts-Kontinuum“ (nach Paul Milgram et al., 1994) sind die erweiterte Realität („Augmented Reality“) und erweiterte Virtualität („Augmented Virtuality“) Teil der sogenannten gemischten Realität („Mixed Reality“). Während der Begriff Augmented Virtuality kaum benutzt wird, werden Augmented Reality und Mixed Reality, selten auch Enhanced Reality, meist synonym verwendet.
Im Gegensatz zur virtuellen Realität (kurz VR), bei welcher der Benutzer komplett in eine virtuelle Welt eintaucht, steht bei der erweiterten Realität die Darstellung zusätzlicher Informationen im Vordergrund. Virtuelle Realität und die Realität werden also miteinander kombiniert oder teilweise überlagert. Interaktivität in Echtzeit, in der reale und virtuelle Objekte dreidimensional zueinander in Bezug stehen. Diese Definition umfasst jedoch nur technische Merkmale und beschränkt sich dabei auf einen Teilaspekt von AR.

Andere Arbeiten definieren AR als eine Ausweitung der Sinneswahrnehmung des Menschen durch Sensoren um Umgebungseigenschaften, die der Mensch selbst nicht wahrnehmen kann, wie z. B. Radar, Infrarot und Distanzbilder. Menschliche Eigenschaften können damit durch AR verstärkt oder gar ergänzt werden.
Allein die visuelle Modalität bedeutet eine nicht unwesentliche komplexe Herausforderung an die Positionsbestimmung (Tracking) und Kalibrierung. Um eine Augmented-Reality-Anwendung aufzubauen, benötigt es AR-Systeme (kurz ARS), die sich aus technischen Bestandteilen, wie z. B. Kamera, Trackinggeräte, Unterstützungssoftware usw. zusammensetzen. VR und AR sind weit mehr als nur ein Hype. Erkennen lässt sich dies nicht nur an ernst zu nehmenden Hardware-Entwicklungen / Devices für AR-Systeme, wie Facebooks Oculus Rift, HTC VIVE und Microsofts HoloLens, die mittlerweile durchaus massentauglich sind. Auch geistiges Eigentum wird sich einverleibt.

Erst jüngst wurden spannende Investitionen von Giganten wie Google, Facebook oder Apple getätigt, wie bspw. im Falle von MagicLeap. Die großen Player am Markt bereiten sich offensichtlich auf eine Zukunft mit AR vor. Viele Argumente sprechen zudem  für den Einsatz und das Wachstumspotenzial dieser neuen Technologien: Kostenersparnisse, Qualitätssteigerungen, Sicherheit.

VR- und AR-Technologien haben einen großen Einfluss – nicht nur auf unsere zukünftigen Lebens- und Arbeitswelten. Bereits eingesetzte VR- und AR-Anwendungen lassen dies jetzt schon erkennen. Pick-by-Prozesse in der Logistik und Produktpräsentationen im B-to-C Handel  werden schon sinnvoll optimiert und teils völlig verändert.

Begriffserklärung

Am besten veranschaulicht man sich diese abstrakten Begriffe an konkreten Beispielen:
Reine Realität ist ein Mensch, der zum Einkaufen in den Supermarkt geht.
Erweiterte Realität sind Brillengläser, auf deren Innenseite ein Computer den Einkaufszettel des Benutzers projiziert; und zwar so, dass beim Benutzer der Eindruck entsteht, der Einkaufszettel sei an die Wand des Supermarktes angeschrieben. Die Wirklichkeit wird hier um virtuelle Informationen angereichert.
Erweiterte Virtualität ist ein Computerspiel, das über einen VR-Helm gespielt wird und das die Türsprechanlage auf die Kopfhörer überträgt, wenn es an der Tür klingelt. Die Virtualität wird hier um reelle Informationen angereichert.
Virtuelle Realität ist ein Computerspiel, das über einen VR-Helm gespielt wird und nicht auf die reale Außenwelt des Benutzers reagiert.
(Quelle: Wikipedia„Mixed Reality“)

Mobile Economy

Ortsungebunden und immer erreichbar. Smartphones und Tablets stellen den „Arbeitsplatz“ in Frage und ermöglichen neue flexible Arbeitsweisen.

von Brigitte Kasper

Die Initialzündung für „Mobile“ kam sicherlich durch die Einführung von iPhone und iPad. Mit einem Mal genügte es nicht mehr, mit dem Handy nur zu telefonieren und ein paar SMS zu versenden. Zwar konnte man mit den damaligen mobilen Geräten auch schon z. B. Musik hören, fotografieren und E-Mails empfangen und versenden, jedoch geschah das noch mehr oder weniger halbherzig bzw. war auf nicht allzu viele geschäftliche Nutzer begrenzt. Mit den neuen Prestigeobjekten, die zudem durch eine neuartige Bedienung glänzten, eröffnete sich ihren Nutzern so nach und nach die Welt der Applikationen (Apps), d. h., von kleinen, auf dem Gerät gespeicherten oder ladbaren Programmen, über die man sich – zum Teil spielerisch – immer neue Anwendungen, Nutzen und Mehrwerte erschloss. Andere Hersteller zogen mit den sogenannten Smartphones und Tablet-PCs nach, für die nun ihrerseits ein kaum noch zu überblickendes App-Universum entstand.

Mittlerweile geht es nicht mehr ohne. Mobile ist zu einem gesamtgesellschaftlichen Phänomen geworden – sowohl privat als auch im Business. Mancherorts heißt es nicht mehr „Mobile First“, sondern „Mobile Only“. Es wird mobil gelebt, gespielt, gearbeitet, gelernt, eingekauft, bezahlt und Geld überwiesen. Kaum ein Unternehmensbereich oder eine Branche kommt noch ohne mobile Arbeitsmittel aus, sei es im Vertrieb, in der Kundenberatung oder im Außendienst, in der Logistik oder im Handwerk. Moderne Apps machen es möglich, von überall her z. B. auf weiterführende Informationen oder Unternehmens- und Kundendaten zuzugreifen, um so die Kundengespräche oder auch Finanzberatungen durch aktuelle Fakten untermauern zu können. Oder vor Ort gewonnene Messdaten via App und Mobilfunk in den Unternehmensserver zu senden, um sie dort zu speichern und auszuwerten.

Die Zahlen sprechen für sich: Laut dem aktuellen Ericsson-Mobility-Report wird die Anzahl der Smartphone-Verträge 2016 weltweit auf 3,9 Mrd. steigen. Nahezu 90 % der Kunden werden dann die schnellen WCDMS/HSPA- und LTE-Netze nutzen. In Deutschland werden insgesamt voraussichtlich 27,9 Mio. Geräte über den Ladentisch gehen, so die Prognose des Digitalverbands Bitkom. 76 % aller Bundesbürger ab 14 und bis 69 Jahre nutzen bereits ein Smartphone und mit ihm auch das mobile Internet. Das Tablet hingegen läuft langsam Laptop und Notebook den Rang ab.

Nach ihrem Siegeszug im Privaten krempeln Smartphone und Tablet nun die Arbeitswelt um und ermöglichen neue Arbeitsweisen – losgelöst von Raum und Zeit. Wie aus dem aktuellen „Adobe Enterprise Mobile Survey“ hervorgeht, setzen 75 % der hiesigen Firmen inzwischen Enterprise-Mobile-Apps für tägliche Arbeiten ein, beispielsweise für eine verbesserte Kommunikation der Mitarbeiter untereinander, mit Kunden oder auch in Sales-Prozessen – auch von unterwegs und außerhalb der „normalen“ Arbeitszeiten. Vertrieb, Marketing, Kundenberatung usw. werden sich in einem Maß den mobilen Möglichkeiten anpassen müssen, das heute noch gar nicht abzuschätzen ist. So wie die Kunden jederzeit, überall und flexibel erreichbar sind, erwarten sie es auch von ihren Geschäftspartnern. Starre und archaische Hierarchien, bislang erfolgreiche Geschäftsmodelle und Märkte sowie bestehende Wertschöpfungsketten müssen hinterfragt und gegebenenfalls aufgebrochen werden. Neue Denkweisen und Geschäftsmodelle müssen her. Nicht umsonst fordert der VDE mehr „Californian Spirit“ statt „German Angst“. Er sieht die Digitalisierung als Feuerprobe für Deutschland 4.0. Kaum auszudenken, würde man hier den Anschluss an die USA und Asien verlieren.

Business-Design für den digitalen Wandel

von Elmar Nathe

Die digitale Transformation erfordert vom Topmanagement eines Unternehmens das grundlegende Überdenken des etablier­ten Geschäftsmodells und die Neuausrichtung der Geschäftsorganisation. Neue Geschäfts­chancen, die durch die Digitalisierung erst ermöglicht werden, müssen erst verstanden und auf ihre Relevanz zur Erneuerung des Geschäftsmodells geprüft werden. Digitalisierung verzahnt Business und IT unmittelbar. Jede Neuaus­rich­tung löst sofort eine entsprechende Änderung in der IT aus. Auch wenn IT-Trends wie z. B. „Internet of Things“ sicher die Weichensteller der digitalen Geschäftsmodelle sind, sollten Unternehmen beim Entwurf ihrer digitalen Strategie an den Nutzen für ihre Kunden denken. Startpunkt sind also die – wahrscheinlich schon – bekannten Probleme der Kunden. Ein tieferes Verständnis zu entwickeln, worin der Kern des Problems eigentlich besteht und welche Ansätze diese lösen können. Mögliche Fragestellungen sind:

  • Was sind die aktuellen Herausforderungen unserer Kunden in ihren Märkten?
  • Wie können digitale Technologien unsere Produkte bzw. Services verbessern?
  • Wie können unsere Kunden enger an uns gebunden werden?

Doch wie kann effektiv eine digitale Strategie entwickelt und umgesetzt werden? Das wird am Beispiel eines Maschinenbauers dargestellt. Dieser möchte sein herkömmliches, auf der Konstruktion, Produktion und Lieferung von Spezialmaschinen beruhendes Geschäftsmodell erweitern. Hierfür sollen Technologien aus der Industrie 4.0 wie z. B. Sensoren, RFID und Big Data genutzt werden.

Zur digitalen Strategie mit vier Management-Werkzeugen

Die pragmatische, lösungsorientierte Kopplung von Business und IT ist im Rahmen der digitalen Transformation wichtig. Hierfür bietet es sich als Unternehmen an, folgende Elemente auszuarbeiten:

  • Customer-Journey-Mapping
  • Geschäftsfähigkeiten-Landkarte
  • Value-Proposition
  • Lean Start-up.

Potenziale aus der Kundensicht entdecken

Elmar Nathe

Customer-Journeys stellen die Reise des Kunden bei der Interaktion mit dem Unternehmen dar. Dadurch lassen sich Potenziale und Ansatzpunkte aus Kundensicht entdecken. Hierbei ist es entscheidend, sich auf die Darstellung der Herausforderungen und der Erwartungshaltung der Kunden zu konzentrieren. Die IT kommt erst ins Spiel, wenn es darum geht, wie die identifizierten Probleme gelöst werden können. Als Best Practice hat es sich herausgestellt, dass aus den Customer-Journeys Geschäftsfähigkeiten abgeleitet werden, die das Unternehmen aufbauen muss, um die Kundenbedürfnisse besser bedienen zu können.
Bei dem Maschinenbauer beginnt die Customer-Journey des Kunden bei der Planung der neuen Maschinen und bildet anschließend den Kauf, Betrieb und die Instandhaltung der Anlage bis zur Ersetzung dieser ab. Bzgl. der Instandhaltung könnte erkannt werden, dass es strategisch entscheidend ist, über Geschäftsfähigkeiten zu verfügen, die dem Kunden helfen, die Maschinenlaufzeiten und die -auslastung zu erhöhen.

Nutzen für den Stakeholder herausarbeiten

Ob eine solche Geschäftsfähigkeit das Potenzial hat, ein neues Geschäftsmodell zu tragen, kann über einen „Business Model Canvas“ (BMC) pragmatisch beschrieben werden. Zentral für den BMC ist das Konzept der Value-Proposition (dt.: Leistungsversprechen). Auf dieser Ebene werden noch nicht die konkreten digitalen Services beschrieben, sondern welcher Wert bzw. Nutzen für den Stakeholder erzeugt werden soll.
Im Kontext einer digitalen Strategie sind Customer-Journeys und die abgeleiteten Geschäftsfähigkeiten ein guter Ausgangspunkt, um eine griffige Value-Proposition für eine Gesamtstrategie zu bilden. So ergibt sich insgesamt ein verständliches Zielbild der digitalen Transformation des Unternehmens. Der Maschinenbauer könnte sich für die Zukunft entscheiden, sich mithilfe von Nutzungsdaten aus der IT und von neu entworfenen Serviceprozessen vom reinen Maschinenlieferanten hin zum Managed-Service-Provider zu entwickeln, der dem Kunden hilft, die Maschinenlaufzeiten und -auslastung zu optimieren.

Kernfunktionalitäten werden im MVP abgebildet

Nach Customer-Journey, Geschäftsfähigkeiten und definierten Value-Propositions kommt die Feinarbeit! Jetzt gilt es, konkret die einzelnen, neuen Geschäftsfähigkeiten zu detaillieren und in IT-Produkte umzusetzen. Business und IT arbeiten hier Hand in Hand zusammen, um iterativ und möglichst schnell das Produkt auf den Markt zu bringen. Nach dem Lean-Start­up-Ansatz wird zuerst ein „Minimum Viable Product“ (MVP) entwickelt. Das MVP enthält nur die Kernfunktionalitäten, die den primären Nutzen für den Kunden generieren sollen. Das MVP wird schnellstmöglich auf den „Markt“ gebracht, um zu evaluieren, wie die neue Produktidee basierend auf der Value-Proposition tatsächlich bei den Kunden ankommt.

Der Maschinenbauer könnte in ersten Workshops gemeinsam mit ausgewählten Pilotkunden die Hauptursachen für Maschinenausfälle ermitteln und sich in einem MVP auf diese fokussieren. Hierfür wird ein erster Prozess entworfen, mit dem die Betriebsdaten der Maschinen analysiert und Muster erkannt werden können, die auf ein technisches Problem hindeuten. In einem iterativen Prozess können dann mit den Kunden Serviceprozesse und die zugrunde liegenden IT-Systeme weiterentwickelt und verfeinert werden, bis das neue Geschäftsmodell Managed-Service-Provider tragfähig und profitabel ist.
Werden die Schritte systematisch durchgeführt, wird so eine zukunftsträchtige digitale Strategie für das Unternehmen entwickelt. Kreative, innovationsfördernde Methoden und iterative, auf schnellem Kundenfeedback beruhende Ansätze für das Business-Development lassen auch in etablierten Unternehmen die notwendige Start-up-Mentalität einziehen.

Kernaussagen

Die Digitalisierung eröffnet neue Geschäftschancen. Diese müssen ergebnisoffen in interdisziplinären Teams diskutiert und ausgearbeitet werden.
Bei der anschließenden Ausarbeitung der digitalen Strategie wird der Kunde in den Mittelpunkt gestellt.
Vier Management-Werkzeuge erleichtern die Ausarbeitung der digitalen Strategie:

  • Customer-Journey-Mapping
  • Geschäftsfähigkeiten-Landkarte
  • Value-Proposition
  • Lean-Start-up.

 

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Zum Autoren

Cloud-Computing

Dezentral, flexibel und günstig – Cloud-Computing erobert mit hoher Skalierbarkeit bei niedrigen Kosten immer mehr deutsche Unternehmen.

von Andreas Fuhrich

Unter Cloud Computing versteht man die Ausführung von Programmen, die nicht auf dem lokalen Rechner installiert sind, sondern auf einem anderen Rechner, der aus der Ferne aufgerufen wird. Technischer formuliert umschreibt das Cloud Computing den Ansatz, IT-Infrastrukturen (z. B. Rechenkapazität, Datenspeicher, Datensicherheit, Netzkapazitäten oder auch fertige Software) über ein Netz zur Verfügung zu stellen, ohne dass diese auf dem lokalen Rechner installiert sein müssen. Angebot und Nutzung dieser Dienstleistungen erfolgen dabei ausschließlich über technische Schnittstellen und Protokolle sowie über Browser. Die Spannweite der im Rahmen des Cloud-Computings angebotenen Dienstleistungen umfasst das gesamte Spektrum der Informationstechnik und beinhaltet unter anderem Plattformen, Software und Infrastruktur wie z. B. Rechenleistung oder Speicherplatz.  Die Möglichkeit online seine Mails abzurufen oder seine Urlaubsfotos in sozialen Netzwerken zur Schau zu stellen waren zwar schon erste Cloud-Angebote, doch der Begriff setzte sich erst durch die Möglichkeiten der Virtualisierung durch.

Die häufigste Virtualisierungsmethode nutzt sogenannte Hypervisoren, die den simultanen Betrieb mehrerer Gastsysteme auf einem Hostsystem erlauben. Der Hypervisor verwaltet die Ressourcenzuteilung für einzelne Gastsysteme. Er verteilt die Hardware-Ressourcen derart, dass für jedes einzelne Gastbetriebssystem alle Ressourcen bei Bedarf verfügbar sind, so, als ob nur ein Betriebssystem vorhanden wäre. Den einzelnen Gastsystemen wird dabei jeweils ein eigener kompletter Rechner mit allen Hardware-Elementen – Prozessor, Laufwerke, Arbeitsspeicher usw. – vorgespielt.

Durch den Einsatz der Virtualisierung, lässt sich die Ressourcen-Auslastung optimieren, zumal Server, die im Moment nicht benötigt werden, abgeschaltet werden können. Lokale Ressourcen und die damit verbundenen Kosten lassen sich so einsparen. Neben der Private-Cloud, deren Server sich innerhalb der eigenen Organisation befinden, kann man dabei auch auf die Services von Public-Cloud-Anbietern zurückgreifen. Diese erlauben ihren Kunden, IT-Infrastruktur auf einer flexiblen Basis des Bezahlens zu mieten, ausgerichtet am tatsächlichen Nutzungsgrad. Ein Vorteil: Auch extreme aber nur kurze Auslastungsspitzen, beispielsweise im E-Commerce-Weihnachtsgeschäft lassen sich selbst unvorhergesehen so noch besonders kostengünstig bewältigen.

Um die Wettbewerbsvorteile nutzen zu können, die durch die Inanspruchnahme dieser Dienste entstehen, ist eine schnelle Breitbandversorgung Grundvoraussetzung. Damit es keinen Unterschied mehr macht, ob Daten lokal auf einem PC oder auf entfernten Servern in einer Cloud gespeichert sind, muss der Netzausbau vorangetrieben werden.

Bedenken bzgl. der Public-Cloud-Anbieter bestehen allerdings bezüglich des Datenschutzes. So dürfen nach einem Urteil des Europäischen Gerichtshofs nur eingeschränkt Daten in die USA gelangen. Wenn personenbezogene Daten Dritter in die Cloud gegeben werden, müssen sich deutsche Auftraggeber vorab und anschließend regelmäßig nachvollziehbar davon überzeugen, dass die Vorgaben des Bundesdatenschutzgesetzes eingehalten werden. Der Patriot Act erschwert zusätzlich das Vertrauensverhältnis zur neuen Welt – Unternehmen mit Sitz in den USA sind dazu gezwungen, Daten an amerikanische Behörden auszuliefern, selbst wenn sich die Server im fremden Hoheitsbereich befinden.

Smart, jetzt wirklich?

Manch „smartes“ Gerät sieht schnell unsmart aus, wenn wichtige Regeln wie Datenschutz, Sicherheit und Nutzererwartungen nicht erfüllt werden.

von Oliver Sucker

Die fortschreitende Digitalisierung eröffnet neue Wege und Techniken in allen Bereichen des täglichen Lebens, birgt aber auch Herausforderungen, Tücken und unerwartete Fallstricke. Nicht immer bringt die Digitalisierung nur Positives, wenn sie nicht richtig angegangen wird.
Insbesondere der Datenschutz ist ein essentieller Kernaspekt, will man das Vertrauen seiner Kunden nicht auf einen Schlag verspielen. Noch wichtiger ist in diesem Zusammenhang das allübergreifende Thema IT-Sicherheit: Ohne System- und Datensicherheit ist auch kein Datenschutz möglich.

Neben all den rechtlichen und komplexen technischen Fragen darf man aber auch die Erwartungen und Wünsche des Endanwenders nicht vergessen. Wenn es nicht gelingt, Bekanntes und Bewährtes in entsprechenden Analogien aufzugreifen, stößt man – insbesondere bei älteren oder sehr tradierten Menschen – schnell auf ein Akzeptanzproblem. „Smarte“ Geräte wie Fitnesstracker, Fernseher, Überwachungskameras und Alarmanlagen oder gar Sprachassistenten sind mehrheitlich ein Graus. Öffentlich im Internet verfügbare Gesundheitsdaten, zweifelhafte Clouds in Fernost, zu denen sich IP-Kameras verbinden, die blinde Datensammelwut mancher Hersteller oder wanzenartige, permanente Raumüberwachung machen sie zu potenziellen Feinden in unseren Büros, Wohnzimmern oder gar an unserem Körper. Die „Sicherheitskamera“ wird da schnell zum Einbruchinformationssystem; die Alarmanlage, die sich per unverschlüsseltem Funk einfach abschalten lässt, gibt nur trügerische Sicherheit. Manch „smartes“ Produkt schaut da schnell dumm aus der Wäsche.

Manche Geräte sind aber auch einfach nur ärgerlich: Erst nötigen sie uns zur Anmeldung bei eigentlich überflüssigen Cloud-Diensten, über deren Sicherheit, Seriosität und Fortexistenz wir weder Kenntnis noch Kontrolle haben. Ohne die Cloud am anderen Ende wird das Gerät wertlos. Es ist zudem auch höchst fraglich, ob alles in der Cloud gespeichert werden muss, nur weil es gerade so hipp ist.
Fast alle modernen Geräte enthalten neben der Hardware auch entsprechende Software (Firmware und ggf. Betriebssystem). Diese enthält generell Fehler, linear abhängig von der Komplexität des Produkts, der Kompetenz, Sorgfalt und Kultur der Entwickler sowie dem Reifegrad des Produkts. Selbst in reifen Softwareprodukten tauchen regelmäßig Fehler auf, mitunter sicherheitsrelevante.

Sicherheitslücken müssen also durch regelmäßige Produktpflege beseitigt werden, anderenfalls wird das Produkt tendenziell immer anfälliger. Das tückische dabei ist, dass der Endanwender sicherheitsrelevante Fehler – im Gegensatz zu funktionalen Mängeln – nicht selbst erkennen kann; ein ansonsten wunderbar funktionierendes Produkt kann gespickt sein mit Sicherheitslücken.
Was ist also mit dem noch prima funktionierenden Smartphone, für das der Hersteller keine Sicherheitsupdates (mehr) liefert, wie es am PC selbstverständlich ist? Wegschmeißen oder einfach darauf hoffen, dass unsere privaten Daten schon nicht gestohlen werden, obwohl unsere Haustür sperrangelweit offen steht?

Dann ist da noch der Aspekt der Benutzerfreundlichkeit: „Smarte“ Telefone haben das Telefonieren in den Augen nicht weniger Menschen schwieriger, de facto zumindest aber umständlicher gemacht. Uhren sind gar so smart geworden, dass sie vor lauter Kraft nicht mal 24 Stunden ohne Nachladen durchhalten. Die elektronische Internetbriefmarke sieht nicht nur nicht mehr schön aus, der früher oftmals nützliche Poststempel mit dem Einlieferungsdatum fällt auch ersatzlos weg. Ein jahrzehntelang funktionierender Prozess ist so zumindest teilweise ruiniert.

All diese Probleme lassen sich durch solides Know-how und guten Willen lösen; dies wäre auch ein wesentlicher Beitrag, bestehende Akzeptanzprobleme abzubauen und die digitale Spaltung der Gesellschaft abzuwenden. Derzeit ist jedoch eher ein gegenteiliger Trend zu erkennen. Zum bekannten Abfallhaufen aus kaputten Zahlungssystemen, Zertifikatsinfrastrukturen, Mobilfunktechnologien, Routern und anderen Embedded-Geräten kommt nun u. a. noch Industrie 4.0 und das „Internet of Things“ (IoT), ob im Smart Home, vernetzten Fahrzeugen oder der Smart City.
Dass die Geräte immer stärker vernetzt sind, ist aus Anwendersicht Segen und Fluch zugleich: Die Geräte werden dadurch immer angreifbarer, ebenso kann zum Beispiel das Nutzungsverhalten ausgespäht werden. Es gilt also stets abzuwägen, ob weitere Vernetzung mehr Chancen oder mehr Risiken birgt. Gleichzeitig gilt es, Risiken zu minimieren und auch die Datenverarbeitung auf das zu beschränken, was für die Funktionalität tatsächlich nötig ist – auch wenn Unmengen an Statistiken über die eigenen Kunden manche Begehrlichkeiten wecken. Nur wenn der Anwender genau weiß, welche Daten erhoben werden und wofür, bleibt das böse Erwachen am Tag X aus.

Hersteller sollten Sicherheit und Datenschutz nicht als notwendiges Übel, sondern als solide Basis jeden digitalen Handelns verstehen. Patzer können ein Produkt oder gar ein ganzes Unternehmen in den Abgrund reißen; „Digitale Abgasskandale“ sind unter allen Umständen zu vermeiden. Diese Kernaspekte müssen dazu von Anfang an in Design und Entwicklung berücksichtigt und im Rahmen der Continous Delivery/Continous Integration oder in jedem Release permanent geprüft werden, auch die etwaigen Backend-Systeme. Penetrationstests und Audits sind hier auch in einem hohen Maße automatisierbar, sodass Aufwand und Kosten überschaubar bleiben.

Kernaussagen

  • Es muss nicht alles in der Cloud gespeichert werden. Es gilt, Risiken zu minimieren und die Datenverarbeitung auf das zu beschränken, was für die Funktionalität tatsächlich nötig ist.
  • Für den sicheren Umgang mit „smarten“ Produkten fehlt es den Endanwendern an Prüf- und Einflußmöglichkeiten. Hersteller, Importeure, Verbraucher- und Datenschutzorganisationen sind daher stärker als bisher gefordert, für sichere und datenschutzfreundliche Produkte zu sorgen.
  • Hersteller sollten Sicherheit und Datenschutz als solide Basis digitalen Handelns verstehen. Regelmäßige Sicherheitsupdates müssen garantiert beim Endanwender ankommen, im Ernstfall in wenigen Tagen oder sogar Stunden.

Eine ergänzende Möglichkeit, Ihr Vertrauen in die eigenen Produkte zu zeigen, ist das Ausschreiben von Kopfgeld-Zahlungen („Bug  Bounty“) an Sicherheitsforscher, die Probleme in Produkten finden und melden. Dies kann jedoch kein Ersatz für eine fachlich versierte Produktprüfung sein, da hier nicht sichergestellt ist, wie gut, wie tief und ob überhaupt jemand prüft. Ein mickriger Geldbetrag von wenigen Hundert Euro wird außer Kinderchen, die ihr Taschengeld aufbessern wollen, niemanden anlocken und auch keine detaillierte Produktprüfung ermöglichen.
Als Minimum sollte die Produkthomepage generell eine Kontaktmöglichkeit zum Melden von Sicherheitsproblemen bieten und konkrete Informationen zur Produktsicherheit und zu wichtigen Updates liefern. Dies setzt jedoch voraus, dass sich Anwender auch aktiv informieren, wovon mehrheitlich nicht ausgegangen werden kann.

Sicher sind die Produkte aber erst, wenn Updates auch beim Endanwender installiert sind. Dazu ist es also nötig, Updates entweder komplett automatisiert auszurollen oder zumindest einen Kanal zum Endanwender aufzubauen, über den wichtige Informationen kommuniziert werden können. Ein Informationsblatt zur Produktsicherheit mit nötigen Einstellungen, Empfehlungen und Informationsmöglichkeiten ist ebenfalls sehr nützlich.
Den Anwendern kann man nur anraten, obige Punkte in Bezug auf ihren Lieferanten zu prüfen bzw. prüfen zu lassen und die Produkte genauer zu hinterfragen. Ist zum Betrieb des Produkts eine Cloud erforderlich? Wie ist sie abgesichert und zertifiziert? In welcher Jurisdiktion werden die Daten gespeichert? Was passiert im Fall einer Insolvenz oder Übernahme?

Welche Daten erhebt ein Gerät und wozu? Gibt es ein unabhängiges Audit der Software? Ist der Quellcode einsehbar? Wie, wo, wie oft und wie lange gibt es Sicherheitsupdates? Monatlich automatisch sollte hier der Standard sein – bei akuten Problemen auch schneller – wie es große Firmen wie Microsoft oder Google vormachen.
Privatanwender können all dies natürlich nicht leisten: Hier sind Hersteller, Importeure und die Verbraucher- und Datenschutzorganisationen gleichermaßen mehr gefordert, den Bereich Software genauer ins Visier zu nehmen, ansonsten wird es die Politik tun müssen. So manches Produkt, das in deutsche Lande kommt, entspricht nicht den europäischen Datenschutzbestimmungen und ist in puncto Softwaresicherheit mangelhaft.

Denke digital. Denke analog. Dann agiere klug und balanciert, unter Abwägung von Nutzen, Risiken und traditionellen Erwartungen. Und immer daran denken: Nichts verschlimmbessern und vor allem nichts kaputt machen!

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Oliver Sucker

Cyber-Security

Komplexe IT-Bedrohungen der digitalen Ära können mit ganzheitlichen Cyber-Defense-Strategien abgewehrt werden.

von Kai Grunwitz

Prävention, Erkennung, Abwehr und Reaktion sind die Grundpfeiler einer zukunftsweisenden, ganzheitlichen Cyber-Defense-Strategie. Diese Strategie ist für alle Unternehmen essenziell, die sich erfolgreich gegen die immer raffinierter und komplexer werdenden Angriffe von Cyber-Kriminellen wehren wollen.

Die Cyber-Kriminalität übt großen Druck auf Unternehmen aus. Die Motivation der Angreifer, eine IT-Infrastruktur lahmzulegen, Daten zu stehlen oder ein Unternehmen zu sabotieren, ist dabei vielfältig. Sie reicht von der Erpressung durch professionelle Kriminelle über die Unzufriedenheit oder Rache von (Ex-)Mitarbeitern bis hin zu politischen Gründen, wenn etwa Systeme von Regierungen oder Interessenverbänden angegriffen werden. Mit einer Besserung ist nicht zu rechnen, da beispielsweise die Zahl der DDoS- oder Ransomware-Attacken seit Jahren kontinuierlich zunimmt.

Prävention, Erkennung, Abwehr und Reaktion sind die Grundpfeiler einer zukunftsweisenden, ganzheitlichen Cyber-Defense-Strategie.

Beim Schutz der eigenen IT und der Abwehr zielgerichteter Angriffe haben sich vor allem drei bisher etablierte Sicherheitsverfahren als unzureichend beziehungsweise ungeeignet herauskristallisiert: die Perimeter-Absicherung; die rein auf Zugriffsbeschränkungen ausgelegten IT-Lösungen sowie die signaturbasierte Malware-Abwehr bei Endpunkten. Probleme bereiten den etablierten Schutzmechanismen vor allem die zunehmende Vernetzung und Kommunikationsvielfalt durch n-zu-n-Beziehungen von Unternehmen mit Mitarbeitern, Lieferanten, externen Dienstleistern oder Kunden sowie die relative Trägheit der signaturbasierten Malware-Abwehr.

Paradigmenwechsel durch Cyber-Defense

In der IT-Sicherheit ist daher ein Umdenken nötig, denn nur ein ganzheitlicher Ansatz kann lückenlose Cyber-Sicherheit bieten. Zentrales Merkmal ist die Erweiterung herkömmlicher Sicherheitskonzepte, die auf dem Perimeter-Schutz basieren. Neben reaktiven Maßnahmen muss eine Full-Lifecycle-Sicherheitslösung heute auch einen aktiven Schutz umfassen. Der klassische Netzwerk-Schutzwall wird dabei um proaktive Sicherheitsmechanismen ergänzt, die sich auch auf Applikationen und Daten sowie die einzelnen Endpunkte erstrecken. Cyber-Defense steht dabei für mehr als nur die Summe einzelner Sicherheitsmaßnahmen und die Kombination punktueller Ansätze, die zum Beispiel nur eine spezifische Herausforderung wie die APT-Abwehr aufgreifen. Das bedeutet auch, dass es dabei um wesentlich mehr als das reine Infrastruktur- und Technologie-Management geht. Sie stellen in der Regel lediglich die Basis für höherwertige, weitreichendere Services dar.

Am Anfang einer Cyber-Defense-Strategie steht die Analyse des individuellen Risiko-Profils (Risk-Insight). Jedes Unternehmen weist ein solches Profil auf, das durch eine Klassifizierung und Risikobewertung der schützenswerten Daten und Prozesse ermittelt werden muss. Alle folgenden Maßnahmen bauen im Rahmen einer zukunftsweisenden Cyber-Abwehr darauf auf. Die vier zentralen Grundkomponenten der Strategie sind: Prävention, Erkennung, Abwehr und Reaktion.

Die vier Phasen des Security-Lifecycles im Überblick. Quelle: NTT

Prävention auf Applikationen, Daten und Clients ausdehnen

Der klassische Perimeter-Schutz mit E-Mail-Gateways inklusive Spam- und Malware-Filter, Next-Generation-Firewalls, VPN-Systemen oder dynamischen Sandboxing-Lösungen bietet keinen hinreichenden Schutz mehr, da er beispielsweise Business-Applikationen und Daten nicht ausreichend berücksichtigt. Lösungen wie Data-Loss-Protection oder Digital-Rights-Management schließen diese Lücken.

Für Eindringlinge sind Endpunkte wie Desktops, Tablets oder Smartphones ein immer wichtigeres Einfallstor, und deshalb ist es unabdingbar, diesen Geräten auch eine höhere Gewichtung zuzuweisen. Signaturbasierte Mechanismen können gezielte Angriffe durch Malware nur schwer erkennen und abwehren, sodass moderne, intelligente Endpunkt-Lösungen unverzichtbar sind. Das bedeutet, dass zum Beispiel mit einer stärkeren Nutzung von Micro-Hypervisor-Lösungen zu rechnen ist, die eine zuverlässige Endpunktsicherung durch Isolierung von Applikationen ermögli-chen, oder auch mit einer verstärkten Überwachung der Endpunkte, um Verhaltensauffälligkeiten und deren Verbreitung frühzeitig zu erkennen und zu bewerten. Im Hinblick auf die Prävention dürfen gerade auch aktuelle Trends und Themen wie die zunehmende Cloud-Nutzung, das Internet der Dinge oder die verstärkte Vernetzung von Produktionsanlagen, Industrial-Control-Systems oder SCADA-Systemen mit der IT nicht vernachlässigt werden.

Trotz aller Vorkehrungen: Die 100-prozentige Sicherheit bleibt eine Utopie!

Ein ganzheitliches Cyber-Defense-Konzept muss nicht zuletzt auch den Faktor Mensch berücksichtigen. Die Minimierung dieser potenziellen Schwachstelle durch die Förderung von Awareness und das Training von Mitarbeitern ist ebenfalls ein wichtiger Baustein einer präventiven Cyber-Defense-Strategie.

Früherkennung implementieren

Die zunehmende Vernetzung stellt auch neue Anforderungen an die gängige Monitoring-Praxis. Es reicht nicht mehr, sich auf Systemlogs und -warnungen zu verlassen. Die Überwachung muss vielmehr auch Verhaltensanalysen der IT-Umgebung in Echtzeit erlauben. Nur so lassen sich ungewöhnliche Aktivitäten aufdecken – etwa wenn Systeme, die nichts miteinander zu tun haben, Daten tauschen oder „stille“ interne Systeme plötzlich mit externen Systemen kommunizieren. Da Unternehmen in der Regel weder die finanziellen noch die personellen Ressourcen für solche Frühwarnsysteme aufbringen können, sollten sie die Unterstützung von Managed-Security-Services (MSS)-Anbietern anfordern, die mit ihren Security-Operations-Centern (SOC) Angriffe frühzeitig erkennen. Die Analysten in diesen SOCs analysieren mithilfe von intelligenten Tools permanent den Datenverkehr. Das versetzt sie in die Lage, aus den unterschiedlichen Informationen Korrelationen herzustellen und mit ihrer fachlichen Expertise zu bewerten.

Ein SOC sollte über eine valide globale Datenbasis für ein proaktives Sicherheits-Monitoring verfügen. Nur eine derartige globale Threat-Intelligence kann die zuverlässige Basis für die Realisierung eines umfassenden Schutzes vor akuten – auch gänzlich neuen – Bedrohungen sein. Dabei kann ein weltweit agierender Provider im Unterschied zu einem rein lokal vertretenen MSS-Anbieter Meldungen und Störungen unterschiedlichster IT-Infrastrukturen von Tausenden Kunden weltweit überwachen und analysieren – und auf dieser Datenbasis dann ein Echtzeitbild der Bedrohungslage erzeugen, das wiederum für die Erstellung effizienter Cyber-Abwehrlösungen genutzt wird. Ein international vertretener Service-Anbieter wie NTT Security beispielsweise betreibt weltweit 17 SOCs sowie Forschungs- und Entwicklungszentren und beschäftigt mehr als 1 500 Sicherheitsexperten, davon mehr als 250 allein in der DACH-Region. Zudem nutzt NTT weltweit verteilte proprietäre – auf eigener IP basierende – kommerzielle und Open-Source-Honeypots und kann damit seinen Kunden ein Höchstmaß an präventiver Sicherheit bieten.

Der Cyber-Defense-Ansatz von NTT Security basiert auf den vier Grundkomponenten Prävention, Erkennung, Abwehr und Reaktion. Quelle: NTT

Notfallplan entwerfen

Trotz aller Vorkehrungen bleibt die 100-prozentige Sicherheit eine Utopie. Unternehmen sollten deshalb immer für den Ernstfall gewappnet sein und einen Notfall-Plan in der Hinterhand haben, den sie bei einem Angriff oder Leck kurzfristig in Kraft setzen, um Schaden abzuwenden oder zu minimieren. Dass dies jedoch bei den meisten Unternehmen noch nicht der Fall ist, zeigt der aktuelle NTT Security Global Threat Intelligence Report, demzufolge gerade ein Viertel der Unternehmen ausreichend auf einen Incident vorbereitet ist. Bei der Entwicklung des Notfallplans bieten erfahrene Sicherheitsexperten eine entscheidende Unterstützung. Sie helfen auch, wenn es darum geht, Response-Teams bereitzustellen, die im Fall eines Falles einen ungewollten Datenabfluss unterbinden.

Der Text ist unter der Lizenz CC BY-SA 4.0 DE verfügbar.
Lizenzbestimmungen: https://handbuch-digitalisierung.de/cc-by-sa


Informationen zu Kai Grunwitz

Wann ist Big Data sinnvoll?

Big-Data-Technologien sind nicht die einzige Lösung, wenn es um viele Daten geht. Es gibt mehrere Kriterien, die über die Art der Datenverarbeitung entscheiden.

von Peter Welker

Technisch gesehen geht es beim Trendbegriff „Big Data“ um Daten, die durch ihre schiere Menge (Volume), den benötigten Datendurchsatz und die maximale Verzögerung (Velocity) sowie durch Komplexität und Variabilität (Variety) besondere Techniken für die Datenverarbeitung und Speicherung benötigen.(1) Der Einsatz traditioneller Technologie, wie relationaler Datenbanken, stößt bei solchen Anforderungen architekturbedingt irgendwann an seine Grenzen. Dasselbe gilt für nicht konsequent auf Parallelisierung ausgelegte Programmierparadigmen zur Verarbeitung der Daten.

Zu Beginn der Big-Data-Ära um 2010 konnte man es auf vielen IT-Konferenzen und in zahlreichen Publikationen spüren: Die neuen Lösungen rund um Hadoop und NoSQL sollten vor allem die althergebrachten analytischen Applikationen (z. B. Data-Warehouse) revolutionieren und ersetzen.
Die Investitionen in klassische analytische Anwendungen haben aber keineswegs darunter gelitten. (2) Relationale Datenbanken und klassische Datenintegrationswerkzeuge sind auch nicht so limitiert, wie es die Verfechter neuer Technologie gerne proklamieren. Das Laden, Transformieren und die optimierte Aufbereitung mehrerer hundert Millionen Datensätze pro Tag ist heute auch mit kostengünstiger Hardware kein Problem. Dennoch: Auch wenn die größten relationalen DWH-Datenbanken im zweistelligen Petabyte-Bereich liegen,(3) ist in den meisten Fällen im zwei- bis dreistelligen Terabyte-Bereich Schluss. Häufig wegen Lizenz- und Supportkosten für benötigte kommerzielle Software, nicht etwa weil die Grenze der technischen Leistungsfähigkeit erreicht wäre.
Es sind vielmehr neue Anforderungen, die mit neuen Techniken implementiert werden. Zur Verdeutlichung der Entscheidungskriterien pro oder contra Big-Data-Technologie betrachten wir drei Anwendungsfälle.

Process-Data-Warehouse

Data Warehouses müssen keineswegs nur Finanzdaten aufbereiten. Ein Übertragungsnetzbetreiber aus der Energiebranche lädt täglich 60 Millionen Mess- und Applikationswerte in ein relationales DWH und speichert sie dort für zehn Jahre, um beispielsweise schadhafte Bauteile zu analysieren oder die Zuverlässigkeit von Verbrauchsprognosen zu prüfen. Dafür müssen die Daten spätestens 20 Minuten nach ihrer Erzeugung für Zeitreihen- und andere Analysen optimiert bereitstehen (Latenz). Die wichtigsten auf diesen Daten basierenden Auswertungen benötigen dann jeweils weniger als fünf Sekunden und sind somit interaktiv durchführbar.

Besonders im Energiesektor fallen bei Erzeugung und Verbrauch enorme Datenmengen an, doch nicht immer kommen Big-Data-Technologien zum Einsatz.

Es sprechen erste Kriterien für Big-Data-Technologie. Überraschenderweise ist es aber keineswegs die Datenmenge, denn trotz vieler Datensätze bewegt sich das Volumen noch im unteren Terabyte-Bereich. Allerdings sind Wide-Column-NoSQL-Datenbanken besser für Zeitreihenanalysen geeignet als ihre relationalen Pendants. Dennoch entschied sich der Betreiber aufgrund des traditionellen Know-hows seiner Mitarbeiter, der Stabilität und sicheren Verfügbarkeit relationaler Tools für die klassische Lösung mit hohem Investitionsschutz und vergleichsweise niedrigen Kosten. Und das funktioniert. Die Anwendung skaliert bei Bedarf und stärkerer Hardware auch noch um den Faktor zehn.

Messdatenlandschaft

Es wäre ein Fehler, rein fachliche Kriterien für einen Technologieentscheid zu nutzen. In einem zweiten, ganz ähnlich gelagerten Fall befüllt ein Autozulieferer zwecks Analyse der Produktionsprozesse Dutzende örtlich separierte, aber gleichartige relationale Datenbanken mit Messdaten. Inzwischen bewegt sich das Gesamtvolumen deutlich im dreistelligen Terabyte-Bereich. Alle Informationen sind innerhalb einer Stunde – ebenfalls vorwiegend für Zeitreihenanalysen – fertig aufbereitet.

Im Zuge einer Zusammenführung dieser Datenbanken und eines zunehmend operationalen Monitorings müssen nun sehr zeitnahe Analysen ermöglicht werden. Darum ist es erforderlich, die Latenz auf maximal fünf Minuten zu reduzieren. Jetzt stellen sich neue Fragen: Wie repliziert man Daten aus unterschiedlichen Orten so schnell wie möglich in ein zentrales System, wenn Hunderte von Transformationsprozessen nötig sind und ebenso viele Benutzer gleichzeitig die Daten analysieren?

Wann soll ich Big-Data-Technologien einsetzen?

Wichtige Indikatoren für den Einsatz von Big-Data-Technologien lassen sich also zum einen aus den drei „V“ ableiten: Volume, Velocity und Variety. Wenn man für ein Vorhaben also eine oder mehrere der folgenden Fragen mit Ja beantwortet, ist demnach zumindest eine genauere Technologiebetrachtung angesagt:

Verarbeitungslatenz
Wie lange nach der Entstehung von Daten müssen Muster erkannt und daraus Aktivitäten abgeleitet werden? Habe ich Anforderungen im Minuten- oder Sekundenbereich – oder sogar noch darunter?
Datenvolumen
Wie groß ist die Datenmenge, die insgesamt vorgehalten werden muss? Komme ich weit in den Terabyte-Bereich oder darüber hinaus?
Skalierbarkeit
Muss die Verarbeitung „elastisch“ sein? Also: Werden starke Schwankungen bei der Last erwartet und soll die gewählte Lösung auch noch um den Faktor 10, 100 oder 1 000 nach oben skalierbar sein? Hilft mir eventuell der Einsatz von Cloud-Diensten?
Flexibilität
Wie vielfältig ist mein verfügbares Datenmaterial? Weiß ich jetzt schon, was ich später damit machen möchte?

Andererseits spielen natürlich auch nicht-technische Kriterien eine wichtige Rolle: Das Know-how der Mitarbeiter oder die Bereitschaft einer Abteilung oder eines Unternehmens, sich für reale Fragestellungen auf neue Wege einzulassen zum Beispiel. Ein gutes Erwartungsmanagement und ausreichend Budget für Implementierungsaufwände können ebenfalls wichtige Kriterien sein: Bei ersten Fragestellungen sind nicht immer revolutionäre Antworten zu erwarten und Big-Data-Anwendungen sind nicht einfacher oder kürzer (und damit billiger) als herkömmliche Projekte.

Relationale Datenbanken und klassische Datenintegration alleine erweisen sich dabei aufgrund der nötigen Latenz irgendwann als Flaschenhals. Besser eignen sich Vorgehensweisen aus dem Internet of Things – einer Domäne für Big-Data-Anwendungen: An jedem Standort werden neue (Sensor-)Daten innerhalb von Sekunden vorbereitet und für erste Analysen eine Weile im Hauptspeicher lokaler Rechner – ähnlich einem Gateway – vorgehalten. Die Datenströme fließen gleichzeitig in einen Event-Hub in der Cloud. An diesem bedienen sich alle weiteren Transformationsprozesse, die ihre Ergebnisse in einem großen, ebenfalls cloudbasierten NoSQL-Datenbankcluster ablegen.
Hier kommen zahlreiche Big-Data-Techniken zum Einsatz: Stream-Analytics und Transformationslösungen wie Spark, Event-Hubs wie Kafka und NoSQL-Datenbanken wie Cassandra. Sie wurden ursprünglich von Facebook, LinkedIn und dem APMLab der University of California ins Leben gerufen:

  • Im Gegensatz zu traditionellen Tools sind sie konsequent auf Skalierbarkeit ausgelegt. Die meisten Lösungen laufen ohne nennenswerten Overhead auf Clustern mit Hunderten oder Tausenden Rechnern.
  • Viele Tools werden von großen Entwicklergemeinden als Open-Source-Programme weiterentwickelt.
  • Hinter den meisten Produkten stehen zudem Unternehmen, die Enterprise-Level-Support und kommerzielle Varianten mit erweitertem Funktionsumfang anbieten.
  • Sie wurden als Open-Source-Software entwickelt und an die Apache Software Foundation weitergereicht. Inzwischen gibt es dafür  auch rein kommerzielle Alternativen, beispielsweise in der Microsoft Azure Cloud (Event-Hubs, Stream-Analytics).

Bewegungsdaten

Ein weiteres Kriterium für den Einsatz neuer Technologien ist neben Datenmenge und Durchsatz bzw. Latenz auch die Datenvielfalt. Während in relationalen Datenbanken stark strukturierte Daten genutzt werden, gilt das nicht für Big-Data-Anwendungen. Auch Texte, Videos, Bilder, Geodaten oder XML- und JSON-Dateien aus Web-Click-Streams oder Applikationslogs sind relevant.
In unserem dritten Fall nutzt ein Mobilfunkbetreiber neben Geodaten und GSM-Daten aus dem Funknetz auch zahlreiche weitere Quellen für analytische Anwendungen. Da inzwischen fast jeder ein angeschaltetes Handy mit sich führt, kann der Netzbetreiber je nach Netzausbau und Art des Funkverkehrs den Aufenthaltsort eines Teilnehmers recht genau orten. Zudem können Endgeräte und zum Teil auch die Teilnehmer identifiziert werden. Die dabei anfallenden Datenmengen sind sehr groß und bedürfen umfangreicher Interpretation. Dann aber lassen sich detaillierte Bewegungsprofile erzeugen.

Natürlich dürfen aus Datenschutzgründen die Daten aller Teilnehmer nur anonymisiert verarbeitet werden, sodass keine Rückschlüsse auf Personen möglich sind. Dennoch bleiben die Möglichkeiten vielfältig. So kann man mit diesen Verfahren sehr einfach zuverlässige Aussagen über den gegenwärtigen Straßenverkehrsfluss machen, Pendlerströme visualisieren, um typische Einzugsgebiete zu erkennen, oder Transit- von regionalem Verkehr unterscheiden.

Die dabei anfallenden Datenmengen überschreiten schon in kurzer Zeit die PetabyteGrenze und sind durchaus vielfältig. Wichtig sind historische Daten, aber manche Anwendungsfälle, wie die Verkehrsbetrachtung, benötigen auch zeitnahe Werte. Zudem will man beim Speichern der Daten eine Unabhängigkeit von den Datenstrukturen sicherstellen (Variety). Während bei der Speicherung in relationalen Datenbanken im Allgemeinen die Datenstruktur vorab bekannt sein muss, ist das bei der Datenablage in File-Systemen wie Hadoop nicht der Fall. Hier genügt es, erst beim Lesen der Daten über deren Struktur Bescheid zu wissen. Das ermöglicht auch das vorausschauende Speichern von Daten, für die heute noch keine ausgearbeiteten Einsatzzwecke vorliegen, die aber mit hoher Wahrscheinlichkeit eines Tages von Bedeutung sein werden.

Alle Indikatoren zeigen also in Richtung der neuen Technologien. Und folgerichtig werden hier beispielsweise Hadoop für die langfristige Speicherung von strukturierten und unstrukturierten Daten und Spark für die Transformation und Analyse dieser Daten eingesetzt. Damit ist neben einer kostengünstigen Ablage von Massendaten auch die Skalierbarkeit für zukünftige Fachanforderungen gesichert.

Quellen:

(1) https://blogs.gartner.com/doug-laney/files/2012/01/ad949-3D-Data-Management-Controlling-Data-Volume-Velocity-and-Variety.pdf, abgerufen am 02.11.2016
(2) https://tdwi.org/Articles/2015/03/31/Dimensional-Data-Warehouses-Get-Job-Done.aspx, abgerufen am 02.11.2016
(3) https://www.guinnessworldrecords.com/world-records/largest-data-warehouse, abgerufen am 02.11.2016

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Peter Welker

Big – Smart – Fast

Unser Arbeitsalltag wird zunehmend von digitalen Daten beeinflusst. Big Data berührt alle Branchen und Märkte.

Werfen wir im Kontext der Digitalisierung einen  kurzen Blick zurück: Es wird angenommen, dass es der Menschheit im Jahr 2002 zum ersten Mal möglich war, mehr Informationen digital als analog zu speichern – der Beginn des „Digitalen Zeitalters“. Alles was heute an analogen Informationen in Bits und Bytes gewandelt werden kann, wird zu Daten. Im Zuge der Digitalisierung, die Unternehmen im Kontext betrieblicher Abläufe zu Effizienzsteigerung und damit einer verbesserten Wirtschaftlichkeit verhilft, wachsen die Daten dementsprechend exponentiell. Wir sprechen heute von Big Data. Der aus dem englischen Sprachraum stammende Begriff Big Data oder auf gut Deutsch Massendaten steht dabei grundsätzlich für große digitale Datenmengen, aber auch für deren Analyse, Nutzung, Sammlung, Verwertung und Vermarktung. In der Definition von Big Data bezieht sich das „Big“ auf die drei Dimensionen „volume“, für Umfang und Datenvolumen, „velocity“ für die Geschwindigkeit, mit der die Datenmengen generiert und transferiert werden, sowie „variety“ für die Bandbreite der Datentypen und -quellen. Erweitert wird diese Definition um die zwei V „value“ und „validity“, welche für einen unternehmerischen Mehrwert und die Sicherstellung der Datenqualität stehen.

Die gesammelten Daten können dabei aus verschiedensten Quellen stammen: Überwachungssysteme, Nutzung von Kunden- oder Bank- bzw. Bezahlkarten, jegliche elektronische Kommunikation, Navigationssysteme, GPS, Smartphones, Smart Homes, Fahrzeuge aller Art, von Behörden und Unternehmen erhobene und gesammelte Daten, Sensordaten im Kontext von IoT und Industrie.
Die Analyse, Erfassung und Verarbeitung von großen Datenmengen ist heute in vielen Bereichen alltäglich, aber verbesserungswürdig hinsichtlich Big Data.

TREND REPORT zum Thema

Unser Arbeitsalltag wird zunehmend von digitalen Daten beeinflusst. Business-Intelligence-Lösungen helfen, Geschäftsprozesse zu optimieren und Ordnung in das Big-Data-Chaos zu bringen, weiß Brian Gentile. https://trendreport.de/bi-daten-clever-nutzen/

Mit der TREND-REPORT-Redaktion sprach Tom Becker über die Herausforderungen und die Bedeutung der Datenanalyse für den Geschäftserfolg und welchen Vorteil Self-Service-Datenanalysetools bieten. https://trendreport.de/analyse-der-datenanalyse/

Datenmengen sind und werden zu groß, zu komplex, zu schnelllebig oder zu schwach strukturiert, um sie mit herkömmlichen Methoden der Datenverarbeitung auszuwerten. Aktuelle Entwicklungen von Software für die Verarbeitung von Big Data kommen neben klassischen prioritären Anbietern oft aus dem Open-Source-Bereich. Bekannt ist hier z. B. Apache Hadoop, ein freies Framework für skalierbare, verteilt arbeitende Software, die es ermöglicht, intensive Rechenprozesse mit großen Datenmengen auf Computerclustern durchzuführen. Big Data kann Geschäftsprozess-Verbesserungen in allen Funktionsbereichen von Unternehmen, vor allem aber im Bereich der Technologieentwicklung und Informationstechnik sowie des Marketings erzeugen. Die Erhebung und Verwertung der Datenmengen dient dabei im Allgemeinen der Umsetzung von Unternehmenszielen. Bisher haben vor allem große Branchen, Unternehmen und Anwendungsbereiche der Wirtschaft, Marktforschung, Vertriebs- und Servicesteuerung, Medizin, Verwaltung und Nachrichtendienste die entsprechenden digitalen Methoden für sich genutzt: Die erfassten Daten sollen weiterentwickelt und nutzbringend eingesetzt werden. Die Erhebung der Daten dient dabei meistens für konzernorientierte Geschäftsmodelle sowie Trendforschung in den sozialen Medien und Werbeanalysen, um zukunftsweisende und möglicherweise gewinnbringende Entwicklungen zu erkennen. Big Data kann die Triebfeder für innovative Geschäftsmodelle und Produkte werden. Welches Marktpotential tatsächlich in Big Data Lösungen steckt scheint nicht vorhersehbar: 2013 prognostizierte der US-Marktforscher IDC den weltweiten Umsatz für 2017 auf gut 32 Milliarden Dollar. Tatsächlich betrug er 2015 bereits 125 Milliarden.

Quellen:
Wikipedia – Data Scientist: https://de.wikipedia.org/wiki/Data_Science
Wikipedia – Big Data
Wikipedia – Business Intelligence
Martin Hilbert, Priscila López: The World’s Technological Capacity to Store, Communicate, and Compute Information. In: Science, 2011, 332(6025), S. 60-65; martinhilbert.net/WorldInfoCapacity.html (Kostenfreier Zugriff auf den Artikel). The World’s Technological Capacity to Store, Communicate, and Compute Information from 1986 to 2010. (Abgerufen am 15. April 2015 PDF).
Big Data: 32 Milliarden Dollar Umsatz bis 2017 erwartet – 125 Milliarden Dollar 2015 Realität, von: Michael Kroker. URL: https://blog.wiwo.de/look-at-it/2016/07/26/big-data-32-milliarden-dollar-umsatz-bis-2017-erwartet-125-milliarden-dollar-2015-realitaet/ (Abgerufen: 6. Dezember 2016)

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/

Smarte Lösungen für den Handel

Über die Chancen von Big Data und der Vernetzung

von Jens Lappoehn

Die Digitalisierung ist die größte technologische Revolution der letzten 200 Jahre. Sie erfasst die Wirtschaft genauso wie die Gesellschaft und verändert die Art und Weise, wie wir leben und arbeiten. Die Digitalisierung ist vor allem eines: Eine große Chance, denn viele zentrale Herausforderungen der Zukunft sind ohne digitale Technologien nicht lösbar. Telefónica Deutschland trägt als nach Kundenzahl größtes Mobilfunkunternehmen Deutschlands maßgeblich dazu bei, dass die digitale Zukunft Wirklichkeit wird. Denn wir bieten zwei zentrale Rohstoffe für die Digitalisierung: Konnektivität und Daten.
Diese Rohstoffe wollen wir nutzen. Wir sind überzeugt, dass in der Vernetzung von Dingen und der smarten Datenanalyse großes Potenzial für die Gesellschaft und die Wirtschaft steckt. Deshalb haben wir eine neue Gesellschaft, die Telefónica Germany NEXT GmbH, gegründet, die diese digitalen Wachstumsfelder vorantreibt. Auf Basis von Datenanalysen und der Vernetzung von Dingen bietet die Gesellschaft anderen Unternehmen Lösungen an, damit diese die Chancen der Digitalisierung besser nutzen können.

Milliarden Daten intelligent verknüpft

Mit über 44 Millionen Kundenanschlüssen liegt uns durch unsere normalen Geschäftsprozesse eine große Menge an Daten vor. Darunter sind vor allem solche, die ausschließlich bei uns als Netzbetreiber anfallen, beispielsweise Mobilitätsdaten. Diese entstehen, wenn Handys, z. B. beim Surfen, mit den Mobilfunkzellen kommunizieren. Täglich entstehen so mehr als vier Milliarden Datenpunkte.
Für Analysezwecke werden sie durch ein dreistufiges, TÜV-zertifiziertes Verfahren vollständig anonymisiert und im Anschluss statistisch ausgewertet. Trotz vollständiger Anonymisierung können Kunden der Verwendung ihrer Daten jederzeit wiedersprechen. Sie haben so die Möglichkeit, ihre persönlichen Präferenzen mit dem Nutzen abzuwägen, den ihre Daten für die Wirtschaft und Gesellschaft schaffen.
Intelligent verknüpft ergeben sich aus den Daten neue Erkenntnisse, die für Unternehmen unterschiedlichster Branchen ebenso wie für Kommunen, öffentliche Verkehrsbetriebe und die Gesellschaft insgesamt relevant sind. Die Erkenntnisse aus datenbasierten Analysen sind beispielsweise für Städte interessant, die unter hohem Verkehrsaufkommen leiden. Das Potenzial von Mobilfunkdaten als eine verlässliche Datenquelle für die Verkehrsplanung untersuchen wir aktuell in Stuttgart gemeinsam mit dem Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO. Zudem beteiligen wir uns an einem Pilotprojekt in Nürnberg, bei dem auf Basis von Mobilfunkdaten die Verkehrsströme und darüber die Luftverschmutzung analysiert werden.

Der Weg der Daten: vom Handy über die Anonymisierung zur Verkehrsmessung

Smarte Datenanalyse für den Handel

Präzise Daten sind nicht nur für die Verkehrsplanung hilfreich, sondern auch für den stationären Handel von großem Interesse. Online-Händler verstehen bereits sehr präzise, wie viele Kunden ihre Website besuchen, wie lange sie dort jeweils bei welchem Angebot verweilen und welche Art der Produktplatzierung für welche Zielgruppe vielversprechend ist. Auf der Grundlage dieser Kundeninformationen passen bereits viele Online-Händler ihre Angebote schnell und flexibel an die Kunden an. Wir arbeiten bei Telefónica NEXT daran, dass diese Möglichkeiten auch für den Offline-Handel, also den stationären Handel, funktionieren. Dies kommt nicht zuletzt auch den Innenstädten zugute. Unsere smarte Datenanalyse trägt dazu bei, dass der stationäre Handel Informationen über seine Zielgruppe erhält, die ihm bisher so nicht zur Verfügung standen. Wir analysieren beispielsweise mithilfe von Mobilfunkdaten Kundenströme im Umfeld einer Filiale.
Auf Basis von Daten kann der Händler seine Kunden besser verstehen und smarter mit ihnen interagieren – und nicht zuletzt seine eigenen Prozesse effizienter gestalten. Die Kunden wiederum profitieren von einem digitalen Einkaufserlebnis. Das stärkt die Position des Einzelhandels gegenüber dem Online-Handel. Händler, die online und offline Kanäle bedienen, erhalten wertvolle Informationen, wie sie diese noch besser vernetzen.

Bewegungen rund um den Store

Bislang waren Kaufhäuser und Einzelhändler auf Schätzungen angewiesen, um zu wissen, wie viele Kunden tatsächlich ihre Schaufenster passieren. Durch die smarte Datenanalyse können die Bewegungsströme vor Geschäften statistisch exakter berechnet werden, denn die Stichprobe aus anonymisierten Daten ist größer und aktueller – und nicht verzerrt durch Großereignisse oder z. B. das Wetter. Durch zusätzliche Analy­severfahren ermitteln wir beispielsweise auch, wie viele Menschen derselben Al­tersgruppe und desselben Geschlechts sich in der Nähe des Stores aufgehalten haben. Zudem können wir auf Basis der anonymisierten Daten beispielsweise typische Routen oder durchschnittliche Verweildauern bestimmter Zielgruppen berechnen. Über Roaming-Informationen ist auch die Identifikation der Zielgruppe der Touristen möglich.

Der Einzelhandel kann anhand dieser vielfältigen Informationen zum Beispiel Standorte viel besser bewerten, Öffnungszeiten optimieren, Werbung in Schaufenstern passend gestalten oder das Sortiment an die Zielgruppe anpassen. Auch Telefónica Deutschland stellte nach dem Zusammenschluss mit E-Plus mithilfe der Datenanalyse das eigene Filialnetz der Shops auf den Prüfstand. Von diesen relevanten Erfahrungen profitiert Telefónica NEXT.

Telefónica NEXT

Telefónica Deutschland hat die strategischen Wachstumsfelder „Advanced Data Analytics“ und „Internet of Things“ in einer eigenen Gesellschaft gebündelt, der Telefónica Germany NEXT GmbH mit Sitz in Berlin. Die Gesellschaft bietet anderen Unternehmen Lösungen an, damit diese die Wachstumschancen der Digitalisierung besser nutzen können. Mit „Advan­ced Data Analytics“ richtet Telefónica NEXT den Blick auf den gesellschaftlichen und wirtschaftlichen Nutzen, der sich aus der Analyse großer Datenmengen ziehen lässt. Zudem arbeitet das Unternehmen an Lösungen für das Internet der Dinge und wird mit der neuen Software-Plattform geeny.io Unternehmen dabei unterstützen, vernetzte Lösungen auch für Endverbraucher anzubieten.

In einem nächsten Schritt werden wir auch Analysen für das Innere der Stores ermöglichen. Damit erfahren Händler, wie viele und welche Kunden tatsächlich den Store betreten haben und wie lange und wo sie sich darin aufgehalten haben. So können Händler die Kundenströme viel besser verstehen und z. B. die Gestaltung ihrer Flächen optimieren oder auch den Erfolg einzelner Filialen miteinander vergleichen.
Durch die Verknüpfung von beidem – Analysen außerhalb des Stores und im Store – kann der Händler die sogenannte Customer-Journey nahezu vollständig abbilden und seine Verkaufskanäle optimieren.

Das digitale Erlebnis im vernetzten Store

Kunden erhalten datenbasiert passende Angebote von Partnern (Quelle: Quelle Telefónica Deutschland)

Wir unterstützen die Händler auch dabei, im Inneren ihrer Geschäfte digitale Technologien gewinnbringend einzusetzen – und das für beide: für Händler und Kunde. Mithilfe unserer Datenanalyse kann der Händler sein Geschäft smarter an die Bedürfnisse seiner Zielgruppe anpassen und mit seinen weiteren Verkaufskanälen vernetzen. Sei es durch stimmige Musik, passende Displays oder wertvolle digitale Zusatzinformationen. All das bietet den Kunden ein mehrere Sinne ansprechendes Erlebnis, das der Online-Handel alleine nicht ermöglicht. Dabei wird der Kontakt zu den echten Mitarbeitern nicht weniger, sondern effizienter und besser – und damit auch wirtschaftlicher für den Händler.
Für die Auswahl passender Produkte bauen wir auf einem umfangreichen internationalen Portfolio unseres spanischen Mutterkonzerns Telefónica S. A. auf. Ein Beispiel sind digitale Plakate. Sogenannte Digital Signage können mit verschiedenen relevanten und anonymisierten Daten, zum Beispiel Alter und Geschlecht der vorhandenen Kunden und Wetterdaten, verknüpft werden. So kann der Händler in Echtzeit jeweils passende Informationen oder Angebote auf den Displays präsentieren. Zusätzliche Interaktivität bieten smarte Umkleidekabinen. Der Kunde hat die Möglichkeit, Informationen über Größen- und Farbvarianten der Produkte auf einem Tablet abzurufen. Zudem kann er sich zu passenden Accessoires inspirieren und sich gewünschte Varianten von den Mitarbeitern bringen lassen.

Ein weiteres Beispiel für mehr Interaktion und gleichzeitige Effizienz sind digitale Preisschilder. Sie lassen sich vom Kunden über einen Touch-Screen bedienen und bieten ihm Zusatzinformationen zum Produkt an. Durch die zentrale Steuerung der Preisschilder kann der Händler die Fläche schneller umgestalten.

Kunden außerhalb des Stores gezielt ansprechen

Händler können von der Digitalisierung auch außerhalb ihrer Stores profitieren und mit ihrer Zielgruppe kommunizieren. Hierbei handelt es sich um spezifische Werbeangebote, die Kunden auf unterschiedlichen Wegen erreichen.

Datenschutz ist Grundvoraussetzung

Der Datenschatz ist ohne Datenschutz wertlos. Telefónica Deutschland nimmt den Datenschutz sehr ernst, denn er ist die Grundlage für die Akzeptanz von datenbasierten Geschäftsmodellen in der Gesellschaft. Deshalb ist das Herzstück der Datenanalyse ein vom TÜV zertifiziertes und von der Bundesbeauftragten für den Datenschutz und die Informationsfreiheit begleitetes Verfahren. Es sorgt dafür, dass Kundendaten über ein dreistufiges Verfahren komplett anonymisiert werden und sich auch nicht nachträglich bestimmten Personen zuordnen lassen. Trotz dieser vollständigen Anonymisierung hat jeder Kunde die freie Wahl und kann der Nutzung seiner anonymisierten Daten jederzeit widersprechen. So behält er stets die Hoheit über seine Daten.
https://analytics.telefonica.de/

Einerseits erlaubt die Plattform Axonix die datenbasierte, gezielte Ausspielung von Werbebannern beim mobilen Surfen. Andererseits können Händler mithilfe des Service O2 More Local ihre Zielgruppe per Nachricht auf dem Mobiltelefon erreichen. Mit der kostenlosen Buchung von O2 More Local erlaubt der Kunde, dass O2 seine Daten, wie Aufenthaltsort, Wetter, Tageszeit, Alter und Geschlecht, verwenden darf, um ihm Angebote von Marken per Mobile Messaging zu senden. Da die Angebote auf den individuellen Daten basieren, treffen sie mit höherer Wahrscheinlichkeit auf die Interessen des Kunden. Ihre Daten sind dabei vollständig geschützt.

Zur richtigen Zeit am richtigen Ort

Vor dem Store, im Store und in unmittelbarem Kontakt mit dem Produkt: Die Digitalisierung bietet Kunden und Händlern völlig neue Möglichkeiten der Interaktion. Wir bei Telefónica NEXT werden die Möglichkeiten der smarten Datenanalyse und der Vernetzung von Dingen weiter vorantreiben – für Angebote zur richtigen Zeit, am richtigen Ort für den richtigen Kunden.

Kernaussagen

Intelligent verknüpft ergeben sich aus den anonymisierten Daten neue Erkenntnisse, die für Unternehmen unterschiedlichster Branchen ebenso wie für Kommunen, öffentliche Verkehrsbetriebe und die Gesellschaft insgesamt relevant sind.
Mit Blick auf den Handel trägt die smarte Datenanalyse dazu bei, dass Händler Informationen über ihre Zielgruppe erhalten, die ihnen bisher so nicht zur Verfügung standen. Telefónica NEXT analysiert beispielsweise mithilfe von Mobilfunkdaten Kundenströme im Umfeld einer Filiale.
Auf Basis der Daten kann der Händler seine Kunden besser verstehen, smarter mit ihnen interagieren und der Kunde profitiert von einem digitalen Einkaufserlebnis. So kann der Einzelhandel seine Position gegenüber dem Online-Handel stärken bzw. seine Omnichannel besser miteinander vernetzen.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Jens Lappoehn

Logistik braucht IT

Nichts bewegt sich ohne eine enge Verzahnung von Logistik und IT. In Zukunft wird der 3D-Druck Dienstleistungen rund um die Logistik verändern.

Die Logistikbranche wird und muss sich im Zuge der Digitalisierung umfassend verändern. Prozesse werden mit Hilfe von neuen Technologien wie RFID, Beacons oder Pick-by-Solutions revolutioniert.
Beispielhaft sind E-Procurement und E-Marketplaces in der Beschaffungslogistik, die mit den zunehmenden Möglichkeiten des Internets überhaupt erst möglich sind. Unternehmen werden flexibler in ihren Beschaffungswegen, -zeiten und -quellen. In der Produktionslogistik wird in Zukunft mit Hilfe von Digitalen Fabriken ein gesamtes Unternehmen in vereinfachter Form abgebildet werden, von Mitarbeitern über Prozesse bis zu den IT-Anwendungen, was der Planung und Steuerung immens hilft. Durch Pick-by-Methoden kann der Kommissionierungsvorgang drastisch beschleunigt werden.

Die Prozesse der Distributionslogistik werden im Bereich der Routenplanung verbessert, was vor allem an einer verbesserten Kommunikationsmöglichkeit liegt. Das ermöglicht eine schnellere Zustellung der Lieferungen. Zusätzlicher Service wird dem Kunden durch Sendungsverfolgung geboten. In den kommenden Jahren werden sich Prozesse noch weiter verbessern, besonders in der Distributionslogistik. Autonom fahrende LKWs, Schiffe, Roboter und Drohnen werden die Zustellung, gerade auch auf der „letzten Meile“ zum Kunden revolutionieren und Personal für diese Bereiche nahezu obsolet machen.

Umfassende Änderungen werden die Logistikbranche treffen. Unternehmen müssen sich also mit  neue Technologien auseinandersetzen und in sie investieren, um konkurrenzfähig zu bleiben. Ein völlig neuer Konkurrent für Logistiker ist z.B. der 3D-Drucker. Denn wieso sollte man sich etwas liefern lassen, wenn man es sich auch zu Hause ausdrucken kann? Das geht schneller, und ist womöglich sogar noch billiger. Zur Zeit ist das Problem nicht so ernst zu nehmen, da die Möglichkeiten des 3D-Drucks noch begrenzt sind. Die meisten Dinge wird man sich schlicht liefern lassen müssen, wobei auch aktuelle Lieferzeiten in den meisten Fällen verkraftbar sind. Startup-Unternehmen haben aktuell bessere Chancen denn je.

TREND REPORT zum Thema

Heft 3/2015 „Vernetzte Gesellschaft“
„Industrie 4.0: Vision wird Realität“, Autor Chris Löwer
https://trendreport.de/industrie-4-0-vision-wird-realitaet-2/

Heft 2/16 „Standort Deutschland digital“
Reportage „IoT: Beginn der Vernetzung“, Autor Chris Löwer, https://trendreport.de/iot-beginn-der-vernetzung/

Bezüglich ihrer Konkurrenzfähigkeit geben sich deutsche Unternehmen relativ zuversichtlich. Wie realistisch diese Einschätzung ist, wird die Zeit zeigen. Wer auch immer in Zukunft führender Logistikdienstleister im deutschen Raum sein wird: Kunden profitieren von neuen Komfort. Zustellungen innerhalb von einem Tag, also Same-Day-Delivery-Modelle, werden zum Standard werden. Für Beschäftigte der Branche gestaltet sich die Lage anders: operative Berufe wie Lagerarbeiter oder auch LKW-Fahrer könnten schnell wegfallen, aber es werden neue Arbeitsplätze in Bereichen wie IT und Controlling geschaffen werden. Wie jede Neuerung bringt die Digitalisierung eben nicht nur positive Auswirkungen für Unternehmen. Neben den sich bietenden Möglichkeiten entsteht die Gefahr, den Anschluss an Konkurrenten zu verlieren und so vom Markt verdrängt zu werden. Grund genug für die BVL, ein Positionspapier zu erstellen, das die Herausforderungen für Politik und Unternehmen beschreibt und Handlungsempfehlungen gibt. Das von den Logistikexperten Professor Michael ten Hompel, Professor Jakob Rehof und Frauke Heistermann erstellte Papier definiert Logistik als „ganzheitliche Planung, Steuerung, Koordination, Durchführung und Kontrolle aller unternehmensinternen und unternehmensübergreifenden Informations- und Güterflüsse.“ Mit dieser Definition der Logistik ist die enge Verzahnung von Logistik und IT festgeschrieben, die im Positionspapier weiter ausgeführt wird.

Quelle und Textlizenz:
https://winfwiki.wi-fom.de/index.php/Einfluss_der_Digitalisierung_auf_die_Logistikbranche; Autoren: Federica Scichilone, Rico Schulte, Niklas Leppkes

Lizenzbestimmungen: https://www.gnu.org/licenses/fdl-1.2

Die digitale Revolution: einfach machen!

von Anette Bronder

Viel Lärm um nichts oder entscheidender Wettbewerbsvorteil? Bei den meisten Unternehmen ist mittlerweile angekommen, dass sie sich mit dem Thema „Digitalisierung“ beschäftigen müssen, um zukunftsfähig zu sein. Fachkräftemangel, ein schärferer Wettbewerb, Start-ups, die mit einer cleveren Idee ganze Branchen umkrempeln, neue technische Möglichkeiten – das sind die großen Herausforderungen, die die heutigen Unternehmen jetzt aktiv angehen müssen. Der Treiber für nachhaltiges Wachstum? Digitaler Fortschritt!

Fast alle Branchen werden mit Chancen und Risiken der Digitalisierung konfrontiert, auch wenn unterschiedliche Bereiche und Prozesse betroffen sind. Unternehmen können im Internet der Dinge einzelne Produkte, Herstellungsprozesse, ganze Wertschöpfungsketten oder auch komplette Geschäftsmodelle vernetzen. Und das müssen sie auch: Kunden erwarten im sogenannten „Age of the Customer“ individuelle, preisgünstige Konsumgüter und schnellen Service. Hier haben deutsche Firmen Nachholbedarf, denn das Potenzial von IoT ist laut einer Studie von PAC erst zu fünf Prozent ausgeschöpft. Es gilt: Wer die erste Halbzeit der Digitalisierung verschlafen hat, muss in der zweiten erst recht Gas geben.

Was hindert Unternehmen daran? Häufig fehlt es an Digitalisierungs-Know-how. Eine aktuelle Studie von Crisp Research ermittelte anhand eines Reifegradmodells die Fähigkeit von Führungskräften, die digitale Transformation ihrer Unternehmen voranzutreiben. Und fand heraus, dass 71 Prozent nur wenig Wissen rund um neue digitale Technologien und auch kein ausgeprägtes „Digital-First“-Denken aufweisen. Viele dieser Entscheider können durchaus konkret die Eigenschaften und Funktionen nennen, die einen „Digital Leader“ ausmachen. Dennoch fehlt ihnen an der ein oder anderen Stelle der Digitalisierungswille und auch das Wissen, es gewinnbringend umzusetzen.

Um den nötigen Sprung in die digitale Welt zu schaffen, sind Dienstleister und Produktanbieter umso mehr gefordert. Besonders branchenspezifische Anwendungen und standardisierte Plattformansätze für den einfachen Einstieg in das IoT werden dringend benötigt. Wir müssen Anwendern Schützenhilfe leisten und Lösungen anbieten, die sich schnell und einfach implementieren lassen. So nehmen wir Unternehmen die großen Ängste vor der digitalen Angriffsfläche und der Komplexität der vernetzten Welt. Eine häufig gestellte Frage: Wie viel muss ich in meinem Unternehmen digitalisieren? Ich rate immer klein anzufangen und den Digitalisierungsgrad langsam auszubauen. Auf einzelne Geräte oder Bereiche begrenzte Lösungen bieten Unternehmern die Möglichkeit, eine Vernetzung auszuprobieren und auf Potenziale für ihr gesamtes Geschäftsmodell abzuklopfen. Besonders für kleine und mittelständische Firmen, die große und riskante Investitionen scheuen, ist dies ein unkomplizierter Weg ins IoT.

Welche Strategie hin zum digitalen Unternehmen ist die richtige? Zunächst sollte man das Potenzial der Digitalisierung für sich erkennen. Maschinenbauer wie Pfannenberg, der Klimatisierungslösungen für Schaltschränke baut, oder der Küchengerätehersteller Rieber vernetzen ihre Geräte, um sie aus der Ferne zu überwachen und zu steuern. Dampfkesselproduzent Certuss geht sogar noch einen Schritt weiter: Er verbindet seine Maschinen mit der Cloud, um die gewonnenen Daten zur vorbeugenden Wartung, der sogenannten „Predictive Maintenance“, zu nutzen. Thomas Hamacher, Chief Technical Officer bei Certuss, sagt, er gehe damit auf „Spurensuche“, um anhand der interpretierten Daten die Geräte vorausschauend zu warten und die Zufriedenheit der Kunden zu erhöhen. Diese Unternehmen haben herausgefunden, wie sie digitale Lösungen für sich nutzen können, und sie haben diese Erkenntnis mithilfe einfach anwendbarer Lösungen in die Tat umgesetzt.

Um Fahrstühle, Kühlschränke oder Werksmaschinen ins Internet zu bringen, sind drei Komponenten vonnöten: Netz, Sensoren, die Daten übertragen, und die Cloud, wo die Daten intelligent ausgewertet werden.

Und von solchen Optimierungen bestehender Produkte und Dienstleistungen sowie effizienteren Strukturen und besseren Kostenstrukturen profitieren bereits viele Unternehmen. Noch aber zögern Firmen, neue Wege einzuschlagen und in das Ungewisse zu investieren. Digitale Transformation erfordert durchaus Mut und vor allem Offenheit. Das ist eine der Herausforderungen. Die andere besteht darin, richtig zu digitalisieren – mit Strategie, den richtigen Partnern und optimalen IT-Lösungen.

Auch wir Dienstleister sind in der Pflicht, denn kein Anbieter kann das Internet der Dinge alleine beherrschen. Starke Kooperationen mit Partnern und ein eng verknüpftes Ökosystem aus Infrastruktur, Plattformen und Produkten, die sich stets branchenübergreifend einsetzen lassen, ist die Voraussetzung für eine umfassende Vernetzung. So lässt sich etwa ein intelligenter Kühlschrank mit anderen Geräten zu einem Smart Home, mehrere Smart Homes mit weiteren Lösungen wie Smart Parking lassen sich zu einer Smart City vernetzen. Doch solche Möglichkeiten sind zugleich sehr komplex. Zudem wächst die Zahl der Anbieter rasant. Dies erschwert Unternehmen die Investitionsentscheidung. Know-how und Vertrauen auf allen Seiten aufzubauen ist ein Muss für IT-Anbieter. Denn wir verkaufen ja keine schnell konsumierbaren Produkte wie Milch oder Kaffee. Vielmehr geht es in der IT-Branche um langfristige, vertrauensvolle Beziehungen mit Kunden und darum, neben dem Verkäufer auch zum Berater und Partner für die Digitalisierung zu werden.

Drei Dinge sind das Grundgerüst einer erfolgreichen digitalen Transformation: Digitalisierte interne Prozesse, ein technologischer Unterbau, der die gesamte IT-Landschaft beheimatet und vernetzt, und nicht zuletzt die digitalen Geschäftsmodelle, die nah am Kunden ausgerichtet sein müssen. Diese Komponenten müssen Unternehmen mit unserer Hilfe in Angriff nehmen; nicht morgen, sondern heute. Sonst setzen sie in der digitalen Welt die Zukunft ihrer Firma aufs Spiel.

Kernaussagen

  • Wer am Markt eine Chance haben will, muss Mut zum Wandel haben und die Digitalisierung sowie die Cloud in den Mittelpunkt der eigenen Strategie stellen.
  • Häufig fühlen sich Unternehmen von der Komplexität der digitalen Welt überfordert. Digitalisierung einfach machen ist Aufgabe der Dienstleister – einen einfachen Einstieg bieten branchenspezifische Anwendungen und standardisierte Plattformen.
  • Keiner kann das IoT allein beherrschen, denn die eine Lösung für alle Zwecke gibt es nicht. Nur mit Partner-Ökosystemen lassen sich die digitalen Kundenwünsche von morgen beantworten.
  • In Zukunft dreht sich alles um die Echtzeitverarbeitung immer dichterer Datenströme aus verschiedenen Quellen; schnelle Netze, intelligente Datenanalyse-Tools und sichere Cloud-Plattformen sind der Schlüssel dazu.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Anette Bronder

Zukunft des 3D-Drucks und Industrie 4.0

Die TREND-REPORT-Redaktion im Dialog mit Prof. Dr. Welf Wawers von der Hochschule Bonn-Rhein-Sieg über das Thema 3D-Druck und die Folgen für die Industrie 4.0.

Herr Prof. Dr. Wawers, welches Potenzial hat die 3D-Drucktechnologie für das Internet of Things bzw. für Industrie 4.0?
In der Industrie 4.0 stehen intelligente Maschinen, Anlagen und Geräte, kurz cyberphysische Systeme, in Kommunikation und Kooperation mit Menschen, Logistik und Produkten. Ziel dieser Vernetzung ist die endverbrauchernahe industrielle Produktion des personalisierten Produkts, am liebsten in Echtzeit. Diese gewollt dezentralisierte Organisation kann nicht an einer zentralisierten Fertigungsstätte, beispielsweise einem Fließband in Fernost, enden. Hier muss, in logischer Konsequenz, eine disruptive Technologie wie der 3D-Druck stehen, der dann quasi die Vollendung dieses Wertschöpfungsnetzwerks bildet. Mit ihrer extrem hohen Flexibilität ist die 3D-Drucktechnologie in der Lage, die von den cyberphysischen Systemen über das Internet der Dinge gesammelten Daten zur z. B. Beanspruchung, Nutzung oder Alterung eines Produktes direkt in entsprechende bauliche Optimierungen umzusetzen. Für jedes einzelne Produkt, wohlgemerkt. Das Austauschprodukt oder Nachfolgemodell steht dann für den Nutzer passend zum Ende des Produktlebens zur Abholung bereit. Und zwar in der intelligenten Fabrik 4.0, zwei Straßenecken weiter. Tatsächlich haben jetzt schon laut der Erhebung des jungen Amsterdamer Unternehmens 3D Hubs eine Milliarde Menschen Zugang zu einer 3D-Produktionsstätte in höchstens 16 km Entfernung. Und Schätzungen gehen davon aus, dass sich die Zahl der 3D-Drucker jährlich verdoppeln wird.

Was ist in diesem Kontext dann disruptiv?
Durch die sich der 3D-Drucktechnik bedienende Fabrik 4.0 wird nahezu jeder Bereich der Produktentstehungskette beeinflusst, wenn nicht revolutioniert. Das beginnt bereits bei der Produktplanung und -bewerbung. In der konservativen Massenproduktion stellen aufwändige Studien und Feldversuche sicher, dass ein und dasselbe Produkt die Bedürfnisse eines möglichst großen Personenkreises erfüllt. Die individualisierte 3D-Drucktechnik stellt diese Sichtweise auf den Kopf. Nicht mehr das in den Forschungsabteilungen ausgeklügelte Design eines Produkts entscheidet über dessen Markterfolg, sondern wie weit sich dieses Design bei voller Funktionalität individualisieren lässt. Auch ermöglicht die 3D-Drucktechnologie die Herstellung völlig neuer Produkte mit hochkomplexem, bislang nicht herstellbarem Design. Stichwort hier ist beispielsweise der Leichtbau nach dem Vorbild von Knochenstrukturen. Reverse Engineering, die Erforschung und der Nachbau vorhandener Strukturen, erhält hier einen ganz neuen Stellenwert in den Entwicklungsabteilungen. Vor nicht minder großen Neuerungen steht die Produktion, Logistik und Lagerhaltung. Mit der 3D-Drucktechnik wird die Herstellung eines Einzelstückes genauso kostengünstig wie ein Bauteil aus der Massenproduktion. Damit wird einer der Hauptauslöser der zweiten industriellen Revolution, heute würde man sagen der Industrie 2.0, praktisch zu Grabe getragen. Die hochautomatisierte Produktion 4.0 ist darüber hinaus auch in Hochlohnländern rentabel. Die Verlagerung von Produktionsstätten nach Fernost und der damit verbundene weltweite Warentransfer sind nicht mehr erforderlich. Die Hersteller von Massenprodukten müssen dann nicht nur die Konzeption und Lage ihrer Fabrikationsstätten überdenken, sie sehen sich auch einer neuen Konkurrenz gegenüber. Mit konventionellen Fertigungsverfahren stellt der Einstieg in ein neues Produkt oftmals eine große finanzielle und logistische Herausforderung dar. Produktionslinien müssen umgestellt werden, Arbeiter an neuen Maschinen angelernt werden usw. Verglichen damit sind die Anstrengungen in der hochflexiblen 3D-Drucktechnologie minimal. Ein und dieselbe Maschine kann heute Zahnbürsten produzieren und morgen Turnschuhe. Lediglich Herstelldaten und Rohmaterial müssen ausgetauscht werden. Damit fallen für viele Firmen Hindernisse weg, die bislang den Einstieg in neue Produkte erschwerten oder gar verwehrten. Wenn wir noch einen Schritt weiterdenken, wird sich die Produktion auch in die Haushalte verlagern, die zunehmend über eigene 3D-Drucker verfügen. Einige Medien sprechen hier bereits von einer „Demokratisierung des Produkts“. Auch wenn die 3D-Drucktechnologie die konventionellen Fertigungsmethoden nicht vollständig verdrängen wird, werden durch sie tiefgreifende Veränderungen ausgelöst. Nicht nur in der Produktion, auch im Handel und in der Gesellschaft.

Wie reagiert darauf die deutsche Maschinenbaubranche? Was sollten dann deutsche Maschinenbauer tun und wie schnell wird sich der 3D-Druck verbreiten?
Die traditionell eher konservativ eingestellte deutsche Industrie scheint dieser neuen Technologie gegenüber recht aufgeschlossen zu sein. Laut einer aktuellen Studie von Ernst & Young sind deutsche Firmen beim 3D-Druck sogar weltweit führend, was die Umsätze mit 3D-Produkten angeht. In Zahlen ausgedrückt kommt Ernst & Young auf einen Jahresumsatz von fast einer Milliarde Euro, bei weltweit ca. 10 Milliarden Euro. Verglichen mit dem Gesamtumsatz des deutschen Maschinenbaus, in 2015 rund 247 Milliarden Euro, ist das aber immer noch relativ gering. Umso überraschender ist, dass von den 200 deutschen von Ernst & Young befragten Unternehmen immerhin 37 % Prozent angaben, die 3D-Drucktechnologie bereits zu nutzen. Die Diskrepanz erklärt sich wahrscheinlich dadurch, dass viele der befragten Firmen die Technik für interne Prozesse nutzen, beispielsweise den Prototypenbau, und keinen direkten Umsatz mit dem Vertrieb dieser Bauteile erzielen. Es gibt aber auch kritische Stimmen, die die deutsche Maschinenbaubranche der Technologie hinterherfahren sehen. So schrieb das manager-magazin noch 2015 von der Gefahr, dass deutsche Unternehmen den Siegeszug des 3D-Drucks verschlafen könnten. Als einer der weltweiten Vorreiter wurde hier China genannt, wo heute bereits neben kompletten Autos auch Wohnhäuser im 3-Druck erstellt werden. Während das in Deutschland derzeit noch undenkbar ist, planen die Chinesen bereits mit einem weltweiten Massenmarkt. Und die Nachfrage gibt ihnen Recht, Ägypten hat zum Beispiel schon 20 000 gedruckte Häuser geordert. Tatsache ist, dass wir weltweit gerade erst dabei sind, das immense Potenzial und die revolutionierenden Veränderungen zu begreifen, die mit der rasant anwachsenden 3D-Drucktechnologie einhergehen. Schätzungen sehen das jährliche Wachstum des Marktes bei 30 % (Roland Berger) oder sogar 34 % (Morgan Stanley). Der US-Marktforscher Gartner geht davon aus, dass bereits 2018 50 % aller Hersteller von Konsumgütern, Schwergütern und Biogütern die 3D-Drucktechnik nutzen werden. Siemens sagte 2015 für die nächsten fünf Jahre ein Anwachsen der Druckgeschwindigkeit um 400 % bei gleichzeitiger Halbierung der 3D-Druckkosten voraus. Wenn man die Zahlen der weltweit verkauften 3D-Drucker betrachtet, summieren sich diese in konservativen Schätzungen für 2020 auf ca. 25 Millionen, die wiederum Milliarden von Bauteilen ausdrucken werden. Der Zug ist also noch lange nicht abgefahren, im Gegenteil. Baldiges Aufspringen wäre aber trotzdem ratsam.

In welchen Industriezweigen wird sich der 3D-Druck zunächst durchsetzen?
Bereits lange fest etabliert ist der 3D-Druck im Prototypenbau, der ersten, als „Rapid Prototyping“ bezeichneten Anwendung. Aber auch im Werkzeugbau, Formenbau und in der Ersatzteilherstellung hat das Verfahren als „Rapid Manufacturing“ oder auch „Additive Manufacturing“ Fuß gefasst. Hier haben die großen, teilweise einzigartigen Vorteile des Verfahrens, die extrem hohe Flexibilität und die nahezu uneingeschränkte Geometriefreiheit, frühzeitig Vorbehalte gegenüber dieser neuen Technologie beiseitegeschoben. Ein gutes Beispiel ist der Spritzguss in der Kunststoffproduktion. Bis zu 70 % kann die Kühlzeit innerhalb der Zykluszeit der Serienfertigung ausmachen. Um die Kühlzeit zu reduzieren, sind im Spritzgusswerkzeug konturnahe Kühlkanäle erforderlich. Deren Herstellung bringt den konventionellen Werkzeugbau aufgrund der komplexen Geometrien oftmals an seine Grenzen, im 3D-Druck ist das problemlos herstellbar. Der nächste Schritt, den einige Hersteller schon gegangen sind, ist es, die Werkzeuge gleich ganz wegzulassen und die Kunststoffbauteile direkt im 3D-Druck herzustellen. Ermöglicht wird dies durch die rasante Zunahme der Druckgeschwindigkeit und die kontinuierliche Qualitätsverbesserung der Ausdrucke. Damit öffnet sich auch der Massenmarkt für Konsumgüter der 3D-Produktion. Ein anderer Industriezweig, der vorwiegend Individualprodukte hervorbringt und daher auch schon länger den 3D-Druck erfolgreich einsetzt, ist die Medizintechnik. Neben Zahnimplantaten können passgenaue Titan-Prothesen im 3D-Drucker hergestellt werden. Originalgetreue, schnell aufgebaute 3D-Modelle beschädigter Organe helfen bei der Operationsvorbereitung. Zukunftsvision, aber bereits im Forschungsstadium befindlich ist der 3D-Druck funktionsfähiger Organe und Stammzellen. Auch im Leichtbau, und speziell in der Luftfahrtindustrie, hat die Technologie Einzug gehalten und wird weiter wachsen. Die Geometriefreiheit des 3D-Drucks eröffnet hier neue Möglichkeiten der Gewichtseinsparung bei erhöhter Steifigkeit. Und auch der Mittelstand beginnt die Vorteile der neuen Technologie für sich zu entdecken. Einer Umfrage des Münchner Marktforschungsinstituts Pierre Audoin Consultants (PAC) im Auftrag der Freudenberg IT zufolge sind 45 % der befragten mittelständischen Fertigungsunternehmen der Meinung, dass sich mit dem Einsatz von 3D-Druckern Kosten- und Effizienzvorteile realisieren lassen, Tendenz steigend.

Gibt es anschauliche Beispiele?
Es gibt viele Beispiele dafür, dass Unternehmen, auch aus Deutschland, das Potenzial der 3D-Drucktechnologie schon erkannt haben. Im Bereich der Massenproduktion baut adidas derzeit eine „Speedfactory“ im fränkischen Ansbach auf. Dank 3D-Drucktechnik und vernetzter Maschinen sollen ab 2017 auf 4 600 m² 500 000 Paar Schuhe pro Jahr gefertigt werden, zum ersten Mal seit 30 Jahren wieder „Made in Germany“. Airbus setzt in seinem Werk in Bremen verstärkt auf den 3D-Druck und plant, 10 % seiner Ersatzteile mit diesem Verfahren selber herzustellen. 3D-gedruckte Prototypen werden bei Mercedes-Benz Lkw schon seit einigen Jahren eingesetzt, und seit September dieses Jahres bietet das Unternehmen auch erstmals Ersatzteile aus dem 3D-Drucker an. Mercedes-Benz betont dabei, dass bei der Qualität, Langlebigkeit, Zuverlässigkeit, Wirtschaftlichkeit und Funktionalität die gleichen Maßstäbe wie in der klassischen Ersatzteilproduktion angelegt werden. Auch die BMW AG benutzt bereits die 3D-Drucktechnologie. Bislang wurden damit hauptsächlich exotische Bauteile wie die im metallischen 3D-Druck hergestellte Wasserpumpe des DTM-Rennwagens hergestellt. Nun soll der 3D-Druck langfristig in die Produktionsstrategie auch für Serienteile integriert werden. BMW arbeitet dabei mit HP zusammen, das nach langem Zögern seit Mai dieses Jahres seine ersten eigenen 3D-Drucker anbietet. Überhaupt ist es verwunderlich, dass die großen Drucker-Hersteller so spät in die 3D-Drucktechnik eingestiegen sind. Canon ist seit 2015 dabei, Epson bereitet immerhin gerade den Einstieg in die 3D-Drucktechnik vor. Bei Brother und bei Lexmark sucht man derzeit noch vergeblich nach einem 3D-Drucker. Gerade diese Zurückhaltung hat aber jungen deutschen Unternehmen die Möglichkeit gegeben, sich zu entfalten. Mit SLM Solutions aus Lübeck ist 2014 der erste deutsche Hersteller von industrietauglichen 3D-Druckanlagen an die Frankfurter Börse gegangen, kurz nachdem das ebenfalls deutsche Unternehmen Voxeljet an der New Yorker Börse notiert hat. Weitere bedeutende Hersteller sind Concept Laser aus dem bayrischen Lichtenfels und EOS aus Krailling bei München, um einige zu nennen. Tatsächlich sind deutsche Hersteller industrietauglicher 3D-Druckanlagen laut der WirtschaftsWoche vom Januar 2014 ihren Mitbewerbern aus den USA und Asien technisch um Jahre voraus.

Kernaussagen

  • Die Wirkung des 3D-Drucks ist bis weit in die Gesellschaft hinein. Durch 3D-Drucker für den Heimgebrauch sprechen Experten schon von der „Demokratisierung des Produktes“.
  • Im „Rapid Prototyping“ ist der 3D-Druck bereits lange fest etabliert. Weitere Einsatzbereiche sind z. B. Werkzeugbau, Formenbau und Ersatzteilherstellung.
  • Die Produktion eines Konsumguts kann nun auch wieder in Hochlohnländern lohnenswert sein.

Mit welchen Weiterentwicklungen und Innovationen ist in den nächsten zwei bis drei Jahren zu rechnen?
Der Bereich der technischen Weiterentwicklungen der 3D-Drucktechnologie konzentriert sich auf die Erhöhung der Druckgeschwindigkeit, die Reduzierung der Druckkosten und die Verbesserung der Druckqualität. Auch in der teilweise aufwändigen und bei Metallen auch nicht ganz ungefährlichen Rohmaterialherstellung wird intensiv geforscht. Feines Pulver, sei es von Metallen oder anderen Stoffen, ist besonders reaktionsfreudig, wodurch es sich leicht entzünden kann. Ein Beispiel dafür sind Mehlstaubexplosionen in Getreidemühlen. Ein weiterer Forschungsschwerpunkt ist die Weiterentwicklung der Druckstrategie. Das betrifft beispielsweise den Ausdruck eines Bauteils aus verschiedenen Materialien oder die Herstellung kompletter, aus beweglichen Teilen bestehender Baugruppen in einem 3D-Druck, „Print-in-Place“ (PIP) genannt. Mitsubishi hat kürzlich auch den „5D-Druck“ vorgestellt. Tatsächlich handelt es sich dabei um einen 3D-Drucker mit 5 Achsen. Die hergestellten Musterbauteile, Druckkappen, halten einem drei- bis fünfmal stärkeren Berstdruck gegenüber „nur“ 3D-gedruckten Bauteilen stand. Die Technik ist also noch lange nicht ausgereizt, mit technischen Innovationen ist auch weiterhin zu rechnen. Was die Marktentwicklung und das Wachstum der 3D-Drucktechnologie angeht, gibt es zahlreiche positive Zukunftsprognosen, die bereits erwähnt wurden. Außerdem werden sich auch neue Märkte und Geschäftsmodelle eröffnen. 3D-Druck-Shops werden zunehmen. Manche nach Art der Copy-Shops, in denen man eben schnell den durchgebrochenen Hebel der Kaffeemaschine 3D-kopiert, aber auch kleine Fabrikationsstätten, die Bauteile von Einzelstücken bis zur Großserie in Lohnfertigung herstellen. Und da auch immer mehr Konsumenten über eigene 3D-Drucker verfügen, wird sich auch ein Markt für virtuelle Bauteile eröffnen, in dem statt physischer Produkte deren 3D-Design verkauft wird. Es ist auch vorstellbar, dass diese Konsumenten ihre privaten 3D-Drucker zur Bauteilherstellung auf Internetplattformen anbieten, sich also quasi „Baubörsen“ bilden werden. Natürlich werden solche Geschäftsmodelle, und auch die 3D-Druck-Shops, Fragen nach der Produkthoheit und dem Gebrauchsmusterschutz aufwerfen. Andere Geschäftsbereiche werden sich verändern müssen. Im Zuge der endverbrauchernahen, bedarfsgerechten 3D-Produktion wird es nicht mehr notwendig sein, Produkte über weite Strecken zu transportieren oder große Stückzahlen davon zu lagern. Die Logistik oder der After-Market stehen hier vor ganz neuen Herausforderungen, während die Industrie wieder im Heimatmarkt produzieren kann. Dieser Trend des „Reshorings“, der Rückkehr der Produktion in die Heimmärkte, ist derzeit weltweit zu beobachten, wie das Beispiel adidas zeigt. Abschließend, aber deswegen nicht weniger wichtig, sei noch der Aspekt des Umweltschutzes erwähnt. Der weltweite Warenverkehr stellt eine enorme Belastung der Umwelt dar. Endverbrauchernahe Produktion wird damit zur umweltgerechten Produktion. Wenn dieses Label von Politik und Gesellschaft erkannt wird, bekommen Unternehmen, die noch nicht in die 3D-Drucktechnologie eingestiegen sind und an ihren Produktionsstätten in Niedriglohnländern festhalten, ein Problem. All diese Entwicklungen werden sicher nicht innerhalb der nächsten zwei bis drei Jahre passieren, aber zumindest ihren Anfang nehmen.

Gibt es aktuelle Forschungsprojekte?
Meine Forschungsarbeiten an der Hochschule Bonn-Rhein-Sieg stehen als neuberufener Professor noch am Anfang. Derzeit bauen wir gerade mehrere Laserlabore auf. Geplant sind u. a. Forschungsarbeiten zum „Selective Laser Melting“ (SLM), dem marktführenden 3D-Druckverfahren für metallische Bauteile. Ein Thema, dem ich mich am Fraunhofer Institut für Lasertechnik bereits während meiner Studienzeit gewidmet habe. Konkrete Forschungsfragen sind beispielsweise, inwieweit sich bionische Strukturen mittels Reverse Engineering und dem 3D-Druck für technische Anwendungen, z. B. den Leichtbau, nutzbar machen lassen.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Prof. Dr. Welf Wawers

Künstliche Intelligenz

Selbstlernende Maschinen nutzen Big Data und Cloud-Computing, um laufend die abhängigen Prozesse zu optimieren.

von Andreas Fuhrich

Eine eindeutige Definition des Begriffs Künstliche Intelligenz (KI) sucht man zwar vergebens, aber zumindest für den aktuellen, die Wirtschaft betreffenden Diskurs lässt er sich relativ klar skizzieren. Im Wesentlichen lässt sich er sich dabei in die Bereiche des maschinellen Lernens und des Cognitive Computings aufteilen:
Unter maschinellem Lernen versteht man die Fähigkeit eines künstlichen Systems, aus Erfahrung Wissen zu generieren. Dabei werden nicht nur Beispiele auswendig gelernt, sondern Muster und Gesetzmäßigkeiten erkannt, wodurch es in die Lage versetzt wird, auch unbekannte Daten beurteilen zu können. Kognitive Systeme gehen bei der Humanisierung der Maschine noch einen Schritt weiter. Neben der Fähigkeit des Lernens sind sie auch in der Lage, mit Ambiguitäten und Unschärfen umzugehen. Wichtige Voraussetzungen für eine KI beim „natürlichen“ Umgang mit menschlicher Sprache oder dem Deuten von Emotionen aus einer Gesichtsmimik.

Durch die Entwicklung der Informationstechnologie sind immer größere Datenmengen (Big Data) verfügbar. Diese enthalten oft implizites Wissen, das, wenn es bekannt wäre, große wirtschaftliche oder wissenschaftliche Bedeutung hätte. Unter Data-Mining versteht man die Suche nach potenziell nützlichem Wissen in großen Datenmengen – maschinelle Lernverfahren gehören zu den Schlüsseltechnologien innerhalb dieses Gebiets. Sie unterstützen den Data-Mining-Prozess vor allem beim Aufspüren neuer Muster und Gesetzmäßigkeiten. Andererseits unterstützt der Data-Mining-Prozess aber auch das maschinelle Lernen, indem dadurch neue Lerndaten zur Verfügung gestellt werden.

Zusätzlich profitiert das maschinelle Lernen von den Entwicklungen der Cloud-Technologie, denn flexible Rechenkapazitäten und Managed Services machen den Einsatz von Machine-Learning einfacher. Die großen Cloud-Anbieter wie Amazon, Google und Microsoft bieten Machine-Learning bereits als Schnittstelle (API) an. Durch Open-Source-Projekte wie Prediction.io oder TensorFlow steht zudem Technologie frei zur Verfügung, auf der man aufsetzen kann.

Nach aktuellen Prognosen von Crisp Research werden sich die Ausgaben für Infrastruktur, Software und Plattformen, Algorithmen-Design und verbundene Dienstleistungen von rund  1,96 Mrd. Euro in 2015 auf rund 15 Mrd. Euro im Jahr 2020 nahezu verzehnfachen.(1)

Einsatzmöglichkeiten für künstliche Intelligenz entstehen dabei für nahezu alle Branchen, weshalb sich CIOs und Digitalisierungsverantwortliche darauf gefasst machen sollten, dass nicht nur unternehmensintern diese Art von Skills nachgefragt werden. Die Anzahl an Machine-Learning-Spezialisten ist begrenzt und die Schnittmenge derjenigen, die auch noch Business-Verständnis mitbringen, umso kleiner. Für Unternehmen ist es daher umso wichtiger, sich rechtzeitig um Experten für den eigenen Betreib zu bemühen, z. B. durch Kooperationen mit Universitäten, um unmittelbar die Nachwuchskräfte zu binden, die auf dem freien Arbeitsmarkt kaum zur Verfügung stehen werden.

(1) „Künstliche Intelligenz und echte Profite – Machine Learning auf dem Weg in den Mainstream“, von: Carlo Velten, 2016, URL: https://www.crisp-research.com/kunstliche-intelligenz-und-echte-profite-machine-learning-auf-dem-weg-den-mainstream/ (Abgerufen: 24.November 2016).

ERP-Systeme verwandeln IoT-Daten in optimierte Prozesse

von Stefan Issing und Peter Schulz

Um die Möglichkeiten von Industrie 4.0 voll auszuschöpfen, müssen die aus Sensorendaten gewonnenen Erkenntnisse operationalisiert und in effizientere Prozesse umgesetzt werden. Das ist die zentrale Rolle von ERP-Systemen in Indus­trie-4.0-Umgebungen.

Das Internet of Things (IoT) kann Industrieunternehmen heute Millionen an Sensorendaten liefern, aus deren Analyse sich wertvolle Erkenntnisse gewinnen lassen. Diese Informationen nur zu sammeln und auszuwerten reicht aber nicht aus. Um von diesen Big Data wirklich zu profitieren, müssen die Erkenntnisse auch zu Aktionen führen, die die Geschäftsabläufe verbessern, seien es optimierte Wartungspläne, verbesserte Service-Levels, optimierte Logistik, bessere Produkte oder die Entwicklung neuer Geschäftsmodelle.

Die IoT-Daten müssen also operationalisiert werden – und das ist die zentrale Aufgabe von ERP-Systemen in Industrie-4.0-Umgebungen. Zum einen steuern sie als Herzstück der Unternehmens-IT die Kernprozesse der Indus­trieunternehmen und sind damit naturgemäß auch für deren Optimierung durch neue Erkenntnisse zuständig; zum anderen agieren ihre Anbieter teilweise schon Jahrzehnte am Markt und verfügen deshalb über ein umfassendes Know-how dafür, welche Daten ein Unternehmen genau benötigt, um durch optimierte Geschäftsprozesse für effizientere Abläufe oder höhere Qualität zu sorgen.

Industrie 4.0 entwickelt in den allermeisten Fällen das vorhandene Geschäft weiter, anstatt es grundlegend zu verändern.

ERP-Systeme in IoT-Plattformen aus der Cloud integrieren

Ein Beispiel für die Operationalisierung von IoT-Daten im ERP-System sind optimierte Wartungsprozesse. Wenn etwa Sensoren Daten über zu hohe Temperaturen eines bestimmten Teils sammeln, sollten diese nicht nur gesammelt und registriert werden, um dann manuell darauf zu reagieren; das volle Potenzial zeigt sich erst dann, wenn auf Basis dieser Daten ein Prozess angestoßen wird, der automatisch Servicepersonal mit dem Austausch des betroffenen Teils beauftragt und damit seinen Ausfall verhindert. Operationalisieren und Automatisieren – erst durch diese Kombination kann Industrie 4.0 ihre ganze Kraft entfalten und signifikante Umsatzsteigerungen bewirken.

Stefan Issing

Im ERP-System werden dazu aber nicht sämtliche Daten benötigt, die Industrie 4.0 generiert. Deshalb muss es in eine IT-Architektur eingebunden werden, die die Erfassung, Speicherung und Filterung der Daten ermöglicht. Eine sehr gute Möglichkeit dazu bietet die Integration in IoT-Plattformen in der Cloud.
Mit diesen Plattformen lassen sich die riesigen Datenmengen, die unter anderem von den Sensoren geliefert werden, empfangen, verarbeiten, filtern und an das ERP-System weiterreichen, ohne dafür selbst ein Rechenzentrum aufbauen zu müssen, das Millionen von Transaktionen stemmen kann. Im Sinne einer ganzheitlichen IT-Landschaft wird mittelfristig auch das ERP-System selbst zunehmend in die Cloud wandern; allerdings wird sich dabei hierzulande vor allem das Private-Cloud-Modell durchsetzen. In Deutschland, aber auch in Österreich und der Schweiz sind die Unternehmen – ganz im Gegensatz etwa zu den USA – sehr zurückhaltend, wenn es darum geht, geschäftskritische Daten in die öffentliche Cloud auszulagern.

Das Geschäft nicht auf den Kopf stellen, sondern Schritt für Schritt verbessern

Peter Schulz

Beim Stichwort Internet of Things kommen vielen Menschen automatisch Unternehmen mit disruptiven Geschäftsmodellen wie der Online-Fahrdienst-Vermittler Uber oder der Video-Streaming-Dienst Netflix in den Sinn, die komplette Branchen auf den Kopf gestellt haben. Industrie 4.0 entwickelt aber in den allermeisten Fällen das vorhandene Geschäft weiter, anstatt es grundlegend zu verändern. Beim Blick auf Unternehmen, die bereits erfolgreich Industrie-4.0-Anwendungen nutzen, zeigt sich, dass die allermeisten von ihnen mit einem inkrementellen Ansatz gestartet sind. Das kann zunächst auch nur die Anbindung einer einzigen Maschine sein.

Erzielt man dadurch ein bisschen mehr Umsatz, kann das die Inspiration für einen größeren Schritt sein – beispielsweise die Integra­tion mit weiteren Datenstreams wie Wettervorhersagen oder Temperaturänderungen, die es erlauben, die Leistung einer Maschine weiter zu optimieren.
So wird durch zunehmende Vernetzung Schritt für Schritt die Fabrik von morgen entstehen, in der ERP-Lösungen mithilfe Künstlicher Intelligenz und Algorithmen sich selbst planende und steuernde Systeme unterstützen. Szenarien wie das folgende sind dann an der Tagesordnung: Zahlreiche Komponenten in einem Auto sammeln kontinuierlich Daten über ihren Zustand und können auf Basis dieser Informationen mitteilen, wann sie unter Umständen ausgetauscht werden müssen, noch bevor es zu einem möglichen Ausfall kommt.

Checkliste ERP-System in Industrie-4.0-Umgebungen

Das muss ein ERP-System für Industrie 4.0 mitbringen:
– Es lässt sich durch Konfiguration statt Modifikation flexibel an die veränderten Rahmenbedingungen anpassen.
– Es kann unterschiedlichste Datentypen verarbeiten, die von Sensoren und Geräten erzeugt werden.
– Zur Kommunikation mit den Ressourcen in der Fertigung kann es über offene Plug-and-Play-Schnittstellen unterschiedliche Produktionsleitsysteme anbinden.
– Leistungsfähige Multi- und Inter-Site-Funktionalitäten sorgen für die Steuerung des erweiterten Informationsflusses über sämtliche, auch internationale Standorte hinweg.
– Zur schnellen Anbindung neuer Partner bietet es offene und leicht konfigurierbare EDI-Schnittstellen sowie spezielle B2B-Portale.
– Um sich selbst organisierende Produktionseinheiten zu ermöglichen, unterstützt es durch Methoden wie Kanban eine hohe Automatisierung.
– Zur Echtzeit-Überwachung von Industrie-4.0-Prozessen führt es Daten und Prozesse aus mehreren Quellen in einem Enterprise-Operational-Intelligence-System zusammen.

Dazu sendet die betroffene Komponente selbstständig eine Mitteilung an den Hersteller, dass Ersatz gefertigt werden muss. In der Fabrik, in der dieser Auftrag bearbeitet wird, konfigurieren sich die Maschinen selbst so, dass das passende Teil gefertigt wird, und schicken es anschließend an den richtigen Zielort. Der Termin in der Werkstatt ist dann bereits vereinbart – denn auch darum hat sich das Auto bereits selbstständig gekümmert.

Kernaussagen

  • Um von den Big Data des Internet of Things wirklich profitieren zu können, reicht es nicht, die Daten nur zu sammeln und auszuwerten. Die Erkenntnisse müssen auch zu Aktionen führen, die die Geschäftsprozesse verbessern.
  • Diese Operationalisierung der IoT-Daten ist die Aufgabe von ERP-Systemen – denn sie steuern als Herzstück der Unternehmens-IT die Kernprozesse von Industrieunternehmen und sind damit auch für deren Optimierung zuständig.
  • Dazu sollte sich das ERP an IoT-Plattformen in der Cloud anbinden lassen. Sie bieten eine sehr gute Möglichkeit, die riesigen Datenmengen zu empfangen, zu filtern und an das ERP weiterzureichen, ohne dafür ein eigenes Rechenzentrum zu benötigen.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Stefan Issing

Informationen zu Peter Schulz

Abteilung Produktion & Fertigung

Einfluss der Digitalisierung auf Produktion & Fertigung

von Andreas Fuhrich

Unter dem Begriff Industrie 4.0 subsumiert die Bundesregierung diverse technologische Trends wie Maschine-zu-Maschine-Kommunikation und das Internet der Dinge. Sie erwartet, dass die Organisation und Steuerung der gesamten Wertschöpfungskette über den kompletten Lebenszyklus hinweg sich durch den Einzug neuer Technologien verändern wird. Grundlage bildet dabei die  Verfügbarkeit aller notwendigen Informationen in Echtzeit, durch die Vernetzung aller beteiligten Instanzen. (1)

Der Trend geht dabei weg von standardisierten, hin zu individuellen, auf den Kunden zugeschnittenen, Produkten. Durch die Möglichkeiten des 3D-Drucks und sogenannter Smart Factories  kann der Endkunde jetzt selbst unmittelbar Einfluss auf die Fertigung des Produkts nehmen, etwa über eine einfach zu nutzende CAD-Software, welche ihm kostenlos zum download bereitgestellt wird.

Cyber-physische-Fertigungseinheiten kommunizieren über das Internet der Dinge in Echtzeit sowohl miteinander als auch mit der Fertigungsanlage. Auf diese Weise werden die miteinander vernetzten Produktionsbestandteile in die Lage versetzt jederzeit auf Veränderungen zu reagieren, ohne dass die Produktionskette hierfür unterbrochen werden muss. Individuelle Kundenwünsche können auf diese Weise kosteneffizient umgesetzt werden.

Die Struktur der Vernetzung kann jedoch auch über einzelne Fertigungsanlage hinaus erweitert werden, so dass ganze selbst organisierende, unternehmensübergreifende Wertschöpfungsnetzwerke entstehen. Diese Netzwerke lassen sich beispielsweise nach Kriterien wie Kosten, Verfügbarkeit oder Ressourcenverbrauch optimieren. Die Fähigkeit, die Datenmenge der Cyber-physischen-Systeme (BigData) effektiv zu analysieren und daraus Optimierungsschritte abzuleiten wird in diesem Zusammenhang immer wichtiger.  Aufgabenbereiche von traditionellen Produktionsmitarbeitern und Wissensarbeiter, wie z.B. Datenanalysten, werden weiter zusammen wachsen. Die Erfahrung der Produktionsmitarbeiter kann in Kombination mit Big Data dazu genutzt werden Produkte weiter zu entwickeln oder neue Produkte zu fertigen. Zusätzlich können selbstlernende Systeme die in der Wertschöpfungskette entstehenden Daten laufend analysieren und darauf aufbauend die Prozesse optimieren. Unwirtschaftliche Fertigungsschritte werden durch die Analysemöglichkeiten besser erkannt und immer häufiger aufgelöst bzw. durch externe Zulieferer ersetzt. Der Komplexitätsgrad eines Unternehmens wird weiter steigen und die Vernetzung von Unternehmen nimmt immer weiter zu. Auf Plattformen entstehen bereits branchenspezifische Eco-Systems mit sich ergänzenden Dienstleistungen unterschiedlicher Unternehmen. Die Fertigungstiefe innerhalb des Unternehmens nimmt ab, dafür steigt der Aufwand die Zulieferer zu steuern und zu kontrollieren.

Entscheidend  wird daher in Zukunft der Umgang  mit kurzzyklischen Schwankungen der Märkte sein,  die zum einen aus der steigenden internationalen Vernetzung  resultieren, aber auch aus der Anforderung immer nach Kundenauftrag zu arbeiten. Der wichtigste Erfolgsfaktor für Produktionsunternehmen wird durch Vernetzung und Echtzeitanalyse der Produktion die schnelle Reaktion auf Kundenanforderungen sein. (2)

Die zunehmende Automatisierung von Produktion und Fertigung sowie das Internet der Dinge bietet auch in puncto Nachhaltigkeit ein enormes Potential. Maschinen laufen nur dann, wenn sie wirklich benötigt werden, intelligente Heiz- und Kühlsysteme regulieren die Temperatur bei höchster Ressourcenseffizienz und mittels Bodensensoren kann jeder einzelne Fleck eines Feldes optimal gedüngt und bewässert werden, um nur einige Beispiele zu nennen.
Tipp: Durch die Ersparnis an Rohstoffen und Energiekosten können sich Ausgaben in solche Technologien schon nach kurzer Zeit amortisieren.

Trends

1. Predictive Maintenance
Hersteller von Fertigungsmaschine sind durch das Internet der Dinge in der Lage Predictive Maintenance (vorausschauende Instandhaltung) anzubieten.  Über Sensoren erfassen die Maschinen kontinuierlich eigene  Zustandsdaten und übertragen diese anschließend in die Cloud des Herstellers. Dort werden die verschiedenen Daten stetig analysiert um rechtzeitig Verschleißteile auszutauschen oder bei Auffälligkeiten und auf Störung hindeutenden Mustern entsprechende Maßnahmen zu ergreifen. Produktionsausfälle durch plötzliche Standzeiten und unvorhergesehene Ausfälle werden dadurch vermieden.

2. Farming 4.0
Durch die Digitalisierung, dem Internet der Dinge und dem Einsatz cyber-physischer Systeme, entstehen auch in der Landwirtschaft Möglichkeiten nahezu sämtliche Produktionsprozesse neu zu gestalten. IoT –Sensoren erfassen beispielsweise die Menge der gegebenen Milch so wie Daten über den Stoffwechsel. Aufbauend auf diesen Daten lässt sich der optimale Melkzeitpunkt für jedes Tier ermitteln. Außerdem werden dadurch auch Krankheiten früh erkannt.

3. Augmented Reality (AR)
Unter Augmented Reality versteht man die computergestützte Erweiterung der Realitätswahrnehmung. Vor allem visuelle AR-Devices werden immer häufiger in der Produktion eingesetzt.  Hier können beispielsweise AR-Brillen dem Träger wichtige Informationen zur Verfügung stellen, wie etwa millimetergenaue Positionsdaten für das nächste Einbauteil, oder auch eine Schritt-für-Schritt-Anleitung.

4. Individualisierung
Während früher Ingenieure aufwendig die Maschinensteuerung für unterschiedliche Produkte anpassen mussten, genügt mittlerweile eine einfachere Benutzeroberfläche. Ausgeklügelte Automatismen intelligenter Maschinen übernehmen dann autonom die Fertigung. Durch Smart Factories und 3D-Druck wird so sogar der Endkunde in die Lage versetzt selbst zum Produzenten zu werden. Kleinserien und Einzelstücke lassen sich kostengünstig herstellen. Individuelle Wünsche, z.B. im Oberflächendesign, lassen sich selbst kurzfristig noch ändern und realisieren, ohne dass dafür die Produktion heruntergefahren werden müsste.

5. Kollaborierende Roboter (Cobots)
Kollaborierende Industrieroboter entlasten in einem gemeinsamen Arbeitsprozess den Menschen und unterstützen ihn bei seiner Tätigkeit. Durch kognitive Systeme werden sie zudem in die Lage versetzt die Bedürfnisse der Mitarbeiter selbst zu erkennen und dementsprechend zu reagieren. So können sie beispielsweise schwere Gegenstände heben um die Montage zu erleichtern oder auch benötigte Ersatzteile und Werkzeuge beschaffen.

Quellen und Textlizenz:
(1) Platform Industrie 4.0: Umsetzungsstrategie Industrie 4.0 April 2015, Seite 8. URL https://www.bmwi.de/BMWi/Redaktion/PDF/I/industrie-40-verbaendeplattform-bericht,property=pdf,bereich=bmwi2012,sprache=de,rwb=true.pdf (Abgerufen 5. Dezember)
(2) Fallstudienarbeit „Einsatz von Big Data im Bereich Produktion“ von Stefan Schulte, Nicolai Schütte, 2015. URL https://winfwiki.wi-fom.de/index.php/Einsatz_von_Big_Data_im_Bereich_Produktion (Abgerufen: 5. Dezember 2016);

Lizenz: https://www.gnu.org/licenses/fdl-1.2

Abteilung Vertrieb

Einfluss der Digitalisierung auf den Vertrieb

Digitaler Vertrieb bedeutet, dass die Vermarktung und der Absatz über digitale Vertriebswege erfolgen. Anders ausgedrückt heißt das, dass der digitale Vertrieb in erster Linie das Internet als Vertriebskanal nutzt, um mit den Kunden zu kommunizieren, die Leistungen bereitzustellen und Geschäfte abzuwickeln. Die Umsätze durch E-Commerce werden auch 2017 weiter steigen. Dies zeigt eindeutig, dass es sich für Unternehmen lohnt, die Arbeit in eine hochwertige Internetvermarktung zu investieren.

Ein Beispiel: Durch den Einsatz eines Produktdatenmanagements (PIM) ist ein Unternehmen nicht nur für den Online-Auftritt gut gerüstet und bietet den Käufern ausreichend Informationen für das Produkt, sondern optimiert auch gleichzeitig die eigenen Geschäftsprozesse. Alle relevanten Informationen zu einem Produkt sind zentral abrufbar. Bei der Entwicklung neuer Produkte kann leichter auf bereits vorhandene Komponenten o. Ä. zurückgegriffen werden. Der gesamte Aufbau hat also weit mehr Nutzen als den reinen Vorteil im Internethandel.

Die jeweils eingesetzte Technologie sollte dem Vertrieb einen Informationsvorsprung verschaffen. Durch die systematische Informationsbeschaffung und -analyse von Kunden, Märkten und Konkurrenten soll die Erzielung eines komparativen Wettbewerbsvorteils generiert werden. Weiterhin ist eine Reduktion der Prozesskomplexität von Bedeutung. Anhand technologisch stringenter Prozessabläufe können Beschleunigungen und Vereinfachungen der Vertriebsaktivitäten erreicht und Arbeitsentlastungen realisiert werden. Außerdem können durch den digitalisierten Technologieeinsatz Kostensenkungspotenziale ausgeschöpft werden. So gewährt die Digitalisierung Möglichkeiten der Prozessauslagerung oder -verkürzung, der Eliminierung von Markteintrittsbarrieren sowie die differenzierte Betreuung von Kunden. Aufgrund dieser Chancen sind auch kleine oder mittelständische Unternehmen in der Lage, sich in internationalen Märkten zu positionieren, da beispielsweise der Aufbau lokaler Vertriebsstrukturen durch Online-Shops umgangen werden kann. Weiterhin erlauben digitale Technologien durch strategische Kommunikation eine Schaffung von Bekanntheit und Optimierung des Images. Dem Unternehmen wird es ermöglicht, seine Leistungen werblich zu positionieren, und hohe Kontaktfrequenzen vieler digitaler Medien generieren eine Wahrnehmung der kommunikationspolitischen Maßnahmen durch die potenziellen Kunden in kurzer Zeit. Letztlich sollten digitale Technologien eine Effektivitätssteigerung für den Vertrieb eröffnen. Diese ist begründet in Absatzsteigerungen durch den wirkungsvollen Einsatz der Vertriebsmaßnahmen, in der Reduktion von Streuverlusten sowie in der erhöhten Erreichbarkeit potenzieller und bereits akquirierter Kunden.

Jedem Unternehmer sollte bewußt sein, von welcher zentralen Bedeutung eine sauber strukturierte Datenpflege und -ablage ist und wie sehr doch die Online-Promotion mittlerweile in die Vertriebskanäle der Unternehmen Einzug gehalten hat. Und durch die überwiegend kostenlos von Google & Co. bereitgestellten Instrumente und Dienste ist dies auch ein wesentlich günstigerer Vertriebsweg als beispielsweise die Printmedien. Zudem greift der Produktkatalog im Online-Shop stets auf die aktuellen zentral vorgehaltenen Daten zurück.

Digitalisierung bedeutet aber auch den Vertriebsaußendienst mit neuen mobilen Lösungen auszustatten. Ziel ist es, beim Kunden vor Ort die wichtigsten Kundendaten parat zu haben, um auf Kundenfragen reagieren zu können. Tablets und Beratungs-Apps bieten bislang nicht gekannte Möglichkeiten, komplexe Themen und Pro­duk­te einfach, fast spielerisch dem Kunden zu vermitteln. Auf diese Weise können viele Dienstleister ihre Servicequalität in der Kun­denberatung weiter verbessern und damit ihre Marktposition gegenüber dem Wettbewerb stärken. Bewährt hat es sich beispielsweise, den in der jeweiligen Produktkategorie erfolgreichsten Ver­triebs­mitarbeiter in die App-Entwick­lung einzubinden.

Dies gewährleistet, dass die wichtigsten fach­lichen Informationen und relevanten Verkaufsargumente integriert und sinnvoll miteinander verknüpft werden. Damit die Produktinformationen auch nach­vollziehbar sowie anschaulich für den Vertrieb aufbereitet werden, empfiehlt sich die Erstel­lung eines App-Storyboards.
Dieses visualisiert die Erfolgs­story des ausgewählten Vertriebsmit­arbeiters, d. h. die Vorgehensweise, die sich in der Beratung seiner Kunden bewährt hat. Seine einzelnen Vor­ge­hens­schrit­te wer­den in gezeichneten Screen-Bildern festgehalten und diese dann zur App-Story miteinander verbunden. Darüber hinaus werden im App-Storyboard mit einem Usa­bility-Experten die Interaktionen und Animationen festgehalten, die ein­gebunden werden sollen, und pro Screen-Bild vermerkt. Für das Unternehmen ist damit der erste Schritt hin zu einem mobilen Vertrieb erfolgreich vollzogen.

Vorteile durch den digitalen Vertrieb:

  • Vertriebsreichweiten erweitern durch Online-Shops, SEO und Bewegtbild
  • Agil reagieren auf veränderte Marktbedinungen und Nutzerverhalten
  • Personalisierte Ansprache von Kunden durch Mailingkampagnen, Newsletter & Co.
  • Sharing und viraler Vertrieb über soziale Netzwerke und mobile Endgeräte
  • Höhere Effizienz durch digitale und zentrale Produktdatenhaltung über PIM-Systeme

Innovationen und Trends im digitalen Vertrieb:

  • Einsatz von PIM-Lösungen
  • Leadgenerierung auf Basis von Algorhitmen
  • Omni- und Multichannel-Vertriebsstrategien für den stationären Handel
  • Cross-Selling über Partner-Shops und in sozialen  Netzwerken
  • SMS und mobiles Text-Marketing
  • Bewegtbildkommunikation in Form von Screencasts und Produktvideos
  • Social-Media-Marketing
  • Aufbau der eigenen Social-Media-Präsenz
  • Einsatz von Content-Marketing und Suchmaschinenoptimierung
  • Produktplattformen für mobile Endgeräte
  • Produktunterstützung und Abverkauf durch die Entwicklung von Mobile-Apps für Smartphones und Tablets
  • Business-Intelligence und Big-Data-Datenauswertung
  • Anbindung an Mobile- und E-Payment-Lösungen
  • Anbindung an eigene CRM-Lösungen
  • Webinare und E-Learning-Angebote etablieren zur Vertriebsunterstützung
  • Kundenbeziehungen aufbauen durch soziale Netzwerke
  • Augmented Reality und Virtual Reality für Produktpräsentation und Interaktion
  • Einsatz von kognitiven und algorithmengestützten Systemen wie zum Beispiel „Predictive-Leadscoring-Softwarelösungen“ (Anhand von bestimmten Mustern erkennt eine Software die Qualität von Leads und unterstützt damit das Sales­team bei seiner Arbeit.)

Vertrieb per IoT

Beispiel: IoT – Vertriebsformen

Die Anwendungsmöglichkeiten des Internets der Dinge sind in den Bereichen Marketing und Vertrieb bisher maßgeblich durch den US-amerikanischen Online-Versandhändler Amazon vorangetrieben worden. Dieser experimentiert mit den verschiedensten Technologien, um den Online-Handel immer stärker in den Alltag der Kunden einzubinden. Die Vorteile liegen dabei auf der Hand: Die Marktanteile können erhöht und der Umsatz pro Kunde kann gesteigert werden. Auch neue Kunden können durch die Innovationen angelockt werden, was ebenfalls zu einer Umsatzsteigerung führt. Ab Mitte 2016 sind die ersten Dash-Buttons nun auch in Deutschland angekommen. Der Preis dafür liegt momentan bei fünf Euro. Amazon erstattet die Anschaffungskosten für den Button nach der ersten Bestellung, die über das Device ausgeführt wurde.

Der im Jahr 2015 auf dem US-Markt eingeführte Amazon Dash Button ermöglicht es dem Kunden, auf Knopfdruck vordefinierte Bestellungen von Verbrauchsgütern aufzugeben. Nachdem ein Kunde einen solchen Button bestellt hat, wird dieser mit der dazugehörigen Smartphone-App konfiguriert.
Durch die Konfigurierung kann festgelegt werden, welcher Artikel in welcher Menge nach dem „Knopfdruck“ bestellt wird. Es besteht zum einen die Möglichkeit, sich einen komplett selbst konfigurierbaren Dash-Button zu bestellen, aber aufgrund von umfangreichen Kooperationen mit namhaften Verbrauchsmittelherstellern können auch Dash-Buttons für bestimmte Produkte geordert werden. Es handelt sich dabei um Produkte wie Waschmittel, Kaffeekapseln, Rasierklingen oder Körperpflegeprodukte.

Nach der Betätigung des Dash-Buttons wird automatisch eine Bestellung erzeugt, welche in der dazugehörigen Smartphone-App bestätigt werden muss. Prinzipiell kann die Bestellung zwar vollkommen autonom aufgebeben werden, die Authentifizierung durch den Kunden soll jedoch die Möglichkeit bieten, versehentlich ausgelöste Bestellungen zu korrigieren oder auch die zu bestellende Menge abzuändern. Bei den bestellbaren Mengen handelt es sich dabei hauptsächlich um größere Vorratspackungen, da beispielsweise die Versendung einer einzelnen Flasche Spülmittel nur in den seltensten Fällen wirtschaftlich ist. Durch die Möglichkeit, Bestellungen zu bündeln, können jedoch auch kleinere Einheiten angeboten werden. Die benötigten Produkte werden dabei in festgelegten Zeiträumen gesammelt und dann zusammen bestellt. Auf diese Weise lässt sich eine Art „Einkaufszettel“ erstellen, welcher dann zu einem beliebigen Zeitpunkt abgearbeitet wird. Amazon selbst sieht diese Art der Bestellung jedoch nur als Zwischenschritt an, da in Zukunft selbst ein Knopfdruck überflüssig werden kann und Gegenstände ihre benötigten Verbrauchsgegenstände autonom bestellen können.

Dash Amazon Replenishment: Derzeit entwickelt Amazon in Zusammenarbeit mit verschiedenen Großgeräteherstellern ein Konzept für autonome Haushaltsgeräte. Vergleichbar mit den „Smarten Verkaufsautomaten“ im stationären Einzelhandel, sollen diese dann selbstständig fehlende Ressourcen erkennen und diese nachbestellen. Dafür bieten sich z. B. Waschmaschinen, Kaffeeautomaten, Wasserfilter, Kühlschränke oder Drucker an. Sollte beispielsweise ein Drucker erkennen, dass mit dem aktuellen Tintenvorrat nur noch eine geringe Anzahl an Seiten gedruckt werden kann, könnte dieser selbstständig neue Farbpatronen bestellen.

Quellen und Textlizenz:
https://winfwiki.wi-fom.de/index.php/Einfluss_der_Digitalisierung_auf_den_Vertrieb; Autoren: Christian Müller-Vorrink, Lars Ivanusic, Julia Rosada
https://winfwiki.wi-fom.de/index.php/Einfluss_des_Internet_der_Dinge_auf_den_Einzelhandel#Marketing_und_Vertrieb; Autor(en): Kai Schlüsener, Manuel Wester
https://winfwiki.wi-fom.de/index.php/Promotion_von_Produktdaten_bei_Google; Autoren: Ebru Tirhis, Robert Trojanowski, Falk vom Schemm
Titel der Arbeit: Promotion von Produktdaten bei Google, Hochschule und Studienort: FOM Essen
Quelle: https://trendreport.de/apps-fuer-finanzdienstleister/

Lizenzbestimmungen: https://www.gnu.org/licenses/fdl-1.2

IoT und Industrie 4.0

Unternehmen starten die Digitalisierung von der Produktion aus. Ihr Ziel sollte die „Integrated Industry“ sein. Dabei gilt es, die Chancen des Internets der Dinge zu nutzen.

Die Digitalisierung eines Unternehmens geht von der Produktion aus. Im HANDBUCH DIGITALISIERUNG gehen wir daher explizit auf den „Integrated-Industry-Ansatz“ ein. Dieser zeichnet sich durch ganzheitliche Konzepte und Services aus, die nicht im Alleingang, sondern nur in Form von strategischen Allianzen bewältigt werden können. Gerade das ist für deutsche Unternehmen eine überaus attraktive Möglichkeit, sich zu differenzieren. In naher Zukunft wird eine Welt mit 50 Milliarden vernetzten Dingen eine völlig neue Grundlage für Geschäftsmodelle darstellen. Die Bausteine für das Internet der Dinge und Industrie 4.0 sind vorhanden. Jetzt geht es darum, diese Technologien zu nutzen und in erfolgsversprechende Geschäftsmodelle zu überführen.

Der Mittelstand, aber auch Großunternehmen, sollten sich an den Gedanken des „Digital Enterprise“ gewöhnen und ihren Weg finden.

Buchkapitel / Inhalte:

  • Cyber-Physical-Systems
    Intelligente, hochautomatisierte Verarbeitung im Fokus
  • Industrial Internet
    Das IoT für die Industrie
  • Internet der Dinge vs. Sicherheit
    Es bedarf einer neuen Sicherheitskultur.
  • Smart Data
    Daten analysieren, fundierte Entscheidungen treffen und kluge Verknüpfungen legen.
  • Logistik 4.0
    Impulse für eine neue Logistik

Experten und Autoren:

  • Wolfgang Dorst
    (Redaktioneller Fachbeitrag)
    Bereichsleiter Industrie 4.0, Bitkom e.V.
  • Prof. Dr. Welf Wawers
    (Redaktioneller Fachbeitrag)
    Elektrotechnik, Maschinenbau und Technikjournalismus Hochschule Bonn Rhein Sieg

Hier können Sie das vollständige Themenexposé herunterladen