Beiträge

Finanzierung der Digitalisierung

von Udo Rettberg

Die sichere und nachhaltige Finanzierung der Digitalisierung gilt als eine ganz wesentliche Voraussetzung dafür, dass dieser Megatrend auch in Zukunft nachhaltig alle seine Stärken und Vorteile wird ausspielen können.

Als Geldgeber für Finanzierungen haben sich in der Vergangenheit nicht zuletzt ältere und über die Dekaden hinweg finanziell bestens bestückte Generationen gezeigt. Diese „German Entrepreneurs“ hatten sich durch harte Arbeit während ihres Berufslebens eine Menge Erspartes beiseitegelegt. Heute tun sich diese Kapitalgeber, die durch ihre Risikobereitschaft einst als Rückgrat zum „deutschen Wirtschaftswunder“ beigetragen haben, schwer. Früher hatten sie ihr Risikokapital in sichtbare und ertastbare Produkte, Technologien und auch in bekannte Dienstleistungen investiert. Sie konnten also die von ihnen finanzierten Produkte sehen, spüren, fühlen, ertasten, riechen und vor allem in physischer Form auch im Alltag nutzen. Doch die Zeiten haben sich geändert. Und so ist festzustellen, dass aus dieser Betrachtungsweise eine Art Generationenkonflikt resultiert. Die in der Regel noch sehr jungen Unternehmen der Digitalisisierungsbranche beklagen nämlich, dass potenziellen potenten Geldgebern das Verständnis für die Situation fehlt. Die Digitalisierung spielt sich in der Regel in der weitgehend anonymen Datenwelt in der sogenannten „Cloud“ ab. Sie ist daher nichts, was tastbar oder anfassbar wäre.

Diese zwischen 1980 und 1999 geborenen Menschen, die im Angelsächsischen als „Millennials“ bezeichnet werden, sind quasi in das Digitalisierungs-Zeitalter hineingeboren und hineingewachsen. Die Mehrheit dieser Digitalisierungs-Ureinwohner verfügt (von Ausnahmen abgesehen) jedoch nicht unbedingt über größere Kapitalmengen. Diese Generation nutzt praktisch ihre Erfahrungen in der digitalisierten Welt zur Entwicklung neuer Finanzierungsformen und -plattformen. Dabei werden von den Gründungsvätern der Digitalisierung alle Register gezogen und auch eher im Verborgenen blühende Möglichkeiten in der VC-Finanzierung, der Fusions-Finanzierung (per LBO und MBO) und Sanierungsfinanzierung genutzt.
Auch die öffentliche Hand sieht sich in der Pflicht, für Start-ups und Neulinge spezielle staatliche Finanzierungen zu kreieren und z. B. über Förderbanken dann für Wachstumszwecke zur Verfügung zu stellen.  Die zahlreichen Ideen der Digitalisierung sollen auf eine breite Finanzierungsbasis stoßen, um nicht zuletzt auch eine zu starke Konzentration der Marktmacht zu verhindern.

Und so könnten Unternehmen der Datenökonomie bei ihren Finanzierungs-Anstrengungen während der verschiedenen Stufen ihrer Geschichte und Entwicklung inzwischen sowohl mehr Finanzierungsformen als auch anderen bislang weitgehend verschlossenen Kapitalquellen vertrauen als das bei den Firmengründern der „old economy“ der Fall war. Angefangen bei der Gründungsfinanzierung  per Bankkredite und Gründungsdarlehen über staatliche Förderprogramme (z. B. über die Kreditanstalt für Wiederaufbau oder andere Entwicklungsbanken) und der dann im weiteren Verlauf anstehenden Kapitalbeschaffung über Venture-Capital (Risikokapital) bieten sich im weiteren Verlauf der Historie zahlreiche andere Formen an.
Disziplin beim Umgang mit Kapital ist eine der wesentlichen Voraussetzungen,  damit Technologiefirmen auch einige Jahre nach der Gründung noch beständig wachsen können. Dabei geht es bei der Finanzierung dann im Prinzip vor allem um die Beschaffung von Eigenkapital (in der Regel über Aktien) auf der einen sowie von Fremdkapital (meist über Kredite, Anleihen, Schuldverschreibungen etc.) auf der anderen Seite.

Mobile Economy

Ortsungebunden und immer erreichbar. Smartphones und Tablets stellen den „Arbeitsplatz“ in Frage und ermöglichen neue flexible Arbeitsweisen.

von Brigitte Kasper

Die Initialzündung für „Mobile“ kam sicherlich durch die Einführung von iPhone und iPad. Mit einem Mal genügte es nicht mehr, mit dem Handy nur zu telefonieren und ein paar SMS zu versenden. Zwar konnte man mit den damaligen mobilen Geräten auch schon z. B. Musik hören, fotografieren und E-Mails empfangen und versenden, jedoch geschah das noch mehr oder weniger halbherzig bzw. war auf nicht allzu viele geschäftliche Nutzer begrenzt. Mit den neuen Prestigeobjekten, die zudem durch eine neuartige Bedienung glänzten, eröffnete sich ihren Nutzern so nach und nach die Welt der Applikationen (Apps), d. h., von kleinen, auf dem Gerät gespeicherten oder ladbaren Programmen, über die man sich – zum Teil spielerisch – immer neue Anwendungen, Nutzen und Mehrwerte erschloss. Andere Hersteller zogen mit den sogenannten Smartphones und Tablet-PCs nach, für die nun ihrerseits ein kaum noch zu überblickendes App-Universum entstand.

Mittlerweile geht es nicht mehr ohne. Mobile ist zu einem gesamtgesellschaftlichen Phänomen geworden – sowohl privat als auch im Business. Mancherorts heißt es nicht mehr „Mobile First“, sondern „Mobile Only“. Es wird mobil gelebt, gespielt, gearbeitet, gelernt, eingekauft, bezahlt und Geld überwiesen. Kaum ein Unternehmensbereich oder eine Branche kommt noch ohne mobile Arbeitsmittel aus, sei es im Vertrieb, in der Kundenberatung oder im Außendienst, in der Logistik oder im Handwerk. Moderne Apps machen es möglich, von überall her z. B. auf weiterführende Informationen oder Unternehmens- und Kundendaten zuzugreifen, um so die Kundengespräche oder auch Finanzberatungen durch aktuelle Fakten untermauern zu können. Oder vor Ort gewonnene Messdaten via App und Mobilfunk in den Unternehmensserver zu senden, um sie dort zu speichern und auszuwerten.

Die Zahlen sprechen für sich: Laut dem aktuellen Ericsson-Mobility-Report wird die Anzahl der Smartphone-Verträge 2016 weltweit auf 3,9 Mrd. steigen. Nahezu 90 % der Kunden werden dann die schnellen WCDMS/HSPA- und LTE-Netze nutzen. In Deutschland werden insgesamt voraussichtlich 27,9 Mio. Geräte über den Ladentisch gehen, so die Prognose des Digitalverbands Bitkom. 76 % aller Bundesbürger ab 14 und bis 69 Jahre nutzen bereits ein Smartphone und mit ihm auch das mobile Internet. Das Tablet hingegen läuft langsam Laptop und Notebook den Rang ab.

Nach ihrem Siegeszug im Privaten krempeln Smartphone und Tablet nun die Arbeitswelt um und ermöglichen neue Arbeitsweisen – losgelöst von Raum und Zeit. Wie aus dem aktuellen „Adobe Enterprise Mobile Survey“ hervorgeht, setzen 75 % der hiesigen Firmen inzwischen Enterprise-Mobile-Apps für tägliche Arbeiten ein, beispielsweise für eine verbesserte Kommunikation der Mitarbeiter untereinander, mit Kunden oder auch in Sales-Prozessen – auch von unterwegs und außerhalb der „normalen“ Arbeitszeiten. Vertrieb, Marketing, Kundenberatung usw. werden sich in einem Maß den mobilen Möglichkeiten anpassen müssen, das heute noch gar nicht abzuschätzen ist. So wie die Kunden jederzeit, überall und flexibel erreichbar sind, erwarten sie es auch von ihren Geschäftspartnern. Starre und archaische Hierarchien, bislang erfolgreiche Geschäftsmodelle und Märkte sowie bestehende Wertschöpfungsketten müssen hinterfragt und gegebenenfalls aufgebrochen werden. Neue Denkweisen und Geschäftsmodelle müssen her. Nicht umsonst fordert der VDE mehr „Californian Spirit“ statt „German Angst“. Er sieht die Digitalisierung als Feuerprobe für Deutschland 4.0. Kaum auszudenken, würde man hier den Anschluss an die USA und Asien verlieren.

Wann ist Big Data sinnvoll?

Big-Data-Technologien sind nicht die einzige Lösung, wenn es um viele Daten geht. Es gibt mehrere Kriterien, die über die Art der Datenverarbeitung entscheiden.

von Peter Welker

Technisch gesehen geht es beim Trendbegriff „Big Data“ um Daten, die durch ihre schiere Menge (Volume), den benötigten Datendurchsatz und die maximale Verzögerung (Velocity) sowie durch Komplexität und Variabilität (Variety) besondere Techniken für die Datenverarbeitung und Speicherung benötigen.(1) Der Einsatz traditioneller Technologie, wie relationaler Datenbanken, stößt bei solchen Anforderungen architekturbedingt irgendwann an seine Grenzen. Dasselbe gilt für nicht konsequent auf Parallelisierung ausgelegte Programmierparadigmen zur Verarbeitung der Daten.

Zu Beginn der Big-Data-Ära um 2010 konnte man es auf vielen IT-Konferenzen und in zahlreichen Publikationen spüren: Die neuen Lösungen rund um Hadoop und NoSQL sollten vor allem die althergebrachten analytischen Applikationen (z. B. Data-Warehouse) revolutionieren und ersetzen.
Die Investitionen in klassische analytische Anwendungen haben aber keineswegs darunter gelitten. (2) Relationale Datenbanken und klassische Datenintegrationswerkzeuge sind auch nicht so limitiert, wie es die Verfechter neuer Technologie gerne proklamieren. Das Laden, Transformieren und die optimierte Aufbereitung mehrerer hundert Millionen Datensätze pro Tag ist heute auch mit kostengünstiger Hardware kein Problem. Dennoch: Auch wenn die größten relationalen DWH-Datenbanken im zweistelligen Petabyte-Bereich liegen,(3) ist in den meisten Fällen im zwei- bis dreistelligen Terabyte-Bereich Schluss. Häufig wegen Lizenz- und Supportkosten für benötigte kommerzielle Software, nicht etwa weil die Grenze der technischen Leistungsfähigkeit erreicht wäre.
Es sind vielmehr neue Anforderungen, die mit neuen Techniken implementiert werden. Zur Verdeutlichung der Entscheidungskriterien pro oder contra Big-Data-Technologie betrachten wir drei Anwendungsfälle.

Process-Data-Warehouse

Data Warehouses müssen keineswegs nur Finanzdaten aufbereiten. Ein Übertragungsnetzbetreiber aus der Energiebranche lädt täglich 60 Millionen Mess- und Applikationswerte in ein relationales DWH und speichert sie dort für zehn Jahre, um beispielsweise schadhafte Bauteile zu analysieren oder die Zuverlässigkeit von Verbrauchsprognosen zu prüfen. Dafür müssen die Daten spätestens 20 Minuten nach ihrer Erzeugung für Zeitreihen- und andere Analysen optimiert bereitstehen (Latenz). Die wichtigsten auf diesen Daten basierenden Auswertungen benötigen dann jeweils weniger als fünf Sekunden und sind somit interaktiv durchführbar.

Besonders im Energiesektor fallen bei Erzeugung und Verbrauch enorme Datenmengen an, doch nicht immer kommen Big-Data-Technologien zum Einsatz.

Es sprechen erste Kriterien für Big-Data-Technologie. Überraschenderweise ist es aber keineswegs die Datenmenge, denn trotz vieler Datensätze bewegt sich das Volumen noch im unteren Terabyte-Bereich. Allerdings sind Wide-Column-NoSQL-Datenbanken besser für Zeitreihenanalysen geeignet als ihre relationalen Pendants. Dennoch entschied sich der Betreiber aufgrund des traditionellen Know-hows seiner Mitarbeiter, der Stabilität und sicheren Verfügbarkeit relationaler Tools für die klassische Lösung mit hohem Investitionsschutz und vergleichsweise niedrigen Kosten. Und das funktioniert. Die Anwendung skaliert bei Bedarf und stärkerer Hardware auch noch um den Faktor zehn.

Messdatenlandschaft

Es wäre ein Fehler, rein fachliche Kriterien für einen Technologieentscheid zu nutzen. In einem zweiten, ganz ähnlich gelagerten Fall befüllt ein Autozulieferer zwecks Analyse der Produktionsprozesse Dutzende örtlich separierte, aber gleichartige relationale Datenbanken mit Messdaten. Inzwischen bewegt sich das Gesamtvolumen deutlich im dreistelligen Terabyte-Bereich. Alle Informationen sind innerhalb einer Stunde – ebenfalls vorwiegend für Zeitreihenanalysen – fertig aufbereitet.

Im Zuge einer Zusammenführung dieser Datenbanken und eines zunehmend operationalen Monitorings müssen nun sehr zeitnahe Analysen ermöglicht werden. Darum ist es erforderlich, die Latenz auf maximal fünf Minuten zu reduzieren. Jetzt stellen sich neue Fragen: Wie repliziert man Daten aus unterschiedlichen Orten so schnell wie möglich in ein zentrales System, wenn Hunderte von Transformationsprozessen nötig sind und ebenso viele Benutzer gleichzeitig die Daten analysieren?

Wann soll ich Big-Data-Technologien einsetzen?

Wichtige Indikatoren für den Einsatz von Big-Data-Technologien lassen sich also zum einen aus den drei „V“ ableiten: Volume, Velocity und Variety. Wenn man für ein Vorhaben also eine oder mehrere der folgenden Fragen mit Ja beantwortet, ist demnach zumindest eine genauere Technologiebetrachtung angesagt:

Verarbeitungslatenz
Wie lange nach der Entstehung von Daten müssen Muster erkannt und daraus Aktivitäten abgeleitet werden? Habe ich Anforderungen im Minuten- oder Sekundenbereich – oder sogar noch darunter?
Datenvolumen
Wie groß ist die Datenmenge, die insgesamt vorgehalten werden muss? Komme ich weit in den Terabyte-Bereich oder darüber hinaus?
Skalierbarkeit
Muss die Verarbeitung „elastisch“ sein? Also: Werden starke Schwankungen bei der Last erwartet und soll die gewählte Lösung auch noch um den Faktor 10, 100 oder 1 000 nach oben skalierbar sein? Hilft mir eventuell der Einsatz von Cloud-Diensten?
Flexibilität
Wie vielfältig ist mein verfügbares Datenmaterial? Weiß ich jetzt schon, was ich später damit machen möchte?

Andererseits spielen natürlich auch nicht-technische Kriterien eine wichtige Rolle: Das Know-how der Mitarbeiter oder die Bereitschaft einer Abteilung oder eines Unternehmens, sich für reale Fragestellungen auf neue Wege einzulassen zum Beispiel. Ein gutes Erwartungsmanagement und ausreichend Budget für Implementierungsaufwände können ebenfalls wichtige Kriterien sein: Bei ersten Fragestellungen sind nicht immer revolutionäre Antworten zu erwarten und Big-Data-Anwendungen sind nicht einfacher oder kürzer (und damit billiger) als herkömmliche Projekte.

Relationale Datenbanken und klassische Datenintegration alleine erweisen sich dabei aufgrund der nötigen Latenz irgendwann als Flaschenhals. Besser eignen sich Vorgehensweisen aus dem Internet of Things – einer Domäne für Big-Data-Anwendungen: An jedem Standort werden neue (Sensor-)Daten innerhalb von Sekunden vorbereitet und für erste Analysen eine Weile im Hauptspeicher lokaler Rechner – ähnlich einem Gateway – vorgehalten. Die Datenströme fließen gleichzeitig in einen Event-Hub in der Cloud. An diesem bedienen sich alle weiteren Transformationsprozesse, die ihre Ergebnisse in einem großen, ebenfalls cloudbasierten NoSQL-Datenbankcluster ablegen.
Hier kommen zahlreiche Big-Data-Techniken zum Einsatz: Stream-Analytics und Transformationslösungen wie Spark, Event-Hubs wie Kafka und NoSQL-Datenbanken wie Cassandra. Sie wurden ursprünglich von Facebook, LinkedIn und dem APMLab der University of California ins Leben gerufen:

  • Im Gegensatz zu traditionellen Tools sind sie konsequent auf Skalierbarkeit ausgelegt. Die meisten Lösungen laufen ohne nennenswerten Overhead auf Clustern mit Hunderten oder Tausenden Rechnern.
  • Viele Tools werden von großen Entwicklergemeinden als Open-Source-Programme weiterentwickelt.
  • Hinter den meisten Produkten stehen zudem Unternehmen, die Enterprise-Level-Support und kommerzielle Varianten mit erweitertem Funktionsumfang anbieten.
  • Sie wurden als Open-Source-Software entwickelt und an die Apache Software Foundation weitergereicht. Inzwischen gibt es dafür  auch rein kommerzielle Alternativen, beispielsweise in der Microsoft Azure Cloud (Event-Hubs, Stream-Analytics).

Bewegungsdaten

Ein weiteres Kriterium für den Einsatz neuer Technologien ist neben Datenmenge und Durchsatz bzw. Latenz auch die Datenvielfalt. Während in relationalen Datenbanken stark strukturierte Daten genutzt werden, gilt das nicht für Big-Data-Anwendungen. Auch Texte, Videos, Bilder, Geodaten oder XML- und JSON-Dateien aus Web-Click-Streams oder Applikationslogs sind relevant.
In unserem dritten Fall nutzt ein Mobilfunkbetreiber neben Geodaten und GSM-Daten aus dem Funknetz auch zahlreiche weitere Quellen für analytische Anwendungen. Da inzwischen fast jeder ein angeschaltetes Handy mit sich führt, kann der Netzbetreiber je nach Netzausbau und Art des Funkverkehrs den Aufenthaltsort eines Teilnehmers recht genau orten. Zudem können Endgeräte und zum Teil auch die Teilnehmer identifiziert werden. Die dabei anfallenden Datenmengen sind sehr groß und bedürfen umfangreicher Interpretation. Dann aber lassen sich detaillierte Bewegungsprofile erzeugen.

Natürlich dürfen aus Datenschutzgründen die Daten aller Teilnehmer nur anonymisiert verarbeitet werden, sodass keine Rückschlüsse auf Personen möglich sind. Dennoch bleiben die Möglichkeiten vielfältig. So kann man mit diesen Verfahren sehr einfach zuverlässige Aussagen über den gegenwärtigen Straßenverkehrsfluss machen, Pendlerströme visualisieren, um typische Einzugsgebiete zu erkennen, oder Transit- von regionalem Verkehr unterscheiden.

Die dabei anfallenden Datenmengen überschreiten schon in kurzer Zeit die PetabyteGrenze und sind durchaus vielfältig. Wichtig sind historische Daten, aber manche Anwendungsfälle, wie die Verkehrsbetrachtung, benötigen auch zeitnahe Werte. Zudem will man beim Speichern der Daten eine Unabhängigkeit von den Datenstrukturen sicherstellen (Variety). Während bei der Speicherung in relationalen Datenbanken im Allgemeinen die Datenstruktur vorab bekannt sein muss, ist das bei der Datenablage in File-Systemen wie Hadoop nicht der Fall. Hier genügt es, erst beim Lesen der Daten über deren Struktur Bescheid zu wissen. Das ermöglicht auch das vorausschauende Speichern von Daten, für die heute noch keine ausgearbeiteten Einsatzzwecke vorliegen, die aber mit hoher Wahrscheinlichkeit eines Tages von Bedeutung sein werden.

Alle Indikatoren zeigen also in Richtung der neuen Technologien. Und folgerichtig werden hier beispielsweise Hadoop für die langfristige Speicherung von strukturierten und unstrukturierten Daten und Spark für die Transformation und Analyse dieser Daten eingesetzt. Damit ist neben einer kostengünstigen Ablage von Massendaten auch die Skalierbarkeit für zukünftige Fachanforderungen gesichert.

Quellen:

(1) https://blogs.gartner.com/doug-laney/files/2012/01/ad949-3D-Data-Management-Controlling-Data-Volume-Velocity-and-Variety.pdf, abgerufen am 02.11.2016
(2) https://tdwi.org/Articles/2015/03/31/Dimensional-Data-Warehouses-Get-Job-Done.aspx, abgerufen am 02.11.2016
(3) https://www.guinnessworldrecords.com/world-records/largest-data-warehouse, abgerufen am 02.11.2016

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Peter Welker

Smarte Lösungen für den Handel

Über die Chancen von Big Data und der Vernetzung

von Jens Lappoehn

Die Digitalisierung ist die größte technologische Revolution der letzten 200 Jahre. Sie erfasst die Wirtschaft genauso wie die Gesellschaft und verändert die Art und Weise, wie wir leben und arbeiten. Die Digitalisierung ist vor allem eines: Eine große Chance, denn viele zentrale Herausforderungen der Zukunft sind ohne digitale Technologien nicht lösbar. Telefónica Deutschland trägt als nach Kundenzahl größtes Mobilfunkunternehmen Deutschlands maßgeblich dazu bei, dass die digitale Zukunft Wirklichkeit wird. Denn wir bieten zwei zentrale Rohstoffe für die Digitalisierung: Konnektivität und Daten.
Diese Rohstoffe wollen wir nutzen. Wir sind überzeugt, dass in der Vernetzung von Dingen und der smarten Datenanalyse großes Potenzial für die Gesellschaft und die Wirtschaft steckt. Deshalb haben wir eine neue Gesellschaft, die Telefónica Germany NEXT GmbH, gegründet, die diese digitalen Wachstumsfelder vorantreibt. Auf Basis von Datenanalysen und der Vernetzung von Dingen bietet die Gesellschaft anderen Unternehmen Lösungen an, damit diese die Chancen der Digitalisierung besser nutzen können.

Milliarden Daten intelligent verknüpft

Mit über 44 Millionen Kundenanschlüssen liegt uns durch unsere normalen Geschäftsprozesse eine große Menge an Daten vor. Darunter sind vor allem solche, die ausschließlich bei uns als Netzbetreiber anfallen, beispielsweise Mobilitätsdaten. Diese entstehen, wenn Handys, z. B. beim Surfen, mit den Mobilfunkzellen kommunizieren. Täglich entstehen so mehr als vier Milliarden Datenpunkte.
Für Analysezwecke werden sie durch ein dreistufiges, TÜV-zertifiziertes Verfahren vollständig anonymisiert und im Anschluss statistisch ausgewertet. Trotz vollständiger Anonymisierung können Kunden der Verwendung ihrer Daten jederzeit wiedersprechen. Sie haben so die Möglichkeit, ihre persönlichen Präferenzen mit dem Nutzen abzuwägen, den ihre Daten für die Wirtschaft und Gesellschaft schaffen.
Intelligent verknüpft ergeben sich aus den Daten neue Erkenntnisse, die für Unternehmen unterschiedlichster Branchen ebenso wie für Kommunen, öffentliche Verkehrsbetriebe und die Gesellschaft insgesamt relevant sind. Die Erkenntnisse aus datenbasierten Analysen sind beispielsweise für Städte interessant, die unter hohem Verkehrsaufkommen leiden. Das Potenzial von Mobilfunkdaten als eine verlässliche Datenquelle für die Verkehrsplanung untersuchen wir aktuell in Stuttgart gemeinsam mit dem Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO. Zudem beteiligen wir uns an einem Pilotprojekt in Nürnberg, bei dem auf Basis von Mobilfunkdaten die Verkehrsströme und darüber die Luftverschmutzung analysiert werden.

Der Weg der Daten: vom Handy über die Anonymisierung zur Verkehrsmessung

Smarte Datenanalyse für den Handel

Präzise Daten sind nicht nur für die Verkehrsplanung hilfreich, sondern auch für den stationären Handel von großem Interesse. Online-Händler verstehen bereits sehr präzise, wie viele Kunden ihre Website besuchen, wie lange sie dort jeweils bei welchem Angebot verweilen und welche Art der Produktplatzierung für welche Zielgruppe vielversprechend ist. Auf der Grundlage dieser Kundeninformationen passen bereits viele Online-Händler ihre Angebote schnell und flexibel an die Kunden an. Wir arbeiten bei Telefónica NEXT daran, dass diese Möglichkeiten auch für den Offline-Handel, also den stationären Handel, funktionieren. Dies kommt nicht zuletzt auch den Innenstädten zugute. Unsere smarte Datenanalyse trägt dazu bei, dass der stationäre Handel Informationen über seine Zielgruppe erhält, die ihm bisher so nicht zur Verfügung standen. Wir analysieren beispielsweise mithilfe von Mobilfunkdaten Kundenströme im Umfeld einer Filiale.
Auf Basis von Daten kann der Händler seine Kunden besser verstehen und smarter mit ihnen interagieren – und nicht zuletzt seine eigenen Prozesse effizienter gestalten. Die Kunden wiederum profitieren von einem digitalen Einkaufserlebnis. Das stärkt die Position des Einzelhandels gegenüber dem Online-Handel. Händler, die online und offline Kanäle bedienen, erhalten wertvolle Informationen, wie sie diese noch besser vernetzen.

Bewegungen rund um den Store

Bislang waren Kaufhäuser und Einzelhändler auf Schätzungen angewiesen, um zu wissen, wie viele Kunden tatsächlich ihre Schaufenster passieren. Durch die smarte Datenanalyse können die Bewegungsströme vor Geschäften statistisch exakter berechnet werden, denn die Stichprobe aus anonymisierten Daten ist größer und aktueller – und nicht verzerrt durch Großereignisse oder z. B. das Wetter. Durch zusätzliche Analy­severfahren ermitteln wir beispielsweise auch, wie viele Menschen derselben Al­tersgruppe und desselben Geschlechts sich in der Nähe des Stores aufgehalten haben. Zudem können wir auf Basis der anonymisierten Daten beispielsweise typische Routen oder durchschnittliche Verweildauern bestimmter Zielgruppen berechnen. Über Roaming-Informationen ist auch die Identifikation der Zielgruppe der Touristen möglich.

Der Einzelhandel kann anhand dieser vielfältigen Informationen zum Beispiel Standorte viel besser bewerten, Öffnungszeiten optimieren, Werbung in Schaufenstern passend gestalten oder das Sortiment an die Zielgruppe anpassen. Auch Telefónica Deutschland stellte nach dem Zusammenschluss mit E-Plus mithilfe der Datenanalyse das eigene Filialnetz der Shops auf den Prüfstand. Von diesen relevanten Erfahrungen profitiert Telefónica NEXT.

Telefónica NEXT

Telefónica Deutschland hat die strategischen Wachstumsfelder „Advanced Data Analytics“ und „Internet of Things“ in einer eigenen Gesellschaft gebündelt, der Telefónica Germany NEXT GmbH mit Sitz in Berlin. Die Gesellschaft bietet anderen Unternehmen Lösungen an, damit diese die Wachstumschancen der Digitalisierung besser nutzen können. Mit „Advan­ced Data Analytics“ richtet Telefónica NEXT den Blick auf den gesellschaftlichen und wirtschaftlichen Nutzen, der sich aus der Analyse großer Datenmengen ziehen lässt. Zudem arbeitet das Unternehmen an Lösungen für das Internet der Dinge und wird mit der neuen Software-Plattform geeny.io Unternehmen dabei unterstützen, vernetzte Lösungen auch für Endverbraucher anzubieten.

In einem nächsten Schritt werden wir auch Analysen für das Innere der Stores ermöglichen. Damit erfahren Händler, wie viele und welche Kunden tatsächlich den Store betreten haben und wie lange und wo sie sich darin aufgehalten haben. So können Händler die Kundenströme viel besser verstehen und z. B. die Gestaltung ihrer Flächen optimieren oder auch den Erfolg einzelner Filialen miteinander vergleichen.
Durch die Verknüpfung von beidem – Analysen außerhalb des Stores und im Store – kann der Händler die sogenannte Customer-Journey nahezu vollständig abbilden und seine Verkaufskanäle optimieren.

Das digitale Erlebnis im vernetzten Store

Kunden erhalten datenbasiert passende Angebote von Partnern (Quelle: Quelle Telefónica Deutschland)

Wir unterstützen die Händler auch dabei, im Inneren ihrer Geschäfte digitale Technologien gewinnbringend einzusetzen – und das für beide: für Händler und Kunde. Mithilfe unserer Datenanalyse kann der Händler sein Geschäft smarter an die Bedürfnisse seiner Zielgruppe anpassen und mit seinen weiteren Verkaufskanälen vernetzen. Sei es durch stimmige Musik, passende Displays oder wertvolle digitale Zusatzinformationen. All das bietet den Kunden ein mehrere Sinne ansprechendes Erlebnis, das der Online-Handel alleine nicht ermöglicht. Dabei wird der Kontakt zu den echten Mitarbeitern nicht weniger, sondern effizienter und besser – und damit auch wirtschaftlicher für den Händler.
Für die Auswahl passender Produkte bauen wir auf einem umfangreichen internationalen Portfolio unseres spanischen Mutterkonzerns Telefónica S. A. auf. Ein Beispiel sind digitale Plakate. Sogenannte Digital Signage können mit verschiedenen relevanten und anonymisierten Daten, zum Beispiel Alter und Geschlecht der vorhandenen Kunden und Wetterdaten, verknüpft werden. So kann der Händler in Echtzeit jeweils passende Informationen oder Angebote auf den Displays präsentieren. Zusätzliche Interaktivität bieten smarte Umkleidekabinen. Der Kunde hat die Möglichkeit, Informationen über Größen- und Farbvarianten der Produkte auf einem Tablet abzurufen. Zudem kann er sich zu passenden Accessoires inspirieren und sich gewünschte Varianten von den Mitarbeitern bringen lassen.

Ein weiteres Beispiel für mehr Interaktion und gleichzeitige Effizienz sind digitale Preisschilder. Sie lassen sich vom Kunden über einen Touch-Screen bedienen und bieten ihm Zusatzinformationen zum Produkt an. Durch die zentrale Steuerung der Preisschilder kann der Händler die Fläche schneller umgestalten.

Kunden außerhalb des Stores gezielt ansprechen

Händler können von der Digitalisierung auch außerhalb ihrer Stores profitieren und mit ihrer Zielgruppe kommunizieren. Hierbei handelt es sich um spezifische Werbeangebote, die Kunden auf unterschiedlichen Wegen erreichen.

Datenschutz ist Grundvoraussetzung

Der Datenschatz ist ohne Datenschutz wertlos. Telefónica Deutschland nimmt den Datenschutz sehr ernst, denn er ist die Grundlage für die Akzeptanz von datenbasierten Geschäftsmodellen in der Gesellschaft. Deshalb ist das Herzstück der Datenanalyse ein vom TÜV zertifiziertes und von der Bundesbeauftragten für den Datenschutz und die Informationsfreiheit begleitetes Verfahren. Es sorgt dafür, dass Kundendaten über ein dreistufiges Verfahren komplett anonymisiert werden und sich auch nicht nachträglich bestimmten Personen zuordnen lassen. Trotz dieser vollständigen Anonymisierung hat jeder Kunde die freie Wahl und kann der Nutzung seiner anonymisierten Daten jederzeit widersprechen. So behält er stets die Hoheit über seine Daten.
https://analytics.telefonica.de/

Einerseits erlaubt die Plattform Axonix die datenbasierte, gezielte Ausspielung von Werbebannern beim mobilen Surfen. Andererseits können Händler mithilfe des Service O2 More Local ihre Zielgruppe per Nachricht auf dem Mobiltelefon erreichen. Mit der kostenlosen Buchung von O2 More Local erlaubt der Kunde, dass O2 seine Daten, wie Aufenthaltsort, Wetter, Tageszeit, Alter und Geschlecht, verwenden darf, um ihm Angebote von Marken per Mobile Messaging zu senden. Da die Angebote auf den individuellen Daten basieren, treffen sie mit höherer Wahrscheinlichkeit auf die Interessen des Kunden. Ihre Daten sind dabei vollständig geschützt.

Zur richtigen Zeit am richtigen Ort

Vor dem Store, im Store und in unmittelbarem Kontakt mit dem Produkt: Die Digitalisierung bietet Kunden und Händlern völlig neue Möglichkeiten der Interaktion. Wir bei Telefónica NEXT werden die Möglichkeiten der smarten Datenanalyse und der Vernetzung von Dingen weiter vorantreiben – für Angebote zur richtigen Zeit, am richtigen Ort für den richtigen Kunden.

Kernaussagen

Intelligent verknüpft ergeben sich aus den anonymisierten Daten neue Erkenntnisse, die für Unternehmen unterschiedlichster Branchen ebenso wie für Kommunen, öffentliche Verkehrsbetriebe und die Gesellschaft insgesamt relevant sind.
Mit Blick auf den Handel trägt die smarte Datenanalyse dazu bei, dass Händler Informationen über ihre Zielgruppe erhalten, die ihnen bisher so nicht zur Verfügung standen. Telefónica NEXT analysiert beispielsweise mithilfe von Mobilfunkdaten Kundenströme im Umfeld einer Filiale.
Auf Basis der Daten kann der Händler seine Kunden besser verstehen, smarter mit ihnen interagieren und der Kunde profitiert von einem digitalen Einkaufserlebnis. So kann der Einzelhandel seine Position gegenüber dem Online-Handel stärken bzw. seine Omnichannel besser miteinander vernetzen.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Jens Lappoehn

Logistik braucht IT

Nichts bewegt sich ohne eine enge Verzahnung von Logistik und IT. In Zukunft wird der 3D-Druck Dienstleistungen rund um die Logistik verändern.

Die Logistikbranche wird und muss sich im Zuge der Digitalisierung umfassend verändern. Prozesse werden mit Hilfe von neuen Technologien wie RFID, Beacons oder Pick-by-Solutions revolutioniert.
Beispielhaft sind E-Procurement und E-Marketplaces in der Beschaffungslogistik, die mit den zunehmenden Möglichkeiten des Internets überhaupt erst möglich sind. Unternehmen werden flexibler in ihren Beschaffungswegen, -zeiten und -quellen. In der Produktionslogistik wird in Zukunft mit Hilfe von Digitalen Fabriken ein gesamtes Unternehmen in vereinfachter Form abgebildet werden, von Mitarbeitern über Prozesse bis zu den IT-Anwendungen, was der Planung und Steuerung immens hilft. Durch Pick-by-Methoden kann der Kommissionierungsvorgang drastisch beschleunigt werden.

Die Prozesse der Distributionslogistik werden im Bereich der Routenplanung verbessert, was vor allem an einer verbesserten Kommunikationsmöglichkeit liegt. Das ermöglicht eine schnellere Zustellung der Lieferungen. Zusätzlicher Service wird dem Kunden durch Sendungsverfolgung geboten. In den kommenden Jahren werden sich Prozesse noch weiter verbessern, besonders in der Distributionslogistik. Autonom fahrende LKWs, Schiffe, Roboter und Drohnen werden die Zustellung, gerade auch auf der „letzten Meile“ zum Kunden revolutionieren und Personal für diese Bereiche nahezu obsolet machen.

Umfassende Änderungen werden die Logistikbranche treffen. Unternehmen müssen sich also mit  neue Technologien auseinandersetzen und in sie investieren, um konkurrenzfähig zu bleiben. Ein völlig neuer Konkurrent für Logistiker ist z.B. der 3D-Drucker. Denn wieso sollte man sich etwas liefern lassen, wenn man es sich auch zu Hause ausdrucken kann? Das geht schneller, und ist womöglich sogar noch billiger. Zur Zeit ist das Problem nicht so ernst zu nehmen, da die Möglichkeiten des 3D-Drucks noch begrenzt sind. Die meisten Dinge wird man sich schlicht liefern lassen müssen, wobei auch aktuelle Lieferzeiten in den meisten Fällen verkraftbar sind. Startup-Unternehmen haben aktuell bessere Chancen denn je.

TREND REPORT zum Thema

Heft 3/2015 „Vernetzte Gesellschaft“
„Industrie 4.0: Vision wird Realität“, Autor Chris Löwer
https://trendreport.de/industrie-4-0-vision-wird-realitaet-2/

Heft 2/16 „Standort Deutschland digital“
Reportage „IoT: Beginn der Vernetzung“, Autor Chris Löwer, https://trendreport.de/iot-beginn-der-vernetzung/

Bezüglich ihrer Konkurrenzfähigkeit geben sich deutsche Unternehmen relativ zuversichtlich. Wie realistisch diese Einschätzung ist, wird die Zeit zeigen. Wer auch immer in Zukunft führender Logistikdienstleister im deutschen Raum sein wird: Kunden profitieren von neuen Komfort. Zustellungen innerhalb von einem Tag, also Same-Day-Delivery-Modelle, werden zum Standard werden. Für Beschäftigte der Branche gestaltet sich die Lage anders: operative Berufe wie Lagerarbeiter oder auch LKW-Fahrer könnten schnell wegfallen, aber es werden neue Arbeitsplätze in Bereichen wie IT und Controlling geschaffen werden. Wie jede Neuerung bringt die Digitalisierung eben nicht nur positive Auswirkungen für Unternehmen. Neben den sich bietenden Möglichkeiten entsteht die Gefahr, den Anschluss an Konkurrenten zu verlieren und so vom Markt verdrängt zu werden. Grund genug für die BVL, ein Positionspapier zu erstellen, das die Herausforderungen für Politik und Unternehmen beschreibt und Handlungsempfehlungen gibt. Das von den Logistikexperten Professor Michael ten Hompel, Professor Jakob Rehof und Frauke Heistermann erstellte Papier definiert Logistik als „ganzheitliche Planung, Steuerung, Koordination, Durchführung und Kontrolle aller unternehmensinternen und unternehmensübergreifenden Informations- und Güterflüsse.“ Mit dieser Definition der Logistik ist die enge Verzahnung von Logistik und IT festgeschrieben, die im Positionspapier weiter ausgeführt wird.

Quelle und Textlizenz:
https://winfwiki.wi-fom.de/index.php/Einfluss_der_Digitalisierung_auf_die_Logistikbranche; Autoren: Federica Scichilone, Rico Schulte, Niklas Leppkes

Lizenzbestimmungen: https://www.gnu.org/licenses/fdl-1.2

Internet of Things

Smart Things kommunizieren über das Internet der Dinge miteinander, wodurch neue Möglichkeiten automatischer Prozesse entstehen.

von Andreas Fuhrich

Statt selbst Gegenstand der menschlichen Aufmerksamkeit zu sein, soll das „Internet der Dinge“ den Menschen bei seinen Tätigkeiten unmerklich unterstützen. Dabei bezeichnet das Internet of Things (IoT) die Verknüpfung eindeutig identifizierbarer physischer Objekte mit einer virtuellen Repräsentation in einer internetähnlichen Struktur.

Die automatische Identifikation mittels RFID wird oft als Grundlage für das Internet der Dinge angesehen. Allerdings kann eine eindeutige Identifikation von Objekten auch mittels anderer Identifikationsverfahren, wie Strichcode oder 2D-Code, erfolgen. Bauteile wie Sensoren und Aktoren erweitern die Funktionalität um die Erfassung von Zuständen bzw. die Ausführung von Aktionen.

Ziel des IoT ist die automatische Übertragung von Zustandsdaten realer Dinge in die virtuelle Welt, um dort weiterverarbeitet werden zu können. Solche Daten können beispielsweise Informationen über die aktuelle Nutzung, den Verbrauch, aber auch über besondere Umweltbedingungen am Ort des „Things“ sein. In einem IoT-Netzwerk kommunizieren auf diese Weise mehrere Dinge miteinander und sind in der Lage, sich gegenseitig Aufgaben zuzuweisen.

Wearables sind ein typisches Einsatzgebiet des IoT. Eine Smartwatch kann beispielsweise ihren Träger genau lokalisieren und diese Daten an die Heizung im Smart Home übermitteln. So kann sich diese automatisch ausschalten, falls das Haus verlassen wird, und sich einschalten, wenn man sich nähert.
In der Wirtschaft spielt das IoT vor allem im Zusammenhang mit der Industrie 4.0 eine wichtige Rolle. Dabei soll, nach Plänen der Bundesregierung, eine weitestgehend selbst­organisierte Produktion möglich werden: Menschen, Maschinen, Anlagen und Produkte kommunizieren und kooperieren direkt miteinander. Durch die Vernetzung soll es möglich werden, nicht mehr nur einen Produktionsschritt, sondern eine ganze Wertschöpfungskette zu optimieren. Das Netz soll zudem alle Phasen des Lebenszyklus des Produktes einschließen – von der Idee eines Produkts über die Entwicklung, Fertigung, Nutzung und Wartung bis hin zum Recycling. Durch die Aktionen, die auf Basis der Daten des eigenständigen Informationsaustauschs zwischen Produktionsmaschinen, Lagersystemen und Betriebsmitteln entstehen, ergeben sich diverse Vorteile: Produkte können effizienter hergestellt werden und die Produktqualität kann verbessert. Der Energieverbrauch kann optimiert werden, da die einzelnen Teilnehmer eines IoT-Netzwerks nur dann aktiv sind, wenn sie wirklich benötigt werden. Durch die Nutzung moderner Technologien wird der Arbeitsplatz auch für die Mitarbeiter attraktiver. Zudem können Produkte kundenindividueller hergestellt werden, wodurch die Kundenbindung verbessert wird.

Von entscheidender Bedeutung beim IoT ist das Thema Sicherheit. Schließlich können Hacker nicht nur Daten stehlen oder verändern, sondern auch die Steuerung der Dinge übernehmen. Das Gefahrenpotenzial etwa im E-Health-Bereich oder bei Steuerungssystemen eines Kraftwerks ist daher außerordentlich.