Schlagwortarchiv für: Abteilung Marketing

Blockchain

Ein verteiltes Datenbankmanagementsystem schafft eine neue Form der Sicherheit und Transparenz für die digital vernetzte Welt.

Eine Blockchain ist eine kontinuierlich erweiterbare Liste von Datensätzen, „Blöcke“ genannt, die mittels kryptographischer Verfahren verkettet sind. Jeder Block enthält dabei einen kryptographisch sicheren Hash des vorhergehenden Blocks, einen Zeitstempel und Transaktionsdaten.
Durch die aufeinander aufbauende Speicherung von Daten in einer Blockchain können diese nicht nachträglich geändert werden, ohne die Integrität des Gesamtsystems zu beschädigen, wodurch die Manipulation von Daten erheblich erschwert wird.

Anwendungsmöglichkeiten entstehen nicht nur bei Kryptowährungen à la Bitcoin. Eine Blockchain ermöglicht beispielsweise auch die fälschungssichere Dokumentation einer Lieferkette und auch Notare oder Clearinghäuser werden als Intermediäre überflüssig. Im Prinzip lässt sich die Blockchain überall anwenden, wo Daten fälschungssicher protokolliert werden sollen.

Quelle: Background vector created by freepik – www.freepik.com

Zusätzlich lassen sich auch Computerbefehle in den Code der Blockchain integrieren und gerade im Zusammenhang mit dem (I)IoT entsteht ein enormes Automatisierungspotenzial. Bei einer Blockchain zur Lieferkettenprotokollierung könnte zum Beispiel ein im Container angebrachter Sensor die Temperatur von Lebensmitteln nicht nur messen und dokumentieren, sondern auch automatisch Alarm schlagen, sobald Grenzwerte überschritten werden. //

Eigenschaften einer Blockchain

  • Verkettungsprinzip: Eine Blockchain ist eine verkettete Folge von Datenblöcken, die über die Zeit weiter fortgeschrieben wird.

  • Dezentrale Speicherung: Eine Blockchain wird nicht zentral gespeichert, sondern als verteiltes Register geführt. Alle Beteiligten speichern eine eigene Kopie und schreiben diese fort.

  • Konsensmechanismus: Es muss sichergestellt werden, dass eine bei allen Beteiligten identische Kette entsteht. Hierfür müssen zuerst Vorschläge für neue Blöcke erarbeitet werden. Dies geschieht durch Validatoren (die bei Bitcoin „Miner“ genannt werden). Dann müssen sich die Beteiligten einigen, welcher vorgeschlagene Block tatsächlich in die Kette eingefügt wird. Dies erfolgt durch ein sogenanntes Konsens­protokoll, ein algorithmisches Verfahren zur Abstimmung.

  • Manipulationssicherheit: Durch kryptographische Verfahren wird sichergestellt, dass die Blockchain nicht nachträglich geändert werden kann. Die Kette der Blöcke ist somit unveränderbar, fälschungs- und manipulationssicher.

  • Transparenz / Vertraulichkeit: Die auf der Blockchain gespeicherten Daten sind von allen Beteiligten einsehbar. Sie sind deshalb aber nicht unbedingt auch für alle sinnvoll lesbar, denn Inhalte können verschlüsselt abgespeichert werden. Blockchains erlauben so eine flexible Ausgestaltung des Vertraulichkeitsgrads.

  • Nichtabstreitbarkeit: Durch die Nutzung digitaler Signaturen sind Informationen in der Blockchain speicherbar, die fälschungssicher nachweisen, dass Teilnehmende unabstreitbar bestimmte Daten hinterlegt haben, etwa Transaktionen angestoßen haben.


Quelle: Seite „Blockchain“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 13. März 2019, 23:41 UTC. URL: https://de.wikipedia.org/w/index.php?title=Blockchain&oldid=186562222 (Abgerufen: 8. April 2019, 09:11 UTC)

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Virtual & Augmented Reality

Augmented und Virtual Reality verschmelzen zur Mixed Reality.
Die Daten des IoT lumineszieren beim Gang durch die vernetzte Welt.

Computergenerierte interaktive Simulationen mittels kleiner Devices in unserem Leben eröffnen schier unendliche Potenziale an Möglichkeiten, um die Welt neu zu erfahren. Technologische Entwicklungen, die es uns jetzt schon erlauben, die Wirklichkeit zunehmend zu virtualisieren, sind vorhanden. Schon jetzt lässt sich erahnen, welche Änderungen auf uns zukommen. Die Art, wie wir miteinander interagieren und wie wir die vernetzte Welt mit ihren datenfunkenden IoT-Sensoren wahrnehmen, wird nicht mehr dieselbe sein.

Was ist Augmented Reality?

Unter „Augmented Reality“ (kurz AR), also erweiterte Realität, versteht man die computergestützte Erweiterung der Realitätswahrnehmung. Diese Informationen können alle menschlichen Sinnesmodalitäten ansprechen. Häufig wird jedoch unter erweiterter Realität nur die visuelle Darstellung von Informationen verstanden, also die Ergänzung von Bildern oder Videos mit computergenerierten Zusatzinformationen oder virtuellen Objekten mittels Einblendung/Überlagerung. Bei Fußball-Übertragungen ist erweiterte Realität beispielsweise das Einblenden von Entfernungen bei Freistößen mithilfe eines Kreises oder einer Linie. (Wikipedia – Erweiterte Realität)

Im „Realitäts-Virtualitäts-Kontinuum“ (nach Paul Milgram et al., 1994) sind die erweiterte Realität („Augmented Reality“) und erweiterte Virtualität („Augmented Virtuality“) Teil der sogenannten gemischten Realität („Mixed Reality“). Während der Begriff Augmented Virtuality kaum benutzt wird, werden Augmented Reality und Mixed Reality, selten auch Enhanced Reality, meist synonym verwendet.

Im Gegensatz zur virtuellen Realität (kurz VR), bei welcher der Benutzer komplett in eine virtuelle Welt eintaucht, steht bei der erweiterten Realität die Darstellung zusätzlicher Informationen im Vordergrund. Virtuelle Realität und die Realität werden also miteinander kombiniert oder teilweise überlagert. Interaktivität in Echtzeit, in der reale und virtuelle Objekte dreidimensional zueinander in Bezug stehen. Diese Definition umfasst jedoch nur technische Merkmale und beschränkt sich dabei auf einen Teilaspekt von AR. Andere Arbeiten definieren AR als eine Ausweitung der Sinneswahrnehmung des Menschen durch Sensoren um Umgebungseigenschaften, die der Mensch selbst nicht wahrnehmen kann, wie z. B. Radar, Infrarot und Distanzbilder. Menschliche Eigenschaften können damit durch AR verstärkt oder gar ergänzt werden.

Allein die visuelle Modalität bedeutet eine nicht unwesentliche komplexe Herausforderung an die Positionsbestimmung (Tracking) und Kalibrierung. Um eine Augmented-Reality-Anwendung aufzubauen, benötigt es AR-Systeme (kurz ARS), die sich aus technischen Bestandteilen, wie z. B. Kamera, Trackinggeräte, Unterstützungssoftware usw., zusammensetzen. VR und AR sind weit mehr als nur ein Hype. Erkennen lässt sich dies nicht nur an ernst zu nehmenden Hardware-Entwicklungen / Devices für AR-Systeme, wie Facebooks Oculus Rift, HTC VIVE und Microsofts HoloLens, die mittlerweile durchaus massentauglich sind. Auch geistiges Eigentum wird sich einverleibt.

Begriffserklärung

Am besten veranschaulicht man sich diese abstrakten Begriffe an konkreten Beispielen:

  • Reine Realität ist ein Mensch, der zum Einkaufen in den Supermarkt geht.

  • Erweiterte Realität sind Brillengläser, auf deren Innenseite ein Computer den Einkaufszettel des Benutzers projiziert; und zwar so, dass beim Benutzer der Eindruck entsteht, der Einkaufszettel sei an die Wand des Supermarktes angeschrieben. Die Wirklichkeit wird hier um virtuelle Informationen angereichert.

  • Erweiterte Virtualität ist ein Computerspiel, das über einen VR-Helm gespielt wird und das die Türsprechanlage auf die Kopfhörer überträgt, wenn es an der Tür klingelt.

  • Die Virtualität wird hier um reelle Informationen angereichert. Virtuelle Realität ist ein Computerspiel, das über einen VR-Helm gespielt wird und nicht auf die reale Außenwelt des Benutzers reagiert.

    (Quelle: Wikipedia„Mixed Reality“)

Die großen Player am Markt bereiten sich offensichtlich auf eine Zukunft mit AR vor. Viele Argumente sprechen zudem für den Einsatz und das Wachstumspotenzial dieser neuen Technologien: Kostenersparnisse, Qualitätssteigerungen, Sicherheit.

VR- und-AR-Technologien verändern zunehmend unsere Lebens- und Arbeitswelt. AR-Brillen kommunizieren jetzt schon mit den Fächern in den Lagerhallen und weisen dem Picker den Weg. Zu wartende Maschinen helfen bei der Reparatur, indem sie sinnvolle Daten auf einem AR-Device einblenden oder durch Bildmaterial eine Sicht aus jeder Perspektive und durch alles hindurch ermöglichen. Gleiches gilt auch in der Montage in den Werkshallen.

Lesen Sie auf Seite 2: VR & AR: Trends

Blockchain & Finanzwirtschaft

Der Wegfall zwischengeschalteter Prüfinstanzen zwingt Banken, ihre Rolle in einem digital vernetzten Ökosystem zu überdenken.

von Christopher Weßels

Selten lagen Chancen und Bedrohung so dicht beieinander: Die Bewegung um Blockchain stellt zwar manches Geschäftsfeld der Finanzbranche in Frage. Doch auf der anderen Seite bietet das Blockchain-Modell der kollektiven Prüfung digitaler Transaktionen ohne externe Echtheitsbestätigung auch gänzlich neue Wertschöpfungsoptionen. Banken sollten sich daher lieber heute als morgen auf ihre neue Rolle in einem grundlegend veränderten Marktumfeld einstellen.

Blockchain wird meist in einem Atemzug mit Kryptowährungen genannt. Virtuelles Geld ist jedoch nur eines von vielen Beispielen für die neue Möglichkeit, praktisch beliebige digitale Güter ohne eine zwischengeschaltete Prüfinstanz zu besitzen und weiterveräußern zu können: So wie ein Bitcoin ohne Bank den Besitzer wechselt, so lassen sich in einer Blockchain auch digitale Verträge ohne Mitwirkung eines Notars beglaubigen. Solche bisher lokalen Echtheitsbestätigungen werden hier gleichsam digitalisiert, automatisiert und globalisiert. Dieses Prinzip ist mit der Blockchain ohne Weiteres auf jede beliebige digitale Dienstleistung übertragbar – z. B. auch auf den Handel mit Videos oder Musikdateien.

Echtheitsgarantie ohne externe Prüfinstanz

Doch was genau versteht man unter einer Blockchain? Zunächst einmal handelt es sich um eine verteilte Datenbank, die kontinuierlich fortgeschrieben und durch neue Datensätze – sogenannte Blöcke – erweitert wird. In solchen Blöcken werden digitale Transaktionen unterschiedlicher Art gespeichert. Was die Blockchain indessen von anderen verteilten Datenbanken unterscheidet, ist die Tatsache, dass sie von vielen Servern im Internet fälschungssicher betrieben wird. Dazu erhält jeder neue Datenblock einen digitalen Fingerabdruck seines Vorgängers: Statt Blöcke lediglich aufzureihen, werden sie per Fingerabdruck im Wortsinn verkettet. Daher der Name Blockchain.

Erzeugt werden die digitalen Fingerabdrücke mit kryptographischen Methoden, wobei eine sogenannte Hashfunktion für jeden Datenblock einen eindeutigen Hashwert als einzigartigen Fingerabdruck berechnet. Bei jedem Versuch, einen Datenblock nachträglich zu verändern, müssten folglich auch alle Nachfolger verändert werden. Da neue Blöcke parallel auf sehr vielen Teilnehmersystemen angefügt werden, hat ein Angreifer kaum eine Chance und dieser Manipulationsversuch würde auffallen. Es ist also die kollektive Prüfung in einem dezentralen Blockchain-Ökosystem, die eine Echtheitsgarantie für digitale Transaktionen ohne externe Beglaubigung erst ermöglicht.

Neues Modell für die organisationsübergreifende Zusammenarbeit

Jenseits von digitalem Besitz eröffnet das Prinzip der verteilten Transaktionsprüfung und Automatisierung insbesondere auch für die unternehmensübergreifende Zusammenarbeit via Internet vollkommen neue Perspektiven. Allerdings empfiehlt sich dafür eine besondere Blockchain-Spielart – nämlich eine sogenannte Consortium-Blockchain: Im Unterschied zu öffentlichen Blockchains à la Bitcoin & Co. ist die Teilnehmerzahl begrenzt und die Mitglieder kennen sich bereits. In diesem Fall kann auf rechenintensive Absicherungsfunktionen – wie bei Bitcoin & Co. – verzichtet werden. Vielmehr regelt in einer Consortium-Blockchain ein vorab ausgehandelter Konsensprozess, wer welche Aufgaben erfüllt. So kann zum Beispiel ein Konsortium aus 15 Banken per Konsens festgelegen, dass mindestens fünf Blockchain-Mitglieder die Echtheit jeder Transaktion parallel zu den daran beteiligten Instituten überprüfen.

Während bei traditionellen Business-Netzwerken Administratoren für die Kontrolle einer zentralen Datenbank zuständig sind, entfällt diese Funktion bei der dezentralisierten Blockchain. Nun übernimmt das Netzwerk den Konsensmechanismus und alle Daten werden bei jedem Nutzer identisch protokolliert.

Fremden bleibt der Zugang zu einer Consortium-Blockchain generell verwehrt. Mitglied kann nur werden, wen die Mehrheit der bisherigen Teilnehmer akzeptiert. Auf diese Weise sichert sich das Konsortium die Kontrolle über seine Blockchain. Ein weiterer Unterschied zur öffentlichen Variante: In einer Consortium-Blockchain lassen sich die Regeln zur Transaktionsverarbeitung weitaus flexibler gestalten und sehr genau an den jeweiligen Anwendungszweck anpassen. Denkbar sind künftig auch Mischformen von Public und Consortium-Blockchains, die miteinander interagieren können: Neben dem vertraglich geregelten Zusammenwirken mit bereits bekannten Partnern wären dann auch spontane Interaktionen ohne Vertragsverhältnis via Public Blockchain möglich.

Blockchains verändern das Marktumfeld

Welchen Einfluss haben Blockchains auf den künftigen Wettbewerb? Wer bei diesem Thema seinen Blick einseitig auf digitales Geld fixiert, nimmt vermutlich nur die – fraglos vorhandenen – Bedrohungen für traditionelle Player in der Kreditwirtschaft wahr: Verdrängt werden Banken beispielsweise aus Handelsgeschäften, deren Zahlungsströme zumindest partiell über eine Kryptowährung abgewickelt werden. Zudem überwindet virtuelles Geld im Internet spielend Ländergrenzen, sodass SWIFT als Monopolist für den grenzüberschreitenden Zahlungsverkehr in diesem Szenario überflüssig wird. Für Banken folgt dieser Schluss aber keineswegs. Denn digitale Münzen müssen irgendwann wieder in reales Geld – oder umgekehrt – umgetauscht werden. Überdies dürfte die Blockchain künftig auch ganz neue Bedarfsfelder generieren – zum Beispiel im Hinblick auf Blockchain-basierte Bürgschafts- und Finanzierungsmodelle.

Umso wichtiger erscheint es aus Sicht der Fiducia & GAD, dass sich die genossenschaftliche Finanzgruppe auf eine grundlegend veränderte Wettbewerbssituation einstellt: Volks- und Raiffeisenbanken müssen künftig in der Lage sein, an den digital vernetzten Geschäftsmodellen der Blockchain-Ära teilzuhaben. Und sie müssen dabei einen originären Mehrwert stiften.

Blitzfinanzierung per Blockchain

Start-ups träumen davon: Am Freitagabend wird eine Geschäftsidee im Netz gepostet, am Wochenende läuft die Finanzierungsrunde und am Montagmorgen ist das Kapital verfügbar. Klingt unrealistisch, ist aber möglich – und zwar mit einer Blockchain-Methode, die sich „Initial Coin Offerings“ (ICO) nennt.

Das Prinzip erinnert an eine initiale Wertpapieremission und funktioniert etwa folgendermaßen: Das Start-up erzeugt in der Blockchain digitale Token und verkauft sie wie digitale Aktien. Allerdings werden mit einem Token nicht unbedingt nur Unternehmensanteile erworben, sondern ebenso Kaufoptionen oder digitale Gutscheine, die einen Anspruch auf bestimmte Dienstleistungen begründen. Auch eine anteilige Gewinnausschüttung in Krypto-Geld ist via Smart Contract ohne Weiteres möglich.

ICOs beschleunigen die Bereitstellung von Kapital für die Umsetzung innovativer Ideen – und kurbeln damit das Innovationstempo an. Attraktiv ist dieses Modell inzwischen nicht nur für Start-ups, sondern zum Beispiel auch für Projektfinanzierungen bei etablierten Unternehmen.



Großes Potenzial für Prozessverbesserungen

Noch lässt eine überzeugende „Killerapplikation“, an der die Richtung der künftigen Entwicklung ablesbar wäre, auf sich warten. Doch Abwarten ist für den genossenschaftlichen IT-Dienstleister keine Option. Vielmehr evaluiert die Fiducia & GAD bereits seit geraumer Zeit das Potenzial und die Erfolgsfaktoren des Blockchain-Modells in der Finanzwirtschaft.

Sinnvoll erscheint der Blockchain-Einsatz beispielsweise, wenn es um Prozesse geht, deren besonders hohe Legitimierungsansprüche ihrer Digitalisierung bislang im Wege standen: Statt Unterschrift und Stempel auf Papier könnte in solchen Fällen die verteilte Transaktionsverarbeitung einer Blockchain für den notwendigen Echtheitsnachweis sorgen. Überdies werden Transaktionen in der Blockchain nicht nur gespeichert, sondern nach dem Verkettungsprinzip in all ihren Phasen permanent fortgeschrieben und damit auch protokolliert. Demnach können alle Teilnehmer jederzeit die komplette Historie einer jeden Transaktion nachvollziehen. Die Blockchain verspricht somit ein bisher nicht gekanntes Maß an Verbindlichkeit und Transparenz. Gleichzeitig ermöglicht das Modell der verteilten Transaktionsverarbeitung signifikante Effizienzsteigerungen – zum Beispiel, weil der Aufwand für periodische Synchronisationen wie Monats- oder Tagesabschüsse entfällt.

Auf qualitativer Ebene wirkt sich die Blockchain insbesondere auf übergreifende Prozesse aus. Denn gemeinsame Regeln, Definitionen und Ablaufmodelle führen fast zwangsläufig zu einer Vereinheitlichung der Transaktionsabwicklung – und damit auch zu einer höheren Prozessqualität. Nicht zuletzt verbessert die Blockchain auch die Stabilität organisationsübergreifender Prozesse. Denn die Arbeitsfähigkeit der verteilten Blockchain-Datenbank leidet unter einem eventuellen Systemausfall bei einem oder sogar mehreren Teilnehmern nicht.

Resümee

Der Wesenskern der Blockchain kreist um ein vernetztes Kollektiv, das klar definierte Leistungen nach vorgegebenen Regeln ohne eine externe Kontrollinstanz erbringt. Wie das Notarbeispiel zeigt, werden vormals lokale Beglaubigungsfunktionen durch Vernetzung gleichsam globalisiert. Vor diesem Hintergrund gilt es heute, klassische Bankkompetenzen neu zu interpretieren – wobei der Fokus weniger auf tradierten Geschäftsmodellen, sondern vielmehr auf künftig veränderten Kundenbedürfnissen liegen sollte. Obwohl das Zeitalter digital vernetzter Ökosysteme erst in Umrissen sichtbar wird, steht eines schon heute fest – nämlich: dass die Blockchain die Erwartungen der Kunden von morgen massiv verändern wird. //

Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Neurofinance

Ein neuer Ansatz sorgt für Furore an den Kapitalmärkten: Roland Ullrich und Bernd Weber gewähren Einblicke in ein vielversprechendes Forschungsgebiet.

Herr Prof. Weber, noch ist die Beratung in Banken eine Bastion der menschlichen Intelligenz. Wann werden selbstlernende Computersysteme mit Siri-Stimme und Avatar-Gesicht den klassischen Kundenberater ersetzen?
Man sieht derzeit in vielen Bereichen der Kundeninteraktion die Nutzung von Avataren. Dies stößt bei vielen Verbrauchern auf dem jetzigen Stand der Technik aber auch auf große Skepsis bis Ablehnung. Menschen reagieren sehr sensibel auf ihr Gegenüber und Nuancen in sozialen Interaktionen. Bei den aktuellen Systemen der „künstlichen Berater“ ist dies sehr weit von natürlichen Interaktionen entfernt und führt eher zur Ablehnung durch die Kunden. Selbstlernende Algorithmen, die auf die individuellen und eben auch schwankenden emotionalen Bedürfnisse der Kunden eingehen, wird es auf absehbare Zeit nicht geben.

Herr Ullrich, Sie schreiben, der Schwerpunkt Ihrer Konferenz ist der Transfer von Forschungsergebnissen in die Praxis der Finanzindustrie, welche Trends machen Sie aus?

Roland Ullrich

Die spannenden Erkenntnisse der modernen Hirnforschung sind mittlerweile in den Management- und Finanzkreisen der deutschen Wirtschaft angekommen. Neurofinance macht sich die neuesten neurowissenschaftlichen Methoden und Technologien zunutze, um das Verhalten der Menschen an den Finanzmärkten zu analysieren. Dabei hat sich herausgestellt, dass wir trotz all dem Wissen und der Informationen, die wir „real time“ zur Verfügung haben, nicht in der Lage sind, vernünftig mit Geld umzugehen. Aus der Evolution stammende, unbewusste Verhaltensmuster spielen uns allzu oft einen Streich.  Denn unsere uralten Gehirnsysteme sind das Ergebnis eines evolutionären Selektionsprozesses. Sie sind uns zum Überleben gegeben und einfach nicht dafür geeignet, rationale Entscheidungen an komplexen Finanzmärkten zu treffen. Finanzmärkte folgen völlig anderen Gesetzen. Die gute Nachricht ist, dass unser Gehirn vollkommen plastisch ist, d. h. lebenslang wandelbar. Wir können lernen, die Kontrolle über unsere automatischen Gehirnaktivitäten zu erlangen. Hirnforscher sind heute in der Lage, Anlegerverhalten vorherzusagen und zu beeinflussen. Mit dem Bewusstsein, wie unser Gehirn finanzielle Entscheidungen trifft, können wir Methoden erlernen, die uns helfen, im ökonomischen Sinn rationaler, d. h. besser mit Geld umzugehen. Hierzu zählen zum Beispiel Mindfulness-Training, Neurofeedback und Neurocoaching. Bei vielen angelsächsischen Investoren sind diese Methoden populär. Zusammen mit der DFVA wollen wir die Ergebnisse der Neurofinance Forschung in Deutschland bekannter machen und eine Plattform für die verschiedenen Anwendungsmöglichkeiten bieten. Gleichzeitig zeigt der Trend zur Digitalisierung der Finanzbranche, wie irrationales Anlegerverhalten mithilfe kognitiver Technologien ausgeschaltet werden kann. Algorithmen-basierte Anlageprodukte und digitales Asset-Management können dazu beitragen, dass Anleger und Investoren ihre Emotionen besser in den Griff bekommen.

Herr Ullrich, welche Schwerpunkte und Themen haben Sie für die erste „Neurofinance-Konferenz“ gewählt?
Gemeinsam mit der DVFA haben wir ein Konferenzkonzept entwickelt, welches aus zwei Bausteinen besteht. Zu Beginn geht es darum, die spannenden Erkenntnisse der Neurofinance-Forschung den Teilnehmern verständlich zu machen. Mit dem Bewusstsein, wie emotional und oftmals irrational wir finanzielle Entscheidungen treffen, geht es im zweiten Baustein darum, dieses Wissen in die Praxis zu übertragen und Anwendungsmöglichkeiten vorzustellen. Liegt die Zukunft in kognitiven Trainingsmethoden zur Verbesserung finanzieller Entscheidungsprozesse oder werden uns bald selbstlernende Algorithmen und Künstliche Intelligenz steuern? Mensch oder Maschine? Oder lässt sich menschliche Intelligenz mit kognitiven Technologien verbinden?
Herr Prof. Weber, können Sie uns kurz und bündig erklären, was wir unter den Begriffen „Neurofeedback“ oder „Mindfulness“ verstehen dürfen?
Diese verschiedenen „Interventionen“ stellen Verfahren dar, die dazu dienen sollen, die Prozesse von Entscheidungen zu verbessern. Bei Neurofeedbackmethoden werden direkt biologische Signale visualisiert und den Nutzern zurückgespielt. Diese sollen dann lernen, bestimmte neuronale Muster zu verstärken oder abzuschwächen. Hier existieren eine Reihe von Studien, v.  a. im medizinischen Kontext, dass diese Feedbackmethoden in der Lage sind, z. B. die Symptome bei Angst- oder Suchterkrankungen zu verbessern. Mindfulness – oder ähnliche Traingsverfahren – sollen dazu dienen, sich seiner emotionalen Zustände bewusster zu werden und damit in der Lage zu sein, diese besser in Entscheidungen zu nutzen. Auch diese Verfahren sind im Bereich der Psychotherapie stark etabliert und zeigen auch positive Effekte für ökonomisches Entscheidungsverhalten.

Herr Prof. Weber, wo sehen Sie wichtige Aspekte für die Zukunft der Forschung im Bereich der Neurofinance?

Prof. Bernd Weber

In den letzten Jahren haben wir extrem viel über basale Mechanismen von Entscheidungen gelernt. Wir stehen trotzdem noch am Anfang. Obwohl sich viele Studien mit Themen wie „nudging“ von Finanzentscheidungen beschäftigt haben, existieren noch eine Reihe spannender Fragen, welche helfen könnten, Interventionen oder Unterstützungen von Entscheidern zu verbessern. Ein wichtiger Aspekt dabei wäre z. B., die riesige Anzahl von Entscheidungsverzerrungen, die bisher beschrieben sind, auf eine geringe Anzahl von Prinzipien zu reduzieren, welche es ermöglichen würde, bessere Modelle von Entscheidungen zu entwickeln. Aber auch ganz konkrete Fragen wie: Welche Rolle spielen soziale Medien oder genereller soziale Interaktionen in Finanzentscheidungen? Wieso sind viele Privatinvestoren bereit, größere Gebühren für aktiv gemanagte Fonds zu bezahlen, wobei ein Großteil der Daten zeigt, dass günstigere z. B. Indexfonds eigentlich die gewinnbringendere Wahl für sie wären?

 

 

 

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Prof. Bernd Weber

Informationen zu Roland Ullrich

Digital Finance

FinTechs gehen mit frischen Ideen auf den Markt und verändern diesen nachhaltig. Neue Technologien offenbaren ihr disruptives Potenzial.

von Andreas Fuhrich

Zwar begann die Digitalisierung der Banken mit dem Online-Banking schon im letzten Jahrtausend, doch weitere Innovationen blieben lange aus. Für den Knotenpunkt aller Geldgeschäfte galt der Bankkunde als Selbstverständlichkeit und musste nicht mit technischen Neuerungen gebunden werden. Selbst das Online-Banking diente mehr dem Stellenabbau und der damit verbundenen Gewinnoptimierung als dazu, einen wirklichen Service anzubieten. Heute noch beworbene Tagesgeldkonten wirken wie absurde Überbleibsel aus der Zeit, in der sie mit lukrativen Zinsen als Online-Banking-Marketingmaschine fungierten.
Seit einigen Jahren verändert nun die aufstrebende FinTech-Branche den Finanzmarkt. Dem Kundenwunsch nach mehr digitalen Lösungen, der vor allem durch die Entwicklungen der Mobile Devices mit ständigem Internetzugriff noch verstärkt wird, soll entsprochen werden. Vormals ineffiziente und unflexible Geschäftsfelder werden revolutioniert oder zumindest den neuen technologischen Möglichkeiten angepasst. Die Finanzkrise 2008, das zerstörte Vertrauensverhältnis zu den Großbanken, diente dabei als Katalysator für die junge Branche, die offen in Konkurrenz zu den alteingesessenen Instituten tritt.

Durch den Druck der FinTechs und der Digitalisierung der Finanzbranche haben mittlerweile auch traditionelle Bankhäuser erkannt, dass sie aktuelle Techniken einsetzen müssen, um den Bedürfnissen der Kunden zu entsprechen. Zwar arbeitet man jetzt verstärkt an der Modernisierung und Technologisierung der gesamten Dienstleistungskette, kann jedoch nicht mit der Innovationskraft eines agilen Start-ups mithalten. Verschärfte Regulierungen und neue BIZ-Eigenkapitalvorschriften erschweren  den Prozess zusätzlich. Wohl deshalb treten viele Banken seit einiger Zeit nicht mehr nur als Konkurrent, sondern als Partner von FinTechs auf. So erhalten sie die Möglichkeit, zeitnah ihren Kunden Innovationen anzubieten, ohne eigene Forschung betreiben zu müssen. Auch FinTechs haben erkannt, dass durch Partnerschaften Win-win-Situationen entstehen. Die vielen Regularien machen es für Start-ups fast unmöglich, die Bedingungen für eine Banklizenz zu erfüllen, die für manche Dienstleistungen, wie z. B. die Kreditvergabe, aber zwingend erforderlich ist. Anstatt sich selbst mit den hohen Anforderungen auseinanderzusetzen, übernimmt jetzt die lizensierte Partnerbank die endgültige Abwicklung.

Die Innovationen der Finanztechnologie beginnen dabei gerade erst, die Branche immer stärker und immer schneller umzukrempeln. Eine accenture-Studie belegt, dass die Investitionen in FinTechs von weltweiten 1,791 Milliarden Dollar im Jahr 2010 auf über 22 Milliarden 2015 anwuchsen.(1)
Allein in den letzten beiden Jahren machten zwei Schlagwörter auf sich aufmerksam, denen ein ungeheures disruptives Potenzial zugesprochen wird. 2015 wurden weltweit über 800 Millionen Dollar in InsurTech-Start-ups investiert,(2) also in Unternehmen, die neue Lösungen für die Versicherungsbranche liefern. Laut einer McKinsey-Studie könnte dadurch in den nächsten zehn Jahren jeder vierte Arbeitsplatz in der westeuropäischen Versicherungsbranche verloren gehen.(3) 2016 sorgte der Begriff „Blockchain“ für Aufsehen. Ob die Technologie hinter dem Bitcoin tatsächlich dem disruptiven Potenzial gerecht wird, welches ihr zugesprochen wird, bleibt abzuwarten.

Quellen:

(1)    accenture-Studie: „Fintech and  the evolving landscape: landing points for the industry“ von: Julian Skan, James Dickerson und  Luca Gagliardi, 2016. URL: https://www.fintechinnovationlablondon.co.uk/pdf/Fintech_Evolving_Landscape_2016.pdf (Abgerufen: 16. November 2016).
(2)    Seite „Versicherungstechnologie“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 26. August 2016, 13:13 UTC. URL: https://de.wikipedia.org/w/index.php?title=Versicherungstechnologie&oldid=157401432 (Abgerufen: 16. November 2016, 09:44 UTC).
(3)    McKinsey Studie: „Automating the insurance industry“ von: Sylvain Johansson und Ulrike Vogelgesang, 2016, URL: https://www.mckinsey.com/industries/financial-services/our-insights/automating-the-insurance-industry (Abgerufen: 16. November 2016).

Mobile Economy

Ortsungebunden und immer erreichbar. Smartphones und Tablets stellen den „Arbeitsplatz“ in Frage und ermöglichen neue flexible Arbeitsweisen.

von Brigitte Kasper

Die Initialzündung für „Mobile“ kam sicherlich durch die Einführung von iPhone und iPad. Mit einem Mal genügte es nicht mehr, mit dem Handy nur zu telefonieren und ein paar SMS zu versenden. Zwar konnte man mit den damaligen mobilen Geräten auch schon z. B. Musik hören, fotografieren und E-Mails empfangen und versenden, jedoch geschah das noch mehr oder weniger halbherzig bzw. war auf nicht allzu viele geschäftliche Nutzer begrenzt. Mit den neuen Prestigeobjekten, die zudem durch eine neuartige Bedienung glänzten, eröffnete sich ihren Nutzern so nach und nach die Welt der Applikationen (Apps), d. h., von kleinen, auf dem Gerät gespeicherten oder ladbaren Programmen, über die man sich – zum Teil spielerisch – immer neue Anwendungen, Nutzen und Mehrwerte erschloss. Andere Hersteller zogen mit den sogenannten Smartphones und Tablet-PCs nach, für die nun ihrerseits ein kaum noch zu überblickendes App-Universum entstand.

Mittlerweile geht es nicht mehr ohne. Mobile ist zu einem gesamtgesellschaftlichen Phänomen geworden – sowohl privat als auch im Business. Mancherorts heißt es nicht mehr „Mobile First“, sondern „Mobile Only“. Es wird mobil gelebt, gespielt, gearbeitet, gelernt, eingekauft, bezahlt und Geld überwiesen. Kaum ein Unternehmensbereich oder eine Branche kommt noch ohne mobile Arbeitsmittel aus, sei es im Vertrieb, in der Kundenberatung oder im Außendienst, in der Logistik oder im Handwerk. Moderne Apps machen es möglich, von überall her z. B. auf weiterführende Informationen oder Unternehmens- und Kundendaten zuzugreifen, um so die Kundengespräche oder auch Finanzberatungen durch aktuelle Fakten untermauern zu können. Oder vor Ort gewonnene Messdaten via App und Mobilfunk in den Unternehmensserver zu senden, um sie dort zu speichern und auszuwerten.

Die Zahlen sprechen für sich: Laut dem aktuellen Ericsson-Mobility-Report wird die Anzahl der Smartphone-Verträge 2016 weltweit auf 3,9 Mrd. steigen. Nahezu 90 % der Kunden werden dann die schnellen WCDMS/HSPA- und LTE-Netze nutzen. In Deutschland werden insgesamt voraussichtlich 27,9 Mio. Geräte über den Ladentisch gehen, so die Prognose des Digitalverbands Bitkom. 76 % aller Bundesbürger ab 14 und bis 69 Jahre nutzen bereits ein Smartphone und mit ihm auch das mobile Internet. Das Tablet hingegen läuft langsam Laptop und Notebook den Rang ab.

Nach ihrem Siegeszug im Privaten krempeln Smartphone und Tablet nun die Arbeitswelt um und ermöglichen neue Arbeitsweisen – losgelöst von Raum und Zeit. Wie aus dem aktuellen „Adobe Enterprise Mobile Survey“ hervorgeht, setzen 75 % der hiesigen Firmen inzwischen Enterprise-Mobile-Apps für tägliche Arbeiten ein, beispielsweise für eine verbesserte Kommunikation der Mitarbeiter untereinander, mit Kunden oder auch in Sales-Prozessen – auch von unterwegs und außerhalb der „normalen“ Arbeitszeiten. Vertrieb, Marketing, Kundenberatung usw. werden sich in einem Maß den mobilen Möglichkeiten anpassen müssen, das heute noch gar nicht abzuschätzen ist. So wie die Kunden jederzeit, überall und flexibel erreichbar sind, erwarten sie es auch von ihren Geschäftspartnern. Starre und archaische Hierarchien, bislang erfolgreiche Geschäftsmodelle und Märkte sowie bestehende Wertschöpfungsketten müssen hinterfragt und gegebenenfalls aufgebrochen werden. Neue Denkweisen und Geschäftsmodelle müssen her. Nicht umsonst fordert der VDE mehr „Californian Spirit“ statt „German Angst“. Er sieht die Digitalisierung als Feuerprobe für Deutschland 4.0. Kaum auszudenken, würde man hier den Anschluss an die USA und Asien verlieren.

Big – Smart – Fast

Unser Arbeitsalltag wird zunehmend von digitalen Daten beeinflusst. Big Data berührt alle Branchen und Märkte.

Werfen wir im Kontext der Digitalisierung einen  kurzen Blick zurück: Es wird angenommen, dass es der Menschheit im Jahr 2002 zum ersten Mal möglich war, mehr Informationen digital als analog zu speichern – der Beginn des „Digitalen Zeitalters“. Alles was heute an analogen Informationen in Bits und Bytes gewandelt werden kann, wird zu Daten. Im Zuge der Digitalisierung, die Unternehmen im Kontext betrieblicher Abläufe zu Effizienzsteigerung und damit einer verbesserten Wirtschaftlichkeit verhilft, wachsen die Daten dementsprechend exponentiell. Wir sprechen heute von Big Data. Der aus dem englischen Sprachraum stammende Begriff Big Data oder auf gut Deutsch Massendaten steht dabei grundsätzlich für große digitale Datenmengen, aber auch für deren Analyse, Nutzung, Sammlung, Verwertung und Vermarktung. In der Definition von Big Data bezieht sich das „Big“ auf die drei Dimensionen „volume“, für Umfang und Datenvolumen, „velocity“ für die Geschwindigkeit, mit der die Datenmengen generiert und transferiert werden, sowie „variety“ für die Bandbreite der Datentypen und -quellen. Erweitert wird diese Definition um die zwei V „value“ und „validity“, welche für einen unternehmerischen Mehrwert und die Sicherstellung der Datenqualität stehen.

Die gesammelten Daten können dabei aus verschiedensten Quellen stammen: Überwachungssysteme, Nutzung von Kunden- oder Bank- bzw. Bezahlkarten, jegliche elektronische Kommunikation, Navigationssysteme, GPS, Smartphones, Smart Homes, Fahrzeuge aller Art, von Behörden und Unternehmen erhobene und gesammelte Daten, Sensordaten im Kontext von IoT und Industrie.
Die Analyse, Erfassung und Verarbeitung von großen Datenmengen ist heute in vielen Bereichen alltäglich, aber verbesserungswürdig hinsichtlich Big Data.

TREND REPORT zum Thema

Unser Arbeitsalltag wird zunehmend von digitalen Daten beeinflusst. Business-Intelligence-Lösungen helfen, Geschäftsprozesse zu optimieren und Ordnung in das Big-Data-Chaos zu bringen, weiß Brian Gentile. https://trendreport.de/bi-daten-clever-nutzen/

Mit der TREND-REPORT-Redaktion sprach Tom Becker über die Herausforderungen und die Bedeutung der Datenanalyse für den Geschäftserfolg und welchen Vorteil Self-Service-Datenanalysetools bieten. https://trendreport.de/analyse-der-datenanalyse/

Datenmengen sind und werden zu groß, zu komplex, zu schnelllebig oder zu schwach strukturiert, um sie mit herkömmlichen Methoden der Datenverarbeitung auszuwerten. Aktuelle Entwicklungen von Software für die Verarbeitung von Big Data kommen neben klassischen prioritären Anbietern oft aus dem Open-Source-Bereich. Bekannt ist hier z. B. Apache Hadoop, ein freies Framework für skalierbare, verteilt arbeitende Software, die es ermöglicht, intensive Rechenprozesse mit großen Datenmengen auf Computerclustern durchzuführen. Big Data kann Geschäftsprozess-Verbesserungen in allen Funktionsbereichen von Unternehmen, vor allem aber im Bereich der Technologieentwicklung und Informationstechnik sowie des Marketings erzeugen. Die Erhebung und Verwertung der Datenmengen dient dabei im Allgemeinen der Umsetzung von Unternehmenszielen. Bisher haben vor allem große Branchen, Unternehmen und Anwendungsbereiche der Wirtschaft, Marktforschung, Vertriebs- und Servicesteuerung, Medizin, Verwaltung und Nachrichtendienste die entsprechenden digitalen Methoden für sich genutzt: Die erfassten Daten sollen weiterentwickelt und nutzbringend eingesetzt werden. Die Erhebung der Daten dient dabei meistens für konzernorientierte Geschäftsmodelle sowie Trendforschung in den sozialen Medien und Werbeanalysen, um zukunftsweisende und möglicherweise gewinnbringende Entwicklungen zu erkennen. Big Data kann die Triebfeder für innovative Geschäftsmodelle und Produkte werden. Welches Marktpotential tatsächlich in Big Data Lösungen steckt scheint nicht vorhersehbar: 2013 prognostizierte der US-Marktforscher IDC den weltweiten Umsatz für 2017 auf gut 32 Milliarden Dollar. Tatsächlich betrug er 2015 bereits 125 Milliarden.

Quellen:
Wikipedia – Data Scientist: https://de.wikipedia.org/wiki/Data_Science
Wikipedia – Big Data
Wikipedia – Business Intelligence
Martin Hilbert, Priscila López: The World’s Technological Capacity to Store, Communicate, and Compute Information. In: Science, 2011, 332(6025), S. 60-65; martinhilbert.net/WorldInfoCapacity.html (Kostenfreier Zugriff auf den Artikel). The World’s Technological Capacity to Store, Communicate, and Compute Information from 1986 to 2010. (Abgerufen am 15. April 2015 PDF).
Big Data: 32 Milliarden Dollar Umsatz bis 2017 erwartet – 125 Milliarden Dollar 2015 Realität, von: Michael Kroker. URL: https://blog.wiwo.de/look-at-it/2016/07/26/big-data-32-milliarden-dollar-umsatz-bis-2017-erwartet-125-milliarden-dollar-2015-realitaet/ (Abgerufen: 6. Dezember 2016)

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/

Location-based Services

Die Einsatzgebiete für Location-based Services sind vielfältig. Nicht nur im Bereich des Handels, sondern auch bspw. in Verwaltung und Kultur.

Die Redaktion im Gespräch mit Georgios Karachos, Gründer und Geschäftsführer der Qualigon GmbH, zu Trends im Rahmen der Indoor-Lokalisierung

Herr Karachos, für welche Anwendungsszenarien eignet sich Indoor-Lokalisierung?
Wir bekommen Lokalisierungsanfragen aus vielen unterschiedlichen Bereichen, wie Shoppingcentern, Krankenhäusern, Flughäfen, Messen, Museen, aus dem Büro- oder auch Facility-Management sowie der Industrie. Dabei haben die unterschiedlichen Szenarien individuelle Anforderungen an die Lokalisierung, einerseits bei der geforderten Genauigkeit, andererseits auch bei der Frage, ob Personen oder Güter lokalisiert werden sollen. Anhand dieser spezifischen Kriterien wählen wir die beste Lokalisierungs-Technologie aus und gewährleisten dem Kunden damit eine individuell angepasste Lösung und einen zuverlässigen Betrieb. Große Krankenhausanlagen haben zum Beispiel verzweigte und schwer zu findende Bereiche. Durch eine Lokalisierungslösung können Patienten gezielt zu den Behandlungsräumen geleitet werden. Dies ermöglicht einen reibungslosen Betrieb. Zusätzlich kann das Facility-Management unterstützt werden. Darüber hinaus ist es damit auch möglich, Objekte wie Defibrillatoren oder Krankenhausbetten zu lokalisieren. Auch in Shoppingcentern bietet die Nutzung eine Vielzahl von Vorteilen für den Betreiber und den Endkunden. Dies gilt natürlich auch für Filialketten. In beiden Szenarien gibt es vielfältige Anwendungen, dazu zählt primär die Navigation des Kunden zu diversen Zielen, wie zum Beispiel Shops, Stellplatz des eigenen Autos im Parkhaus oder Servicepoints. Im nächsten Schritt können die Kunden dann ebenfalls in den Shops zu bestimmten Bereichen geleitet werden. Lokalisierungstechnologien erleben aber auch durch Industrie 4.0 einen starken Aufschwung. Dabei unterscheiden wir den Bereich der Personenführung, wie zum Beispiel im Alleinarbeiterschutz, und den IoT-Bereich (Internet of Things), bei dem eine direkte Kommunikation zwischen den Maschinen (M2M) notwendig ist. Die Kenntnis der Position von Gütern und Geräten ist für einen optimierten Produktionsprozess ein immer wichtiger werdendes Kriterium. Ein weiterer Aspekt sind alle Messungen im Indoor-Bereich, die mit einer genauen Positionsinformation verknüpft werden müssen, zum Beispiel Analysen von Mobilfunk- oder WLAN-Netzen oder aber Umwelt-Analysen.

Wie könnten Shoppingcenter Lokalisierungstechnologien in ihre Wertschöpfungskette integrieren, um bestmögliche Kundenbindung zu erzeugen?
Center-Betreiber werden damit in die Lage versetzt, ihren Kunden ein neues Shopping-Erlebnis anzubieten. Der Kunde kann seinen Besuch zu Hause am PC vorplanen und sich über sein Smartphone vom Verlassen des eigenen Pkws bis zum Produkt durch das Center navigieren lassen. Das Center-Management sowie die jeweiligen Einzelhändler können anhand genauer Analysen der Kundenbewegungen eine vergleichsweise sichere Aussage über die Vorlieben und Verhaltensmuster des Kunden im Shoppingcenter treffen. Dies hilft, das Angebot besser auf den Kunden einzustellen, Stärken und insbesondere Schwachstellen zu identifizieren und die Effizienz von Marketingmaßnahmen einzuschätzen und zu optimieren. In Verbindung mit diversen Daten aus der geografischen und geschäftsspezifischen Umgebung des Objektes lässt sich deren Einfluss auf das Kaufverhalten, die Verweildauer des Kunden und die Umsätze der Retailer feststellen. Aus der Betrachtung mehrerer diesbezüglicher Zyklen lässt sich hier eine nützliche Prognose ableiten, die mittel- und langfristig eine Optimierung der Prozesse und Logistik des Retailers erlaubt. Darüber hinaus lässt sich in Verbindung mit einer entsprechenden Smartphone-Applikation, die die Navigations-Funktionalität enthält, die Kundenbindung erhöhen. Auch können Produkte und Dienstleistungen über dieses Medium personalisiert beworben werden. Shoppingcenter können ihre Besucher-Bereiche als virtuelle Marketing-Flächen anbieten. Ein zusätzlicher, nicht zu vernachlässigender Nebeneffekt für den Shoppingcenter-Betreiber ist hier die Möglichkeit, diese Marketingflächen an interne und externe Retailer und Dienstleister zu vermieten und somit die Investitionen in das System refinanzieren zu können.

Was für einen konkreten Nutzen hat der Endanwender – wie hilft ihm die Lösung?
Im Shoppingcenter kann der Endkunde zunächst auf einfache Art und Weise seine bevorzugten Shops und gewünschte Servicepoints im Shoppingcenter finden. Ganz besonders positiv wird der Kunde diese Funktionalität insbesondere in größeren und unübersichtlichen Shoppingcentern empfinden. Des Weiteren ist die Möglichkeit gegeben, in Parkhäusern, die größtenteils nur noch schwer zu unterscheidende Bereiche aufweisen, sein Auto schnell und unkompliziert wiederzufinden. Ein Vorteil, den jeder Kunde insbesondere nach der ersten Erfahrung einer längeren Suche nach seinem Fahrzeug in einem großen Parkhaus zu schätzen wissen wird. Im Krankenhaus können Patienten und Besucher geführt werden. Ein weiterer wichtiger Anwendungsfall ist das Auffinden von Gerätschaften, wie Defibrillatoren und Betten, sowie das Überwachen von Blutkonserven. Krankenhausbetreiber können auf skalierbare Lösungen zurückgreifen. Daneben ist auch die Navigation des Facility-Managements und von Maintenance-Mitarbeitern zu bestimmten Wartungspunkten ein wichtiges Anwendungsszenario, da so auch Externe schnell und eindeutig zu ihren Arbeitsstellen geführt werden können, ohne komplizierte Pläne oder Personal des Auftraggebers nutzen zu müssen. In der Industrie unterstützen Lokalisierungs-Systeme den Alleinarbeiter in kritischen Situationen. Auch bei der Lagerhaltung optimieren wir bereits vorhandene IT-Lösungen.

Wie verläuft die konkrete Implementierung vor Ort?
Im ersten Schritt nehmen wir die Anforderungen des Kunden auf und spezifizieren gemeinsam das komplette System. Basierend auf diesen Informationen stellen wir aus unserem Portfolio die passenden Technologien zusammen. Je nach Szenario können wir dabei die Anforderung des Kunden an die Genauigkeit bis hin zu zehn Zentimetern abdecken. Unter Umständen sind in dem Implementierungsprozess auch Anpassungen an bereits vorhandene IT-Systeme des Kunden notwendig. Anschließend planen wir die Infrastruktur für die Lokalisierung mit Funkplanungs-Software basierend auf den beschriebenen Genauigkeits-Anforderungen. Schließlich erfolgt die Installation der benötigten Infrastruktur. Parallel zu diesen Schritten wird eine eigene mobile App für den Kunden erstellt oder eine bereits bestehende erweitert. Nach einer Qualitäts-Überprüfung des kompletten Systems und natürlich auch der Genauigkeit kann der Kunde das System übernehmen. Zusätzlich bieten wir die vollständige Wartung oder auch den Betrieb des Systems an.

Kernaussagen

  • Durch die Indoor-Lokalisierung können in Gebäuden Personen geführt und Güter lokalisiert werden.
  • Indoor-Lokalisierungs-Lösungen sind dabei, in den Bereichen Industrie, Gesundheitswesen sowie Groß- und Einzelhandel zum Standard zu werden.
  • Indoor-Lokalisierung vereinfacht und optimiert in Verbindung mit Business-Intelligence die Prozessabläufe in unterschiedlichen Szenarien.
  • Indoor-Lokalisierungs-Systeme erhöhen die Arbeitssicherheit.
  • Durch Indoor-Lokalisierung können neue Dienste generiert und bereits bestehende Dienste erweitert werden.

Wie wird sich die Technologie weiterentwickeln?
Wir erwarten, dass die Lokalisierungs-Technologie immer stärker zu einem Standard ähnlich wie GPS wird. Die für die Lokalisierung verwendete Infrastruktur wird ein integraler Bestandteil der Gebäudetechnik wie zum Beispiel eine Brandmeldeanlage sein und wird mit anderen Komponenten, im Rahmen von Smart Buildings, interagieren. Hier erwarten wir nach wie vor energiesparende, kostengünstigere, noch leistungsfähigere Geräte und sich daraus ergebende neue Möglichkeiten. Wir erkennen, dass die unterschiedlichen Sparten ein starkes Interesse an den Diensten, die die Lokalisierung bietet, haben. Das sind neben den erwähnten Dienstleistungen für den Besucher oder dem Auffinden von Gütern und Waren ganz besonders die positionsbezogenen Analysen. Durch diese neuen Datenquellen ergeben sich moderne Dienste-Dimensionen, die von der Business-Intelligence über Marketing, Asset-Tracking bis hin zur Security und Arbeitssicherheit reichen. Wir beschäftigen uns schon lange mit Business-Intelligence in Verbindung mit Positionsdaten und bieten auch diese komplexen Prozesse und Analysen aus einer Hand. Die steigende Nachfrage zeigt, dass Lokalisierungs-Dienste, wie z. B. das Tracking von Assets, zu einem Standard werden. Durch die beständige Optimierung dieser Bereiche sind unsere Kunden für das Zeitalter der digitalen Transformation gerüstet.

Genauigkeit und Einsatzfeld typischer Ortungssysteme für Location-based Services (Quelle: Qualigon)

Wäre eine „Kopplung“ mit anderen Navigationslösungen denkbar?
Wir können die Indoor-Lokalisierungs-Technologien z. B. mit den bekannten GPS-Systemen verknüpfen. Damit ist ein nahtloser Übergang zwischen der Indoor- und Outdoor-Lokalisierung möglich. Dies erspart dem Kunden die Notwendigkeit, den Outdoor-Bereich, wie z. B. Lagerflächen, Parkanlagen oder Außenparkplätze, mit Infrastruktur auszustatten. Bei einer Integration der unterschiedlichen Dienste in schon bestehende Systeme ist es auch möglich, den Kunden, der mit dem Auto kommt, bis zum Parkhaus zu leiten. Von dort übernimmt sein Smartphone die Navigation durch die Fußgängerzone oder das Shoppingcenter bis zum Regal, in dem das Produkt zu finden ist. Mit entsprechenden Informationen ist die mobile App in der Lage, den Kunden zu einem freien Parkplatz zu führen, der den kürzesten Weg zum Shop mit dem ausgewählten Produkt aufweist.

Bieten Sie Schnittstellen für App-Entwickler, Ihre mit dem Fraunhofer IIS gemeinsam entwickelten Technologien und Dienste zu nutzen?

Das System bietet verschiedene Schnittstellen, die auch von externen App-Entwicklern genutzt werden können, um ihre Applikationen mit der Lokalisierungs-Technologie zu erweitern. Dies ist auch notwendig, da viele Kunden bereits eigene mobile Applikationen besitzen, die um die Lokalisierungsmöglichkeit angereichert werden sollen. Basierend auf den Anforderungen passen wir auch die Schnittstellen an bestimmte bereits im Unternehmen genutzte Systeme an.

Wie stellen Sie sicher, dass die Dienstequalität gewährleistet wird?
Lokalisierungs-Systeme bestehen in der Regel aus mehreren Modulen wie Infrastruktur, gegebenenfalls Apps für Smartphones, diversen Server-Komponenten und den bereits angesprochenen Schnittstellen zu anderen Systemen. Um die Qualität der zugehörigen Dienste gewährleisten zu können, müssen die einzelnen Module fehlerfrei zusammenwirken. Für den Kunden übernehmen wir die Installation, den Betrieb und die Wartung der Infrastruktur. Somit ist die Lokalisierungs-Genauigkeit, welche zum Beispiel für Business-Intelligence-Systeme maßgeblich ist, nicht nur einmalig nach der Installation, sondern auch für die Zukunft gewährleistet. Für die Sicherstellung der Netzqualität überprüfen wir die vorhandenen WiFi- und Mobilfunknetze durch eigene Messsysteme. Dabei ergibt sich in der Regel ein Optimierungsbedarf der Netze, um die Kundenanforderungen erfüllen zu können. Auch bei der Implementierung liefern wir unseren Beitrag zur Sicherstellung der Quality of Experience. Hier begleiten wir die Entwicklung der Applikationen und die damit verbundenen Dienste durch das automatisierte Testen auf einer Vielzahl von Smartphones und Tablets. Um eine fehlerfreie Kommunikation zwischen Applikation und Server-Komponente gewährleisten zu können, führen wir ein kontinuierliches Monitoring von Diensten durch. Damit stellen wir die vom Kunden gewünschte Qualität sicher. Natürlich sind bei den angesprochenen Komponenten die Security sowie der Datenschutz wichtige Aspekte, die berücksichtigt werden müssen. Wir arbeiten hier mit spezialisierten Partnern zusammen, die uns dabei unterstützen, den Kunden den bestmöglichen Service zu bieten.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Georgios Karachos

Smarte Lösungen für den Handel

Über die Chancen von Big Data und der Vernetzung

von Jens Lappoehn

Die Digitalisierung ist die größte technologische Revolution der letzten 200 Jahre. Sie erfasst die Wirtschaft genauso wie die Gesellschaft und verändert die Art und Weise, wie wir leben und arbeiten. Die Digitalisierung ist vor allem eines: Eine große Chance, denn viele zentrale Herausforderungen der Zukunft sind ohne digitale Technologien nicht lösbar. Telefónica Deutschland trägt als nach Kundenzahl größtes Mobilfunkunternehmen Deutschlands maßgeblich dazu bei, dass die digitale Zukunft Wirklichkeit wird. Denn wir bieten zwei zentrale Rohstoffe für die Digitalisierung: Konnektivität und Daten.
Diese Rohstoffe wollen wir nutzen. Wir sind überzeugt, dass in der Vernetzung von Dingen und der smarten Datenanalyse großes Potenzial für die Gesellschaft und die Wirtschaft steckt. Deshalb haben wir eine neue Gesellschaft, die Telefónica Germany NEXT GmbH, gegründet, die diese digitalen Wachstumsfelder vorantreibt. Auf Basis von Datenanalysen und der Vernetzung von Dingen bietet die Gesellschaft anderen Unternehmen Lösungen an, damit diese die Chancen der Digitalisierung besser nutzen können.

Milliarden Daten intelligent verknüpft

Mit über 44 Millionen Kundenanschlüssen liegt uns durch unsere normalen Geschäftsprozesse eine große Menge an Daten vor. Darunter sind vor allem solche, die ausschließlich bei uns als Netzbetreiber anfallen, beispielsweise Mobilitätsdaten. Diese entstehen, wenn Handys, z. B. beim Surfen, mit den Mobilfunkzellen kommunizieren. Täglich entstehen so mehr als vier Milliarden Datenpunkte.
Für Analysezwecke werden sie durch ein dreistufiges, TÜV-zertifiziertes Verfahren vollständig anonymisiert und im Anschluss statistisch ausgewertet. Trotz vollständiger Anonymisierung können Kunden der Verwendung ihrer Daten jederzeit wiedersprechen. Sie haben so die Möglichkeit, ihre persönlichen Präferenzen mit dem Nutzen abzuwägen, den ihre Daten für die Wirtschaft und Gesellschaft schaffen.
Intelligent verknüpft ergeben sich aus den Daten neue Erkenntnisse, die für Unternehmen unterschiedlichster Branchen ebenso wie für Kommunen, öffentliche Verkehrsbetriebe und die Gesellschaft insgesamt relevant sind. Die Erkenntnisse aus datenbasierten Analysen sind beispielsweise für Städte interessant, die unter hohem Verkehrsaufkommen leiden. Das Potenzial von Mobilfunkdaten als eine verlässliche Datenquelle für die Verkehrsplanung untersuchen wir aktuell in Stuttgart gemeinsam mit dem Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO. Zudem beteiligen wir uns an einem Pilotprojekt in Nürnberg, bei dem auf Basis von Mobilfunkdaten die Verkehrsströme und darüber die Luftverschmutzung analysiert werden.

Der Weg der Daten: vom Handy über die Anonymisierung zur Verkehrsmessung

Smarte Datenanalyse für den Handel

Präzise Daten sind nicht nur für die Verkehrsplanung hilfreich, sondern auch für den stationären Handel von großem Interesse. Online-Händler verstehen bereits sehr präzise, wie viele Kunden ihre Website besuchen, wie lange sie dort jeweils bei welchem Angebot verweilen und welche Art der Produktplatzierung für welche Zielgruppe vielversprechend ist. Auf der Grundlage dieser Kundeninformationen passen bereits viele Online-Händler ihre Angebote schnell und flexibel an die Kunden an. Wir arbeiten bei Telefónica NEXT daran, dass diese Möglichkeiten auch für den Offline-Handel, also den stationären Handel, funktionieren. Dies kommt nicht zuletzt auch den Innenstädten zugute. Unsere smarte Datenanalyse trägt dazu bei, dass der stationäre Handel Informationen über seine Zielgruppe erhält, die ihm bisher so nicht zur Verfügung standen. Wir analysieren beispielsweise mithilfe von Mobilfunkdaten Kundenströme im Umfeld einer Filiale.
Auf Basis von Daten kann der Händler seine Kunden besser verstehen und smarter mit ihnen interagieren – und nicht zuletzt seine eigenen Prozesse effizienter gestalten. Die Kunden wiederum profitieren von einem digitalen Einkaufserlebnis. Das stärkt die Position des Einzelhandels gegenüber dem Online-Handel. Händler, die online und offline Kanäle bedienen, erhalten wertvolle Informationen, wie sie diese noch besser vernetzen.

Bewegungen rund um den Store

Bislang waren Kaufhäuser und Einzelhändler auf Schätzungen angewiesen, um zu wissen, wie viele Kunden tatsächlich ihre Schaufenster passieren. Durch die smarte Datenanalyse können die Bewegungsströme vor Geschäften statistisch exakter berechnet werden, denn die Stichprobe aus anonymisierten Daten ist größer und aktueller – und nicht verzerrt durch Großereignisse oder z. B. das Wetter. Durch zusätzliche Analy­severfahren ermitteln wir beispielsweise auch, wie viele Menschen derselben Al­tersgruppe und desselben Geschlechts sich in der Nähe des Stores aufgehalten haben. Zudem können wir auf Basis der anonymisierten Daten beispielsweise typische Routen oder durchschnittliche Verweildauern bestimmter Zielgruppen berechnen. Über Roaming-Informationen ist auch die Identifikation der Zielgruppe der Touristen möglich.

Der Einzelhandel kann anhand dieser vielfältigen Informationen zum Beispiel Standorte viel besser bewerten, Öffnungszeiten optimieren, Werbung in Schaufenstern passend gestalten oder das Sortiment an die Zielgruppe anpassen. Auch Telefónica Deutschland stellte nach dem Zusammenschluss mit E-Plus mithilfe der Datenanalyse das eigene Filialnetz der Shops auf den Prüfstand. Von diesen relevanten Erfahrungen profitiert Telefónica NEXT.

Telefónica NEXT

Telefónica Deutschland hat die strategischen Wachstumsfelder „Advanced Data Analytics“ und „Internet of Things“ in einer eigenen Gesellschaft gebündelt, der Telefónica Germany NEXT GmbH mit Sitz in Berlin. Die Gesellschaft bietet anderen Unternehmen Lösungen an, damit diese die Wachstumschancen der Digitalisierung besser nutzen können. Mit „Advan­ced Data Analytics“ richtet Telefónica NEXT den Blick auf den gesellschaftlichen und wirtschaftlichen Nutzen, der sich aus der Analyse großer Datenmengen ziehen lässt. Zudem arbeitet das Unternehmen an Lösungen für das Internet der Dinge und wird mit der neuen Software-Plattform geeny.io Unternehmen dabei unterstützen, vernetzte Lösungen auch für Endverbraucher anzubieten.

In einem nächsten Schritt werden wir auch Analysen für das Innere der Stores ermöglichen. Damit erfahren Händler, wie viele und welche Kunden tatsächlich den Store betreten haben und wie lange und wo sie sich darin aufgehalten haben. So können Händler die Kundenströme viel besser verstehen und z. B. die Gestaltung ihrer Flächen optimieren oder auch den Erfolg einzelner Filialen miteinander vergleichen.
Durch die Verknüpfung von beidem – Analysen außerhalb des Stores und im Store – kann der Händler die sogenannte Customer-Journey nahezu vollständig abbilden und seine Verkaufskanäle optimieren.

Das digitale Erlebnis im vernetzten Store

Kunden erhalten datenbasiert passende Angebote von Partnern (Quelle: Quelle Telefónica Deutschland)

Wir unterstützen die Händler auch dabei, im Inneren ihrer Geschäfte digitale Technologien gewinnbringend einzusetzen – und das für beide: für Händler und Kunde. Mithilfe unserer Datenanalyse kann der Händler sein Geschäft smarter an die Bedürfnisse seiner Zielgruppe anpassen und mit seinen weiteren Verkaufskanälen vernetzen. Sei es durch stimmige Musik, passende Displays oder wertvolle digitale Zusatzinformationen. All das bietet den Kunden ein mehrere Sinne ansprechendes Erlebnis, das der Online-Handel alleine nicht ermöglicht. Dabei wird der Kontakt zu den echten Mitarbeitern nicht weniger, sondern effizienter und besser – und damit auch wirtschaftlicher für den Händler.
Für die Auswahl passender Produkte bauen wir auf einem umfangreichen internationalen Portfolio unseres spanischen Mutterkonzerns Telefónica S. A. auf. Ein Beispiel sind digitale Plakate. Sogenannte Digital Signage können mit verschiedenen relevanten und anonymisierten Daten, zum Beispiel Alter und Geschlecht der vorhandenen Kunden und Wetterdaten, verknüpft werden. So kann der Händler in Echtzeit jeweils passende Informationen oder Angebote auf den Displays präsentieren. Zusätzliche Interaktivität bieten smarte Umkleidekabinen. Der Kunde hat die Möglichkeit, Informationen über Größen- und Farbvarianten der Produkte auf einem Tablet abzurufen. Zudem kann er sich zu passenden Accessoires inspirieren und sich gewünschte Varianten von den Mitarbeitern bringen lassen.

Ein weiteres Beispiel für mehr Interaktion und gleichzeitige Effizienz sind digitale Preisschilder. Sie lassen sich vom Kunden über einen Touch-Screen bedienen und bieten ihm Zusatzinformationen zum Produkt an. Durch die zentrale Steuerung der Preisschilder kann der Händler die Fläche schneller umgestalten.

Kunden außerhalb des Stores gezielt ansprechen

Händler können von der Digitalisierung auch außerhalb ihrer Stores profitieren und mit ihrer Zielgruppe kommunizieren. Hierbei handelt es sich um spezifische Werbeangebote, die Kunden auf unterschiedlichen Wegen erreichen.

Datenschutz ist Grundvoraussetzung

Der Datenschatz ist ohne Datenschutz wertlos. Telefónica Deutschland nimmt den Datenschutz sehr ernst, denn er ist die Grundlage für die Akzeptanz von datenbasierten Geschäftsmodellen in der Gesellschaft. Deshalb ist das Herzstück der Datenanalyse ein vom TÜV zertifiziertes und von der Bundesbeauftragten für den Datenschutz und die Informationsfreiheit begleitetes Verfahren. Es sorgt dafür, dass Kundendaten über ein dreistufiges Verfahren komplett anonymisiert werden und sich auch nicht nachträglich bestimmten Personen zuordnen lassen. Trotz dieser vollständigen Anonymisierung hat jeder Kunde die freie Wahl und kann der Nutzung seiner anonymisierten Daten jederzeit widersprechen. So behält er stets die Hoheit über seine Daten.
https://analytics.telefonica.de/

Einerseits erlaubt die Plattform Axonix die datenbasierte, gezielte Ausspielung von Werbebannern beim mobilen Surfen. Andererseits können Händler mithilfe des Service O2 More Local ihre Zielgruppe per Nachricht auf dem Mobiltelefon erreichen. Mit der kostenlosen Buchung von O2 More Local erlaubt der Kunde, dass O2 seine Daten, wie Aufenthaltsort, Wetter, Tageszeit, Alter und Geschlecht, verwenden darf, um ihm Angebote von Marken per Mobile Messaging zu senden. Da die Angebote auf den individuellen Daten basieren, treffen sie mit höherer Wahrscheinlichkeit auf die Interessen des Kunden. Ihre Daten sind dabei vollständig geschützt.

Zur richtigen Zeit am richtigen Ort

Vor dem Store, im Store und in unmittelbarem Kontakt mit dem Produkt: Die Digitalisierung bietet Kunden und Händlern völlig neue Möglichkeiten der Interaktion. Wir bei Telefónica NEXT werden die Möglichkeiten der smarten Datenanalyse und der Vernetzung von Dingen weiter vorantreiben – für Angebote zur richtigen Zeit, am richtigen Ort für den richtigen Kunden.

Kernaussagen

Intelligent verknüpft ergeben sich aus den anonymisierten Daten neue Erkenntnisse, die für Unternehmen unterschiedlichster Branchen ebenso wie für Kommunen, öffentliche Verkehrsbetriebe und die Gesellschaft insgesamt relevant sind.
Mit Blick auf den Handel trägt die smarte Datenanalyse dazu bei, dass Händler Informationen über ihre Zielgruppe erhalten, die ihnen bisher so nicht zur Verfügung standen. Telefónica NEXT analysiert beispielsweise mithilfe von Mobilfunkdaten Kundenströme im Umfeld einer Filiale.
Auf Basis der Daten kann der Händler seine Kunden besser verstehen, smarter mit ihnen interagieren und der Kunde profitiert von einem digitalen Einkaufserlebnis. So kann der Einzelhandel seine Position gegenüber dem Online-Handel stärken bzw. seine Omnichannel besser miteinander vernetzen.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Jens Lappoehn

Handel mit Zukunft: Customer-Centricity

Dem Kunden mithilfe digitaler Technologien Einkaufserlebnisse zu bieten, die ihm im Gedächtnis bleiben, ist die heutige Herausforderung.

von Frank Zscheile

Der Kunde ist König, diese Weisheit gilt im Handel im Grunde schon immer (den real existierenden Sozialismus einmal außen vor gelassen). Seit einiger Zeit nun erfährt sie gleichsam eine Renaissance. „Customer-Centricity“ heißt es heute, wenn Unternehmen ihre gesamte Kultur, Strategie und damit Wertschöpfungskette an den Wünschen und Bedürfnissen des Kunden ausrichten.

Dass „Customer-Centricity“ über den bloßen Begriff des „König Kunde“ hinausführt, liegt an der digitalen Transformation. Deren neue Techniken versetzen Handelsunternehmen in die Lage, Customer-Journey und Customer-Experience positiv zu beeinflussen. Wenn sie etwa die ureigenen Vorteile des stationären Geschäfts geschickt mit den Möglichkeiten der Online-Welt verknüpfen. Oder durch digitale Technologien die „echten“ Bedürfnisse ihrer Kunden auf bisher nicht gekannte Weise erschließen. Entlang von Touchpoints im Laden oder durch Online-Befragungen lässt sich die Kundenhistorie sehr engmaschig erstellen.
Customer    -Centricity bedeutet also weit mehr als bloße Neugestaltung von Sortiment, Ladenfläche oder Werbemaßnahme. Es findet im Handel vielmehr ein Kulturwandel statt, der auf den neuen Möglichkeiten der Digitalisierung basiert. Sie stellt Unternehmen vor bislang ungekannte Herausforderungen: Märkte werden transparent und schnelllebig und was heute angesagt ist, kann schon morgen überholt sein. Touchpoints entlang der Customer-Journey wollen erschlossen und bedient werden. Lokale Händler müssen sich der Konkurrenz global agierender Internetkonzerne stellen. Neue Medien, moderne Kommunikationskanäle, Internet of Things und die Methoden für Echtzeitanalysen riesiger Datenbestände kommen als Technologien zum Einsatz. Sie setzen die Trends und schaffen gleichzeitig neue Geschäftsmodelle.

Der Handel der Zukunft, er entsteht in diesem Moment! Wer hier mithalten will, muss auf die digitale Transformation setzen. Denn wie selbstverständlich tragen die Kunden ihre gestiegenen Erwartungen aus dem privaten Umfeld an den Handel heran: Eine direkte und individualisierte Kommunikation, wie sie sie aus sozialen Medien kennen; Produkte und Services, die sie jederzeit, mobil und auf einfache Art und Weise einsehen, bestellen und bewerten können – dies möchten sie bitte auch von ihrem Händler geboten bekommen. Wer agil ist und mit den passenden Methoden den Kunden ins Zentrum rückt, hat dabei die entscheidenden Erfolgsfaktoren auf seiner Seite.

Weiterführende Reportagen aus TREND REPORT

Heft 3/2015 „Vernetzte Gesellschaft“
„Handel mit Zukunft“, Autor Chris Löwer
https://trendreport.de/handel-mit-zukunft/

 

 

Heft 1/2016 „Creative Companies“
Reportage „Future Store“, Autor Chris Löwer
https://trendreport.de/future-store-handel-mit-zukunft/

 

 

Heft 3/2016 „#DigitaleTransformation“
„Future Store 2.0 – Handel mit Zukunft“,
Autor Frank Zscheile
https://trendreport.de/future-store-2-0-handel-mit-zukunft/

 

 

 

Dem Kunden mithilfe digitaler Techniken neue Kundenerlebnisse zu verschaffen, ist also die heutige Herausforderung für Handelsunternehmen. Dass dafür Kundendaten benötigt werden – und zwar je mehr, desto besser–, darin sehen Fachleute derzeit allerdings noch einen Hemmschuh bei der digitalen Transformation. Zumindest bei deutschen Unternehmen, die der internationalen Konkurrenz an dieser Stelle noch hinterherlaufen. Zwar plaudern die Menschen auf Facebook & Co. Intimes in großer Menge heraus, gleichzeitig sorgen sie sich aber um die Sicherheit und Verwertung einmal preisgegebener Daten.
Flankiert wird diese Haltung durch eine in Deutschland starke Regulierung der Datenverwendung. Da fällt es schwer, mal eben ein digitales Profil des Kunden anzulegen, um ihn besser kennenzulernen und damit bedienen zu können. Die Unternehmen wissen dies und fordern von ihren Kunden folglich weniger Daten ein, als sie für den Aufbau neuer Geschäftsmodelle eigentlich bräuchten. Bis also Systeme zur Vorhersage des Kaufverhaltens („Predictive Marketing“) nicht nur im angelsächsischen und asiatischen Raum, sondern auch hierzulande im Sinne der digitalen Transformation eingesetzt werden, braucht es wohl noch einige Zeit.

Die digitale Revolution: einfach machen!

von Anette Bronder

Viel Lärm um nichts oder entscheidender Wettbewerbsvorteil? Bei den meisten Unternehmen ist mittlerweile angekommen, dass sie sich mit dem Thema „Digitalisierung“ beschäftigen müssen, um zukunftsfähig zu sein. Fachkräftemangel, ein schärferer Wettbewerb, Start-ups, die mit einer cleveren Idee ganze Branchen umkrempeln, neue technische Möglichkeiten – das sind die großen Herausforderungen, die die heutigen Unternehmen jetzt aktiv angehen müssen. Der Treiber für nachhaltiges Wachstum? Digitaler Fortschritt!

Fast alle Branchen werden mit Chancen und Risiken der Digitalisierung konfrontiert, auch wenn unterschiedliche Bereiche und Prozesse betroffen sind. Unternehmen können im Internet der Dinge einzelne Produkte, Herstellungsprozesse, ganze Wertschöpfungsketten oder auch komplette Geschäftsmodelle vernetzen. Und das müssen sie auch: Kunden erwarten im sogenannten „Age of the Customer“ individuelle, preisgünstige Konsumgüter und schnellen Service. Hier haben deutsche Firmen Nachholbedarf, denn das Potenzial von IoT ist laut einer Studie von PAC erst zu fünf Prozent ausgeschöpft. Es gilt: Wer die erste Halbzeit der Digitalisierung verschlafen hat, muss in der zweiten erst recht Gas geben.

Was hindert Unternehmen daran? Häufig fehlt es an Digitalisierungs-Know-how. Eine aktuelle Studie von Crisp Research ermittelte anhand eines Reifegradmodells die Fähigkeit von Führungskräften, die digitale Transformation ihrer Unternehmen voranzutreiben. Und fand heraus, dass 71 Prozent nur wenig Wissen rund um neue digitale Technologien und auch kein ausgeprägtes „Digital-First“-Denken aufweisen. Viele dieser Entscheider können durchaus konkret die Eigenschaften und Funktionen nennen, die einen „Digital Leader“ ausmachen. Dennoch fehlt ihnen an der ein oder anderen Stelle der Digitalisierungswille und auch das Wissen, es gewinnbringend umzusetzen.

Um den nötigen Sprung in die digitale Welt zu schaffen, sind Dienstleister und Produktanbieter umso mehr gefordert. Besonders branchenspezifische Anwendungen und standardisierte Plattformansätze für den einfachen Einstieg in das IoT werden dringend benötigt. Wir müssen Anwendern Schützenhilfe leisten und Lösungen anbieten, die sich schnell und einfach implementieren lassen. So nehmen wir Unternehmen die großen Ängste vor der digitalen Angriffsfläche und der Komplexität der vernetzten Welt. Eine häufig gestellte Frage: Wie viel muss ich in meinem Unternehmen digitalisieren? Ich rate immer klein anzufangen und den Digitalisierungsgrad langsam auszubauen. Auf einzelne Geräte oder Bereiche begrenzte Lösungen bieten Unternehmern die Möglichkeit, eine Vernetzung auszuprobieren und auf Potenziale für ihr gesamtes Geschäftsmodell abzuklopfen. Besonders für kleine und mittelständische Firmen, die große und riskante Investitionen scheuen, ist dies ein unkomplizierter Weg ins IoT.

Welche Strategie hin zum digitalen Unternehmen ist die richtige? Zunächst sollte man das Potenzial der Digitalisierung für sich erkennen. Maschinenbauer wie Pfannenberg, der Klimatisierungslösungen für Schaltschränke baut, oder der Küchengerätehersteller Rieber vernetzen ihre Geräte, um sie aus der Ferne zu überwachen und zu steuern. Dampfkesselproduzent Certuss geht sogar noch einen Schritt weiter: Er verbindet seine Maschinen mit der Cloud, um die gewonnenen Daten zur vorbeugenden Wartung, der sogenannten „Predictive Maintenance“, zu nutzen. Thomas Hamacher, Chief Technical Officer bei Certuss, sagt, er gehe damit auf „Spurensuche“, um anhand der interpretierten Daten die Geräte vorausschauend zu warten und die Zufriedenheit der Kunden zu erhöhen. Diese Unternehmen haben herausgefunden, wie sie digitale Lösungen für sich nutzen können, und sie haben diese Erkenntnis mithilfe einfach anwendbarer Lösungen in die Tat umgesetzt.

Um Fahrstühle, Kühlschränke oder Werksmaschinen ins Internet zu bringen, sind drei Komponenten vonnöten: Netz, Sensoren, die Daten übertragen, und die Cloud, wo die Daten intelligent ausgewertet werden.

Und von solchen Optimierungen bestehender Produkte und Dienstleistungen sowie effizienteren Strukturen und besseren Kostenstrukturen profitieren bereits viele Unternehmen. Noch aber zögern Firmen, neue Wege einzuschlagen und in das Ungewisse zu investieren. Digitale Transformation erfordert durchaus Mut und vor allem Offenheit. Das ist eine der Herausforderungen. Die andere besteht darin, richtig zu digitalisieren – mit Strategie, den richtigen Partnern und optimalen IT-Lösungen.

Auch wir Dienstleister sind in der Pflicht, denn kein Anbieter kann das Internet der Dinge alleine beherrschen. Starke Kooperationen mit Partnern und ein eng verknüpftes Ökosystem aus Infrastruktur, Plattformen und Produkten, die sich stets branchenübergreifend einsetzen lassen, ist die Voraussetzung für eine umfassende Vernetzung. So lässt sich etwa ein intelligenter Kühlschrank mit anderen Geräten zu einem Smart Home, mehrere Smart Homes mit weiteren Lösungen wie Smart Parking lassen sich zu einer Smart City vernetzen. Doch solche Möglichkeiten sind zugleich sehr komplex. Zudem wächst die Zahl der Anbieter rasant. Dies erschwert Unternehmen die Investitionsentscheidung. Know-how und Vertrauen auf allen Seiten aufzubauen ist ein Muss für IT-Anbieter. Denn wir verkaufen ja keine schnell konsumierbaren Produkte wie Milch oder Kaffee. Vielmehr geht es in der IT-Branche um langfristige, vertrauensvolle Beziehungen mit Kunden und darum, neben dem Verkäufer auch zum Berater und Partner für die Digitalisierung zu werden.

Drei Dinge sind das Grundgerüst einer erfolgreichen digitalen Transformation: Digitalisierte interne Prozesse, ein technologischer Unterbau, der die gesamte IT-Landschaft beheimatet und vernetzt, und nicht zuletzt die digitalen Geschäftsmodelle, die nah am Kunden ausgerichtet sein müssen. Diese Komponenten müssen Unternehmen mit unserer Hilfe in Angriff nehmen; nicht morgen, sondern heute. Sonst setzen sie in der digitalen Welt die Zukunft ihrer Firma aufs Spiel.

Kernaussagen

  • Wer am Markt eine Chance haben will, muss Mut zum Wandel haben und die Digitalisierung sowie die Cloud in den Mittelpunkt der eigenen Strategie stellen.
  • Häufig fühlen sich Unternehmen von der Komplexität der digitalen Welt überfordert. Digitalisierung einfach machen ist Aufgabe der Dienstleister – einen einfachen Einstieg bieten branchenspezifische Anwendungen und standardisierte Plattformen.
  • Keiner kann das IoT allein beherrschen, denn die eine Lösung für alle Zwecke gibt es nicht. Nur mit Partner-Ökosystemen lassen sich die digitalen Kundenwünsche von morgen beantworten.
  • In Zukunft dreht sich alles um die Echtzeitverarbeitung immer dichterer Datenströme aus verschiedenen Quellen; schnelle Netze, intelligente Datenanalyse-Tools und sichere Cloud-Plattformen sind der Schlüssel dazu.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Anette Bronder

Internet of Things

Smart Things kommunizieren über das Internet der Dinge miteinander, wodurch neue Möglichkeiten automatischer Prozesse entstehen.

von Andreas Fuhrich

Statt selbst Gegenstand der menschlichen Aufmerksamkeit zu sein, soll das „Internet der Dinge“ den Menschen bei seinen Tätigkeiten unmerklich unterstützen. Dabei bezeichnet das Internet of Things (IoT) die Verknüpfung eindeutig identifizierbarer physischer Objekte mit einer virtuellen Repräsentation in einer internetähnlichen Struktur.

Die automatische Identifikation mittels RFID wird oft als Grundlage für das Internet der Dinge angesehen. Allerdings kann eine eindeutige Identifikation von Objekten auch mittels anderer Identifikationsverfahren, wie Strichcode oder 2D-Code, erfolgen. Bauteile wie Sensoren und Aktoren erweitern die Funktionalität um die Erfassung von Zuständen bzw. die Ausführung von Aktionen.

Ziel des IoT ist die automatische Übertragung von Zustandsdaten realer Dinge in die virtuelle Welt, um dort weiterverarbeitet werden zu können. Solche Daten können beispielsweise Informationen über die aktuelle Nutzung, den Verbrauch, aber auch über besondere Umweltbedingungen am Ort des „Things“ sein. In einem IoT-Netzwerk kommunizieren auf diese Weise mehrere Dinge miteinander und sind in der Lage, sich gegenseitig Aufgaben zuzuweisen.

Wearables sind ein typisches Einsatzgebiet des IoT. Eine Smartwatch kann beispielsweise ihren Träger genau lokalisieren und diese Daten an die Heizung im Smart Home übermitteln. So kann sich diese automatisch ausschalten, falls das Haus verlassen wird, und sich einschalten, wenn man sich nähert.
In der Wirtschaft spielt das IoT vor allem im Zusammenhang mit der Industrie 4.0 eine wichtige Rolle. Dabei soll, nach Plänen der Bundesregierung, eine weitestgehend selbst­organisierte Produktion möglich werden: Menschen, Maschinen, Anlagen und Produkte kommunizieren und kooperieren direkt miteinander. Durch die Vernetzung soll es möglich werden, nicht mehr nur einen Produktionsschritt, sondern eine ganze Wertschöpfungskette zu optimieren. Das Netz soll zudem alle Phasen des Lebenszyklus des Produktes einschließen – von der Idee eines Produkts über die Entwicklung, Fertigung, Nutzung und Wartung bis hin zum Recycling. Durch die Aktionen, die auf Basis der Daten des eigenständigen Informationsaustauschs zwischen Produktionsmaschinen, Lagersystemen und Betriebsmitteln entstehen, ergeben sich diverse Vorteile: Produkte können effizienter hergestellt werden und die Produktqualität kann verbessert. Der Energieverbrauch kann optimiert werden, da die einzelnen Teilnehmer eines IoT-Netzwerks nur dann aktiv sind, wenn sie wirklich benötigt werden. Durch die Nutzung moderner Technologien wird der Arbeitsplatz auch für die Mitarbeiter attraktiver. Zudem können Produkte kundenindividueller hergestellt werden, wodurch die Kundenbindung verbessert wird.

Von entscheidender Bedeutung beim IoT ist das Thema Sicherheit. Schließlich können Hacker nicht nur Daten stehlen oder verändern, sondern auch die Steuerung der Dinge übernehmen. Das Gefahrenpotenzial etwa im E-Health-Bereich oder bei Steuerungssystemen eines Kraftwerks ist daher außerordentlich.

EIM: Informationen werden zum Geschäftsvorteil

Mit Blick auf die Zukunft der Information ist es nicht leicht, mit der Technologieentwicklung mitzuhalten. Dabei ist der Wandel vom „Enterprise
Resource Planning“ (ERP) hin zu „Enterprise Information Management“ (EIM) als Informationssystem der Zukunft bereits in vollem Gange. Die Verarbeitung von strukturierten und unstrukturierten Daten stellt Unternehmen vor neue Herausforderungen, bietet jedoch große Chancen.
Ein Gespräch mit Roger Illing, Senior Vice President Enterprise Sales Europe, und Lars Drexler, Vice President Solution Consulting EMEA beim Digitalisierungsexperten OpenText.

Die Digitalisierung bringt Unternehmen klare Vorteile. Warum haben trotzdem relativ viele Menschen Angst davor?
Roger Illing: Das ist in der Tat ein sehr wichtiger Punkt. Natürlich werden manche Prozesse, die zuvor von Menschen erledigt worden sind, nun von der IT abgearbeitet. Das gilt nicht nur für die Produktion mit ihren Robotern, sondern auch für informationsverarbeitende Prozesse. Schon heute haben von den 70 000 Mitarbeitern einer Bank womöglich nur noch 10 000 regelmäßigen Kundenkontakt. Zukünftig wer­den noch mehr dieser Prozesse automatisiert ablaufen. Diese Entwicklung ist aber nicht nur negativ, sondern bietet auch Chancen wie mehr Flexibilität, Kreativität und Freiraum für die Mitarbeiter. Das sind im Übrigen alles Punkte, die der nächsten Generation von Arbeitnehmern, den Millennials, sehr wichtig sind.

Die Millennials sind mit der Digitalisierung aufgewachsen. Inwiefern spielen diese privaten Erfahrungen eine Rolle?
Lars Drexler: In vielen Bereichen des Alltags machen User leider immer noch negative Erfahrungen mit der Digitalisierung. Das liegt unter anderem auch daran, dass viele Angebote im Netz sehr binär daherkommen: Es gibt ein Produkt und einen Preis. Möglicherweise ist das Angebot für den User sogar komplett irrelevant. Diese Art der Digitalisierung bringt wenig Mehrwert. Interessant für den potenziellen Kunden wird es erst dann, wenn maßgeschneiderte Informationen durch unstrukturierte Informationen angereichert werden. Ein gutes Beispiel dafür sind die Benutzerrezensionen im Online-Kaufhaus. Jede einzelne Bewertung ist sehr subjektiv. In Summe vermitteln sie aber ein gutes Bild über das, was den Käufer erwartet. Auch im beruflichen Umfeld sollten Mitarbeiter jederzeit für sie relevante Informationen mit anderen Daten in Verbindung bringen können.

  • Digitale Transformation umfasst nicht nur die Optimierung einzelner Geschäfts­prozesse sondern auch eine Neuausrichtung des Unternehmens bis hin zu neuen, digitalen Geschäftsmodellen.
  • Ein ganzheitliches Informationsmanagement bricht Informationssilos im Unternehmen auf und sorgt für die umfassende Verwaltung und Analyse des Informationsflusses.
  • Mit Enterprise-Information-Management-(EIM)-Systemen lassen sich sowohl strukturierte als auch unstrukturierte Daten und Abläufe im Unternehmen auffinden, verwalten und gewinnbringend einsetzen.

Was müssen Unternehmen tun, um dieses Ziel zu erreichen?
Roger Illing: Die Zukunft gehört den EIM-Plattformen. EIM steht für „Enterprise Information Management“. Darunter verstehen wir die Möglichkeit, unstrukturierte Daten in den Griff zu bekommen. Das können Dokumente und Präsentationen sein, die in unterschied­lichen Ordnern lagern, aber auch Videos, Bilder, Folien und viele andere Medien. In diesen Materialien schlummern wertvolle Informationen, die mit klassischen Methoden nicht genutzt werden können. Die Menge, Vielfalt und Geschwindigkeit dieser Informationen machen sie immer schwerer verständlich und verwendbar, sogar dann, wenn sie unverzichtbar für den Unternehmensalltag werden. Mit Blick auf diese Vorteile werden EIM-Plattformen sich durchsetzen und einen ähnlichen Wandel einleiten wie ERP-Systeme in den 90-er Jahren.

Welche Rolle spielen Prozesse dabei?
Lars Drexler: Klar definierte Prozesse sind die Basis, um überhaupt als digitales Unternehmen auftreten zu können. Unternehmen sollten nicht den Fehler der frühen Internetjahre wiederholen, als viele Webserver aufgesetzt wurden, ohne dass sich jemand Gedanken über die grundlegenden Prozesse gemacht hat. Dabei kommt es gerade darauf an, wenn das volle Potenzial von „Electronic Data Exchange“ (EDE) in Zukunft ausgeschöpft werden soll. Dabei ersetzt EDE zunächst Papierdokumente durch elektronische Versionen. Anschließend werden die Daten in einem Dokument in einem Standardformat übermittelt, sodass Sender und Empfänger in der Lage sind, das Dokument exakt zu lesen. Das ist jedoch erst der Anfang.

Welche Entwicklungen stehen in diesem Bereich an?
Roger Illing: Ein zentrales Zukunftsthema ist, dass Produkte in Zukunft mit der Bestellung definiert werden. Noch handelt es sich dabei um große Visionen, die allerdings besonders in Verbindung mit Industrie 4.0 sehr vielversprechend sind. Noch sind viele Unternehmen auf dieses Thema nicht vorbereitet. Das Interesse daran wächst jedoch. Damit EDI in dieser Form funktioniert, kommt es vor allem auf eine integrierte Plattform an. Mit einer einfachen Anbindung an das ERP-System ist es nämlich leider nicht getan. Die Entscheidung zur Implementierung sollte vor allem auf Unternehmensebene und nicht auf technischer Ebene getroffen werden, wenn alle Vorteile einer EDI-Investition genutzt werden sollen.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Lars Drexler

Informationen zu Roger Illing