Beiträge

Handel mit Zukunft

Tiefere Datenanalyse, NLP und mehr Automatisierung
sind gefragter denn je.

von Frank Zscheile

Omni- oder Multichannel sind für den Handel keine neuen Trends mehr, sondern vielfach gelebte Realität. Welcher Kanal bedient wird, ist zweitrangig, es geht um das Erlebnis, bei dem sich „online“ und „offline“ zu smarten Services ergänzen. Grundlage dafür sind die dahinterliegenden Datenmengen. Sie lassen sich heute durch Analyseinstrumente, die mit künstlicher Intelligenz angereichert sind, immer besser hinsichtlich ihrer weiteren Verwendung im Business-Kontext auswerten.

Neue Algorithmen zur Textanalyse sind inzwischen sogar in der Lage, Stimmungslagen in Kundenschreiben selbstständig zu erkennen. Solche bislang verborgenen Informationen können Handelsunternehmen im Sinne des Geschäftsnutzens einsetzen. Wenn Kundendaten genauer analysiert werden, lassen sich die Ergebnisse als Grundlage für individuelle Kundenansprachen und digitales Marketing einsetzen. Dabei werden alle Kunden-Touchpoints mit relevanten, vom Kunden gewünschten Informationen bespielt – ideal für die Stärkung von Kundenbindung (Customer Loyalty).

Neue Algorithmen zur Textanalyse sind inzwischen sogar in der Lage, Stimmungslagen in Kundenschreiben selbstständig zu erkennen.

Treiber dieser Entwicklung sind die Forderungen der Verbraucher nach Echtzeitunterstützung, kontinuierlicher Unterhaltung sowie umfassender Konnektivität und Sicherheit. So wird Consumer IoT zum nächsten logischen Schritt der digitalen Evolution des Handels.

Automatisierte Service-Interaktionen

„Themen wie künstliche Intelligenz und Blockchain haben ihre Nische längst verlassen und sind zu gesellschaftsrelevanten Themen geworden“, weiß auch Matthias Wahl, Präsident des Bundesverbandes Digitale Wirtschaft (BVDW) e. V. Mit KI lassen sich gleichzeitig Geschäftsabläufe zwischen IT-Systemen des Handels automatisieren, Stichwort „Robotic Process Automation“. B2B-Marktplätze werden an ERP-, CRM- und weitere Backendsysteme und Datenbanken angebunden. Dies führt weiter zu automatisierten Service-Chatbots, bei denen sich die Beschäftigten im Service erst später oder im Bedarfsfall in die konkrete Kundenkommunikation einschalten.

Bekanntheit und Nutzung mobiler KI-Anwendungen

Gartner sagt voraus, dass 2021 15 Prozent aller Service-Interaktionen automatisiert sein werden. Künstliche Intelligenz wird dabei für eine zunehmend natürliche Art solcher sprachlichen Interfaces sorgen, was die Verbreitung wiederum verstärken wird. Wirkliche Dialoge sind es freilich nicht, die mit Chatbots ablaufen, sondern eher kurze Frage-Antwort-Sequenzen. Mit dem durch KI gewonnenen Wissen aus Datenbanken werden sich aber in absehbarer Zeit auch mehrstufige flexible Dialoge automatisieren lassen können. Dadurch erschließen sich neue Anwendungsfelder im Kundenservice, die mit einfachen Frage-Antwort-Systemen nicht adressiert werden können.

Unternehmen müssen „insight-driven“ werden

In seinem Report „The Forrester Wave™: AI-Based Text Analytics Platforms, Q2 2018“ beschreibt das Analystenhaus Forrester, wie sich durch den Einsatz künstlicher Intelligenz aus Daten zusätzliches Wissen gewinnen lässt. „Insight-driven“ müssten Unternehmen werden, fordert Forrester-Analyst Boris Evelson. Dabei geht es vor allem um das in unstrukturierten Daten enthaltene Wissen, welches in Unternehmen heute Schätzungen zufolge rund 80 Prozent ausmacht: E-Mails, PDFs, Archivsysteme, Videos, Tondokumente, Social-Media-Posts etc. Hierfür kommen Techniken der linguistischen und semantischen Analyse („Natural Language Processing – NLP“ oder Computerlinguistik) zum Einsatz.

Unter NLP versteht man die Fähigkeit eines Computerprogramms, menschliche Sprache so zu verstehen, wie sie gesprochen bzw. geschrieben wurde. Tiefergehende NLP-Systeme benutzen die Wortarten zur Extraktion vordefinierter Muster und extrahieren selbstständig bestimmte Kategorien von Begriffen, z. B. Personen- und Ortsnamen, Postleitzahlen, Nummernschilder.

Kundenkorrespondenz modern auswerten

Der eigentliche Prozess des Text-Minings und der Extraktion von Keywords, Themen und Konzepten liegt laut Forrester dabei nur bei rund einem Fünftel des Aufwands. Der weitaus größere Teil entfiele auf den Aufbau von Datenverbindungen, die Integration und Bereinigung der Daten sowie den Aufbau einer domänenspezifischen Ontologie und user­orientierter Oberflächen. Während die meisten Hersteller noch immer hauptsächlich Stimmungsanalysen anbieten, ermöglicht die Software von Clarabridge auch eine hoch differenzierte Emotions-, Anstrengungs- und Absichtsanalyse.

Loyalität aus Daten

Das Konzept von Clarabridge zeigt, wie wichtig es sein kann, das in unstrukturierten Daten verborgene Wissen zu heben. Die Customer Loyalty lässt sich dadurch deutlich festigen. Im Omnichannel ist hier ohnehin noch Luft nach oben, glaubt Michael Bregulla, Head of New Sales bei der Ingenico Marketing Solutions GmbH. Das Unternehmen entwickelt Programme zur Vertiefung der Kundenbeziehungen für alle Verkaufskanäle. „Bindungseffekte sollten im Wesentlichen aus dem Preisvorteil generiert werden, obwohl der eigentliche Wert in den aggregierten Daten des bis dato anonymen Kunden liegt“, so Bregulla. „Schon heute schlummern bei vielen Händlern riesige Datenpotenziale, die gar nicht wertbringend abgeschöpft werden. Die Digitalisierung offenbart jetzt die Chance für eine ganzheitlichere Erfassung des Kundenverhaltens.“

Bindungseffekte sollten im Wesentlichen aus dem Preisvorteil generiert werden, obwohl der eigentliche Wert in den aggregierten Daten des bis dato anonymen Kunden liegt.

Dazu bedürfe es einerseits Werkzeuge wie linguistischer und semantischer Analyse. Gleichfalls sei aber ein erweitertes Mindset bei Handelsunternehmen gefragt und die Bereitschaft, Dinge auszuprobieren und auch wieder zu verwerfen. So kristallisiert sich für Händler ein Gesamtbild der technisch-organisatorischen Rahmenbedingungen heraus, wie sich das Datenpotenzial von Customer-Loyalty-Programmen im Omnichannel zur personalisierten Kundenansprache und Steuerung des Kaufverhaltens nutzen lässt.

Voice Commerce und Audiovermarktung

Smart Speaker wie Amazon Alexa, Google Home, Telekom Magenta und Co. und die dahinterliegende Voice-Technologie haben in jüngster Zeit die nächste Welle losgetreten und den Zugang zu Audio-Content weiter vereinfacht. BVDW-Präsident Matthias Wahl: „Dadurch erhält Audio-Content einen deutlichen Schub, den Unternehmen für sich nutzen müssen.“ Das Medium Audio verändert sich damit grundlegend: Content wird interaktiv und wächst von einer One-Way-Communication zu einem Dialog-Umfeld.

Consumer IoT

Sprachgesteuerte Smart Speaker werden neben der reinen Audio-Content-Nutzung zu hohen Anteilen zur Informationsbeschaffung genutzt. Eine weitere Möglichkeit für Handelsunternehmen, ihre Kunden zu adressieren. Die technologische Basis dieser Produkte ist wiederum die Fähigkeit von Software, menschliche Sprache immer besser zu verstehen. Analog zu anderen Kommunikationskanälen benötigen Unternehmen deshalb eine eigene Voice- und Audiostrategie. Sie müssen eine Audio-Identity und eigenen Audio-Content entwickeln und mit ihren Marken, Produkten und Angeboten ihren Zielgruppen auf die neuen Geräte folgen. Wie dies praktisch umzusetzen ist, dafür gibt der BVDW auf seiner Webseite hilfreiche Hinweise.

Einkauf auf Zuruf

Fragt man die Smart Speaker heute nach einem bekannten Produkt wie Pampers, so wird in der Regel erstmal der Wikipedia-Eintrag vorgelesen. „Voice Search SEO muss noch deutlich gezielter als Desktop und Mobile betrieben werden, um Verkaufschancen über Voice zu steigern – auch weil die Chancen auf Sichtbarkeit deutlich geringer sind als am Desktop“, erklärt Frank Bachér von RMS.

So wird sich Voice Commerce über Skills entwickeln und neben Webshops und Apps der nächste Absatzkanal für den Handel werden, in dem Einkäufe auf Zuruf möglich werden. Vor allem im Bereich der FMCG („Fast Moving Consumer Goods“) dürfte dies einer der spannendsten neuen Trends sein. Damit dürften die smarten Lautsprecher künftig wohl ihrem Namen eher gerecht werden im Vergleich zu heute, wo sie hauptsächlich nur für einfache Aufgaben wie das Abspielen von Musik und die Wettervorhersage genutzt werden. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Cloud-Computing

Tipps für eine zukunftsorientierte Cloud-Strategie

von Bernhard Haselbauer

Dezentral, flexibel und günstig – Cloud-Computing erobert mit hoher Skalierbarkeit bei niedrigen Kosten immer mehr deutsche Unternehmen. Auch in diesem Jahr ist der Cloud-Markt wieder gewachsen. Deutsche Unternehmen setzten mittlerweile auf die Public Cloud, Single-Cloud-Architekturen werden in Zukunft nur noch die Ausnahme darstellen.

Es kann festgehalten werden, dass durch Cloud-Dienstleistungen Betrieb und Wartung von IT‐Ressourcen hinfällig werden. Dies führt zu geringeren Personalkosten in der IT‐Abteilung und Unternehmen müssen weder in Hardware investieren, noch Überkapazitäten für Lastspitzen bereithalten. Momentan lauten die Trendthemen Multi-Cloud, Blockchain, Edge Computing, RPA und künstliche Intelligenz (KI). Aufgrund des großen Anwendungspotenzials steigt die Nachfrage nach Datenverarbeitung und KI immer mehr. Aber wie können wir uns zum Bespiel „KI/AI as a Service“ als Cloud-Dienstleistung vorstellen?

Zum Beispiel haben Cloud-Anbieter bereits KI-Anwendungen für Unternehmen als „as a Service“ in ihr Angebot integriert – d. h., sie stellen diese Anwendungen über „Open Source Platforms“ zur Verfügung, sodass Unternehmen keine eigenen Tools oder Infrastrukturen aufbauen müssen. Der Vorteil für Unternehmen liegt darin, dass Entwicklungszeiten so reduziert und Kosten gesenkt werden können. Das Investitionsrisiko für den Einstieg in KI reduziert sich also, während die Flexibilität steigt. Wollen Unternehmen von verschiedenen KI-Anwendungen Gebrauch machen, die für komplexe Szenarien eingesetzt werden können, so müssen die verschiedenen Anwendungen und Datenbanken zusammenarbeiten. Mit Multi-Cloud-Architekturen kann das weltweit erreicht werden.

Die Ressourcenverteilung der Cloud-Infrastruktur wird künftig nicht nur automatisiert ablaufen, vielmehr werden selbstlernende Computersysteme die zugrunde liegenden Automatismen nutzerspezifisch weiterentwickeln.

Viele Berichte deuten darauf hin, dass 2019 das Jahr der Multi- und Hybrid Cloud werden soll. Aus dem Englischen übersetzt bedeutet Multi-Cloud die Verwendung mehrerer Cloud-Computing- und Storage-Services in einer einzigen heterogenen Architektur. Dies wird auch als Polynimbus-Cloud-Strategie bezeichnet und bezieht sich auch auf die Verteilung von Cloud-Assets, Software, Anwendungen usw. in mehreren Cloud-Hosting-Umgebungen.

Die Multi-Cloud verhält sich aus Anwendersicht wie eine einzige große Cloud. Wie die Hybrid Cloud kann die Multi-Cloud mehrere Cloud-Modelle wie die Private Cloud oder die Public Cloud integrieren.

Die meisten Unternehmen werden wohl zunächst mit Hybrid-Cloud-Lösungen arbeiten, um Abhängigkeiten zu vermeiden. Außerdem können User der Hybrid Cloud Angebote von mehreren Cloud-Anbietern vergleichen und so das Kostenrisiko optimieren. Zusätzlich werden weitere Redundanzen die Ausfallsicherheit erhöhen. Aus diesen Gründen werden wohl die großen Public-Cloud-Anbieter das Thema „Vendor Lock-in“ weiter verfolgen. Wer sich mit dem Thema Cloud-Computing beschäftigt, hat wahrscheinlich den Begriff Vendor-Lock-in bereits gehört. Hier spricht man von einem sogenannten Lock-in-Effekt, wenn sich ein Kunde so abhängig von einem bestimmten Hersteller gemacht hat, dass der Wechsel zu einem alternativen Anbieter aufgrund zu hoher Transaktionskosten unwirtschaftlich ist.

Um die Vorteile einer Hybrid- oder Multi-Cloud-Umgebung zu nutzen, empfehlen wir einen kompetenten „Managed Services Provider“ (MSP) zu konsultieren.


Von Robotik und Automation

Lange verdammt, unentwegt einfachste Handlungen zu verrichten, mutieren Roboter zu autonom agierenden „Kollegen“ mit flexiblen Aufgaben.

von Andreas Fuhrich

Automatisierung ist ein maßgeblicher Erfolgsfaktor des produzierenden Gewerbes. Durch sie lassen sich Kosten senken und dennoch höchste Qualitätsansprüche realisieren. Bezahlbare und leistungsfähige Produkte, vom Smartphone bis zur Sicherheitstechnik im Auto, sind ohne sie nicht denkbar.

War das Thema Automatisierung bis vor einigen Jahren noch den „großen“ Unternehmen vorbehalten, gehen mittlerweile mehr und mehr kleine und mittelständische Betriebe dazu über, ihre Fertigung zu automatisieren.(1)

Roboter, als wesentliche Bausteine der Automatisierung, dienen dabei vermehrt als persönliche Produktionsassistenten, die direkt mit dem Werker in gemeinsamer Arbeitsumgebung ohne trennende Schutzzäune interagieren. Innovative Sicherheitskonzepte verbunden mit dem vermehrten Einsatz von Sensorik, Software und Bildverarbeitungstechnologie bilden die ausschlaggebende Basis der hierfür notwendigen erhöhten Sicherheit.(2)

China ist mit der größte Produzent von Industrierobotern und produzierte laut einer Schätzung der International Federation of Robotics 2017 115 000 Einheiten. Dahinter folgen Südkorea (44 000), Japan (42 000) und USA (36 000). Auf Platz fünf rangiert Deutschland (21 000)(3), wo die Branche 2017 erstmals einen Umsatz von über 14 Mrd. Euro erwirtschaftete.(4)

IoRT – Das Internet of Robotic Things

Während Roboter ursprünglich dazu angedacht waren, einfache repetitive Aufgaben unentwegt auszuüben, sind sie heute in der Lage, mit ihrer Umwelt zu interagieren und intelligentes Verhalten zu zeigen. Ein Roboter mit einer Verbindung zum Internet verfügt dabei über eine immense Informationsquelle, die ihm bei Entscheidungsfindungen und Interaktionen hilft. Vernetzen sich diese Roboter zusätzlich auch untereinander, entsteht eine gemeinsame Intelligenz, die für alle betreffenden Geräte die günstigsten Handlungsabläufe ermitteln kann. Das Konzept der Einbindung von Teams aus Robotern in das IoT wird als das „Internet of Robotic Things“ oder das „IoRT“ bezeichnet.

Autonome Roboter-Schwärme

Derart vernetzte Schwarm-Drohnen werden bald in Gruppen zu Hunderten oder Tausenden um uns schwirren, in Formationen wie bei Vogelschwärmen. In Zukunft könnten solche Schwärme etwa kostengünstig Pipelines, Hochspannungsleitungen und Industrieanlagen inspizieren oder in der Landwirtschaft Pestizide und Herbizide versprühen, und zwar exakt dosiert an den erforderlichen Stellen.

Die Grundlagen der Robotik – Erfassung, Bewegung, Mobilität, Manipulation, Autonomie und Intelligenz – werden durch das Internet of Things auf eine neue Stufe gehoben. Roboter müssen nicht länger selbst mit kognitiven Fähigkeiten ausgerüstet sein, denn schließlich stellt das IoT mit all seinen Sensordaten wiederverwendbare und offen verfügbare Informationen bereit, auf die sie zur Erfüllung ihrer Aufgaben zugreifen können. Dies ermöglicht eine Miniaturisierung vernetzter Roboter-Schwärme bis auf Nano-Ebene, wodurch ganz neue Möglichkeiten eröffnet werden.(5)


5G: Steuerung ohne Latenz

Der 5G-Standard: Grundvoraussetzung für das Industrial IoT

von Kristina Kastner

Immer mehr, immer schneller: Jahrzehntelang wurden mit jedem neuen Mobilfunkstandard die Datenraten massiv erhöht. So auch diesmal, beim Wechsel von 4G zu 5G. Und doch ist diesmal etwas fundamental anders: Für das IoT sind exorbitante Geschwindigkeiten beim Up- und Download zwar interessant, wichtiger aber sind Zuverlässigkeit, niedrige Latenzen und eine gute Festkörperdurchdringung. Im Mittelpunkt der Standardisierungsbemühungen stehen bei 5G mehrere Milliarden Maschinen, Autos, Dinge, die in Echtzeit miteinander kommunizieren wollen.

Mobilfunknetze haben seit den 1980er-Jahren vor allem einen Zweck: Menschen zu verbinden. Zunächst diente das Netz ausschließlich zum Telefonieren, also der Sprachübertragung. Danach gab es ungefähr alle zehn Jahre einen Entwicklungssprung durch die Einführung eines neuen Mobilfunkstandards.

In den 1990er-Jahren kam mit der zweiten Generation (2G) die Textübertragung in Form der SMS hinzu. Internetfähig war kaum ein Mobilgerät. Und wenn doch, wurden mobile Daten über GPRS oder per Edge (E) mit maximal 220 kbit / s übertragen. Das reicht kaum für den Aufbau einer modernen Website.

Mit der dritten Generation (3G oder auch UMTS) begann der Siegeszug der Smartphones und das Internet wurde mobil – um mit der vierten Generation (4G oder auch LTE-Advanced) seine heutige Geschwindigkeit zu erreichen. In der Theorie sind heute Downloadgeschwindigkeiten von 1 000 Mbit / s möglich, in der Praxis sind es allerdings eher 50 Mbit / s. Das liegt zum Beispiel daran, dass zu viele Nutzer in einer Zelle eingewählt sind, oder daran, dass sich der Nutzer in einem geschlossenen Raum befindet und sich der Empfang dadurch deutlich verschlechtert.

Seit 1998 federführend bei der Standardisierungsarbeit ist 3GPP („3rd Generation Partnership Project“), eine weltweite Kooperation von Standardisierungsgremien. Ein Großteil aller Mobilfunknetzbetreiber, -hersteller und -regulierungsbehörden ist hier organisiert und erarbeitet technische Spezifikationen, die alle Aspekte der Mobilfunktechnik möglichst präzise beschreiben. So soll sichergestellt werden, dass die Mobilgeräte der Hersteller in den Mobilfunknetzen weltweit kompatibel sind.

„In der Fabrik der Gegenwart sind zahlreiche Prozesse automatisiert. Zudem werden heute bereits Maschinendaten gesammelt, analysiert und zur Optimierung von Abläufen genutzt.“

Soweit zur Geschichte der Mobilfunkstandards. Die Zukunft heißt 5G und wird für das Jahr 2020 erwartet. 5G verspricht nicht weniger als eine Revolution: Zum ersten Mal steht nicht die Kommunikation zwischen Menschen im Mittelpunkt der Weiterentwicklung, sondern die zwischen Dingen – das Internet of Things. Selbstverständlich wird auch in diesem Entwicklungsschritt das Mobilfunknetz bzw. das mobile Internet noch komfortabler für die menschlichen Anwender. Bis zu 10 Gb / s Downloadgeschwindigkeit und sogar 20 Gb / s im Upload sollen zukünftig laut 3GPP-Spezifikationen – in der Spitze – möglich sein. 5G richtet sich (zumindest in Europa) aber weniger an die Endverbraucher als vielmehr an die Industrie und die hat, über die hohen Bandbreiten hinaus, ganz andere Bedürfnisse.

Vernetzung in der Smart Factory

In der Fabrik der Gegenwart sind zahlreiche Prozesse automatisiert. Zudem werden heute bereits Maschinendaten gesammelt, analysiert und zur Optimierung von Abläufen genutzt. So kann mancherorts der Wartungsbedarf prognostiziert und vorausschauend eingeplant werden – Stillstände werden so vermieden. Um die dafür benötigten Daten zu sammeln, werden die Maschinen mit Sensoren ausgestattet, die in einem lokalen Netzwerk vernetzt sind und die Daten zu einer Plattform in einer Cloud schicken.

Die Fabrik der Zukunft, die Smart Factory, basiert auf solchen intelligenten Einheiten. Das bedeutet, die Zahl der vernetzten Dinge steigt: Dazu gehören etwa fahrerlose Transportfahrzeuge in der Logistik oder Transportbehälter, die ihre aktuelle Position und ihren Füllstand melden, aber auch Augmented-Reality-Brillen, die die Fabrikarbeiter durch komplexe Anwendungen und Arbeitsschritte führen.

Der große Unterschied zwischen heute und morgen: Heutige Vernetzungstechnologien sind größtenteils noch kabelgebunden. Hier kommen vor allem Ethernet- und Feldbus-Technologien zum Einsatz. Die Smart Factory aber muss kabellos funktionieren, denn nur so wird die benötigte Mobilität und Flexibilität möglich – also etwa das Tracken einer Lieferung in einer komplexen Logistikkette. Heutige Funkverbindungen genügen jedoch kaum den Ansprüchen der Smart Factory, insbesondere in Hinblick auf Zuverlässigkeit, Latenzen und die Möglichkeit, eine große Masse an Dingen miteinander – in Echtzeit – zu vernetzen.

Erste Schritte auf dem Weg zur Smart Factory sind heute schon möglich: So existieren bereits jetzt mit Narrowband-IoT und M2M-Kommunikation Technologien und Konzepte, die die Vernetzung zwischen Dingen bzw. Maschinen möglich machen. Narrowband-IoT ist als 3GPP-Standard Teil von „Long Term Evolution“ (LTE). Er funktioniert über simple Funkmodule, die per Plug & Play installiert werden und günstig in der Anschaffung und im Betrieb sind – und somit ideal für IoT-Anwendungen, die nur ab und zu kleine Datenmengen versenden. An Narrowband-IoT lässt sich bereits ablesen, was den 5G-Standard gegenüber seinen Vorgängern so besonders macht: Bei Industrieanwendungen wie dem IoT geht es nur selten um große Bandbreite und hohe Geschwindigkeiten. Vielmehr müssen kleine Datenmengen zuverlässig übertragen werden – auch in schwierigen Umgebungen und über große Distanzen.

Das Netzwerk in Scheiben schneiden

Die Herausforderung, die der 5G-Standard meistern muss, liegt auch und besonders in der Zahl der Geräte, die sich im mobilen Netz befinden. Laut einer Prognose des US-amerikanischen Marktforschungsunternehmens IDC werden im Jahr 2020 etwa 1,8 Milliarden Smartphones weltweit mobiles Internet nutzen – hinzu kommen bis zu 50 Milliarden vernetzte Fahrzeuge, Maschinen und sonstige Geräte, die miteinander, mit der Cloud und mit den Nutzern kommunizieren. Die Lösung liegt darin, das Netz zu entzerren, je nach Anforderung. Das geschieht durch das sogenannte Network-Slicing. Dabei bekommt jede Anwendung das Netz, das sie benötigt, indem das Netz virtuell in Abschnitte oder Sub-Netze mit eigens definierten Ressourcen- und Verfügbarkeits-Garantien unterteilt wird.

Im 5G-Netz werden neue Frequenzbereiche hinzugezogen, die bisher nicht genutzt wurden. Bisher findet der gesamte Mobilfunk im Bereich bis 6 GHz statt. Die Frequenzen darüber hinaus waren nicht nutzbar, da bislang die notwendigen Technologien fehlten. Die neuen, großen Übertragungsraten finden alle oberhalb von 6 GHz statt. Das bedeutet unter anderem, dass das Netz deutlich engmaschiger werden muss, als das bisher der Fall war. Hier werden die Mobilfunkbetreiber investieren müssen, in neue – und vor allem mehr – Antennen. Das Signal der IoT-Endgeräte dagegen muss Wände und andere Festkörper durchdringen können, da es in Gebäuden auch vom Kellergeschoss ins Erdgeschoss gelangen muss. Diese Festkörperdurchdringung ist besonders bei den niedrigen Frequenzen gegeben, außerdem wird in diesem Spektrum eine hohe Zuverlässigkeit erreicht. Für eine flächendeckende Abdeckung ist das 2,6-GHz-Spektrum prädestiniert.

Pro Quadratkilometer eine Million vernetzter Geräte

Das IoT stellt fünf große Anforderungen an das mobile Netz: Größtmögliche Netzabdeckung, robuste Übertragungen, maximale IT-Sicherheit, geringstmöglicher Stromverbrauch und minimale Kosten. IoT-Endgeräte verbrauchen durch die Einschränkungen bei der Datenrate und der Sendefrequenz sehr wenig Strom, sodass ein Batteriesatz zehn Jahre oder länger halten kann. Aufgrund der geringen benötigten Bandbreite lassen sich mehrere 10 000 IoT-Endpunkte (an denen die gesendeten Daten der vernetzten Geräte zusammenlaufen) mit einer Funkzelle versorgen. Das 5G-Netz wird für die Vernetzung von einer Million Geräte / Dinge pro Quadratkilometer ausgelegt sein.

„Die Herausforderung, die der 5G-Standard meistern muss, liegt auch und besonders in der Zahl der Geräte, die sich im mobilen Netz befinden.“

Ein weiterer Faktor, der für das IoT elementar ist, ist die niedrige Latenz. Der Zeitraum zwischen dem Auftreten eines Signals beim Sender und dem Eintreffen desselben beim Empfänger muss für Industrieanwendungen so kurz wie möglich sein, sodass etwa im Falle einer Störung im Produktionsablauf kein Domino-Effekt einsetzt und weitere Schäden nach sich zieht. Gleichzeitig dürfen die betreffenden Anwendungen praktisch keinerlei Ausfall verzeichnen. Im 4G-Netz liegt die Latenz bei 10 ms, sie soll auf 1 ms in 5G sinken.


Quelle: Begleitforschung Technologieprogramm PAiCE

Mitreden bei der Standardisierung

Die Arbeit am 5G-Mobilfunkstandard soll im Rahmen der 3GPP bis Ende 2019 abgeschlossen werden, sodass 2020 mit der Einführung begonnen werden kann. In den einzelnen Arbeitsgruppen sind auch Vertreter aus Forschung und Wirtschaft vertreten, unter anderem auch aus Deutschland. So auch mehrere Projektpartner des Forschungsprojektes IC4F aus dem Technologieprogramm PAiCE des Bundesministeriums für Wirtschaft und Energie (BMWi), das an robusten und echtzeitfähigen Kommunikationslösungen für die verarbeitende Industrie arbeitet. Sie konnten einige relevante Anwendungsfälle und Anforderungen an 5G im Kontext der Smart Factory in die 5G-Standardisierung einbringen. Diese wurden im Technical Report „Study on Communication for Automation in Vertical domains” berücksichtigt. Auf diese Weise können einzelne Branchen Einfluss darauf nehmen, dass ihre Interessen bei der Formulierung des 5G-Standards berücksichtigt werden.

„Die Arbeit am 5G-Mobilfunkstandard soll im Rahmen der 3GPP bis Ende 2019 abgeschlossen werden, sodass 2020 mit der Einführung begonnen werden kann.“

Der betreffende Technical Report deckt Anwendungsfälle aus wichtigen Bereichen wie Service-Robotik, Augmented Reality, Virtual Reality, Fertigungsautomatisierung, Prozesssteuerung und -überwachung, mobile Fernsteuerung und Fernwartung mit Sicherheitsfunktionen sowie massive funkbasierte Sensornetze ab. So konnte etwa festgelegt werden, dass mobile Robotiksysteme, die über ein 5G-Netz kommunizieren, in der Lage sein müssen, in Echtzeit miteinander zu kommunizieren und Kontrolldaten auszutauschen. Dies ist elementar für die kollisionsfreie Zusammenarbeit, da in der Fabrik der Zukunft bis zu hundert (potenziell bis zu 1 000) autonome mobile Robotiksysteme gleichzeitig zusammenarbeiten werden. Einer von vielen Schritten hin zu einem Industrial IoT. //


Autorenvita Kristina Kastner

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Das „Internet of Medical Things“ (IoMT)

E-Health-Innovationen machen unser Leben sicherer und gesünder – ein Milliardengeschäft.

Das Marktforschungsunternehmen Gartner erwartet bis 2020 weltweit 20 Milliarden vernetzte Medizingeräte, die im Krankenhaus 4.0, beim Arzt, im Smarthome oder in der Smart City zum Einsatz kommen. Der Gesamtwert des IoMT-Marktes in Europa betrug laut einer Studie von Deloitte letztes Jahr rund 12 Mrd. US-Dollar. 2020 sollen es 40 Mrd. sein. Auf dem Markt tummeln sich dabei nicht nur diverse Start-ups, sondern vor allem auch Big Player wie Siemens, Apple und Google bzw. die Alphabet-Tochter verily.

Vielfalt der Sensoren

Herzfrequenzsensoren erkennen Anzeichen eines Vorhofflimmerns, Beschleunigungssensoren registrieren schwere Stürze und schlagen Alarm. Sensoren sind heute in der Lage, nahezu jede Körperfunktion rund um die Uhr zu überwachen, machen unser aller Leben und vor allem das von Patienten leichter und sicherer. Diabetiker, Epileptiker und Herzpatienten werden schon gewarnt, bevor sie selber Anzeichen verspüren und Krankenhäuser und (Not-)Ärzte können frühzeitig alarmiert werden.

Viele Sensoren sind dabei heute so klein, dass sie einfach mit der Smartwatch getragen werden können. Für spezielle Anwendungen geht es auch noch kleiner bzw. filigraner. Sensoren auf Kontaktlinsen etwa sind in der Lage, anhand der Tränenflüssigkeit den Blutzuckerwert zu messen und zu übermitteln. Im Krankenhaus überwachen Sensoren dabei nicht nur Patienten, sondern auch medizinische Geräte. Diese lassen sich so nicht nur leicht lokalisieren, sondern auch rechtzeitig warten. Durch die Möglichkeiten einer Predictive Maintenance werden so Ausfallzeiten verhindert und Kosten gesenkt.

AR und VR

Durch Augmented Reality lassen sich komplette Eingriffe realitätsnah simulieren. Im echten OP erleichtern auf Datenbrillen projizierte Informationen das Operieren. Der Chirurg muss nicht mehr seinen Kopf zum Monitor heben, sondern kann sich komplett auf den Patienten konzentrieren. In Zukunft sollen Mediziner während einer Operation passgenau CT- und MRT-Bilder über den Patienten eingeblendet bekommen, um bestimmte Bereiche besser lokalisieren zu können.

Ein Forscherteam der RWTH und FH Aachen präsentierte im Juni eine 3-D-Betrachtung eines stark verlagerten Kiefergelenkbruchs mittels einer Virtual-Reality-Brille. Dabei wurde deutlich, wie hilfreich eine solche Darstellung für den Chirurgen bei der Planung seines Eingriffs sein kann. Natürlich ist diese Technologie auch während der fachärztlichen Ausbildung oder während des Studiums besonders vielversprechend.

Digitale Gesundheitsakte

Gesundheitsminister Jens Spahn will, dass ab 2021 Versicherte generell ihre Patientendaten auch per Handy oder Tablet einsehen können. Während die Techniker Krankenkasse und die AOK eine eigene Lösung anbieten, ist „vivy“ ein Gemeinschaftsprojekt diverser anderer privater und gesetzlicher Krankenkassen. Die App ist dabei elektronische Gesundheitsakte und persönliche Assistentin zugleich. Sie hilft bei der Einhaltung von Medikationsplänen oder erinnert an den nächsten Impf- / Vorsorgetermin. Welche Daten wann an wen übermittelt werden, entscheidet der Nutzer selbst. Auch soll technisch und organisatorisch sichergestellt sein, dass Krankenversicherungen keinen Zugriff auf persönliche Daten bekommen können. Akzeptanz und Vertrauen in derartige Produkte fehlt allerdings dennoch in breiten Schichten der Bevölkerung.

Sicherheitsbedenken

Vernetzte Geräte bilden naturgemäß eine Angriffsfläche für Hacker. Neben unseren Gesundheitsdaten kann dadurch auch unmittelbar unser Leben bedroht werden, bspw. wenn der Herzschrittmacher gehackt wird. Nach dem Medizinproduktgesetz müssen vernetzte Medizingeräte zwar besonders hohe Sicherheits- und Qualitätsauflagen erfüllen, doch absolute Sicherheit kann auch dadurch nie gewährleistet werden. Das Potenzial das Leben vor allem von Risikopatienten deutlich sicherer zu machen, scheint dabei aktuell die Risiken mehr als aufzuwiegen. Dies darf aber nicht dazu führen, verstärkte Sicherheitsmaßnahmen zu vernachlässigen. //


Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Digitalisierung und Marketing

Der Handel diskutiert bereits intensiv über das Thema der Personalisierung und Indivi­dualisierung.

von Prof. Dr. Thomas Asche

Die Dynamik im Marketing ist ungebrochen. Budgets werden immer schneller zwischen Print und Online, Personen und Maschinen, Inhouse und Dienstleistern hin- und hergeschoben. Die digitale Transformation ist Gegenstand zahlloser Kongresse und Veröffentlichungen. Im Handel führt diese Entwicklung dazu, dass sich Unternehmen nicht mehr nur dem stärker operativ geprägten Geschäft widmen dürfen. Handel ist Wandel bedeutet daher auch, sich besonders mit strategisch relevanten Umbrüchen auseinanderzusetzen.

Es gilt also, für die Zukunftssicherheit des Unternehmens sowohl operativ als auch strategisch zu agieren, wobei sich Weiterentwicklungen nicht nur auf das Online-Geschäft konzentrieren sollten. Bei der Frage, wie das Marketing der Zukunft für den Handel aussehen könnte, ist zunächst zu fragen, wie „Zukunft“ abgegrenzt werden soll. Wenn die nahe Zukunft eher eine operative Sichtweise umfasst, dann wäre die darüber hinausgehende Sichtweise eher strategisch. Insofern lässt sich eine gedankliche Matrix aufspannen, deren Felder die Herausforderungen für den Handel strukturieren.

Auch Preise werden mehr und mehr personalisiert. Willingness-to-pay-Ansätze sind hier weitere Treiber.

Online-Entwicklungen

Der Handel diskutiert bereits intensiv über das Thema der Personalisierung und Individualisierung. In E-Mails und Newslettern erfolgt i. d. R. eine formelle namentliche Ansprache der Adressaten. Wo noch nicht umgesetzt, wird dies unter Reaktionsaspekten notwendig werden. Zur Individualisierung der Online-Kommunikation gehört auch die Gestaltung zielgruppenspezifischer Inhalte in Newslettern und Homepages. Fortschritte in der Informations- und Produktionstechnologie ermöglichen weiterhin die zunehmende Individualisierung von Produkten (vgl. Gondorf, S. 37). Für den Handel zieht dies eine steigende Sortimentsvielfalt mit der Konsequenz einer höheren Artikelanzahl, mehr Regalfläche und ggf. einen geringeren Warenumschlag nach sich. Die induzierte Heterogenität der Sortimente führt zu einer geringeren Vergleichbarkeit der Preise. Auch bzgl. der Preise wird eine größere Individualisierung festgestellt. Preisverhandlungen aus dem stationären Handel oder Online-Auktionen werden noch stärker in das E-Commerce-Geschäft adaptiert. Willingness-to-pay-Ansätze sind hier weitere Treiber.

Einen weitereren Ansatz bei den Online-Entwicklungen stellen Augmented und Mixed Reality dar. Während bei der Augmented Reality erkennbar zusätzliche Informationen zur Umwelt auf das Mobile Device eingeblendet werden, erweitert die Mixed Reality die Umwelt des Nutzers unbewusst um weitere Elemente (vgl. Schart/Tschanz, S. 21). Neben dem Gaming ergeben sich für den B2B-Bereich und die Kaufberatung im Handel vielfältige Anwendungen. Inwieweit sich diese Technologien auch angesichts einer schon jetzt vorhandenen Informationsübersättigung beim Kunden durchsetzen, bleibt abzuwarten. Andere Nationen sind hier technikaffiner. Auf die Frage in einer GfK-Studie in 2016, ob virtuelle Interaktionen mit Menschen und Orten genau so gut sein können wie reale, wurden folgende Unterschiede festgestellt:
Database-Marketing wird weiter an Bedeutung gewinnen, schon allein, um die User nicht mit undifferenzierten Newslettern zu verärgern. Im Rahmen der Big-Data-Diskussion wird es darauf ankommen, die durch die Customer-Journey produzierte Datenflut sinnvoll auswerten zu können (vgl. Frick, 2016). Das klassische Database-Marketing könnte darunter leiden, weil Selektionen mehr und mehr über die getrackten Nutzungseigenschaften der User laufen werden und sich die User damit quasi selbst segmentieren.

Die Akzeptanz von Virtual Reality ist in Deutschland besonders klein bzw. die Ablehnung von Virtual Reality besonders groß. Hierzulande überwiegen also die Skeptiker.

Offline-Entwicklungen

Kunden erwarten auch offline eine immer schnellere Reaktion von Unternehmen. Hier geht es nicht nur um die tagesaktuelle Kommunikation, z. B. bei Anfragen oder Beschwerden. Eine 48-stündige Belieferung wird vorausgesetzt. Das Angebot einer Same-Day-Delivery wird von vielen Bestellern nicht nur im LEH präferiert. Instant Delivery innerhalb von zwei Stunden wird von Unternehmen bereits getestet. Das von Tankstellen schon seit langem praktizierte Dynamic Pricing wird sich auch im stationären Handel durchsetzen (v. Elm, S. 70 f.).

Durch die Verlagerung der Einzelhandelsumsätze in das Internet werden insbesondere 1b- und 1c-Lagen schrumpfen. Diese Lücken werden zukünftig Pop-up-Stores wesentlich öfter füllen. Pop-up-Stores schaffen Abwechslung und damit Attraktivität in innerstädtischen Lagen. Sie sind ein geeignetes Mittel für Sonderaktionen etablierter Händler oder Warenabschleusungen, ohne das eigentliche Ambiente der Hauptverkaufsfläche zu zerstören. Pop-up-Stores werden weiterhin vom Online-Handel eingesetzt, um physische Präsenz zu zeigen und damit die anonyme Distanz zum Kunden zu überwinden.

Der Handel muss sich kurzfristig zudem mit einer weiteren Vertikalisierung auseinandersetzen. Hersteller sind der neue Handel. Die Macht im Absatzkanal verschiebt sich. Deutlich wird dies an der Zunahme der Shop-in-Shop-Konzepte und Monolabel-Läden. Bislang beschränkt sich die Entwicklung auf Gebrauchsgüter (z. B. Haushaltswaren, Textil, Möbel). Es ist zu erwarten, dass insbesondere Hersteller höherwertiger FMGCs in dieser Richtung aktiv werden.

Online-Trends

Im Rahmen längerfristiger Online-Trends schreitet die Entmenschlichung der Kommunikation fort. Avatare begleiten den Kaufprozess, Chat-Robots beantworten Fragen zu Produkten. Das Internet of Things, bei dem Maschinen mit Maschinen kommunizieren, wird auch den B2C-Bereich erfassen – schon heute erlebbar, wenn der Kühlschrank beim Händler Nachschub ordert. Die Entwicklung zu diesem posthumanen Zeitalter wird notwendig durch die demografische Entwicklung, die aufgrund der Knappheit an menschlichen Ressourcen stärker auf smarte Systeme angewiesen sein wird.

Ein weiterer Trend, den die digitale Transformation unterstützt, ist der Trend zur Shared Economy. Der Wertewandel weg vom Eigentum zum Besitz wird durch eine Vielzahl von Geschäftsmodellen unterstützt, die heute ausprobieren, was morgen alltäglich sein wird. So werden Jeans (www.mudjeans.eu), Kinderbekleidung (www.tchibo-share.de) oder Möbel (www.in-lease.com) usw. verliehen. Das größte Wachstum wird nicht bei den Dienstleistern (z. B. Airbnb, Car2go, Uber) gesehen, sondern beim Handel und Konsumgütern. Da insbesondere Jüngere und damit die Wachstums­treiber diesem Trend offen gegenüberstehen, wird die Branche diese Geschäftsmodelle selbst stärker adaptieren müssen (vgl. PwC, 2016). Ausgenommen bleiben Verbrauchsgüter, individualisierte Produkte und Hygieneprodukte.

Die Globalisierung ist ein weiterer langanhaltender Trend. Nicht nur Unternehmen agieren als Global Player. Der Kunde nutzt ebenso das Netz für ein weltweites Sourcing. Die aktuelle Rechtsprechung fördert diese Machtverschiebung mit dem Verbot des Geoblocking. Vereinheitlichte weltweite Zahlungssysteme tun ein Übriges (Lambertz, Pinhammer, S. 26). Zusätzlich bedrängen internationale Unternehmen den europäischen Handel. Amazon, Alibaba und Rakuten haben weite Teile erobert. Ein letzter weißer Fleck ist Afrika, der auf der Suche nach Umsätzen in den Fokus rückt.

Die Absatzkanäle erleben deutliche Marktanteilsverschiebungen. (1)

Offline-Trends

Angesichts der Verschiebung der Marktanteile vom stationären Handel zum E-Commerce stellt sich die Frage nach dessen Profilierung. Ein Überleben kann nur durch eine Kooperation (z. B. intelligente Umkleidekabine, Serviceannahme) oder Omnichanneling gelingen. Der stationäre Handel ist gezwungen, noch viel stärker seine Vorteile (Unmittelbarkeit, Anonymität, Beratung, Haptik) zu kommunizieren. Dabei sollte er nicht den Fehler machen, daraus ein Preispremium abzuleiten. Die notwendigen zusätzlichen DBs kommen aus dem Mengen- und nicht dem Wertwachstum.

Das Handelsmarketing hat sich kurz- und langfristig einer Vielzahl von Herausforderungen zu stellen. Die Unsicherheit darüber, welche Ansätze Erfolg versprechend sind, ist groß.

Die Konsumerismusbewegung gewinnt aufgrund aufgeklärter Verbraucher weiter an Fahrt. Vor dem Hintergrund eines investigativen Journalismus und kritischer Verbrauchersendungen müssen Werbeaussagen auf ihre Glaubwürdigkeit überprüft werden. Das momentan stark diskutierte Influencer-Marketing wird zurückgedrängt. Testurteile und Siegel werden für die Kaufentscheidung dominanter.

Ein dritter Trend betrifft die Nachhaltigkeit. Dessen Ausgangspunkt war die Bio-Welle. Er setzt sich aktuell in der Precycling-Debatte bei (Plastik-)Verpackungen fort. Der Trend wird zukünftig ergänzt durch die stärkere Beachtung des Produktionsstandorts und der damit verbundenen Transportwege sowie die Forderung nach einer Wiederverwendbarkeit bzw. einem Zweitnutzen des Produkts (vgl. Kriener, Grimm, Berg, S. 25 ff.). Der Bezug zur Shared Economy ist offensichtlich.

Das Handelsmarketing hat sich kurz- und langfristig einer Vielzahl von Herausforderungen zu stellen. Die Unsicherheit darüber, welche Ansätze Erfolg versprechend sind, ist groß. Es bleibt wohl nur der Trial-and-Error-Ansatz, also vieles auszuprobieren, dabei zu lernen und sich schnell von nicht marktfähigen Ideen zu trennen. Die verbleibenden Ideen sichern den Fortbestand. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Der Beitrag Digitalisierung und Marketing erschien 2018 im Handbuch Handel

Ganzheitliches Zertifikatemanagement

Der Umgang mit Zertifikaten ist nicht alltäglich und erfordert spezielles Know-how.

von Werner Zügel &
Adrian Müller


Die Digitalisierung und Informationstechnologie durchdringt die Geschäftsprozesse aller Branchen und Industrien und gestaltet sie völlig neu. Vom privaten Bereich bis hin zur Medizintechnik schreitet die Digitalisierung voran. In dem Maße, in dem die Abhängigkeit von der IT steigt, werden auch die Anforderungen an Sicherheit und Vertrauen in der IT höher. Ein gehackter Gameboy war damals kaum der Rede wert, deutlich anders ist es, wenn heute Kennwort und TAN für Online-Banking abgegriffen werden.

Digitalisierung begegnet uns an vielen Stellen:

  • Eine Abfüllmaschine zeigt an, welche War­tungsarbeiten durchgeführt werden müssen, bestellt Ersatzteile und leitet Mitarbeiter an, die Wartung auszuführen.

  • Kraftfahrzeuge bremsen und steuern selbstständig und halten den richtigen Abstand zum Vordermann.
  • Digitale Unterschriften auf Verträgen ersetzen Papier und Postweg.

  • Diagnosegeräte schreiben Ergebnisse direkt in die Patientenakte.

  • Die Wartungshistorie von Fahrzeugen oder Maschinen wird dokumentiert.

Nachholbedarf bei der IT-Sicherheit

Die Digitalisierung bringt jedoch auch neue Herausforderungen mit sich. Denn das IT-Sicherheitsniveau erfüllt in vielen Bereichen die Ansprüche europäischer Industrieländer nur ungenügend. „Die Gefährdungslage ist weiterhin hoch“, konstatierte das Bundesamt für Sicherheit in der Informationstechnik (BSI) 2018. Einer BSI-Studie zufolge wurden 70 Prozent der befragten Firmen Opfer von Cyberangriffen. In knapp der Hälfte der Fälle waren die Angreifer erfolgreich und die betroffenen Unternehmen hatten Produktions- oder Betriebsausfälle. Meist ziehen die Attacken wirtschaftliche Schädigung oder Imageverlust nach sich.

Beispiele aus der jüngeren Vergangenheit:

  • Ein 20-Jähriger greift Daten von über 1 000 Prominenten ab und veröffentlicht sie im Internet.
  • Eine Attacke auf das IT-Netz des Auswärtigen Amtes gelingt Ende 2017.
  • Verschlüsselungstrojaner wie bspw. Locky mit erpresserischen Geldforderungen machen die Runde.
  • Mithilfe von Phishing-Mails oder -Webseiten können Login-Daten und Kennwörter für Accounts von Online-Shops oder -Banking ausgespäht werden. Dem Kunden einer Smartphone-Bank wurden so in jüngster Vergangenheit 80 000 Euro gestohlen.

IT-Gefährdung, Angriffe und Attacken nehmen weiter zu

Schadprogramme werden ständig intelligenter und sind kaum als solche auszumachen. Eine Studie des Branchenverbands Bitkom schätzt den wirtschaftlichen Schaden in Deutschland auf über 60 Milliarden Euro pro Jahr. Immer neue Angriffsmethoden erfordern eine von Anfang an durchdachte Sicherheitsarchitektur und sich ständig weiterentwickelnde Mechanismen für deren Abwehr. Die bisher üblichen Firewalls und Virenschutzprogramme greifen zu kurz.

Abb. 1: Situation IT-Sicherheit

Verschiedene Quellen, u. a. das BSI, prognostizieren eine starke Ausbreitung von Cyberangriffen:

  • Phishing über verschlüsselte Webseiten oder Fake-E-Mails wird 2019 zunehmen. Phishing betrifft meist Angriffe auf Login-Daten, Passwörter, Kreditkartendaten und Adressbücher (erleichtert durch anonyme domainvalidierte Zertifikate in Mail und Webseiten).
  • Einschleusen von Schadsoftware (Trojaner) in Computer und Netze durch anonymes Code-Signin

Sicherheitskonzepte für Vertrauensbildung, Integrität und Zertifikatemanagement

Die gute Nachricht: Für IT-Sicherheit gibt es Lösungen. Die Prävention gegen Cyberangriffe erfordert jedoch ständige Beobachtung und Weiterentwicklung der IT-Sicherheitsarchitektur an den aktuellen Stand der Technik, was Investitionen bedeutet. Betriebswirtschaftlich betrachtet, ist die Prävention günstiger als der potenzielle Schaden und die Reparatur.

Abb. 2: SwissSign und essendi bieten gemeinsam Zertifikate und PKI-Lösungen, die höchsten Anforderungen gerecht werden. Mit SwissSign in Kombination mit dem essendi xc sind Unternehmen in der Lage, die steigende Anzahl der Zertifikate und der verschiedenen Einsatzzwecke zu beherrschen und gleichzeitig Abläufe zu vereinfachen und sicherer zu gestalten.

Rahmenbedingungen schaffen
Vor allen technischen Vorkehrungen steht die Organisation der IT-Sicherheit. Dazu gehört die Benennung von Teams und Verantwortlichen. Der „Chief Information Security Officer“ (CISO) ist der IT-Sicherheitsbeauftragte im Unternehmen. Die ISO-Norm 27001 sowie eine Zertifizierung nach BSI-Grundschutz erfordern die Einsetzung eines CISO.

Software und Betriebssysteme aktuell halten
Bei Hackern ist die Ausnutzung von Sicherheitslücken verbreitet. Daher müssen Programme und Infrastrukturkomponenten laufend auf dem neuesten Stand gehalten und Sicherheits-Updates zeitnah eingespielt werden.

Strategien für Cyberabwehr
Unternehmen benötigen eine Strategie zur systematischen Erkennung und Abwehr von Cyberattacken. Für Interessierte: Im Mitre-Attack-Framework (https://attack.mitre.org/) sind über 200 potenzielle Cyberangriffssze­narien beschrieben.

Grundkonstrukte der Sicherheit im E-Commerce
Auch in der Online-Welt bildet Vertrauen die Grundlage des Geschäftsverkehrs. Authentifizierung, also die elektronische Identifizierung der Teilnehmer, ist dafür unabdingbar. Sie wird z. B. über Zertifikate anerkannter Anbieter bewerkstelligt.
Autorisierung ist die sichere Prüfung der Be­rechtigung, eine bestimmte Transaktion durch­zuführen. Die Verschlüsselung stellt sicher, dass die Korrespondenz vertraulich bleibt.

Gesetzgeber und Branchen haben die Anforderungen erhöht
Der Gesetzgeber und regulatorische Stellen (bspw. CA/Browser Forum) fordern daher strengere Regeln und Normen. Mit der im Mai 2018 in Kraft getretenen Datenschutzgrundverordnung (DSGVO) der EU gelten striktere Vorschriften für den Schutz persönlicher Daten. Systeme, die personenbezogene Daten verarbeiten, müssen den aktuellen Anforderungen des Datenschutzes genügen. Verstöße sind kein Kavaliersdelikt mehr. Entsprechende Software, Webseiten oder Server müssen deshalb dem Stand der Technik entsprechen.

Empfehlungen und Handlungsfelder

  • Interne Regeln für den Umgang mit Kryptographie und Schlüsselmaterial aufstellen
  • Vorgaben für den Aufbau und Betrieb einer internen PKI (siehe Abbildung 2)
  • Vorgaben für die Zusammenarbeit mit öffentlichen Zertifizierungsstellen (CA) mit hohem Vertrauenslevel (z. B. EV-SSL)
  • Hohe Anforderungen an den Vertrauenslevel von Zertifikaten; organisationsvalidierte Zertifikate im freien Internetverkehr bieten mehr Schutz gegen Phishing
  • Werkzeuge für das Management des gesamten Lebenszyklus von Zertifikaten einsetzen
  • Festlegung, in welchen Anwendungsbereichen, welche Zertifikate eingesetzt werden
  • Vorgaben für die Auslegung von Zertifikaten (Attribute, Validierungslevel etc.)
  • Regeln für die Ausgabe und Verwaltung von Zertifikaten
  • Einsatz von Hardware-Sicherheitsmodulen (HSM) für Schlüsselmaterial und Zertifikate

Des Weiteren werden mit dem IT-Sicherheitsgesetz Betreiber kritischer Infrastrukturen verpflichtet, ihre IT nach dem Stand der Technik abzusichern (KRITIS). Das schweizerische Bundesgesetz über die elektronische Signatur (ZertES) und die europäische Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen (eIDAS) stellen hohe Anforderungen an digitale Identitäten im Kontext elektronischer Transaktionen (E-Business, E-Government etc.).

Damit der elektronische Geschäftsverkehr außerdem zuverlässig und sicher funktioniert, bedarf es mehrerer Bausteine:

Standards und Vorgaben für Kryptographie und Schlüsselmaterial
Die ISO-Norm 27001 verlangt interne Richtlinien für Kryptographie und die Verwaltung von Schlüsselmaterial. Zertifikate und private Schlüssel sind elementare Bausteine der IT-Sicherheit und Vertrauensbildung.

Die Einsatzbereiche von Zertifikaten sind vielfältig, z. B. Verschlüsselung und Signatur von E-Mails, digitale Unterschriften, Multifaktor-Authentifikation oder die Absicherung von offenen APIs (B2B-Webservices). Allgemein bekannt ist das Verschlüsselungsprotokoll „Transport Layer Security“ (TLS) / „Secure Socket Layer“ (SSL). TLS bietet Sicherheit im Internet und ist an einem Schloss oder der Zeichenfolge „https“ zu Beginn der Internet-Adresse zu erkennen. Etwa 80 Prozent des Web-Verkehrs sind heute durch TLS abgesichert, Tendenz steigend.

Zertifikate in hoher Qualität
In den letzten Jahren hat sich eine fast schon durchgehende Verschlüsselung des Internet-Datenverkehrs durchgesetzt, nicht zuletzt wegen gratis verfügbarer Zertifikate wie z. B. von Let‘s Encrypt, bei denen (nur) der Domain-Name überprüft wird. Die Schattenseite ist, dass domainvalidierte Zertifikate aufgrund ihrer einfachen Verfügbarkeit potenziell auch von Phishing-Sites verwendet werden. Ein auf Sicherheit und Datenschutz bedachter Benutzer sollte deshalb darauf achten, relevante Daten nur auf Websites einzugeben, die vertrauenswürdig abgesichert sind.

Zertifikate und private Schlüssel sind elementare Bausteine der IT-Sicherheit und Vertrauensbildung.

Wie wird dieses Vertrauen erzeugt? Bei TLS-Zertifikaten vertraut man als normaler Benutzer üblicherweise den CA-Zertifikaten, welche vom Browser (oder Betriebssystem) mitgeliefert werden. Auch wenn es im Detail Unterschiede gibt, folgen die Hersteller dabei den Vorgaben des CA/Browser (CAB) Forums (http://www.cabforum.org, das Gremium der Browser-Hersteller und Zertifizierungsstellen).

Das CAB Forum definiert verschiedene Vertrauensstufen für TLS-Zertifikate:

  • Die Basisvariante nennt sich „Domain Validated“ (DV). Bei den oben erwähnten einfach erhältlichen Zertifikaten handelt es sich um DV-Zertifikate: Über technische Mittel wird sichergestellt, dass der Antragssteller der Besitzer der Domain ist.
  • Bei Zertifikaten der Vertrauensstufe „Organizational Validation“ (OV) werden zusätzliche Abklärungen getroffen, es wird der (Organisations-)Name des Antragstellers geprüft. Erst ab dieser Stufe weiß man, mit wem man es wirklich zu tun hat. Eine Website, auf der man Bestellungen aufgibt oder persönliche Daten eingibt, sollte mindestens über ein solches Zertifikat abgesichert sein.

  • Noch weitergehende Prüfungen werden auf der Stufe „Extended Validation“ (EV) durchgeführt, welche in diesem System die höchste Vertrauensstufe darstellt.

SwissSign stellt Zertifikate gemäß den drei oben erwähnten Vertrauensstufen bzw. Certificate Policies des CAB Forums aus, ist konform zu den vom ETSI (Europäisches Institut für Telekommunikationsnormen) definierten Policies und ist anerkannter Anbieter zur Ausstellung von Zertifikaten gemäß schweizerischem ZertES. Über eine Tochterfirma ist SwissSign in der eIDAS-Anbieterliste enthalten und wird direkt auf der „Adobe Approved Trust List“ (AATL) aufgeführt. Die Entwicklung der SwissSign-Software und die Datenhaltung erfolgen zu 100 Prozent in der Schweiz. SwissSign bietet bei allen Produkten absolute Diskretion, Zuverlässigkeit, Sicherheit und Stabilität. //


Kontakt zu den Autoren

Werner Zügel

Adrian Müller


Namensnennung-Keine Bearbeitung 3.0 Deutschland (CC BY-ND 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Enterprise Data Cloud

Die Grundlage für Big Data schaffen

von Daniel Metzger

Wer Digitalisierung sagt, muss auch Daten sagen – und zwar Big Data. Während sich die meisten Unternehmen über die Business-Vorteile von Big-Data-Analysen freuen, stellen die Technologie und die Infrastruktur dahinter oftmals eine Herausforderung dar. Denn Daten sind nicht gleich Daten, sie können strukturiert oder unstrukturiert sein und entweder von Menschen oder von Maschinen sowie Sensoren generiert werden. Um aus diesen Daten Informationen als Basis qualifizierter Entscheidungen zu gewinnen, benötigen Unternehmen Big-Data-Architekturen, die ihnen zuverlässige und vertrauenswürdige Einblicke in diese Daten ermöglichen.

Die Bedeutung von Daten ist in den letzten 20 Jahren enorm gestiegen. Die Vernetzung der Unternehmen, intern wie extern, das Entstehen und das Wachsen sozialer Netzwerke sowie der Beginn der Digitalisierung waren die ersten Treiber dieser Entwicklung. Entsprechend rückte das Speichern, Verwalten, Auswerten und Nutzbarmachen von Daten auf der Agenda immer weiter nach oben – nicht nur in den IT-Abteilungen, sondern auch im höheren Management, das die Bedeutung von Daten für ihren Geschäftserfolg erkannt hat. Diese Notwendigkeit zum Datensammeln hat zu einem explosionsartigen, exponentiellen Anstieg der Datenmengen geführt, wodurch sogenannte Data Lakes als primärer Bestandteil von Datenarchitekturen entstanden sind.

Die vorherrschende Meinung war, dass Unternehmen große Data Lakes entwickeln müssten, in denen sich praktisch alle Daten befinden würden. Doch mit dem Aufkommen der Cloud und immer besserer und leistungsfähigerer Cloud-Dienste begann eine neue Zeitrechnung. Statt alle Daten zentral zu sammeln, wurden diese mehr und mehr verteilt. Hinzu kommt, dass durch die Datenverteilung über mehrere Standorte und teilweise Unternehmen hinweg diese ständig in Bewegung sind – inner- und außerhalb von Rechenzentren sowie der Cloud.

Daten – Strukturiert, unstrukturiert und verteilt

Eine weitere Herausforderung ist, dass unterschiedliche Arten von Daten – wie strukturierte und unstrukturierte, Sensordaten, Lieferanten-, Kunden- und Mitarbeiter-Daten – in jedem der Daten-Cluster liegen können. Gleichzeitig werden aber miteinander verwandte Daten möglicherweise verteilt in unterschiedlichen Orten gespeichert. Beispielsweise kann ein Einzelhandelsunternehmen Preisinformationen zu seinen Waren in einem Rechenzentrum in Bangkok und gleichzeitig Kundeninforma­tionen in einem Rechenzentrum in Dublin speichern. Es gibt aber auch neuartige Daten von Sensoren im Internet of Things (IoT), die in einem Cloud-Service wie Amazon Web Services (AWS) oder Microsoft Azure einfacher zu speichern sind. Diese Art von Daten könnte auch „on premises“, also lokal, auf eigenen, unternehmensinternen Speicherlösungen abgelegt sein. Für zeitnahe und Echtzeitanalysen ist es mittlerweile deutlich einfacher, diese Informationen in der Cloud zu erfassen und zu analysieren, als zu versuchen, dies komplett im eigenen Rechenzentrum abzuarbeiten.

Letztendlich benötigen Unternehmen jedoch eine übergreifende Datenplattform, die alle Daten aus Rechenzentren und Cloud-Infrastrukturen integriert. Diese Plattform ist ständig über den Standort, den Zustand und die Art der Daten informiert und kann auch weitere Services, beispielsweise in Bezug auf Datenschutz und Compliance-Richtlinien, an verschiedenen Standorten bieten.

Die Essenz in den Daten

Mit der Entscheidung für eine passende Datenplattform haben die Unternehmen zwar einen wichtigen Schritt getan, um die erfassten Daten aus technischer Sicht zu analysieren, doch damit allein ist es bei weitem noch nicht getan

Letztendlich benötigen Unternehmen jedoch eine übergreifende Datenplattform, die alle Daten aus Rechenzentren und Cloud-Infrastrukturen integriert.

Daniel Metzger

Wichtig ist ebenfalls, dass das Unternehmen die richtigen Experten auswählt, die zu unterschiedlichen Zeiten der Datenverarbeitung einen qualifizierten Blick auf die Daten werfen. Dazu gehören unter anderem Data Stewards, die in der Lage sein müssen, festzustellen, welchen Datenquellen vertraut wird, sowie wichtige Informationen über jede Quelle bereitzuhalten – zum Beispiel: Wer hat sie erstellt?, wer hat sie geändert und vieles mehr. Diese Datenverwalter sollten in der Lage sein, die Bestimmungen über alle Data Depositories hinweg durchzuführen. Denn nur, wenn die Qualität der eingehenden, gesammelten Daten wirklich hoch ist, sind auch die darauf basierenden Analysen sinnvoll.

Daniel Metzger: „Mit der Entscheidung für eine passende Datenplattform haben die Unternehmen zwar einen wichtigen Schritt getan, um die erfassten Daten aus technischer Sicht zu analysieren, doch damit allein ist es bei weitem noch nicht getan.“

Das Gleiche gilt selbstverständlich auch für alle späteren Schritte, in denen Analysten und Datenwissenschaftler die Daten, die daraus gewonnenen Informationen und schließlich die abgeleiteten Erkenntnisse bewerten, in den richtigen Kontext stellen und in Entscheidungsgrundlagen für die Geschäftsführung einarbeiten. Nur wenn wirklich alle Schritte entsprechend qualifiziert ihren Beitrag zur Analyse leisten, werden aus Massendaten wertvolle Informationen.

Enterprise Data Cloud

All diese Anforderungen müssen bereits bei der Konzeption einer Big-Data-Plattform – oder, wie Cloudera es nennt, einer „Enterprise Data Cloud“ – berücksichtigt werden. Unternehmen, die einen digitalen Wandel durchlaufen, benötigen umfassende Analysemöglichkeiten in Public-, Private-, Hybrid- und Multi-Cloud-Umgebungen. Unternehmen brauchen die Agilität, Elastizität und Benutzerfreundlichkeit von Cloud-Infrastrukturen, aber auch die Möglichkeit, Analyse-Work­loads standortunabhängig laufen zu lassen – egal, wo sich die Daten befinden.
Auch offene Architekturen und die Flexibilität, Workloads in verschiedene Cloud-Umgebungen (Public oder Private) zu verschieben, spielen eine wichtige Rolle. Nicht zuletzt ist es wichtig, mehrere Analysefunktionen auf demselben Datensatz mit einem gemeinsamen Sicherheits- und Governance-Framework ausführen zu können, um den Datenschutz und die Einhaltung gesetzlicher Vorschriften hochzuhalten. All das sind keine „Nice to have“-Features, sondern grundlegende Anforderungen für Unternehmen, die Daten erfolgreich nutzen wollen.


Ein Beispiel aus der Praxis

Thomson Reuters ist eine weltweite Quelle für Nachrichten und Informationen für die Finanz-, Rechts-, Steuer- und Medienbranche. Mit dem Service „Reuters Tracer“ hilft das Unternehmen Journalisten dabei, echte von gefälschten Nachrichten auf Twitter zu unterscheiden. Dafür nutzt Reuters eine umfangreiche Datenanalyse mit maschinellem Lernen. So verarbeitet Reuters Tracer täglich rund 13 Millionen Tweets und bestimmt deren Wahrheitsgehalt und Relevanz mit einem „Newsworthiness Score“. Diese Lösung basiert auf der Datenplattform von Cloudera für maschinelles Lernen, um die Geschwindigkeit und Genauigkeit zu erreichen, die es für die Analyse von Tweets benötigt. Die Plattform ist darauf optimiert, den Inhalt der Tweets, die verwendete Sprache, das Verbreitungsmuster und vieles mehr zu betrachten, genau wie es ein Journalist tun würde. Aufgrund des integrierten maschinellen Lernens unterscheidet der Tracer im Laufe der Zeit immer genauer relevante und wahre von unwichtigen Tweets und solchen, die Lügen verbreiten. Mit Reuters Tracer hilft Thomson Reuters somit einerseits Journalisten und Unternehmen, mit einer sich schnell verändernden Nachrichtenlandschaft Schritt zu halten, und verbessert andererseits seine eigene Wettbewerbsfähigkeit. //


Mehr als 87 Prozent der Unternehmen haben eine geringe Data und Analytics Maturity.

Quelle: Gartner „Take Your Analytics Maturity to the Next Level“

Die vier wichtigsten Merkmale einer Enterprise Data Cloud

Hybrid und Multi-Cloud:
Um Unternehmen Flexibilität zu verleihen, muss eine Enterprise Data Cloud mit gleichwertiger Funktionalität innerhalb und außerhalb des Unternehmens betrieben werden können, wobei alle wichtigen Public Clouds sowie die Private Cloud unterstützt werden sollen.

Multifunktional:
Eine Enterprise Data Cloud muss die dringendsten Anforde­rungen an Daten und Analysen im Un­ter­nehmen effizient lösen. Das Bewerk­stel­ligen realer Geschäftsprobleme erfor­dert in der Regel die Anwendung mehrerer verschiedener Analysefunktionen, denen dieselben Daten zugrunde liegen. So basieren beispielsweise autonome Fahrzeuge auf Echtzeit-Datastreaming und maschinellen Lernalgorithmen.

Sicher und geregelt:
Eine Enterprise Data Cloud muss sicher und regelkonform sein und die strengen Anforderungen an Datenschutz, Governance, Datenmigration und Metadatenmanagement großer Unternehmen in allen ihren Umgebungen erfüllen.

„Open“:
Schließlich muss eine Enterprise Data Cloud auch offen sein. Das bedeutet nicht nur den Einsatz von Open-Source-Software, sondern auch offene Rechenarchitekturen und offene Datenspeicher wie Amazon S3 und Azure Data Lake Storage. Letztendlich wollen Unternehmen die Bindung an den Anbieter (Stichwort: „Vendor Lock-in“) vermeiden, um nicht von einem einzigen Anbieter abhängig zu werden. Offene Plattformen, offene Integrationen und offene Partner-Ökosysteme werden daher bevorzugt. Bei technischen Herausforderungen kann/muss das Unternehmen somit nicht nur vom Hersteller Support beziehen, sondern die gesamte Open-Source-Community kann zur Unterstützung beigezogen werden. Dies sichert nicht nur schnelle Innovationszyklen, sondern auch den eigenen Wettbewerbsvorteil.

Kontakt zum Autor


Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Fallbeispiele

Weiterführende Beiträge und Interviews zum Thema finden Sie in unserer
Wirtschaftszeitung TREND REPORT sowie in unseren Open-Content-Werken.

Die Grundlage digitaler Geschäftsmodelle im IoT bilden Smart Services und digitale Ökosysteme. Dr. Sebastian von Engelhardt und Stefan Petzolt erklären, was es damit auf sich hat.
https://www.handbuch-iot.de/was-sind-smart-services-und-digitale-oekosysteme/


Immer mehr Produkte können über das Internet Informationen mit anderen Geräten austauschen oder per App Befehle empfangen. Dabei entstehen hervorragende Möglichkeiten für den deutschen Mittelstand.
https://www.handbuch-iot.de/smart-products-und-smart-services/


Roboter mutieren zu autonom agierenden „Kollegen“ mit flexiblen Aufgaben. Über das Internet of Robotic Things und autonome Roboter-Schwärme schreibt Andreas Fuhrich.
https://www.handbuch-iot.de/von-robotik-und-automation/


Damit aus dem Internet of Things nicht das Internet of Threats wird. Noch gilt Funktionalität vor Sicherheit, doch das Risiko ist immens. Christian Koch rüttelt wach und klärt auf.
https://www.handbuch-iot.de/neue-risiken-durch-iot-in-industriesystemen/


Existiert erst ein tragfähiges Geschäftsmodell, verkürzen offene Standards und Out-of-the-Box-Lösungen die Time to Market eines IoT-Projekts erheblich. Paul Martin Halm berichtet. https://www.handbuch-iot.de/iot-plattformen-beschleunigen-die-produktion/


Agil arbeiten – aber wie?

Erfolg in einem dynamischen und digitalisierten Marktumfeld: Zwölf Regeln für Schnelligkeit, Kreativität und Innovationsstärke

von Dr. Ralf Magagnoli

Der Agile Performer Index, eine Studie der Neoma Business School und des Analysten Goetz­partners, will es auf den Punkt bringen: „Die agilsten Unternehmen einer Branche sind durchschnittlich 2,7 Mal erfolgreicher als ihre Peergroup. Dies bestätigt: Agilität verschafft Unternehmen einen erheblichen Wettbewerbsvorteil und ist ein entscheidender Faktor, um in einem dynamischen und digitalisierten Marktumfeld erfolgreich zu sein.“ Agilität steht für Schnelligkeit, Kreativität und Innovationsstärke. Wie aber Agilität implementieren? Nicht selten scheitern entsprechende Projekte – und die Gründe dafür sind vielfältiger Natur.

Wenn man einige Regeln beherzigt, ist es wahrscheinlicher, dass agile Projekte gelingen: Zwölf Regeln sind hier zusammengestellt.

Regel eins: Agilität ist eine Frage der Unternehmenskultur. Einfach ein agiles Team zusammenzustellen, einen Scrum-Master zu ordern und im Übrigen zu hoffen, dass alles klappt, ist zu wenig. Vor allem in Unternehmen, in denen es keine Fehlerkultur gibt und in denen die Bereitschaft, neue Wege zu denken und zu gehen, gering ausgeprägt ist. Unternehmen, deren Kultur durch Fehlertoleranz, Offenheit und Transparenz gekennzeichnet ist, haben hier eindeutig einen Vorteil.

Regel zwei: Agilität bedeutet nicht weniger, sondern mehr Führung. Vor allem eine andere Führung. Eine Führung, die sich stärker auf das Impulsgeben verlegt und Mitarbeitern Freiräume verschafft. Der Impuls selbst, agile Projekte umzusetzen, sollte nicht, wie fälschlich angenommen, von der mittleren, sondern von der obersten Ebene im Unternehmen kommen, die dann aber die Mitarbeiter an der langen Leine laufen lassen sollte.

Regel drei: Agilität eignet sich zwar für alle Branchen, zumal für die mit einem hohen Innovationsdruck, aber nicht für alle Bereiche im Unternehmen. Eine agile Produktion ist ein Unding. Hier sind nicht Kreativität und Ideenfindung gefragt, sondern die Umsetzung von Vorgaben. Hingegen eignen sich agile Projekte besonders für die Bereiche Forschung & Entwicklung, IT, Marketing oder HR-Management.

Regel vier: Agilität lebt von den beteiligten Personen. Natürlich sollten sich alle Mitarbeiter in den betreffenden Abteilungen durch Tatkraft, Neugierde, Ideenreichtum und die Bereitschaft zum Querdenken auszeichnen. Realiter tun sie dies nicht. Beginnen Sie mit den Personen, die sie für besonders geeignet halten. Wählen Sie keine ängstlichen, vorsichtigen oder strukturkonservativen Mitarbeiter.

Regel fünf: Agilität bedeutet Umdenken auch in personeller Hinsicht. Das betrifft die Einstellungskriterien, aber auch bestimmte Regularien, so die Flexibilisierung der Arbeitszeit – Achtung, das heißt nicht mehr Arbeitszeit und eine Dauerabrufbereitschaft – und die Überwindung allzu restriktiver Projektvorgaben bzgl. „in time“ oder „in budget“.

Regel sechs: Agilität heißt auch, Fragen zuzulassen. Wer Fragen, auch hartnäckiges Nachbohren, als Widerstand, gar als Angriff auf die eigene Person, versteht, hat nicht verstanden, worum es geht. Manchmal dienen Fragen dazu, auf noch ungelöste Probleme hinzuweisen oder Sachverhalte zu klären.


Agilität verschafft Unternehmen einen erheblichen Wettbewerbsvorteil und ist ein entscheidender Faktor, um in einem dynamischen und digitalisierten Marktumfeld erfolgreich zu sein


Regel sieben: Agilität verlangt, wie eingangs erwähnt, Fehlerkultur. Wenn es in einem agilen Projekt hakt – und das tut es in vielen Fällen –, nicht gleich aufgeben und das Projekt abbrechen. Lieber nachfassen, prüfen, wo die Fehlerquellen liegen könnten, und diese dann abstellen. Und wenn ein agiles Projekt in Gänze scheitert, auch nicht gleich die Idee der Agilität in Gänze in Frage stellen oder verdammen. Zur Fehlerkultur gehört auch, über das Scheitern von Projekten zu berichten, was natürlich nur in einem Unternehmen möglich ist, das entsprechend tolerant ist.

Viele Unternehmen im Silicon Valley oder in der Luftfahrtindustrie, in der sich Fehler besonders verhängnisvoll auswirken können, haben eine solche Kultur entwickelt. Dort wird auf speziellen Treffen, sogenannten Communities of Practice, über gescheiterte Projekte berichtet, aus denen man mehr lernen kann als aus erfolgreichen Projekten.

Regel acht: Agilität muss auch nicht in einer Abteilung gleich vollumfänglich entwickelt werden. Beginnen Sie mit einer Zelle, bestehend aus fünf bis sieben Personen. In der IT ist Kritik geübt worden an der von McKinsey entwickelten Two-Speed-IT, also einem agilen, kreativen Team und einer eher konventionell arbeitenden Mannschaft. Dennoch ist nichts dagegen zu sagen, innerhalb einer Abteilung mit einigen Personen zu beginnen und die Agilität, bei Erfolg, auf die ganze Abteilung auszuweiten.

Regel neun: Agilität erfordert gemischte Teams, am besten interdisziplinäre Teams. Beispiel IT: Hier sollen neue Anwendungen geschaffen werden. Nichts einfacher, als fünf bis sieben dreißigjährige männliche Informatiker daranzusetzen, die am besten alle an derselben Hochschule studiert haben. Hingegen zeigt sich der Nutzen „gemischter“ Teams, was Ausbildung, Geschlecht und Alter angeht. So könnten Anwender aus den Abteilungen, die die Applikationen nutzen, wertvolle Anregungen geben und vermeiden, dass aus der Entwicklung eine technische Spielerei wird, die an den Bedürfnissen der Nutzer vorbeigeht.

Regel zehn: Agilität beruht auf Barrierefreiheit. Die agilen Teams müssen sich nicht nur regelmäßig treffen, die Räume sollten so gestaltet sein, dass ein Austausch leicht möglich ist. Hilfsmittel wie Flipcharts und Stellwände sollten bereitstehen. Nötig ist auch die physische Präsenz: Nur in Ausnahmefällen sollte es eine virtuelle Präsenz geben, bspw. wenn ein Teammitglied auf Geschäftsreise ist und das Treffen nicht abgesagt werden sollte. Unter Umständen, insbesondere in der IT, kann die Offshore-Verlagerung von Jobs hier zum Problem werden.

Regel elf: Agilität lässt sich besser erzielen, indem man Expertise von außen einholt. Dies betrifft vor allem Externe, die als Moderatoren und Impulsgeber fungieren sollen. Ein Blick von außen erleichtert manchmal das Querdenken, besonders, indem Scheuklappen und die „Das war hier schon immer so“-Denke abgelegt werden. Die Expertise betrifft vor allem die Methoden, auf die noch einzugehen ist, und hierin den Scrum-Master, falls Sie die beliebte Scrum-Methode einsetzen. Wenn Sie auf z. B. einen solchen externen Scrum-Master zurückgreifen, gehen Sie sorgfältig bei der Auswahl vor. Fragen Sie nach Projekten, die dieser initiiert hat, fragen Sie nach Erfolgen, aber fragen Sie auch nach Rückschlägen, insbesondere danach, wodurch es zu diesen Rückschlägen gekommen ist.

Sie entnehmen damit zweierlei: Erstens den souveränen Umgang auch mit ggf. eigenen Fehlern und zweitens die Analysefähigkeit des externen Beraters. Verneint er Rückschläge oder führt er diese Rückschläge auf den Unwillen und die Unfähigkeit der Teammitglieder zurück, ist er wohl kaum der richtige Mann für Sie. Verlassen Sie sich zudem auf Ihr Bauchgefühl, denn das Bauchgefühl ist, wie Professor Gerd Gigerenzer vom Max-Planck-Institut für Bildungsforschung in München betont, nicht einfache Emotion, sondern gesammeltes Erfahrungswissen – und oft anderen Methoden der Entscheidungsfindung überlegen.

Regel zwölf: Agilität wäre missverstanden, wollte man das Rad neu erfinden. Es existiert eine Hülle und Fülle an Methoden – Kritiker sprechen sogar von einer „Kakophonie“ – vom Scrum über Design Thinking bis zur Holokratie, die eingesetzt werden können. Informieren Sie sich über diese Methoden, zu denen es viele Publikationen gibt, und wählen Sie die Methode aus, die ihrer Ansicht nach am zielführendsten ist. Ein Schaukasten gibt einen kurzen Überblick über drei hilfreiche Management-Methoden sowie einen Aufriss weiterer Methoden. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Bild von Gerd Altmann auf Pixabay