Beiträge

Nachhaltig digitalisiert

Interview mit Prof. Michael Kuhndt über neue Geschäftsmodelle an der Schnittstelle von Digitalisierung, Nachhaltigkeit und Ressourceneffizienz.

Welches Potenzial räumen sie der Energieeffizienz und der Digitalisierung im Kontext der Nachhaltigkeit ein?
Zunächst einmal: Die Digitalisierung bringt Transparenz. Diese Transparenz ist Grundvoraussetzung für das Wissen über Energie. Also: Wo brauche ich Energie? Was ist an Energie in meine Produkte geflossen? Wie kann ich die Kreisläufe schließen und damit Ressourcen erhalten? Hier kommen wir also sehr schnell auf die Notierung der Circular Economy. Wichtig ist es ja auch zu sehen, dass ein Energieeffizienzthema alleine betrachtet – also in der Nutzenphase eines Produkts – nur ein Aspekt ist. Aber wenn ich die Energieeffizienz im Kontext der Kreislaufwirtschaft sehe, dann habe ich eine direkte Schnittstelle zur Digitalisierung. Also wenn ich den Energieverbrauch möglichst effizient halten möchte, muss ich mit Rohstoffen effizient umgehen. Das heißt, ich muss einen Kreislauf führen. Sonst muss ich z. B. das Aluminium zehnmal produzieren, so kann ich das Aluminium im Kreislauf führen, habe es einmal produziert und kann es dann weiterverarbeiten. Und genau dazu brauche ich die Digitalisierung. Ich muss Transparenz haben: Wo sind die Warenströme? Wo geht es hin? Wo kommt das her? Was genau steckt in den Materialien, die ich z. B. weiterverarbeite? Kann ich das wieder verwerten? Da entstehen momentan mannigfaltig neue Geschäftsmodelle.

Auf der gleichen Grundlage, der Mehrfachnutzung von Resourcen, setzt die Sharing Economy an. Ohne die Digitalisierung wäre so ein Konzept nicht denkbar. Spielt diese spezielle Form von Teilen in Ihrem Beratungsalltag eine Rolle?
Ja, sie spielt eine Rolle. Wir sehen hier ein immer stärkeres Wachstum. Für das Weltwirtschaftsforum haben wir eine Studie zu dem Thema gemacht und sind damit auch auf dem Economic Forum in Davos aufgetreten. Speziell die großen Unternehmen – die diese Studie auch bei uns angefragt haben – sehen die Sharing Economy als „Emerging Trend“, also es wächst, es entsteht, genauso wie die Digitalisierung.

Prof. Michael Kuhndt, CSP Centre gGmbH

Nutzen Unternehmen explizit Konzepte wie die Sharing Economy, wenn sie neue Geschäftsmodelle generieren?
Die Frage ist ja, wie sieht unsere Zukunftsgesellschaft aus? Vielmehr: Wie wollen wir, dass unsere Zukunftsgesellschaft aussieht? Fakt ist: Produkte werden künftig eine untergeordnete Rolle spielen. Die Zukunft des Produkts liegt in der „Subscription-Economy“. Es geht darum, dass man ein Produkt als Dienstleistung versteht. Es entsteht ein Produkt-Dienstleistungs-System. Schauen sie sich Philips an, die sagen: Wir stellen nicht mehr die Lampe her, sondern wir verkaufen Licht, wir verkaufen Helligkeit. Das Geschäftsmodell dazu sieht so aus: Unternehmen kommen zu Philips und sagen: „Kommt doch bitte in unser Büro herein und stellt sicher, dass die Dienstleistung ‚ausgeleuchtete Arbeitsplätze‘ sichergestellt wird.“ Wir als Kunden wollen gar nicht die Produkte selbst kaufen. Diese Entwicklung ist hochinteressant. Es geht also weg vom Besitzen hin zum Nutzen. Übrigens eine Entwicklung, die die Digitalisierung hervorgebracht hat. Genau dieser Gedanke steckt auch hinter der Sharing Economy: Muss ich alles, was ich nutzen will, auch besitzen? Das heißt, wenn wir konkret mit Unternehmen arbeiten, ist das genau auch ein Aspekt unserer Zusammenarbeit, über den die Unternehmen dann auch sprechen wollen. Egal ob Tourismusbranche oder Textilien … Muss man Textilien zum Beispiel immer wieder neu kaufen? Oder könnte man auch sagen: Weil sich der Geschmack, das eigene Gewicht oder Lebensumstände geändert haben, geben wir Textilien fortan eine „Nutzenphase“? Nicht nur wir bringen ein solches Thema an, sondern eben auch konkrete Nachfragen von Großunternehmen, auch vom Handel. Ein weiteres Beispiel aus der Möbelbranche: Möbel, muss ich die immer verkaufen …? Täte es meinem Geschäft nicht viel besser, wenn ich das tatsächlich nur nutzen lasse und ich bekomme es dann wieder zurück? Nebeneffekt: So habe ich für zukünftige Produkte und Weiterentwicklungen gleichzeitig meine Ressourcen im Kreislauf und spare effektiv beim Einkauf.

Geht der Trend also in Richtung „Product as a Service“?
Genau, das ist es. Nicht alles besitzen, aber jederzeit alles nutzen. Das geht natürlich auch wieder einher mit der Digitalisierung. Als Konsument habe ich die mit dem Smartphone ja quasi in der Hand.

Welche Weichen sollten Ihrer Meinung nach jetzt in Politik und Wirtschaft gestellt werden?
Ich denke, das Thema Digitalisierung ist in der Politik angekommen, alle Bundesländer und die Regierung beschäftigen sich damit. Auch die Kommunen diskutieren über diese Themen. Womit sich die Politik beschäftigen muss, sind die Rahmenbedingungen. Treffen Konzepte wie Sharing Economy, Circular Economy oder Subscription-Economy oder hierauf basierende, neue Geschäftsmodelle auf Rahmenbedingungen, die mit ihnen vereinbar sind? Die große Sorge meinerseits besteht darin, dass wir Teile der Gesellschaft von der Digitalisierung entkoppeln: Geschäftsmodelle und auch die sogenannten „Digital Natives“ verändern sich viel schneller als Politik und andere Teile der Gesellschaft es überhaupt können. Nehmen Sie Uber: Hier steht ein Bedürfnis nach Mobilität einer ganzen Branche entgegen, die von ihrem Beruf auch leben können will – und soll. Dafür werden „Sub-Systeme“ immer interessanter. „Spielwiesen auf Stadtebene“, um neue Geschäftsmodelle wie z. B. Energieeffizienz, Smart Home und IoT gemeinsam mit dem Bürger „auszuprobieren“. Dafür brauchen wir einen rechtlichen Rahmen.

Man bräuchte Regelungen für Modell-Städte oder Modell-Viertel?
Genau richtig. So kann man auch die Akzeptanz-Probleme quasi in kleinen Labs, in kleinen Systemen, beseitigen helfen. Erkennen die Menschen den Nutzwert einer Neuerung, wie etwa der „Smart City“, dann lässt sich das auch schnell auf Bundesebene skalieren. Hier muss die Politik dringend Regeln finden.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Zum Interviewpartner

Digital Finance

FinTechs gehen mit frischen Ideen auf den Markt und verändern diesen nachhaltig. Neue Technologien offenbaren ihr disruptives Potenzial.

von Andreas Fuhrich

Zwar begann die Digitalisierung der Banken mit dem Online-Banking schon im letzten Jahrtausend, doch weitere Innovationen blieben lange aus. Für den Knotenpunkt aller Geldgeschäfte galt der Bankkunde als Selbstverständlichkeit und musste nicht mit technischen Neuerungen gebunden werden. Selbst das Online-Banking diente mehr dem Stellenabbau und der damit verbundenen Gewinnoptimierung als dazu, einen wirklichen Service anzubieten. Heute noch beworbene Tagesgeldkonten wirken wie absurde Überbleibsel aus der Zeit, in der sie mit lukrativen Zinsen als Online-Banking-Marketingmaschine fungierten.
Seit einigen Jahren verändert nun die aufstrebende FinTech-Branche den Finanzmarkt. Dem Kundenwunsch nach mehr digitalen Lösungen, der vor allem durch die Entwicklungen der Mobile Devices mit ständigem Internetzugriff noch verstärkt wird, soll entsprochen werden. Vormals ineffiziente und unflexible Geschäftsfelder werden revolutioniert oder zumindest den neuen technologischen Möglichkeiten angepasst. Die Finanzkrise 2008, das zerstörte Vertrauensverhältnis zu den Großbanken, diente dabei als Katalysator für die junge Branche, die offen in Konkurrenz zu den alteingesessenen Instituten tritt.

Durch den Druck der FinTechs und der Digitalisierung der Finanzbranche haben mittlerweile auch traditionelle Bankhäuser erkannt, dass sie aktuelle Techniken einsetzen müssen, um den Bedürfnissen der Kunden zu entsprechen. Zwar arbeitet man jetzt verstärkt an der Modernisierung und Technologisierung der gesamten Dienstleistungskette, kann jedoch nicht mit der Innovationskraft eines agilen Start-ups mithalten. Verschärfte Regulierungen und neue BIZ-Eigenkapitalvorschriften erschweren  den Prozess zusätzlich. Wohl deshalb treten viele Banken seit einiger Zeit nicht mehr nur als Konkurrent, sondern als Partner von FinTechs auf. So erhalten sie die Möglichkeit, zeitnah ihren Kunden Innovationen anzubieten, ohne eigene Forschung betreiben zu müssen. Auch FinTechs haben erkannt, dass durch Partnerschaften Win-win-Situationen entstehen. Die vielen Regularien machen es für Start-ups fast unmöglich, die Bedingungen für eine Banklizenz zu erfüllen, die für manche Dienstleistungen, wie z. B. die Kreditvergabe, aber zwingend erforderlich ist. Anstatt sich selbst mit den hohen Anforderungen auseinanderzusetzen, übernimmt jetzt die lizensierte Partnerbank die endgültige Abwicklung.

Die Innovationen der Finanztechnologie beginnen dabei gerade erst, die Branche immer stärker und immer schneller umzukrempeln. Eine accenture-Studie belegt, dass die Investitionen in FinTechs von weltweiten 1,791 Milliarden Dollar im Jahr 2010 auf über 22 Milliarden 2015 anwuchsen.(1)
Allein in den letzten beiden Jahren machten zwei Schlagwörter auf sich aufmerksam, denen ein ungeheures disruptives Potenzial zugesprochen wird. 2015 wurden weltweit über 800 Millionen Dollar in InsurTech-Start-ups investiert,(2) also in Unternehmen, die neue Lösungen für die Versicherungsbranche liefern. Laut einer McKinsey-Studie könnte dadurch in den nächsten zehn Jahren jeder vierte Arbeitsplatz in der westeuropäischen Versicherungsbranche verloren gehen.(3) 2016 sorgte der Begriff „Blockchain“ für Aufsehen. Ob die Technologie hinter dem Bitcoin tatsächlich dem disruptiven Potenzial gerecht wird, welches ihr zugesprochen wird, bleibt abzuwarten.

Quellen:

(1)    accenture-Studie: „Fintech and  the evolving landscape: landing points for the industry“ von: Julian Skan, James Dickerson und  Luca Gagliardi, 2016. URL: https://www.fintechinnovationlablondon.co.uk/pdf/Fintech_Evolving_Landscape_2016.pdf (Abgerufen: 16. November 2016).
(2)    Seite „Versicherungstechnologie“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 26. August 2016, 13:13 UTC. URL: https://de.wikipedia.org/w/index.php?title=Versicherungstechnologie&oldid=157401432 (Abgerufen: 16. November 2016, 09:44 UTC).
(3)    McKinsey Studie: „Automating the insurance industry“ von: Sylvain Johansson und Ulrike Vogelgesang, 2016, URL: https://www.mckinsey.com/industries/financial-services/our-insights/automating-the-insurance-industry (Abgerufen: 16. November 2016).

Virtual & Augmented Reality

Postdigitale Transformation: Augmented und Virtual Reality – wenn Devices unser aller zweite Haut werden

Computergenerierte interaktive Simulationen mittels kleiner Devices in unserem Leben eröffnen schier unendliche Potenziale an Möglichkeiten, um die Welt neu zu erfahren. Technologische Entwicklungen, die es uns jetzt schon erlauben, die Wirklichkeit zunehmend zu virtualisieren, sind vorhanden. Schon jetzt lässt sich erahnen, welche Änderungen auf uns zukommen. Die Art, wie wir miteinander interagieren und wie wir die Welt wahrnehmen werden, wird nicht mehr dieselbe sein.

Was ist Augmented Reality?
Unter „Augmented Reality“ (kurz AR), also erweiterte Realität, versteht man die computergestützte Erweiterung der Realitätswahrnehmung. Diese Informationen können alle menschlichen Sinnesmodalitäten ansprechen.  Häufig wird jedoch unter erweiterter Realität nur die visuelle Darstellung von Informationen verstanden, also die Ergänzung von Bildern oder Videos mit computergenerierten Zusatzinformationen oder virtuellen Objekten mittels Einblendung/Überlagerung. Bei Fußball-Übertragungen ist erweiterte Realität beispielsweise das Einblenden von Entfernungen bei Freistößen mithilfe eines Kreises oder einer Linie. (Wikipedia – Erweiterte Realität)

Im „Realitäts-Virtualitäts-Kontinuum“ (nach Paul Milgram et al., 1994) sind die erweiterte Realität („Augmented Reality“) und erweiterte Virtualität („Augmented Virtuality“) Teil der sogenannten gemischten Realität („Mixed Reality“). Während der Begriff Augmented Virtuality kaum benutzt wird, werden Augmented Reality und Mixed Reality, selten auch Enhanced Reality, meist synonym verwendet.
Im Gegensatz zur virtuellen Realität (kurz VR), bei welcher der Benutzer komplett in eine virtuelle Welt eintaucht, steht bei der erweiterten Realität die Darstellung zusätzlicher Informationen im Vordergrund. Virtuelle Realität und die Realität werden also miteinander kombiniert oder teilweise überlagert. Interaktivität in Echtzeit, in der reale und virtuelle Objekte dreidimensional zueinander in Bezug stehen. Diese Definition umfasst jedoch nur technische Merkmale und beschränkt sich dabei auf einen Teilaspekt von AR.

Andere Arbeiten definieren AR als eine Ausweitung der Sinneswahrnehmung des Menschen durch Sensoren um Umgebungseigenschaften, die der Mensch selbst nicht wahrnehmen kann, wie z. B. Radar, Infrarot und Distanzbilder. Menschliche Eigenschaften können damit durch AR verstärkt oder gar ergänzt werden.
Allein die visuelle Modalität bedeutet eine nicht unwesentliche komplexe Herausforderung an die Positionsbestimmung (Tracking) und Kalibrierung. Um eine Augmented-Reality-Anwendung aufzubauen, benötigt es AR-Systeme (kurz ARS), die sich aus technischen Bestandteilen, wie z. B. Kamera, Trackinggeräte, Unterstützungssoftware usw. zusammensetzen. VR und AR sind weit mehr als nur ein Hype. Erkennen lässt sich dies nicht nur an ernst zu nehmenden Hardware-Entwicklungen / Devices für AR-Systeme, wie Facebooks Oculus Rift, HTC VIVE und Microsofts HoloLens, die mittlerweile durchaus massentauglich sind. Auch geistiges Eigentum wird sich einverleibt.

Erst jüngst wurden spannende Investitionen von Giganten wie Google, Facebook oder Apple getätigt, wie bspw. im Falle von MagicLeap. Die großen Player am Markt bereiten sich offensichtlich auf eine Zukunft mit AR vor. Viele Argumente sprechen zudem  für den Einsatz und das Wachstumspotenzial dieser neuen Technologien: Kostenersparnisse, Qualitätssteigerungen, Sicherheit.

VR- und AR-Technologien haben einen großen Einfluss – nicht nur auf unsere zukünftigen Lebens- und Arbeitswelten. Bereits eingesetzte VR- und AR-Anwendungen lassen dies jetzt schon erkennen. Pick-by-Prozesse in der Logistik und Produktpräsentationen im B-to-C Handel  werden schon sinnvoll optimiert und teils völlig verändert.

Begriffserklärung

Am besten veranschaulicht man sich diese abstrakten Begriffe an konkreten Beispielen:
Reine Realität ist ein Mensch, der zum Einkaufen in den Supermarkt geht.
Erweiterte Realität sind Brillengläser, auf deren Innenseite ein Computer den Einkaufszettel des Benutzers projiziert; und zwar so, dass beim Benutzer der Eindruck entsteht, der Einkaufszettel sei an die Wand des Supermarktes angeschrieben. Die Wirklichkeit wird hier um virtuelle Informationen angereichert.
Erweiterte Virtualität ist ein Computerspiel, das über einen VR-Helm gespielt wird und das die Türsprechanlage auf die Kopfhörer überträgt, wenn es an der Tür klingelt. Die Virtualität wird hier um reelle Informationen angereichert.
Virtuelle Realität ist ein Computerspiel, das über einen VR-Helm gespielt wird und nicht auf die reale Außenwelt des Benutzers reagiert.
(Quelle: Wikipedia„Mixed Reality“)

Cloud-Computing

Dezentral, flexibel und günstig – Cloud-Computing erobert mit hoher Skalierbarkeit bei niedrigen Kosten immer mehr deutsche Unternehmen.

von Andreas Fuhrich

Unter Cloud Computing versteht man die Ausführung von Programmen, die nicht auf dem lokalen Rechner installiert sind, sondern auf einem anderen Rechner, der aus der Ferne aufgerufen wird. Technischer formuliert umschreibt das Cloud Computing den Ansatz, IT-Infrastrukturen (z. B. Rechenkapazität, Datenspeicher, Datensicherheit, Netzkapazitäten oder auch fertige Software) über ein Netz zur Verfügung zu stellen, ohne dass diese auf dem lokalen Rechner installiert sein müssen. Angebot und Nutzung dieser Dienstleistungen erfolgen dabei ausschließlich über technische Schnittstellen und Protokolle sowie über Browser. Die Spannweite der im Rahmen des Cloud-Computings angebotenen Dienstleistungen umfasst das gesamte Spektrum der Informationstechnik und beinhaltet unter anderem Plattformen, Software und Infrastruktur wie z. B. Rechenleistung oder Speicherplatz.  Die Möglichkeit online seine Mails abzurufen oder seine Urlaubsfotos in sozialen Netzwerken zur Schau zu stellen waren zwar schon erste Cloud-Angebote, doch der Begriff setzte sich erst durch die Möglichkeiten der Virtualisierung durch.

Die häufigste Virtualisierungsmethode nutzt sogenannte Hypervisoren, die den simultanen Betrieb mehrerer Gastsysteme auf einem Hostsystem erlauben. Der Hypervisor verwaltet die Ressourcenzuteilung für einzelne Gastsysteme. Er verteilt die Hardware-Ressourcen derart, dass für jedes einzelne Gastbetriebssystem alle Ressourcen bei Bedarf verfügbar sind, so, als ob nur ein Betriebssystem vorhanden wäre. Den einzelnen Gastsystemen wird dabei jeweils ein eigener kompletter Rechner mit allen Hardware-Elementen – Prozessor, Laufwerke, Arbeitsspeicher usw. – vorgespielt.

Durch den Einsatz der Virtualisierung, lässt sich die Ressourcen-Auslastung optimieren, zumal Server, die im Moment nicht benötigt werden, abgeschaltet werden können. Lokale Ressourcen und die damit verbundenen Kosten lassen sich so einsparen. Neben der Private-Cloud, deren Server sich innerhalb der eigenen Organisation befinden, kann man dabei auch auf die Services von Public-Cloud-Anbietern zurückgreifen. Diese erlauben ihren Kunden, IT-Infrastruktur auf einer flexiblen Basis des Bezahlens zu mieten, ausgerichtet am tatsächlichen Nutzungsgrad. Ein Vorteil: Auch extreme aber nur kurze Auslastungsspitzen, beispielsweise im E-Commerce-Weihnachtsgeschäft lassen sich selbst unvorhergesehen so noch besonders kostengünstig bewältigen.

Um die Wettbewerbsvorteile nutzen zu können, die durch die Inanspruchnahme dieser Dienste entstehen, ist eine schnelle Breitbandversorgung Grundvoraussetzung. Damit es keinen Unterschied mehr macht, ob Daten lokal auf einem PC oder auf entfernten Servern in einer Cloud gespeichert sind, muss der Netzausbau vorangetrieben werden.

Bedenken bzgl. der Public-Cloud-Anbieter bestehen allerdings bezüglich des Datenschutzes. So dürfen nach einem Urteil des Europäischen Gerichtshofs nur eingeschränkt Daten in die USA gelangen. Wenn personenbezogene Daten Dritter in die Cloud gegeben werden, müssen sich deutsche Auftraggeber vorab und anschließend regelmäßig nachvollziehbar davon überzeugen, dass die Vorgaben des Bundesdatenschutzgesetzes eingehalten werden. Der Patriot Act erschwert zusätzlich das Vertrauensverhältnis zur neuen Welt – Unternehmen mit Sitz in den USA sind dazu gezwungen, Daten an amerikanische Behörden auszuliefern, selbst wenn sich die Server im fremden Hoheitsbereich befinden.

Ein Kampf gegen Windmühlen?

Gut gerüstet mit Verschlüsselungstechnologien und einem zuverlässigen Key-Management werden Cloud-Risiken für Unternehmen beherrschbar.

von Thorsten Krüger

Geringe Kosten, hohe Flexibilität – Cloud-Computing ist längst kein Schlagwort mehr, sondern aus der Unternehmenswelt nicht mehr wegzudenken. Rund ein Drittel aller IT-Manager und Sicherheitsverantwortlichen nutzt IT heute schon ausschließlich aus der Cloud, mehr als zwei Drittel erachten cloudbasierte Services und Plattformen als wichtig für ihr Geschäft. Allerdings stehen viele vor der Herausforderung, in Umgebungen fernab ihres eigenen Rechenzentrums die Kontrolle über Daten zu behalten und alle Richtlinien zu erfüllen. Jeder Zweite hält die gewählte Cloud-Sicherheitsstrategie und die Einhaltung von Datenschutzrichtlinien im eigenen Unternehmen für unzureichend. Vor allem sensible Informationen werden zu sorglos mit Geschäftspartnern, Auftragnehmern oder Händlern geteilt.
Häufig kommen zudem unzureichende Kontroll- und Sicherheitsmaßnahmen zum Einsatz, um sensible Daten in der Wolke zu schützen. Der Fokus wird oft auf Intrusion-Prevention, Firewall, Content-Security oder Access-Point-Security gesetzt, um Infrastrukturen abzusichern. Solche klassischen Sicherheitsmaßnahmen greifen in Cloud-Umgebungen zu kurz.

Obendrein erschwert das Phänomen Schatten-IT die Sicherheitsvorkehrungen. Fast die Hälfte aller Cloud-Services wird nicht von den IT-Verantwortlichen selbst, sondern von anderen Abteilungen betrieben. IT-Sicherheitsexperten sind auch selten in die Entscheidung involviert, welche Cloud-Applikationen oder -Plattformen zum Einsatz kommen. Das Ergebnis: Fast die Hälfte aller Geschäftsdaten in der Cloud steht nicht unter der Kontrolle der IT-Abteilung. Dass vor diesem Hintergrund der Überblick über die eigenen Applikationen, Plattformen oder Infrastruktur-Services verloren geht, ist kaum verwunderlich. Gefährdet sind vor allem vertrauliche und sensible Daten wie Kundeninformationen, E-Mails, Personalakten und Zahlungsinformationen, die häufig in der Cloud gespeichert werden.

Der Versuch, immer neue Sicherheitslücken zu schließen, gleicht einem Kampf gegen Windmühlen, und auch der Ansatz, die Security-Compliance von Cloud-Providern untersuchen zu wollen, entpuppt sich oft als aussichtsloses Unterfangen. Um sensible Informationen effektiv zu schützen, müssen die Unternehmen die Kontrolle über ihre Daten behalten. Im Zentrum der Sicherheitsbemühungen sollte ein datenzentrierter Ansatz stehen, mit dem sich sowohl Kunden- als auch Geschäftsdaten über alle täglich verwendeten Cloud-Services hinweg schützen lassen. Technologien wie Authentifizierung in Verbindung mit Verschlüsselung, Tokenization und anderen kryptografischen Lösungen kommen dafür in Frage. Dreh- und Angelpunkt muss hierbei sein, dass Unternehmen ihre kryptografischen Schlüssel nicht aus der Hand geben.

Der Schlüssel zu mehr Sicherheit

Das Identitätsmanagement in der Cloud empfinden viele als schwieriger als in On-Premise-Umgebungen. Die meisten Unternehmen setzen noch immer auf Passwörter und Nutzernamen, um Identitäten zu verifizieren und Nutzerzugänge zu schützen. Die Erkenntnis, dass das für ein hohes Sicherheitsniveau nicht ausreichend ist, setzt sich jedoch immer mehr durch.
Erst eine Multifaktor-Authentifizierung sorgt dafür, dass sich Cloud-Zugänge von Mitarbeitern und Dritten zuverlässig überwachen lassen. Dabei werden mindestens zwei voneinander unabhängige Faktoren für die Authentifizierung von Kunden genutzt. Konkret können dies Dinge sein, die der Kunde weiß (Passwort, Sicherheitsfrage), die er besitzt (Mobiltelefon, Token) oder etwas, das ihn persönlich auszeichnet (Fingerabdruck, biometrische Gesichtserkennung).

Kernaussagen

  • Jeder zweite IT-Manager hält die Cloud-Sicherheitsstrategie im eigenen Unternehmen für unzureichend.
  • Klassische Sicherheitsmaßnahmen greifen in Cloud-Umgebungen nicht.
  • Fast die Hälfte aller Geschäftsdaten in der Cloud wird nicht von der IT-Abteilung kontrolliert.
    Durch Technologien wie Verschlüsselung, Tokenization und andere kryptografische Lösungen behalten Unternehmen die Kontrolle über ihre Daten in der Cloud
  • Mit Multifaktor-Authentifizierung lassen sich die Cloud-Zugänge von Mitarbeitern und Dritten zuverlässiger überwachen als mit Passwörtern.
  • Verschlüsselung gewährleistet „Vertraulichkeit, Integrität und Verfügbarkeit“, sowohl bei mobilen Geräten als auch in der Cloud.

Bis dato verschlüsselt nur rund ein Drittel der Unternehmen sensible oder vertrauliche Daten direkt in der cloudbasierten Applikation. Sauber und ohne Hintertüren implementiert trägt Verschlüsselung dazu bei, die drei Sicherheitsziele „Vertraulichkeit, Integrität und Verfügbarkeit“ zu erfüllen. Dabei kann die Technologie zwar nicht alle Aufgaben der Zugangs-, Zugriffs- und Weitergabekontrolle übernehmen, doch ohne sie sind diese Kontrollmaßnahmen kaum möglich.

Bei mobilen Endgeräten ist die Verschlüsselung nicht weniger wichtig als in der Cloud. Vor allem bei Smartphones und Tablets besteht ein hohes Verlust- und Diebstahlrisiko. Fehlt die mobile Datenverschlüsselung, können Gerätediebe und unehrliche Finder auf die vertraulichen Daten zugreifen.
Die deutschen Aufsichtsbehörden für den Datenschutz betonen: Verschlüsselung in der Cloud sollte so organisiert werden, dass die Schlüssel in der Hoheit der Nutzer verbleiben. Unternehmen sind deshalb einerseits in der Pflicht, nach Verschlüsselungslösungen Ausschau zu halten, die hinsichtlich Stärke und Algorithmus dem Stand der Technik entsprechen. Andererseits gilt es, ein zuverlässiges Key-Management zu etablieren. Das Thema Sicherheit in der Cloud wird für Unternehmen damit beherrschbar und diese können somit auch den Vorgaben bei Compliance und Governance gerecht werden. Sensible Daten sind überall und zu jederzeit geschützt.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Thorsten Krüger

Smart, jetzt wirklich?

Manch „smartes“ Gerät sieht schnell unsmart aus, wenn wichtige Regeln wie Datenschutz, Sicherheit und Nutzererwartungen nicht erfüllt werden.

von Oliver Sucker

Die fortschreitende Digitalisierung eröffnet neue Wege und Techniken in allen Bereichen des täglichen Lebens, birgt aber auch Herausforderungen, Tücken und unerwartete Fallstricke. Nicht immer bringt die Digitalisierung nur Positives, wenn sie nicht richtig angegangen wird.
Insbesondere der Datenschutz ist ein essentieller Kernaspekt, will man das Vertrauen seiner Kunden nicht auf einen Schlag verspielen. Noch wichtiger ist in diesem Zusammenhang das allübergreifende Thema IT-Sicherheit: Ohne System- und Datensicherheit ist auch kein Datenschutz möglich.

Neben all den rechtlichen und komplexen technischen Fragen darf man aber auch die Erwartungen und Wünsche des Endanwenders nicht vergessen. Wenn es nicht gelingt, Bekanntes und Bewährtes in entsprechenden Analogien aufzugreifen, stößt man – insbesondere bei älteren oder sehr tradierten Menschen – schnell auf ein Akzeptanzproblem. „Smarte“ Geräte wie Fitnesstracker, Fernseher, Überwachungskameras und Alarmanlagen oder gar Sprachassistenten sind mehrheitlich ein Graus. Öffentlich im Internet verfügbare Gesundheitsdaten, zweifelhafte Clouds in Fernost, zu denen sich IP-Kameras verbinden, die blinde Datensammelwut mancher Hersteller oder wanzenartige, permanente Raumüberwachung machen sie zu potenziellen Feinden in unseren Büros, Wohnzimmern oder gar an unserem Körper. Die „Sicherheitskamera“ wird da schnell zum Einbruchinformationssystem; die Alarmanlage, die sich per unverschlüsseltem Funk einfach abschalten lässt, gibt nur trügerische Sicherheit. Manch „smartes“ Produkt schaut da schnell dumm aus der Wäsche.

Manche Geräte sind aber auch einfach nur ärgerlich: Erst nötigen sie uns zur Anmeldung bei eigentlich überflüssigen Cloud-Diensten, über deren Sicherheit, Seriosität und Fortexistenz wir weder Kenntnis noch Kontrolle haben. Ohne die Cloud am anderen Ende wird das Gerät wertlos. Es ist zudem auch höchst fraglich, ob alles in der Cloud gespeichert werden muss, nur weil es gerade so hipp ist.
Fast alle modernen Geräte enthalten neben der Hardware auch entsprechende Software (Firmware und ggf. Betriebssystem). Diese enthält generell Fehler, linear abhängig von der Komplexität des Produkts, der Kompetenz, Sorgfalt und Kultur der Entwickler sowie dem Reifegrad des Produkts. Selbst in reifen Softwareprodukten tauchen regelmäßig Fehler auf, mitunter sicherheitsrelevante.

Sicherheitslücken müssen also durch regelmäßige Produktpflege beseitigt werden, anderenfalls wird das Produkt tendenziell immer anfälliger. Das tückische dabei ist, dass der Endanwender sicherheitsrelevante Fehler – im Gegensatz zu funktionalen Mängeln – nicht selbst erkennen kann; ein ansonsten wunderbar funktionierendes Produkt kann gespickt sein mit Sicherheitslücken.
Was ist also mit dem noch prima funktionierenden Smartphone, für das der Hersteller keine Sicherheitsupdates (mehr) liefert, wie es am PC selbstverständlich ist? Wegschmeißen oder einfach darauf hoffen, dass unsere privaten Daten schon nicht gestohlen werden, obwohl unsere Haustür sperrangelweit offen steht?

Dann ist da noch der Aspekt der Benutzerfreundlichkeit: „Smarte“ Telefone haben das Telefonieren in den Augen nicht weniger Menschen schwieriger, de facto zumindest aber umständlicher gemacht. Uhren sind gar so smart geworden, dass sie vor lauter Kraft nicht mal 24 Stunden ohne Nachladen durchhalten. Die elektronische Internetbriefmarke sieht nicht nur nicht mehr schön aus, der früher oftmals nützliche Poststempel mit dem Einlieferungsdatum fällt auch ersatzlos weg. Ein jahrzehntelang funktionierender Prozess ist so zumindest teilweise ruiniert.

All diese Probleme lassen sich durch solides Know-how und guten Willen lösen; dies wäre auch ein wesentlicher Beitrag, bestehende Akzeptanzprobleme abzubauen und die digitale Spaltung der Gesellschaft abzuwenden. Derzeit ist jedoch eher ein gegenteiliger Trend zu erkennen. Zum bekannten Abfallhaufen aus kaputten Zahlungssystemen, Zertifikatsinfrastrukturen, Mobilfunktechnologien, Routern und anderen Embedded-Geräten kommt nun u. a. noch Industrie 4.0 und das „Internet of Things“ (IoT), ob im Smart Home, vernetzten Fahrzeugen oder der Smart City.
Dass die Geräte immer stärker vernetzt sind, ist aus Anwendersicht Segen und Fluch zugleich: Die Geräte werden dadurch immer angreifbarer, ebenso kann zum Beispiel das Nutzungsverhalten ausgespäht werden. Es gilt also stets abzuwägen, ob weitere Vernetzung mehr Chancen oder mehr Risiken birgt. Gleichzeitig gilt es, Risiken zu minimieren und auch die Datenverarbeitung auf das zu beschränken, was für die Funktionalität tatsächlich nötig ist – auch wenn Unmengen an Statistiken über die eigenen Kunden manche Begehrlichkeiten wecken. Nur wenn der Anwender genau weiß, welche Daten erhoben werden und wofür, bleibt das böse Erwachen am Tag X aus.

Hersteller sollten Sicherheit und Datenschutz nicht als notwendiges Übel, sondern als solide Basis jeden digitalen Handelns verstehen. Patzer können ein Produkt oder gar ein ganzes Unternehmen in den Abgrund reißen; „Digitale Abgasskandale“ sind unter allen Umständen zu vermeiden. Diese Kernaspekte müssen dazu von Anfang an in Design und Entwicklung berücksichtigt und im Rahmen der Continous Delivery/Continous Integration oder in jedem Release permanent geprüft werden, auch die etwaigen Backend-Systeme. Penetrationstests und Audits sind hier auch in einem hohen Maße automatisierbar, sodass Aufwand und Kosten überschaubar bleiben.

Kernaussagen

  • Es muss nicht alles in der Cloud gespeichert werden. Es gilt, Risiken zu minimieren und die Datenverarbeitung auf das zu beschränken, was für die Funktionalität tatsächlich nötig ist.
  • Für den sicheren Umgang mit „smarten“ Produkten fehlt es den Endanwendern an Prüf- und Einflußmöglichkeiten. Hersteller, Importeure, Verbraucher- und Datenschutzorganisationen sind daher stärker als bisher gefordert, für sichere und datenschutzfreundliche Produkte zu sorgen.
  • Hersteller sollten Sicherheit und Datenschutz als solide Basis digitalen Handelns verstehen. Regelmäßige Sicherheitsupdates müssen garantiert beim Endanwender ankommen, im Ernstfall in wenigen Tagen oder sogar Stunden.

Eine ergänzende Möglichkeit, Ihr Vertrauen in die eigenen Produkte zu zeigen, ist das Ausschreiben von Kopfgeld-Zahlungen („Bug  Bounty“) an Sicherheitsforscher, die Probleme in Produkten finden und melden. Dies kann jedoch kein Ersatz für eine fachlich versierte Produktprüfung sein, da hier nicht sichergestellt ist, wie gut, wie tief und ob überhaupt jemand prüft. Ein mickriger Geldbetrag von wenigen Hundert Euro wird außer Kinderchen, die ihr Taschengeld aufbessern wollen, niemanden anlocken und auch keine detaillierte Produktprüfung ermöglichen.
Als Minimum sollte die Produkthomepage generell eine Kontaktmöglichkeit zum Melden von Sicherheitsproblemen bieten und konkrete Informationen zur Produktsicherheit und zu wichtigen Updates liefern. Dies setzt jedoch voraus, dass sich Anwender auch aktiv informieren, wovon mehrheitlich nicht ausgegangen werden kann.

Sicher sind die Produkte aber erst, wenn Updates auch beim Endanwender installiert sind. Dazu ist es also nötig, Updates entweder komplett automatisiert auszurollen oder zumindest einen Kanal zum Endanwender aufzubauen, über den wichtige Informationen kommuniziert werden können. Ein Informationsblatt zur Produktsicherheit mit nötigen Einstellungen, Empfehlungen und Informationsmöglichkeiten ist ebenfalls sehr nützlich.
Den Anwendern kann man nur anraten, obige Punkte in Bezug auf ihren Lieferanten zu prüfen bzw. prüfen zu lassen und die Produkte genauer zu hinterfragen. Ist zum Betrieb des Produkts eine Cloud erforderlich? Wie ist sie abgesichert und zertifiziert? In welcher Jurisdiktion werden die Daten gespeichert? Was passiert im Fall einer Insolvenz oder Übernahme?

Welche Daten erhebt ein Gerät und wozu? Gibt es ein unabhängiges Audit der Software? Ist der Quellcode einsehbar? Wie, wo, wie oft und wie lange gibt es Sicherheitsupdates? Monatlich automatisch sollte hier der Standard sein – bei akuten Problemen auch schneller – wie es große Firmen wie Microsoft oder Google vormachen.
Privatanwender können all dies natürlich nicht leisten: Hier sind Hersteller, Importeure und die Verbraucher- und Datenschutzorganisationen gleichermaßen mehr gefordert, den Bereich Software genauer ins Visier zu nehmen, ansonsten wird es die Politik tun müssen. So manches Produkt, das in deutsche Lande kommt, entspricht nicht den europäischen Datenschutzbestimmungen und ist in puncto Softwaresicherheit mangelhaft.

Denke digital. Denke analog. Dann agiere klug und balanciert, unter Abwägung von Nutzen, Risiken und traditionellen Erwartungen. Und immer daran denken: Nichts verschlimmbessern und vor allem nichts kaputt machen!

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Oliver Sucker

Cyber-Security

Komplexe IT-Bedrohungen der digitalen Ära können mit ganzheitlichen Cyber-Defense-Strategien abgewehrt werden.

von Kai Grunwitz

Prävention, Erkennung, Abwehr und Reaktion sind die Grundpfeiler einer zukunftsweisenden, ganzheitlichen Cyber-Defense-Strategie. Diese Strategie ist für alle Unternehmen essenziell, die sich erfolgreich gegen die immer raffinierter und komplexer werdenden Angriffe von Cyber-Kriminellen wehren wollen.

Die Cyber-Kriminalität übt großen Druck auf Unternehmen aus. Die Motivation der Angreifer, eine IT-Infrastruktur lahmzulegen, Daten zu stehlen oder ein Unternehmen zu sabotieren, ist dabei vielfältig. Sie reicht von der Erpressung durch professionelle Kriminelle über die Unzufriedenheit oder Rache von (Ex-)Mitarbeitern bis hin zu politischen Gründen, wenn etwa Systeme von Regierungen oder Interessenverbänden angegriffen werden. Mit einer Besserung ist nicht zu rechnen, da beispielsweise die Zahl der DDoS- oder Ransomware-Attacken seit Jahren kontinuierlich zunimmt.

Prävention, Erkennung, Abwehr und Reaktion sind die Grundpfeiler einer zukunftsweisenden, ganzheitlichen Cyber-Defense-Strategie.

Beim Schutz der eigenen IT und der Abwehr zielgerichteter Angriffe haben sich vor allem drei bisher etablierte Sicherheitsverfahren als unzureichend beziehungsweise ungeeignet herauskristallisiert: die Perimeter-Absicherung; die rein auf Zugriffsbeschränkungen ausgelegten IT-Lösungen sowie die signaturbasierte Malware-Abwehr bei Endpunkten. Probleme bereiten den etablierten Schutzmechanismen vor allem die zunehmende Vernetzung und Kommunikationsvielfalt durch n-zu-n-Beziehungen von Unternehmen mit Mitarbeitern, Lieferanten, externen Dienstleistern oder Kunden sowie die relative Trägheit der signaturbasierten Malware-Abwehr.

Paradigmenwechsel durch Cyber-Defense

In der IT-Sicherheit ist daher ein Umdenken nötig, denn nur ein ganzheitlicher Ansatz kann lückenlose Cyber-Sicherheit bieten. Zentrales Merkmal ist die Erweiterung herkömmlicher Sicherheitskonzepte, die auf dem Perimeter-Schutz basieren. Neben reaktiven Maßnahmen muss eine Full-Lifecycle-Sicherheitslösung heute auch einen aktiven Schutz umfassen. Der klassische Netzwerk-Schutzwall wird dabei um proaktive Sicherheitsmechanismen ergänzt, die sich auch auf Applikationen und Daten sowie die einzelnen Endpunkte erstrecken. Cyber-Defense steht dabei für mehr als nur die Summe einzelner Sicherheitsmaßnahmen und die Kombination punktueller Ansätze, die zum Beispiel nur eine spezifische Herausforderung wie die APT-Abwehr aufgreifen. Das bedeutet auch, dass es dabei um wesentlich mehr als das reine Infrastruktur- und Technologie-Management geht. Sie stellen in der Regel lediglich die Basis für höherwertige, weitreichendere Services dar.

Am Anfang einer Cyber-Defense-Strategie steht die Analyse des individuellen Risiko-Profils (Risk-Insight). Jedes Unternehmen weist ein solches Profil auf, das durch eine Klassifizierung und Risikobewertung der schützenswerten Daten und Prozesse ermittelt werden muss. Alle folgenden Maßnahmen bauen im Rahmen einer zukunftsweisenden Cyber-Abwehr darauf auf. Die vier zentralen Grundkomponenten der Strategie sind: Prävention, Erkennung, Abwehr und Reaktion.

Die vier Phasen des Security-Lifecycles im Überblick. Quelle: NTT

Prävention auf Applikationen, Daten und Clients ausdehnen

Der klassische Perimeter-Schutz mit E-Mail-Gateways inklusive Spam- und Malware-Filter, Next-Generation-Firewalls, VPN-Systemen oder dynamischen Sandboxing-Lösungen bietet keinen hinreichenden Schutz mehr, da er beispielsweise Business-Applikationen und Daten nicht ausreichend berücksichtigt. Lösungen wie Data-Loss-Protection oder Digital-Rights-Management schließen diese Lücken.

Für Eindringlinge sind Endpunkte wie Desktops, Tablets oder Smartphones ein immer wichtigeres Einfallstor, und deshalb ist es unabdingbar, diesen Geräten auch eine höhere Gewichtung zuzuweisen. Signaturbasierte Mechanismen können gezielte Angriffe durch Malware nur schwer erkennen und abwehren, sodass moderne, intelligente Endpunkt-Lösungen unverzichtbar sind. Das bedeutet, dass zum Beispiel mit einer stärkeren Nutzung von Micro-Hypervisor-Lösungen zu rechnen ist, die eine zuverlässige Endpunktsicherung durch Isolierung von Applikationen ermögli-chen, oder auch mit einer verstärkten Überwachung der Endpunkte, um Verhaltensauffälligkeiten und deren Verbreitung frühzeitig zu erkennen und zu bewerten. Im Hinblick auf die Prävention dürfen gerade auch aktuelle Trends und Themen wie die zunehmende Cloud-Nutzung, das Internet der Dinge oder die verstärkte Vernetzung von Produktionsanlagen, Industrial-Control-Systems oder SCADA-Systemen mit der IT nicht vernachlässigt werden.

Trotz aller Vorkehrungen: Die 100-prozentige Sicherheit bleibt eine Utopie!

Ein ganzheitliches Cyber-Defense-Konzept muss nicht zuletzt auch den Faktor Mensch berücksichtigen. Die Minimierung dieser potenziellen Schwachstelle durch die Förderung von Awareness und das Training von Mitarbeitern ist ebenfalls ein wichtiger Baustein einer präventiven Cyber-Defense-Strategie.

Früherkennung implementieren

Die zunehmende Vernetzung stellt auch neue Anforderungen an die gängige Monitoring-Praxis. Es reicht nicht mehr, sich auf Systemlogs und -warnungen zu verlassen. Die Überwachung muss vielmehr auch Verhaltensanalysen der IT-Umgebung in Echtzeit erlauben. Nur so lassen sich ungewöhnliche Aktivitäten aufdecken – etwa wenn Systeme, die nichts miteinander zu tun haben, Daten tauschen oder „stille“ interne Systeme plötzlich mit externen Systemen kommunizieren. Da Unternehmen in der Regel weder die finanziellen noch die personellen Ressourcen für solche Frühwarnsysteme aufbringen können, sollten sie die Unterstützung von Managed-Security-Services (MSS)-Anbietern anfordern, die mit ihren Security-Operations-Centern (SOC) Angriffe frühzeitig erkennen. Die Analysten in diesen SOCs analysieren mithilfe von intelligenten Tools permanent den Datenverkehr. Das versetzt sie in die Lage, aus den unterschiedlichen Informationen Korrelationen herzustellen und mit ihrer fachlichen Expertise zu bewerten.

Ein SOC sollte über eine valide globale Datenbasis für ein proaktives Sicherheits-Monitoring verfügen. Nur eine derartige globale Threat-Intelligence kann die zuverlässige Basis für die Realisierung eines umfassenden Schutzes vor akuten – auch gänzlich neuen – Bedrohungen sein. Dabei kann ein weltweit agierender Provider im Unterschied zu einem rein lokal vertretenen MSS-Anbieter Meldungen und Störungen unterschiedlichster IT-Infrastrukturen von Tausenden Kunden weltweit überwachen und analysieren – und auf dieser Datenbasis dann ein Echtzeitbild der Bedrohungslage erzeugen, das wiederum für die Erstellung effizienter Cyber-Abwehrlösungen genutzt wird. Ein international vertretener Service-Anbieter wie NTT Security beispielsweise betreibt weltweit 17 SOCs sowie Forschungs- und Entwicklungszentren und beschäftigt mehr als 1 500 Sicherheitsexperten, davon mehr als 250 allein in der DACH-Region. Zudem nutzt NTT weltweit verteilte proprietäre – auf eigener IP basierende – kommerzielle und Open-Source-Honeypots und kann damit seinen Kunden ein Höchstmaß an präventiver Sicherheit bieten.

Der Cyber-Defense-Ansatz von NTT Security basiert auf den vier Grundkomponenten Prävention, Erkennung, Abwehr und Reaktion. Quelle: NTT

Notfallplan entwerfen

Trotz aller Vorkehrungen bleibt die 100-prozentige Sicherheit eine Utopie. Unternehmen sollten deshalb immer für den Ernstfall gewappnet sein und einen Notfall-Plan in der Hinterhand haben, den sie bei einem Angriff oder Leck kurzfristig in Kraft setzen, um Schaden abzuwenden oder zu minimieren. Dass dies jedoch bei den meisten Unternehmen noch nicht der Fall ist, zeigt der aktuelle NTT Security Global Threat Intelligence Report, demzufolge gerade ein Viertel der Unternehmen ausreichend auf einen Incident vorbereitet ist. Bei der Entwicklung des Notfallplans bieten erfahrene Sicherheitsexperten eine entscheidende Unterstützung. Sie helfen auch, wenn es darum geht, Response-Teams bereitzustellen, die im Fall eines Falles einen ungewollten Datenabfluss unterbinden.

Der Text ist unter der Lizenz CC BY-SA 4.0 DE verfügbar.
Lizenzbestimmungen: https://handbuch-digitalisierung.de/cc-by-sa


Informationen zu Kai Grunwitz

Location-based Services

Die Einsatzgebiete für Location-based Services sind vielfältig. Nicht nur im Bereich des Handels, sondern auch bspw. in Verwaltung und Kultur.

Die Redaktion im Gespräch mit Georgios Karachos, Gründer und Geschäftsführer der Qualigon GmbH, zu Trends im Rahmen der Indoor-Lokalisierung

Herr Karachos, für welche Anwendungsszenarien eignet sich Indoor-Lokalisierung?
Wir bekommen Lokalisierungsanfragen aus vielen unterschiedlichen Bereichen, wie Shoppingcentern, Krankenhäusern, Flughäfen, Messen, Museen, aus dem Büro- oder auch Facility-Management sowie der Industrie. Dabei haben die unterschiedlichen Szenarien individuelle Anforderungen an die Lokalisierung, einerseits bei der geforderten Genauigkeit, andererseits auch bei der Frage, ob Personen oder Güter lokalisiert werden sollen. Anhand dieser spezifischen Kriterien wählen wir die beste Lokalisierungs-Technologie aus und gewährleisten dem Kunden damit eine individuell angepasste Lösung und einen zuverlässigen Betrieb. Große Krankenhausanlagen haben zum Beispiel verzweigte und schwer zu findende Bereiche. Durch eine Lokalisierungslösung können Patienten gezielt zu den Behandlungsräumen geleitet werden. Dies ermöglicht einen reibungslosen Betrieb. Zusätzlich kann das Facility-Management unterstützt werden. Darüber hinaus ist es damit auch möglich, Objekte wie Defibrillatoren oder Krankenhausbetten zu lokalisieren. Auch in Shoppingcentern bietet die Nutzung eine Vielzahl von Vorteilen für den Betreiber und den Endkunden. Dies gilt natürlich auch für Filialketten. In beiden Szenarien gibt es vielfältige Anwendungen, dazu zählt primär die Navigation des Kunden zu diversen Zielen, wie zum Beispiel Shops, Stellplatz des eigenen Autos im Parkhaus oder Servicepoints. Im nächsten Schritt können die Kunden dann ebenfalls in den Shops zu bestimmten Bereichen geleitet werden. Lokalisierungstechnologien erleben aber auch durch Industrie 4.0 einen starken Aufschwung. Dabei unterscheiden wir den Bereich der Personenführung, wie zum Beispiel im Alleinarbeiterschutz, und den IoT-Bereich (Internet of Things), bei dem eine direkte Kommunikation zwischen den Maschinen (M2M) notwendig ist. Die Kenntnis der Position von Gütern und Geräten ist für einen optimierten Produktionsprozess ein immer wichtiger werdendes Kriterium. Ein weiterer Aspekt sind alle Messungen im Indoor-Bereich, die mit einer genauen Positionsinformation verknüpft werden müssen, zum Beispiel Analysen von Mobilfunk- oder WLAN-Netzen oder aber Umwelt-Analysen.

Wie könnten Shoppingcenter Lokalisierungstechnologien in ihre Wertschöpfungskette integrieren, um bestmögliche Kundenbindung zu erzeugen?
Center-Betreiber werden damit in die Lage versetzt, ihren Kunden ein neues Shopping-Erlebnis anzubieten. Der Kunde kann seinen Besuch zu Hause am PC vorplanen und sich über sein Smartphone vom Verlassen des eigenen Pkws bis zum Produkt durch das Center navigieren lassen. Das Center-Management sowie die jeweiligen Einzelhändler können anhand genauer Analysen der Kundenbewegungen eine vergleichsweise sichere Aussage über die Vorlieben und Verhaltensmuster des Kunden im Shoppingcenter treffen. Dies hilft, das Angebot besser auf den Kunden einzustellen, Stärken und insbesondere Schwachstellen zu identifizieren und die Effizienz von Marketingmaßnahmen einzuschätzen und zu optimieren. In Verbindung mit diversen Daten aus der geografischen und geschäftsspezifischen Umgebung des Objektes lässt sich deren Einfluss auf das Kaufverhalten, die Verweildauer des Kunden und die Umsätze der Retailer feststellen. Aus der Betrachtung mehrerer diesbezüglicher Zyklen lässt sich hier eine nützliche Prognose ableiten, die mittel- und langfristig eine Optimierung der Prozesse und Logistik des Retailers erlaubt. Darüber hinaus lässt sich in Verbindung mit einer entsprechenden Smartphone-Applikation, die die Navigations-Funktionalität enthält, die Kundenbindung erhöhen. Auch können Produkte und Dienstleistungen über dieses Medium personalisiert beworben werden. Shoppingcenter können ihre Besucher-Bereiche als virtuelle Marketing-Flächen anbieten. Ein zusätzlicher, nicht zu vernachlässigender Nebeneffekt für den Shoppingcenter-Betreiber ist hier die Möglichkeit, diese Marketingflächen an interne und externe Retailer und Dienstleister zu vermieten und somit die Investitionen in das System refinanzieren zu können.

Was für einen konkreten Nutzen hat der Endanwender – wie hilft ihm die Lösung?
Im Shoppingcenter kann der Endkunde zunächst auf einfache Art und Weise seine bevorzugten Shops und gewünschte Servicepoints im Shoppingcenter finden. Ganz besonders positiv wird der Kunde diese Funktionalität insbesondere in größeren und unübersichtlichen Shoppingcentern empfinden. Des Weiteren ist die Möglichkeit gegeben, in Parkhäusern, die größtenteils nur noch schwer zu unterscheidende Bereiche aufweisen, sein Auto schnell und unkompliziert wiederzufinden. Ein Vorteil, den jeder Kunde insbesondere nach der ersten Erfahrung einer längeren Suche nach seinem Fahrzeug in einem großen Parkhaus zu schätzen wissen wird. Im Krankenhaus können Patienten und Besucher geführt werden. Ein weiterer wichtiger Anwendungsfall ist das Auffinden von Gerätschaften, wie Defibrillatoren und Betten, sowie das Überwachen von Blutkonserven. Krankenhausbetreiber können auf skalierbare Lösungen zurückgreifen. Daneben ist auch die Navigation des Facility-Managements und von Maintenance-Mitarbeitern zu bestimmten Wartungspunkten ein wichtiges Anwendungsszenario, da so auch Externe schnell und eindeutig zu ihren Arbeitsstellen geführt werden können, ohne komplizierte Pläne oder Personal des Auftraggebers nutzen zu müssen. In der Industrie unterstützen Lokalisierungs-Systeme den Alleinarbeiter in kritischen Situationen. Auch bei der Lagerhaltung optimieren wir bereits vorhandene IT-Lösungen.

Wie verläuft die konkrete Implementierung vor Ort?
Im ersten Schritt nehmen wir die Anforderungen des Kunden auf und spezifizieren gemeinsam das komplette System. Basierend auf diesen Informationen stellen wir aus unserem Portfolio die passenden Technologien zusammen. Je nach Szenario können wir dabei die Anforderung des Kunden an die Genauigkeit bis hin zu zehn Zentimetern abdecken. Unter Umständen sind in dem Implementierungsprozess auch Anpassungen an bereits vorhandene IT-Systeme des Kunden notwendig. Anschließend planen wir die Infrastruktur für die Lokalisierung mit Funkplanungs-Software basierend auf den beschriebenen Genauigkeits-Anforderungen. Schließlich erfolgt die Installation der benötigten Infrastruktur. Parallel zu diesen Schritten wird eine eigene mobile App für den Kunden erstellt oder eine bereits bestehende erweitert. Nach einer Qualitäts-Überprüfung des kompletten Systems und natürlich auch der Genauigkeit kann der Kunde das System übernehmen. Zusätzlich bieten wir die vollständige Wartung oder auch den Betrieb des Systems an.

Kernaussagen

  • Durch die Indoor-Lokalisierung können in Gebäuden Personen geführt und Güter lokalisiert werden.
  • Indoor-Lokalisierungs-Lösungen sind dabei, in den Bereichen Industrie, Gesundheitswesen sowie Groß- und Einzelhandel zum Standard zu werden.
  • Indoor-Lokalisierung vereinfacht und optimiert in Verbindung mit Business-Intelligence die Prozessabläufe in unterschiedlichen Szenarien.
  • Indoor-Lokalisierungs-Systeme erhöhen die Arbeitssicherheit.
  • Durch Indoor-Lokalisierung können neue Dienste generiert und bereits bestehende Dienste erweitert werden.

Wie wird sich die Technologie weiterentwickeln?
Wir erwarten, dass die Lokalisierungs-Technologie immer stärker zu einem Standard ähnlich wie GPS wird. Die für die Lokalisierung verwendete Infrastruktur wird ein integraler Bestandteil der Gebäudetechnik wie zum Beispiel eine Brandmeldeanlage sein und wird mit anderen Komponenten, im Rahmen von Smart Buildings, interagieren. Hier erwarten wir nach wie vor energiesparende, kostengünstigere, noch leistungsfähigere Geräte und sich daraus ergebende neue Möglichkeiten. Wir erkennen, dass die unterschiedlichen Sparten ein starkes Interesse an den Diensten, die die Lokalisierung bietet, haben. Das sind neben den erwähnten Dienstleistungen für den Besucher oder dem Auffinden von Gütern und Waren ganz besonders die positionsbezogenen Analysen. Durch diese neuen Datenquellen ergeben sich moderne Dienste-Dimensionen, die von der Business-Intelligence über Marketing, Asset-Tracking bis hin zur Security und Arbeitssicherheit reichen. Wir beschäftigen uns schon lange mit Business-Intelligence in Verbindung mit Positionsdaten und bieten auch diese komplexen Prozesse und Analysen aus einer Hand. Die steigende Nachfrage zeigt, dass Lokalisierungs-Dienste, wie z. B. das Tracking von Assets, zu einem Standard werden. Durch die beständige Optimierung dieser Bereiche sind unsere Kunden für das Zeitalter der digitalen Transformation gerüstet.

Genauigkeit und Einsatzfeld typischer Ortungssysteme für Location-based Services (Quelle: Qualigon)

Wäre eine „Kopplung“ mit anderen Navigationslösungen denkbar?
Wir können die Indoor-Lokalisierungs-Technologien z. B. mit den bekannten GPS-Systemen verknüpfen. Damit ist ein nahtloser Übergang zwischen der Indoor- und Outdoor-Lokalisierung möglich. Dies erspart dem Kunden die Notwendigkeit, den Outdoor-Bereich, wie z. B. Lagerflächen, Parkanlagen oder Außenparkplätze, mit Infrastruktur auszustatten. Bei einer Integration der unterschiedlichen Dienste in schon bestehende Systeme ist es auch möglich, den Kunden, der mit dem Auto kommt, bis zum Parkhaus zu leiten. Von dort übernimmt sein Smartphone die Navigation durch die Fußgängerzone oder das Shoppingcenter bis zum Regal, in dem das Produkt zu finden ist. Mit entsprechenden Informationen ist die mobile App in der Lage, den Kunden zu einem freien Parkplatz zu führen, der den kürzesten Weg zum Shop mit dem ausgewählten Produkt aufweist.

Bieten Sie Schnittstellen für App-Entwickler, Ihre mit dem Fraunhofer IIS gemeinsam entwickelten Technologien und Dienste zu nutzen?

Das System bietet verschiedene Schnittstellen, die auch von externen App-Entwicklern genutzt werden können, um ihre Applikationen mit der Lokalisierungs-Technologie zu erweitern. Dies ist auch notwendig, da viele Kunden bereits eigene mobile Applikationen besitzen, die um die Lokalisierungsmöglichkeit angereichert werden sollen. Basierend auf den Anforderungen passen wir auch die Schnittstellen an bestimmte bereits im Unternehmen genutzte Systeme an.

Wie stellen Sie sicher, dass die Dienstequalität gewährleistet wird?
Lokalisierungs-Systeme bestehen in der Regel aus mehreren Modulen wie Infrastruktur, gegebenenfalls Apps für Smartphones, diversen Server-Komponenten und den bereits angesprochenen Schnittstellen zu anderen Systemen. Um die Qualität der zugehörigen Dienste gewährleisten zu können, müssen die einzelnen Module fehlerfrei zusammenwirken. Für den Kunden übernehmen wir die Installation, den Betrieb und die Wartung der Infrastruktur. Somit ist die Lokalisierungs-Genauigkeit, welche zum Beispiel für Business-Intelligence-Systeme maßgeblich ist, nicht nur einmalig nach der Installation, sondern auch für die Zukunft gewährleistet. Für die Sicherstellung der Netzqualität überprüfen wir die vorhandenen WiFi- und Mobilfunknetze durch eigene Messsysteme. Dabei ergibt sich in der Regel ein Optimierungsbedarf der Netze, um die Kundenanforderungen erfüllen zu können. Auch bei der Implementierung liefern wir unseren Beitrag zur Sicherstellung der Quality of Experience. Hier begleiten wir die Entwicklung der Applikationen und die damit verbundenen Dienste durch das automatisierte Testen auf einer Vielzahl von Smartphones und Tablets. Um eine fehlerfreie Kommunikation zwischen Applikation und Server-Komponente gewährleisten zu können, führen wir ein kontinuierliches Monitoring von Diensten durch. Damit stellen wir die vom Kunden gewünschte Qualität sicher. Natürlich sind bei den angesprochenen Komponenten die Security sowie der Datenschutz wichtige Aspekte, die berücksichtigt werden müssen. Wir arbeiten hier mit spezialisierten Partnern zusammen, die uns dabei unterstützen, den Kunden den bestmöglichen Service zu bieten.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Georgios Karachos

Smarte Lösungen für den Handel

Über die Chancen von Big Data und der Vernetzung

von Jens Lappoehn

Die Digitalisierung ist die größte technologische Revolution der letzten 200 Jahre. Sie erfasst die Wirtschaft genauso wie die Gesellschaft und verändert die Art und Weise, wie wir leben und arbeiten. Die Digitalisierung ist vor allem eines: Eine große Chance, denn viele zentrale Herausforderungen der Zukunft sind ohne digitale Technologien nicht lösbar. Telefónica Deutschland trägt als nach Kundenzahl größtes Mobilfunkunternehmen Deutschlands maßgeblich dazu bei, dass die digitale Zukunft Wirklichkeit wird. Denn wir bieten zwei zentrale Rohstoffe für die Digitalisierung: Konnektivität und Daten.
Diese Rohstoffe wollen wir nutzen. Wir sind überzeugt, dass in der Vernetzung von Dingen und der smarten Datenanalyse großes Potenzial für die Gesellschaft und die Wirtschaft steckt. Deshalb haben wir eine neue Gesellschaft, die Telefónica Germany NEXT GmbH, gegründet, die diese digitalen Wachstumsfelder vorantreibt. Auf Basis von Datenanalysen und der Vernetzung von Dingen bietet die Gesellschaft anderen Unternehmen Lösungen an, damit diese die Chancen der Digitalisierung besser nutzen können.

Milliarden Daten intelligent verknüpft

Mit über 44 Millionen Kundenanschlüssen liegt uns durch unsere normalen Geschäftsprozesse eine große Menge an Daten vor. Darunter sind vor allem solche, die ausschließlich bei uns als Netzbetreiber anfallen, beispielsweise Mobilitätsdaten. Diese entstehen, wenn Handys, z. B. beim Surfen, mit den Mobilfunkzellen kommunizieren. Täglich entstehen so mehr als vier Milliarden Datenpunkte.
Für Analysezwecke werden sie durch ein dreistufiges, TÜV-zertifiziertes Verfahren vollständig anonymisiert und im Anschluss statistisch ausgewertet. Trotz vollständiger Anonymisierung können Kunden der Verwendung ihrer Daten jederzeit wiedersprechen. Sie haben so die Möglichkeit, ihre persönlichen Präferenzen mit dem Nutzen abzuwägen, den ihre Daten für die Wirtschaft und Gesellschaft schaffen.
Intelligent verknüpft ergeben sich aus den Daten neue Erkenntnisse, die für Unternehmen unterschiedlichster Branchen ebenso wie für Kommunen, öffentliche Verkehrsbetriebe und die Gesellschaft insgesamt relevant sind. Die Erkenntnisse aus datenbasierten Analysen sind beispielsweise für Städte interessant, die unter hohem Verkehrsaufkommen leiden. Das Potenzial von Mobilfunkdaten als eine verlässliche Datenquelle für die Verkehrsplanung untersuchen wir aktuell in Stuttgart gemeinsam mit dem Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO. Zudem beteiligen wir uns an einem Pilotprojekt in Nürnberg, bei dem auf Basis von Mobilfunkdaten die Verkehrsströme und darüber die Luftverschmutzung analysiert werden.

Der Weg der Daten: vom Handy über die Anonymisierung zur Verkehrsmessung

Smarte Datenanalyse für den Handel

Präzise Daten sind nicht nur für die Verkehrsplanung hilfreich, sondern auch für den stationären Handel von großem Interesse. Online-Händler verstehen bereits sehr präzise, wie viele Kunden ihre Website besuchen, wie lange sie dort jeweils bei welchem Angebot verweilen und welche Art der Produktplatzierung für welche Zielgruppe vielversprechend ist. Auf der Grundlage dieser Kundeninformationen passen bereits viele Online-Händler ihre Angebote schnell und flexibel an die Kunden an. Wir arbeiten bei Telefónica NEXT daran, dass diese Möglichkeiten auch für den Offline-Handel, also den stationären Handel, funktionieren. Dies kommt nicht zuletzt auch den Innenstädten zugute. Unsere smarte Datenanalyse trägt dazu bei, dass der stationäre Handel Informationen über seine Zielgruppe erhält, die ihm bisher so nicht zur Verfügung standen. Wir analysieren beispielsweise mithilfe von Mobilfunkdaten Kundenströme im Umfeld einer Filiale.
Auf Basis von Daten kann der Händler seine Kunden besser verstehen und smarter mit ihnen interagieren – und nicht zuletzt seine eigenen Prozesse effizienter gestalten. Die Kunden wiederum profitieren von einem digitalen Einkaufserlebnis. Das stärkt die Position des Einzelhandels gegenüber dem Online-Handel. Händler, die online und offline Kanäle bedienen, erhalten wertvolle Informationen, wie sie diese noch besser vernetzen.

Bewegungen rund um den Store

Bislang waren Kaufhäuser und Einzelhändler auf Schätzungen angewiesen, um zu wissen, wie viele Kunden tatsächlich ihre Schaufenster passieren. Durch die smarte Datenanalyse können die Bewegungsströme vor Geschäften statistisch exakter berechnet werden, denn die Stichprobe aus anonymisierten Daten ist größer und aktueller – und nicht verzerrt durch Großereignisse oder z. B. das Wetter. Durch zusätzliche Analy­severfahren ermitteln wir beispielsweise auch, wie viele Menschen derselben Al­tersgruppe und desselben Geschlechts sich in der Nähe des Stores aufgehalten haben. Zudem können wir auf Basis der anonymisierten Daten beispielsweise typische Routen oder durchschnittliche Verweildauern bestimmter Zielgruppen berechnen. Über Roaming-Informationen ist auch die Identifikation der Zielgruppe der Touristen möglich.

Der Einzelhandel kann anhand dieser vielfältigen Informationen zum Beispiel Standorte viel besser bewerten, Öffnungszeiten optimieren, Werbung in Schaufenstern passend gestalten oder das Sortiment an die Zielgruppe anpassen. Auch Telefónica Deutschland stellte nach dem Zusammenschluss mit E-Plus mithilfe der Datenanalyse das eigene Filialnetz der Shops auf den Prüfstand. Von diesen relevanten Erfahrungen profitiert Telefónica NEXT.

Telefónica NEXT

Telefónica Deutschland hat die strategischen Wachstumsfelder „Advanced Data Analytics“ und „Internet of Things“ in einer eigenen Gesellschaft gebündelt, der Telefónica Germany NEXT GmbH mit Sitz in Berlin. Die Gesellschaft bietet anderen Unternehmen Lösungen an, damit diese die Wachstumschancen der Digitalisierung besser nutzen können. Mit „Advan­ced Data Analytics“ richtet Telefónica NEXT den Blick auf den gesellschaftlichen und wirtschaftlichen Nutzen, der sich aus der Analyse großer Datenmengen ziehen lässt. Zudem arbeitet das Unternehmen an Lösungen für das Internet der Dinge und wird mit der neuen Software-Plattform geeny.io Unternehmen dabei unterstützen, vernetzte Lösungen auch für Endverbraucher anzubieten.

In einem nächsten Schritt werden wir auch Analysen für das Innere der Stores ermöglichen. Damit erfahren Händler, wie viele und welche Kunden tatsächlich den Store betreten haben und wie lange und wo sie sich darin aufgehalten haben. So können Händler die Kundenströme viel besser verstehen und z. B. die Gestaltung ihrer Flächen optimieren oder auch den Erfolg einzelner Filialen miteinander vergleichen.
Durch die Verknüpfung von beidem – Analysen außerhalb des Stores und im Store – kann der Händler die sogenannte Customer-Journey nahezu vollständig abbilden und seine Verkaufskanäle optimieren.

Das digitale Erlebnis im vernetzten Store

Kunden erhalten datenbasiert passende Angebote von Partnern (Quelle: Quelle Telefónica Deutschland)

Wir unterstützen die Händler auch dabei, im Inneren ihrer Geschäfte digitale Technologien gewinnbringend einzusetzen – und das für beide: für Händler und Kunde. Mithilfe unserer Datenanalyse kann der Händler sein Geschäft smarter an die Bedürfnisse seiner Zielgruppe anpassen und mit seinen weiteren Verkaufskanälen vernetzen. Sei es durch stimmige Musik, passende Displays oder wertvolle digitale Zusatzinformationen. All das bietet den Kunden ein mehrere Sinne ansprechendes Erlebnis, das der Online-Handel alleine nicht ermöglicht. Dabei wird der Kontakt zu den echten Mitarbeitern nicht weniger, sondern effizienter und besser – und damit auch wirtschaftlicher für den Händler.
Für die Auswahl passender Produkte bauen wir auf einem umfangreichen internationalen Portfolio unseres spanischen Mutterkonzerns Telefónica S. A. auf. Ein Beispiel sind digitale Plakate. Sogenannte Digital Signage können mit verschiedenen relevanten und anonymisierten Daten, zum Beispiel Alter und Geschlecht der vorhandenen Kunden und Wetterdaten, verknüpft werden. So kann der Händler in Echtzeit jeweils passende Informationen oder Angebote auf den Displays präsentieren. Zusätzliche Interaktivität bieten smarte Umkleidekabinen. Der Kunde hat die Möglichkeit, Informationen über Größen- und Farbvarianten der Produkte auf einem Tablet abzurufen. Zudem kann er sich zu passenden Accessoires inspirieren und sich gewünschte Varianten von den Mitarbeitern bringen lassen.

Ein weiteres Beispiel für mehr Interaktion und gleichzeitige Effizienz sind digitale Preisschilder. Sie lassen sich vom Kunden über einen Touch-Screen bedienen und bieten ihm Zusatzinformationen zum Produkt an. Durch die zentrale Steuerung der Preisschilder kann der Händler die Fläche schneller umgestalten.

Kunden außerhalb des Stores gezielt ansprechen

Händler können von der Digitalisierung auch außerhalb ihrer Stores profitieren und mit ihrer Zielgruppe kommunizieren. Hierbei handelt es sich um spezifische Werbeangebote, die Kunden auf unterschiedlichen Wegen erreichen.

Datenschutz ist Grundvoraussetzung

Der Datenschatz ist ohne Datenschutz wertlos. Telefónica Deutschland nimmt den Datenschutz sehr ernst, denn er ist die Grundlage für die Akzeptanz von datenbasierten Geschäftsmodellen in der Gesellschaft. Deshalb ist das Herzstück der Datenanalyse ein vom TÜV zertifiziertes und von der Bundesbeauftragten für den Datenschutz und die Informationsfreiheit begleitetes Verfahren. Es sorgt dafür, dass Kundendaten über ein dreistufiges Verfahren komplett anonymisiert werden und sich auch nicht nachträglich bestimmten Personen zuordnen lassen. Trotz dieser vollständigen Anonymisierung hat jeder Kunde die freie Wahl und kann der Nutzung seiner anonymisierten Daten jederzeit widersprechen. So behält er stets die Hoheit über seine Daten.
https://analytics.telefonica.de/

Einerseits erlaubt die Plattform Axonix die datenbasierte, gezielte Ausspielung von Werbebannern beim mobilen Surfen. Andererseits können Händler mithilfe des Service O2 More Local ihre Zielgruppe per Nachricht auf dem Mobiltelefon erreichen. Mit der kostenlosen Buchung von O2 More Local erlaubt der Kunde, dass O2 seine Daten, wie Aufenthaltsort, Wetter, Tageszeit, Alter und Geschlecht, verwenden darf, um ihm Angebote von Marken per Mobile Messaging zu senden. Da die Angebote auf den individuellen Daten basieren, treffen sie mit höherer Wahrscheinlichkeit auf die Interessen des Kunden. Ihre Daten sind dabei vollständig geschützt.

Zur richtigen Zeit am richtigen Ort

Vor dem Store, im Store und in unmittelbarem Kontakt mit dem Produkt: Die Digitalisierung bietet Kunden und Händlern völlig neue Möglichkeiten der Interaktion. Wir bei Telefónica NEXT werden die Möglichkeiten der smarten Datenanalyse und der Vernetzung von Dingen weiter vorantreiben – für Angebote zur richtigen Zeit, am richtigen Ort für den richtigen Kunden.

Kernaussagen

Intelligent verknüpft ergeben sich aus den anonymisierten Daten neue Erkenntnisse, die für Unternehmen unterschiedlichster Branchen ebenso wie für Kommunen, öffentliche Verkehrsbetriebe und die Gesellschaft insgesamt relevant sind.
Mit Blick auf den Handel trägt die smarte Datenanalyse dazu bei, dass Händler Informationen über ihre Zielgruppe erhalten, die ihnen bisher so nicht zur Verfügung standen. Telefónica NEXT analysiert beispielsweise mithilfe von Mobilfunkdaten Kundenströme im Umfeld einer Filiale.
Auf Basis der Daten kann der Händler seine Kunden besser verstehen, smarter mit ihnen interagieren und der Kunde profitiert von einem digitalen Einkaufserlebnis. So kann der Einzelhandel seine Position gegenüber dem Online-Handel stärken bzw. seine Omnichannel besser miteinander vernetzen.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Jens Lappoehn

Kommunikation – Herzstück erfolgreicher Digitalstrategien

von Klaus Stöckert

Die aktuelle Entwicklung digitaler Technologien teilt die Unternehmenswelt in zwei Gruppen: Die eine sind Firmen, die ihre digitale Transformation bereits angehen oder schon hinter sich haben. Und dann die zweite Gruppe, die Firmen, die den Wandel noch vor sich haben – oder ihr Business an disruptive, digitale Geschäfts­ideen verlieren. Unify, das Tochterunternehmen von Atos für Kommunikationssoftware und -services, gehört zur ersten Gruppe. Die digitale Transformation hat Unify zahlreiche Erkenntnisse gebracht, wie Unternehmen die Digitalisierung optimal angehen können. Ein wichtiger Lerneffekt: Soll die digitale Strategie Erfolg haben, darf sie sich nicht auf ein Produkt oder eine bestimmte Technologie fokussieren. Vielmehr müssen der Mensch und damit auch das Team im Mittelpunkt stehen. User-Experience wird zum wichtigen Stichwort.

Kulturwandel bereits im Gang

Klaus Stöckert

Eine Studie im Auftrag von Unify aus dem Jahr 2016 belegt, dass der Kulturwandel bereits in vollem Gange und auch bei den Arbeitnehmern angekommen ist. Die Studie „The Way We Work“, für die weltweit rund 9 000 Wissensarbeiter befragt wurden – davon 3 019 in Deutschland –, zeigt: Über die Hälfte (55 %) der befragten deutschen Wissensarbeiter gehen davon aus, dass sich ihre Rolle im Unternehmen in Zukunft ändern wird. Die Gründe dafür sind vielfältig: Die Arbeitswelt verändert sich rasant, die Wirtschaft entwickelt sich hin zu einer On-Demand-Economy. Die digitale Transformation spielt dabei ebenso eine wichtige Rolle.
Die Veränderungen für die Mitarbeiter sind bereits jetzt deutlich spürbar, wie die Umfrage zeigt. Eine wichtige Erkenntnis lautet nämlich, dass Virtualität für viele Teams die neue Realität ist. Global gaben bereits über die Hälfte (52 %), in Deutschland immerhin schon rund ein Drittel (34 %) der Wissensarbeiter an, dass sie jetzt stärker in virtuelle Teams eingebunden sind, als das früher der Fall war. Virtuell bedeutet in diesem Fall, dass die Teams über verschiedene Büros und Standorte, also über größere Entfernungen hinweg zusammenarbeiten. Generell steigt die Bedeutung von Technologie. Fast die Hälfte der Befragten weltweit (49 %) sowie in Deutschland (48 %) gaben an, dass ihr Unternehmen eher durch Technologie und Kommunikation funktioniert statt auf Basis von lokalen Büros und Standorten.

Schlüsselfaktor Kommunikation

Kommunikation ist dabei ein Faktor, der kaum hoch genug einzuschätzen ist. Um in virtuellen Teams genauso gut und produktiv zusammenzuarbeiten wie aus dem herkömmlichen Büro gewohnt, oder sogar noch besser, brauchen die Mitarbeiter das richtige Werkzeug. Lösungen für Kommunikation und Zusammenarbeit, die technisch hoch belastbar sind und nicht frühzeitig an ihre Grenzen kommen, sind hier unabdingbar. Solche Tools für „Unified Communications and Collaboration“ (UCC) integrieren idealerweise alle Kommunikationskanäle auf einer übersichtlichen, leicht bedienbaren Oberfläche – so, wie die Mitarbeiter das aus den privat genutzten Apps und Portalen gewohnt sind. Noch steht die Entwicklung in diesem Bereich am Anfang. Die klassische E-Mail ist nach wie vor des deutschen Wissensarbeiters liebstes Kommunikationsmittel. Rund die Hälfte (46 %) gaben das bei der Umfrage an. Trotzdem nutzt bereits ein Fünftel (20 %) von ihnen regelmäßig Videokonferenzen. Auch On-Demand-Werkzeuge stehen hoch im Kurs: 63 Prozent der Befragten nutzen diese internet- oder cloudbasierten Dienste regelmäßig oder zumindest gelegentlich.

Kernaussagen

Die digitale Transformation ist unausweichlich – Unify spricht aus Erfahrung. Allerdings müssen statt Produkten und Technologie Menschen und Teams im Mittelpunkt der digitalen Strategie stehen, um erfolgreich zu sein.
Der Kulturwandel hin zum Digital Workplace ist bereits im Gang, wie eine Studie von Unify zeigt: Der klassische Arbeitsplatz verändert sich rasant. Kommunikation spielt dabei eine zentrale Rolle.
Kommunikationsplattformen wie Circuit von Unify, die nahtlos in vorhandene UCC-Lösungen integriert und unabhängig vom eingesetzten Endgerät sind, bieten eine ideale Möglichkeit, virtuelle Teams und Remote Worker zu vernetzen.

Der digitale Arbeitstag – anders als gewohnt

Der Arbeitstag eines virtuellen Wissensarbeiters unterscheidet sich heute entsprechend von der herkömmlichen Routine. Der wohl größte Unterschied: Es spielt im virtuellen Team keine Rolle mehr, von wo aus die einzelnen Teammitglieder arbeiten, solange sie einen stabilen Internetzugang haben. Der Arbeitstag beginnt mit einem Blick in die Kommunikationsplattform – gibt es neue Informationen? Sind Dateien geändert worden und müssen überprüft werden? Idealerweise funktioniert das alles mit wenigen Klicks auf einer einzigen Oberfläche. Anschließend steht die Teambesprechung an. Ein weiterer Klick, schon nimmt der Mitarbeiter an einer Videokonferenz teil. Kein Wechsel des Arbeitsortes mehr, keine Suche nach einem freien Besprechungsraum, schon gar keine langwierigen Dienstreisen. Zuletzt ist ein Bericht fällig – die Daten und Fakten, die als Grundlage dienen, sind alle einfach erreichbar und im richtigen Kontext abgelegt. Damit geht die Bearbeitung schnell, die generierten Dateien lassen sich ebenso schnell und einfach wieder im richtigen Zusammenhang einbetten. Vor dem Feierabend noch ein schneller Blick auf die Kommunikationsplattform, diesmal nicht vom Laptop aus, sondern übers Smartphone. Die Oberfläche ist dieselbe, das erleichtert die Bedienung wesentlich.

Damit all das auch so funktioniert, müssen solche UCC-Lösungen nahtlos in bestehende Infrastrukturen eingebunden werden. Außerdem müssen sie flexibel skalieren können, damit neue Teammitglieder schnell und einfach eingebunden werden können. Dazu gehören sowohl neue und bestehende Mitarbeiter als auch Freelancer oder externe Partner und Zulieferer. Das wird künftig noch wichtiger werden, wenn Teams ganz im Sinne des On-Demand-Ansatzes kurzfristig und projektbezogen zusammengestellt, vergrößert und dann möglicherweise auch wieder aufgelöst werden.

In fünf Schritten zur optimalen Kommunikation

Damit die digitale Wandlung gelingt, sollten Unternehmen insbesondere die Infrastruktur für Kommunikation und Zusammenarbeit gründlich aufsetzen. Die folgenden fünf Schritte führen zum Erfolg:

1. Die Strategie ist das Fundament
Unternehmen brauchen eine umfassende Strategie, die alle Prozesse, Unternehmensbereiche und natürlich die Mitarbeiter mit einschließt. Sonst greift die Veränderung zu kurz. Es sollte selbstverständlich sein, dass ein so tief greifender Wandel Chefsache ist und nicht nur an einzelne Abteilungen delegiert werden kann.
2. Prozesse klar definieren
Steht die Strategie, müssen die verschiedenen digitalen Prozesse definiert werden und es muss eine Roadmap entstehen. Sie legt klar fest, was genau bis wann umgesetzt werden muss, wer dafür verantwortlich ist und wie der jeweilige Bereich in die Gesamtstrategie eingebunden ist.
3. Die vorhandene Infrastruktur unter die Lupe nehmen
Jedes Unternehmen verfügt bereits über Kommunikationsmittel, und seien es nur Tischtelefone. Soll die Kommunikation digitalisiert werden, muss jetzt genau geprüft werden, wie die bestehende Infrastruktur aussieht. Ist erst vor Kurzem viel investiert worden? Dann soll dieses Investment natürlich geschützt werden. Oder ist die vorhandene Telefonanlage beinahe schon antik? Dann stünde ein Austausch ohnehin über kurz oder lang auf der Agenda und kann jetzt angepackt werden.
4. Lösungen und Partner suchen
Im nächsten Schritt geht es dann an die Auswahl der passenden Lösung. Hier sollten die Verantwortlichen den eigenen Bedarf genau kennen: Ein kleines Unternehmen ist mit einem System für Großkonzerne schlecht beraten, sie bezahlen dabei für Ressourcen, die sie nicht nutzen. Im schlechtesten Fall sind sie mit der Instandhaltung überfordert. Große Unternehmen dagegen brauchen mög­licher­weise eine flexible Lösung, um möglichst schnell skalieren zu können. Ist ein eigenes IT-Team vorhanden, das Installation und Wartung übernehmen kann? Ansonsten ist es ausgesprochen wichtig, einen guten Service-Partner zu finden. Hier gilt es, die vereinbarten Service-Level-Agreements (SLAs) genau zu prüfen – je nach Branche können einige Stunden Downtime völlig unproblematisch sein oder aber das Geschäft gefährden.
5. Digitalisierung bedeutet Kulturwandel
Hier schließt sich der Kreis: Digitalisierung ist weit mehr als eine rein technische Angelegenheit. Sind erst einmal die technischen Fragen geklärt, muss sich auch die Kultur im Unternehmen ändern. Die Strategie für den „New Way to Work“ kann noch so ausgefeilt sein – wenn sie nur im Rechenzentrum ankommt, aber nicht in den Köpfen und Herzen der Mitarbeiter, dann sind die Aussichten auf Erfolg gering.

UCC-Plattformen: offen, flexibel, intuitiv

All diese Punkte sind in die Entwicklung von Circuit eingeflossen, der Collaboration-Plattform von Unify. Einer der wichtigsten Aspekte war der Bedienkomfort. Gemeinsam mit frog design entwickelte Unify eine einheitliche, intuitive Bedienoberfläche für sämtliche Endgeräte, vom PC über Tablets bis hin zu Smartphones. Alle nötigen Informationen sind in umfangreichen Kontext eingebettet und einfach über die Suchfunktion zu erreichen. Die Inhalte sind übersichtlich in Konversationen strukturiert, ganz so, wie Menschen normalerweise miteinander kommunizieren und zusammenarbeiten. Um die nötige Integrationsfähigkeit und Skalierbarkeit zu gewährleisten, sollte eine solche Plattform auf offenen Standards basieren und über gut dokumentierte Programmierschnittstellen (APIs) verfügen. Unify hat Circuit beispielsweise von Anfang an als „Collaborative Platform as a Service“ (cPaaS) konzipiert – also als Webservice mit möglichst offenem Zugang für Entwickler. Mehrere Hackathons haben bereits gezeigt, dass neue Entwicklungen einfach zu bewerkstelligen sind und die Lösung damit an die unterschiedlichsten Bedürfnisse angepasst werden kann. Was mindestens ebenso wichtig ist: Die Lösung muss ohne Komplikationen auf jedem Endgerät funktionieren. Unify setzt dafür auf WebRTC. Der Standard macht die Übertragung von Voice- und Videodaten in Echtzeit über den Browser möglich, ohne dass dafür Clients installiert oder Plug-ins heruntergeladen werden müssen. Damit wird der Browser zur Kommunikationszentrale.

Was ist WebRTC?

„Web-based Real-Time Communications“ ist aus einem Projekt entstanden, das Google 2010 initiiert hat. Ziel ist es, einen übergreifenden Standard für Protokolle und Programmierschnittstellen zu entwickeln, der für alle Browser gültig ist. Damit ist Echtzeitkommunikation über jeden beliebigen Browser möglich, indem Daten vom Browser des Gegenübers abgerufen werden. WebRTC ist quelloffen, so können Entwickler die Technologie in eigene Anwendungen integrieren. Seit Frühjahr 2011 ist WebRTC im Standardisierungsprozess des World Wide Web Consortium (W3C). Maßgebliche Unterstützer sind Google, Mozilla und Opera Software ASA. Unify macht seit Ende 2014 diese Technologie mit seinem Cloud-Service Circuit.com für Unternehmen nutzbar.

Diese Art von flexiblen, leicht integrierbaren und skalierbaren Plattformen macht die Zusammenarbeit in virtuellen Teams einfach und produktiv. Damit sind Unternehmen in der Lage, einerseits die eigenen Mitarbeiter in die digitale Zukunft zu bringen und die Strukturen und Abläufe an den digitalen Wandel anzupassen. Andererseits lassen sich damit auch Kunden leichter und direkter ansprechen, weil die Kommunikation intuitiv, nahtlos und im richtigen Kontext abläuft.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Klaus Stöckert

Logistik braucht IT

Nichts bewegt sich ohne eine enge Verzahnung von Logistik und IT. In Zukunft wird der 3D-Druck Dienstleistungen rund um die Logistik verändern.

Die Logistikbranche wird und muss sich im Zuge der Digitalisierung umfassend verändern. Prozesse werden mit Hilfe von neuen Technologien wie RFID, Beacons oder Pick-by-Solutions revolutioniert.
Beispielhaft sind E-Procurement und E-Marketplaces in der Beschaffungslogistik, die mit den zunehmenden Möglichkeiten des Internets überhaupt erst möglich sind. Unternehmen werden flexibler in ihren Beschaffungswegen, -zeiten und -quellen. In der Produktionslogistik wird in Zukunft mit Hilfe von Digitalen Fabriken ein gesamtes Unternehmen in vereinfachter Form abgebildet werden, von Mitarbeitern über Prozesse bis zu den IT-Anwendungen, was der Planung und Steuerung immens hilft. Durch Pick-by-Methoden kann der Kommissionierungsvorgang drastisch beschleunigt werden.

Die Prozesse der Distributionslogistik werden im Bereich der Routenplanung verbessert, was vor allem an einer verbesserten Kommunikationsmöglichkeit liegt. Das ermöglicht eine schnellere Zustellung der Lieferungen. Zusätzlicher Service wird dem Kunden durch Sendungsverfolgung geboten. In den kommenden Jahren werden sich Prozesse noch weiter verbessern, besonders in der Distributionslogistik. Autonom fahrende LKWs, Schiffe, Roboter und Drohnen werden die Zustellung, gerade auch auf der „letzten Meile“ zum Kunden revolutionieren und Personal für diese Bereiche nahezu obsolet machen.

Umfassende Änderungen werden die Logistikbranche treffen. Unternehmen müssen sich also mit  neue Technologien auseinandersetzen und in sie investieren, um konkurrenzfähig zu bleiben. Ein völlig neuer Konkurrent für Logistiker ist z.B. der 3D-Drucker. Denn wieso sollte man sich etwas liefern lassen, wenn man es sich auch zu Hause ausdrucken kann? Das geht schneller, und ist womöglich sogar noch billiger. Zur Zeit ist das Problem nicht so ernst zu nehmen, da die Möglichkeiten des 3D-Drucks noch begrenzt sind. Die meisten Dinge wird man sich schlicht liefern lassen müssen, wobei auch aktuelle Lieferzeiten in den meisten Fällen verkraftbar sind. Startup-Unternehmen haben aktuell bessere Chancen denn je.

TREND REPORT zum Thema

Heft 3/2015 „Vernetzte Gesellschaft“
„Industrie 4.0: Vision wird Realität“, Autor Chris Löwer
https://trendreport.de/industrie-4-0-vision-wird-realitaet-2/

Heft 2/16 „Standort Deutschland digital“
Reportage „IoT: Beginn der Vernetzung“, Autor Chris Löwer, https://trendreport.de/iot-beginn-der-vernetzung/

Bezüglich ihrer Konkurrenzfähigkeit geben sich deutsche Unternehmen relativ zuversichtlich. Wie realistisch diese Einschätzung ist, wird die Zeit zeigen. Wer auch immer in Zukunft führender Logistikdienstleister im deutschen Raum sein wird: Kunden profitieren von neuen Komfort. Zustellungen innerhalb von einem Tag, also Same-Day-Delivery-Modelle, werden zum Standard werden. Für Beschäftigte der Branche gestaltet sich die Lage anders: operative Berufe wie Lagerarbeiter oder auch LKW-Fahrer könnten schnell wegfallen, aber es werden neue Arbeitsplätze in Bereichen wie IT und Controlling geschaffen werden. Wie jede Neuerung bringt die Digitalisierung eben nicht nur positive Auswirkungen für Unternehmen. Neben den sich bietenden Möglichkeiten entsteht die Gefahr, den Anschluss an Konkurrenten zu verlieren und so vom Markt verdrängt zu werden. Grund genug für die BVL, ein Positionspapier zu erstellen, das die Herausforderungen für Politik und Unternehmen beschreibt und Handlungsempfehlungen gibt. Das von den Logistikexperten Professor Michael ten Hompel, Professor Jakob Rehof und Frauke Heistermann erstellte Papier definiert Logistik als „ganzheitliche Planung, Steuerung, Koordination, Durchführung und Kontrolle aller unternehmensinternen und unternehmensübergreifenden Informations- und Güterflüsse.“ Mit dieser Definition der Logistik ist die enge Verzahnung von Logistik und IT festgeschrieben, die im Positionspapier weiter ausgeführt wird.

Quelle und Textlizenz:
https://winfwiki.wi-fom.de/index.php/Einfluss_der_Digitalisierung_auf_die_Logistikbranche; Autoren: Federica Scichilone, Rico Schulte, Niklas Leppkes

Lizenzbestimmungen: https://www.gnu.org/licenses/fdl-1.2

Digitalisierung als Treiber der Mission: Mitarbeiter

von Doris Albiez

Bereits zum dritten Mal innerhalb weniger Jahrzehnte verändert die IT nun unsere Arbeitswelt. Als Ende der 60er-Jahre zum ersten Mal IT-Systeme, sie hießen damals noch „EDV“, auf breiter Front eingeführt wurden, betraf das nur große Unternehmen. Der gewaltige Umbruch ist fast schon vergessen, und dass davor Banken die Konten noch weitgehend von Hand verwalteten, dass Einwohnermeldeämter mit riesigen Karteikästen arbeiteten, ist kaum noch vorstellbar. Die Arbeit in Banken, Versicherungen und Behörden veränderte sich, und der grün leuchtende Bildschirm eines Großrechner-Terminals wurde an vielen Arbeitsplätzen unverzichtbar. Damals verschwanden die „Kontoristen“ aus den Büros, neue Berufsbilder entstanden: „Programmierer“ oder – schon wieder fast vergessen – „Datentypistin“.

Ein zweiter Umbruch der Arbeitswelt erfolgte mit den Arbeitsplatzrechnern Anfang der 80er-Jahre. Jetzt übernahmen PCs viele manuelle Arbeitsprozesse in Unternehmen aller Größenordnungen bis zu Arztpraxen und Kanzleien. Wieder verschwanden ganze Berufsbilder – die Schreibkraft ebenso wie das hoch angesehene Handwerk des Schriftsetzers. Zugleich entstanden neue Berufe. Man konnte nun Netzwerkadministrator, EDV-Kaufmann oder Medizininformatiker werden. Doch die IT veränderte innerhalb weniger Jahre auch nahezu alle Berufe: Ob Ärzte, Buchhalter, Piloten, Musiker, Bäcker, Vertreter oder Designer, früher oder später bekamen es alle mit dem PC zu tun.

Derzeit stehen wir am Anfang einer dritten Umwälzung der Arbeitswelt durch IT-Technologien. Diesmal werden die Veränderungen noch tiefgreifender sein. Die Digitalisierung vernetzt intelligente Systeme umfassend und grenzenlos; der ständige Zugang zu Informationen aus aller Welt und eine universelle Kommunikationsfähigkeit revolutionieren sämtliche Arbeitsprozesse. Sie werden flexibler, weil sie nicht mehr an bestimmte Orte und Zeiten gebunden sind und die nötigen digitalen Ressourcen überall zur Verfügung stehen, sei es auf mobilen Geräten oder in der Cloud. Das hat natürlich erhebliche Auswirkungen auf die jeweiligen Arbeitsplätze und damit auf die Mitarbeiter, die dabei nicht auf der Strecke bleiben dürfen.

Arbeitsprozesse

Doch die aktuellen Veränderungen unterscheiden sich erheblich von den früheren. Der durch die Digitalisierung initiierte Wandel ist umfassender, weil er alle Branchen und alle Berufsgruppen betrifft: Banken und Versicherungen, Handel, Industrie, Medien oder Gesundheitswesen. Vor allem aber sind alle Ebenen betroffen: Intelligente Tools, vernetzte, selbstlernende Systeme oder „künstliche Intelligenz“ können Arbeitsprozesse auf breiter Front automatisieren und effizienter organisieren. Wurde zum Beispiel die ehemalige Schreibkraft weitgehend durch Angestellte mit Textverarbeitungssystemen ersetzt, so geht die Digitalisierung nun noch einen Schritt weiter: Sie automatisiert durch selbstlernende Systeme das Erstellen des Contents selbst. Software-Roboter schreiben dann beispielsweise Börsennachrichten.
Es werden also nicht mehr wie bisher nur Routinetätigkeiten automatisiert, sondern auch qualitativ hochwertigere Aufgaben von „Wissensarbeitern“, zum Beispiel von Lehrern, Bankangestellten oder Anwälten. Der Unterschied der Digitalisierung zu den früheren Phasen ist deutlich: Der Arzt nutzt nicht mehr nur eine Arzt-Software zu Verwaltung von Patientendaten, er wird bei der Diagnose von intelligenten Systemen unterstützt und in manchen Fällen können solche Systeme Aufgaben auch ganz übernehmen.

Arbeitsplätze

Diese Entwicklungen führen dazu, dass sich die Arbeitsplätze erheblich verändern. Wie der Arbeitsplatz der Zukunft genau aussieht, lässt sich heute noch kaum abschätzen, und die Mehrzahl der Berufe, in denen wir in fünf oder zehn Jahren arbeiten werden, sind heute noch gar nicht bekannt. Wissensmanager, Produktionstechnologe oder IoT-Planer könnten solche Berufe sein. Darauf müssen sich nicht nur die Arbeitnehmer selbst einstellen, sondern auch die Unternehmen; beide Seiten müssen hier umdenken und können nicht erwarten, dass sich bisheriges einfach fortschreiben lässt.

Zugleich schafft die Digitalisierung auch neue Modelle des Arbeitens. Herkömmliche Arbeitsstrukturen lösen sich langsam auf oder werden zurückgedrängt. Immer häufiger arbeiten Mitarbeiter in virtuellen Teams, die unabhängig von festen Orten für Projekte aus wechselnden Mitgliedern zusammengestellt werden. Fachkräfte arbeiten im Homeoffice, von unterwegs aus oder flexibel als Freelancer mal für dieses, mal für jenes Unternehmen.

Arbeitnehmer

Was für Mitarbeiter wirklich wichtig ist…

Arbeitsplätze sind aber nicht abstrakte Entitäten, sondern bedeuten immer auch Mitarbeiter. Sie sind von der Digitalisierung ganz persönlich massiv betroffen. Mühevoll erworbenes Wissen wird überflüssig, langjährige Erfahrung obsolet – neues Wissen ist verlangt und entsteht nicht von selbst. Der enorme Anpassungsaufwand bringt unvermeidlich auch Reibungen. Für den Erfolg der Digitalisierung wird es nicht zuletzt darauf ankommen, wie Unternehmen diese Anpassungen bewältigen. Sie müssen dem Mitarbeiter Anerkennung und Wertschätzung vermitteln. Vom Wissen, von der Kreativität, aber auch von der Motivation der Beschäftigten hängt ab, ob das alles tatsächlich so funktionieren wird, wie es sich die Strategen der Digitalisierung vorstellen. Unternehmen müssen daher eine „Mission Mitarbeiter“ starten und ihr Verhältnis zu Mitarbeitern neu definieren. So hat Dell im Plan 2020, in dem die Position des Unternehmens in Umwelt und Gesellschaft festgehalten wurde, den Mitarbeitern viel Raum eingeräumt und spezielle Förderprogramme aufgesetzt. Der Arbeitsplatz der Zukunft braucht ein attraktives Arbeitsumfeld, in dem die Teammitglieder ihr Potenzial entfalten und ihre persönlichen Ziele erreichen können.

Eines der bemerkenswertesten Resultate der aktuellen Studie zur „Future Workforce“, die Dell und Intel erstellt haben, ist der hohe Wert von 89 Prozent, der sich in Deutschland für die Zufriedenheit mit dem aktuellen Job ergab. Dieser außerordentliche Motivationsfaktor muss in den Umwälzungen der Digitalisierung erhalten bleiben. Ein motiviertes Team war immer schon ein Wettbewerbsvorteil – in der Digitalisierung ist es eine Voraussetzung, ohne die Unternehmen ein derart anspruchsvolles Konzept nicht realisieren können.

Future-Workforce-Studie

Ob und wie weit die Mitarbeiter für diesen Prozess bereit sind, ist für einen erfolgreichen Transformationsprozess entscheidend. Die Future-Workforce-Studie zeigt, dass die Mitarbeiter bei der künftigen Entwicklung der Arbeitswelt der Technologie eine wichtige Rolle zumessen: In Deutschland erwartet sich davon eine deutliche Mehrheit mehr Produktivität – soweit es sich um konkrete Anwendungen handelt: So erreichen schnelleres Internet (63%), moderne Geräte (63%) und besseres Messaging (51%) hohe Zustimmung, während die Möglichkeiten der Produktivitätssteigerung etwa durch künstliche Intelligenz (38%) weniger vorteilhaft gesehen werden. Von einer ablehnenden Haltung gegenüber neuen Technologien kann bei den Mitarbeitern jedenfalls keine Rede sein.
Die mit der Digitalisierung verbundene Neuorganisation der Arbeitswelt ist bei den Beschäftigten noch nicht durchgängig angekommen. Auf die Frage, wo sie am besten arbeiten können, nennt mehr als die Hälfte das traditionelle Büro, nur 14 Prozent nennen das Homeoffice und ebenso viele geteilte Arbeitsräume („Shared Office Space“).

Mitarbeiter bevorzugen den persönlichen Kontakt

Eine zentrale Rolle spielen für die Beschäftigten der Studie zufolge die sozialen Aspekte des Arbeitsumfelds: persönlicher Kontakt und direkter Austausch mit Kollegen ist wichtiger als die eingesetzte Technologie. Nicht zuletzt davon hängen die hohen Werte für die Zufriedenheit mit dem aktuellen Job ab, die wiederum eine Voraussetzung für Motivation und hohe Produktivität ist. Es wird in der digitalen Transformation wesentlich darauf ankommen, dieses Zufriedenheitsniveau der Mitarbeiter auch über die anstehenden Veränderungen hinweg zu erhalten und im Zuge einer „Mission Mitarbeiter“ ein attraktives und interessantes Arbeitsumfeld zu schaffen, in dem alle Teammitglieder ihr Potenzial entfalten können.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Doris Albiez

Wie arbeiten „Digitale Stars“?

Eine Untersuchung von innovativen Organisationsstrukturen und Arbeitsgestaltungsmaßnahmen.

Neue disruptive Technologien verbreiten sich mit immer höherer Geschwindigkeit. Gleichzeitig wird die Welt zunehmend vernetzt. Eine neue Generation, aufgewachsen im Zeitalter der Digitalisierung und oft als „digital natives“ bezeichnet, drängt auf den Arbeitsmarkt. In vielen Branchen tendieren Unternehmen dazu ihren Wettbewerbsvorteil schneller zu verlieren, da bestehende Wettbewerbsvorteile erodieren und neue Player in den Markt kommen. Folgende drei Fähigkeiten sind in diesem wettbewerbsintensiven Marktumfeld entscheidend, um einen Wettbewerbsvorteil zu erlangen und längerfristig zu halten: die Fähigkeit schnell sowohl disruptive als auch evolutionäre Innovationen hervorzubringen, die Fähigkeit sich schnell an Veränderungen anzupassen und die Fähigkeit, die besten Talente für die die digitale Transformation im Unternehmen zu gewinnen. Vor diesem Hintergrund stellt sich die Frage: Wie sollten sich Organisationen strukturieren und ihre Arbeit gestalten um ihre Innovationsfähigkeit einerseits und ihre Arbeitgeberattraktivität für die besten Talente andererseits zu erhöhen?

In diesem Beitrag versuchen wir diese Frage zu adressieren, indem wir erfolgreiche Unternehmen der Digitalwirtschaft untersuchen, welche wir als „Digitale Stars“ bezeichnen. Mithilfe einer systematischen Vorgehensweise wurden 181 solcher Unternehmen ausgewählt. Um auch Einblicke in die Umsetzung der Methoden und Praktiken zu bekommen, wurden zudem vier Experten befragt. Wir haben systematisch die Unternehmenspraktiken dieser Unternehmen hinsichtlich Organisationsstrukturen und Arbeitsgestaltung untersucht und stellen diese nachfolgend vor. Zudem geben wir praktische Empfehlungen, wie diese Praktiken in etablierten kleinen und großen Unternehmen eingeführt werden können.

Unternehmen der Digitalwirtschaft sind als Untersuchungsgegenstand aus drei Gründen besonders interessant. Erstens: Viele digitale Unternehmen haben aktiv die digitale Ära geprägt und damit gezeigt, dass sie in einer hochdynamischen und zukunftsorientierten Industrie erfolgreich sein können. Zweitens: Die digitale Transformation betrifft und verändert jede Branche und jede Organisation. Die meisten Unternehmen versuchen aktuell in diesem Bereich Kompetenzen aufbauen. Anhand von Unternehmen der Digitalwirtschaft kann aufgezeigt werden wie Wissensarbeit im Bereich der Internettechnologien am besten organisiert werden kann. Drittens: Es gibt heute bereits (und künftig noch stärker) erhöhten Bedarf an Mitarbeitern mit Fähigkeiten im Bereich Software-Engineering, künstliche Intelligenz, Robotik, Blockchain usw. geben. Somit ist es von besonderer Bedeutung zu verstehen, wie „Digitale Stars“ diese begehrten Arbeitskräfte für sich gewinnen.

Organisationsstruktur

Vor allem in deutschen Unternehmen herrschen überwiegend traditionelle pyramidenförmige Hierarchien vor – nur wenige Unternehmen wenden alternative Ansätze an. Konfrontiert mit steigender Komplexität und einer sich schnell verändernden Umwelt, zeichnet sich gerade bei den Unternehmen der Digitalwirtschaft ein Trend hin zu flacheren Organisationsstrukturen ab. Dieser Trend geht einher mit einer Verschiebung der Grundhaltung gegenüber Mitarbeitern. Anstelle von Kontrolle und Micro-Managing von Mitarbeitern wird die Rolle von Vertrauen in Organisationen immer bedeutender. Führungskräfte werden in Zukunft als Hauptaufgabe haben, den richtigen Kontext vorzugeben, welcher den Mitarbeitern und Teams ermöglicht ihre traditionellen Aufgaben des „Brot- und Buttergeschäfts“ zu erledigen und auch innovative Leistungen zu erbringen.

Bei der Analyse der „Digital Stars“ sehen wir, dass diese Unternehmen Methoden und Praktiken anwenden, welche die Mitarbeiter von den in Organigrammen verankerten formalen Kommunikations- und Berichtsstrukturen befreien. Eine informelle Struktur wird stärker von agilen Projektmanagement Methoden vorgegeben. Im Kern basieren diese Methoden auf kleinen Teams, die sich selbst managen (z.B. bei Spotify). Zudem werden Mitarbeiter systematisch ermutigt, an eigenen Ideen zu arbeiten und sich – in dafür eigens eingerichteten Arbeitszeiten – selbstgesteuert weiterzubilden (z.B. eine neue Programmiersprache zu lernen oder bestehende Kompetenzen auszubauen). Accelerators und Inkubatoren stellen den notwendigen Raum und Ressourcen für vielversprechende und disruptive Innovationen bereit, die von den Mitarbeitern erarbeitet werden. Dies trägt dazu bei, solche Mitarbeiter zu halten, die das Unternehmen verlassen würden, um selbst zu gründen oder zu einem Wettbewerber mit besseren Chancen auf Umsetzung der eigenen Ideen zu wechseln.

Arbeitsgestaltung

Im Bereich der Arbeitsgestaltung stellen viele digitale Unternehme hochflexible, individuelle Arrangements für ihre Mitarbeiter zur Verfügung. Mitarbeiter können beispielsweise entscheiden wo, wann und wie sie arbeiten möchten. Nichtsdestotrotz ist physische Nähe immer noch wichtig. Daher werden Arbeitsumgebungen so gestaltet, dass die Mitarbeiter dort arbeiten möchten – nicht müssen. Die Arbeitsorte sind darauf ausgerichtet Zusammenarbeit und Kommunikation zu erleichtern. Zudem wird Flexibilität und Kommunikation zwischen Mitarbeitern mithilfe von Technologien wie sozialen Medien am Arbeitsplatz und/oder der Möglichkeit sein eigenes Gerät (z.B. Laptop, Smartphone – „bring your own device“) zur Arbeit zu bringen erleichtert. Monotone Arbeiten können bereits jetzt überwiegend mithilfe von Automatisierung eliminiert werden.

Beispiele für radikal andere Ansätze in der Organisation und Mitarbeiterführung: Zappos und Valve
Tony Hsieh ist der Gründer des Online-Händlers Zappos und beschäftigt etwa 1500 Mitarbeiter. Hier wird das Konzept der „Holacracy“ angewandt. Holacracy ist eine innovative soziale Technologie für die Unternehmensführung – ein Ansatz, der authentisch Autorität verteilt und Flexibilität und Selbstorganisation in die Regeln und Prozesse, nach denen sich die Organisation selbst strukturiert und handelt, einbettet.

Die Hauptaufgabe von Führungskräften wird in Zukunft sein, den richtigen Kontext vorzugeben, in denen Mitarbeiter und Teams ihre Aufgaben zu erbringen haben.

Die Valve Corporation, spezialisiert auf die Entwicklung von Videospielen, hat seit der Gründung durch Gabe Newell und Mike Harrington im Jahr 1996 eine flache Organisationsstruktur. Diese Organisationsform ist typisch für Start-Ups oder kleine Teams, jedoch hat Valve diese Struktur vom Start als ein kleines Start-up bis zu der jetzigen Größe von über 300 Mitarbeitern beibehalten.
Diese beiden Ansätze sind radikal anders als bestehende hierarchische Systeme – hierbei ist aber noch lange nicht gezeigt, dass sie auch auf größere Unternehmen skalierbar sind. Es können jedoch sehr wohl Aspekte dieser Konzepte genutzt und adaptiert werden. Aus unserer Untersuchung können wir folgende Empfehlungen für die Organisations- und Arbeitsgestaltung in der digitalen Transformation geben:
Handlungsempfehlungen zur Umsetzung

1. Reflektieren Sie Ihre Startbedingungen
Überprüfen Sie sorgfältig die Größe des Unternehmens, die Organisationskultur, das Commitment der Vorstände und des Managementteams und das strategische Ziel der Organisations- und Arbeitsgestaltung.

2. Starten Sie mit existierenden Frameworks und adaptieren Sie diese für Ihr Unternehmen
Jede Organisation benötigt zu Beginn Starthilfe, Beratung und Sparringspartner. Sobald jedoch ein erster Entwurf steht, sind die meisten Unternehmen sehr gut in der Entwicklung eigener Modelle – binden Sie hierfür v.a. ihre Mitarbeiter ein.

3.  Halten Sie nicht Ausschau nach der „besten“ Organisationsstruktur
Die Veränderungsgeschwindigkeit erhöht sich konstant und wird in Zukunft eher größer als kleiner. Daher sollten sich Unternehmen neben der Frage der aktuell passenden Organisationsstruktur vor allem die Frage stellen: „Wie treffen wir Entscheidungen über strukturelle Änderungen?“

4. Experimentieren Sie!
Es ist nicht möglich alle Parameter und deren Auswirkungen im großen Rahmen vorherzusagen. Vielmehr geht es darum einen Weg zu finden, um schnell auf sich verändernde Rahmenbedingungen zu reagieren: Stichwort Experimentierkultur. Auch in Unternehmen sollte daher zunächst in kleinerem Rahmen ausprobiert werden, ob eine neue Organisationsstruktur oder Arbeitsgestaltungsmaßnahme gut funktioniert, bevor sie im gesamten Unternehmen ausgerollt wird.  Es ist zu empfehlen die „Build-Measure-Learn“-Dynamik aus dem Lean Startup auch in Organisationen zu leben.

5. Top-Management-Commitment ist der Schlüssel zum Change Management
Aus der bisherigen Forschung und Praxis wissen wir: Einer der wichtigsten Erfolgsfaktoren zur Implementierung von Change-Projekten ist das konsequente Commitment des Top-Managements. Die digitalen Transformation im Unternehmen muss oben beginnen.

Fazit und Ausblick

Jede Organisation hat verschiedene kontextbezogene Faktoren und eine individuelle Organisationskultur. Deshalb sollten die Praktiken der „Digital Stars“ und die abgeleiteten Handlungsempfehlungen nicht als Blaupause verstanden werden, sondern als Inspiration und Startpunkt, um eigene unternehmensspezifische Lösungen zu finden. Wie eingangs erwähnt, befinden sich Unternehmen in unterschiedlichen Industrien im Wettbewerb um dieselben Talente aus dem IT-Bereich. Eine Analyse der Arbeitsgeberbewertungen auf der Plattform Glassdoor zeigt, dass Unternehmen der Digitalwirtschaft häufig unter den Unternehmen mit sehr hohen Gesamtbewertungen zu finden sind, wohingegen dies kaum auf vergleichbare Unternehmen aus anderen Branchen zutrifft. Top-Talente, gerade aus dem hart umkämpften IT-Bereich, können sich ihren Arbeitgeber aussuchen und wählen Unternehmen anhand der Organisationskultur und den gebotenen Arbeitsbedingungen. Unternehmen, die solche Talente gewinnen möchten, um sich für die digitale Transformation aufzustellen, sind also gut beraten ihre Organisations- und Arbeitsmodelle auch im Sinne der Arbeitgeberattraktivität entsprechend zu gestalten.

Kernaussagen

  • Eine informelle Struktur wird stärker von agilen Projektmanagement Methoden vorgegeben. Im Kern basieren diese Methoden auf kleinen Teams, die sich selbst managen.
  • Physische Nähe ist immer noch wichtig. Daher werden Arbeitsumgebungen so gestaltet, dass die Mitarbeiter dort arbeiten möchten – nicht müssen. Die Arbeitsorte sind darauf ausgerichtet Zusammenarbeit und Kommunikation zu erleichtern.
  • Die Veränderungsgeschwindigkeit erhöht sich konstant und wird in Zukunft eher größer als kleiner.

 

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Prof. Isabell Welpe

Informationen zu Andranik Tumasjan

Informationen zu Tom Koschwald

New Work und Arbeiten 4.0

In Zeiten des Umbruchs werden die Weichen für die Zukunft gestellt.
Auch die der Arbeit.

von Christoph Berger

Die Digitalisierung verändert derzeit ganze Märkte und Branchen. Diese Transformation hat folglich auch Einfluss auf die Arbeit an sich und die Personalarbeit im Besonderen. Die Unternehmensstrukturen und Büroumgebungen verändern sich, die Grenzen zwischen Privat- und Berufsleben sind immer weniger eindeutig erkennbar. Das Zukunftsinstitut in Frankfurt hat den Megatrend „New Work“(1) ausgemacht.

Start-ups zeigen etablierten Unternehmen im Zeitalter der Digitalisierung und bei der Transformation von der Industrie- hin zur Wissensgesellschaft nicht nur, wie Geschäfts­prozesse effizienter gestaltet werden und Kunden komfortabler und schnel­ler an ihr Ziel kommen können -man denke hier zum Beispiel an die jungen Finanztech­nologieunternehmen die sogenannten FinTechs – sondern leben man­ches Mal auch vor, dass es ohne oder zumindest mit flachen Hierarchien funktio­niert. Dabei ist es wichtig, die Mitarbeiter auf dem Weg in die Zukunft mitzunehmen, ihnen Verantwortung zu geben und Eigeninitiati­ve zuzulassen.  Immer häufiger ist von agilen Strukturen die Rede. Das bedeutet, beweglich zu sein, intern und extern schnell auf sich verändernde Herausforderungen reagieren zu können. Die großen Unternehmen beginnen zu lernen und öffnen sich ihrerseits Schritt für Schritt den Neuerungen.

Welche Relevanz und welchen Einfluss das Thema Digitalisierung auf die Arbeit hat, wird auch durch das vom Bundesministerium für Arbeit und Soziales herausgegebene Weißbuch „Arbeiten 4.0“(2) deutlich. IT und Software mit Cloud-Technologie und künstlicher Intelligenz, Robotik und Sensorik einhergehend mit neuen Fertigungstechniken sowie die Vernetzung sind die drei Bereiche, die demnach mit ihrem Fortschritt und durch ihr Zusammenwirken eine neue Qualität der Digitalisierung vorantreiben. Mit der Publikation wird aber auch herausgestellt, dass eine tiefgehende Auseinandersetzung mit der Thematik in allen Teilen der Gesellschaft notwendig ist, um zum einen ihre Komplexität erfassen und bewerten zu können, zum anderen, um die Zukunft zu gestalten und Werte darüber festzulegen, wie wir in Zukunft arbeiten werden und wollen.

Denn vieles, was derzeit passiert, kann aus unterschiedlichsten Richtungen betrachtet werden. So schaffen die technischen Entwicklungen zwar viele neue Möglichkeiten – zum Beispiel neue Geschäftsmodelle mithilfe von Big Data –, die Folgen für den Menschen sind dabei aber nicht immer absehbar. Ein Beispiel: Mobile Endgeräte ermöglichen es zwar, von unterschiedlichsten Orten zu arbeiten, versprechen gleichzeitig aber auch eine ständige Erreichbarkeit. Letzteres erhöht den Druck auf die Mitarbeiter. Die Folge ist eine Zunahme psychischer Erkrankungen. Demgegenüber hat das Institut der deutschen Wirtschaft Köln (IW) in einer Studie herausgefunden, dass die Digitalisierung die Unternehmen familienfreundlicher machen kann – insofern sie richtig eingesetzt wird. (3) So arbeiten inzwischen rund 57 Prozent der Deutschen digital und mobil, jeder Fünfte nutzt mobile Endgeräte wie Smartphone oder Tablet beruflich sogar häufig. Laut den Ergebnissen sind mobil arbeitende Menschen prinzipiell eher in der Lage, Beruf und Familie miteinander zu verbinden, als dies nicht mobil arbeitende Mitarbeiter tun.

Es gilt also, eine Gratwanderung zu bewältigen und Lösungen zu finden, die für möglichst alle annehmbar sind, und so viele wie möglich mitnehmen – sowie die neuen Möglichkeiten zu nutzen.

Quellen:
(1)    Zukunftsinstitut GmbH: https://www.zukunftsinstitut.de/dossier/megatrend-new-work
(2)    Bundesministerium für Arbeit und Soziales, Abteilung Grundsatzfragen des Sozialstaats, der Arbeitswelt und der sozialen Marktwirtschaft (2016): Weißbuch Arbeiten 4.0, https://www.arbeitenviernull.de
(3)    Andrea Hammermann, Oliver Stettes (2016): Familienfreundliche Arbeitswelt im Zeichen der Digitalisierung, in: IW-Trends 4.2016, Institut der Deutschen Wirtschaft Köln.

Abteilung Produktion & Fertigung

Einfluss der Digitalisierung auf Produktion & Fertigung

von Andreas Fuhrich

Unter dem Begriff Industrie 4.0 subsumiert die Bundesregierung diverse technologische Trends wie Maschine-zu-Maschine-Kommunikation und das Internet der Dinge. Sie erwartet, dass die Organisation und Steuerung der gesamten Wertschöpfungskette über den kompletten Lebenszyklus hinweg sich durch den Einzug neuer Technologien verändern wird. Grundlage bildet dabei die  Verfügbarkeit aller notwendigen Informationen in Echtzeit, durch die Vernetzung aller beteiligten Instanzen. (1)

Der Trend geht dabei weg von standardisierten, hin zu individuellen, auf den Kunden zugeschnittenen, Produkten. Durch die Möglichkeiten des 3D-Drucks und sogenannter Smart Factories  kann der Endkunde jetzt selbst unmittelbar Einfluss auf die Fertigung des Produkts nehmen, etwa über eine einfach zu nutzende CAD-Software, welche ihm kostenlos zum download bereitgestellt wird.

Cyber-physische-Fertigungseinheiten kommunizieren über das Internet der Dinge in Echtzeit sowohl miteinander als auch mit der Fertigungsanlage. Auf diese Weise werden die miteinander vernetzten Produktionsbestandteile in die Lage versetzt jederzeit auf Veränderungen zu reagieren, ohne dass die Produktionskette hierfür unterbrochen werden muss. Individuelle Kundenwünsche können auf diese Weise kosteneffizient umgesetzt werden.

Die Struktur der Vernetzung kann jedoch auch über einzelne Fertigungsanlage hinaus erweitert werden, so dass ganze selbst organisierende, unternehmensübergreifende Wertschöpfungsnetzwerke entstehen. Diese Netzwerke lassen sich beispielsweise nach Kriterien wie Kosten, Verfügbarkeit oder Ressourcenverbrauch optimieren. Die Fähigkeit, die Datenmenge der Cyber-physischen-Systeme (BigData) effektiv zu analysieren und daraus Optimierungsschritte abzuleiten wird in diesem Zusammenhang immer wichtiger.  Aufgabenbereiche von traditionellen Produktionsmitarbeitern und Wissensarbeiter, wie z.B. Datenanalysten, werden weiter zusammen wachsen. Die Erfahrung der Produktionsmitarbeiter kann in Kombination mit Big Data dazu genutzt werden Produkte weiter zu entwickeln oder neue Produkte zu fertigen. Zusätzlich können selbstlernende Systeme die in der Wertschöpfungskette entstehenden Daten laufend analysieren und darauf aufbauend die Prozesse optimieren. Unwirtschaftliche Fertigungsschritte werden durch die Analysemöglichkeiten besser erkannt und immer häufiger aufgelöst bzw. durch externe Zulieferer ersetzt. Der Komplexitätsgrad eines Unternehmens wird weiter steigen und die Vernetzung von Unternehmen nimmt immer weiter zu. Auf Plattformen entstehen bereits branchenspezifische Eco-Systems mit sich ergänzenden Dienstleistungen unterschiedlicher Unternehmen. Die Fertigungstiefe innerhalb des Unternehmens nimmt ab, dafür steigt der Aufwand die Zulieferer zu steuern und zu kontrollieren.

Entscheidend  wird daher in Zukunft der Umgang  mit kurzzyklischen Schwankungen der Märkte sein,  die zum einen aus der steigenden internationalen Vernetzung  resultieren, aber auch aus der Anforderung immer nach Kundenauftrag zu arbeiten. Der wichtigste Erfolgsfaktor für Produktionsunternehmen wird durch Vernetzung und Echtzeitanalyse der Produktion die schnelle Reaktion auf Kundenanforderungen sein. (2)

Die zunehmende Automatisierung von Produktion und Fertigung sowie das Internet der Dinge bietet auch in puncto Nachhaltigkeit ein enormes Potential. Maschinen laufen nur dann, wenn sie wirklich benötigt werden, intelligente Heiz- und Kühlsysteme regulieren die Temperatur bei höchster Ressourcenseffizienz und mittels Bodensensoren kann jeder einzelne Fleck eines Feldes optimal gedüngt und bewässert werden, um nur einige Beispiele zu nennen.
Tipp: Durch die Ersparnis an Rohstoffen und Energiekosten können sich Ausgaben in solche Technologien schon nach kurzer Zeit amortisieren.

Trends

1. Predictive Maintenance
Hersteller von Fertigungsmaschine sind durch das Internet der Dinge in der Lage Predictive Maintenance (vorausschauende Instandhaltung) anzubieten.  Über Sensoren erfassen die Maschinen kontinuierlich eigene  Zustandsdaten und übertragen diese anschließend in die Cloud des Herstellers. Dort werden die verschiedenen Daten stetig analysiert um rechtzeitig Verschleißteile auszutauschen oder bei Auffälligkeiten und auf Störung hindeutenden Mustern entsprechende Maßnahmen zu ergreifen. Produktionsausfälle durch plötzliche Standzeiten und unvorhergesehene Ausfälle werden dadurch vermieden.

2. Farming 4.0
Durch die Digitalisierung, dem Internet der Dinge und dem Einsatz cyber-physischer Systeme, entstehen auch in der Landwirtschaft Möglichkeiten nahezu sämtliche Produktionsprozesse neu zu gestalten. IoT –Sensoren erfassen beispielsweise die Menge der gegebenen Milch so wie Daten über den Stoffwechsel. Aufbauend auf diesen Daten lässt sich der optimale Melkzeitpunkt für jedes Tier ermitteln. Außerdem werden dadurch auch Krankheiten früh erkannt.

3. Augmented Reality (AR)
Unter Augmented Reality versteht man die computergestützte Erweiterung der Realitätswahrnehmung. Vor allem visuelle AR-Devices werden immer häufiger in der Produktion eingesetzt.  Hier können beispielsweise AR-Brillen dem Träger wichtige Informationen zur Verfügung stellen, wie etwa millimetergenaue Positionsdaten für das nächste Einbauteil, oder auch eine Schritt-für-Schritt-Anleitung.

4. Individualisierung
Während früher Ingenieure aufwendig die Maschinensteuerung für unterschiedliche Produkte anpassen mussten, genügt mittlerweile eine einfachere Benutzeroberfläche. Ausgeklügelte Automatismen intelligenter Maschinen übernehmen dann autonom die Fertigung. Durch Smart Factories und 3D-Druck wird so sogar der Endkunde in die Lage versetzt selbst zum Produzenten zu werden. Kleinserien und Einzelstücke lassen sich kostengünstig herstellen. Individuelle Wünsche, z.B. im Oberflächendesign, lassen sich selbst kurzfristig noch ändern und realisieren, ohne dass dafür die Produktion heruntergefahren werden müsste.

5. Kollaborierende Roboter (Cobots)
Kollaborierende Industrieroboter entlasten in einem gemeinsamen Arbeitsprozess den Menschen und unterstützen ihn bei seiner Tätigkeit. Durch kognitive Systeme werden sie zudem in die Lage versetzt die Bedürfnisse der Mitarbeiter selbst zu erkennen und dementsprechend zu reagieren. So können sie beispielsweise schwere Gegenstände heben um die Montage zu erleichtern oder auch benötigte Ersatzteile und Werkzeuge beschaffen.

Quellen und Textlizenz:
(1) Platform Industrie 4.0: Umsetzungsstrategie Industrie 4.0 April 2015, Seite 8. URL https://www.bmwi.de/BMWi/Redaktion/PDF/I/industrie-40-verbaendeplattform-bericht,property=pdf,bereich=bmwi2012,sprache=de,rwb=true.pdf (Abgerufen 5. Dezember)
(2) Fallstudienarbeit „Einsatz von Big Data im Bereich Produktion“ von Stefan Schulte, Nicolai Schütte, 2015. URL https://winfwiki.wi-fom.de/index.php/Einsatz_von_Big_Data_im_Bereich_Produktion (Abgerufen: 5. Dezember 2016);

Lizenz: https://www.gnu.org/licenses/fdl-1.2

Abteilung Marketing

Einfluss der Digitalisierung auf das Marketing

Silodenken sollte der Vergangenheit angehören. Alle Abteilungen müssen in der Zukunft weiter zusammenwachsen und abteilungsübergreifend miteinander agieren. Dies betrifft vor allem die IT und das Marketing, die oftmals noch nicht eng genug miteinander verzahnt sind. Dabei ist die IT der Hauptansprechpartner für das Marketing, wenn es sich um die Automatisierung von Analysen und Abläufen handelt.

Zum Beispiel kann das Marketing-Controlling auf vorhandene Marktforschungsdaten und weitere interne Datengrundlagen zurückgreifen. Diese Datengrundlagen nehmen in Umfang und Qualität mit der fortschreitenden IT-Unterstützung der Marketingprozesse zu.

Durch die Analysen der Daten aus BI, CRM, Big Data oder anderen Quellen sollen ebenso Handlungsempfehlungen für das Marketing entstehen. Insbesondere Big Data und die automatisierte Auswertbarkeit dieser bereits schon erhobenen Menge an Daten werden in der Zukunft somit eine größer werdende Rolle spielen. Durch Echtzeitanalyse und Anpassung der daraus entstehenden Empfehlung können personalisierte Marketingaktionen realisert werden.
Auswirkungen werden weiter verfolgt und analysiert, um nach und nach neue Vergleiche zu ziehen und Tendenzen erkennen zu können. Darüber hinaus wäre denkbar, dass selbstlernende Systeme eine Rolle spielen. Diese könnten selbstständig die Parameter einer alten Kampagne auf eine neue Kampagne projizieren. Besonders Datenschützer werden bei den fast schon gläsernen Verbrauchern immer stärker in Erscheinung treten, um diese zu schützen.

Im Bereich Online-Shopping wird der Einkauf über mobile Endgeräte wie Smartphones und Tablets weiter zunehmen und Anbieter müssen ihren Auftritt und ihre Angebote für Smartphones tauglich machen. Ziel sollte es sein, eine konsistente E-Business-Strategie zu verfolgen und Kunden über alle Kanäle hinweg langfristig an sich zu binden. Über neue Technologien wie z. B. das CRM, Big-Data-Analytics oder Social Analytics hat das Marketing die Möglichkeit, viele Daten über den Verbraucher zu erhalten. Denn es geht künftig vor allem darum, die Erwartungen des Kunden individuell zu erfüllen. In vielen Fällen fehlen jedoch die Expertise und Parameter, um diese sinnvoll oder effektiv zu interpretieren und zu verarbeiten. Damit ein Unternehmen von der Digitalisierung profitieren kann, muss eine passende Strategie entwickelt werden. Denn nur wenn Daten sinnvoll analysiert und genutzt werden und die IT mit dem Marketing verstärkt zusammenarbeitet, ent- und bestehen erfolgreiche Händler.

Heute stehen Unternehmen vor der Herausforderung, die häufig auch strukturell separierten Bereiche vernetzt zu steuern. Nicht zuletzt die Digitalisierung hat dazu beigetragen zu erkennen, dass Markenführung wesentlich mehr Bereiche als nur das Marketing betrifft. Wir befinden uns im Zeitalter des Kunden. Dies bedeutet: in Echtzeit zu wissen, was der Kunde will, individuelle Kundenwünsche zu erfüllen und das jederzeit über alle Kanäle hinweg. Dazu müssen nicht nur Prozesse und Reaktionszeiten beschleunigt werden, das gesamte Unternehmen muss sich digital transformieren. „Mach es dem Kunden leicht, dich zu erreichen.“ Vorhandene Daten sind in Wissen über die Kunden zu verwandeln und die Chancen der mobilen Ausrichtungen sind zu nutzen.

Multichannel heißt heute und in Zukunft die Multichannel-Perspektive auf Distributions- und Kommunikationskanäle. Die Herausforderung liegt in der zunehmenden Vernetzung aller digitalen und analogen Kanäle.

Unter den vier Instrumenten des Marketingmix (Produkt-, Preis-, Distributions- und Kommunikationspolitik) wird der marktgerichteten Unternehmenskommunikation zukünftig – neben dem Produkt – die größte Bedeutung beigemessen. Das Web 2.0 stellt viele Unternehmen vor eine neue Herausforderung. Kommunikation bedeutet nicht mehr nur das Aussenden von Informationen (unidirektionales Mitteilen) mit einer sehr eingeschränkten Perspektive auf gewünschte Reaktion (attraktiver finden, Bedürfnis entwickeln, kaufen), sondern die Kommunikation mit bidirektionalem Informationsaustausch. Hier gilt für Unternehmen, zuzuhören und zu lernen. Medien erfahren eine steigende Interaktivität durch diesen bidirektionalen Informationsaustausch. „Die Digitalisierung macht aus den Medien Dialogmedien.“ Social Communities, Internet-TV, interaktives Fernsehen, E-Magazines und viele mehr sind Kommunikationskanäle, die dank der Digitalisierung eine Dialogfunktion übernehmen. Die wichtigste Rolle wird in Zukunft der Mobile Commerce spielen. Unternehmen müssen sich darauf einstellen, smartphonefähige Plattformen zur Verfügung zu stellen. Denn der Einkauf über ein Smartphone auf einem nicht smartphoneoptimierten Webshop kann dazu führen, dass der Kauf abgebrochen wird. Die Statistik zeigt die Entwicklung der Nutzung von Smartphones oder Tablets für den mobilen Einkauf im Internet. Trotzdem haben es klassische Kaufhäuser immer schwerer und müssen sich etwas Neues einfallen lassen. So hat die Digitalisierung auch Einfluss auf Filialen in Innenstädten. Kunden können sich in der Umkleidekabine mit den anprobierten Kleidungsstücken oder mit durchtrainiertem Service-Personal fotografieren lassen und die Bilder direkt bei Facebook veröffentlichen. Auch hier steht, ähnlich wie bei der Produktpolitik, das Erlebnis mit der Marke und dem Produkt im Vordergrund.

Dies bedeutet, dass Unternehmen sich nicht nur auf einen Bereich konzentrieren sollten, sondern mehrere Kontaktpunkte bieten müssen. Die Verknüpfung zwischen analogem und digitalem Kanal bedeutet, dass Kunden zum Beispiel auf Online-Rabattaktionen zurückgreifen und damit im lokalen Ladengeschäft einkaufen gehen oder sich über das Schaufenster inspirieren lassen und online einkaufen. Die Chancen, mit digitalen Kanälen (Homepage, E-Mail, Suchmaschinen, Social Media etc.) seinen Bekanntheitsgrad zu steigern und in neue Märkte einzusteigen, sind groß, bergen aber auch Risiken. Der Einfluss der Digitalisierung auf den Bereich Marketing hat dazu geführt, dass Kunden durch verschiedene Technologie wie z. B. Social Media ein Sprachrohr erhalten und so einen Einfluss auf Unternehmen erlangen. Unternehmen haben mit Big-Data-Analysen und Social Analytics die Möglichkeit, auf Kundenwünsche schnell und individuell zu reagieren, können aber oftmals die Vielzahl an Daten nicht miteinander richtig verknüpfen und auswerten. Durch die Digitalisierung sind Unternehmen angebots- und preistransparent. Kunden haben dadurch eine stärkere Markposition, wodurch auch unkontrollierte Kommunikationseffekte (sog. „Shit-Storms“) entstehen können. Für viele Unternehmen ist der Hauptgrund, digitale Kanäle nicht zu nutzen, der Datenschutz. Unternehmen müssen besonders vertrauensvoll mit den Daten der Kunden umgehen, sodass zwar Erkenntnisse abgeleitet werden, aber kein Datenmissbrauch betrieben wird. Die digitalen Kanäle sind günstiger als die klassischen Marketingmedien, aber Kunden fühlen sich teilweise überrollt von Werbung. Kunden entwickeln und nutzen daher auch Technologien, um sich gegen diese Art des Marketing (Customer-Resistance) zu schützen. Verbraucher nutzen Pop-up-Blocker, um Werbung beim Surfen zu entgehen, oder filtern E-Mail-Newsletter über die Junk-Mail-Funktion. Bei einem Spielfilm geht der Kunde über zum zeitversetzten Fernsehen und überspringt so die Werbung. Einzelhändler zum Beispiel bieten eine App mit aktuellen Angeboten oder eine Einkaufsliste über das eigene Smartphone, um die Positionierung als sympathischer Discounter zu stützen. Die Erwartungshaltung des Kunden an eine Marke ist sowohl online als auch offline gleich. Ein Unternehmen sollte daher nicht nur digitale Kanäle nutzen, denn nicht alle Kunden sind online erreichbar.

Quelle und Textlizenz:
https://winfwiki.wi-fom.de/index.php/Einfluss_der_Digitalisierung_auf_das_Marketing; „Einfluss der Digitalisierung auf das Marketing“; Andre Kreutzer, Paulo Afonso, Björn Brade; FOM Hamburg

Lizenzbestimmungen: https://www.gnu.org/licenses/fdl-1.2

Abteilung Vertrieb

Einfluss der Digitalisierung auf den Vertrieb

Digitaler Vertrieb bedeutet, dass die Vermarktung und der Absatz über digitale Vertriebswege erfolgen. Anders ausgedrückt heißt das, dass der digitale Vertrieb in erster Linie das Internet als Vertriebskanal nutzt, um mit den Kunden zu kommunizieren, die Leistungen bereitzustellen und Geschäfte abzuwickeln. Die Umsätze durch E-Commerce werden auch 2017 weiter steigen. Dies zeigt eindeutig, dass es sich für Unternehmen lohnt, die Arbeit in eine hochwertige Internetvermarktung zu investieren.

Ein Beispiel: Durch den Einsatz eines Produktdatenmanagements (PIM) ist ein Unternehmen nicht nur für den Online-Auftritt gut gerüstet und bietet den Käufern ausreichend Informationen für das Produkt, sondern optimiert auch gleichzeitig die eigenen Geschäftsprozesse. Alle relevanten Informationen zu einem Produkt sind zentral abrufbar. Bei der Entwicklung neuer Produkte kann leichter auf bereits vorhandene Komponenten o. Ä. zurückgegriffen werden. Der gesamte Aufbau hat also weit mehr Nutzen als den reinen Vorteil im Internethandel.

Die jeweils eingesetzte Technologie sollte dem Vertrieb einen Informationsvorsprung verschaffen. Durch die systematische Informationsbeschaffung und -analyse von Kunden, Märkten und Konkurrenten soll die Erzielung eines komparativen Wettbewerbsvorteils generiert werden. Weiterhin ist eine Reduktion der Prozesskomplexität von Bedeutung. Anhand technologisch stringenter Prozessabläufe können Beschleunigungen und Vereinfachungen der Vertriebsaktivitäten erreicht und Arbeitsentlastungen realisiert werden. Außerdem können durch den digitalisierten Technologieeinsatz Kostensenkungspotenziale ausgeschöpft werden. So gewährt die Digitalisierung Möglichkeiten der Prozessauslagerung oder -verkürzung, der Eliminierung von Markteintrittsbarrieren sowie die differenzierte Betreuung von Kunden. Aufgrund dieser Chancen sind auch kleine oder mittelständische Unternehmen in der Lage, sich in internationalen Märkten zu positionieren, da beispielsweise der Aufbau lokaler Vertriebsstrukturen durch Online-Shops umgangen werden kann. Weiterhin erlauben digitale Technologien durch strategische Kommunikation eine Schaffung von Bekanntheit und Optimierung des Images. Dem Unternehmen wird es ermöglicht, seine Leistungen werblich zu positionieren, und hohe Kontaktfrequenzen vieler digitaler Medien generieren eine Wahrnehmung der kommunikationspolitischen Maßnahmen durch die potenziellen Kunden in kurzer Zeit. Letztlich sollten digitale Technologien eine Effektivitätssteigerung für den Vertrieb eröffnen. Diese ist begründet in Absatzsteigerungen durch den wirkungsvollen Einsatz der Vertriebsmaßnahmen, in der Reduktion von Streuverlusten sowie in der erhöhten Erreichbarkeit potenzieller und bereits akquirierter Kunden.

Jedem Unternehmer sollte bewußt sein, von welcher zentralen Bedeutung eine sauber strukturierte Datenpflege und -ablage ist und wie sehr doch die Online-Promotion mittlerweile in die Vertriebskanäle der Unternehmen Einzug gehalten hat. Und durch die überwiegend kostenlos von Google & Co. bereitgestellten Instrumente und Dienste ist dies auch ein wesentlich günstigerer Vertriebsweg als beispielsweise die Printmedien. Zudem greift der Produktkatalog im Online-Shop stets auf die aktuellen zentral vorgehaltenen Daten zurück.

Digitalisierung bedeutet aber auch den Vertriebsaußendienst mit neuen mobilen Lösungen auszustatten. Ziel ist es, beim Kunden vor Ort die wichtigsten Kundendaten parat zu haben, um auf Kundenfragen reagieren zu können. Tablets und Beratungs-Apps bieten bislang nicht gekannte Möglichkeiten, komplexe Themen und Pro­duk­te einfach, fast spielerisch dem Kunden zu vermitteln. Auf diese Weise können viele Dienstleister ihre Servicequalität in der Kun­denberatung weiter verbessern und damit ihre Marktposition gegenüber dem Wettbewerb stärken. Bewährt hat es sich beispielsweise, den in der jeweiligen Produktkategorie erfolgreichsten Ver­triebs­mitarbeiter in die App-Entwick­lung einzubinden.

Dies gewährleistet, dass die wichtigsten fach­lichen Informationen und relevanten Verkaufsargumente integriert und sinnvoll miteinander verknüpft werden. Damit die Produktinformationen auch nach­vollziehbar sowie anschaulich für den Vertrieb aufbereitet werden, empfiehlt sich die Erstel­lung eines App-Storyboards.
Dieses visualisiert die Erfolgs­story des ausgewählten Vertriebsmit­arbeiters, d. h. die Vorgehensweise, die sich in der Beratung seiner Kunden bewährt hat. Seine einzelnen Vor­ge­hens­schrit­te wer­den in gezeichneten Screen-Bildern festgehalten und diese dann zur App-Story miteinander verbunden. Darüber hinaus werden im App-Storyboard mit einem Usa­bility-Experten die Interaktionen und Animationen festgehalten, die ein­gebunden werden sollen, und pro Screen-Bild vermerkt. Für das Unternehmen ist damit der erste Schritt hin zu einem mobilen Vertrieb erfolgreich vollzogen.

Vorteile durch den digitalen Vertrieb:

  • Vertriebsreichweiten erweitern durch Online-Shops, SEO und Bewegtbild
  • Agil reagieren auf veränderte Marktbedinungen und Nutzerverhalten
  • Personalisierte Ansprache von Kunden durch Mailingkampagnen, Newsletter & Co.
  • Sharing und viraler Vertrieb über soziale Netzwerke und mobile Endgeräte
  • Höhere Effizienz durch digitale und zentrale Produktdatenhaltung über PIM-Systeme

Innovationen und Trends im digitalen Vertrieb:

  • Einsatz von PIM-Lösungen
  • Leadgenerierung auf Basis von Algorhitmen
  • Omni- und Multichannel-Vertriebsstrategien für den stationären Handel
  • Cross-Selling über Partner-Shops und in sozialen  Netzwerken
  • SMS und mobiles Text-Marketing
  • Bewegtbildkommunikation in Form von Screencasts und Produktvideos
  • Social-Media-Marketing
  • Aufbau der eigenen Social-Media-Präsenz
  • Einsatz von Content-Marketing und Suchmaschinenoptimierung
  • Produktplattformen für mobile Endgeräte
  • Produktunterstützung und Abverkauf durch die Entwicklung von Mobile-Apps für Smartphones und Tablets
  • Business-Intelligence und Big-Data-Datenauswertung
  • Anbindung an Mobile- und E-Payment-Lösungen
  • Anbindung an eigene CRM-Lösungen
  • Webinare und E-Learning-Angebote etablieren zur Vertriebsunterstützung
  • Kundenbeziehungen aufbauen durch soziale Netzwerke
  • Augmented Reality und Virtual Reality für Produktpräsentation und Interaktion
  • Einsatz von kognitiven und algorithmengestützten Systemen wie zum Beispiel „Predictive-Leadscoring-Softwarelösungen“ (Anhand von bestimmten Mustern erkennt eine Software die Qualität von Leads und unterstützt damit das Sales­team bei seiner Arbeit.)

Vertrieb per IoT

Beispiel: IoT – Vertriebsformen

Die Anwendungsmöglichkeiten des Internets der Dinge sind in den Bereichen Marketing und Vertrieb bisher maßgeblich durch den US-amerikanischen Online-Versandhändler Amazon vorangetrieben worden. Dieser experimentiert mit den verschiedensten Technologien, um den Online-Handel immer stärker in den Alltag der Kunden einzubinden. Die Vorteile liegen dabei auf der Hand: Die Marktanteile können erhöht und der Umsatz pro Kunde kann gesteigert werden. Auch neue Kunden können durch die Innovationen angelockt werden, was ebenfalls zu einer Umsatzsteigerung führt. Ab Mitte 2016 sind die ersten Dash-Buttons nun auch in Deutschland angekommen. Der Preis dafür liegt momentan bei fünf Euro. Amazon erstattet die Anschaffungskosten für den Button nach der ersten Bestellung, die über das Device ausgeführt wurde.

Der im Jahr 2015 auf dem US-Markt eingeführte Amazon Dash Button ermöglicht es dem Kunden, auf Knopfdruck vordefinierte Bestellungen von Verbrauchsgütern aufzugeben. Nachdem ein Kunde einen solchen Button bestellt hat, wird dieser mit der dazugehörigen Smartphone-App konfiguriert.
Durch die Konfigurierung kann festgelegt werden, welcher Artikel in welcher Menge nach dem „Knopfdruck“ bestellt wird. Es besteht zum einen die Möglichkeit, sich einen komplett selbst konfigurierbaren Dash-Button zu bestellen, aber aufgrund von umfangreichen Kooperationen mit namhaften Verbrauchsmittelherstellern können auch Dash-Buttons für bestimmte Produkte geordert werden. Es handelt sich dabei um Produkte wie Waschmittel, Kaffeekapseln, Rasierklingen oder Körperpflegeprodukte.

Nach der Betätigung des Dash-Buttons wird automatisch eine Bestellung erzeugt, welche in der dazugehörigen Smartphone-App bestätigt werden muss. Prinzipiell kann die Bestellung zwar vollkommen autonom aufgebeben werden, die Authentifizierung durch den Kunden soll jedoch die Möglichkeit bieten, versehentlich ausgelöste Bestellungen zu korrigieren oder auch die zu bestellende Menge abzuändern. Bei den bestellbaren Mengen handelt es sich dabei hauptsächlich um größere Vorratspackungen, da beispielsweise die Versendung einer einzelnen Flasche Spülmittel nur in den seltensten Fällen wirtschaftlich ist. Durch die Möglichkeit, Bestellungen zu bündeln, können jedoch auch kleinere Einheiten angeboten werden. Die benötigten Produkte werden dabei in festgelegten Zeiträumen gesammelt und dann zusammen bestellt. Auf diese Weise lässt sich eine Art „Einkaufszettel“ erstellen, welcher dann zu einem beliebigen Zeitpunkt abgearbeitet wird. Amazon selbst sieht diese Art der Bestellung jedoch nur als Zwischenschritt an, da in Zukunft selbst ein Knopfdruck überflüssig werden kann und Gegenstände ihre benötigten Verbrauchsgegenstände autonom bestellen können.

Dash Amazon Replenishment: Derzeit entwickelt Amazon in Zusammenarbeit mit verschiedenen Großgeräteherstellern ein Konzept für autonome Haushaltsgeräte. Vergleichbar mit den „Smarten Verkaufsautomaten“ im stationären Einzelhandel, sollen diese dann selbstständig fehlende Ressourcen erkennen und diese nachbestellen. Dafür bieten sich z. B. Waschmaschinen, Kaffeeautomaten, Wasserfilter, Kühlschränke oder Drucker an. Sollte beispielsweise ein Drucker erkennen, dass mit dem aktuellen Tintenvorrat nur noch eine geringe Anzahl an Seiten gedruckt werden kann, könnte dieser selbstständig neue Farbpatronen bestellen.

Quellen und Textlizenz:
https://winfwiki.wi-fom.de/index.php/Einfluss_der_Digitalisierung_auf_den_Vertrieb; Autoren: Christian Müller-Vorrink, Lars Ivanusic, Julia Rosada
https://winfwiki.wi-fom.de/index.php/Einfluss_des_Internet_der_Dinge_auf_den_Einzelhandel#Marketing_und_Vertrieb; Autor(en): Kai Schlüsener, Manuel Wester
https://winfwiki.wi-fom.de/index.php/Promotion_von_Produktdaten_bei_Google; Autoren: Ebru Tirhis, Robert Trojanowski, Falk vom Schemm
Titel der Arbeit: Promotion von Produktdaten bei Google, Hochschule und Studienort: FOM Essen
Quelle: https://trendreport.de/apps-fuer-finanzdienstleister/

Lizenzbestimmungen: https://www.gnu.org/licenses/fdl-1.2