Schlagwortarchiv für: Abteilung Vertrieb

Virtual & Augmented Reality

Augmented und Virtual Reality verschmelzen zur Mixed Reality.
Die Daten des IoT lumineszieren beim Gang durch die vernetzte Welt.

Computergenerierte interaktive Simulationen mittels kleiner Devices in unserem Leben eröffnen schier unendliche Potenziale an Möglichkeiten, um die Welt neu zu erfahren. Technologische Entwicklungen, die es uns jetzt schon erlauben, die Wirklichkeit zunehmend zu virtualisieren, sind vorhanden. Schon jetzt lässt sich erahnen, welche Änderungen auf uns zukommen. Die Art, wie wir miteinander interagieren und wie wir die vernetzte Welt mit ihren datenfunkenden IoT-Sensoren wahrnehmen, wird nicht mehr dieselbe sein.

Was ist Augmented Reality?

Unter „Augmented Reality“ (kurz AR), also erweiterte Realität, versteht man die computergestützte Erweiterung der Realitätswahrnehmung. Diese Informationen können alle menschlichen Sinnesmodalitäten ansprechen. Häufig wird jedoch unter erweiterter Realität nur die visuelle Darstellung von Informationen verstanden, also die Ergänzung von Bildern oder Videos mit computergenerierten Zusatzinformationen oder virtuellen Objekten mittels Einblendung/Überlagerung. Bei Fußball-Übertragungen ist erweiterte Realität beispielsweise das Einblenden von Entfernungen bei Freistößen mithilfe eines Kreises oder einer Linie. (Wikipedia – Erweiterte Realität)

Im „Realitäts-Virtualitäts-Kontinuum“ (nach Paul Milgram et al., 1994) sind die erweiterte Realität („Augmented Reality“) und erweiterte Virtualität („Augmented Virtuality“) Teil der sogenannten gemischten Realität („Mixed Reality“). Während der Begriff Augmented Virtuality kaum benutzt wird, werden Augmented Reality und Mixed Reality, selten auch Enhanced Reality, meist synonym verwendet.

Im Gegensatz zur virtuellen Realität (kurz VR), bei welcher der Benutzer komplett in eine virtuelle Welt eintaucht, steht bei der erweiterten Realität die Darstellung zusätzlicher Informationen im Vordergrund. Virtuelle Realität und die Realität werden also miteinander kombiniert oder teilweise überlagert. Interaktivität in Echtzeit, in der reale und virtuelle Objekte dreidimensional zueinander in Bezug stehen. Diese Definition umfasst jedoch nur technische Merkmale und beschränkt sich dabei auf einen Teilaspekt von AR. Andere Arbeiten definieren AR als eine Ausweitung der Sinneswahrnehmung des Menschen durch Sensoren um Umgebungseigenschaften, die der Mensch selbst nicht wahrnehmen kann, wie z. B. Radar, Infrarot und Distanzbilder. Menschliche Eigenschaften können damit durch AR verstärkt oder gar ergänzt werden.

Allein die visuelle Modalität bedeutet eine nicht unwesentliche komplexe Herausforderung an die Positionsbestimmung (Tracking) und Kalibrierung. Um eine Augmented-Reality-Anwendung aufzubauen, benötigt es AR-Systeme (kurz ARS), die sich aus technischen Bestandteilen, wie z. B. Kamera, Trackinggeräte, Unterstützungssoftware usw., zusammensetzen. VR und AR sind weit mehr als nur ein Hype. Erkennen lässt sich dies nicht nur an ernst zu nehmenden Hardware-Entwicklungen / Devices für AR-Systeme, wie Facebooks Oculus Rift, HTC VIVE und Microsofts HoloLens, die mittlerweile durchaus massentauglich sind. Auch geistiges Eigentum wird sich einverleibt.

Begriffserklärung

Am besten veranschaulicht man sich diese abstrakten Begriffe an konkreten Beispielen:

  • Reine Realität ist ein Mensch, der zum Einkaufen in den Supermarkt geht.

  • Erweiterte Realität sind Brillengläser, auf deren Innenseite ein Computer den Einkaufszettel des Benutzers projiziert; und zwar so, dass beim Benutzer der Eindruck entsteht, der Einkaufszettel sei an die Wand des Supermarktes angeschrieben. Die Wirklichkeit wird hier um virtuelle Informationen angereichert.

  • Erweiterte Virtualität ist ein Computerspiel, das über einen VR-Helm gespielt wird und das die Türsprechanlage auf die Kopfhörer überträgt, wenn es an der Tür klingelt.

  • Die Virtualität wird hier um reelle Informationen angereichert. Virtuelle Realität ist ein Computerspiel, das über einen VR-Helm gespielt wird und nicht auf die reale Außenwelt des Benutzers reagiert.

    (Quelle: Wikipedia„Mixed Reality“)

Die großen Player am Markt bereiten sich offensichtlich auf eine Zukunft mit AR vor. Viele Argumente sprechen zudem für den Einsatz und das Wachstumspotenzial dieser neuen Technologien: Kostenersparnisse, Qualitätssteigerungen, Sicherheit.

VR- und-AR-Technologien verändern zunehmend unsere Lebens- und Arbeitswelt. AR-Brillen kommunizieren jetzt schon mit den Fächern in den Lagerhallen und weisen dem Picker den Weg. Zu wartende Maschinen helfen bei der Reparatur, indem sie sinnvolle Daten auf einem AR-Device einblenden oder durch Bildmaterial eine Sicht aus jeder Perspektive und durch alles hindurch ermöglichen. Gleiches gilt auch in der Montage in den Werkshallen.

Lesen Sie auf Seite 2: VR & AR: Trends

Digital Banking

FinTechs, Tech-Giganten und neue Technologien verändern die Branche.

Zwar begann die Digitalisierung der Banken mit dem Online-Banking schon im letzten Jahrtausend, doch weitere Innovationen blieben lange aus. Für den Knotenpunkt aller Geldgeschäfte galt der Bankkunde als Selbstverständlichkeit und musste nicht mit technischen Neuerungen gebunden werden. Selbst das Online-Banking diente mehr dem Stellenabbau und der damit verbundenen Gewinnoptimierung als dazu, einen wirklichen Service anzubieten. Heute noch beworbene Tagesgeldkonten wirken wie absurde Überbleibsel aus der Zeit, in der sie mit lukrativen Zinsen als Online-Banking-Marketingmaschine fungierten.

Seit einigen Jahren verändert nun die aufstrebende FinTech-Branche den Finanzmarkt. Dem Kundenwunsch nach mehr digitalen Lösungen, der vor allem durch die Entwicklungen der Mobile Devices mit ständigem Internetzugriff noch verstärkt wird, soll entsprochen werden. Vormals ineffiziente und unflexible Geschäftsfelder werden revolutioniert oder zumindest den neuen technologischen Möglichkeiten angepasst. Durch die PSD2-Richtlinie wurde mittlerweile auch das Monopol der Banken in Bezug auf Kontoinformationen gebrochen. Sie sind nun verpflichtet, eine API-Schnittstelle anzubieten, und, die Einverständniserklärung des Kunden vorausgesetzt, auch anderen Unternehmen Zugriff zu gewähren.

Mittlerweile haben auch viele der altehrwürdigen Bankhäuser erkannt, wie wichtig es im Wettbewerb um die Gunst der Kunden ist, durch eine Modernisierung und Technologisierung der gesamten Dienstleistungskette zu punkten. Oftmals machen sie sich dabei die Innovationskraft eines agilen Start-ups zunutze. Nicht selten agieren diese als White-Label-Lösung im Verborgenen, profitieren aber im Gegenzug von der bereits aufgebauten Kundschaft der etablierten Institute. Auf der anderen Seite machen es die vielen Regularien für Start-ups fast unmöglich, die Bedingungen für eine Banklizenz zu erfüllen. Gerade bei besonders populären FinTech-Lösungen, wie dem Crowdlending, agieren daher nun die Banken im Hintergrund und regeln beispielsweise die Abwicklung der Kreditvergaben.

Zwar machten kleine Start-ups den Anfang, doch mittlerweile bitten auch die Tech-Giganten auf dem Finanzparkett zum Tanz. Siri ermöglicht mittlerweile Überweisungen per Sprachbefehl und ebenso wie Apple Pay ermöglicht auch das Android-Pendant Google Pay das Bezahlen via Smartphone an der Kasse.

Amazon-Go-Filialen schaffen Kassensysteme sogar komplett ab. Eine auf dem Smartphone installierte App vernetzt sich mit der ausgeklügelten Technik im Geschäft, die genau erkennt, welche Waren der Kunde einsteckt. Nach Verlassen des Ladens erhält dieser nur noch eine Push-Benachrichtigung, einen digitalen Kassenbon. Zusätzlich setzen sich die Unternehmen auch im Online-Commerce an die Schnittstelle zwischen Händler und Kunden, indem sie bei Bezahlungen per App Rabatte anbieten oder als Identitätsdienst die Registrierung beim Onlineshop mit nur einem Klick ermöglichen.

Enormes disruptives Potenzial wird auch der Blockchain zugesprochen. Der Hype der Kryptowährungen endete zwar relativ schnell nach dem Bitcoin-Höchststand im Dezember 2017, doch nicht nur FIAT-Währungen werden durch die Technologie in Frage gestellt. Blockchain-Ökosysteme ermöglichen Legitimation, Absicherung und Auslandszahlungsverkehr – also Kerndienstleistungen der Banken.


Investieren in Datenkompetenz

Daten werden immer mehr zur universellen Sprache – und Unternehmen, die sie beherrschen, werden erfolgreich sein.

von Bernhard Haselbauer

Der Job eines Data Scientists ist es, aus großen Datenmengen Informationen zu generieren und Handlungsempfehlungen abzuleiten, die das Unternehmen befähigen, effizienter zu arbeiten.

Doch was muss ein Data Scientist können und welche Skills sollte er mitbringen? Zum Beispiel muss er mit den unterschiedlichsten Datenbanksystemen zurechtkommen, doch meistens liegen die Daten nur unstrukturiert vor. Unternehmen arbeiten heute mit CRM-und ERP-Lösungen von Microsoft, SAP, Oracle und Co. Standardmäßig kommen in diesen Fällen relationale Datenbanken zum Einsatz. Demnach sollte ein Data Scientist SQL, „Structured Query Language“, in allen Abwandlungen beherrschen. Werden dann die Daten für die Analyse exportiert, fangen die ersten Schwierigkeiten schon an. Zusätzlich müssen immer mehr unstrukturierte Daten aus Social-Media-Kanälen und anderen Internetquellen analysiert werden.

Diverse Schnittstellen müssen in diesem Kontext bedient werden, um neue Erkenntnisse zu gewinnen. Und so geht es weiter mit Know-how über Verschlüsselungsverfahren, Datenbankanbindungen und das Echtzeitmanagement von Datenströmen. Data-Scientisten sind gefragter denn je, um die digitale Transformation im Unternehmen voranzutreiben. Doch der Markt für Spezialisten ist wie leergefegt.

Bildquelle Lizenz: Designed by macrovector / Freepik

Sich selbst zu helfen, scheint das Gebot der Stunde zu sein. Doch welche Möglichkeiten gibt es, die Datenflut zu meistern? Zum Beispiel muss die Datenanalyse nicht mehr zentral erfolgen, so kann der Self-Service-BI-Ansatz mehr Fachanwendern ermöglichen, selbst Berichte und Analysen zu erstellen. Die IT-Abteilung spart sich dadurch aufwendige Entwicklungsarbeiten für nur einmalig benötigte Auswertungen. Eine dezentrale BI legt die Analysen zur Entscheidungsfindung direkt in die Geschäftsbereiche. Daten und Analysefähigkeiten werden so in die Hände der Abteilungen und Führungskräfte übergeben, um mehr Agilität an den Tag zu legen.

Entscheider die sich zukunfts­fähig im Markt aufstellen wollen, sollten einen Blick auf ihre Daten werfen.

Die Lösungen haben inzwischen einen übersichtlichen und funktionalen Aufbau und sind in der Lage, Quelldaten aus diversen Datenbanken und Beständen einzubinden, auch über diverse Cloud-Infrastrukturen hinweg. Der Bezug von IT-Diensten im Self-Service für diverse BI-Tools hat sich als ausgesprochen produktiv und kostensparend erwiesen.

Fest steht, dass Unternehmen neue Erkenntnisse aus ihren verschiedenen Datenquellen und Datenbanken generieren können. Die Technologie dazu ist da. Moderne Data-Analytics-Lösungen ermöglichen es, Daten aus unterschiedlichsten Quellen miteinander in Beziehung zu setzen und zu erforschen. Dazu muss jedoch aus den verschiedenen Datenbanken eine Datenbank gemacht werden. Jetzt wird es möglich, Finanzdaten mit z. B. operativen Daten zu verknüpfen und daraus neue Entscheidungsgrundlagen zu ziehen. Ziel ist, Menschen durch assoziative Datenanalysen bessere Entscheidungsgrundlagen zur Verfügung zu stellen.

Das Wissen im Umgang mit Daten und Datenbanken muss mehr Verbreitung finden. Diesem Leitgedanken nimmt sich der „Data Literacy Index“ an. Der souveräne Umgang mit Daten ist für Organisationen aller Art und Größe bares Geld wert. Das geht aus einer neuen, weltweiten Studie des Data-Analytics-Spezialisten Qlik hervor. Erstellt wurde der Data Literacy Index durch die amerikanische Wharton School und das Institut IHS Markit.

Laut dem Index können große Organisationen ihren Wert um bis zu 500 Millionen Dollar steigern, wenn sie unternehmensweit und konsequent auf eine datenversierte Kultur setzen. „Es ist das erste Mal, dass die Datenkompetenz auf Unternehmensebene gemessen wird, was nicht nur die Datenkompetenz der Mitarbeiter des Unternehmens umfasst, sondern auch die Nutzung von Daten für Entscheidungen im gesamten Unternehmen“, so Lorin Hitt, Professor an der Wharton School der University of Pennsylvania. „Die Forschung deutet darauf hin, dass Datenkompetenz in Unternehmen eine Reihe von Aspekten umfasst, die sich gegenseitig verstärken und mit finanzieller Leistung verbunden sind.“

Europa hat laut der neuen Untersuchung den höchsten „Data Literacy Score“ aller Regionen, wobei Großbritannien, Deutschland und Frankreich zu den am weitesten fortgeschrittenen Nationen für „Corporate Data Literacy“ gehören. Zwar ist Singapur die datenkundigste Nation weltweit, regional betrachtet liegen die USA und APAC jedoch gleichauf mit einem geringeren Wert als Europa. Dies spiegelt eine größere Anerkennung wider, die europäische Entscheidungsträger offenbar für den Wert von Daten haben.

Denn 72 Prozent von ihnen bestätigen, dass diese „sehr wichtig“ sind – verglichen mit nur 60 Prozent in Asien und 52 Prozent in den USA. Das Maß für die Datenkompetenz von Unternehmen wurde von IHS Markit und einem Professor der Wharton School festgelegt. Es liegt auf einem Kontinuum, das auf den Datenkompetenzen der Mitarbeiter, datengetriebener Entscheidungsfindung und Datenqualitätsstreuung basiert. Eine Umfrage wurde entwickelt, um die drei Dimensionen der Datenkompetenz von Unternehmen zu messen. Antworten wurden mit passenden Skalen und Scores über alle Indikatoren hinweg standardisiert und aggregiert.

Megatrends wie Automatisierung, Robotik und künstliche Intelligenz bedeuten die vierte industrielle Revolution. Daten werden immer mehr zur universellen Sprache – und Unternehmen, die sie beherrschen, werden erfolgreich sein. Entscheider, die sich zukunftsfähig im Markt aufstellen wollen, sollten einen Blick auf ihre Daten werfen.

Übrigens bieten sich viele Weiterbildungsmöglichkeiten für Unternehmen und Mitarbeitende. Das Fraunhofer-Institut IAO zum Beispiel bietet für Führungs- und Fachkräfte sowie IT-Expertinnen und -Experten, die künstliche Intelligenz, maschinelles Lernen und Data Science verstehen möchten, Seminare an. Die Kurse geben einen Überblick über die nötigen Schritte bei der Durchführung von Datenanalysen mittels Methoden der künstlichen Intelligenz im Zeitalter von Big Data sowie die damit verbundenen Herausforderungen. Die Teilnehmenden erhalten eine Einführung in verschiedene Formen und Algorithmen des maschinellen Lernens und erhalten einen Überblick über deren Unterschiede sowie die jeweiligen Stärken und Schwächen. Praxisbeispiele und Tooldemonstrationen machen die vorgestellten Konzepte verständlich und nachvollziehbar. //


Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Datenbasierte Geschäftsmodellinnovationen

Das IoT wird zum KI-Datenlieferanten: Durch die Algorithmen des maschinellen Lernens entstehen so neue Produkte, Prozesse und Services.

Im Interview mit der TREND-REPORT-Redaktion sprach Prof. Dr. Dr. Schildhauer, Principal Investigator am Weizenbaum-Institut für die vernetzte Gesellschaft, über das Veränderungspotenzial der mit dem IoT einhergehenden Datenmenge (Big Data).

Herr Prof. Schildhauer, inwieweit verändert die KI/AI (Künstliche Intelligenz/Artificial Intelligence) datenbasierte Geschäftsmodelle?
Es entstehen durch weiterentwickelte Algorithmen Chancen, bspw. durch maschinelles Lernen, Systeme zu entwickeln, die basierend auf großen Datenkontingenten helfen, Prozesse, Strukturen und Arbeitsabläufe in Unternehmen zu optimieren und zu steuern. Mit dem Hype-Begriff „Künstliche Intelligenz“ gehe ich in diesem Kontext noch sehr vorsichtig um. Aber sichtbar ist, dass neben maschinellem Lernen weitere Technologien wie Cloud Computing, IoT oder Additive Manufacturing ein wichtiger technischer Enabler für datenbasierte Geschäftsmodelle sind. So entwickeln sich in Deutschland in diesem Zusammenhang neue technologiebasierte Start-ups z. B. in den Sektoren Handel, Logistik, Gesundheit oder Mobilität.

Start-ups, aber auch etablierte Unternehmen entwickeln auf Basis großer Datensammlungen und entsprechender Algorithmen neue Geschäftsmodelle, die beispielsweise Vorhersagen auf künftige Bedarfe oder Nutzerverhalten analysieren und vorhersagen – Predictive Analytics. Insbesondere vollzieht sich der Wandel bei etablierten Unternehmen dort, wo zumeist auf der Ebene unternehmensinterner Prozessoptimierungen Potenziale aus der Analyse großer Datenmengen geschöpft werden. Dies kann im Versicherungsbereich (bspw. Vorhersage über Schadenrisiken aus Daten der Vergangenheit und aktuellen Wetter- und Verhaltensdaten) ebenso wie in Produktionsunternehmen (Predictive Maintenance) zur Anwendung kommen. Ob und wie sich aus diesen Innovationen tragfähige datenbasierte Geschäftsmodelle entwickeln, untersucht die Forschungsgruppe „Datenbasierte Geschäftsmodellinnovation“ am Weizenbaum-Institut für die vernetzte Gesellschaft – Das deutsche Internet-Institut.

Welche Innovationen werden mit diesen neuen Technologien möglich?
Das Innovationspotenzial erstreckt sich über die gesamte Wertschöpfungskette in Unternehmen und führt zu neuen Prozessen, Produkten, Services und Geschäftsmodellen in vielen unterschiedlichen Sektoren. Neben den bereits beschriebenen Beispielen aus Dienstleistungs- und Produktionsbranchen wird die Echtzeitanalyse riesiger Datenbestände mittels Big-Data-Analytics heute auch in der Krebsdiagnostik genauso eingesetzt wie in der personalisierten Werbung. Große Potenziale entstehen auch im Bildungsbereich, diesen untersucht die Forschungsgruppe schwerpunktmäßig.

Der Einsatz von Augmented Reality führt z. B. in der Berufsbildung dazu, dass Auszubildende verstärkt praktische Fähigkeiten durch virtuelle Simulationen erlernen, was vor allem bei riskanten und teuren Arbeitsschritten ein wichtiges Innovationspozential darstellt. Neue digitale Bildungsplattformen verändern den Lehr- und Lernprozess und machen diesen erstmalig messbar. So hat z. B. eine führende Plattform für Online-Kurse im Aus- und Weiterbildungsbereich mittels maschinellen Lernens einen Algorithmus entwickelt, der Teamleiter*innen aufzeigt, welche Kompetenzen Mitarbeiter*innen fehlen und mit welchen offerierten Online-Kursen diese erworben werden können. Auch kann die Sammlung von Verlaufs-, Abbruch- und Abschlussdaten der Lernenden auf Lernplattformen dazu genutzt werden, die Lernsysteme in Echtzeit an das Verhalten der Lernenden anzupassen (Learning Analytics).

Wir gehen der Frage nach, wie durch die Veröffentlichung von Datensätzen neue Geschäftsmodelle im Mobility-Bereich oder in der Bildung entstehen können.

Inwieweit beschäftigen Sie sich in Ihrer Forschungsgruppe mit den Themen IoT und IIot im Kontext datenbasierter Geschäftsmodellinnovationen?
Wir betrachten IoT zwar als Schlüsseltechnologie, aber eben als eine von vielen, die datenbasierten Geschäftsmodellinnovationen zugrunde liegt. Neben diesen Schlüsseltechnologien stehen bei uns vor allem drei Themen im Vordergrund, die parallel erforscht werden. Den ersten inhaltlichen Schwerpunkt setzen wir im Bereich Open Data und gehen der Frage nach, wie durch die Veröffentlichung von Datensätzen neue Geschäftsmodelle im Mobility-Bereich oder in der Bildung entstehen können. Dabei fokussieren wir besonders die Themen Datenschutz, Datenqualität und Datensicherheit. Darüber hinaus untersuchen wir, wie digitale Bildungsplattformen und die dort implementierten Learning Analytics zu neuen datenbasierten Geschäftsmodellen im Bildungssektor führen können.

Zu guter Letzt wird auch die Prozess­ebene von Geschäftsmodellinnovationen erforscht, um mögliche Systematisierungen abzuleiten und Innovations-Tools für die Praxis zu entwickeln. Ein Anwendungsfall bezogen auf IIOT untersucht in diesem Zusammenhang folgende Fragestellung: Da durch zunehmende Machine-to-Machine(M2M)-Kommunikation die Anforderungen an Menschen, die Produktionsprozesse in IIOT-ausgerüsteten Produktionsstraßen steuern, stark anwachsen, müssen diese Menschen mit neuartigen Lernsystemen ausgestattet werden, die ihnen erlauben, situativ und individuell am Ort des (Produktions-)Geschehens die Lerneinheit abrufen zu können, die gerade benötigt wird, um bspw. Fehler, die in der neuen IIOT-gestützten Produktion auftreten, schnell beseitigen zu können. Über die Produktionsstandort-übergreifende Sammlung von Daten (Big Data) können für wiederkehrende Fragestellungen bereits im Vorfeld Lern­einheiten angelegt werden, die den Menschen vor Ort helfen.

Welchen Stellenwert nehmen das IoT und IIoT ein, wenn es um zukünftige datenbasierte Geschäftsmodelle geht?
Im Zusammenhang mit dem IoT und IloT rückt das Konzept des Ökosystems in den Vordergrund. Hier reden wir über mit Sensoren ausgestattete Endgeräte, die digitale Daten generieren und miteinander austauschen. Gegenstände und Prozesse, die zuvor keine Daten generiert haben, werden auf einmal zu Datenlieferanten. Damit ist die IoT-Technologie, wie auch die zuvor thematisierte KI, ein weiterer technischer Enabler für datenbasierte Geschäftsmodellinnovationen. Mit den neuen Datenkontingenten werden die bestehenden unternehmerischen Ressourcen angereichert und es entstehen neue Bedarfe für Analyse-Tools, die aus Rohdaten handlungsrelevantes Wissen generieren. Vielfach bewegen wir uns hier im Bereich der Optimierung, vor allem in B2B-Bereichen wie der Logistik. Aber auch im privaten Bereich ist das IoT bereits angekommen, in Form von Selftracking und Smarthome-Devices. Smartwatches und andere Wearables sind längst in unserer Gesellschaft etabliert – eingebettet in ein Ökosystem digitaler Dienstleistungen.

Wie können in Unternehmen durch Design Thinking innovative IoT-Ideen entstehen?
Ein Kernprinzip von Design Thinking ist immer seine Ergebnisoffenheit und die konsequente Fokussierung auf die Verwender/Nutzer. Das begünstigt zunächst innovative Ideen in allen Industrien, weil vor allem der Prozess im Vordergrund steht und nicht so sehr die einzelne Branche oder die ihr zugrunde liegende Technologie. Dies kann als Stärke und als Schwäche auslegt werden. Für uns ist deshalb die wirklich spannende Frage in diesem Zusammenhang, inwiefern sich die Design-Thinking-Methodik durch die Einbindung großer Datenmengen erweitern lässt, um die spezifischeren Anforderungen von neuen datenbasierten Geschäftsmodellen zu erfüllen. Diesbezüglich gibt es in Deutschland schon erste Vorreiter, die sich z. B. auf Data Thinking spezialisieren, und auch unsere Forschungsgruppe am Weizenbaum-Institut für die vernetzte Gesellschaft – Das Deutsche Internet-Institut beschäftigt sich mit dieser Frage.

Inwieweit können Ausgründungen etablierter Unternehmen neue unternehmerische Strukturen für die Entwicklung datenbasierter Geschäftsmodelle schaffen?
Eine Ausgründung bietet neuen Ideen Platz zum Reifen. Das ist immer dann sinnvoll, wenn innerhalb einer Organisation neue unternehmerische Ideen generiert werden, die im derzeitigen Kerngeschäft keinen Platz finden, es entstehen Spin-offs. Mit dieser organisatorischen und oft auch räumlichen Trennung werden Innovationen davor bewahrt, an der gängigen Branchenlogik und der Performance des operativen Geschäfts gemessen zu werden – also jenen Paradigmen, die eine disruptive Innovation ja gerade auf den Kopf zu stellen versucht. Oftmals gehen diese Initiativen auf die Arbeit der Abteilungen für Forschung und Entwicklung in etablierten Unternehmen zurück, die sich heute mehr denn je mit digitalen und datenbasierten Innovationspotenzialen beschäftigen.

Was können etablierte Unternehmen von Start-ups lernen?
Sie können von ihnen lernen, dass Wandel keine Bedrohung ist, sondern eine Chance. Start-ups sind sehr gut darin, das zu betreiben, was Joseph Schumpeter schon vor über 70 Jahren als schöpferische Zerstörung bezeichnete, und gezielt Lücken zu besetzen, die sich zwischen etablierten Unternehmen und ihren bisherigen Kunden aufgetan haben. Sie bleiben neugierig, probieren auch unkonventionelle Ideen aus und richten den Blick eher nach außen als nach innen. Auch sind sie bereit, Erkenntnisse aus dem Markt schnell zur Veränderung des ursprünglichen Geschäftsmodells zu nutzen. Natürlich darf dabei nicht vergessen werden, dass die viel zitierte Flexibilität und Anpassungsfähigkeit der Start-ups vielfach ihrer prekären Lage geschuldet ist, geprägt von einem Mangel an unternehmerischen Ressourcen und oftmals auch an unternehmerischer Erfahrung. Und trotzdem ist es immer wieder bemerkenswert, wie sie sehr oft erfolgreich aus dieser Not eine Tugend machen. //

Zur Person Prof. Dr. Dr. Thomas Schildhauer

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Das IoT wird zum KI-Datenlieferanten: Durch die Algorithmen des maschinellen Lernens entstehen so neue Produkte, Prozesse und Services.

Quick Service durch Outsourcing

Plattformen als Antwort von Vor-Ort-Apotheken auf den Versandhandel

Aufgrund des Fremd- und des Mehrbesitzverbotes sind im deutschen Apothekenmarkt Massen-Filialsysteme wie in anderen Branchen nicht möglich. Aus diesem Grund können einzelne Vor-Ort-Apotheken kaum Effizienzvorteile erzielen. Impulse für Innovationen, die Effizienzvorteile versprechen, können daher überwiegend nur von außen kommen, also von Dienstleistern, die Teile der Wertschöpfung der Apotheke im Zuge des Outsourcings übernehmen.

Viele dieser Innovationen basieren auf dem Gedanken, die Anzahl der Kontakte zwischen Apotheken und ihren Kunden durch eine
Koordinationsleistung zu reduzieren und damit die Geschwindigkeit der Waren-, Geld- und Informationsströme zu erhöhen. Das ist das Prinzip von Plattformen, die Anbietern und Nachfragern – also zwei Seiten eines Marktes – erleichtern, in Kontakt zu treten. Externe Dienstleister können dazu beitragen, die Beziehungen zwischen den Anbietern und Nachfragern effizienter zu gestalten, wie z. B. Rezeptdienste und Lieferdienste.

Diese externen Dienstleistungen bezeichnen wir als Quick Service: Die Kunden sollen durch sie schnell den Zugang zu einer Apotheke finden und im Kaufprozess entlastet werden; die Apotheken können dann schnell die Kunden mit Waren versorgen, entweder in der Apotheke, durch die Belieferung mit dem eigenen Botendienst oder durch Dritte.

Plattformen – Welche Effekte sind zu beachten?

Stellt man die Wertkettenbeziehung zwischen einer Apotheke und ihren Kunden über Waren-, Geld- und Informationsströme dar, so kann eine Apotheke alle diese Leistungen selbst erbringen. Sie kann auch überlegen, bestimmte Leistungen externen Dienstleistern zu übertragen. Dabei sind vor allem folgende Effekte zu untersuchen:

  • Welche Kosten entstehen durch die Inanspruchnahme des Dienstleisters?
  • Welche Kosten lassen sich durch den Wegfall eigener Leistungen reduzieren?
  • Welche Kosten entstehen durch neue Leistungen, die der Wegfall eigener Leistungen erfordert?
  • Wie reagieren die Kunden darauf, dass diese Leistung nicht mehr von der Apotheke selbst, sondern durch einen Dienstleister erbracht wird?

Die Kosten des Dienstleisters ergeben sich aus seinen Preisen und stellen für den Nachfrager in der Regel eine Kombination aus fixen und variablen Kosten dar. Die Reaktion der Kunden ist nicht leicht abzuschätzen. An die Beratung, die Lagerung und die Lieferung von Arzneimitteln stellen Kunden hohe Anforderungen im Hinblick auf Qualität, Haltbarkeit und Pünktlichkeit. Im Fall des Outsourcings dürften daher u. a. neue Leistungen auf die Apotheke zukommen, die insbesondere mit Kontrolle und Kommunikation zu tun haben: Kontrolle des Dienstleisters sowie Kommunikation mit dem Dienstleister und den Kunden.

Die Reduktion der Koordinationskosten

Eine Form des Outsourcings sind Platt­formen, auf denen die Kunden darüber Informationen erhalten, welche Apotheke zu welchen Konditionen (vor allem Lieferzeiten und Lieferpreise) rezeptfreie Arzneimittel ausliefert. Weitere Dienstleistungen sind die Abwicklung von Rezepten (sog. Rezeptdienst) sowie die Vermittlung oder die Übernahme der Lieferungen für die Apotheke (sog. Lieferdienst).

Welche Kosten die Apotheke durch den Wegfall eigener Leistungen reduzieren kann, lässt sich anhand des Baligh-Richartz-Effektes verdeutlichen. Wir gehen beispielhaft von einer Vor-Ort-Apotheke aus, bei der 100 Kunden pro Tag ein rezeptpflichtiges Arzneimittel nachfragen. Damit hat die Apotheke 100 Informations-Kontakte. Überträgt diese Apotheke nun die Abwicklung von 30 dieser Rezepte einem Dienstleister, so kann sie ihre Anzahl der Informations-Kontakte und damit auch die Koordinationskosten reduzieren, d. h. vor allem Kosten für die Übermittlung und Verarbeitung von Informationen. In diesem Fall würden 29 Kontakte entfallen und wären nicht zu koordinieren.

Die Quick-Service-Dienstleistungen

Zwischen der Apotheke, den Kunden und dem Dienstleister lassen sich verschiedene Konstruktionen unterscheiden, um Waren- und Informationsströme zu gestalten. Die Geldströme klammern wir von der weiteren Betrachtung aus. Wir gehen im Folgenden auf sechs Geschäftsmodelle ein, mit denen externe Dienstleister die Informations- und Warenströme bei apothekenpflichtigen Arzneimitteln übernehmen können.

Geschäftsmodell 1:
Der Rezeptdienst

Der Dienstleister entlastet die Apotheken von der Entgegennahme einzelner Rezepte und er vermittelt ihnen Kunden, die zur Rezeptabgabe nicht die Apotheke aufsuchen wollen. Die Logistik der Arzneimittel übernimmt die Apotheke, entweder durch Abgabe an den Kunden in der Apotheke oder durch ihren Botendienst. Ein Beispiel ist der Rezeptdienst von Ordermed. Der Kunde wählt über die App oder die Website von Ordermed seinen Arzt und seine Apotheke aus und gibt das zu bestellende Medikament ein oder scannt die Packung. Im nächsten Schritt geht ein Fax an den Arzt mit einer Rezeptanforderung und die Apotheke erreicht entweder eine E-Mail oder ein Fax über die Bestellung. Das angeforderte Rezept sowie, falls nötig, die Krankenversicherungskarte des Kunden holt der Apothekenbote ab und liefert anschließend die Bestellung an den Kunden aus oder der Kunde holt es selbst ab.

Geschäftsmodell 2:
Der Vermittler für rezeptfreie Arzneimittel

Der Dienstleister vermittelt den Kunden Apotheken, bei denen sie rezeptfreie Arzneimittel bestellen und sich durch den Botendienst beliefern lassen können. Ein Beispiel ist Aponow. Aponow bietet von Montag bis Freitag in der Zeit von 9 bis 17 Uhr verschiedene Geschwindigkeiten der Auslieferung an: Same-Day-Delivery, Belieferung in einer Stunde (Flash) oder in vier Stunden (Fast). Wenn ein Kunde bestellt, kontaktiert Aponow eine der nächstgelegenen Partner-Apotheken. Reagiert die Apotheke nicht innerhalb von 15 Minuten mit der Rückmeldung, dass sie in der gewünschten Liefergeschwindigkeit liefern kann, werden weitere Apotheken angeschrieben. Erst wenn eine Apotheke die Anfrage annimmt, kommt ein Kaufvertrag zustande, und ab dem Zeitpunkt ist die gewünschte Lieferzeit einzuhalten.

Alle Offizin-Apotheken in Deutschland sind kostenlos als Lieferdienst eingetragen, sie können über eine Premium-Mitgliedschaft Aufträge im eigenen PLZ-Gebiet bevorzugt erteilt bekommen. Die Waren werden mit der unverbindlichen Preisempfehlung des Herstellers (UVP) angeboten. Für den Kunden ist es nicht möglich, eine Apotheke auszuwählen. Es kann vorkommen, dass die gewünschte Lieferzeit nicht realisiert werden kann und das Produkt in derselben Apotheke – ohne Vermittlung des Auftrages durch Aponow – zu einem günstigeren Preis zu erwerben ist. Aponow bietet neben der Botendienstlieferung auch die Selbstabholung in der Apotheke an (Click & Collect). In dem Fall wird die Apotheke im Gebiet, die eine Premium-Mitgliedschaft besitzt, zur Abholung vorgeschlagen. Kunden haben aber auch die Möglichkeit, eine andere Apotheke auszuwählen.

Diverse Dienste erlauben es mittlerweile, Medikamente direkt online von zu Hause aus zu bestellen.

Geschäftsmodell 3:
Der Vermittler für alle Arzneimittel

Dieses Modell basiert auf dem Click-and-collect-Konzept und unterscheidet sich von den bisherigen dadurch, dass die Kunden über eine App alle Medikamente, also auch rezeptpflichtige, vorbestellen und in der Apotheke abholen können. Ein Anbieter dieser Dienstleistung ist die Apothekenkooperation Linda. Teilnehmende Apotheken sind über die Plattform Linda 24/7 und ihren eigenen Online-Shop mit apothekeneigenen Preisen und Leistungen für die Kunden erreichbar.

Geschäftsmodell 4:
Der Vermittler von Lieferungen für alle Arzneimittel

Ein Beispiel hierfür ist pillentaxi.de. Der Kunde kann auf der Seite von pillentaxi.de die gleichnamige App herunterladen, um Bestellungen bei Apotheken vor Ort aufzugeben. Zusätzlich ist es möglich, auf der Website nach Apotheken zu suchen, die an dem Konzept teilnehmen. Die Lieferung erfolgt durch den Botendienst der Apotheke. Die Plattform pillentaxi.de ermöglicht auf diese Weise etwas, was die Apotheke selbst nicht darf: für ihren Botendienst werben. Damit kann eine Lücke zu den Versandapotheken geschlossen werden.

Literaturhinweise

  • Die ausführliche Darstellung der Untersuchung finden Sie in:
  • Schröder, H., Ersöz, S., Digitale Lösungen für Informations- und Logistikdienste von Vor-Ort-Apotheken, in: Digitale Geschäftsmodelle, Edition HMD
  • Hrsg.: Fröschle, H.-P., Hildebrand, K., Hofmann, J., Knoll, M., Meier, A., Meinhardt, S., Reinheimer, S., Robra-Bissantz, S., Strahringer, S., Wiesbaden: Springer Gabler 2019 (in Druck).

Geschäftsmodell 5:
Die Übernahme der Auslieferung nicht rezeptpflichtiger Produkte

Der Dienstleister übernimmt für die Apotheke die Auslieferung, wie z. B. Amazon für eine Bienen-Apotheke in München. Die Apotheke versorgt den Amazon-Lieferanten während der Apotheken-Öffnungszeiten innerhalb von 15 Minuten nach Eingang der Bestellung mit rezeptfreien Medikamenten sowie Produkten aus der Freiwahl. Die Produkte werden im Prime-Now-Design verpackt und innerhalb von einer Stunde an den Kunden ausgehändigt. Es ist auch möglich, für die Lieferung ein bestimmtes Zeitfenster auszuwählen.

Geschäftsmodell 6:
Die Übernahme der Auslieferung auch rezeptpflichtiger Produkte

In diesem Fall übernimmt der Dienstleister auch die Abwicklung und die Logistik rezept­pflichtiger Arzneimittel. Da bei den Geschäftsmodellen 5 und 6 die Auslieferung mit apothekenfremdem Personal erfolgt, liegt Versandhandel vor, für den die jeweiligen Apotheken eine Versandhandelserlaubnis benötigen.

Viele dieser Innovationen basieren auf dem Gedanken, die Anzahl der Kontakte zwischen Apotheken und ihren Kunden durch eine Ko­ordinationsleistung zu reduzieren und damit die Geschwindigkeit der Waren-, Geld- und Informationsströme zu erhöhen.

Stark im Wettbewerb durch die Kraft externer Partner

Der Nutzen der Online-Plattformen kann zum einen darin bestehen, Informationen zu vermitteln und so die Sichtbarkeit der Vor-Ort-Apotheken zu erhöhen, neue Kunden zu vermitteln und die Abläufe in und mit der Apotheke zu beschleunigen. Sichtbar wird vor allem, dass die Vor-Ort-Apotheken grundsätzlich in der Lage sind, mit ihren Botendiensten die Ware schneller auszuliefern – eben als Quick Service – als der Versandhandel auf dem Postweg.

Der Nutzen der Online-Plattformen kann zum anderen darin bestehen, die Logistik der Apotheken zu übernehmen, was rechtlich als Versandhandel zu qualifizieren ist, auch wenn die Ware nicht auf dem klassischen Postweg geliefert wird. Eine solche Leistung ist dann von Vorteil für die Vor-Ort-Apotheken, wenn durch sie die Ware schneller zum Kunden gelangt – eben Quick Service – als durch den eigenen Botendienst, wenn z. B. Personal vor Ort fehlt, um die Arzneimittel auszuliefern.

Nicht vergessen werden dürfen die Kosten des externen Dienstleisters, einschließlich der Kontrolle seiner Leistungen, sowie die Beurteilung dieser Leistungen durch die Kunden der Apotheke. //


Kontakt zu den Autoren

Univ.-Prof. Dr. Hendrik Schröder

Semra Ersöz

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Digital Finance

FinTechs gehen mit frischen Ideen auf den Markt und verändern diesen nachhaltig. Neue Technologien offenbaren ihr disruptives Potenzial.

von Andreas Fuhrich

Zwar begann die Digitalisierung der Banken mit dem Online-Banking schon im letzten Jahrtausend, doch weitere Innovationen blieben lange aus. Für den Knotenpunkt aller Geldgeschäfte galt der Bankkunde als Selbstverständlichkeit und musste nicht mit technischen Neuerungen gebunden werden. Selbst das Online-Banking diente mehr dem Stellenabbau und der damit verbundenen Gewinnoptimierung als dazu, einen wirklichen Service anzubieten. Heute noch beworbene Tagesgeldkonten wirken wie absurde Überbleibsel aus der Zeit, in der sie mit lukrativen Zinsen als Online-Banking-Marketingmaschine fungierten.
Seit einigen Jahren verändert nun die aufstrebende FinTech-Branche den Finanzmarkt. Dem Kundenwunsch nach mehr digitalen Lösungen, der vor allem durch die Entwicklungen der Mobile Devices mit ständigem Internetzugriff noch verstärkt wird, soll entsprochen werden. Vormals ineffiziente und unflexible Geschäftsfelder werden revolutioniert oder zumindest den neuen technologischen Möglichkeiten angepasst. Die Finanzkrise 2008, das zerstörte Vertrauensverhältnis zu den Großbanken, diente dabei als Katalysator für die junge Branche, die offen in Konkurrenz zu den alteingesessenen Instituten tritt.

Durch den Druck der FinTechs und der Digitalisierung der Finanzbranche haben mittlerweile auch traditionelle Bankhäuser erkannt, dass sie aktuelle Techniken einsetzen müssen, um den Bedürfnissen der Kunden zu entsprechen. Zwar arbeitet man jetzt verstärkt an der Modernisierung und Technologisierung der gesamten Dienstleistungskette, kann jedoch nicht mit der Innovationskraft eines agilen Start-ups mithalten. Verschärfte Regulierungen und neue BIZ-Eigenkapitalvorschriften erschweren  den Prozess zusätzlich. Wohl deshalb treten viele Banken seit einiger Zeit nicht mehr nur als Konkurrent, sondern als Partner von FinTechs auf. So erhalten sie die Möglichkeit, zeitnah ihren Kunden Innovationen anzubieten, ohne eigene Forschung betreiben zu müssen. Auch FinTechs haben erkannt, dass durch Partnerschaften Win-win-Situationen entstehen. Die vielen Regularien machen es für Start-ups fast unmöglich, die Bedingungen für eine Banklizenz zu erfüllen, die für manche Dienstleistungen, wie z. B. die Kreditvergabe, aber zwingend erforderlich ist. Anstatt sich selbst mit den hohen Anforderungen auseinanderzusetzen, übernimmt jetzt die lizensierte Partnerbank die endgültige Abwicklung.

Die Innovationen der Finanztechnologie beginnen dabei gerade erst, die Branche immer stärker und immer schneller umzukrempeln. Eine accenture-Studie belegt, dass die Investitionen in FinTechs von weltweiten 1,791 Milliarden Dollar im Jahr 2010 auf über 22 Milliarden 2015 anwuchsen.(1)
Allein in den letzten beiden Jahren machten zwei Schlagwörter auf sich aufmerksam, denen ein ungeheures disruptives Potenzial zugesprochen wird. 2015 wurden weltweit über 800 Millionen Dollar in InsurTech-Start-ups investiert,(2) also in Unternehmen, die neue Lösungen für die Versicherungsbranche liefern. Laut einer McKinsey-Studie könnte dadurch in den nächsten zehn Jahren jeder vierte Arbeitsplatz in der westeuropäischen Versicherungsbranche verloren gehen.(3) 2016 sorgte der Begriff „Blockchain“ für Aufsehen. Ob die Technologie hinter dem Bitcoin tatsächlich dem disruptiven Potenzial gerecht wird, welches ihr zugesprochen wird, bleibt abzuwarten.

Quellen:

(1)    accenture-Studie: „Fintech and  the evolving landscape: landing points for the industry“ von: Julian Skan, James Dickerson und  Luca Gagliardi, 2016. URL: https://www.fintechinnovationlablondon.co.uk/pdf/Fintech_Evolving_Landscape_2016.pdf (Abgerufen: 16. November 2016).
(2)    Seite „Versicherungstechnologie“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 26. August 2016, 13:13 UTC. URL: https://de.wikipedia.org/w/index.php?title=Versicherungstechnologie&oldid=157401432 (Abgerufen: 16. November 2016, 09:44 UTC).
(3)    McKinsey Studie: „Automating the insurance industry“ von: Sylvain Johansson und Ulrike Vogelgesang, 2016, URL: https://www.mckinsey.com/industries/financial-services/our-insights/automating-the-insurance-industry (Abgerufen: 16. November 2016).

Wann ist Big Data sinnvoll?

Big-Data-Technologien sind nicht die einzige Lösung, wenn es um viele Daten geht. Es gibt mehrere Kriterien, die über die Art der Datenverarbeitung entscheiden.

von Peter Welker

Technisch gesehen geht es beim Trendbegriff „Big Data“ um Daten, die durch ihre schiere Menge (Volume), den benötigten Datendurchsatz und die maximale Verzögerung (Velocity) sowie durch Komplexität und Variabilität (Variety) besondere Techniken für die Datenverarbeitung und Speicherung benötigen.(1) Der Einsatz traditioneller Technologie, wie relationaler Datenbanken, stößt bei solchen Anforderungen architekturbedingt irgendwann an seine Grenzen. Dasselbe gilt für nicht konsequent auf Parallelisierung ausgelegte Programmierparadigmen zur Verarbeitung der Daten.

Zu Beginn der Big-Data-Ära um 2010 konnte man es auf vielen IT-Konferenzen und in zahlreichen Publikationen spüren: Die neuen Lösungen rund um Hadoop und NoSQL sollten vor allem die althergebrachten analytischen Applikationen (z. B. Data-Warehouse) revolutionieren und ersetzen.
Die Investitionen in klassische analytische Anwendungen haben aber keineswegs darunter gelitten. (2) Relationale Datenbanken und klassische Datenintegrationswerkzeuge sind auch nicht so limitiert, wie es die Verfechter neuer Technologie gerne proklamieren. Das Laden, Transformieren und die optimierte Aufbereitung mehrerer hundert Millionen Datensätze pro Tag ist heute auch mit kostengünstiger Hardware kein Problem. Dennoch: Auch wenn die größten relationalen DWH-Datenbanken im zweistelligen Petabyte-Bereich liegen,(3) ist in den meisten Fällen im zwei- bis dreistelligen Terabyte-Bereich Schluss. Häufig wegen Lizenz- und Supportkosten für benötigte kommerzielle Software, nicht etwa weil die Grenze der technischen Leistungsfähigkeit erreicht wäre.
Es sind vielmehr neue Anforderungen, die mit neuen Techniken implementiert werden. Zur Verdeutlichung der Entscheidungskriterien pro oder contra Big-Data-Technologie betrachten wir drei Anwendungsfälle.

Process-Data-Warehouse

Data Warehouses müssen keineswegs nur Finanzdaten aufbereiten. Ein Übertragungsnetzbetreiber aus der Energiebranche lädt täglich 60 Millionen Mess- und Applikationswerte in ein relationales DWH und speichert sie dort für zehn Jahre, um beispielsweise schadhafte Bauteile zu analysieren oder die Zuverlässigkeit von Verbrauchsprognosen zu prüfen. Dafür müssen die Daten spätestens 20 Minuten nach ihrer Erzeugung für Zeitreihen- und andere Analysen optimiert bereitstehen (Latenz). Die wichtigsten auf diesen Daten basierenden Auswertungen benötigen dann jeweils weniger als fünf Sekunden und sind somit interaktiv durchführbar.

Besonders im Energiesektor fallen bei Erzeugung und Verbrauch enorme Datenmengen an, doch nicht immer kommen Big-Data-Technologien zum Einsatz.

Es sprechen erste Kriterien für Big-Data-Technologie. Überraschenderweise ist es aber keineswegs die Datenmenge, denn trotz vieler Datensätze bewegt sich das Volumen noch im unteren Terabyte-Bereich. Allerdings sind Wide-Column-NoSQL-Datenbanken besser für Zeitreihenanalysen geeignet als ihre relationalen Pendants. Dennoch entschied sich der Betreiber aufgrund des traditionellen Know-hows seiner Mitarbeiter, der Stabilität und sicheren Verfügbarkeit relationaler Tools für die klassische Lösung mit hohem Investitionsschutz und vergleichsweise niedrigen Kosten. Und das funktioniert. Die Anwendung skaliert bei Bedarf und stärkerer Hardware auch noch um den Faktor zehn.

Messdatenlandschaft

Es wäre ein Fehler, rein fachliche Kriterien für einen Technologieentscheid zu nutzen. In einem zweiten, ganz ähnlich gelagerten Fall befüllt ein Autozulieferer zwecks Analyse der Produktionsprozesse Dutzende örtlich separierte, aber gleichartige relationale Datenbanken mit Messdaten. Inzwischen bewegt sich das Gesamtvolumen deutlich im dreistelligen Terabyte-Bereich. Alle Informationen sind innerhalb einer Stunde – ebenfalls vorwiegend für Zeitreihenanalysen – fertig aufbereitet.

Im Zuge einer Zusammenführung dieser Datenbanken und eines zunehmend operationalen Monitorings müssen nun sehr zeitnahe Analysen ermöglicht werden. Darum ist es erforderlich, die Latenz auf maximal fünf Minuten zu reduzieren. Jetzt stellen sich neue Fragen: Wie repliziert man Daten aus unterschiedlichen Orten so schnell wie möglich in ein zentrales System, wenn Hunderte von Transformationsprozessen nötig sind und ebenso viele Benutzer gleichzeitig die Daten analysieren?

Wann soll ich Big-Data-Technologien einsetzen?

Wichtige Indikatoren für den Einsatz von Big-Data-Technologien lassen sich also zum einen aus den drei „V“ ableiten: Volume, Velocity und Variety. Wenn man für ein Vorhaben also eine oder mehrere der folgenden Fragen mit Ja beantwortet, ist demnach zumindest eine genauere Technologiebetrachtung angesagt:

Verarbeitungslatenz
Wie lange nach der Entstehung von Daten müssen Muster erkannt und daraus Aktivitäten abgeleitet werden? Habe ich Anforderungen im Minuten- oder Sekundenbereich – oder sogar noch darunter?
Datenvolumen
Wie groß ist die Datenmenge, die insgesamt vorgehalten werden muss? Komme ich weit in den Terabyte-Bereich oder darüber hinaus?
Skalierbarkeit
Muss die Verarbeitung „elastisch“ sein? Also: Werden starke Schwankungen bei der Last erwartet und soll die gewählte Lösung auch noch um den Faktor 10, 100 oder 1 000 nach oben skalierbar sein? Hilft mir eventuell der Einsatz von Cloud-Diensten?
Flexibilität
Wie vielfältig ist mein verfügbares Datenmaterial? Weiß ich jetzt schon, was ich später damit machen möchte?

Andererseits spielen natürlich auch nicht-technische Kriterien eine wichtige Rolle: Das Know-how der Mitarbeiter oder die Bereitschaft einer Abteilung oder eines Unternehmens, sich für reale Fragestellungen auf neue Wege einzulassen zum Beispiel. Ein gutes Erwartungsmanagement und ausreichend Budget für Implementierungsaufwände können ebenfalls wichtige Kriterien sein: Bei ersten Fragestellungen sind nicht immer revolutionäre Antworten zu erwarten und Big-Data-Anwendungen sind nicht einfacher oder kürzer (und damit billiger) als herkömmliche Projekte.

Relationale Datenbanken und klassische Datenintegration alleine erweisen sich dabei aufgrund der nötigen Latenz irgendwann als Flaschenhals. Besser eignen sich Vorgehensweisen aus dem Internet of Things – einer Domäne für Big-Data-Anwendungen: An jedem Standort werden neue (Sensor-)Daten innerhalb von Sekunden vorbereitet und für erste Analysen eine Weile im Hauptspeicher lokaler Rechner – ähnlich einem Gateway – vorgehalten. Die Datenströme fließen gleichzeitig in einen Event-Hub in der Cloud. An diesem bedienen sich alle weiteren Transformationsprozesse, die ihre Ergebnisse in einem großen, ebenfalls cloudbasierten NoSQL-Datenbankcluster ablegen.
Hier kommen zahlreiche Big-Data-Techniken zum Einsatz: Stream-Analytics und Transformationslösungen wie Spark, Event-Hubs wie Kafka und NoSQL-Datenbanken wie Cassandra. Sie wurden ursprünglich von Facebook, LinkedIn und dem APMLab der University of California ins Leben gerufen:

  • Im Gegensatz zu traditionellen Tools sind sie konsequent auf Skalierbarkeit ausgelegt. Die meisten Lösungen laufen ohne nennenswerten Overhead auf Clustern mit Hunderten oder Tausenden Rechnern.
  • Viele Tools werden von großen Entwicklergemeinden als Open-Source-Programme weiterentwickelt.
  • Hinter den meisten Produkten stehen zudem Unternehmen, die Enterprise-Level-Support und kommerzielle Varianten mit erweitertem Funktionsumfang anbieten.
  • Sie wurden als Open-Source-Software entwickelt und an die Apache Software Foundation weitergereicht. Inzwischen gibt es dafür  auch rein kommerzielle Alternativen, beispielsweise in der Microsoft Azure Cloud (Event-Hubs, Stream-Analytics).

Bewegungsdaten

Ein weiteres Kriterium für den Einsatz neuer Technologien ist neben Datenmenge und Durchsatz bzw. Latenz auch die Datenvielfalt. Während in relationalen Datenbanken stark strukturierte Daten genutzt werden, gilt das nicht für Big-Data-Anwendungen. Auch Texte, Videos, Bilder, Geodaten oder XML- und JSON-Dateien aus Web-Click-Streams oder Applikationslogs sind relevant.
In unserem dritten Fall nutzt ein Mobilfunkbetreiber neben Geodaten und GSM-Daten aus dem Funknetz auch zahlreiche weitere Quellen für analytische Anwendungen. Da inzwischen fast jeder ein angeschaltetes Handy mit sich führt, kann der Netzbetreiber je nach Netzausbau und Art des Funkverkehrs den Aufenthaltsort eines Teilnehmers recht genau orten. Zudem können Endgeräte und zum Teil auch die Teilnehmer identifiziert werden. Die dabei anfallenden Datenmengen sind sehr groß und bedürfen umfangreicher Interpretation. Dann aber lassen sich detaillierte Bewegungsprofile erzeugen.

Natürlich dürfen aus Datenschutzgründen die Daten aller Teilnehmer nur anonymisiert verarbeitet werden, sodass keine Rückschlüsse auf Personen möglich sind. Dennoch bleiben die Möglichkeiten vielfältig. So kann man mit diesen Verfahren sehr einfach zuverlässige Aussagen über den gegenwärtigen Straßenverkehrsfluss machen, Pendlerströme visualisieren, um typische Einzugsgebiete zu erkennen, oder Transit- von regionalem Verkehr unterscheiden.

Die dabei anfallenden Datenmengen überschreiten schon in kurzer Zeit die PetabyteGrenze und sind durchaus vielfältig. Wichtig sind historische Daten, aber manche Anwendungsfälle, wie die Verkehrsbetrachtung, benötigen auch zeitnahe Werte. Zudem will man beim Speichern der Daten eine Unabhängigkeit von den Datenstrukturen sicherstellen (Variety). Während bei der Speicherung in relationalen Datenbanken im Allgemeinen die Datenstruktur vorab bekannt sein muss, ist das bei der Datenablage in File-Systemen wie Hadoop nicht der Fall. Hier genügt es, erst beim Lesen der Daten über deren Struktur Bescheid zu wissen. Das ermöglicht auch das vorausschauende Speichern von Daten, für die heute noch keine ausgearbeiteten Einsatzzwecke vorliegen, die aber mit hoher Wahrscheinlichkeit eines Tages von Bedeutung sein werden.

Alle Indikatoren zeigen also in Richtung der neuen Technologien. Und folgerichtig werden hier beispielsweise Hadoop für die langfristige Speicherung von strukturierten und unstrukturierten Daten und Spark für die Transformation und Analyse dieser Daten eingesetzt. Damit ist neben einer kostengünstigen Ablage von Massendaten auch die Skalierbarkeit für zukünftige Fachanforderungen gesichert.

Quellen:

(1) https://blogs.gartner.com/doug-laney/files/2012/01/ad949-3D-Data-Management-Controlling-Data-Volume-Velocity-and-Variety.pdf, abgerufen am 02.11.2016
(2) https://tdwi.org/Articles/2015/03/31/Dimensional-Data-Warehouses-Get-Job-Done.aspx, abgerufen am 02.11.2016
(3) https://www.guinnessworldrecords.com/world-records/largest-data-warehouse, abgerufen am 02.11.2016

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Peter Welker

Location-based Services

Die Einsatzgebiete für Location-based Services sind vielfältig. Nicht nur im Bereich des Handels, sondern auch bspw. in Verwaltung und Kultur.

Die Redaktion im Gespräch mit Georgios Karachos, Gründer und Geschäftsführer der Qualigon GmbH, zu Trends im Rahmen der Indoor-Lokalisierung

Herr Karachos, für welche Anwendungsszenarien eignet sich Indoor-Lokalisierung?
Wir bekommen Lokalisierungsanfragen aus vielen unterschiedlichen Bereichen, wie Shoppingcentern, Krankenhäusern, Flughäfen, Messen, Museen, aus dem Büro- oder auch Facility-Management sowie der Industrie. Dabei haben die unterschiedlichen Szenarien individuelle Anforderungen an die Lokalisierung, einerseits bei der geforderten Genauigkeit, andererseits auch bei der Frage, ob Personen oder Güter lokalisiert werden sollen. Anhand dieser spezifischen Kriterien wählen wir die beste Lokalisierungs-Technologie aus und gewährleisten dem Kunden damit eine individuell angepasste Lösung und einen zuverlässigen Betrieb. Große Krankenhausanlagen haben zum Beispiel verzweigte und schwer zu findende Bereiche. Durch eine Lokalisierungslösung können Patienten gezielt zu den Behandlungsräumen geleitet werden. Dies ermöglicht einen reibungslosen Betrieb. Zusätzlich kann das Facility-Management unterstützt werden. Darüber hinaus ist es damit auch möglich, Objekte wie Defibrillatoren oder Krankenhausbetten zu lokalisieren. Auch in Shoppingcentern bietet die Nutzung eine Vielzahl von Vorteilen für den Betreiber und den Endkunden. Dies gilt natürlich auch für Filialketten. In beiden Szenarien gibt es vielfältige Anwendungen, dazu zählt primär die Navigation des Kunden zu diversen Zielen, wie zum Beispiel Shops, Stellplatz des eigenen Autos im Parkhaus oder Servicepoints. Im nächsten Schritt können die Kunden dann ebenfalls in den Shops zu bestimmten Bereichen geleitet werden. Lokalisierungstechnologien erleben aber auch durch Industrie 4.0 einen starken Aufschwung. Dabei unterscheiden wir den Bereich der Personenführung, wie zum Beispiel im Alleinarbeiterschutz, und den IoT-Bereich (Internet of Things), bei dem eine direkte Kommunikation zwischen den Maschinen (M2M) notwendig ist. Die Kenntnis der Position von Gütern und Geräten ist für einen optimierten Produktionsprozess ein immer wichtiger werdendes Kriterium. Ein weiterer Aspekt sind alle Messungen im Indoor-Bereich, die mit einer genauen Positionsinformation verknüpft werden müssen, zum Beispiel Analysen von Mobilfunk- oder WLAN-Netzen oder aber Umwelt-Analysen.

Wie könnten Shoppingcenter Lokalisierungstechnologien in ihre Wertschöpfungskette integrieren, um bestmögliche Kundenbindung zu erzeugen?
Center-Betreiber werden damit in die Lage versetzt, ihren Kunden ein neues Shopping-Erlebnis anzubieten. Der Kunde kann seinen Besuch zu Hause am PC vorplanen und sich über sein Smartphone vom Verlassen des eigenen Pkws bis zum Produkt durch das Center navigieren lassen. Das Center-Management sowie die jeweiligen Einzelhändler können anhand genauer Analysen der Kundenbewegungen eine vergleichsweise sichere Aussage über die Vorlieben und Verhaltensmuster des Kunden im Shoppingcenter treffen. Dies hilft, das Angebot besser auf den Kunden einzustellen, Stärken und insbesondere Schwachstellen zu identifizieren und die Effizienz von Marketingmaßnahmen einzuschätzen und zu optimieren. In Verbindung mit diversen Daten aus der geografischen und geschäftsspezifischen Umgebung des Objektes lässt sich deren Einfluss auf das Kaufverhalten, die Verweildauer des Kunden und die Umsätze der Retailer feststellen. Aus der Betrachtung mehrerer diesbezüglicher Zyklen lässt sich hier eine nützliche Prognose ableiten, die mittel- und langfristig eine Optimierung der Prozesse und Logistik des Retailers erlaubt. Darüber hinaus lässt sich in Verbindung mit einer entsprechenden Smartphone-Applikation, die die Navigations-Funktionalität enthält, die Kundenbindung erhöhen. Auch können Produkte und Dienstleistungen über dieses Medium personalisiert beworben werden. Shoppingcenter können ihre Besucher-Bereiche als virtuelle Marketing-Flächen anbieten. Ein zusätzlicher, nicht zu vernachlässigender Nebeneffekt für den Shoppingcenter-Betreiber ist hier die Möglichkeit, diese Marketingflächen an interne und externe Retailer und Dienstleister zu vermieten und somit die Investitionen in das System refinanzieren zu können.

Was für einen konkreten Nutzen hat der Endanwender – wie hilft ihm die Lösung?
Im Shoppingcenter kann der Endkunde zunächst auf einfache Art und Weise seine bevorzugten Shops und gewünschte Servicepoints im Shoppingcenter finden. Ganz besonders positiv wird der Kunde diese Funktionalität insbesondere in größeren und unübersichtlichen Shoppingcentern empfinden. Des Weiteren ist die Möglichkeit gegeben, in Parkhäusern, die größtenteils nur noch schwer zu unterscheidende Bereiche aufweisen, sein Auto schnell und unkompliziert wiederzufinden. Ein Vorteil, den jeder Kunde insbesondere nach der ersten Erfahrung einer längeren Suche nach seinem Fahrzeug in einem großen Parkhaus zu schätzen wissen wird. Im Krankenhaus können Patienten und Besucher geführt werden. Ein weiterer wichtiger Anwendungsfall ist das Auffinden von Gerätschaften, wie Defibrillatoren und Betten, sowie das Überwachen von Blutkonserven. Krankenhausbetreiber können auf skalierbare Lösungen zurückgreifen. Daneben ist auch die Navigation des Facility-Managements und von Maintenance-Mitarbeitern zu bestimmten Wartungspunkten ein wichtiges Anwendungsszenario, da so auch Externe schnell und eindeutig zu ihren Arbeitsstellen geführt werden können, ohne komplizierte Pläne oder Personal des Auftraggebers nutzen zu müssen. In der Industrie unterstützen Lokalisierungs-Systeme den Alleinarbeiter in kritischen Situationen. Auch bei der Lagerhaltung optimieren wir bereits vorhandene IT-Lösungen.

Wie verläuft die konkrete Implementierung vor Ort?
Im ersten Schritt nehmen wir die Anforderungen des Kunden auf und spezifizieren gemeinsam das komplette System. Basierend auf diesen Informationen stellen wir aus unserem Portfolio die passenden Technologien zusammen. Je nach Szenario können wir dabei die Anforderung des Kunden an die Genauigkeit bis hin zu zehn Zentimetern abdecken. Unter Umständen sind in dem Implementierungsprozess auch Anpassungen an bereits vorhandene IT-Systeme des Kunden notwendig. Anschließend planen wir die Infrastruktur für die Lokalisierung mit Funkplanungs-Software basierend auf den beschriebenen Genauigkeits-Anforderungen. Schließlich erfolgt die Installation der benötigten Infrastruktur. Parallel zu diesen Schritten wird eine eigene mobile App für den Kunden erstellt oder eine bereits bestehende erweitert. Nach einer Qualitäts-Überprüfung des kompletten Systems und natürlich auch der Genauigkeit kann der Kunde das System übernehmen. Zusätzlich bieten wir die vollständige Wartung oder auch den Betrieb des Systems an.

Kernaussagen

  • Durch die Indoor-Lokalisierung können in Gebäuden Personen geführt und Güter lokalisiert werden.
  • Indoor-Lokalisierungs-Lösungen sind dabei, in den Bereichen Industrie, Gesundheitswesen sowie Groß- und Einzelhandel zum Standard zu werden.
  • Indoor-Lokalisierung vereinfacht und optimiert in Verbindung mit Business-Intelligence die Prozessabläufe in unterschiedlichen Szenarien.
  • Indoor-Lokalisierungs-Systeme erhöhen die Arbeitssicherheit.
  • Durch Indoor-Lokalisierung können neue Dienste generiert und bereits bestehende Dienste erweitert werden.

Wie wird sich die Technologie weiterentwickeln?
Wir erwarten, dass die Lokalisierungs-Technologie immer stärker zu einem Standard ähnlich wie GPS wird. Die für die Lokalisierung verwendete Infrastruktur wird ein integraler Bestandteil der Gebäudetechnik wie zum Beispiel eine Brandmeldeanlage sein und wird mit anderen Komponenten, im Rahmen von Smart Buildings, interagieren. Hier erwarten wir nach wie vor energiesparende, kostengünstigere, noch leistungsfähigere Geräte und sich daraus ergebende neue Möglichkeiten. Wir erkennen, dass die unterschiedlichen Sparten ein starkes Interesse an den Diensten, die die Lokalisierung bietet, haben. Das sind neben den erwähnten Dienstleistungen für den Besucher oder dem Auffinden von Gütern und Waren ganz besonders die positionsbezogenen Analysen. Durch diese neuen Datenquellen ergeben sich moderne Dienste-Dimensionen, die von der Business-Intelligence über Marketing, Asset-Tracking bis hin zur Security und Arbeitssicherheit reichen. Wir beschäftigen uns schon lange mit Business-Intelligence in Verbindung mit Positionsdaten und bieten auch diese komplexen Prozesse und Analysen aus einer Hand. Die steigende Nachfrage zeigt, dass Lokalisierungs-Dienste, wie z. B. das Tracking von Assets, zu einem Standard werden. Durch die beständige Optimierung dieser Bereiche sind unsere Kunden für das Zeitalter der digitalen Transformation gerüstet.

Genauigkeit und Einsatzfeld typischer Ortungssysteme für Location-based Services (Quelle: Qualigon)

Wäre eine „Kopplung“ mit anderen Navigationslösungen denkbar?
Wir können die Indoor-Lokalisierungs-Technologien z. B. mit den bekannten GPS-Systemen verknüpfen. Damit ist ein nahtloser Übergang zwischen der Indoor- und Outdoor-Lokalisierung möglich. Dies erspart dem Kunden die Notwendigkeit, den Outdoor-Bereich, wie z. B. Lagerflächen, Parkanlagen oder Außenparkplätze, mit Infrastruktur auszustatten. Bei einer Integration der unterschiedlichen Dienste in schon bestehende Systeme ist es auch möglich, den Kunden, der mit dem Auto kommt, bis zum Parkhaus zu leiten. Von dort übernimmt sein Smartphone die Navigation durch die Fußgängerzone oder das Shoppingcenter bis zum Regal, in dem das Produkt zu finden ist. Mit entsprechenden Informationen ist die mobile App in der Lage, den Kunden zu einem freien Parkplatz zu führen, der den kürzesten Weg zum Shop mit dem ausgewählten Produkt aufweist.

Bieten Sie Schnittstellen für App-Entwickler, Ihre mit dem Fraunhofer IIS gemeinsam entwickelten Technologien und Dienste zu nutzen?

Das System bietet verschiedene Schnittstellen, die auch von externen App-Entwicklern genutzt werden können, um ihre Applikationen mit der Lokalisierungs-Technologie zu erweitern. Dies ist auch notwendig, da viele Kunden bereits eigene mobile Applikationen besitzen, die um die Lokalisierungsmöglichkeit angereichert werden sollen. Basierend auf den Anforderungen passen wir auch die Schnittstellen an bestimmte bereits im Unternehmen genutzte Systeme an.

Wie stellen Sie sicher, dass die Dienstequalität gewährleistet wird?
Lokalisierungs-Systeme bestehen in der Regel aus mehreren Modulen wie Infrastruktur, gegebenenfalls Apps für Smartphones, diversen Server-Komponenten und den bereits angesprochenen Schnittstellen zu anderen Systemen. Um die Qualität der zugehörigen Dienste gewährleisten zu können, müssen die einzelnen Module fehlerfrei zusammenwirken. Für den Kunden übernehmen wir die Installation, den Betrieb und die Wartung der Infrastruktur. Somit ist die Lokalisierungs-Genauigkeit, welche zum Beispiel für Business-Intelligence-Systeme maßgeblich ist, nicht nur einmalig nach der Installation, sondern auch für die Zukunft gewährleistet. Für die Sicherstellung der Netzqualität überprüfen wir die vorhandenen WiFi- und Mobilfunknetze durch eigene Messsysteme. Dabei ergibt sich in der Regel ein Optimierungsbedarf der Netze, um die Kundenanforderungen erfüllen zu können. Auch bei der Implementierung liefern wir unseren Beitrag zur Sicherstellung der Quality of Experience. Hier begleiten wir die Entwicklung der Applikationen und die damit verbundenen Dienste durch das automatisierte Testen auf einer Vielzahl von Smartphones und Tablets. Um eine fehlerfreie Kommunikation zwischen Applikation und Server-Komponente gewährleisten zu können, führen wir ein kontinuierliches Monitoring von Diensten durch. Damit stellen wir die vom Kunden gewünschte Qualität sicher. Natürlich sind bei den angesprochenen Komponenten die Security sowie der Datenschutz wichtige Aspekte, die berücksichtigt werden müssen. Wir arbeiten hier mit spezialisierten Partnern zusammen, die uns dabei unterstützen, den Kunden den bestmöglichen Service zu bieten.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Georgios Karachos

"Chess" (CC BY 2.0) by  Agianda 

Kommunikation – Herzstück erfolgreicher Digitalstrategien

von Klaus Stöckert

Die aktuelle Entwicklung digitaler Technologien teilt die Unternehmenswelt in zwei Gruppen: Die eine sind Firmen, die ihre digitale Transformation bereits angehen oder schon hinter sich haben. Und dann die zweite Gruppe, die Firmen, die den Wandel noch vor sich haben – oder ihr Business an disruptive, digitale Geschäfts­ideen verlieren. Unify, das Tochterunternehmen von Atos für Kommunikationssoftware und -services, gehört zur ersten Gruppe. Die digitale Transformation hat Unify zahlreiche Erkenntnisse gebracht, wie Unternehmen die Digitalisierung optimal angehen können. Ein wichtiger Lerneffekt: Soll die digitale Strategie Erfolg haben, darf sie sich nicht auf ein Produkt oder eine bestimmte Technologie fokussieren. Vielmehr müssen der Mensch und damit auch das Team im Mittelpunkt stehen. User-Experience wird zum wichtigen Stichwort.

Kulturwandel bereits im Gang

Klaus Stöckert

Eine Studie im Auftrag von Unify aus dem Jahr 2016 belegt, dass der Kulturwandel bereits in vollem Gange und auch bei den Arbeitnehmern angekommen ist. Die Studie „The Way We Work“, für die weltweit rund 9 000 Wissensarbeiter befragt wurden – davon 3 019 in Deutschland –, zeigt: Über die Hälfte (55 %) der befragten deutschen Wissensarbeiter gehen davon aus, dass sich ihre Rolle im Unternehmen in Zukunft ändern wird. Die Gründe dafür sind vielfältig: Die Arbeitswelt verändert sich rasant, die Wirtschaft entwickelt sich hin zu einer On-Demand-Economy. Die digitale Transformation spielt dabei ebenso eine wichtige Rolle.
Die Veränderungen für die Mitarbeiter sind bereits jetzt deutlich spürbar, wie die Umfrage zeigt. Eine wichtige Erkenntnis lautet nämlich, dass Virtualität für viele Teams die neue Realität ist. Global gaben bereits über die Hälfte (52 %), in Deutschland immerhin schon rund ein Drittel (34 %) der Wissensarbeiter an, dass sie jetzt stärker in virtuelle Teams eingebunden sind, als das früher der Fall war. Virtuell bedeutet in diesem Fall, dass die Teams über verschiedene Büros und Standorte, also über größere Entfernungen hinweg zusammenarbeiten. Generell steigt die Bedeutung von Technologie. Fast die Hälfte der Befragten weltweit (49 %) sowie in Deutschland (48 %) gaben an, dass ihr Unternehmen eher durch Technologie und Kommunikation funktioniert statt auf Basis von lokalen Büros und Standorten.

Schlüsselfaktor Kommunikation

Kommunikation ist dabei ein Faktor, der kaum hoch genug einzuschätzen ist. Um in virtuellen Teams genauso gut und produktiv zusammenzuarbeiten wie aus dem herkömmlichen Büro gewohnt, oder sogar noch besser, brauchen die Mitarbeiter das richtige Werkzeug. Lösungen für Kommunikation und Zusammenarbeit, die technisch hoch belastbar sind und nicht frühzeitig an ihre Grenzen kommen, sind hier unabdingbar. Solche Tools für „Unified Communications and Collaboration“ (UCC) integrieren idealerweise alle Kommunikationskanäle auf einer übersichtlichen, leicht bedienbaren Oberfläche – so, wie die Mitarbeiter das aus den privat genutzten Apps und Portalen gewohnt sind. Noch steht die Entwicklung in diesem Bereich am Anfang. Die klassische E-Mail ist nach wie vor des deutschen Wissensarbeiters liebstes Kommunikationsmittel. Rund die Hälfte (46 %) gaben das bei der Umfrage an. Trotzdem nutzt bereits ein Fünftel (20 %) von ihnen regelmäßig Videokonferenzen. Auch On-Demand-Werkzeuge stehen hoch im Kurs: 63 Prozent der Befragten nutzen diese internet- oder cloudbasierten Dienste regelmäßig oder zumindest gelegentlich.

Kernaussagen

Die digitale Transformation ist unausweichlich – Unify spricht aus Erfahrung. Allerdings müssen statt Produkten und Technologie Menschen und Teams im Mittelpunkt der digitalen Strategie stehen, um erfolgreich zu sein.
Der Kulturwandel hin zum Digital Workplace ist bereits im Gang, wie eine Studie von Unify zeigt: Der klassische Arbeitsplatz verändert sich rasant. Kommunikation spielt dabei eine zentrale Rolle.
Kommunikationsplattformen wie Circuit von Unify, die nahtlos in vorhandene UCC-Lösungen integriert und unabhängig vom eingesetzten Endgerät sind, bieten eine ideale Möglichkeit, virtuelle Teams und Remote Worker zu vernetzen.

Der digitale Arbeitstag – anders als gewohnt

Der Arbeitstag eines virtuellen Wissensarbeiters unterscheidet sich heute entsprechend von der herkömmlichen Routine. Der wohl größte Unterschied: Es spielt im virtuellen Team keine Rolle mehr, von wo aus die einzelnen Teammitglieder arbeiten, solange sie einen stabilen Internetzugang haben. Der Arbeitstag beginnt mit einem Blick in die Kommunikationsplattform – gibt es neue Informationen? Sind Dateien geändert worden und müssen überprüft werden? Idealerweise funktioniert das alles mit wenigen Klicks auf einer einzigen Oberfläche. Anschließend steht die Teambesprechung an. Ein weiterer Klick, schon nimmt der Mitarbeiter an einer Videokonferenz teil. Kein Wechsel des Arbeitsortes mehr, keine Suche nach einem freien Besprechungsraum, schon gar keine langwierigen Dienstreisen. Zuletzt ist ein Bericht fällig – die Daten und Fakten, die als Grundlage dienen, sind alle einfach erreichbar und im richtigen Kontext abgelegt. Damit geht die Bearbeitung schnell, die generierten Dateien lassen sich ebenso schnell und einfach wieder im richtigen Zusammenhang einbetten. Vor dem Feierabend noch ein schneller Blick auf die Kommunikationsplattform, diesmal nicht vom Laptop aus, sondern übers Smartphone. Die Oberfläche ist dieselbe, das erleichtert die Bedienung wesentlich.

Damit all das auch so funktioniert, müssen solche UCC-Lösungen nahtlos in bestehende Infrastrukturen eingebunden werden. Außerdem müssen sie flexibel skalieren können, damit neue Teammitglieder schnell und einfach eingebunden werden können. Dazu gehören sowohl neue und bestehende Mitarbeiter als auch Freelancer oder externe Partner und Zulieferer. Das wird künftig noch wichtiger werden, wenn Teams ganz im Sinne des On-Demand-Ansatzes kurzfristig und projektbezogen zusammengestellt, vergrößert und dann möglicherweise auch wieder aufgelöst werden.

In fünf Schritten zur optimalen Kommunikation

Damit die digitale Wandlung gelingt, sollten Unternehmen insbesondere die Infrastruktur für Kommunikation und Zusammenarbeit gründlich aufsetzen. Die folgenden fünf Schritte führen zum Erfolg:

1. Die Strategie ist das Fundament
Unternehmen brauchen eine umfassende Strategie, die alle Prozesse, Unternehmensbereiche und natürlich die Mitarbeiter mit einschließt. Sonst greift die Veränderung zu kurz. Es sollte selbstverständlich sein, dass ein so tief greifender Wandel Chefsache ist und nicht nur an einzelne Abteilungen delegiert werden kann.
2. Prozesse klar definieren
Steht die Strategie, müssen die verschiedenen digitalen Prozesse definiert werden und es muss eine Roadmap entstehen. Sie legt klar fest, was genau bis wann umgesetzt werden muss, wer dafür verantwortlich ist und wie der jeweilige Bereich in die Gesamtstrategie eingebunden ist.
3. Die vorhandene Infrastruktur unter die Lupe nehmen
Jedes Unternehmen verfügt bereits über Kommunikationsmittel, und seien es nur Tischtelefone. Soll die Kommunikation digitalisiert werden, muss jetzt genau geprüft werden, wie die bestehende Infrastruktur aussieht. Ist erst vor Kurzem viel investiert worden? Dann soll dieses Investment natürlich geschützt werden. Oder ist die vorhandene Telefonanlage beinahe schon antik? Dann stünde ein Austausch ohnehin über kurz oder lang auf der Agenda und kann jetzt angepackt werden.
4. Lösungen und Partner suchen
Im nächsten Schritt geht es dann an die Auswahl der passenden Lösung. Hier sollten die Verantwortlichen den eigenen Bedarf genau kennen: Ein kleines Unternehmen ist mit einem System für Großkonzerne schlecht beraten, sie bezahlen dabei für Ressourcen, die sie nicht nutzen. Im schlechtesten Fall sind sie mit der Instandhaltung überfordert. Große Unternehmen dagegen brauchen mög­licher­weise eine flexible Lösung, um möglichst schnell skalieren zu können. Ist ein eigenes IT-Team vorhanden, das Installation und Wartung übernehmen kann? Ansonsten ist es ausgesprochen wichtig, einen guten Service-Partner zu finden. Hier gilt es, die vereinbarten Service-Level-Agreements (SLAs) genau zu prüfen – je nach Branche können einige Stunden Downtime völlig unproblematisch sein oder aber das Geschäft gefährden.
5. Digitalisierung bedeutet Kulturwandel
Hier schließt sich der Kreis: Digitalisierung ist weit mehr als eine rein technische Angelegenheit. Sind erst einmal die technischen Fragen geklärt, muss sich auch die Kultur im Unternehmen ändern. Die Strategie für den „New Way to Work“ kann noch so ausgefeilt sein – wenn sie nur im Rechenzentrum ankommt, aber nicht in den Köpfen und Herzen der Mitarbeiter, dann sind die Aussichten auf Erfolg gering.

UCC-Plattformen: offen, flexibel, intuitiv

All diese Punkte sind in die Entwicklung von Circuit eingeflossen, der Collaboration-Plattform von Unify. Einer der wichtigsten Aspekte war der Bedienkomfort. Gemeinsam mit frog design entwickelte Unify eine einheitliche, intuitive Bedienoberfläche für sämtliche Endgeräte, vom PC über Tablets bis hin zu Smartphones. Alle nötigen Informationen sind in umfangreichen Kontext eingebettet und einfach über die Suchfunktion zu erreichen. Die Inhalte sind übersichtlich in Konversationen strukturiert, ganz so, wie Menschen normalerweise miteinander kommunizieren und zusammenarbeiten. Um die nötige Integrationsfähigkeit und Skalierbarkeit zu gewährleisten, sollte eine solche Plattform auf offenen Standards basieren und über gut dokumentierte Programmierschnittstellen (APIs) verfügen. Unify hat Circuit beispielsweise von Anfang an als „Collaborative Platform as a Service“ (cPaaS) konzipiert – also als Webservice mit möglichst offenem Zugang für Entwickler. Mehrere Hackathons haben bereits gezeigt, dass neue Entwicklungen einfach zu bewerkstelligen sind und die Lösung damit an die unterschiedlichsten Bedürfnisse angepasst werden kann. Was mindestens ebenso wichtig ist: Die Lösung muss ohne Komplikationen auf jedem Endgerät funktionieren. Unify setzt dafür auf WebRTC. Der Standard macht die Übertragung von Voice- und Videodaten in Echtzeit über den Browser möglich, ohne dass dafür Clients installiert oder Plug-ins heruntergeladen werden müssen. Damit wird der Browser zur Kommunikationszentrale.

Was ist WebRTC?

„Web-based Real-Time Communications“ ist aus einem Projekt entstanden, das Google 2010 initiiert hat. Ziel ist es, einen übergreifenden Standard für Protokolle und Programmierschnittstellen zu entwickeln, der für alle Browser gültig ist. Damit ist Echtzeitkommunikation über jeden beliebigen Browser möglich, indem Daten vom Browser des Gegenübers abgerufen werden. WebRTC ist quelloffen, so können Entwickler die Technologie in eigene Anwendungen integrieren. Seit Frühjahr 2011 ist WebRTC im Standardisierungsprozess des World Wide Web Consortium (W3C). Maßgebliche Unterstützer sind Google, Mozilla und Opera Software ASA. Unify macht seit Ende 2014 diese Technologie mit seinem Cloud-Service Circuit.com für Unternehmen nutzbar.

Diese Art von flexiblen, leicht integrierbaren und skalierbaren Plattformen macht die Zusammenarbeit in virtuellen Teams einfach und produktiv. Damit sind Unternehmen in der Lage, einerseits die eigenen Mitarbeiter in die digitale Zukunft zu bringen und die Strukturen und Abläufe an den digitalen Wandel anzupassen. Andererseits lassen sich damit auch Kunden leichter und direkter ansprechen, weil die Kommunikation intuitiv, nahtlos und im richtigen Kontext abläuft.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Klaus Stöckert

Handel mit Zukunft: Customer-Centricity

Dem Kunden mithilfe digitaler Technologien Einkaufserlebnisse zu bieten, die ihm im Gedächtnis bleiben, ist die heutige Herausforderung.

von Frank Zscheile

Der Kunde ist König, diese Weisheit gilt im Handel im Grunde schon immer (den real existierenden Sozialismus einmal außen vor gelassen). Seit einiger Zeit nun erfährt sie gleichsam eine Renaissance. „Customer-Centricity“ heißt es heute, wenn Unternehmen ihre gesamte Kultur, Strategie und damit Wertschöpfungskette an den Wünschen und Bedürfnissen des Kunden ausrichten.

Dass „Customer-Centricity“ über den bloßen Begriff des „König Kunde“ hinausführt, liegt an der digitalen Transformation. Deren neue Techniken versetzen Handelsunternehmen in die Lage, Customer-Journey und Customer-Experience positiv zu beeinflussen. Wenn sie etwa die ureigenen Vorteile des stationären Geschäfts geschickt mit den Möglichkeiten der Online-Welt verknüpfen. Oder durch digitale Technologien die „echten“ Bedürfnisse ihrer Kunden auf bisher nicht gekannte Weise erschließen. Entlang von Touchpoints im Laden oder durch Online-Befragungen lässt sich die Kundenhistorie sehr engmaschig erstellen.
Customer    -Centricity bedeutet also weit mehr als bloße Neugestaltung von Sortiment, Ladenfläche oder Werbemaßnahme. Es findet im Handel vielmehr ein Kulturwandel statt, der auf den neuen Möglichkeiten der Digitalisierung basiert. Sie stellt Unternehmen vor bislang ungekannte Herausforderungen: Märkte werden transparent und schnelllebig und was heute angesagt ist, kann schon morgen überholt sein. Touchpoints entlang der Customer-Journey wollen erschlossen und bedient werden. Lokale Händler müssen sich der Konkurrenz global agierender Internetkonzerne stellen. Neue Medien, moderne Kommunikationskanäle, Internet of Things und die Methoden für Echtzeitanalysen riesiger Datenbestände kommen als Technologien zum Einsatz. Sie setzen die Trends und schaffen gleichzeitig neue Geschäftsmodelle.

Der Handel der Zukunft, er entsteht in diesem Moment! Wer hier mithalten will, muss auf die digitale Transformation setzen. Denn wie selbstverständlich tragen die Kunden ihre gestiegenen Erwartungen aus dem privaten Umfeld an den Handel heran: Eine direkte und individualisierte Kommunikation, wie sie sie aus sozialen Medien kennen; Produkte und Services, die sie jederzeit, mobil und auf einfache Art und Weise einsehen, bestellen und bewerten können – dies möchten sie bitte auch von ihrem Händler geboten bekommen. Wer agil ist und mit den passenden Methoden den Kunden ins Zentrum rückt, hat dabei die entscheidenden Erfolgsfaktoren auf seiner Seite.

Weiterführende Reportagen aus TREND REPORT

Heft 3/2015 „Vernetzte Gesellschaft“
„Handel mit Zukunft“, Autor Chris Löwer
https://trendreport.de/handel-mit-zukunft/

 

 

Heft 1/2016 „Creative Companies“
Reportage „Future Store“, Autor Chris Löwer
https://trendreport.de/future-store-handel-mit-zukunft/

 

 

Heft 3/2016 „#DigitaleTransformation“
„Future Store 2.0 – Handel mit Zukunft“,
Autor Frank Zscheile
https://trendreport.de/future-store-2-0-handel-mit-zukunft/

 

 

 

Dem Kunden mithilfe digitaler Techniken neue Kundenerlebnisse zu verschaffen, ist also die heutige Herausforderung für Handelsunternehmen. Dass dafür Kundendaten benötigt werden – und zwar je mehr, desto besser–, darin sehen Fachleute derzeit allerdings noch einen Hemmschuh bei der digitalen Transformation. Zumindest bei deutschen Unternehmen, die der internationalen Konkurrenz an dieser Stelle noch hinterherlaufen. Zwar plaudern die Menschen auf Facebook & Co. Intimes in großer Menge heraus, gleichzeitig sorgen sie sich aber um die Sicherheit und Verwertung einmal preisgegebener Daten.
Flankiert wird diese Haltung durch eine in Deutschland starke Regulierung der Datenverwendung. Da fällt es schwer, mal eben ein digitales Profil des Kunden anzulegen, um ihn besser kennenzulernen und damit bedienen zu können. Die Unternehmen wissen dies und fordern von ihren Kunden folglich weniger Daten ein, als sie für den Aufbau neuer Geschäftsmodelle eigentlich bräuchten. Bis also Systeme zur Vorhersage des Kaufverhaltens („Predictive Marketing“) nicht nur im angelsächsischen und asiatischen Raum, sondern auch hierzulande im Sinne der digitalen Transformation eingesetzt werden, braucht es wohl noch einige Zeit.

Zukunft des 3D-Drucks und Industrie 4.0

Die TREND-REPORT-Redaktion im Dialog mit Prof. Dr. Welf Wawers von der Hochschule Bonn-Rhein-Sieg über das Thema 3D-Druck und die Folgen für die Industrie 4.0.

Herr Prof. Dr. Wawers, welches Potenzial hat die 3D-Drucktechnologie für das Internet of Things bzw. für Industrie 4.0?
In der Industrie 4.0 stehen intelligente Maschinen, Anlagen und Geräte, kurz cyberphysische Systeme, in Kommunikation und Kooperation mit Menschen, Logistik und Produkten. Ziel dieser Vernetzung ist die endverbrauchernahe industrielle Produktion des personalisierten Produkts, am liebsten in Echtzeit. Diese gewollt dezentralisierte Organisation kann nicht an einer zentralisierten Fertigungsstätte, beispielsweise einem Fließband in Fernost, enden. Hier muss, in logischer Konsequenz, eine disruptive Technologie wie der 3D-Druck stehen, der dann quasi die Vollendung dieses Wertschöpfungsnetzwerks bildet. Mit ihrer extrem hohen Flexibilität ist die 3D-Drucktechnologie in der Lage, die von den cyberphysischen Systemen über das Internet der Dinge gesammelten Daten zur z. B. Beanspruchung, Nutzung oder Alterung eines Produktes direkt in entsprechende bauliche Optimierungen umzusetzen. Für jedes einzelne Produkt, wohlgemerkt. Das Austauschprodukt oder Nachfolgemodell steht dann für den Nutzer passend zum Ende des Produktlebens zur Abholung bereit. Und zwar in der intelligenten Fabrik 4.0, zwei Straßenecken weiter. Tatsächlich haben jetzt schon laut der Erhebung des jungen Amsterdamer Unternehmens 3D Hubs eine Milliarde Menschen Zugang zu einer 3D-Produktionsstätte in höchstens 16 km Entfernung. Und Schätzungen gehen davon aus, dass sich die Zahl der 3D-Drucker jährlich verdoppeln wird.

Was ist in diesem Kontext dann disruptiv?
Durch die sich der 3D-Drucktechnik bedienende Fabrik 4.0 wird nahezu jeder Bereich der Produktentstehungskette beeinflusst, wenn nicht revolutioniert. Das beginnt bereits bei der Produktplanung und -bewerbung. In der konservativen Massenproduktion stellen aufwändige Studien und Feldversuche sicher, dass ein und dasselbe Produkt die Bedürfnisse eines möglichst großen Personenkreises erfüllt. Die individualisierte 3D-Drucktechnik stellt diese Sichtweise auf den Kopf. Nicht mehr das in den Forschungsabteilungen ausgeklügelte Design eines Produkts entscheidet über dessen Markterfolg, sondern wie weit sich dieses Design bei voller Funktionalität individualisieren lässt. Auch ermöglicht die 3D-Drucktechnologie die Herstellung völlig neuer Produkte mit hochkomplexem, bislang nicht herstellbarem Design. Stichwort hier ist beispielsweise der Leichtbau nach dem Vorbild von Knochenstrukturen. Reverse Engineering, die Erforschung und der Nachbau vorhandener Strukturen, erhält hier einen ganz neuen Stellenwert in den Entwicklungsabteilungen. Vor nicht minder großen Neuerungen steht die Produktion, Logistik und Lagerhaltung. Mit der 3D-Drucktechnik wird die Herstellung eines Einzelstückes genauso kostengünstig wie ein Bauteil aus der Massenproduktion. Damit wird einer der Hauptauslöser der zweiten industriellen Revolution, heute würde man sagen der Industrie 2.0, praktisch zu Grabe getragen. Die hochautomatisierte Produktion 4.0 ist darüber hinaus auch in Hochlohnländern rentabel. Die Verlagerung von Produktionsstätten nach Fernost und der damit verbundene weltweite Warentransfer sind nicht mehr erforderlich. Die Hersteller von Massenprodukten müssen dann nicht nur die Konzeption und Lage ihrer Fabrikationsstätten überdenken, sie sehen sich auch einer neuen Konkurrenz gegenüber. Mit konventionellen Fertigungsverfahren stellt der Einstieg in ein neues Produkt oftmals eine große finanzielle und logistische Herausforderung dar. Produktionslinien müssen umgestellt werden, Arbeiter an neuen Maschinen angelernt werden usw. Verglichen damit sind die Anstrengungen in der hochflexiblen 3D-Drucktechnologie minimal. Ein und dieselbe Maschine kann heute Zahnbürsten produzieren und morgen Turnschuhe. Lediglich Herstelldaten und Rohmaterial müssen ausgetauscht werden. Damit fallen für viele Firmen Hindernisse weg, die bislang den Einstieg in neue Produkte erschwerten oder gar verwehrten. Wenn wir noch einen Schritt weiterdenken, wird sich die Produktion auch in die Haushalte verlagern, die zunehmend über eigene 3D-Drucker verfügen. Einige Medien sprechen hier bereits von einer „Demokratisierung des Produkts“. Auch wenn die 3D-Drucktechnologie die konventionellen Fertigungsmethoden nicht vollständig verdrängen wird, werden durch sie tiefgreifende Veränderungen ausgelöst. Nicht nur in der Produktion, auch im Handel und in der Gesellschaft.

Wie reagiert darauf die deutsche Maschinenbaubranche? Was sollten dann deutsche Maschinenbauer tun und wie schnell wird sich der 3D-Druck verbreiten?
Die traditionell eher konservativ eingestellte deutsche Industrie scheint dieser neuen Technologie gegenüber recht aufgeschlossen zu sein. Laut einer aktuellen Studie von Ernst & Young sind deutsche Firmen beim 3D-Druck sogar weltweit führend, was die Umsätze mit 3D-Produkten angeht. In Zahlen ausgedrückt kommt Ernst & Young auf einen Jahresumsatz von fast einer Milliarde Euro, bei weltweit ca. 10 Milliarden Euro. Verglichen mit dem Gesamtumsatz des deutschen Maschinenbaus, in 2015 rund 247 Milliarden Euro, ist das aber immer noch relativ gering. Umso überraschender ist, dass von den 200 deutschen von Ernst & Young befragten Unternehmen immerhin 37 % Prozent angaben, die 3D-Drucktechnologie bereits zu nutzen. Die Diskrepanz erklärt sich wahrscheinlich dadurch, dass viele der befragten Firmen die Technik für interne Prozesse nutzen, beispielsweise den Prototypenbau, und keinen direkten Umsatz mit dem Vertrieb dieser Bauteile erzielen. Es gibt aber auch kritische Stimmen, die die deutsche Maschinenbaubranche der Technologie hinterherfahren sehen. So schrieb das manager-magazin noch 2015 von der Gefahr, dass deutsche Unternehmen den Siegeszug des 3D-Drucks verschlafen könnten. Als einer der weltweiten Vorreiter wurde hier China genannt, wo heute bereits neben kompletten Autos auch Wohnhäuser im 3-Druck erstellt werden. Während das in Deutschland derzeit noch undenkbar ist, planen die Chinesen bereits mit einem weltweiten Massenmarkt. Und die Nachfrage gibt ihnen Recht, Ägypten hat zum Beispiel schon 20 000 gedruckte Häuser geordert. Tatsache ist, dass wir weltweit gerade erst dabei sind, das immense Potenzial und die revolutionierenden Veränderungen zu begreifen, die mit der rasant anwachsenden 3D-Drucktechnologie einhergehen. Schätzungen sehen das jährliche Wachstum des Marktes bei 30 % (Roland Berger) oder sogar 34 % (Morgan Stanley). Der US-Marktforscher Gartner geht davon aus, dass bereits 2018 50 % aller Hersteller von Konsumgütern, Schwergütern und Biogütern die 3D-Drucktechnik nutzen werden. Siemens sagte 2015 für die nächsten fünf Jahre ein Anwachsen der Druckgeschwindigkeit um 400 % bei gleichzeitiger Halbierung der 3D-Druckkosten voraus. Wenn man die Zahlen der weltweit verkauften 3D-Drucker betrachtet, summieren sich diese in konservativen Schätzungen für 2020 auf ca. 25 Millionen, die wiederum Milliarden von Bauteilen ausdrucken werden. Der Zug ist also noch lange nicht abgefahren, im Gegenteil. Baldiges Aufspringen wäre aber trotzdem ratsam.

In welchen Industriezweigen wird sich der 3D-Druck zunächst durchsetzen?
Bereits lange fest etabliert ist der 3D-Druck im Prototypenbau, der ersten, als „Rapid Prototyping“ bezeichneten Anwendung. Aber auch im Werkzeugbau, Formenbau und in der Ersatzteilherstellung hat das Verfahren als „Rapid Manufacturing“ oder auch „Additive Manufacturing“ Fuß gefasst. Hier haben die großen, teilweise einzigartigen Vorteile des Verfahrens, die extrem hohe Flexibilität und die nahezu uneingeschränkte Geometriefreiheit, frühzeitig Vorbehalte gegenüber dieser neuen Technologie beiseitegeschoben. Ein gutes Beispiel ist der Spritzguss in der Kunststoffproduktion. Bis zu 70 % kann die Kühlzeit innerhalb der Zykluszeit der Serienfertigung ausmachen. Um die Kühlzeit zu reduzieren, sind im Spritzgusswerkzeug konturnahe Kühlkanäle erforderlich. Deren Herstellung bringt den konventionellen Werkzeugbau aufgrund der komplexen Geometrien oftmals an seine Grenzen, im 3D-Druck ist das problemlos herstellbar. Der nächste Schritt, den einige Hersteller schon gegangen sind, ist es, die Werkzeuge gleich ganz wegzulassen und die Kunststoffbauteile direkt im 3D-Druck herzustellen. Ermöglicht wird dies durch die rasante Zunahme der Druckgeschwindigkeit und die kontinuierliche Qualitätsverbesserung der Ausdrucke. Damit öffnet sich auch der Massenmarkt für Konsumgüter der 3D-Produktion. Ein anderer Industriezweig, der vorwiegend Individualprodukte hervorbringt und daher auch schon länger den 3D-Druck erfolgreich einsetzt, ist die Medizintechnik. Neben Zahnimplantaten können passgenaue Titan-Prothesen im 3D-Drucker hergestellt werden. Originalgetreue, schnell aufgebaute 3D-Modelle beschädigter Organe helfen bei der Operationsvorbereitung. Zukunftsvision, aber bereits im Forschungsstadium befindlich ist der 3D-Druck funktionsfähiger Organe und Stammzellen. Auch im Leichtbau, und speziell in der Luftfahrtindustrie, hat die Technologie Einzug gehalten und wird weiter wachsen. Die Geometriefreiheit des 3D-Drucks eröffnet hier neue Möglichkeiten der Gewichtseinsparung bei erhöhter Steifigkeit. Und auch der Mittelstand beginnt die Vorteile der neuen Technologie für sich zu entdecken. Einer Umfrage des Münchner Marktforschungsinstituts Pierre Audoin Consultants (PAC) im Auftrag der Freudenberg IT zufolge sind 45 % der befragten mittelständischen Fertigungsunternehmen der Meinung, dass sich mit dem Einsatz von 3D-Druckern Kosten- und Effizienzvorteile realisieren lassen, Tendenz steigend.

Gibt es anschauliche Beispiele?
Es gibt viele Beispiele dafür, dass Unternehmen, auch aus Deutschland, das Potenzial der 3D-Drucktechnologie schon erkannt haben. Im Bereich der Massenproduktion baut adidas derzeit eine „Speedfactory“ im fränkischen Ansbach auf. Dank 3D-Drucktechnik und vernetzter Maschinen sollen ab 2017 auf 4 600 m² 500 000 Paar Schuhe pro Jahr gefertigt werden, zum ersten Mal seit 30 Jahren wieder „Made in Germany“. Airbus setzt in seinem Werk in Bremen verstärkt auf den 3D-Druck und plant, 10 % seiner Ersatzteile mit diesem Verfahren selber herzustellen. 3D-gedruckte Prototypen werden bei Mercedes-Benz Lkw schon seit einigen Jahren eingesetzt, und seit September dieses Jahres bietet das Unternehmen auch erstmals Ersatzteile aus dem 3D-Drucker an. Mercedes-Benz betont dabei, dass bei der Qualität, Langlebigkeit, Zuverlässigkeit, Wirtschaftlichkeit und Funktionalität die gleichen Maßstäbe wie in der klassischen Ersatzteilproduktion angelegt werden. Auch die BMW AG benutzt bereits die 3D-Drucktechnologie. Bislang wurden damit hauptsächlich exotische Bauteile wie die im metallischen 3D-Druck hergestellte Wasserpumpe des DTM-Rennwagens hergestellt. Nun soll der 3D-Druck langfristig in die Produktionsstrategie auch für Serienteile integriert werden. BMW arbeitet dabei mit HP zusammen, das nach langem Zögern seit Mai dieses Jahres seine ersten eigenen 3D-Drucker anbietet. Überhaupt ist es verwunderlich, dass die großen Drucker-Hersteller so spät in die 3D-Drucktechnik eingestiegen sind. Canon ist seit 2015 dabei, Epson bereitet immerhin gerade den Einstieg in die 3D-Drucktechnik vor. Bei Brother und bei Lexmark sucht man derzeit noch vergeblich nach einem 3D-Drucker. Gerade diese Zurückhaltung hat aber jungen deutschen Unternehmen die Möglichkeit gegeben, sich zu entfalten. Mit SLM Solutions aus Lübeck ist 2014 der erste deutsche Hersteller von industrietauglichen 3D-Druckanlagen an die Frankfurter Börse gegangen, kurz nachdem das ebenfalls deutsche Unternehmen Voxeljet an der New Yorker Börse notiert hat. Weitere bedeutende Hersteller sind Concept Laser aus dem bayrischen Lichtenfels und EOS aus Krailling bei München, um einige zu nennen. Tatsächlich sind deutsche Hersteller industrietauglicher 3D-Druckanlagen laut der WirtschaftsWoche vom Januar 2014 ihren Mitbewerbern aus den USA und Asien technisch um Jahre voraus.

Kernaussagen

  • Die Wirkung des 3D-Drucks ist bis weit in die Gesellschaft hinein. Durch 3D-Drucker für den Heimgebrauch sprechen Experten schon von der „Demokratisierung des Produktes“.
  • Im „Rapid Prototyping“ ist der 3D-Druck bereits lange fest etabliert. Weitere Einsatzbereiche sind z. B. Werkzeugbau, Formenbau und Ersatzteilherstellung.
  • Die Produktion eines Konsumguts kann nun auch wieder in Hochlohnländern lohnenswert sein.

Mit welchen Weiterentwicklungen und Innovationen ist in den nächsten zwei bis drei Jahren zu rechnen?
Der Bereich der technischen Weiterentwicklungen der 3D-Drucktechnologie konzentriert sich auf die Erhöhung der Druckgeschwindigkeit, die Reduzierung der Druckkosten und die Verbesserung der Druckqualität. Auch in der teilweise aufwändigen und bei Metallen auch nicht ganz ungefährlichen Rohmaterialherstellung wird intensiv geforscht. Feines Pulver, sei es von Metallen oder anderen Stoffen, ist besonders reaktionsfreudig, wodurch es sich leicht entzünden kann. Ein Beispiel dafür sind Mehlstaubexplosionen in Getreidemühlen. Ein weiterer Forschungsschwerpunkt ist die Weiterentwicklung der Druckstrategie. Das betrifft beispielsweise den Ausdruck eines Bauteils aus verschiedenen Materialien oder die Herstellung kompletter, aus beweglichen Teilen bestehender Baugruppen in einem 3D-Druck, „Print-in-Place“ (PIP) genannt. Mitsubishi hat kürzlich auch den „5D-Druck“ vorgestellt. Tatsächlich handelt es sich dabei um einen 3D-Drucker mit 5 Achsen. Die hergestellten Musterbauteile, Druckkappen, halten einem drei- bis fünfmal stärkeren Berstdruck gegenüber „nur“ 3D-gedruckten Bauteilen stand. Die Technik ist also noch lange nicht ausgereizt, mit technischen Innovationen ist auch weiterhin zu rechnen. Was die Marktentwicklung und das Wachstum der 3D-Drucktechnologie angeht, gibt es zahlreiche positive Zukunftsprognosen, die bereits erwähnt wurden. Außerdem werden sich auch neue Märkte und Geschäftsmodelle eröffnen. 3D-Druck-Shops werden zunehmen. Manche nach Art der Copy-Shops, in denen man eben schnell den durchgebrochenen Hebel der Kaffeemaschine 3D-kopiert, aber auch kleine Fabrikationsstätten, die Bauteile von Einzelstücken bis zur Großserie in Lohnfertigung herstellen. Und da auch immer mehr Konsumenten über eigene 3D-Drucker verfügen, wird sich auch ein Markt für virtuelle Bauteile eröffnen, in dem statt physischer Produkte deren 3D-Design verkauft wird. Es ist auch vorstellbar, dass diese Konsumenten ihre privaten 3D-Drucker zur Bauteilherstellung auf Internetplattformen anbieten, sich also quasi „Baubörsen“ bilden werden. Natürlich werden solche Geschäftsmodelle, und auch die 3D-Druck-Shops, Fragen nach der Produkthoheit und dem Gebrauchsmusterschutz aufwerfen. Andere Geschäftsbereiche werden sich verändern müssen. Im Zuge der endverbrauchernahen, bedarfsgerechten 3D-Produktion wird es nicht mehr notwendig sein, Produkte über weite Strecken zu transportieren oder große Stückzahlen davon zu lagern. Die Logistik oder der After-Market stehen hier vor ganz neuen Herausforderungen, während die Industrie wieder im Heimatmarkt produzieren kann. Dieser Trend des „Reshorings“, der Rückkehr der Produktion in die Heimmärkte, ist derzeit weltweit zu beobachten, wie das Beispiel adidas zeigt. Abschließend, aber deswegen nicht weniger wichtig, sei noch der Aspekt des Umweltschutzes erwähnt. Der weltweite Warenverkehr stellt eine enorme Belastung der Umwelt dar. Endverbrauchernahe Produktion wird damit zur umweltgerechten Produktion. Wenn dieses Label von Politik und Gesellschaft erkannt wird, bekommen Unternehmen, die noch nicht in die 3D-Drucktechnologie eingestiegen sind und an ihren Produktionsstätten in Niedriglohnländern festhalten, ein Problem. All diese Entwicklungen werden sicher nicht innerhalb der nächsten zwei bis drei Jahre passieren, aber zumindest ihren Anfang nehmen.

Gibt es aktuelle Forschungsprojekte?
Meine Forschungsarbeiten an der Hochschule Bonn-Rhein-Sieg stehen als neuberufener Professor noch am Anfang. Derzeit bauen wir gerade mehrere Laserlabore auf. Geplant sind u. a. Forschungsarbeiten zum „Selective Laser Melting“ (SLM), dem marktführenden 3D-Druckverfahren für metallische Bauteile. Ein Thema, dem ich mich am Fraunhofer Institut für Lasertechnik bereits während meiner Studienzeit gewidmet habe. Konkrete Forschungsfragen sind beispielsweise, inwieweit sich bionische Strukturen mittels Reverse Engineering und dem 3D-Druck für technische Anwendungen, z. B. den Leichtbau, nutzbar machen lassen.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Prof. Dr. Welf Wawers

Abteilung Einkauf & Beschaffung

Einfluss der Digitalisierung auf Einkauf &Beschaffung

Die ständig wachsenden Herausforderungen und die Digitalisierung auf den globalen Märkten führen dazu, dass die Beschaffung immer mehr an Bedeutung gewinnt. Die Beschaffungsoptimierung hat direkte Auswirkungen auf den Gewinn des Unternehmens.

Im Vergleich zu traditionellen Beschaffungsstrukturen, die sich durch Ineffizienz kennzeichnen, ermöglicht die konsequente Integration von E-Procurement-Systemen eine Vielzahl von Vorteilen zur Prozessverbesserung und Kosteneinsparung. Das Ziel von E-Procurement ist, die strategische aber auch die operative Beschaffung durch elektronische Hilfsmittel zu unterstützen. Das passiert in der Praxis durch den Einsatz verschiedener E-Procurement-Werkzeuge.

Das Katalogmanagement spielt dabei eine wichtige Rolle, Produktkataloge können der Auswahl und Beschaffung von Produkten auf Kundenseite, Lieferseite oder auf Marktplätzen dienen. Neue Technologien, rasante Digitalisierung und massiv geänderte Kundenerwartungen stellen die bisherige Einkaufsorganisation auf den Prüfstand. Die  Entwicklungen  im  Zusammenhang  mit  der  Digitalisierung  sollten  nicht  losgelöst  voneinander  betrachtet  werden. So spielt der CPO („Chief Procurement Officer“) im Einkauf und damit bei der Umsetzung von Industrie 4.0 in Zukunft eine zentrale Rolle. Er muss die Technologien und Innovationen mit dem CDO und der Geschäftsleitung ins Unternehmen  bringen,  damit  es  die  vierte  industrielle  Revolution  erfolgreich  meistern kann. In diesem Kontext ist Einkauf 4.0 nicht nur ein  „Buzzword“. Künstliche Intelligenz und kognitive Systeme werden in Zukunft das Lager mit der Produktion und dem Einkauf verbinden. Die digitale Konvergenz zieht sich durch: nicht nur durch den kompletten Lebenszyklus eines Produktes, sondern auch durch die komplette Produktwertschöpfungskette.

Die Digitalisierung ist damit auch der Treiber für das Next-Level-Procurement, bei dem neue Anforderungen wie Agilität, Kollaboration und Analytik gefragt sind. Zu deren  Umsetzung  ist  die  Prozesskompetenz  und  Marktexpertise des CPOs und des CDOs unverzichtbar.
Mit der  vierten  industriellen  Revolution  bietet sich dem Einkauf die Chance, eine neue strategische Rolle im Unternehmen einzunehmen und damit der zunehmenden Automatisierung zu „entgehen“. Je digitaler und vor allem autonomer die Einkaufsprozesse, desto eher kann sich der Einkauf auf seine strategischen Aufgaben konzentrieren.

Die Lagerhaltung der Zukunft wird ohne die momentan gebräuchlichen Scanner auskommen und mit innovativer Kamera- und Sensortechnik sowie deren Analyseverfahren Echtzeitinformationen zur Verfügung stellen. Mit Location-based Services lassen sich schon heute Inhouse-Warenströme in Echtzeit analysieren, um Ware sicher bis auf die Verkaufsflächen nachzuverfolgen.

Alles was sich auf einer Palette befindet, die sich durch das Lager bewegt, kann durch die Bluetooth-Technologie in „Realtime“ getrackt werden. Kameras und Sensoren identifizieren zum Beispiel Gabelstapler und ihre Bewegung. Es lässt sich so verfolgen, ob Fahrzeuge Lasten aufgenommen oder abgegeben haben. Stellplätze und Lagerflächen werden effizient überwacht, damit weitere Lagerhaltungsprozesse angestoßen werden können.

Daten im Kontext aller logistischen Vorgänge wie z. B. der Ein- oder Auslagerungen sind in Echtzeit abrufbar und werden automatisch  mit dem ERP- oder Lagerverwaltungssystem abgeglichen. In einer Vorstudie vom Fraunhofer-Institut für Materialfluss und Logistik (IML) beschreibt Prof. Dr. Michael Henke, dass sich die Anzahl der Mitarbeiter im Einkauf, sowohl im operativen als auch im strategischen Bereich, verringern wird: „Der operative Einkäufer wird aussterben. Der komplette operative und administrative Bereich wird digitalisiert sein.“

Durch den Wandel brauchen die Einkäufer zukünftig viele neue Fähigkeiten:

  • Der Einkauf agiert als Koordinator, Multi-Talent, Controller, Vertragsmanager.
  • Der Einkauf wird zum Berater.
  • Der Einkäufer entwickelt sich immer mehr zum Produktentwickler.
  • Der Einkäufer wird zum Datenanalysten.
  • Der Einkäufer wird Manager der Rahmenbedingungen.
  • Der Einkäufer wird noch mehr zum Schnittstellenmanager.

Der Mensch wird weiterhin eine zentrale Rolle beim Einkaufen behalten, da der persönliche Kontakt und die „Chemie“ wichtig für Verhandlungen und Lieferantenbeziehungen bleiben wird. Dadurch, dass es im strategischen Einkauf weniger Einkäufer geben wird, diese aber komplexere Aufgaben bewältigen müssen, erfordert dies ein höheres Qualifikationsniveau.

Industrie 4.0 steht für ein Zukunftsprojekt der deutschen Bundesregierung, welches die vierte industrielle Revolution bezeichnet. Diese zeichnet sich durch die Individualisierung bzw. Hybridisierung der Produkte und der Integration von Kunden und Geschäftspartnern in die Geschäftsprozesse aus. Einkauf 4.0 bezeichnet folgerichtig den Einkauf in einer digitalisierten Produktionswelt. Die Digitalisierung der Lieferkette wird nach Ansicht des BME die Geschäftsmodelle revolutionieren.

Die Digitalisierung des Einkaufs und dessen enge Vernetzung nach innen und außen bieten die Möglichkeit, dass innovative Erfolgsstrategien für das gesamte Unternehmen entwickelt werden. In Zukunft bedeutet Einkauf Mehrwert, der durch Digitalisierung und Automation der Supply-Chain erzeugt wird. Deswegen geht der Einkauf 4.0 über das E-Procurement und E-Sourcing hinaus. Zulieferer und Einkauf werden in Zukunft auch enger aneinander angebunden sein, damit im Idealfall die Warenbestände automatisiert sind und in Echtzeit diese abgefragt und angefordert werden können.

Durch Verträge abgesicherte Allianzen und Partnerschaften werden nötig sein, um kundenspezifische Lösungen zu realisieren, denn herkömmliche Produkte werden intelligent werden und somit zu einer Kernkomponente von Industrie 4.0. Dies macht die Prozesskompetenz und Marktexpertise des Einkaufs unverzichtbar, um das „Internet der Dinge und Dienste“ umzusetzen. Ziel soll sein, eine voll integrierte Steuerung der Lieferkette über mehrere Unternehmen hinweg zu haben und je nach Marktentwicklung die besten Gewinnaussichten oder niedrigsten Kosten zu haben.

Dies zeigt laut BME, dass der Einkauf und die Logistik die Digitalisierung der Wirtschaft vorantreiben, denn ohne Einkauf und organisierte Supply-Chain kann das „Internet der Dinge“ nicht stattfinden. Durch gutes Knowledge-Management und die Nutzung von E-Tools kann aber das Hoheitswissen, über welches ein strategischer Einkäufer verfügt, einfacher übertragen werden.

Deshalb geht die ATKearney davon aus, dass die Unternehmen sich in Zukunft die Frage stellen, wo der Einkauf stattfinden wird, da die Einkaufsabteilung, wie andere Serviceprozesse (Human Resource, Buchhaltung, Logistik), in Shared-Service-Centern gebündelt und gegebenenfalls komplett outgesourct wird. Daher muss der Einkauf durch permanente Innovation und neue Wertbeiträge einen dauerhaften positiven ROSMA („Return on Supply Management Assets“) generieren.

Quellen und Textlizenz:
Vorstudie „Digitalisierung des Einkaufs – Einkauf 4.0“, Fraunhofer-Institut für Materialfluss und Logistik IML und Bundesverband Materialwirtschaft, Einkauf und Logistik e.V. (BME) https://www.bme.de/fileadmin/_horusdam/4190-Vorstudie_Einkauf_40.pdf

https://winfwiki.wi-fom.de/index.php/Einfluss_der_Digitalisierung_auf_die_Beschaffung; Autor(en): Pavel Horia Basca, Pritam Satija, Philipp Myck.

Lizenzbestimmungen: https://www.gnu.org/licenses/fdl-1.2

Abteilung Produktion & Fertigung

Einfluss der Digitalisierung auf Produktion & Fertigung

von Andreas Fuhrich

Unter dem Begriff Industrie 4.0 subsumiert die Bundesregierung diverse technologische Trends wie Maschine-zu-Maschine-Kommunikation und das Internet der Dinge. Sie erwartet, dass die Organisation und Steuerung der gesamten Wertschöpfungskette über den kompletten Lebenszyklus hinweg sich durch den Einzug neuer Technologien verändern wird. Grundlage bildet dabei die  Verfügbarkeit aller notwendigen Informationen in Echtzeit, durch die Vernetzung aller beteiligten Instanzen. (1)

Der Trend geht dabei weg von standardisierten, hin zu individuellen, auf den Kunden zugeschnittenen, Produkten. Durch die Möglichkeiten des 3D-Drucks und sogenannter Smart Factories  kann der Endkunde jetzt selbst unmittelbar Einfluss auf die Fertigung des Produkts nehmen, etwa über eine einfach zu nutzende CAD-Software, welche ihm kostenlos zum download bereitgestellt wird.

Cyber-physische-Fertigungseinheiten kommunizieren über das Internet der Dinge in Echtzeit sowohl miteinander als auch mit der Fertigungsanlage. Auf diese Weise werden die miteinander vernetzten Produktionsbestandteile in die Lage versetzt jederzeit auf Veränderungen zu reagieren, ohne dass die Produktionskette hierfür unterbrochen werden muss. Individuelle Kundenwünsche können auf diese Weise kosteneffizient umgesetzt werden.

Die Struktur der Vernetzung kann jedoch auch über einzelne Fertigungsanlage hinaus erweitert werden, so dass ganze selbst organisierende, unternehmensübergreifende Wertschöpfungsnetzwerke entstehen. Diese Netzwerke lassen sich beispielsweise nach Kriterien wie Kosten, Verfügbarkeit oder Ressourcenverbrauch optimieren. Die Fähigkeit, die Datenmenge der Cyber-physischen-Systeme (BigData) effektiv zu analysieren und daraus Optimierungsschritte abzuleiten wird in diesem Zusammenhang immer wichtiger.  Aufgabenbereiche von traditionellen Produktionsmitarbeitern und Wissensarbeiter, wie z.B. Datenanalysten, werden weiter zusammen wachsen. Die Erfahrung der Produktionsmitarbeiter kann in Kombination mit Big Data dazu genutzt werden Produkte weiter zu entwickeln oder neue Produkte zu fertigen. Zusätzlich können selbstlernende Systeme die in der Wertschöpfungskette entstehenden Daten laufend analysieren und darauf aufbauend die Prozesse optimieren. Unwirtschaftliche Fertigungsschritte werden durch die Analysemöglichkeiten besser erkannt und immer häufiger aufgelöst bzw. durch externe Zulieferer ersetzt. Der Komplexitätsgrad eines Unternehmens wird weiter steigen und die Vernetzung von Unternehmen nimmt immer weiter zu. Auf Plattformen entstehen bereits branchenspezifische Eco-Systems mit sich ergänzenden Dienstleistungen unterschiedlicher Unternehmen. Die Fertigungstiefe innerhalb des Unternehmens nimmt ab, dafür steigt der Aufwand die Zulieferer zu steuern und zu kontrollieren.

Entscheidend  wird daher in Zukunft der Umgang  mit kurzzyklischen Schwankungen der Märkte sein,  die zum einen aus der steigenden internationalen Vernetzung  resultieren, aber auch aus der Anforderung immer nach Kundenauftrag zu arbeiten. Der wichtigste Erfolgsfaktor für Produktionsunternehmen wird durch Vernetzung und Echtzeitanalyse der Produktion die schnelle Reaktion auf Kundenanforderungen sein. (2)

Die zunehmende Automatisierung von Produktion und Fertigung sowie das Internet der Dinge bietet auch in puncto Nachhaltigkeit ein enormes Potential. Maschinen laufen nur dann, wenn sie wirklich benötigt werden, intelligente Heiz- und Kühlsysteme regulieren die Temperatur bei höchster Ressourcenseffizienz und mittels Bodensensoren kann jeder einzelne Fleck eines Feldes optimal gedüngt und bewässert werden, um nur einige Beispiele zu nennen.
Tipp: Durch die Ersparnis an Rohstoffen und Energiekosten können sich Ausgaben in solche Technologien schon nach kurzer Zeit amortisieren.

Trends

1. Predictive Maintenance
Hersteller von Fertigungsmaschine sind durch das Internet der Dinge in der Lage Predictive Maintenance (vorausschauende Instandhaltung) anzubieten.  Über Sensoren erfassen die Maschinen kontinuierlich eigene  Zustandsdaten und übertragen diese anschließend in die Cloud des Herstellers. Dort werden die verschiedenen Daten stetig analysiert um rechtzeitig Verschleißteile auszutauschen oder bei Auffälligkeiten und auf Störung hindeutenden Mustern entsprechende Maßnahmen zu ergreifen. Produktionsausfälle durch plötzliche Standzeiten und unvorhergesehene Ausfälle werden dadurch vermieden.

2. Farming 4.0
Durch die Digitalisierung, dem Internet der Dinge und dem Einsatz cyber-physischer Systeme, entstehen auch in der Landwirtschaft Möglichkeiten nahezu sämtliche Produktionsprozesse neu zu gestalten. IoT –Sensoren erfassen beispielsweise die Menge der gegebenen Milch so wie Daten über den Stoffwechsel. Aufbauend auf diesen Daten lässt sich der optimale Melkzeitpunkt für jedes Tier ermitteln. Außerdem werden dadurch auch Krankheiten früh erkannt.

3. Augmented Reality (AR)
Unter Augmented Reality versteht man die computergestützte Erweiterung der Realitätswahrnehmung. Vor allem visuelle AR-Devices werden immer häufiger in der Produktion eingesetzt.  Hier können beispielsweise AR-Brillen dem Träger wichtige Informationen zur Verfügung stellen, wie etwa millimetergenaue Positionsdaten für das nächste Einbauteil, oder auch eine Schritt-für-Schritt-Anleitung.

4. Individualisierung
Während früher Ingenieure aufwendig die Maschinensteuerung für unterschiedliche Produkte anpassen mussten, genügt mittlerweile eine einfachere Benutzeroberfläche. Ausgeklügelte Automatismen intelligenter Maschinen übernehmen dann autonom die Fertigung. Durch Smart Factories und 3D-Druck wird so sogar der Endkunde in die Lage versetzt selbst zum Produzenten zu werden. Kleinserien und Einzelstücke lassen sich kostengünstig herstellen. Individuelle Wünsche, z.B. im Oberflächendesign, lassen sich selbst kurzfristig noch ändern und realisieren, ohne dass dafür die Produktion heruntergefahren werden müsste.

5. Kollaborierende Roboter (Cobots)
Kollaborierende Industrieroboter entlasten in einem gemeinsamen Arbeitsprozess den Menschen und unterstützen ihn bei seiner Tätigkeit. Durch kognitive Systeme werden sie zudem in die Lage versetzt die Bedürfnisse der Mitarbeiter selbst zu erkennen und dementsprechend zu reagieren. So können sie beispielsweise schwere Gegenstände heben um die Montage zu erleichtern oder auch benötigte Ersatzteile und Werkzeuge beschaffen.

Quellen und Textlizenz:
(1) Platform Industrie 4.0: Umsetzungsstrategie Industrie 4.0 April 2015, Seite 8. URL https://www.bmwi.de/BMWi/Redaktion/PDF/I/industrie-40-verbaendeplattform-bericht,property=pdf,bereich=bmwi2012,sprache=de,rwb=true.pdf (Abgerufen 5. Dezember)
(2) Fallstudienarbeit „Einsatz von Big Data im Bereich Produktion“ von Stefan Schulte, Nicolai Schütte, 2015. URL https://winfwiki.wi-fom.de/index.php/Einsatz_von_Big_Data_im_Bereich_Produktion (Abgerufen: 5. Dezember 2016);

Lizenz: https://www.gnu.org/licenses/fdl-1.2

Abteilung Marketing

Einfluss der Digitalisierung auf das Marketing

Silodenken sollte der Vergangenheit angehören. Alle Abteilungen müssen in der Zukunft weiter zusammenwachsen und abteilungsübergreifend miteinander agieren. Dies betrifft vor allem die IT und das Marketing, die oftmals noch nicht eng genug miteinander verzahnt sind. Dabei ist die IT der Hauptansprechpartner für das Marketing, wenn es sich um die Automatisierung von Analysen und Abläufen handelt.

Zum Beispiel kann das Marketing-Controlling auf vorhandene Marktforschungsdaten und weitere interne Datengrundlagen zurückgreifen. Diese Datengrundlagen nehmen in Umfang und Qualität mit der fortschreitenden IT-Unterstützung der Marketingprozesse zu.

Durch die Analysen der Daten aus BI, CRM, Big Data oder anderen Quellen sollen ebenso Handlungsempfehlungen für das Marketing entstehen. Insbesondere Big Data und die automatisierte Auswertbarkeit dieser bereits schon erhobenen Menge an Daten werden in der Zukunft somit eine größer werdende Rolle spielen. Durch Echtzeitanalyse und Anpassung der daraus entstehenden Empfehlung können personalisierte Marketingaktionen realisert werden.
Auswirkungen werden weiter verfolgt und analysiert, um nach und nach neue Vergleiche zu ziehen und Tendenzen erkennen zu können. Darüber hinaus wäre denkbar, dass selbstlernende Systeme eine Rolle spielen. Diese könnten selbstständig die Parameter einer alten Kampagne auf eine neue Kampagne projizieren. Besonders Datenschützer werden bei den fast schon gläsernen Verbrauchern immer stärker in Erscheinung treten, um diese zu schützen.

Im Bereich Online-Shopping wird der Einkauf über mobile Endgeräte wie Smartphones und Tablets weiter zunehmen und Anbieter müssen ihren Auftritt und ihre Angebote für Smartphones tauglich machen. Ziel sollte es sein, eine konsistente E-Business-Strategie zu verfolgen und Kunden über alle Kanäle hinweg langfristig an sich zu binden. Über neue Technologien wie z. B. das CRM, Big-Data-Analytics oder Social Analytics hat das Marketing die Möglichkeit, viele Daten über den Verbraucher zu erhalten. Denn es geht künftig vor allem darum, die Erwartungen des Kunden individuell zu erfüllen. In vielen Fällen fehlen jedoch die Expertise und Parameter, um diese sinnvoll oder effektiv zu interpretieren und zu verarbeiten. Damit ein Unternehmen von der Digitalisierung profitieren kann, muss eine passende Strategie entwickelt werden. Denn nur wenn Daten sinnvoll analysiert und genutzt werden und die IT mit dem Marketing verstärkt zusammenarbeitet, ent- und bestehen erfolgreiche Händler.

Heute stehen Unternehmen vor der Herausforderung, die häufig auch strukturell separierten Bereiche vernetzt zu steuern. Nicht zuletzt die Digitalisierung hat dazu beigetragen zu erkennen, dass Markenführung wesentlich mehr Bereiche als nur das Marketing betrifft. Wir befinden uns im Zeitalter des Kunden. Dies bedeutet: in Echtzeit zu wissen, was der Kunde will, individuelle Kundenwünsche zu erfüllen und das jederzeit über alle Kanäle hinweg. Dazu müssen nicht nur Prozesse und Reaktionszeiten beschleunigt werden, das gesamte Unternehmen muss sich digital transformieren. „Mach es dem Kunden leicht, dich zu erreichen.“ Vorhandene Daten sind in Wissen über die Kunden zu verwandeln und die Chancen der mobilen Ausrichtungen sind zu nutzen.

Multichannel heißt heute und in Zukunft die Multichannel-Perspektive auf Distributions- und Kommunikationskanäle. Die Herausforderung liegt in der zunehmenden Vernetzung aller digitalen und analogen Kanäle.

Unter den vier Instrumenten des Marketingmix (Produkt-, Preis-, Distributions- und Kommunikationspolitik) wird der marktgerichteten Unternehmenskommunikation zukünftig – neben dem Produkt – die größte Bedeutung beigemessen. Das Web 2.0 stellt viele Unternehmen vor eine neue Herausforderung. Kommunikation bedeutet nicht mehr nur das Aussenden von Informationen (unidirektionales Mitteilen) mit einer sehr eingeschränkten Perspektive auf gewünschte Reaktion (attraktiver finden, Bedürfnis entwickeln, kaufen), sondern die Kommunikation mit bidirektionalem Informationsaustausch. Hier gilt für Unternehmen, zuzuhören und zu lernen. Medien erfahren eine steigende Interaktivität durch diesen bidirektionalen Informationsaustausch. „Die Digitalisierung macht aus den Medien Dialogmedien.“ Social Communities, Internet-TV, interaktives Fernsehen, E-Magazines und viele mehr sind Kommunikationskanäle, die dank der Digitalisierung eine Dialogfunktion übernehmen. Die wichtigste Rolle wird in Zukunft der Mobile Commerce spielen. Unternehmen müssen sich darauf einstellen, smartphonefähige Plattformen zur Verfügung zu stellen. Denn der Einkauf über ein Smartphone auf einem nicht smartphoneoptimierten Webshop kann dazu führen, dass der Kauf abgebrochen wird. Die Statistik zeigt die Entwicklung der Nutzung von Smartphones oder Tablets für den mobilen Einkauf im Internet. Trotzdem haben es klassische Kaufhäuser immer schwerer und müssen sich etwas Neues einfallen lassen. So hat die Digitalisierung auch Einfluss auf Filialen in Innenstädten. Kunden können sich in der Umkleidekabine mit den anprobierten Kleidungsstücken oder mit durchtrainiertem Service-Personal fotografieren lassen und die Bilder direkt bei Facebook veröffentlichen. Auch hier steht, ähnlich wie bei der Produktpolitik, das Erlebnis mit der Marke und dem Produkt im Vordergrund.

Dies bedeutet, dass Unternehmen sich nicht nur auf einen Bereich konzentrieren sollten, sondern mehrere Kontaktpunkte bieten müssen. Die Verknüpfung zwischen analogem und digitalem Kanal bedeutet, dass Kunden zum Beispiel auf Online-Rabattaktionen zurückgreifen und damit im lokalen Ladengeschäft einkaufen gehen oder sich über das Schaufenster inspirieren lassen und online einkaufen. Die Chancen, mit digitalen Kanälen (Homepage, E-Mail, Suchmaschinen, Social Media etc.) seinen Bekanntheitsgrad zu steigern und in neue Märkte einzusteigen, sind groß, bergen aber auch Risiken. Der Einfluss der Digitalisierung auf den Bereich Marketing hat dazu geführt, dass Kunden durch verschiedene Technologie wie z. B. Social Media ein Sprachrohr erhalten und so einen Einfluss auf Unternehmen erlangen. Unternehmen haben mit Big-Data-Analysen und Social Analytics die Möglichkeit, auf Kundenwünsche schnell und individuell zu reagieren, können aber oftmals die Vielzahl an Daten nicht miteinander richtig verknüpfen und auswerten. Durch die Digitalisierung sind Unternehmen angebots- und preistransparent. Kunden haben dadurch eine stärkere Markposition, wodurch auch unkontrollierte Kommunikationseffekte (sog. „Shit-Storms“) entstehen können. Für viele Unternehmen ist der Hauptgrund, digitale Kanäle nicht zu nutzen, der Datenschutz. Unternehmen müssen besonders vertrauensvoll mit den Daten der Kunden umgehen, sodass zwar Erkenntnisse abgeleitet werden, aber kein Datenmissbrauch betrieben wird. Die digitalen Kanäle sind günstiger als die klassischen Marketingmedien, aber Kunden fühlen sich teilweise überrollt von Werbung. Kunden entwickeln und nutzen daher auch Technologien, um sich gegen diese Art des Marketing (Customer-Resistance) zu schützen. Verbraucher nutzen Pop-up-Blocker, um Werbung beim Surfen zu entgehen, oder filtern E-Mail-Newsletter über die Junk-Mail-Funktion. Bei einem Spielfilm geht der Kunde über zum zeitversetzten Fernsehen und überspringt so die Werbung. Einzelhändler zum Beispiel bieten eine App mit aktuellen Angeboten oder eine Einkaufsliste über das eigene Smartphone, um die Positionierung als sympathischer Discounter zu stützen. Die Erwartungshaltung des Kunden an eine Marke ist sowohl online als auch offline gleich. Ein Unternehmen sollte daher nicht nur digitale Kanäle nutzen, denn nicht alle Kunden sind online erreichbar.

Quelle und Textlizenz:
https://winfwiki.wi-fom.de/index.php/Einfluss_der_Digitalisierung_auf_das_Marketing; „Einfluss der Digitalisierung auf das Marketing“; Andre Kreutzer, Paulo Afonso, Björn Brade; FOM Hamburg

Lizenzbestimmungen: https://www.gnu.org/licenses/fdl-1.2

Abteilung Buchhaltung

Einfluss der Digitalisierung auf die Buchhaltung und das Rechnungswesen

Zum jetzigen Zeitpunkt finden wir in der Buchhaltung noch eine Mischung von diversen Dokumenten­arten vor. Belege sind entweder in Papierform, elektronisch (z. B. Rechnungen im PDF-Format) oder bereits digital (z. B. EDI/EDIFACT-Format) vorhanden. Der Anteil der digitalen Unterlagen hat mit der Etablierung der digitalen Rechnungen durch die niedrigeren Formatanforderungen des Umsatzsteuergesetzes zugenommen. Dennoch werden digitale Belege zur Verbuchung gerne noch in Papierform umgewandelt, statt sie gleich digital zu verarbeiten. Viele Unternehmen scheuen den Umstieg zur digitalen Buchhaltung, obwohl kaum Hindernisse oder Risiken dagegensprechen.

In „papierlosen Büros“ werden sämtliche Äbläufe in der Buchhaltung und Lohnbuchhaltung sowie die Büroverwaltung rein auf dem digitalen Weg organisiert und gespeichert. Die papierlose Buchhaltung hilft, Kosten zu sparen, und optimiert bestehende Prozesse.

Heute bringen moderne ERP-Lösungen bereits komplette Buchhaltungs- und Lohnbuchhaltungslösungen mit sich. Die elektronische Belegablage wird so automatisch mit implementiert. Trotzdem muss sich auch die Unternehmenskultur in diesem Kontext ändern. Dies fängt bereits mit der Digitalisierung der täglich eingehenden Papierdokumente in Form von Rechnungen an. Zunächst sollten jegliche Papierdokumente mit einer professionellen Dokumentenmanagement-Lösung per Scan und OCR erfasst und damit digital zur Verfügung gestellt werden.

Gerade bei Rechnungen müssen vorab beteiligte Sachbearbeiter die Rechnungspositionen prüfen und sind daher meist auch in den Buchhaltungsprozess einbezogen. Durch vorab gescannte und damit digitalisierte Eingangsrechnungen können alle am Prozess beteiligten Abteilungen schnell und rechtssicher informiert und einbezogen werden. Die digitale Zusammenarbeit und Kollaboration ermöglicht auf diesem Wege schon große Einsparpotenziale.
Die Kostenvorteile entstehen als Folge der digitalen Verfügbarkeit von Dokumenten. Diesbezüglich geht es vorrangig um die Minimierung von Suchkosten für Mitarbeiter, die Zugriff auf Belege haben sollten.

Kostenreduktionen machen sich jedoch nicht nur im Unternehmen, sondern auch im Umgang mit externen Dienstleistern bemerkbar, wenn es beispielsweise um den digitalen Austausch der Unternehmensunterlagen mit dem eigenen Steuerberater geht. Auch die Korrespondenz mit Geschäftspartnern und Kunden  lässt sich in papierloser Form effizient gestalten.

Tipps zur Einführung

  1. Machen Sie sich mit der aktuellen Gesetzgebung vertraut. Unternehmen sind in der Pflicht, ihr Rechnungswesen auf das digitale Zeitalter umzurüsten. Die Grundsätze zur ordnungsmäßigen Führung und Aufbewahrung von Büchern, Aufzeichnungen und Unterlagen in elektronischer Form sowie zum Datenzugriff (GoBD) regeln die formalen Anforderungen. Zudem enthalten die GoBD Regeln zum elektronischen Datenzugriff der Finanzverwaltung im Rahmen von Außenprüfungen. Die GoBD wurden durch Schreiben des Bundesfinanzministeriums am 14. November 2014 veröffentlicht. Die GoBD sind ab 1. Januar 2015 gültig. Sie lösen die Grundsätze zum Datenzugriff und zur Prüfbarkeit digitaler Unterlagen (GDPdU) und die Grundsätze ordnungsmäßiger DV-gestützter Buchführungssysteme (GoBS) ab.(1) Besonders wichtig sind die GoBD für die elektronische Aufzeichnung der Barerlöse, die oftmals nicht vollständig aufgezeichnet oder nachträglich mit Manipulationssoftware verändert werden. Umfassende Regelungen zum internen Kontrollsystem und der Verfahrensdokumentation sind zu beachten. Der Unternehmer bleibt nach den GoBD verantwortlich, auch wenn er die Datenverarbeitung auslagert oder einen Dienstleister wie den Steuerberater einschaltet. Die GoBD gelten auch im Bereich der Bareinnahmen nur für digitale Aufzeichnungen mit Kassensystemen, Registrierkassen, PC-Kassen, Wiegekassen und Taxometern. Sie gelten nicht für manuelle Kassenführung wie z. B. die offene Ladenkasse.
  2. Gewohnte Verhaltensmuster durchbrechen. Bisher wurden Rechnungen und Dokumente ausgedruckt und in Ordnern abgeheftet. Elektronische Rechnungen und die elektronische Weiterverarbeitung erfordern ein Umdenken im Kontext der bisher angewendeten Prozesse.
  3. Innerbetriebliches Kontrollverfahren etablieren und implementieren. Laut Umsatzsteuergesetz (UStG) § 14 ist die Ausstellung von Rechnungen(2) in ein langfristiges und sicheres Archivierungssystem (Grundlage sind die GoBS)(3) einzuführen.
  4. Papierlose Prozesse einführen. Digitalisieren Sie alle Dokumente, die bisher in Papierform vorliegen. Besonders die Mitarbeiter müssen in den Ver­än­derungs­prozess einbezogen werden, damit kein Geschäftsrisiko entsteht.
  5. Beziehen Sie Ihren Steuerberater vorab in Ihre Überlegungen mit ein.

Digitales Belegwesen

Das digitale Belegwesen ist die dynamische Weiterentwicklung der heutigen Finanzbuchhaltung. Im digitalen Belegwesen werden Barbelege / Kassenquittungen durch den Klienten selbst per Fax oder per E-Mail an einen Steuerberater oder eine Buchführungsfirma übermittelt. Die Originale behält der Mandant selbst. Rechnungseingänge werden als Fax übermittelt. Rechnungsausgänge werden ebenfalls gefaxt oder der Steuerberater erhält sie aus dem Fakturierungsprogramm des Mandanten. Bankbewegungsdaten werden Bestandteil der Buchführung, indem sie elektronisch direkt von der Bank übermittelt werden. Danach können sowohl Steuerberater wie auch Mandant per verschlüsseltem Netz-Zugang auf die Daten zugreifen. Eine Smartcard bzw. ein USB-Stick mit Smartcard sorgt für die notwendige Sicherheit der Authentifizierung.

Trends

  1. Elektronische Bilanz. Als Elektronische Bilanz oder E-Bilanz wird in Deutschland die elektronische Übermittlung einer Unternehmensbilanz an das zuständige Finanzamt bezeichnet. Grundsätzlich sind die Inhalte der Bilanz und Gewinn- und Verlustrechnung für Wirtschaftsjahre, die nach dem 31. Dezember 2011 beginnen, durch Datenfernübertragung zu übermitteln. Rechtsgrundlage ist § 5b Einkommensteuergesetz (EStG).
  2. XBRL. Eine gute Nachricht gleich vorweg: XBRL ist ein freier Standard, den jeder unentgeltlich nutzen kann. XBRL („eXtensible Business Reporting Language“) ist eine auf XML basierende Sprache, mit der elektronische Dokumente im Bereich der Finanzberichterstattung erstellt werden. Insbesondere werden Jahresabschlüsse in dieser Sprache generiert. XBRL bietet auf Basis von XML einen standardisierten Austausch von Informationen der Geschäftsberichterstattung. Ziel von XBRL ist es, Ineffizienzen im Prozess des Datenaustauschs und der -analyse zu reduzieren sowie den Vergleich und die Vergleichbarkeit von Informationen zu erleichtern. Erste XBRL-basierte Taxonomien lassen erhebliches Effizienzsteigerungspotenzial beim Austausch und der automatisierten (Kennzahlen-)Analyse erkennen. Sie tragen aber nicht zu einem erleichterten Vergleich oder gar inhaltlicher Vergleichbarkeit von Informationen der Geschäftsberichterstattung bei.(4)
  3. Cloud-Computing. Vollauslagerung  von  Diensten  über  Shared-Service-Center und Application-Service-Provider. Online-Buchhaltungssoftware ist auf dem Vormarsch. Unternehmen erkennen die Vorteile der Cloud: unkompliziert und flexibel mit hoher Sicherheit. Denken Sie daran, dass nach der neuen Gesetzgebung das Hosting Ihrer Daten nur innerhalb der EU vorgenommen werden darf. Der „EU-US Privacy Shield“ (auch EU-US-Datenschutzschild) ist ein Abkommen auf dem Gebiet des Datenschutzrechts, das 2015 bis 2016 zwischen der Europäischen Union und den Vereinigten Staaten von Amerika ausgehandelt wurde.
    Es besteht aus einer Reihe von Zusicherungen der US-amerikanischen Bundesregierung und einem Beschluss der EU-Kommission. Die Kommission hat am 12. Juli 2016 beschlossen, dass die Vorgaben des Datenschutzschilds dem Datenschutzniveau der Europäischen Union entsprechen; damit kann das Abkommen angewendet werden.(5)
  4. Open-Source-Lösungen. Als Open Source oder quelloffen wird Software bezeichnet, deren Quelltext öffentlich ist und von Dritten eingesehen werden kann. OSS ist flexibler, wenn es um die Anpassung an die eigenen Unternehmensprozesse geht. Vorsicht, OSS ist nicht kostenfrei! Die Implementierung sowie die Schulung und der Umgang mit dem System müssen ebenso bezahlt werden wie sonstige Anpassungen. Unsere Redaktion hat sich in diesem Kontext mit der ERP-Lösung OpenZ beschäftigt. Die Open-Source-ERP-Software OpenZ ist ein branchenübergreifend einsetzbares Standard-ERP-System. Es unterstützt die gesamte Wertschöpfungskette und ist dabei agil bei Veränderungen der firmenspezifischen Prozesse anpassbar. Die nachfolgenden Features im Bereich der Finanzbuchhaltung werden abgedeckt:
    1. Deutscher Kontenrahmen: SKR03 oder SKR04
    2. DATEV-Export und DATEV-Import
    3. Abgleich der Summen und Saldenliste mit DATEV
    4. Offene-Posten-Liste
    5. Zahlungsabgleich / Zahlungsverkehr
    6. SEPA-Bankeinzug und Überweisungen
    7. Kontierungen können frei hinterlegt werden
    8. Anlagenbuchhaltung inkl. Anlagenspiegel
    9. Steuerautomatik bei allen Buchungen
    10. USt.-Voranmeldung
    11. Betriebswirtschaftliche Auswertungen
    12. Kostenstellen / Kostenträger
  5. Mobile Buchhaltung in der Cloud und Buchhaltungssoftware für Tablets. Cloud-Unternehmenssoftware gibt es auch als Apps für Tablet und Smartphone. Damit können Unternehmer auch von unterwegs auf Daten zugreifen, betriebliche Prozesse steuern oder auch die Buchhaltung erledigen. Hohe Sicherheitsstandards müssen selbstverständlich nachgewiesen werden. In der nächsten Zeit werden auch die bekannten Softwarehersteller diesem Trend folgen. Bis dahin lohnt sich ein genauer Vergleich der Cloud-Buchhaltungen.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/

 

(1) Michael Goldshteyn, Stefan Thelen: Praxishandbuch digitale Betriebsprüfung /Anforderungen der neuen GoBD an Buchführung, Datenspeicherung und Datenzugriff, ISBN 978-3-7910-3446-1; https://de.wikipedia.org/w/index.php?title=GoBD&redirect=no

(2) https://www.gesetze-im-internet.de/ustg_1980/__14.html

(3) https://www.bundesfinanzministerium.de/Content/DE/Downloads/BMF_Schreiben/Weitere_Steuerthemen/Abgabenordnung/Datenzugriff_GDPdU/2014-11-14-GoBD.html

(4) Norbert Flickinger: XBRL in der betrieblichen Praxis: Der Standard für Unternehmensreporting und E-Bilanz, 2., neu bearbeitete Auflage. Erich Schmidt, Berlin 2013, ISBN 978-3-503-14455-6.

(5) https://de.wikipedia.org/wiki/EU-US_Privacy_Shield

EIM: Informationen werden zum Geschäftsvorteil

Mit Blick auf die Zukunft der Information ist es nicht leicht, mit der Technologieentwicklung mitzuhalten. Dabei ist der Wandel vom „Enterprise
Resource Planning“ (ERP) hin zu „Enterprise Information Management“ (EIM) als Informationssystem der Zukunft bereits in vollem Gange. Die Verarbeitung von strukturierten und unstrukturierten Daten stellt Unternehmen vor neue Herausforderungen, bietet jedoch große Chancen.
Ein Gespräch mit Roger Illing, Senior Vice President Enterprise Sales Europe, und Lars Drexler, Vice President Solution Consulting EMEA beim Digitalisierungsexperten OpenText.

Die Digitalisierung bringt Unternehmen klare Vorteile. Warum haben trotzdem relativ viele Menschen Angst davor?
Roger Illing: Das ist in der Tat ein sehr wichtiger Punkt. Natürlich werden manche Prozesse, die zuvor von Menschen erledigt worden sind, nun von der IT abgearbeitet. Das gilt nicht nur für die Produktion mit ihren Robotern, sondern auch für informationsverarbeitende Prozesse. Schon heute haben von den 70 000 Mitarbeitern einer Bank womöglich nur noch 10 000 regelmäßigen Kundenkontakt. Zukünftig wer­den noch mehr dieser Prozesse automatisiert ablaufen. Diese Entwicklung ist aber nicht nur negativ, sondern bietet auch Chancen wie mehr Flexibilität, Kreativität und Freiraum für die Mitarbeiter. Das sind im Übrigen alles Punkte, die der nächsten Generation von Arbeitnehmern, den Millennials, sehr wichtig sind.

Die Millennials sind mit der Digitalisierung aufgewachsen. Inwiefern spielen diese privaten Erfahrungen eine Rolle?
Lars Drexler: In vielen Bereichen des Alltags machen User leider immer noch negative Erfahrungen mit der Digitalisierung. Das liegt unter anderem auch daran, dass viele Angebote im Netz sehr binär daherkommen: Es gibt ein Produkt und einen Preis. Möglicherweise ist das Angebot für den User sogar komplett irrelevant. Diese Art der Digitalisierung bringt wenig Mehrwert. Interessant für den potenziellen Kunden wird es erst dann, wenn maßgeschneiderte Informationen durch unstrukturierte Informationen angereichert werden. Ein gutes Beispiel dafür sind die Benutzerrezensionen im Online-Kaufhaus. Jede einzelne Bewertung ist sehr subjektiv. In Summe vermitteln sie aber ein gutes Bild über das, was den Käufer erwartet. Auch im beruflichen Umfeld sollten Mitarbeiter jederzeit für sie relevante Informationen mit anderen Daten in Verbindung bringen können.

  • Digitale Transformation umfasst nicht nur die Optimierung einzelner Geschäfts­prozesse sondern auch eine Neuausrichtung des Unternehmens bis hin zu neuen, digitalen Geschäftsmodellen.
  • Ein ganzheitliches Informationsmanagement bricht Informationssilos im Unternehmen auf und sorgt für die umfassende Verwaltung und Analyse des Informationsflusses.
  • Mit Enterprise-Information-Management-(EIM)-Systemen lassen sich sowohl strukturierte als auch unstrukturierte Daten und Abläufe im Unternehmen auffinden, verwalten und gewinnbringend einsetzen.

Was müssen Unternehmen tun, um dieses Ziel zu erreichen?
Roger Illing: Die Zukunft gehört den EIM-Plattformen. EIM steht für „Enterprise Information Management“. Darunter verstehen wir die Möglichkeit, unstrukturierte Daten in den Griff zu bekommen. Das können Dokumente und Präsentationen sein, die in unterschied­lichen Ordnern lagern, aber auch Videos, Bilder, Folien und viele andere Medien. In diesen Materialien schlummern wertvolle Informationen, die mit klassischen Methoden nicht genutzt werden können. Die Menge, Vielfalt und Geschwindigkeit dieser Informationen machen sie immer schwerer verständlich und verwendbar, sogar dann, wenn sie unverzichtbar für den Unternehmensalltag werden. Mit Blick auf diese Vorteile werden EIM-Plattformen sich durchsetzen und einen ähnlichen Wandel einleiten wie ERP-Systeme in den 90-er Jahren.

Welche Rolle spielen Prozesse dabei?
Lars Drexler: Klar definierte Prozesse sind die Basis, um überhaupt als digitales Unternehmen auftreten zu können. Unternehmen sollten nicht den Fehler der frühen Internetjahre wiederholen, als viele Webserver aufgesetzt wurden, ohne dass sich jemand Gedanken über die grundlegenden Prozesse gemacht hat. Dabei kommt es gerade darauf an, wenn das volle Potenzial von „Electronic Data Exchange“ (EDE) in Zukunft ausgeschöpft werden soll. Dabei ersetzt EDE zunächst Papierdokumente durch elektronische Versionen. Anschließend werden die Daten in einem Dokument in einem Standardformat übermittelt, sodass Sender und Empfänger in der Lage sind, das Dokument exakt zu lesen. Das ist jedoch erst der Anfang.

Welche Entwicklungen stehen in diesem Bereich an?
Roger Illing: Ein zentrales Zukunftsthema ist, dass Produkte in Zukunft mit der Bestellung definiert werden. Noch handelt es sich dabei um große Visionen, die allerdings besonders in Verbindung mit Industrie 4.0 sehr vielversprechend sind. Noch sind viele Unternehmen auf dieses Thema nicht vorbereitet. Das Interesse daran wächst jedoch. Damit EDI in dieser Form funktioniert, kommt es vor allem auf eine integrierte Plattform an. Mit einer einfachen Anbindung an das ERP-System ist es nämlich leider nicht getan. Die Entscheidung zur Implementierung sollte vor allem auf Unternehmensebene und nicht auf technischer Ebene getroffen werden, wenn alle Vorteile einer EDI-Investition genutzt werden sollen.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Lars Drexler

Informationen zu Roger Illing

Optimierte Infrastruktur treibt die digitale Transformation an

Unternehmen aller Größen müssen eine Antwort darauf finden, wie sie die digitale Transformation umsetzen, um zukunftsfähig zu werden. TREND REPORT sprach dazu mit Jürgen Metko, Regional Vice President Web Sales & Managing Director Central Europe bei Akamai, und Sven Klindworth, bei BT für das IT-Lösungsgeschäft in Deutschland und Österreich verantwortlich.

Die digitale Transformation ist ein schillernder Begriff. Was verstehen Sie darunter?

Jürgen Metko

Jürgen Metko: Die digitale Transformation ist ein zentraler Faktor für die Differenzierung und Wettbewerbsfähigkeit der Unternehmen. Sie hat Auswirkungen auf das Geschäftsmodell, die Prozess- und die gesamte Wertschöpfungskette. Im Kern geht es um die Entwicklung einer digitalen Unternehmensstrategie. Geschäftsmodell und Prozesse beschreiben die digitale Transformation, bei der die Wertschöpfung ausschließlich im Internet stattfindet. Das lässt sich am Beispiel der sogenannten Cloud-born-Unternehmen wie Airbnb und Uber illustrieren. Sie haben ihre gesamte Wertschöpfungskette im Internet aufgebaut. Aber auch bei den traditionellen Unternehmen zeigt sich ein klarer Trend, dass immer mehr Geschäftsprozesse – und das gilt insbesondere für die Services mit Kunden, Lieferanten und Geschäftspartnern – über das Internet erfolgen.
Sven Klindworth: Ich möchte das um zwei Aspekte ergänzen. Vor allem im B2C-Markt haben es die etablierten Unternehmen mit neuen Wettbewerbern zu tun. Die Cloud-born-Anbieter drängen sich zwischen die Hersteller von Produkten und den Endkunden. Sie brechen die bisherigen Beziehungen zwischen Herstellern und Kunden auf und schaffen Plattformen, auf denen dann der gesamte Mehrwert entsteht, etwa im Buchhandel, in der Musik- und Filmbranche oder im Reisegeschäft. Im B2B-Markt haben auch etablierte Anbieter die Initiative ergriffen. Unternehmen aus dem produzierenden Gewerbe statten ihre Produkte mit Funkchips aus und verkaufen keine Produkte mehr, sondern Services wie Predictive Maintenance oder Echtzeit-Support. Der Hersteller einer Schlagbohrmaschine verkauft keine Ersatzteile mehr, sondern Löcher; und Anlagen, die früher auf eine fünfjährige Nutzungsdauer ausgelegt waren, können per Online-Softwareupdate neue Funktionen erhalten, die vielleicht zehn oder mehr Jahre Investitionsschutz bieten.

Welche Rolle spielt die Cloud bei der digitalen Transformation?
Jürgen Metko: Die digitale Transformation beschreibt den fundamentalen Wandel von Unternehmen hin zu einer mit Kunden, Lieferanten und Geschäftspartnern vollständig vernetzten Organisation. Sowohl im B2C- als auch im B2B-Umfeld sind Anwendungen und Services über das Web zugänglich. Cloud-Technologien bilden daher das Herzstück der digitalen Transformation.
Sven Klindworth: Die digitale Transformation ist ohne die Cloud nicht möglich; vor allem auch deshalb, weil die digitale Transformation nicht auf einen Ort oder einen lokalen Markt beschränkt ist. Wenn Unternehmen neue Marktsegmente und Regionen erschließen wollen, stellt die Cloud die dafür benötigte Daten- und Kommunikationsinfrastruktur bereit. Die GPS-Daten, die die Laufschuhe des Privatkunden, oder die Daten des Reifendrucks, die die Lkws der Logistikunternehmen senden, können nur in der Cloud orts- und zeitnah verarbeitet und ausgewertet werden.

Sven Klindworth

Wie können Sie Unternehmen bei der digitalen Transformation unterstützen?
Jürgen Metko: Unternehmen müssen ihre IT – und das betrifft sowohl das eigene Rechenzentrum als auch die Integration und Nutzung von Cloud-Services – so aufstellen, dass sie zu einem reibungslosen „Enabler“ der digitalen Transformation wird. Durch die Einbeziehung von Cloud-Architekturen zur Bereitstellung von Applikationen, Daten und Services auf beliebigen Endgeräten, und oft weltweit, stellen sich für Unternehmen neue Herausforderungen bezüglich Performance, Verfügbarkeit und Sicherheit. Diese können sie allein meist nicht bewältigen. Wer Webapplikationen oder Cloud-Services für Kunden und Lieferanten anbietet, sollte über die Nutzung eines weltweit verteilten „Content Delivery Networks“ (CDN), wie der Akamai Intelligent Platform, sicherstellen, dass die benötigten Kapazitäten auch in Spitzenzeiten flexibel und zuverlässig bereitstehen.
Sven Klindworth: Zuerst einmal bieten wir unseren Kunden im Regelfall dringend benötigte Beratung bei der Entwicklung und Implementierung ihrer Digital-Transformation- und Cloud-Strategie. Darüber hinaus verfügt BT in Deutschland wie auch weltweit über eine eigene Netzinfrastruktur und Rechenzentren, aus denen IT-Services für Unternehmen erbracht werden. Über ein weltweites IP-Netzwerk erhalten Kunden in über 190 Ländern Zugriff auf Data-Center-Services und IT-Lösungen aus einer Hand. In Gemeinschaftsprojekten ergänzen wir uns mit Akamai. Unsere Kunden bringen ihr fachliches und Branchen-Know-how in Digitalisierungsprojekte ein. BT berät und stellt die Rechenzentren, Cloud-Services und Netzwerkkapazitäten bereit und Akamai sorgt mit seinen Web-Performance- und Security-Lösungen für die verlässliche Auslieferung von Daten und Services über das Internet. Zusammen mit Akamai bieten wir Komplettlösungen, die es Unternehmen ermöglichen, ihre Geschäftsmodelle im Internet erfolgreich umzusetzen.

Kernaussagen

  • Digitale Transformation ist ein entscheidender Faktor zur Stärkung der Wettbewerbsfähigkeit. Bei der Umsetzung neuer Geschäftsmodelle und -prozesse stellt die Cloud die benötigte Kommunikationsinfrastruktur bereit. Cloud-Technologien bilden so das Herz­stück der digitalen Transformation.
  • Mit einem verlässlichen Partner an der Seite sollten Unternehmen jetzt einen Proof of Concept starten, erste Erfahrungen sammeln und das Wissen möglichst rasch in weiteren Projekten umsetzen.
  • In vielen Branchen gibt es bereits einen Chief Digital Officer, der die digitale Transformation vorantreibt. Er sollte über ein fundiertes technisches und betriebswirtschaftliches Know-how verfügen sowie ein Gespür für innovative Ideen mitbringen.

Welche Herausforderungen gibt es für Unternehmen bei der digitalen Transformation?
Sven Klindworth: Bei der Umsetzung der digitalen Transformation lassen sich drei Gruppen unterscheiden: Erstens die allgemein bekannten Cloud-born-Vorbilder und zweitens die Vorreiter unter den etablierten Unternehmen wie Bosch. Der Automobilzulieferer betreibt eine eigene Cloud für internetbasierte Services und stellt dort Anwendungen aus den Bereichen vernetzte Mobilität, vernetzte Industrie und vernetzte Gebäude bereit. Die dritte Gruppe, sehr viele andere Unternehmen, warten ab und wissen nicht, wie sie anfangen sollen. Das betrifft vor allem die Hidden Champions unter den mittelständischen Unternehmen. Sie sind ingenieursmäßig hervorragend aufgestellt, erkennen aber nicht die Chancen, die sich für ihr Unternehmen aus der digitalen Transformation ergeben. Auch sind Ingenieure im Maschinenbau im Regelfall keine Softwareentwickler.
Jürgen Metko: Wir haben in Deutschland eine bedeutende Fertigungsindustrie mit sehr viel Know-how. Eine der Herausforderungen besteht darin, Schritt zu halten mit der Geschwindigkeit, mit der sich Businessmodelle und Geschäftsprozesse ändern. Hier tun sich viele schwer. Andere Branchen, vor allem aus dem B2C-Bereich, haben einen „Chief Digital Officer“ (CDO) ernannt, der die Digitalisierung vorantreiben soll.

Brauchen Unternehmen einen CDO oder kann die IT den digitalen Wandel alleine vorantreiben?
Jürgen Metko: Die meisten Unternehmen haben erkannt, dass sie sich mit der digitalen Transformation befassen müssen, aber es mangelt an einem Plan, wie sie die weitere Digitalisierung anpacken sollen. Der CDO sollte ein Gespür für innovative Geschäftsideen mitbringen, aber auch über ein fundiertes technisches und betriebswirtschaftliches Know-how verfügen.
Sven Klindworth: Dem kann ich mich nur anschließen. Die digitale Transformation ist nicht allein die Sache eines CIO, auch wenn sich dessen Rolle hin zu einer viel stärkeren proaktiven Unterstützung der Fachbereiche entwickelt. Er ist mit Datacentern, Applikationen und Netzen oft schon ausgelastet. Stärkeres unternehmerisches Denken und Querdenken, um beispielsweise das Potenzial von Industrie 4.0 und dem Internet of Things zu erkennen und mit branchenspezifischem Know-how zu kombinieren, erfordert die zusätzliche Rolle des CDO. Diesem kommt zusätzlich der Aufbau einer Partnerlandschaft zu, die man gegebenenfalls braucht, um eine Plattform für Kunden, Lieferanten und Geschäftspartner aufzubauen.

Definition „Content Delivery Network“

Ein „Content Delivery Network“ (CDN) ist ein geografisch verteiltes, aus einer Vielzahl spezieller Server bestehendes Netzwerk. Unternehmen nutzen es für eine schnelle, zuverlässige und sichere Auslieferung von Websites, Web-Applikationen und Unterhaltungsangeboten für Privat- und Geschäftskunden. Akamai betreibt das weltweit größte CDN mit mehr als 220 000 Servern in über 120 Ländern. Um Webinhalte möglichst zügig an die Endbenutzer ausliefern zu können, nutzt das CDN das Edge-Caching. In einem Zwischenspeicher werden auf den Edge-Servern Kopien von Texten, Bildern, Audio­dateien und Videos vorgehalten. Nutzeranfragen können so von einem nahe gelegenen Edge-Server anstatt von einem geografisch entfernten Ursprungs-Server beantwortet werden. Zur schnellen Bereitstellung von Inhalten kommen darüber hinaus Techniken wie Routenoptimierung und TCP-Verbindungsoptimierung zum Einsatz.

Welche Handlungsempfehlungen können Sie Unternehmen geben?
Sven Klindworth: Nach einer Phase der Information und Diskussion ist es jetzt Zeit zu handeln. Unternehmen sollten mit einem verlässlichen Partner an ihrer Seite einen Proof of Concept starten und Erfahrungen sammeln. Sie werden sicherlich im ersten Anlauf nicht alles richtig machen, aber wertvolle Erkenntnisse erwerben, um dann die nächsten Stufen zu starten. Unternehmen eröffnen sich damit Möglichkeiten, ihre Geschäftsmodelle und Services in Richtung Kunden weit attraktiver und damit profitabler zu gestalten und können agiler auf neue Anforderungen in ihren Märkten reagieren. Wer hingegen jetzt zögert, könnte in wenigen Jahren vom Markt verschwunden sein.
Jürgen Metko: Unternehmen sollten durch einen effizienten Einsatz der Cloud die notwendigen Rahmenbedingungen schaffen. Dazu gehört, dass die Applikationen und Services stets performant und ohne Unterbrechungen zur Verfügung stehen – unabhängig vom Standort und dem verwendeten Endgerät. Möglichst viele Daten und Services sollten daher auf den Servern eines verteilten CDNs dezentral und regional bereitstehen, um von dort an Unternehmens- und Privatkunden ausgeliefert zu werden. Zudem sollten die „digitalen Assets“ wie Webseiten, Applikationen und Infrastrukturen vor Ausfallzeiten und Datendiebstahl geschützt werden. Eine mehrstufige Sicherheitsstrategie bietet dabei einen hohen Schutz. Sie reicht vom eigenen Rechenzentrum oder dem eines IT-Dienstleisters bis in die Cloud. Eine cloudbasierte Lösung wirkt dort, wo die Angriffe entstehen, und wehrt beispielsweise DDoS-Angriffe ab, bevor sie die IT-Infrastruktur und die darauf laufenden Applikationen und Services aus dem Bereich der digitalen Transformation erreichen.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Sven Klindworth

Informationen zu Jürgen Metko