Beiträge

Digitale Souveränität wahren

Soll sich KI auf breiter Basis durchsetzen, ist es notwendig, dass die Industrie und auch die Verbraucher Vertrauen in die Technologie gewinnen.

Die TREND-REPORT-Redaktion sprach mit Professor Holger Hanselka, Präsident des Karlsruher Instituts für Technologie (KIT) und Mitglied im Lenkungskreis der Plattform Lernende Systeme.

Herr Prof. Hanselka, welche Chancen bieten sich für den Standort Deutschland im Kontext neuer KI-Technologien?

Lernende Systeme, die auf Methoden und Technologien der künstlichen Intelligenz basieren, werden zunehmend zum Treiber der Digitalisierung in Wirtschaft und Gesellschaft. Man denke nur an Industrie 4.0, medizinische Diagnostik, autonomes Fahren sowie die Unterstützung von Rettungskräften in Katastrophengebieten. Das wirtschaftliche Potenzial dieser Systeme für Deutschland ist enorm: Bereits heute entstehen völlig neue Geschäftsmodelle, welche die traditionellen Wertschöpfungsketten drastisch verändern.

Aktuell ist die Herausforderung im Zusammenspiel von Wissenschaft und Wirtschaft, dass wir unser Wissen rasch für neue KI-Anwendungen und Geschäftsmodelle nutzen, denn lernende Systeme sind ein zentraler Wettbewerbsfaktor für die Zukunftsfähigkeit des Innovationsstandortes Deutschland.

Dies bietet Chancen für neue Unternehmen, kann aber auch zur Bedrohung für etablierte Marktführer werden, wenn diese nicht rechtzeitig reagieren. In Deutschland ist es unser erklärtes Ziel, dass künstliche Intelligenz dem Menschen dienen soll, nicht umgekehrt. So steht es auch in der KI-Strategie der Bundesregierung. Dies ist auch der Kerngedanke der Plattform Lernende Systeme, in der Politik, Wirtschaft und Wissenschaft zusammenarbeiten, um die Chancen, die KI bietet, bestmöglich für Deutschland zu nutzen.

Die deutschen Investitionen in KI-Technologien, im Vergleich zu den USA und China, fallen eher nüchtern aus. Wie können wir mit der Forschung am Ball bleiben?

In unserer Forschung zu Industrie 4.0, beim autonomen Fahren oder auch im Bereich der Entwicklung von lernenden Systemen für lebensfeindliche Umgebungen nehmen wir in Deutschland bereits einen Spitzenplatz ein. So halten deutsche Unternehmen weltweit die meisten Patente zum autonomen Fahren. Auch in der IT-Sicherheit, einer wichtigen Voraussetzung für Industrie 4.0, sind wir wissenschaftlich weit vorne. Beispielsweise erforschen wir am Karlsruher Institut für Technologie in unserem Kompetenzzentrum für IT-Sicherheit KASTEL, wie sich KI nutzen lässt, um gegen Angreifer gewappnet zu sein, und wie man sich gegen menschlich und künstlich intelligente Angreifer-Systeme wehrt.

Mit der zunehmenden Vernetzung von Unternehmen und öffentlichen Einrichtungen wächst auch deren potenzielle Verwundbarkeit durch Cyber-Angriffe.

Damit die Industrie Vertrauen in KI gewinnt, ist es erforderlich, dass wir die digitale Souveränität wahren können. Die Herausforderung im Zusammenspiel von Wissenschaft und Wirtschaft ist aktuell, dass wir unser Wissen rasch für neue KI-Anwendungen und Geschäftsmodelle nutzen, denn lernende Systeme sind ein zentraler Wettbewerbsfaktor für die Zukunftsfähigkeit des Innovations­standortes Deutschland.

Wie können wir mehr Start-ups im Kontext der neuen Technologien an den Start bringen und fördern?

Wichtig ist eine Gründerförderung auf allen Ebenen. Daher sieht die KI-Strategie der Bundesregierung konkrete Maßnahmen vor, um die Zahl der Gründungen im Bereich der KI zu erhöhen, von Beratungsangeboten bis hin zur Bereitstellung von Wagniskapital. Klar ist: Das Wissen, das wir aktuell in Deutschland haben, müssen wir in den Markt bringen, sodass es der Gesellschaft und Wirtschaft nutzt. Auch am KIT fördern wir massiv Ausgründungen.

Zwei Beispiele: Das 2016 gegründete Unternehmen „Understand ai“ mit Wurzeln am KIT kombiniert Machine Learning mit menschlicher Sorgfalt und bereitet mithilfe selbstlernender Algorithmen Daten für das autonome Fahren auf. „Things Thinking“ setzt KI ein, um große Textmengen in kurzer Zeit zu analysieren, was beispielsweise Wirtschaftsprüfern, Steuerberatern und Kanzleien weiterhilft. Wichtig ist, dass wir Gründern in jedem Schritt des Unternehmensaufbaus systematisch Beratungsangebote an die Hand geben. Dies bedeutet auch, dass wir im Sinne einer Kultur des Scheiterns gesellschaftlich anerkennen, dass junge Unternehmen auch von negativen Erfahrungen lernen und dadurch immer besser werden.

Wo befinden wir uns ungefähr im Entwicklungsprozess der „wirklichen KI“?

Wenn Sie mit „wirklicher KI“ die Unterscheidung von starker und schwacher KI meinen, dann bin ich der falsche Ansprechpartner, denn ich bin kein Informatiker und auch kein Philosoph. Aber als Ingenieur interessiert mich sehr, wie KI in unterschiedliche technische Entwicklungsprozesse einfließt und dort zu großen Veränderungen führt. Denn letztendlich ist es ja nicht die KI, die gesellschaftliche Veränderungen mit sich bringt, sondern die technischen Veränderungen in unterschiedlichen Anwendungsbereichen, die durch KI erreicht werden können. Und da sind die Veränderungen, die man heute schon durch den Einsatz von KI erreichen kann, durchaus schon beträchtlich.

Diesen Ansatz verfolgen wir ja auch in der Plattform Lernende Systeme, wo drei Arbeitsgruppen sich konkreten Anwendungsszenarien widmen, zu intelligenten Verkehrssystemen, zur Gesundheit und zu lebensfeindlichen Umgebungen.

Teilweise autonom fahrende Fahrzeuge sind bereits Realität.

Was wird in naher Zukunft zu erwarten sein?

Im autonomen Fahren werden wir gewaltige Fortschritte machen. Autos, die selbstständig einparken und die uns von A nach B bringen werden, sind ja bereits heute Realität. Fahrerlose Autos werden mehr und mehr unsere Mobilität prägen, die multimodal sein wird und verschiedene Verkehrsmittel kombiniert, idealerweise geplant mit einer App. Dies wird auch die Stadt- und Regionalentwicklung positiv beeinflussen, weil gerade auch ältere Menschen durch das fahrerlose Auto mobiler sind und nicht mehr zwingend in die Stadt ziehen müssen.

Genauso ist die intelligente integrierte Vernetzung der Produktion ein Prozess, der längst begonnen hat und sich in der globalisierten Welt mehr und mehr durchsetzen wird. Dies hat zur Folge, dass wir nicht in Ländergrenzen denken dürfen, sondern europaweit Strategien entwickeln müssen. Die jüngst verkündete Zusammenarbeit von Daimler und BMW beim autonomen Fahren ist ein wichtiges Zeichen, denn es geht darum, in Europa die Kräfte zu bündeln.

Wir müssen KI fest in die in­ge­nieurwissenschaftliche Ausbildung integrieren.

Auch werden sich Berufsbilder verändern. Das Weltwirtschaftsforum rechnet damit, dass schon bis zum Jahr 2022 weltweit rund 75 Millionen Arbeitsplätze durch Maschinen ersetzt werden. Gleichzeitig werden der Studie zufolge in den kommenden fünf Jahren 133 Millionen neue Stellen geschaffen, für die teilweise ganz neue Fachkenntnisse nötig sein werden, wie Datenanalysten, E-Commerce- und Social-Media-Spezialisten.

Dies bedeutet, dass bereits Schülerinnen und Schüler programmieren lernen und wir KI fest in die ingenieurwissenschaftliche Ausbildung integrieren müssen. Denn künftig werden wir KI in jedem Schritt der Entwicklung von neuen Produkten mitdenken müssen.

Wie könnten in Zukunft die neuen KI-Technologien unsere Netze und Anwendungen sicherer machen und welche Herausforderungen sind noch zu meistern?

Der Hackerangriff auf den Bundestag Ende des letzten Jahres und die Cyberattacke „Wanna Cry“ auf die Deutsche Bahn im Mai 2017 sind nur zwei Beispiele für Angriffe auf IT-Systeme des Staates und der Wirtschaft. Mit der zunehmenden Vernetzung von Unternehmen und öffentlichen Einrichtungen wächst auch deren potenzielle Verwundbarkeit durch Cyber-Angriffe.

KI kann die Sicherheit von IT-Systemen verbessern. Wir sollten aber darauf achten, nicht nur die Außengrenzen eines komplexen IT-Systems zu schützen, das reicht nicht aus. Denn wir müssen auch reagieren können, wenn ein Teil des IT-Systems von einem Angreifer übernommen wurde.

KI-Systeme können ihr Potenzial ausspielen, wenn es um die verlässliche Angriffserkennung geht. Eine Herausforderung besteht darin zu verstehen, warum eine KI dies oder jenes tut. Daher brauchen wir dringend weitere Forschung und Einblicke in die „Blackbox“ der KI, damit wir uns auf die Entscheidungen von KI-Systemen in kritischen Situationen verlassen können. //

Kontakt zum Interviewpartner

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Internet of Things: Ein lernender Markt

Das Internet der Dinge (IoT) beeinflusst unser gesamtes Leben.

von Dr. Ralf Magagnoli

Das IoT ist in aller Munde. Worum geht es? Es geht darum, die mit mikroelektronischen Komponenten versehenen Produkte über das Internet miteinander zu vernetzen. Sogenannte „smarte Produkte“ sammeln über entsprechende Sensoren Daten, analysieren sie und leiten sie via Internet weiter bzw. empfangen Daten von anderen smarten Produkten. Die „Intelligenz“ dieser Produkte führt dazu, dass sie eigenständig Aufgaben ausführen, mit anderen Produkten kommunizieren, sich selbstständig updaten bzw. an veränderte Kundenbedürfnisse anpassen, laufende Kosten senken und den „Return on Investment“ (ROI) erhöhen sowie Risiken und Gefahren voraussehen und Abhilfe schaffen.

Gesamtpotenziale bis 2022 von über 14 Billionen Dollar

Betrachtet man den Nutzen des IoT für die Unternehmen genauer, wird das Potenzial bei Mitarbeiterproduktivität und Arbeitseffizienz auf bis zu 2,5 Billionen US-Dollar bis 2022 geschätzt: Beispiel Datenbrillen, die es Fachkräften erlauben, Fehlerquellen sofort ausfindig zu machen, oder Tools, die dafür sorgen, dass die Mitarbeiter die Hände frei haben, um Arbeitsvorgänge ohne Unterbrechung zu erledigen. Das Potenzial für Kundenbindung beläuft sich, laut Expertenmeinung, auf bis zu 3,7 Billionen Dollar: So können Kunden über eine Vielzahl von Kontaktpunkten („Touchpoints“) mit dem Unternehmen Kontakt aufnehmen und Produkte bzw. Dienstleistungen einkaufen.

Die mit Sensoren versehenen Produkte liefern zudem Informationen über Kundenverhalten und -wünsche. Das reicht im Supermarkt bis hin zu Produkten, die der Kunde nicht nur gekauft, sondern die er vielleicht in den Warenkorb gelegt und dann wieder zurückgestellt hat. Im Hinblick auf Logistik und Supply-Chain-Management beträgt das Potenzial bis zu 2,7 Billionen Dollar. Das Tracking, die Nachverfolgung von Produkten, ermöglicht eine genauere Ressourcenallokation und eine hohe Echtzeit-Transparenz. Die höhere Energieeffizienz und die Vermeidung von Ausfallzeiten – Stichwort Predictive Maintenance – tragen zu Kostensenkungen bei, deren Potenzial mit bis zu 2,5 Billionen US-Dollar zu Buche schlägt.

Last, but not least: Das Potenzial für Innovationen durch Optimierung und Erweiterung bestehender Geschäftsmodelle liegt nach Expertenmeinung bei bis zu drei Billionen US-Dollar. Addiert man die Potenziale zusammen, kommt man auf eine Summe von über 14 Billionen Dollar, was ungefähr dem Bruttoinlandsprodukt Chinas entspricht.

Chancen für neue Geschäftsmodelle

Die wohl gewaltigsten Potenziale durch das IoT liegen in der Entwicklung neuer Geschäftsmodelle. Experten nennen drei Möglichkeiten, die sich den Unternehmen eröffnen: 1. Bestehende Produkte mit IoT-Zusatzservices zu versehen; 2. neue Produkte mit IoT-Funktionen zu entwickeln; 3. produktlose „Smart Services“ zu schaffen.

Die erste Variante ist die wahrscheinlich anspruchsloseste, kann aber die Kundenbindung verstärken und den Umsatz erhöhen und sollte somit Ziel der IoT-Strategie in Unternehmen sein. Ein bestehendes Produkt wird um IoT-Funktionen erweitert. Beispiele sind der Drucker, der feststellt, wann sich der Toner leert, und eine eigene Bestellung aufgibt, oder der Geschirrspülautomat, der ebenfalls selbstständig neue Geschirrspültabs nachbestellt.

Anspruchsvoller ist die zweite Variante, bei der neue Produkte mit IoT-Features entwickelt werden. Ein Beispiel wäre das selbstständig fahrende Google-Auto. Für Unternehmen, in diesem Fall den Internetriesen Google, eröffnet sich die Möglichkeit, in fremde Märkte einzudringen und Marktanteile zu erobern.

Deutlich spürbar ist der Trend vieler Unternehmen vom Produktanbieter zum Serviceanbieter. Dieser Trend basiert auf der Annahme, dass viele Kunden bestimmte Dinge nicht besitzen, sondern einfach einen Service nutzen wollen. Findigen Unternehmern eröffnet das IoT zudem die Möglichkeit, innerhalb kurzer Zeit etablierte Unternehmen zu verdrängen und zu Marktführern aufzusteigen. Umgekehrt sind etablierte Unternehmen gefordert, Szenarien zu entwickeln, wie sie sich an der Spitze behaupten können.

Entwicklung IoT-spezifischer Geschäftsmodelle: Ein Vier-Phasen-Modell

Wie aber Ansätze entwickeln, um IoT-spezifische Geschäftsmodelle zu entwickeln? Der Wissenschaftler Dominik Bilgeri u. a. haben dafür ein Workshop-Modell entwickelt, auf das Unternehmen zurückgreifen können. Es besteht aus vier Phasen: der Ideation, der Präparation, der Evaluation und dem Skaling.

Am Anfang steht die Ideenentwicklung. Das möglichst interdisziplinär zusammengesetzte und hierarchiefrei diskutierende Team sollte Vorfestlegungen vermeiden und „iterativ“ vorgehen. Sinnvoll ist es, auf bewährte Techniken wie das Design Thinking zurückzugreifen. Design-Thinking-Prozesse gliedern sich, generell gesprochen, in folgende Punkte: verstehen, beobachten, Sichtweise definieren, Ideen finden, Prototyp entwickeln, testen. Was bedeutet dies nun konkret für die Entwicklung eines IoT-spezifischen Geschäftsmodells?

Ausgehend von einer grundlegenden „Vision“ werden in der ersten Phase der Ideenfindung im Brainstorming mehrere Ideen entwickelt, die in einer Longlist zusammengefasst und bewertet werden. Diese wird auf eine Shortlist reduziert. In der zweiten Phase werden diese Ideen der Shortlist im Hinblick auf die Kundenperspektive sowie auf die Beziehungen zu den „Stakeholdern“, also zum Beispiel Lieferanten, Investoren, breite Öffentlichkeit, analysiert. Fragestellungen wären etwa, welche Fähigkeiten zur Umsetzung im Unternehmen benötigt werden, welche Vorteile sich für Geschäftspartner ergeben, welche notwendigen Fähigkeiten die Geschäftspartner mitbringen.

Das Ganze wird zu einer Business-Case-Betrachtung verdichtet. In der dritten Phase erfolgt die Prüfung der erarbeiteten Geschäftsmodelle, zu der auch die Entwicklung von Best-Case- sowie Worst-Case-Scenarios gehört. Die vierte Phase besteht aus der Umsetzung der Geschäftsmodelle.

Verfügbar, skalierbar, agil – die IT-Architektur

Bei der Umsetzung ist zu beachten, dass die Anforderungen des IoT an die IT-Architektur sehr hoch sind: Im Vordergrund stehen dabei Verfügbarkeit, Skalierbarkeit, „Continuous Delivery“ und Agilität. Über die Verfügbarkeit wird garantiert, dass Teilausfälle nicht zu einem Ausfall des gesamten Systems führen. Skalierbarkeit bedeutet, dass einzelne, besonders beanspruchte Komponenten angepasst werden können, ohne andere Komponenten zu beeinflussen.

„Continuous Delivery“: Hierbei soll man imstande sein, Änderungen und Verbesserungen vorzunehmen, ohne das ganze System upzudaten. Agilität bedeutet in diesem Fall die Fähigkeit, „Änderungen, Verbesserungen und Erweiterungen (…) unabhängig von der Funktionalität der gesamten Applikation vor(zu)nehmen und ohne andere Teil-Services (zu) beeinträchtigen“. Im Prinzip sieht die Architektur folgendermaßen aus: Die entsprechend ausgestatteten Geräte („Dinge“), die IoT-Devices, leiten die Daten an die Cloud weiter – sogenannte „Low Power Devices“ nutzen dafür ein extra zwischengeschaltetes Gateway, das mit dem IoT-Backend verbunden ist. Dieses ist in Geschäftsapplikationen (Supply Chain, ERP etc.) bzw. in mobile Geräte und Rechner integriert. Der Datenfluss läuft aber in beide Richtungen, sodass die Geräte auch miteinander im Austausch stehen.

Klar ist, dass auch das hohe Datenaufkommen bewältigt werden muss – so fallen allein während eines einzigen Transatlantikfluges rund drei Terabyte Rohdaten an. Dies gilt umso mehr, als einer der Hauptvorteile des IoT in der Vernetzung von Informationsflüssen liegt: Hersteller teilen die Daten entlang der Lieferkette mit allen Beteiligten, also mit Lieferanten, Spediteuren, Subunternehmern, Stakeholdern, manchmal sogar mit Wettbewerbern.

Hier setzt Big Data ein, also Verfahren, mit denen die zusätzlich über die IoT-Technik gewonnenen Daten geordnet und analysiert werden können, um Entscheidungen zu erleichtern. Als Stichworte seien hier spezielle Analyseverfahren (Data Analytics) sowie die Blockchain-Technik genannt, dezentrale, linear erweiterbare Datenbanken, die ständig neue Elemente hinzufügen.

Schließlich gilt es, im Rahmen einer integrierten IT-Security-Strategie etwaige Schwachstellen (etwa unsichere Mobilgeräte oder Cloud-Interfaces) zu ermitteln und auch ein spezielles Risiko-Management für IoT-Geräte einzuführen.

Chance im globalen Wettbewerb

IoT bedeutet für die Unternehmen Chancen im globalen Wettbewerb: Tendenziell wird das statische Element in den Unternehmen verschwinden. Die Unternehmen im 21. Jahrhundert werden sich von den Unternehmen des 20. Jahrhunderts so unterscheiden wie jene von den Manufakturbetrieben des achtzehnten Jahrhunderts. Es kommt für das einzelne Unternehmen nur darauf an, die sich ergebenden Chancen auch zu nutzen. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Bild von Pete Linforth auf Pixabay

IT-Sicherheit ist nicht nur eine Frage der Technik

Ein wichtiger Faktor für IT-Sicherheit sind Mitarbeiter und Manager, die Gefahren und Risiken richtig einordnen können.

Auch Führungskräfte, die wenig IT-Know-how haben, müssen beim Thema Cybersecurity mitreden können, um die richtigen Entscheidungen zu treffen.

Mangelnde IT-Sicherheit kann die Entwicklung der digitalen Wirtschaft deutlich verlangsamen und damit künftiges Wachstum hemmen – ein Problem, das kein Unternehmen allein lösen kann. Wenn Anwender nicht darauf vertrauen können, dass digitale Technologien sicher sind, dann bleiben wirtschaftliche Chancen ungenutzt und neue Technologien scheitern an Akzeptanzproblemen. Ein Gespräch mit Andy Schweiger, Managing Director Cyber Security Services TÜV SÜD Sec-IT GmbH, und Jörg Schemat, Sprecher der Geschäftsführung TÜV SÜD Akademie.

Cyberangriffe sind heute an der Tagesordnung und können beträchtlichen Schaden anrichten. Worauf kommt es wirklich an, wenn Unternehmen sich effektiv schützen möchten?
Schweiger: Die Zahl der vernetzten Geräte und damit auch die Angriffsfläche steigt in den kommenden Jahren rapide an. Experten prognostizieren 20 Milliarden Geräte im Internet of Things bis 2020. Angesichts der Schnelligkeit, mit der Cyberkriminelle heute weltweit agieren und mit der sich die Werkzeuge für Cyberattacken verändern, genügen punktuelle Sicherheits-Updates heute nicht mehr. Unternehmen müssen verstehen, dass Cybersecurity eine permanente Aufgabe ist, die die gesamte Organisation betrifft. Das fängt an bei „Security by Design“, also Integration von IT-Sicherheit bereits beim Gestalten von Prozessen und Produkten. Und es geht weiter bei „Security as a Service“, um relevante Sicherheits-Updates kontinuierlich verfügbar zu haben. Das ist ähnlich wie beim menschlichen Körper: Wer regelmäßig etwas für seine Gesundheit tut, ist fitter und widerstandsfähiger als jemand, der nur einmal jährlich zur Vorsorge geht.
Schemat: Wenn Unternehmen ihre IT-Sicherheit wirklich ernst nehmen, dann betrachten sie nicht nur die technische Dimension, sondern auch ihre Prozesse und Mitarbeiter. Während ausgefeilte technische Methoden zur Erkennung von Schwachstellen heute in vielen Unternehmen bereits genutzt werden, spielt die Schulung der eigenen Mitarbeiter zum Thema IT-Sicherheit häufig noch eine eher untergeordnete Rolle. Dabei gehört „Social Engineering“ längst zum Standardrepertoire von Cyberkriminellen. Zum Beispiel werden über täuschend echt wirkende Phishing-E-Mails sensible Informationen abgeschöpft oder über E-Mail-Anhänge Schadsoftware eingeschleust. Angriffe dieser Art werden weiter zunehmen, zumal auch Cyberkriminelle inzwischen künstliche Intelligenz nutzen. Durch gezielte Aufklärung und regelmäßige Schulungen können Arbeitgeber diese Gefahr zumindest reduzieren.

IT-Security ist heute also kein reines Technikthema mehr, sondern eine Frage der Kultur?
Schemat: Entscheidend ist, dass ein Unternehmen das richtige Verständnis für IT-Sicherheit hat und dies auch tatsächlich in der Organisation gelebt wird. Prozesse, Betriebsabläufe und die Unternehmenskultur, wie zum Beispiel der Umgang mit Fehlern und HR-Maßnahmen wie Schulungen, spielen eine wichtige Rolle. Unternehmen, die das beachten, verfügen über einen klaren Wettbewerbsvorteil. Dazu kommt: IT-Sicherheit ist inzwischen ein Thema für das C-Level und das operative Management. Denn durch das Internet of Things verschwimmen die Grenzen zwischen IT- und OT-Systemen. Auch Führungskräfte, die wenig IT-Know-how haben, müssen beim Thema Cybersecurity mitreden können, um die richtigen Entscheidungen zu treffen.

Welche Rolle spielen technische Standards, wenn es um Cybersecurity geht, und was können Unternehmen dabei von TÜV SÜD erwarten?
Schweiger: Standards spielen eine große Rolle, denn sie stärken das Vertrauen in technische Lösungen. Seit jeher müssen sich Sicherheitsstandards dabei dem technologischen Fortschritt anpassen und gegebenenfalls neu definiert werden. Das gilt in der physischen wie in der digitalen Welt. Unternehmen stehen heute vor der Herausforderung, das „angemessene Niveau“ der digitalen Sicherheit ihrer Produkte und Dienstleistungen objektiv nachzuweisen. Nur so können Anwender auf die Sicherheit der digitalen Technologien vertrauen – nur so bleibt die Dynamik der Digitalisierung ungebremst. Wir bei TÜV SÜD haben das erkannt und prüfen bei unseren Analysen und Assessments immer den gesamten Cyber­security-Lifecycle eines Unternehmens. In unseren Kompetenzzentren in Singapur, Mumbai und München arbeiten wir an technischen Antworten auf die Security-Fragen der Zukunft. Das Besondere: Als neutraler Partner analysiert TÜV SÜD hersteller­unabhängig die Sicherheit der technischen Infrastruktur. Wir empfehlen keine speziellen Produkte, Lösungen oder Dienstleister, noch sind wir von solchen abhängig. //

Zu den Interviewpartnern:
Jörg Schemat
Andy Schweiger


Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Erfolgreiche Digitalisierung – nur mit digitaler Bildung

Lern- und Wissensmanagement im raschen Wandel

von Dr. Sandra Boggel

Die Digitalisierung stellt Unternehmen und Mitarbeiter vor viele Herausforderungen. Wo man früher noch für sein ganzes Berufsleben gelernt hat, erfordern heute technologische Neuentwicklungen, sich ändernde Märkte und wechselnde Geschäftsprozesse eine ständige Anpassung von Wissen und Kompetenzen an die Anforderungen des Arbeitslebens.

Um diesen Forderungen gerecht zu werden, müssen Unternehmen, die auf Digitalisierung setzen, verstärkt in die ständige Weiterbildung und Kompetenzsteigerung ihrer Mitarbeiter investieren. Damit einher geht ein steigender Bedarf nach flexiblem und effizientem Lern- und Wissensmanagement: Das zu vermittelnde Wissen muss für die verschiedenen Bereiche, Mitarbeiter und Bedarfsmomente jederzeit abrufbar und leicht zugänglich sein. Unternehmen stehen nun vor der Aufgabe, ein funktionierendes Lern- und Wissensmanagement aufzubauen, das in der Lage ist, sich dem raschen Wandel anzupassen. Dabei bieten gerade die digitalen Technologien viel Potenzial, um die Erfassung und die Verteilung des Wissens im Unternehmen ressourcenschonend zu gestalten.

Digitale Lernwelten aufbauen

Die Lösung für den steigenden Wissens- und Kompetenzbedarf, der aufgrund der Digitalisierung entsteht, findet sich quasi in ihr selber, sprich in der Digitalisierung des Lernens und des Wissensmanagements. Digitale Lerntechnologien bieten mittlerweile eine Fülle an Möglichkeiten, Wissen schnell und zielgerichtet an die Mitarbeiter zu bringen oder es untereinander auszutauschen.

Etablierte Lernmanagementsysteme (LMS) stellen dabei im Unternehmen immer noch das Herz des digitalen Lernkonzepts dar: Hier können Lernerfolge dokumentiert, Seminarteilnehmer verwaltet, Zertifizierungen entwickelt und digitale Lerninhalte rollenbasiert verteilt werden. Pflichtschulungen können automatisiert zugewiesen und Wissen und Kompetenzen auf Knopfdruck reportet werden.

Moderne Lernmanagementsysteme berücksichtigen neben den o. g. formalen Lernprozessen aber auch die informellen Lernwege, also jenes Lernen, das durch konkrete Anwendung, Problemlöseprozesse, gezieltes Nachschlagen oder persönlichen Austausch vonstattengeht. Integrierte Autorentools ermöglichen z. B. User-generated Content, es gibt Videoblogs, Foren, Wikis oder virtuelle Karteikarten, und über Performance-Support-Systeme stehen hilfreiche Informationen auf Abruf bereit.

Damit treten digitale Lernmethoden aus dem Schatten des klassischen E-Learnings. Kollaboratives Lernen, Workplace Learning, Performance-Support – die Anwendungsunterstützung im Prozess – und User-generated Content sind die neuen Hoffnungsträger.
Diese Entwicklung kommt nicht von ungefähr: Nach dem 70:20:10-Modell nach Eichinger und Lombardo werden bei Führungskräften 70 Prozent des Wissens durch berufliche Herausforderungen und Problemlöseprozesse aufgebaut. 20 Prozent werden durch den Austausch mit Kollegen erlangt – und gerade mal 10 Prozent bauen sich durch formale Weiterbildungen, wie Seminare oder Kurse, auf. Gelernt wird also zu 90 Prozent durch informelle Prozesse

Kollaboratives Lernen, Workplace Learning, Performance-Support – die Anwendungsunterstützung im Prozess – und User-generated Content sind die neuen Hoffnungsträger.

Informelles Lernen gewinnt bei allen Mitarbeitern an Bedeutung, nicht nur weil Wissen immer schneller veraltet, sondern auch weil Arbeitsformen sich ändern. Agiles Arbeiten ist in aller Munde und steht für Anpassungsfähigkeit, hohe Kundenorientierung und proaktive Verbesserungsprozesse – Wissen muss dementsprechend schnell und flexibel zur Verfügung stehen. Neue Kompetenzen müssen häufig direkt im Ernstfall ausprobiert werden, auch ohne, dass man sich vorher umfassend fortgebildet hat. Dem Performance-Support kommt damit eine besondere Bedeutung im digitalen Zeitalter zu.

Der Anteil informeller Lernprozesse am Gesamtlernen nach dem 70:20:10-Modell beträgt bei Führungskräften 90 Prozent.

Konkurrenz bekommen die großen Lernmanagementsysteme tatsächlich auch von jenen Systemen, die sich auf informelles Lernen spezialisiert haben: Mobile Apps und Autorentools, mit denen Nutzer ohne technisches Vorwissen schnell Videos teilen, kleine Präsentationen oder Quizfragen erstellen können, erfreuen sich wachsender Beliebtheit.
Nicht nur die Schnelligkeit der Lerninhalte und ihr informeller Charakter ist eine recht neue Entwicklung im bis dato von klassischen E-Learnings geprägten Bereich. Auch die Art, wie sie erstellt und geteilt werden, ändert sich – und muss sich ändern. Und damit tut sich ein weiterer wichtiger Trend in der digitalen Lernlandschaft auf: User-generated Content.

Der Weg zu einer neuen Lernkultur

User-generated Content, also Lerninhalte und Wissen, die von Nutzern für Nutzer bereitgestellt werden, wird zunehmend als Methode diskutiert, um den Bedarf nach immer neuem, anwendungsbezogenem Wissen zu schließen. Im Unternehmenskontext spricht man auch von Employee-generated Content oder Expert-generated Content.

User-generated Content ist dabei keine neue Idee. Was mit Web 2.0 angefangen hat, ist heute für die meisten Internetnutzer längst Alltag. Ein Großteil der Inhalte auf Social Media wie YouTube, Facebook oder Instagram werden nicht von Redaktionen, sondern von Nutzern erstellt.

Auch im Marketing spielt User-generated Content eine besondere Rolle. Unternehmen haben längst erkannt, welchen Einfluss die Endnutzer auf die Beliebtheit eines Produkts haben, und nutzen dies auch innerhalb des Unternehmens für die Öffentlichkeitsarbeit, z. B. mit Mitarbeiter-Blogs. Die Partizipation am Unternehmen führt dazu, dass Mitarbeiter sich wertgeschätzt fühlen. Motivation, Engagement und Loyalität dem Unternehmen gegenüber werden verstärkt – auch bei Mitarbeitern, die selbst nicht aktiv mitgestalten. Diesen Nutzen gilt es, in der internen Weiterbildung noch auszuschöpfen.

Mehr noch lässt sich mit der Einbeziehung von Mitarbeitern in die Lerninhaltserstellung die Menge an benötigtem Wissen bewältigen. Auch die Schnelligkeit der Informationsweitergabe ist eine andere, wenn Wissen direkt von Mitarbeiter zu Mitarbeiter weitergegeben wird – und da Mitarbeiter direkt aus dem Arbeitsalltag heraus ihr Wissen weitergeben, fließt auch implizites Wissen und Anwendererfahrung besser mit ein als über die zentral gesteuerte Verteilung von Wissen.

Das alles bedeutet nicht, dass formale Inhalte in Zukunft weniger Bedeutung haben. Grundlegende Pflichtkurse zu Themen wie Compliance, Office- und Sprachkurse werden weiterhin eine wichtige Rolle spielen, ebenso wie formale Schulungen mit Nachweis des Zertifikats. Doch das informelle Lernen erfährt nun durch die Digitalisierung einen enormen Aufschwung.

Mit diesen Entwicklungen gehen erforderliche Änderungen in der Unternehmenskultur einher. Lernen und Arbeiten müssen stärker zusammenwachsen, und auch die zentrale Hoheit von Personalentwicklungen darüber, wer was im Unternehmen lernt, muss Platz machen für eine neue Aufgabe: Mitarbeiter müssen befähigt werden, ihren eigenen Lernprozess eigenständig zu gestalten, sie müssen motiviert werden, Lerninhalte zu gestalten und Wissen zu teilen. Unternehmensleitung und Bildungsbeauftragte sollten dabei auch bereit sein, die Kontrolle zu einem gewissen Grad abzugeben und Qualitätssicherungsprozesse neu zu gestalten.

Damit schafft die Digitalisierung eine neue Lern- und Unternehmenskultur und bietet die Chance, über Jahrzehnte etablierte Prozesse in der Weiterbildung neu zu denken. Andersherum wird auch Digitalisierung nicht funktionieren, ohne Mitarbeiter entsprechend weiterzubilden und Akzeptanz für das Thema Digitalisierung zu schaffen.

Umsetzung im Unternehmen

Mit der Einführung von digitalen Komponenten in Produktion, Einkauf oder Vertrieb ist die Digitalisierung im Unternehmen noch nicht geschafft. Kultur und Mitarbeiter spielen die entscheidende Rolle für den Erfolg. Dies bedeutet eine professionelle und feinfühlige Einführung, die von den Anbietern einzelner digitaler Komponenten in der Regel nicht geleistet werden kann. Zudem ist der Dschungel an Angeboten für das normale Management nur schwer zu durchdringen.

Die Empfehlung lautet hier, auf die Unterstützung von erfahrenen Unternehmen zu setzen, deren Fokus auf der richtigen Auswahl der digitalen Komponenten und der erfolgreichen Einführung im Unternehmen liegt. //

Kontakt zur Autorin

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Bild von Wokandapix auf Pixabay

Digitale Transformation und New Work

Future of Work: Wie die digitale Transformation die Arbeitswelt verändert

von Carsten Feldmann und
Wieland Appelfeller


Alles, was digitalisiert werden kann, wird digitalisiert. Und alles, was vernetzt werden kann, wird auch vernetzt. Das betrifft Menschen, Maschinen und Produkte gleichermaßen.“ Dieses Zitat von T. Höttges, Vorstand Deutsche Telekom, beschreibt treffend die digitale Transformation. Die Arbeitswelt wird sukzessive in eine digitale Ebene überführt: Die analoge, lokale Offline-Welt wandelt sich zur digital vernetzten „Always-on“-Welt.

New Work bezeichnet ursprünglich ein Konzept des Sozialphilosophen Frithjof Bergmann für eine Arbeit, die den Menschen und seinen Wunsch nach Erfüllung und Sinnhaftigkeit in den Mittelpunkt stellt. Aktuell ist es ein Synonym für den Wandel der Arbeit: Digitale Technologien und Geschäftsmodelle ändern Arbeitsplätze und -inhalte. Digitale Arbeitsformen führen u. a. zum Aufweichen von Hierarchien („Holacracy“), agile und iterative Arbeitsmethoden lösen lineares, plangetriebenes Vorgehen ab, Kunden werden in die Produktentwicklung integriert (Co-Creation). Statt eines festen Büros mieten z. B. Start-ups flexible Arbeitsplätze in einem offen gestalteten Büro und nutzen die Vorteile des zusammen Arbeitens (Co-Working).

Abb. 1: Elemente des digitalen Unternehmens (Referenzmodell)(4)

Veränderung von Arbeitsplätzen

Zu quantitativen Auswirkungen der Digitalisierung auf den Arbeitsmarkt gibt es widersprüchliche Prognosen, die auf verschiedene methodische Ansätze sowie differierende Annahmen zurückzuführen sind. Das Substitutionsrisiko bezeichnet die Wahrscheinlichkeit, dass die Aktivitäten eines Mitarbeiters durch Digitalisierung wie z. B. IT-Systeme oder Robotik übernommen werden. Arbeitsplätze mit hohem Substituierbarkeitsrisiko werden entfallen, Arbeitsplätze mit niedrigem Substituier­barkeitsrisiko sich verändern, neue Berufsbilder und Arbeitsplätze werden entstehen.(1)


Zu quantitativen Auswirkungen der Digitalisierung auf den Arbeitsmarkt gibt es widersprüchliche Prognosen, die auf verschiedene methodische Ansätze sowie differierende Annahmen zurückzuführen sind.


Ein eher niedriges Substitutionsrisiko weisen kreative, soziale (empathische) und wissenschaftliche Berufe sowie Professionen mit sensomotorischen Fähigkeiten wie z. B. Physiotherapeut und Arzt auf. Demgegenüber haben Arbeitsplätze mit standardisierten (Routine-)Aktivitäten mit niedriger Komplexität und geringen Qualifikationsanforderungen ein hohes Substituierbarkeitsrisiko. Beispiel: Hilfsarbeiter in der Kommissionierung, aber auch geistige Routinetätigkeiten wie z. B. Rechnungsprüfung lassen sich in vielen Fällen komplett automatisieren. Beispiele für mittel- bis langfristig bedrohte Berufsbilder sind Lkw-Fahrer, Postbote oder Kassierer im Supermarkt. Hier wird menschliche Arbeit durch autonomes Fahren, Drohnen und Self-Services substituiert.

Dieser Wegfall kann jedoch ggf. durch neu entstehende Stellen kompensiert werden, z. B. durch Arbeitsplätze im Kontext digitalisierter Maschinen und Roboter, die programmiert und bedient werden müssen. Außerdem steigt der Bedarf an Datenanalysten und Softwareentwicklern.

Literaturverzeichnis

  • Acatech, Deutsche Akademie der Technikwissenschaften: Kompetenzentwicklungsstudie Industrie 4.0, München 2016.
  • Appelfeller, W.; Feldmann, C. (2018): Die digitale Transformation des Unternehmens – Systematischer Leitfaden mit zehn Elementen zur Strukturierung und Reifegradmessung, Berlin 2018.
  • BMWi (2016): Digitale Bildung – Themenheft Mittelstand Digital, Schriftenreihe des Bundesministeriums für Wirtschaft und Energie 2016.
  • Bonin, H; Gregory, T.; Zierahn, U. (2015): Übertragung der Studie von Frey/Osborne auf Deutschland, Bundesministerium für Arbeit und Soziales, Mannheim 2015.
  • Hirsch-Kreinsen, H. (2017): „Arbeiten in der digitialen Welt“, Vortrag der Technischen Universität Dortmund im Mai 2017.

Nicht nur bei der Arbeitsplatzanzahl gibt es optimistische und pessimistische Sichtweisen, sondern auch bei weiteren Chancen und Risiken.(2) Einerseits fördert orts- und zeitunabhängiges Arbeiten mit digitalen Werkzeugen Autonomie und Vereinbarkeit von Beruf und Familie. Andererseits kann Work-Life-Blending zum Verlust des Privatlebens führen, wenn die Grenze zum Berufsleben verschwimmt. Automatisierung von 3-D-Tätigkeiten (dirty, dangerous, demanding) erscheint wünschenswert, wenn sie mit Aufwertung der verbleibenden Arbeitsinhalte einhergeht. Allerdings kann Digitalisierung Autonomie reduzieren, wenn z. B. Datenbrillen beim Kommissionieren die Arbeitsschritte nicht nur vorgeben, sondern diese zur Kontrolle detailliert nachvollziehbar machen.

Stufen der Digitalisierung von Mitarbeitern

Was bedeutet die „Digitalisierung“ von Mitarbeitern? Dies bedeutet nicht zwangsläufig, dass der Mensch durch einen Roboter oder Avatar ersetzt wird. Vielmehr werden Mitarbeiter mit digitalen Kompetenzen bzw. Endgeräten wie z. B. Smart Glasses ausgestattet.

Auf welche Weise lässt sich messen, welchen Status ein Unternehmen beim Thema digitale Transformation bereits erreicht hat, und wie lässt sich festgelegen, wie es sich in Zukunft weiterentwickeln soll? Das Modell „Das digitale Unternehmen“ in Abb. 1 von Appelfeller/Feldmann(3) nutzt hierzu Reifegradmodelle (vgl. Abb. 2). Für zehn Elemente wie z. B. Prozesse oder Geschäftsmodell werden Bewertungsraster vorgestellt, die die Reifegradstufen von eins (analog) bis vier (volle Digitalisierung) abbilden. Dem Ist-Status wird bei der Zielformulierung für ein Element das Soll-Profil gegenübergestellt, um so Roadmaps für die Weiterentwicklung pro Element zu entwickeln.

Für das Element Mitarbeiter ergeben sich aus der detaillierten Reifegradmessung die Stufen analoger Mitarbeiter ( 1 ), teildigitalisierter Mitarbeiter ( 2 ), vernetzter, voll digitalisierter Mitarbeiter ( 3 ) und vernetzter Roboter ( 4 ). Abb. 2 stellt dies für Mitarbeiter mit vorwiegend geistiger Tätigkeit vor.

Abb. 2: Stufen der Digitalisierung bei Mitarbeitern mit vorwiegend geistiger Tätigkeit(5)

Als analoger Mitarbeiter wird jemand bezeichnet, der ohne IT z. B. papierbasierte Belege abarbeitet, i. d. R. zu festen Arbeitszeiten im selben Büro. Beispiel: Mitarbeiter, der die Eingangspost öffnet, stempelt und verteilt. Der teildigitalisierte Mitarbeiter arbeitet ebenfalls überwiegend zu festen Arbeitszeiten im festen Büro. Er nutzt aber für einen Teil der Arbeitsschritte IT-Systeme.
Beispiel: HR-Mitarbeiter, der eingehende Bewerbungen im IT-System erfasst, Kopien weiterleitet und mit Bewerbern per E-Mail kommuniziert.

Dieser Typus wird zunehmend durch den vernetzten, voll digitalisierten, mobilen Mitarbeiter verdrängt. Er hat weniger fest vorgegebene Strukturen, arbeitet zu flexiblen Zeiten im Unternehmen, zu Hause oder unterwegs. Er nutzt im Großraumbüro den Arbeitsplatz, der gerade frei ist. Über mobile Endgeräte wie Smartphone, Smartwatch und Tablet-PC ist er mit den IT-Systemen, anderen Mitarbeitern und externen Partnern vernetzt und permanent erreichbar.
Beispiel: Überwiegend in standortübergreifenden Projekten tätiger Mitarbeiter. Auf Stufe 4 steht der vernetzte Roboter. Er übernimmt z. B. dort Tätigkeiten, wo der Kunde mit Mitarbeitern spricht und diese nach vordefinierten Logiken handeln. Beispiel: Empfang von Gästen an der Hotelrezeption.

Fazit und Ausblick

Die digitale Transformation lässt sich nicht aufhalten. Daher sollten Unternehmen sie gezielt gestalten. Dabei gilt nicht: Je digitaler, desto besser. Digitalisierung ist kein Selbstzweck, sondern Mittel zum Zweck, um die Strategie des Unternehmens umzusetzen. Hierzu bedarf es des Aufbaus der Kompetenzen der Mitarbeiter wie z. B. Prozess- und IT-Know-how, Datenauswertung und -analyse, interdisziplinäres Denken und Handeln, insbesondere bei Innovationen. (6)

Wie „digital“ müssen Mitarbeiter werden? So digital, dass das Unternehmen konkurrenzfähig bleibt. Dabei ist zum einen die Perspektive des konkurrenzfähigen Unternehmens einzunehmen. Für dieses ist zu klären, welche Aktivitäten sich durch IT effizienter durchführen lassen und welche Kompetenzen und Endgeräte die Mitarbeiter benötigen. Zum anderen stellen sich aus der Sicht des konkurrenzfähigen Arbeitgebers im Rahmen des „War for Talents“ verschiedene Fragen. Wo, wann und wie möchten Mitarbeiter ihre Arbeitsleistung erbringen? Der oben beschriebene vernetzte, mobile und voll digitalisierte Mitarbeiter lässt erkennen, was Mitarbeiter zunehmend fordern könnten.

Die Angst, dass menschliche Arbeit maschinell ersetzt werden könnte, gab es bereits bei der ersten industriellen Revolution. Ein „Ende der Arbeit“ wird es auch diesmal voraussichtlich nicht geben. Eine zentrale Aufgabe für die Unternehmen und ihre Mitarbeiter besteht darin, die Arbeitsplätze rechtzeitig umzugestalten und Qualifikationen anzupassen. //


Kontakt zu den Autoren

Prof. Dr. Wieland Appelfeller

Prof. Dr. Carsten Feldmann

Quellen
(1) Vgl. Bonin 2015.
(2) Vgl. Hirsch-Krainsen (2017).
(3) Vgl. Appelfeller/Feldmann (2018).
(4) Vgl. Appelfeller/Feldmann (2018).
(5) Vgl. Appelfeller/Feldmann (2018).
(6) Vgl. Acatech (2016); BMWi (2016).

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Bild von Gerd Altmann auf Pixabay

Agil arbeiten – aber wie?

Erfolg in einem dynamischen und digitalisierten Marktumfeld: Zwölf Regeln für Schnelligkeit, Kreativität und Innovationsstärke

von Dr. Ralf Magagnoli

Der Agile Performer Index, eine Studie der Neoma Business School und des Analysten Goetz­partners, will es auf den Punkt bringen: „Die agilsten Unternehmen einer Branche sind durchschnittlich 2,7 Mal erfolgreicher als ihre Peergroup. Dies bestätigt: Agilität verschafft Unternehmen einen erheblichen Wettbewerbsvorteil und ist ein entscheidender Faktor, um in einem dynamischen und digitalisierten Marktumfeld erfolgreich zu sein.“ Agilität steht für Schnelligkeit, Kreativität und Innovationsstärke. Wie aber Agilität implementieren? Nicht selten scheitern entsprechende Projekte – und die Gründe dafür sind vielfältiger Natur.

Wenn man einige Regeln beherzigt, ist es wahrscheinlicher, dass agile Projekte gelingen: Zwölf Regeln sind hier zusammengestellt.

Regel eins: Agilität ist eine Frage der Unternehmenskultur. Einfach ein agiles Team zusammenzustellen, einen Scrum-Master zu ordern und im Übrigen zu hoffen, dass alles klappt, ist zu wenig. Vor allem in Unternehmen, in denen es keine Fehlerkultur gibt und in denen die Bereitschaft, neue Wege zu denken und zu gehen, gering ausgeprägt ist. Unternehmen, deren Kultur durch Fehlertoleranz, Offenheit und Transparenz gekennzeichnet ist, haben hier eindeutig einen Vorteil.

Regel zwei: Agilität bedeutet nicht weniger, sondern mehr Führung. Vor allem eine andere Führung. Eine Führung, die sich stärker auf das Impulsgeben verlegt und Mitarbeitern Freiräume verschafft. Der Impuls selbst, agile Projekte umzusetzen, sollte nicht, wie fälschlich angenommen, von der mittleren, sondern von der obersten Ebene im Unternehmen kommen, die dann aber die Mitarbeiter an der langen Leine laufen lassen sollte.

Regel drei: Agilität eignet sich zwar für alle Branchen, zumal für die mit einem hohen Innovationsdruck, aber nicht für alle Bereiche im Unternehmen. Eine agile Produktion ist ein Unding. Hier sind nicht Kreativität und Ideenfindung gefragt, sondern die Umsetzung von Vorgaben. Hingegen eignen sich agile Projekte besonders für die Bereiche Forschung & Entwicklung, IT, Marketing oder HR-Management.

Regel vier: Agilität lebt von den beteiligten Personen. Natürlich sollten sich alle Mitarbeiter in den betreffenden Abteilungen durch Tatkraft, Neugierde, Ideenreichtum und die Bereitschaft zum Querdenken auszeichnen. Realiter tun sie dies nicht. Beginnen Sie mit den Personen, die sie für besonders geeignet halten. Wählen Sie keine ängstlichen, vorsichtigen oder strukturkonservativen Mitarbeiter.

Regel fünf: Agilität bedeutet Umdenken auch in personeller Hinsicht. Das betrifft die Einstellungskriterien, aber auch bestimmte Regularien, so die Flexibilisierung der Arbeitszeit – Achtung, das heißt nicht mehr Arbeitszeit und eine Dauerabrufbereitschaft – und die Überwindung allzu restriktiver Projektvorgaben bzgl. „in time“ oder „in budget“.

Regel sechs: Agilität heißt auch, Fragen zuzulassen. Wer Fragen, auch hartnäckiges Nachbohren, als Widerstand, gar als Angriff auf die eigene Person, versteht, hat nicht verstanden, worum es geht. Manchmal dienen Fragen dazu, auf noch ungelöste Probleme hinzuweisen oder Sachverhalte zu klären.


Agilität verschafft Unternehmen einen erheblichen Wettbewerbsvorteil und ist ein entscheidender Faktor, um in einem dynamischen und digitalisierten Marktumfeld erfolgreich zu sein


Regel sieben: Agilität verlangt, wie eingangs erwähnt, Fehlerkultur. Wenn es in einem agilen Projekt hakt – und das tut es in vielen Fällen –, nicht gleich aufgeben und das Projekt abbrechen. Lieber nachfassen, prüfen, wo die Fehlerquellen liegen könnten, und diese dann abstellen. Und wenn ein agiles Projekt in Gänze scheitert, auch nicht gleich die Idee der Agilität in Gänze in Frage stellen oder verdammen. Zur Fehlerkultur gehört auch, über das Scheitern von Projekten zu berichten, was natürlich nur in einem Unternehmen möglich ist, das entsprechend tolerant ist.

Viele Unternehmen im Silicon Valley oder in der Luftfahrtindustrie, in der sich Fehler besonders verhängnisvoll auswirken können, haben eine solche Kultur entwickelt. Dort wird auf speziellen Treffen, sogenannten Communities of Practice, über gescheiterte Projekte berichtet, aus denen man mehr lernen kann als aus erfolgreichen Projekten.

Regel acht: Agilität muss auch nicht in einer Abteilung gleich vollumfänglich entwickelt werden. Beginnen Sie mit einer Zelle, bestehend aus fünf bis sieben Personen. In der IT ist Kritik geübt worden an der von McKinsey entwickelten Two-Speed-IT, also einem agilen, kreativen Team und einer eher konventionell arbeitenden Mannschaft. Dennoch ist nichts dagegen zu sagen, innerhalb einer Abteilung mit einigen Personen zu beginnen und die Agilität, bei Erfolg, auf die ganze Abteilung auszuweiten.

Regel neun: Agilität erfordert gemischte Teams, am besten interdisziplinäre Teams. Beispiel IT: Hier sollen neue Anwendungen geschaffen werden. Nichts einfacher, als fünf bis sieben dreißigjährige männliche Informatiker daranzusetzen, die am besten alle an derselben Hochschule studiert haben. Hingegen zeigt sich der Nutzen „gemischter“ Teams, was Ausbildung, Geschlecht und Alter angeht. So könnten Anwender aus den Abteilungen, die die Applikationen nutzen, wertvolle Anregungen geben und vermeiden, dass aus der Entwicklung eine technische Spielerei wird, die an den Bedürfnissen der Nutzer vorbeigeht.

Regel zehn: Agilität beruht auf Barrierefreiheit. Die agilen Teams müssen sich nicht nur regelmäßig treffen, die Räume sollten so gestaltet sein, dass ein Austausch leicht möglich ist. Hilfsmittel wie Flipcharts und Stellwände sollten bereitstehen. Nötig ist auch die physische Präsenz: Nur in Ausnahmefällen sollte es eine virtuelle Präsenz geben, bspw. wenn ein Teammitglied auf Geschäftsreise ist und das Treffen nicht abgesagt werden sollte. Unter Umständen, insbesondere in der IT, kann die Offshore-Verlagerung von Jobs hier zum Problem werden.

Regel elf: Agilität lässt sich besser erzielen, indem man Expertise von außen einholt. Dies betrifft vor allem Externe, die als Moderatoren und Impulsgeber fungieren sollen. Ein Blick von außen erleichtert manchmal das Querdenken, besonders, indem Scheuklappen und die „Das war hier schon immer so“-Denke abgelegt werden. Die Expertise betrifft vor allem die Methoden, auf die noch einzugehen ist, und hierin den Scrum-Master, falls Sie die beliebte Scrum-Methode einsetzen. Wenn Sie auf z. B. einen solchen externen Scrum-Master zurückgreifen, gehen Sie sorgfältig bei der Auswahl vor. Fragen Sie nach Projekten, die dieser initiiert hat, fragen Sie nach Erfolgen, aber fragen Sie auch nach Rückschlägen, insbesondere danach, wodurch es zu diesen Rückschlägen gekommen ist.

Sie entnehmen damit zweierlei: Erstens den souveränen Umgang auch mit ggf. eigenen Fehlern und zweitens die Analysefähigkeit des externen Beraters. Verneint er Rückschläge oder führt er diese Rückschläge auf den Unwillen und die Unfähigkeit der Teammitglieder zurück, ist er wohl kaum der richtige Mann für Sie. Verlassen Sie sich zudem auf Ihr Bauchgefühl, denn das Bauchgefühl ist, wie Professor Gerd Gigerenzer vom Max-Planck-Institut für Bildungsforschung in München betont, nicht einfache Emotion, sondern gesammeltes Erfahrungswissen – und oft anderen Methoden der Entscheidungsfindung überlegen.

Regel zwölf: Agilität wäre missverstanden, wollte man das Rad neu erfinden. Es existiert eine Hülle und Fülle an Methoden – Kritiker sprechen sogar von einer „Kakophonie“ – vom Scrum über Design Thinking bis zur Holokratie, die eingesetzt werden können. Informieren Sie sich über diese Methoden, zu denen es viele Publikationen gibt, und wählen Sie die Methode aus, die ihrer Ansicht nach am zielführendsten ist. Ein Schaukasten gibt einen kurzen Überblick über drei hilfreiche Management-Methoden sowie einen Aufriss weiterer Methoden. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Bild von Gerd Altmann auf Pixabay

Finanzierung der Digitalisierung

von Udo Rettberg

Die sichere und nachhaltige Finanzierung der Digitalisierung gilt als eine ganz wesentliche Voraussetzung dafür, dass dieser Megatrend auch in Zukunft nachhaltig alle seine Stärken und Vorteile wird ausspielen können.

Als Geldgeber für Finanzierungen haben sich in der Vergangenheit nicht zuletzt ältere und über die Dekaden hinweg finanziell bestens bestückte Generationen gezeigt. Diese „German Entrepreneurs“ hatten sich durch harte Arbeit während ihres Berufslebens eine Menge Erspartes beiseitegelegt. Heute tun sich diese Kapitalgeber, die durch ihre Risikobereitschaft einst als Rückgrat zum „deutschen Wirtschaftswunder“ beigetragen haben, schwer. Früher hatten sie ihr Risikokapital in sichtbare und ertastbare Produkte, Technologien und auch in bekannte Dienstleistungen investiert. Sie konnten also die von ihnen finanzierten Produkte sehen, spüren, fühlen, ertasten, riechen und vor allem in physischer Form auch im Alltag nutzen. Doch die Zeiten haben sich geändert. Und so ist festzustellen, dass aus dieser Betrachtungsweise eine Art Generationenkonflikt resultiert. Die in der Regel noch sehr jungen Unternehmen der Digitalisisierungsbranche beklagen nämlich, dass potenziellen potenten Geldgebern das Verständnis für die Situation fehlt. Die Digitalisierung spielt sich in der Regel in der weitgehend anonymen Datenwelt in der sogenannten „Cloud“ ab. Sie ist daher nichts, was tastbar oder anfassbar wäre.

Diese zwischen 1980 und 1999 geborenen Menschen, die im Angelsächsischen als „Millennials“ bezeichnet werden, sind quasi in das Digitalisierungs-Zeitalter hineingeboren und hineingewachsen. Die Mehrheit dieser Digitalisierungs-Ureinwohner verfügt (von Ausnahmen abgesehen) jedoch nicht unbedingt über größere Kapitalmengen. Diese Generation nutzt praktisch ihre Erfahrungen in der digitalisierten Welt zur Entwicklung neuer Finanzierungsformen und -plattformen. Dabei werden von den Gründungsvätern der Digitalisierung alle Register gezogen und auch eher im Verborgenen blühende Möglichkeiten in der VC-Finanzierung, der Fusions-Finanzierung (per LBO und MBO) und Sanierungsfinanzierung genutzt.
Auch die öffentliche Hand sieht sich in der Pflicht, für Start-ups und Neulinge spezielle staatliche Finanzierungen zu kreieren und z. B. über Förderbanken dann für Wachstumszwecke zur Verfügung zu stellen.  Die zahlreichen Ideen der Digitalisierung sollen auf eine breite Finanzierungsbasis stoßen, um nicht zuletzt auch eine zu starke Konzentration der Marktmacht zu verhindern.

Und so könnten Unternehmen der Datenökonomie bei ihren Finanzierungs-Anstrengungen während der verschiedenen Stufen ihrer Geschichte und Entwicklung inzwischen sowohl mehr Finanzierungsformen als auch anderen bislang weitgehend verschlossenen Kapitalquellen vertrauen als das bei den Firmengründern der „old economy“ der Fall war. Angefangen bei der Gründungsfinanzierung  per Bankkredite und Gründungsdarlehen über staatliche Förderprogramme (z. B. über die Kreditanstalt für Wiederaufbau oder andere Entwicklungsbanken) und der dann im weiteren Verlauf anstehenden Kapitalbeschaffung über Venture-Capital (Risikokapital) bieten sich im weiteren Verlauf der Historie zahlreiche andere Formen an.
Disziplin beim Umgang mit Kapital ist eine der wesentlichen Voraussetzungen,  damit Technologiefirmen auch einige Jahre nach der Gründung noch beständig wachsen können. Dabei geht es bei der Finanzierung dann im Prinzip vor allem um die Beschaffung von Eigenkapital (in der Regel über Aktien) auf der einen sowie von Fremdkapital (meist über Kredite, Anleihen, Schuldverschreibungen etc.) auf der anderen Seite.

Nachhaltig digitalisiert

Interview mit Prof. Michael Kuhndt über neue Geschäftsmodelle an der Schnittstelle von Digitalisierung, Nachhaltigkeit und Ressourceneffizienz.

Welches Potenzial räumen sie der Energieeffizienz und der Digitalisierung im Kontext der Nachhaltigkeit ein?
Zunächst einmal: Die Digitalisierung bringt Transparenz. Diese Transparenz ist Grundvoraussetzung für das Wissen über Energie. Also: Wo brauche ich Energie? Was ist an Energie in meine Produkte geflossen? Wie kann ich die Kreisläufe schließen und damit Ressourcen erhalten? Hier kommen wir also sehr schnell auf die Notierung der Circular Economy. Wichtig ist es ja auch zu sehen, dass ein Energieeffizienzthema alleine betrachtet – also in der Nutzenphase eines Produkts – nur ein Aspekt ist. Aber wenn ich die Energieeffizienz im Kontext der Kreislaufwirtschaft sehe, dann habe ich eine direkte Schnittstelle zur Digitalisierung. Also wenn ich den Energieverbrauch möglichst effizient halten möchte, muss ich mit Rohstoffen effizient umgehen. Das heißt, ich muss einen Kreislauf führen. Sonst muss ich z. B. das Aluminium zehnmal produzieren, so kann ich das Aluminium im Kreislauf führen, habe es einmal produziert und kann es dann weiterverarbeiten. Und genau dazu brauche ich die Digitalisierung. Ich muss Transparenz haben: Wo sind die Warenströme? Wo geht es hin? Wo kommt das her? Was genau steckt in den Materialien, die ich z. B. weiterverarbeite? Kann ich das wieder verwerten? Da entstehen momentan mannigfaltig neue Geschäftsmodelle.

Auf der gleichen Grundlage, der Mehrfachnutzung von Resourcen, setzt die Sharing Economy an. Ohne die Digitalisierung wäre so ein Konzept nicht denkbar. Spielt diese spezielle Form von Teilen in Ihrem Beratungsalltag eine Rolle?
Ja, sie spielt eine Rolle. Wir sehen hier ein immer stärkeres Wachstum. Für das Weltwirtschaftsforum haben wir eine Studie zu dem Thema gemacht und sind damit auch auf dem Economic Forum in Davos aufgetreten. Speziell die großen Unternehmen – die diese Studie auch bei uns angefragt haben – sehen die Sharing Economy als „Emerging Trend“, also es wächst, es entsteht, genauso wie die Digitalisierung.

Prof. Michael Kuhndt, CSP Centre gGmbH

Nutzen Unternehmen explizit Konzepte wie die Sharing Economy, wenn sie neue Geschäftsmodelle generieren?
Die Frage ist ja, wie sieht unsere Zukunftsgesellschaft aus? Vielmehr: Wie wollen wir, dass unsere Zukunftsgesellschaft aussieht? Fakt ist: Produkte werden künftig eine untergeordnete Rolle spielen. Die Zukunft des Produkts liegt in der „Subscription-Economy“. Es geht darum, dass man ein Produkt als Dienstleistung versteht. Es entsteht ein Produkt-Dienstleistungs-System. Schauen sie sich Philips an, die sagen: Wir stellen nicht mehr die Lampe her, sondern wir verkaufen Licht, wir verkaufen Helligkeit. Das Geschäftsmodell dazu sieht so aus: Unternehmen kommen zu Philips und sagen: „Kommt doch bitte in unser Büro herein und stellt sicher, dass die Dienstleistung ‚ausgeleuchtete Arbeitsplätze‘ sichergestellt wird.“ Wir als Kunden wollen gar nicht die Produkte selbst kaufen. Diese Entwicklung ist hochinteressant. Es geht also weg vom Besitzen hin zum Nutzen. Übrigens eine Entwicklung, die die Digitalisierung hervorgebracht hat. Genau dieser Gedanke steckt auch hinter der Sharing Economy: Muss ich alles, was ich nutzen will, auch besitzen? Das heißt, wenn wir konkret mit Unternehmen arbeiten, ist das genau auch ein Aspekt unserer Zusammenarbeit, über den die Unternehmen dann auch sprechen wollen. Egal ob Tourismusbranche oder Textilien … Muss man Textilien zum Beispiel immer wieder neu kaufen? Oder könnte man auch sagen: Weil sich der Geschmack, das eigene Gewicht oder Lebensumstände geändert haben, geben wir Textilien fortan eine „Nutzenphase“? Nicht nur wir bringen ein solches Thema an, sondern eben auch konkrete Nachfragen von Großunternehmen, auch vom Handel. Ein weiteres Beispiel aus der Möbelbranche: Möbel, muss ich die immer verkaufen …? Täte es meinem Geschäft nicht viel besser, wenn ich das tatsächlich nur nutzen lasse und ich bekomme es dann wieder zurück? Nebeneffekt: So habe ich für zukünftige Produkte und Weiterentwicklungen gleichzeitig meine Ressourcen im Kreislauf und spare effektiv beim Einkauf.

Geht der Trend also in Richtung „Product as a Service“?
Genau, das ist es. Nicht alles besitzen, aber jederzeit alles nutzen. Das geht natürlich auch wieder einher mit der Digitalisierung. Als Konsument habe ich die mit dem Smartphone ja quasi in der Hand.

Welche Weichen sollten Ihrer Meinung nach jetzt in Politik und Wirtschaft gestellt werden?
Ich denke, das Thema Digitalisierung ist in der Politik angekommen, alle Bundesländer und die Regierung beschäftigen sich damit. Auch die Kommunen diskutieren über diese Themen. Womit sich die Politik beschäftigen muss, sind die Rahmenbedingungen. Treffen Konzepte wie Sharing Economy, Circular Economy oder Subscription-Economy oder hierauf basierende, neue Geschäftsmodelle auf Rahmenbedingungen, die mit ihnen vereinbar sind? Die große Sorge meinerseits besteht darin, dass wir Teile der Gesellschaft von der Digitalisierung entkoppeln: Geschäftsmodelle und auch die sogenannten „Digital Natives“ verändern sich viel schneller als Politik und andere Teile der Gesellschaft es überhaupt können. Nehmen Sie Uber: Hier steht ein Bedürfnis nach Mobilität einer ganzen Branche entgegen, die von ihrem Beruf auch leben können will – und soll. Dafür werden „Sub-Systeme“ immer interessanter. „Spielwiesen auf Stadtebene“, um neue Geschäftsmodelle wie z. B. Energieeffizienz, Smart Home und IoT gemeinsam mit dem Bürger „auszuprobieren“. Dafür brauchen wir einen rechtlichen Rahmen.

Man bräuchte Regelungen für Modell-Städte oder Modell-Viertel?
Genau richtig. So kann man auch die Akzeptanz-Probleme quasi in kleinen Labs, in kleinen Systemen, beseitigen helfen. Erkennen die Menschen den Nutzwert einer Neuerung, wie etwa der „Smart City“, dann lässt sich das auch schnell auf Bundesebene skalieren. Hier muss die Politik dringend Regeln finden.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Zum Interviewpartner

Digitalisierung und Nachhaltigkeit bieten viele Optionen

von Bernward Janzing

Es gibt viele Möglichkeiten, mit Algorithmen Abläufe in Wirtschaft und Gesellschaft im Sinne einer effizienten Ressourcennutzung zu optimieren: Energieverbraucher, die bedarfsgerecht gesteuert werden, sind ein bekanntes Beispiel. Ein weiteres ist eine ausgeklügelte Transportlogistik, die Ladekapazitäten von Fahrzeugen optimal ausnutzt oder durch regionale Belieferung der Kunden Ferntransporte von Waren sogar vermindert. Ein wichtiges Feld ist außerdem die gemeinsame Nutzung von Gütern, die heute mit dem Begriff der „Sharing Economy“ umschrieben wird. Sie lässt sich durch den Einsatz digitaler Systeme optimieren, weil Anbieter und Interessenten von Gütern oder Dienstleistungen schneller zusammenfinden können.

Mit dem Aufbau der Internetkommunikation und der anschließenden Marktdurchdringung mobiler Geräte war der Einzug der Digitalisierung in unternehmerische Prozesse nur eine logische Folge. Dienstleistungen, die zuvor in der analogen Welt zwar schon angeboten wurden, aber oft einigen zeitlichen Vorlauf brauchten (zum Beispiel Mitfahrzentralen oder Car-Sharing), werden nun in der digitalen Welt per App optimiert und quasi in Echtzeit angeboten. Die Kundenzahlen nehmen seither deutlich zu.

Somit kommen mit der fortschreitenden Digitalisierung erhebliche Veränderungen auf die Gesellschaft zu. Doch so sehr die neuen Angebote den Menschen manches erleichtern, so sehr haben sie auch eine andere Seite, mit der sich die Gesellschaft beschäftigen muss und wird. Die neuen Angebote werden zum Beispiel immer mehr persönliche Daten nutzen. Manche werden auch Bewegungsprofile erstellen, wieder andere Lebensgewohnheiten erfassen, wie es zum Beispiel mit dem elektronischen Stromzähler („Smart Meter“) möglich ist. Allenthalben entstehen somit Daten, die den persönlichen Tagesablauf und die Gewohnheiten in mehr oder weniger großen Teilen abbilden können.

Entsprechend gibt es in der öffentlichen Debatte natürlich auch viele Aspekte, die bei den Bürgern auf Vorbehalte stoßen und mit denen sich Industrie und Politik auseinandersetzen müssen. Zum einen ist das die Datensicherheit aus IT-Sicht: Sind die Systeme ausreichend gegen Hacker geschützt? Vor allem dort, wo es um vitale Strukturen der Gesellschaft geht (zum Beispiel in der Stromversorgung), müssen Cyber-Angriffe absolut ausgeschlossen werden. Zum zweiten sind die Ängste der Menschen ernst zu nehmen, die sich durch ihre zunehmend erhobenen persönlichen Daten, wie Bewegungsprofile und Kommunikation, allzu gläsern fühlen. Eine Datenaggregation, die am Ende keine Rückschlüsse auf die einzelne Person mehr ermöglicht, kann die Akzeptanz deutlich erhöhen.
Und drittens fürchten Bürger zumindest in einigen Lebensbereichen auch eine „Entmündigung“ durch die Algorithmen und die neuen Abhängigkeiten von der Technik. So ist die Vorstellung, das Auto werde künftig von einem Computer gelenkt, für viele Menschen heute noch gewöhnungsbedürftig. Kritisch zu hinterfragen ist bei allen Ansätzen zugleich auch immer, in welchen Einsatzgebieten der technische Aufwand sowohl aus wirtschaftlichen wie auch aus ressourcenökonomischen Gründen gerechtfertigt ist. Denn der Aufbau einer digitalen Infrastruktur kostet natürlich erst einmal Geld, und er braucht durch die Fertigung der elektronischen Komponenten auch erst einmal Ressourcen. Manche Ansätze der Digitalisierung im Wohnumfeld – etwa die Waschmaschine, die bei günstigen Strompreisen startet – haben sich bisher nicht durchsetzen können, weil die Wirtschaftlichkeit für die Konsumenten nicht gegeben war.
Nur dort, wo der spätere Vorteil die anfänglichen Investitionen tatsächlich überwiegt, wird im Sinne der Nachhaltigkeit künftig ein Gewinn zu erzielen sein. Diese Ansätze zu finden, stellt die Herausforderung der Zukunft dar.

Neurofinance

Ein neuer Ansatz sorgt für Furore an den Kapitalmärkten: Roland Ullrich und Bernd Weber gewähren Einblicke in ein vielversprechendes Forschungsgebiet.

Herr Prof. Weber, noch ist die Beratung in Banken eine Bastion der menschlichen Intelligenz. Wann werden selbstlernende Computersysteme mit Siri-Stimme und Avatar-Gesicht den klassischen Kundenberater ersetzen?
Man sieht derzeit in vielen Bereichen der Kundeninteraktion die Nutzung von Avataren. Dies stößt bei vielen Verbrauchern auf dem jetzigen Stand der Technik aber auch auf große Skepsis bis Ablehnung. Menschen reagieren sehr sensibel auf ihr Gegenüber und Nuancen in sozialen Interaktionen. Bei den aktuellen Systemen der „künstlichen Berater“ ist dies sehr weit von natürlichen Interaktionen entfernt und führt eher zur Ablehnung durch die Kunden. Selbstlernende Algorithmen, die auf die individuellen und eben auch schwankenden emotionalen Bedürfnisse der Kunden eingehen, wird es auf absehbare Zeit nicht geben.

Herr Ullrich, Sie schreiben, der Schwerpunkt Ihrer Konferenz ist der Transfer von Forschungsergebnissen in die Praxis der Finanzindustrie, welche Trends machen Sie aus?

Roland Ullrich

Die spannenden Erkenntnisse der modernen Hirnforschung sind mittlerweile in den Management- und Finanzkreisen der deutschen Wirtschaft angekommen. Neurofinance macht sich die neuesten neurowissenschaftlichen Methoden und Technologien zunutze, um das Verhalten der Menschen an den Finanzmärkten zu analysieren. Dabei hat sich herausgestellt, dass wir trotz all dem Wissen und der Informationen, die wir „real time“ zur Verfügung haben, nicht in der Lage sind, vernünftig mit Geld umzugehen. Aus der Evolution stammende, unbewusste Verhaltensmuster spielen uns allzu oft einen Streich.  Denn unsere uralten Gehirnsysteme sind das Ergebnis eines evolutionären Selektionsprozesses. Sie sind uns zum Überleben gegeben und einfach nicht dafür geeignet, rationale Entscheidungen an komplexen Finanzmärkten zu treffen. Finanzmärkte folgen völlig anderen Gesetzen. Die gute Nachricht ist, dass unser Gehirn vollkommen plastisch ist, d. h. lebenslang wandelbar. Wir können lernen, die Kontrolle über unsere automatischen Gehirnaktivitäten zu erlangen. Hirnforscher sind heute in der Lage, Anlegerverhalten vorherzusagen und zu beeinflussen. Mit dem Bewusstsein, wie unser Gehirn finanzielle Entscheidungen trifft, können wir Methoden erlernen, die uns helfen, im ökonomischen Sinn rationaler, d. h. besser mit Geld umzugehen. Hierzu zählen zum Beispiel Mindfulness-Training, Neurofeedback und Neurocoaching. Bei vielen angelsächsischen Investoren sind diese Methoden populär. Zusammen mit der DFVA wollen wir die Ergebnisse der Neurofinance Forschung in Deutschland bekannter machen und eine Plattform für die verschiedenen Anwendungsmöglichkeiten bieten. Gleichzeitig zeigt der Trend zur Digitalisierung der Finanzbranche, wie irrationales Anlegerverhalten mithilfe kognitiver Technologien ausgeschaltet werden kann. Algorithmen-basierte Anlageprodukte und digitales Asset-Management können dazu beitragen, dass Anleger und Investoren ihre Emotionen besser in den Griff bekommen.

Herr Ullrich, welche Schwerpunkte und Themen haben Sie für die erste „Neurofinance-Konferenz“ gewählt?
Gemeinsam mit der DVFA haben wir ein Konferenzkonzept entwickelt, welches aus zwei Bausteinen besteht. Zu Beginn geht es darum, die spannenden Erkenntnisse der Neurofinance-Forschung den Teilnehmern verständlich zu machen. Mit dem Bewusstsein, wie emotional und oftmals irrational wir finanzielle Entscheidungen treffen, geht es im zweiten Baustein darum, dieses Wissen in die Praxis zu übertragen und Anwendungsmöglichkeiten vorzustellen. Liegt die Zukunft in kognitiven Trainingsmethoden zur Verbesserung finanzieller Entscheidungsprozesse oder werden uns bald selbstlernende Algorithmen und Künstliche Intelligenz steuern? Mensch oder Maschine? Oder lässt sich menschliche Intelligenz mit kognitiven Technologien verbinden?
Herr Prof. Weber, können Sie uns kurz und bündig erklären, was wir unter den Begriffen „Neurofeedback“ oder „Mindfulness“ verstehen dürfen?
Diese verschiedenen „Interventionen“ stellen Verfahren dar, die dazu dienen sollen, die Prozesse von Entscheidungen zu verbessern. Bei Neurofeedbackmethoden werden direkt biologische Signale visualisiert und den Nutzern zurückgespielt. Diese sollen dann lernen, bestimmte neuronale Muster zu verstärken oder abzuschwächen. Hier existieren eine Reihe von Studien, v.  a. im medizinischen Kontext, dass diese Feedbackmethoden in der Lage sind, z. B. die Symptome bei Angst- oder Suchterkrankungen zu verbessern. Mindfulness – oder ähnliche Traingsverfahren – sollen dazu dienen, sich seiner emotionalen Zustände bewusster zu werden und damit in der Lage zu sein, diese besser in Entscheidungen zu nutzen. Auch diese Verfahren sind im Bereich der Psychotherapie stark etabliert und zeigen auch positive Effekte für ökonomisches Entscheidungsverhalten.

Herr Prof. Weber, wo sehen Sie wichtige Aspekte für die Zukunft der Forschung im Bereich der Neurofinance?

Prof. Bernd Weber

In den letzten Jahren haben wir extrem viel über basale Mechanismen von Entscheidungen gelernt. Wir stehen trotzdem noch am Anfang. Obwohl sich viele Studien mit Themen wie „nudging“ von Finanzentscheidungen beschäftigt haben, existieren noch eine Reihe spannender Fragen, welche helfen könnten, Interventionen oder Unterstützungen von Entscheidern zu verbessern. Ein wichtiger Aspekt dabei wäre z. B., die riesige Anzahl von Entscheidungsverzerrungen, die bisher beschrieben sind, auf eine geringe Anzahl von Prinzipien zu reduzieren, welche es ermöglichen würde, bessere Modelle von Entscheidungen zu entwickeln. Aber auch ganz konkrete Fragen wie: Welche Rolle spielen soziale Medien oder genereller soziale Interaktionen in Finanzentscheidungen? Wieso sind viele Privatinvestoren bereit, größere Gebühren für aktiv gemanagte Fonds zu bezahlen, wobei ein Großteil der Daten zeigt, dass günstigere z. B. Indexfonds eigentlich die gewinnbringendere Wahl für sie wären?

 

 

 

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Prof. Bernd Weber

Informationen zu Roland Ullrich

Business-Design für den digitalen Wandel

von Elmar Nathe

Die digitale Transformation erfordert vom Topmanagement eines Unternehmens das grundlegende Überdenken des etablier­ten Geschäftsmodells und die Neuausrichtung der Geschäftsorganisation. Neue Geschäfts­chancen, die durch die Digitalisierung erst ermöglicht werden, müssen erst verstanden und auf ihre Relevanz zur Erneuerung des Geschäftsmodells geprüft werden. Digitalisierung verzahnt Business und IT unmittelbar. Jede Neuaus­rich­tung löst sofort eine entsprechende Änderung in der IT aus. Auch wenn IT-Trends wie z. B. „Internet of Things“ sicher die Weichensteller der digitalen Geschäftsmodelle sind, sollten Unternehmen beim Entwurf ihrer digitalen Strategie an den Nutzen für ihre Kunden denken. Startpunkt sind also die – wahrscheinlich schon – bekannten Probleme der Kunden. Ein tieferes Verständnis zu entwickeln, worin der Kern des Problems eigentlich besteht und welche Ansätze diese lösen können. Mögliche Fragestellungen sind:

  • Was sind die aktuellen Herausforderungen unserer Kunden in ihren Märkten?
  • Wie können digitale Technologien unsere Produkte bzw. Services verbessern?
  • Wie können unsere Kunden enger an uns gebunden werden?

Doch wie kann effektiv eine digitale Strategie entwickelt und umgesetzt werden? Das wird am Beispiel eines Maschinenbauers dargestellt. Dieser möchte sein herkömmliches, auf der Konstruktion, Produktion und Lieferung von Spezialmaschinen beruhendes Geschäftsmodell erweitern. Hierfür sollen Technologien aus der Industrie 4.0 wie z. B. Sensoren, RFID und Big Data genutzt werden.

Zur digitalen Strategie mit vier Management-Werkzeugen

Die pragmatische, lösungsorientierte Kopplung von Business und IT ist im Rahmen der digitalen Transformation wichtig. Hierfür bietet es sich als Unternehmen an, folgende Elemente auszuarbeiten:

  • Customer-Journey-Mapping
  • Geschäftsfähigkeiten-Landkarte
  • Value-Proposition
  • Lean Start-up.

Potenziale aus der Kundensicht entdecken

Elmar Nathe

Customer-Journeys stellen die Reise des Kunden bei der Interaktion mit dem Unternehmen dar. Dadurch lassen sich Potenziale und Ansatzpunkte aus Kundensicht entdecken. Hierbei ist es entscheidend, sich auf die Darstellung der Herausforderungen und der Erwartungshaltung der Kunden zu konzentrieren. Die IT kommt erst ins Spiel, wenn es darum geht, wie die identifizierten Probleme gelöst werden können. Als Best Practice hat es sich herausgestellt, dass aus den Customer-Journeys Geschäftsfähigkeiten abgeleitet werden, die das Unternehmen aufbauen muss, um die Kundenbedürfnisse besser bedienen zu können.
Bei dem Maschinenbauer beginnt die Customer-Journey des Kunden bei der Planung der neuen Maschinen und bildet anschließend den Kauf, Betrieb und die Instandhaltung der Anlage bis zur Ersetzung dieser ab. Bzgl. der Instandhaltung könnte erkannt werden, dass es strategisch entscheidend ist, über Geschäftsfähigkeiten zu verfügen, die dem Kunden helfen, die Maschinenlaufzeiten und die -auslastung zu erhöhen.

Nutzen für den Stakeholder herausarbeiten

Ob eine solche Geschäftsfähigkeit das Potenzial hat, ein neues Geschäftsmodell zu tragen, kann über einen „Business Model Canvas“ (BMC) pragmatisch beschrieben werden. Zentral für den BMC ist das Konzept der Value-Proposition (dt.: Leistungsversprechen). Auf dieser Ebene werden noch nicht die konkreten digitalen Services beschrieben, sondern welcher Wert bzw. Nutzen für den Stakeholder erzeugt werden soll.
Im Kontext einer digitalen Strategie sind Customer-Journeys und die abgeleiteten Geschäftsfähigkeiten ein guter Ausgangspunkt, um eine griffige Value-Proposition für eine Gesamtstrategie zu bilden. So ergibt sich insgesamt ein verständliches Zielbild der digitalen Transformation des Unternehmens. Der Maschinenbauer könnte sich für die Zukunft entscheiden, sich mithilfe von Nutzungsdaten aus der IT und von neu entworfenen Serviceprozessen vom reinen Maschinenlieferanten hin zum Managed-Service-Provider zu entwickeln, der dem Kunden hilft, die Maschinenlaufzeiten und -auslastung zu optimieren.

Kernfunktionalitäten werden im MVP abgebildet

Nach Customer-Journey, Geschäftsfähigkeiten und definierten Value-Propositions kommt die Feinarbeit! Jetzt gilt es, konkret die einzelnen, neuen Geschäftsfähigkeiten zu detaillieren und in IT-Produkte umzusetzen. Business und IT arbeiten hier Hand in Hand zusammen, um iterativ und möglichst schnell das Produkt auf den Markt zu bringen. Nach dem Lean-Start­up-Ansatz wird zuerst ein „Minimum Viable Product“ (MVP) entwickelt. Das MVP enthält nur die Kernfunktionalitäten, die den primären Nutzen für den Kunden generieren sollen. Das MVP wird schnellstmöglich auf den „Markt“ gebracht, um zu evaluieren, wie die neue Produktidee basierend auf der Value-Proposition tatsächlich bei den Kunden ankommt.

Der Maschinenbauer könnte in ersten Workshops gemeinsam mit ausgewählten Pilotkunden die Hauptursachen für Maschinenausfälle ermitteln und sich in einem MVP auf diese fokussieren. Hierfür wird ein erster Prozess entworfen, mit dem die Betriebsdaten der Maschinen analysiert und Muster erkannt werden können, die auf ein technisches Problem hindeuten. In einem iterativen Prozess können dann mit den Kunden Serviceprozesse und die zugrunde liegenden IT-Systeme weiterentwickelt und verfeinert werden, bis das neue Geschäftsmodell Managed-Service-Provider tragfähig und profitabel ist.
Werden die Schritte systematisch durchgeführt, wird so eine zukunftsträchtige digitale Strategie für das Unternehmen entwickelt. Kreative, innovationsfördernde Methoden und iterative, auf schnellem Kundenfeedback beruhende Ansätze für das Business-Development lassen auch in etablierten Unternehmen die notwendige Start-up-Mentalität einziehen.

Kernaussagen

Die Digitalisierung eröffnet neue Geschäftschancen. Diese müssen ergebnisoffen in interdisziplinären Teams diskutiert und ausgearbeitet werden.
Bei der anschließenden Ausarbeitung der digitalen Strategie wird der Kunde in den Mittelpunkt gestellt.
Vier Management-Werkzeuge erleichtern die Ausarbeitung der digitalen Strategie:

  • Customer-Journey-Mapping
  • Geschäftsfähigkeiten-Landkarte
  • Value-Proposition
  • Lean-Start-up.

 

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Zum Autoren

Neues Lizenzmanagement

Die Lizenzmodelle der Softwareindustrie wandeln sich im Zuge des Cloud-Computings. Neue Abrechnungsmodelle müssen kalkuliert werden.

Die TREND-REPORT-Redaktion sprach mit Prof. Dr. Andreas Gadatsch, Hochschule Bonn-Rhein-Sieg, und Dipl.-Kfm. Stefan Brassel M. A., Bechtle AG, über zukünftige Lizenzpraktiken und die damit einhergehenden Folgen für Unternehmen.

Herr Prof. Dr. Gadatsch, wie werden cloudbasierte Software- und Infrastruktur-Services die heutige IT-Nutzungskultur in den Unternehmen verändern?
Die IT-Leistungen vermischen sich zunehmend mit Business-Leistungen. Der Unterschied zwischen IT und Business verschwindet immer mehr. Anwender werden Leistungen beziehen und nicht danach fragen, ob „die eigene IT das kann oder nicht“. Dies bedeutet, dass der CIO bzw. der CDO mehr in die Rolle des Moderators, Beschaffers und Koordinators wechselt und Innovationen ganzheitlich vorantreiben muss.

Und was ändert sich im Kontext der jetzigen Lizenzpraktiken?
In der Vergangenheit verbanden Kunden mit „Lizenzierung“ lediglich softwaretechnologische sowie lizenzrechtliche Fragestellungen. Software- und Businessstrategie wurden als getrennte Bereiche eingestuft und von verschiedenen Personen verantwortet. In diesem Zusammenhang tauchte die Frage nach dem eigenen IT-Betrieb bzw. internen Unternehmensprozessen – insb. die Fragestellung nach dem sogenannten „Wertbeitrag“ der IT zum Unternehmenszweck im Rahmen der Servicedienstleistung – auf, welche die IT den Fachabteilungen anzubieten hatte. Die Entscheider im Unternehmen hatten oftmals lediglich einen Fokus auf den finanziellen Aspekt. Zudem waren Kaufentscheidungen im Standardsoftwareumfeld oftmals durch die Compliance-Überprüfungen der Lizenzgeber „beeinflusst“ und weniger technologisch getrieben. Wenn Unternehmen sich mit Outsourcing befassten, passierte dies i. d. R. unabhängig von der Softwarebeschaffung, im Rahmen einer grundsätzlichen Strategiediskussion, oftmals vor dem Hintergrund von Kostensenkungsaspekten. Bedingt durch die „Verschmelzung von Software und Hardware sowie Serviceanteilen“ zu Cloud-Diensten, kann man im Rahmen von „Lizenzierung“ nun über Outsourcing durch die Hintertür sprechen. Der Eingriff in Unternehmensprozesse ist teilweise enorm (als Beispiel sei hier nur die technologische Abhängigkeit von Diensten wie Office 365 vom Design des „Active Directory“ eines Kunden genannt), die Anbieterauswahl stark eingeschränkt und SLAs und Haftungsfragen können i. d. R. nicht verhandelt werden. In diesem Zusammenhang gilt es zudem, die Grundsätze der „Principal Agent Theory“ und des Transaktionskostenansatzes im Auge zu behalten.

  • Durch Cloud-Dienste entsteht ein enormes Einsparpotenzial im IT-Betreib, jedoch sollte im Vorfeld eine ausführliche technische Evaluation und eine Analyse der zur Diskussion stehenden Vertragswerke stattfinden.
  • Wo der Einfluss auf die SLAs von großer Bedeutung ist, kann es sinnvoll sein, auf „lokale“ Outsourcing-Partner zu setzen, mit denen Vertragsinhalte noch verhandelt werden können.
  • Früher sorgte der IT-Controller einfach für möglichst niedrige Lizenzgebühren und Mengenvolumina, heute muss er er einen vollständigen Business-Case erstellen bzw. bewerten und ggf. nach Alternativen suchen.

Herr Brassel, wie reagieren Unternehmen am besten und schnell darauf?
Entscheidend ist im ersten Schritt, dass sich die IT-Abteilungen der Unternehmen der Auswirkungen dieser Entwicklung bewusst werden und der CIO in seiner Rolle als Schnittstelle zum Management das Thema „Softwarebeschaffung“ unter den neuen Gegebenheiten auf Managementebene strategisch diskutiert. Hieran schließt sich die Frage nach den Anforderungen an die interne IT an (Wertbeitrag der IT zum Unternehmenszweck). Es ist zu klären, welche der erbrachten Leistungen eher „Commodity“ ohne strategische Relevanz sind und welche Leistungen als erfolgskritisch für die Unternehmensstrategie angesehen werden können.

Was müssen Unternehmen jetzt konkret tun?

Dipl.-Kfm. Stefan Brassel M. A.

Zu empfehlen ist hier eine Analyse und Clusterung der Unternehmensdaten. Welche Daten sind für den Unternehmenserfolg so entscheidend, dass sie nicht herausgegeben werden können, selbst wenn sie verschlüsselt wurden, und welche Daten könnte man auslagern? Im Allgemeinen bietet es sich an, über die Auslagerung von Basis-IT-Services wie Mail, Collaboration, Communication und DataShare nachzudenken. Denn hier lassen sich neben Standardisierungsüberlegungen und Einsparpotenzialen im IT-Betrieb insb. auch Optimierungen im Bereich der Administration realisieren. Dies erfordert jedoch im Vorfeld neben einer ausführlichen technischen Evaluation auch eine Analyse der zur Diskussion stehenden Vertragswerke in Bezug auf „Service Level Agreements“ (SLA), Pönalen (Strafen für SLA-Verletzungen), Datenschutz, Laufzeiten und Kündigungsfristen. Auch gilt es, den „regulären“ Unternehmensbetrieb im Verhältnis zu extrem störempfindlichen Unternehmensbereichen, wie z. B. einem Produktionsbetrieb, zu analysieren und für den IT-Support jedes einzelnen Unternehmensbereiches eine gesonderte „Make or buy“-Entscheidung zu treffen.

 

 

 

Herr Prof. Dr. Gadatsch, wie wirkt sich der Wandel auf das IT-Controlling aus?

Dr. Andreas Gadatsch, Hochschule Bonn-Rhein-Sieg

Die Rolle des IT-Controllers besteht ja für viele immer noch im jährlichen Aufstellen von IT-Budgets und deren monatlicher Kontrolle. Diese Eingrenzung ist historisch bedingt nachvollziehbar, weil früher hohe IT-Kosten „verdächtig“ waren und die Unternehmensleitung bestrebt war, die IT-Kosten möglichst zu senken. Beim klassischen Lizenzcontrolling hat dieses Modell noch funktioniert. Der IT-Controller sorgt für möglichst niedrige Lizenzgebühren und Mengenvolumina in Kooperation mit dem IT-Einkauf. Heute wird eher danach gefragt, welche IT-Investitionen sinnvoll sind und wie sie sich auf die Geschäfte des Unternehmens auswirken. Im Rahmen der aktuellen Veränderungen müssen komplexe Prozesse bewertet werden. Dies macht die Aufgabe des IT-Controllers wesentlich schwieriger. Er muss nun einen vollständigen Business-Case erstellen bzw. bewerten und ggf. auch nach Alternativen suchen.
Müssen neue Attribute, Begriffe oder Rollen für das Risikomanagement gefunden werden?
Neue Begriffe sind immer gut für Berater, Journalisten und Wissenschaftler. Oft findet man aber den bekannten alten Wein in neuen Schläuchen. Es kommt aber immer auf die Inhalte an. Das Risikomanagement war bislang im IT-Controlling nur ein Thema von vielen. Es ist aufgrund der veränderten Rahmenbedingungen wahrscheinlich, dass die Aufgabengebiete IT-Controlling und IT-Risikomanagement enger zusammenwachsen. Vielleicht ist Risikomanagement in Zukunft eine Kernaufgabe des IT-Controllers.

Herr Brassel, quasi die Renaissance der SLA?
Eher eine ganz neue Wahrnehmung der Bedeutung von unternehmensinternen SLAs. Den Unternehmen muss bewusst sein, dass sie etwas „Outsourcen“ um Geld zu sparen, womit der beteiligte Dienstleister aber dennoch Geld verdienen möchte. So etwas funktioniert nur über Skalierung bzw. Standardisierung. Die SLAs im Rahmen von Diensten wie z. B. Office 365 der Firma Microsoft sind im Prinzip nicht verhandelbar. Der Dienst ist auch nur oberflächlich individuell „konfigurierbar“. Die Prozesse, Verfügbarkeit und Haftungsfragen sind weitestgehend vom Anbieter vorgegeben und weltweit standardisiert. Das wirft im Bezug auf SLAs ganz neue Fragen auf. Wo vom Nachfrager maximale Flexibilität und Verfügbarkeit gefordert werden, scheiden solche hochstandardisierten Dienste eher aus. Wo der Einfluss auf die SLAs von großer Bedeutung ist, kann es nach wie vor sinnvoll sein, auf „lokale“ Outsourcing-Partner zu setzen, mit denen die Vertragsinhalte noch verhandelt werden können. Somit könnte man eher von einer Renaissance der grundsätzlichen Make-or-buy-Strategie in einem Unternehmen sprechen, des grundsätzlichen Sourcingansatzes vor dem Hintergrund der Anforderungen an SLAs. Zumindest was IT-Dienste betrifft.

Herr Prof. Dr. Gadatsch, CIO, CEO und CDO: Wie sieht die neue Rollenverteilung im Kontext der „transformierten IT“ aus?
Die Rolle des CIO wurde über 20 Jahre lang diskutiert, trotzdem finden Sie in den Unternehmen immer noch sehr unterschiedliche Sichten. Die Rolle des CDO wird ja gerade erst langsam klarer, wenngleich die Diskussion noch im vollen Gang ist. Egal, wer die digitale Transformation treibt, ein klassischer IT-Leiter, ein CIO oder ein CDO: Sie bleibt im Kern Chefsache und damit ist der CEO immer involviert.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Prof. Dr. Andreas Gadatsch

Informationen zu Dipl. Kfm Stefan Brassel M.A.

Ein Kampf gegen Windmühlen?

Gut gerüstet mit Verschlüsselungstechnologien und einem zuverlässigen Key-Management werden Cloud-Risiken für Unternehmen beherrschbar.

von Thorsten Krüger

Geringe Kosten, hohe Flexibilität – Cloud-Computing ist längst kein Schlagwort mehr, sondern aus der Unternehmenswelt nicht mehr wegzudenken. Rund ein Drittel aller IT-Manager und Sicherheitsverantwortlichen nutzt IT heute schon ausschließlich aus der Cloud, mehr als zwei Drittel erachten cloudbasierte Services und Plattformen als wichtig für ihr Geschäft. Allerdings stehen viele vor der Herausforderung, in Umgebungen fernab ihres eigenen Rechenzentrums die Kontrolle über Daten zu behalten und alle Richtlinien zu erfüllen. Jeder Zweite hält die gewählte Cloud-Sicherheitsstrategie und die Einhaltung von Datenschutzrichtlinien im eigenen Unternehmen für unzureichend. Vor allem sensible Informationen werden zu sorglos mit Geschäftspartnern, Auftragnehmern oder Händlern geteilt.
Häufig kommen zudem unzureichende Kontroll- und Sicherheitsmaßnahmen zum Einsatz, um sensible Daten in der Wolke zu schützen. Der Fokus wird oft auf Intrusion-Prevention, Firewall, Content-Security oder Access-Point-Security gesetzt, um Infrastrukturen abzusichern. Solche klassischen Sicherheitsmaßnahmen greifen in Cloud-Umgebungen zu kurz.

Obendrein erschwert das Phänomen Schatten-IT die Sicherheitsvorkehrungen. Fast die Hälfte aller Cloud-Services wird nicht von den IT-Verantwortlichen selbst, sondern von anderen Abteilungen betrieben. IT-Sicherheitsexperten sind auch selten in die Entscheidung involviert, welche Cloud-Applikationen oder -Plattformen zum Einsatz kommen. Das Ergebnis: Fast die Hälfte aller Geschäftsdaten in der Cloud steht nicht unter der Kontrolle der IT-Abteilung. Dass vor diesem Hintergrund der Überblick über die eigenen Applikationen, Plattformen oder Infrastruktur-Services verloren geht, ist kaum verwunderlich. Gefährdet sind vor allem vertrauliche und sensible Daten wie Kundeninformationen, E-Mails, Personalakten und Zahlungsinformationen, die häufig in der Cloud gespeichert werden.

Der Versuch, immer neue Sicherheitslücken zu schließen, gleicht einem Kampf gegen Windmühlen, und auch der Ansatz, die Security-Compliance von Cloud-Providern untersuchen zu wollen, entpuppt sich oft als aussichtsloses Unterfangen. Um sensible Informationen effektiv zu schützen, müssen die Unternehmen die Kontrolle über ihre Daten behalten. Im Zentrum der Sicherheitsbemühungen sollte ein datenzentrierter Ansatz stehen, mit dem sich sowohl Kunden- als auch Geschäftsdaten über alle täglich verwendeten Cloud-Services hinweg schützen lassen. Technologien wie Authentifizierung in Verbindung mit Verschlüsselung, Tokenization und anderen kryptografischen Lösungen kommen dafür in Frage. Dreh- und Angelpunkt muss hierbei sein, dass Unternehmen ihre kryptografischen Schlüssel nicht aus der Hand geben.

Der Schlüssel zu mehr Sicherheit

Das Identitätsmanagement in der Cloud empfinden viele als schwieriger als in On-Premise-Umgebungen. Die meisten Unternehmen setzen noch immer auf Passwörter und Nutzernamen, um Identitäten zu verifizieren und Nutzerzugänge zu schützen. Die Erkenntnis, dass das für ein hohes Sicherheitsniveau nicht ausreichend ist, setzt sich jedoch immer mehr durch.
Erst eine Multifaktor-Authentifizierung sorgt dafür, dass sich Cloud-Zugänge von Mitarbeitern und Dritten zuverlässig überwachen lassen. Dabei werden mindestens zwei voneinander unabhängige Faktoren für die Authentifizierung von Kunden genutzt. Konkret können dies Dinge sein, die der Kunde weiß (Passwort, Sicherheitsfrage), die er besitzt (Mobiltelefon, Token) oder etwas, das ihn persönlich auszeichnet (Fingerabdruck, biometrische Gesichtserkennung).

Kernaussagen

  • Jeder zweite IT-Manager hält die Cloud-Sicherheitsstrategie im eigenen Unternehmen für unzureichend.
  • Klassische Sicherheitsmaßnahmen greifen in Cloud-Umgebungen nicht.
  • Fast die Hälfte aller Geschäftsdaten in der Cloud wird nicht von der IT-Abteilung kontrolliert.
    Durch Technologien wie Verschlüsselung, Tokenization und andere kryptografische Lösungen behalten Unternehmen die Kontrolle über ihre Daten in der Cloud
  • Mit Multifaktor-Authentifizierung lassen sich die Cloud-Zugänge von Mitarbeitern und Dritten zuverlässiger überwachen als mit Passwörtern.
  • Verschlüsselung gewährleistet „Vertraulichkeit, Integrität und Verfügbarkeit“, sowohl bei mobilen Geräten als auch in der Cloud.

Bis dato verschlüsselt nur rund ein Drittel der Unternehmen sensible oder vertrauliche Daten direkt in der cloudbasierten Applikation. Sauber und ohne Hintertüren implementiert trägt Verschlüsselung dazu bei, die drei Sicherheitsziele „Vertraulichkeit, Integrität und Verfügbarkeit“ zu erfüllen. Dabei kann die Technologie zwar nicht alle Aufgaben der Zugangs-, Zugriffs- und Weitergabekontrolle übernehmen, doch ohne sie sind diese Kontrollmaßnahmen kaum möglich.

Bei mobilen Endgeräten ist die Verschlüsselung nicht weniger wichtig als in der Cloud. Vor allem bei Smartphones und Tablets besteht ein hohes Verlust- und Diebstahlrisiko. Fehlt die mobile Datenverschlüsselung, können Gerätediebe und unehrliche Finder auf die vertraulichen Daten zugreifen.
Die deutschen Aufsichtsbehörden für den Datenschutz betonen: Verschlüsselung in der Cloud sollte so organisiert werden, dass die Schlüssel in der Hoheit der Nutzer verbleiben. Unternehmen sind deshalb einerseits in der Pflicht, nach Verschlüsselungslösungen Ausschau zu halten, die hinsichtlich Stärke und Algorithmus dem Stand der Technik entsprechen. Andererseits gilt es, ein zuverlässiges Key-Management zu etablieren. Das Thema Sicherheit in der Cloud wird für Unternehmen damit beherrschbar und diese können somit auch den Vorgaben bei Compliance und Governance gerecht werden. Sensible Daten sind überall und zu jederzeit geschützt.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Thorsten Krüger

Smart, jetzt wirklich?

Manch „smartes“ Gerät sieht schnell unsmart aus, wenn wichtige Regeln wie Datenschutz, Sicherheit und Nutzererwartungen nicht erfüllt werden.

von Oliver Sucker

Die fortschreitende Digitalisierung eröffnet neue Wege und Techniken in allen Bereichen des täglichen Lebens, birgt aber auch Herausforderungen, Tücken und unerwartete Fallstricke. Nicht immer bringt die Digitalisierung nur Positives, wenn sie nicht richtig angegangen wird.
Insbesondere der Datenschutz ist ein essentieller Kernaspekt, will man das Vertrauen seiner Kunden nicht auf einen Schlag verspielen. Noch wichtiger ist in diesem Zusammenhang das allübergreifende Thema IT-Sicherheit: Ohne System- und Datensicherheit ist auch kein Datenschutz möglich.

Neben all den rechtlichen und komplexen technischen Fragen darf man aber auch die Erwartungen und Wünsche des Endanwenders nicht vergessen. Wenn es nicht gelingt, Bekanntes und Bewährtes in entsprechenden Analogien aufzugreifen, stößt man – insbesondere bei älteren oder sehr tradierten Menschen – schnell auf ein Akzeptanzproblem. „Smarte“ Geräte wie Fitnesstracker, Fernseher, Überwachungskameras und Alarmanlagen oder gar Sprachassistenten sind mehrheitlich ein Graus. Öffentlich im Internet verfügbare Gesundheitsdaten, zweifelhafte Clouds in Fernost, zu denen sich IP-Kameras verbinden, die blinde Datensammelwut mancher Hersteller oder wanzenartige, permanente Raumüberwachung machen sie zu potenziellen Feinden in unseren Büros, Wohnzimmern oder gar an unserem Körper. Die „Sicherheitskamera“ wird da schnell zum Einbruchinformationssystem; die Alarmanlage, die sich per unverschlüsseltem Funk einfach abschalten lässt, gibt nur trügerische Sicherheit. Manch „smartes“ Produkt schaut da schnell dumm aus der Wäsche.

Manche Geräte sind aber auch einfach nur ärgerlich: Erst nötigen sie uns zur Anmeldung bei eigentlich überflüssigen Cloud-Diensten, über deren Sicherheit, Seriosität und Fortexistenz wir weder Kenntnis noch Kontrolle haben. Ohne die Cloud am anderen Ende wird das Gerät wertlos. Es ist zudem auch höchst fraglich, ob alles in der Cloud gespeichert werden muss, nur weil es gerade so hipp ist.
Fast alle modernen Geräte enthalten neben der Hardware auch entsprechende Software (Firmware und ggf. Betriebssystem). Diese enthält generell Fehler, linear abhängig von der Komplexität des Produkts, der Kompetenz, Sorgfalt und Kultur der Entwickler sowie dem Reifegrad des Produkts. Selbst in reifen Softwareprodukten tauchen regelmäßig Fehler auf, mitunter sicherheitsrelevante.

Sicherheitslücken müssen also durch regelmäßige Produktpflege beseitigt werden, anderenfalls wird das Produkt tendenziell immer anfälliger. Das tückische dabei ist, dass der Endanwender sicherheitsrelevante Fehler – im Gegensatz zu funktionalen Mängeln – nicht selbst erkennen kann; ein ansonsten wunderbar funktionierendes Produkt kann gespickt sein mit Sicherheitslücken.
Was ist also mit dem noch prima funktionierenden Smartphone, für das der Hersteller keine Sicherheitsupdates (mehr) liefert, wie es am PC selbstverständlich ist? Wegschmeißen oder einfach darauf hoffen, dass unsere privaten Daten schon nicht gestohlen werden, obwohl unsere Haustür sperrangelweit offen steht?

Dann ist da noch der Aspekt der Benutzerfreundlichkeit: „Smarte“ Telefone haben das Telefonieren in den Augen nicht weniger Menschen schwieriger, de facto zumindest aber umständlicher gemacht. Uhren sind gar so smart geworden, dass sie vor lauter Kraft nicht mal 24 Stunden ohne Nachladen durchhalten. Die elektronische Internetbriefmarke sieht nicht nur nicht mehr schön aus, der früher oftmals nützliche Poststempel mit dem Einlieferungsdatum fällt auch ersatzlos weg. Ein jahrzehntelang funktionierender Prozess ist so zumindest teilweise ruiniert.

All diese Probleme lassen sich durch solides Know-how und guten Willen lösen; dies wäre auch ein wesentlicher Beitrag, bestehende Akzeptanzprobleme abzubauen und die digitale Spaltung der Gesellschaft abzuwenden. Derzeit ist jedoch eher ein gegenteiliger Trend zu erkennen. Zum bekannten Abfallhaufen aus kaputten Zahlungssystemen, Zertifikatsinfrastrukturen, Mobilfunktechnologien, Routern und anderen Embedded-Geräten kommt nun u. a. noch Industrie 4.0 und das „Internet of Things“ (IoT), ob im Smart Home, vernetzten Fahrzeugen oder der Smart City.
Dass die Geräte immer stärker vernetzt sind, ist aus Anwendersicht Segen und Fluch zugleich: Die Geräte werden dadurch immer angreifbarer, ebenso kann zum Beispiel das Nutzungsverhalten ausgespäht werden. Es gilt also stets abzuwägen, ob weitere Vernetzung mehr Chancen oder mehr Risiken birgt. Gleichzeitig gilt es, Risiken zu minimieren und auch die Datenverarbeitung auf das zu beschränken, was für die Funktionalität tatsächlich nötig ist – auch wenn Unmengen an Statistiken über die eigenen Kunden manche Begehrlichkeiten wecken. Nur wenn der Anwender genau weiß, welche Daten erhoben werden und wofür, bleibt das böse Erwachen am Tag X aus.

Hersteller sollten Sicherheit und Datenschutz nicht als notwendiges Übel, sondern als solide Basis jeden digitalen Handelns verstehen. Patzer können ein Produkt oder gar ein ganzes Unternehmen in den Abgrund reißen; „Digitale Abgasskandale“ sind unter allen Umständen zu vermeiden. Diese Kernaspekte müssen dazu von Anfang an in Design und Entwicklung berücksichtigt und im Rahmen der Continous Delivery/Continous Integration oder in jedem Release permanent geprüft werden, auch die etwaigen Backend-Systeme. Penetrationstests und Audits sind hier auch in einem hohen Maße automatisierbar, sodass Aufwand und Kosten überschaubar bleiben.

Kernaussagen

  • Es muss nicht alles in der Cloud gespeichert werden. Es gilt, Risiken zu minimieren und die Datenverarbeitung auf das zu beschränken, was für die Funktionalität tatsächlich nötig ist.
  • Für den sicheren Umgang mit „smarten“ Produkten fehlt es den Endanwendern an Prüf- und Einflußmöglichkeiten. Hersteller, Importeure, Verbraucher- und Datenschutzorganisationen sind daher stärker als bisher gefordert, für sichere und datenschutzfreundliche Produkte zu sorgen.
  • Hersteller sollten Sicherheit und Datenschutz als solide Basis digitalen Handelns verstehen. Regelmäßige Sicherheitsupdates müssen garantiert beim Endanwender ankommen, im Ernstfall in wenigen Tagen oder sogar Stunden.

Eine ergänzende Möglichkeit, Ihr Vertrauen in die eigenen Produkte zu zeigen, ist das Ausschreiben von Kopfgeld-Zahlungen („Bug  Bounty“) an Sicherheitsforscher, die Probleme in Produkten finden und melden. Dies kann jedoch kein Ersatz für eine fachlich versierte Produktprüfung sein, da hier nicht sichergestellt ist, wie gut, wie tief und ob überhaupt jemand prüft. Ein mickriger Geldbetrag von wenigen Hundert Euro wird außer Kinderchen, die ihr Taschengeld aufbessern wollen, niemanden anlocken und auch keine detaillierte Produktprüfung ermöglichen.
Als Minimum sollte die Produkthomepage generell eine Kontaktmöglichkeit zum Melden von Sicherheitsproblemen bieten und konkrete Informationen zur Produktsicherheit und zu wichtigen Updates liefern. Dies setzt jedoch voraus, dass sich Anwender auch aktiv informieren, wovon mehrheitlich nicht ausgegangen werden kann.

Sicher sind die Produkte aber erst, wenn Updates auch beim Endanwender installiert sind. Dazu ist es also nötig, Updates entweder komplett automatisiert auszurollen oder zumindest einen Kanal zum Endanwender aufzubauen, über den wichtige Informationen kommuniziert werden können. Ein Informationsblatt zur Produktsicherheit mit nötigen Einstellungen, Empfehlungen und Informationsmöglichkeiten ist ebenfalls sehr nützlich.
Den Anwendern kann man nur anraten, obige Punkte in Bezug auf ihren Lieferanten zu prüfen bzw. prüfen zu lassen und die Produkte genauer zu hinterfragen. Ist zum Betrieb des Produkts eine Cloud erforderlich? Wie ist sie abgesichert und zertifiziert? In welcher Jurisdiktion werden die Daten gespeichert? Was passiert im Fall einer Insolvenz oder Übernahme?

Welche Daten erhebt ein Gerät und wozu? Gibt es ein unabhängiges Audit der Software? Ist der Quellcode einsehbar? Wie, wo, wie oft und wie lange gibt es Sicherheitsupdates? Monatlich automatisch sollte hier der Standard sein – bei akuten Problemen auch schneller – wie es große Firmen wie Microsoft oder Google vormachen.
Privatanwender können all dies natürlich nicht leisten: Hier sind Hersteller, Importeure und die Verbraucher- und Datenschutzorganisationen gleichermaßen mehr gefordert, den Bereich Software genauer ins Visier zu nehmen, ansonsten wird es die Politik tun müssen. So manches Produkt, das in deutsche Lande kommt, entspricht nicht den europäischen Datenschutzbestimmungen und ist in puncto Softwaresicherheit mangelhaft.

Denke digital. Denke analog. Dann agiere klug und balanciert, unter Abwägung von Nutzen, Risiken und traditionellen Erwartungen. Und immer daran denken: Nichts verschlimmbessern und vor allem nichts kaputt machen!

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Oliver Sucker

Neue digitale Sicherheitskultur

Sicherheit für kritische Infrastrukturen und innovative Cyber-Abwehr sind für Unternehmen und den Public Sektor gefragter denn je.

Die  Digitalisierung und Vernetzung, das Internet der Dinge, Industrie 4.0 und die zunehmende Mobility bieten Cyber-Angreifern vielfältige Möglichkeiten, Informationen auszuspähen, Geschäftsprozesse zu sabotieren oder sich unter Einsatz von Malware und damit verbundener erpresserischer Datenverschlüsselung kriminell zu bereichern.

Täglich werden rund 380 000 neue Schadprogrammvarianten entdeckt, die Anzahl von Spam-Nachrichten mit Schadsoftware im Anhang ist explosionsartig um 1 270 Prozent angestiegen. Wie Frau Merkel bemerkte, werden Cyber-Angriffe zum Alltag gehören.

Klassische Abwehrmaßnahmen reichen nicht mehr aus

Unternehmen aller Branchen,  kritische Infrastrukturen, Forschungseinrichtungen, Ver­waltung und Bürger sind es, auf die sich Angreifer mit flexibel einsetzbaren Angriffsmitteln und -methoden fokussieren. Konsequenzen aus bereits erfolgten Angriffen sind teils verheerend und verdeutlichen, wie verwundbar eine digitalisierte Gesellschaft ist.  Dieser Thematik folgend entstehen neue Anforderungen an die bestehenden Sicherheitskonzepte. Hinzu kommen die gesetzlichen Vorgaben, wie das 2015 eingeführte IT-Sicherheitsgesetz, das um Sicherheitsanforderungen an sogenannte „Kritische Infrastrukturen“ noch ergänzt wurde. Es gilt der Ansatz, ein Unternehmen so zu führen und zu kontrollieren, dass die relevanten und möglichen Risiken abgedeckt sind. Das bedeutet, diese Risiken zu identifizieren, analysieren und bewerten. Um darauf aufbauend die Erstellung eines ganzheitlichen Sicherheitskonzeptes zu ermöglichen. Das beinhaltet nicht nur die eingesetzten Technologien, sondern auch organisatorische Maßnahmen, wie Zuständigkeiten, Berechtigungen, Kontrollinstanzen oder konzeptionelle Aspekte, wie etwa Mindestanforderungen für bestimmte Sicherheitsmerkmale zu definieren.

Kritische Infrastrukturen müssen branchenspezifische Mindeststandards erfüllen, wozu insbesondere die Einführung eines ISMS zählt. Hilfestellungen gewähren die kostenfreien IT-Grundschutz-Kataloge des BSI. Eine Sammlung von Dokumenten, welche die schrittweise Einführung und Umsetzung eines ISMS erläutern. Weiterhin müssen große Unternehmen und solche der „kritischen Infrastruktur“ relevante Vorfälle, die die IT-Sicherheit betreffen, an das BSI melden.

Durch das IT-Sicherheitsgesetz wurden außerdem weitere Gesetze wie z. B. das Energiewirtschaftsgesetz geändert. Durch die Änderung des Energiewirtschaftsgesetzes werden sämtliche Strom- und Gasnetzbetreiber verpflichtet, den IT-Sicherheitskatalog der Bundesnetzagentur umzusetzen und ein ISMS einzuführen.

ISO 27001

Als Standard für Managementsysteme der Informationssicherheit hat sich die ISO-Norm 27001 zur Umsetzung und Kontrolle von gesetzlichen Vorgaben hinsichtlich Informationssicherheit und Datenschutz etabliert. Bei der Verwendung von Informationssystemen müssen proaktiv Schutzmaßnahmen und Schutzmethoden ergriffen werden, um mögliche Bedrohungen und Schwachstellen bestenfalls vorab zu verhindern oder auf ein überschaubares Risiko zu minimieren.
Die Zukunft ist vernetzt und mobil, mit immer mehr Schnittstellen zwischen Mensch, System und Maschine, national und global. Das bedeutet, dass wir ein sicheres und vertrauenswürdiges Ökosystem vom kleinsten Sensor bis zum Benutzer benötigen. Eine Absicherung der Systeme kann nur unter Einbezug sämtlicher Beteiligter, also Hersteller, Systemintegrator, Betreiber der Anlagen sowie der Öffentlichkeit, gleichermaßen gewährleistet werden.
Der Einsatz aktueller Schutzmechanismen, die Verfügbarkeit, Verbindlichkeit und Authentizität gewährleisten, wird von zunehmender Bedeutung sein. Techniken zur Verschlüsselung, Authentifizierung und Autorisierung auf Basis biometrischer Verfahren und hochleistungsfähiger Kryptografie-Methoden werden zum Standard avancieren.

Weiterführende Reportage aus TREND REPORT zum Thema

Heft 3/2015 „Vernetzte Gesellschaft“
„IoT: Beginn der Vernetzung“, Autor Chris Löwer
https://trendreport.de/iot-beginn-der-vernetzung/

Heft 2/2016 „Deutschland digital“
„Orientierung gesucht“, Dr. Ralf Magagnoli
https://trendreport.de/orientierung-gesucht/

Heft 1/2016 „Creative Companies“
„360°: Risiken immer im Blick“, Frank Romeike
https://trendreport.de/360-risiken-immer-im-blick/

Big – Smart – Fast

Unser Arbeitsalltag wird zunehmend von digitalen Daten beeinflusst. Big Data berührt alle Branchen und Märkte.

Werfen wir im Kontext der Digitalisierung einen  kurzen Blick zurück: Es wird angenommen, dass es der Menschheit im Jahr 2002 zum ersten Mal möglich war, mehr Informationen digital als analog zu speichern – der Beginn des „Digitalen Zeitalters“. Alles was heute an analogen Informationen in Bits und Bytes gewandelt werden kann, wird zu Daten. Im Zuge der Digitalisierung, die Unternehmen im Kontext betrieblicher Abläufe zu Effizienzsteigerung und damit einer verbesserten Wirtschaftlichkeit verhilft, wachsen die Daten dementsprechend exponentiell. Wir sprechen heute von Big Data. Der aus dem englischen Sprachraum stammende Begriff Big Data oder auf gut Deutsch Massendaten steht dabei grundsätzlich für große digitale Datenmengen, aber auch für deren Analyse, Nutzung, Sammlung, Verwertung und Vermarktung. In der Definition von Big Data bezieht sich das „Big“ auf die drei Dimensionen „volume“, für Umfang und Datenvolumen, „velocity“ für die Geschwindigkeit, mit der die Datenmengen generiert und transferiert werden, sowie „variety“ für die Bandbreite der Datentypen und -quellen. Erweitert wird diese Definition um die zwei V „value“ und „validity“, welche für einen unternehmerischen Mehrwert und die Sicherstellung der Datenqualität stehen.

Die gesammelten Daten können dabei aus verschiedensten Quellen stammen: Überwachungssysteme, Nutzung von Kunden- oder Bank- bzw. Bezahlkarten, jegliche elektronische Kommunikation, Navigationssysteme, GPS, Smartphones, Smart Homes, Fahrzeuge aller Art, von Behörden und Unternehmen erhobene und gesammelte Daten, Sensordaten im Kontext von IoT und Industrie.
Die Analyse, Erfassung und Verarbeitung von großen Datenmengen ist heute in vielen Bereichen alltäglich, aber verbesserungswürdig hinsichtlich Big Data.

TREND REPORT zum Thema

Unser Arbeitsalltag wird zunehmend von digitalen Daten beeinflusst. Business-Intelligence-Lösungen helfen, Geschäftsprozesse zu optimieren und Ordnung in das Big-Data-Chaos zu bringen, weiß Brian Gentile. https://trendreport.de/bi-daten-clever-nutzen/

Mit der TREND-REPORT-Redaktion sprach Tom Becker über die Herausforderungen und die Bedeutung der Datenanalyse für den Geschäftserfolg und welchen Vorteil Self-Service-Datenanalysetools bieten. https://trendreport.de/analyse-der-datenanalyse/

Datenmengen sind und werden zu groß, zu komplex, zu schnelllebig oder zu schwach strukturiert, um sie mit herkömmlichen Methoden der Datenverarbeitung auszuwerten. Aktuelle Entwicklungen von Software für die Verarbeitung von Big Data kommen neben klassischen prioritären Anbietern oft aus dem Open-Source-Bereich. Bekannt ist hier z. B. Apache Hadoop, ein freies Framework für skalierbare, verteilt arbeitende Software, die es ermöglicht, intensive Rechenprozesse mit großen Datenmengen auf Computerclustern durchzuführen. Big Data kann Geschäftsprozess-Verbesserungen in allen Funktionsbereichen von Unternehmen, vor allem aber im Bereich der Technologieentwicklung und Informationstechnik sowie des Marketings erzeugen. Die Erhebung und Verwertung der Datenmengen dient dabei im Allgemeinen der Umsetzung von Unternehmenszielen. Bisher haben vor allem große Branchen, Unternehmen und Anwendungsbereiche der Wirtschaft, Marktforschung, Vertriebs- und Servicesteuerung, Medizin, Verwaltung und Nachrichtendienste die entsprechenden digitalen Methoden für sich genutzt: Die erfassten Daten sollen weiterentwickelt und nutzbringend eingesetzt werden. Die Erhebung der Daten dient dabei meistens für konzernorientierte Geschäftsmodelle sowie Trendforschung in den sozialen Medien und Werbeanalysen, um zukunftsweisende und möglicherweise gewinnbringende Entwicklungen zu erkennen. Big Data kann die Triebfeder für innovative Geschäftsmodelle und Produkte werden. Welches Marktpotential tatsächlich in Big Data Lösungen steckt scheint nicht vorhersehbar: 2013 prognostizierte der US-Marktforscher IDC den weltweiten Umsatz für 2017 auf gut 32 Milliarden Dollar. Tatsächlich betrug er 2015 bereits 125 Milliarden.

Quellen:
Wikipedia – Data Scientist: https://de.wikipedia.org/wiki/Data_Science
Wikipedia – Big Data
Wikipedia – Business Intelligence
Martin Hilbert, Priscila López: The World’s Technological Capacity to Store, Communicate, and Compute Information. In: Science, 2011, 332(6025), S. 60-65; martinhilbert.net/WorldInfoCapacity.html (Kostenfreier Zugriff auf den Artikel). The World’s Technological Capacity to Store, Communicate, and Compute Information from 1986 to 2010. (Abgerufen am 15. April 2015 PDF).
Big Data: 32 Milliarden Dollar Umsatz bis 2017 erwartet – 125 Milliarden Dollar 2015 Realität, von: Michael Kroker. URL: https://blog.wiwo.de/look-at-it/2016/07/26/big-data-32-milliarden-dollar-umsatz-bis-2017-erwartet-125-milliarden-dollar-2015-realitaet/ (Abgerufen: 6. Dezember 2016)

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/

Die digitale Revolution: einfach machen!

von Anette Bronder

Viel Lärm um nichts oder entscheidender Wettbewerbsvorteil? Bei den meisten Unternehmen ist mittlerweile angekommen, dass sie sich mit dem Thema „Digitalisierung“ beschäftigen müssen, um zukunftsfähig zu sein. Fachkräftemangel, ein schärferer Wettbewerb, Start-ups, die mit einer cleveren Idee ganze Branchen umkrempeln, neue technische Möglichkeiten – das sind die großen Herausforderungen, die die heutigen Unternehmen jetzt aktiv angehen müssen. Der Treiber für nachhaltiges Wachstum? Digitaler Fortschritt!

Fast alle Branchen werden mit Chancen und Risiken der Digitalisierung konfrontiert, auch wenn unterschiedliche Bereiche und Prozesse betroffen sind. Unternehmen können im Internet der Dinge einzelne Produkte, Herstellungsprozesse, ganze Wertschöpfungsketten oder auch komplette Geschäftsmodelle vernetzen. Und das müssen sie auch: Kunden erwarten im sogenannten „Age of the Customer“ individuelle, preisgünstige Konsumgüter und schnellen Service. Hier haben deutsche Firmen Nachholbedarf, denn das Potenzial von IoT ist laut einer Studie von PAC erst zu fünf Prozent ausgeschöpft. Es gilt: Wer die erste Halbzeit der Digitalisierung verschlafen hat, muss in der zweiten erst recht Gas geben.

Was hindert Unternehmen daran? Häufig fehlt es an Digitalisierungs-Know-how. Eine aktuelle Studie von Crisp Research ermittelte anhand eines Reifegradmodells die Fähigkeit von Führungskräften, die digitale Transformation ihrer Unternehmen voranzutreiben. Und fand heraus, dass 71 Prozent nur wenig Wissen rund um neue digitale Technologien und auch kein ausgeprägtes „Digital-First“-Denken aufweisen. Viele dieser Entscheider können durchaus konkret die Eigenschaften und Funktionen nennen, die einen „Digital Leader“ ausmachen. Dennoch fehlt ihnen an der ein oder anderen Stelle der Digitalisierungswille und auch das Wissen, es gewinnbringend umzusetzen.

Um den nötigen Sprung in die digitale Welt zu schaffen, sind Dienstleister und Produktanbieter umso mehr gefordert. Besonders branchenspezifische Anwendungen und standardisierte Plattformansätze für den einfachen Einstieg in das IoT werden dringend benötigt. Wir müssen Anwendern Schützenhilfe leisten und Lösungen anbieten, die sich schnell und einfach implementieren lassen. So nehmen wir Unternehmen die großen Ängste vor der digitalen Angriffsfläche und der Komplexität der vernetzten Welt. Eine häufig gestellte Frage: Wie viel muss ich in meinem Unternehmen digitalisieren? Ich rate immer klein anzufangen und den Digitalisierungsgrad langsam auszubauen. Auf einzelne Geräte oder Bereiche begrenzte Lösungen bieten Unternehmern die Möglichkeit, eine Vernetzung auszuprobieren und auf Potenziale für ihr gesamtes Geschäftsmodell abzuklopfen. Besonders für kleine und mittelständische Firmen, die große und riskante Investitionen scheuen, ist dies ein unkomplizierter Weg ins IoT.

Welche Strategie hin zum digitalen Unternehmen ist die richtige? Zunächst sollte man das Potenzial der Digitalisierung für sich erkennen. Maschinenbauer wie Pfannenberg, der Klimatisierungslösungen für Schaltschränke baut, oder der Küchengerätehersteller Rieber vernetzen ihre Geräte, um sie aus der Ferne zu überwachen und zu steuern. Dampfkesselproduzent Certuss geht sogar noch einen Schritt weiter: Er verbindet seine Maschinen mit der Cloud, um die gewonnenen Daten zur vorbeugenden Wartung, der sogenannten „Predictive Maintenance“, zu nutzen. Thomas Hamacher, Chief Technical Officer bei Certuss, sagt, er gehe damit auf „Spurensuche“, um anhand der interpretierten Daten die Geräte vorausschauend zu warten und die Zufriedenheit der Kunden zu erhöhen. Diese Unternehmen haben herausgefunden, wie sie digitale Lösungen für sich nutzen können, und sie haben diese Erkenntnis mithilfe einfach anwendbarer Lösungen in die Tat umgesetzt.

Um Fahrstühle, Kühlschränke oder Werksmaschinen ins Internet zu bringen, sind drei Komponenten vonnöten: Netz, Sensoren, die Daten übertragen, und die Cloud, wo die Daten intelligent ausgewertet werden.

Und von solchen Optimierungen bestehender Produkte und Dienstleistungen sowie effizienteren Strukturen und besseren Kostenstrukturen profitieren bereits viele Unternehmen. Noch aber zögern Firmen, neue Wege einzuschlagen und in das Ungewisse zu investieren. Digitale Transformation erfordert durchaus Mut und vor allem Offenheit. Das ist eine der Herausforderungen. Die andere besteht darin, richtig zu digitalisieren – mit Strategie, den richtigen Partnern und optimalen IT-Lösungen.

Auch wir Dienstleister sind in der Pflicht, denn kein Anbieter kann das Internet der Dinge alleine beherrschen. Starke Kooperationen mit Partnern und ein eng verknüpftes Ökosystem aus Infrastruktur, Plattformen und Produkten, die sich stets branchenübergreifend einsetzen lassen, ist die Voraussetzung für eine umfassende Vernetzung. So lässt sich etwa ein intelligenter Kühlschrank mit anderen Geräten zu einem Smart Home, mehrere Smart Homes mit weiteren Lösungen wie Smart Parking lassen sich zu einer Smart City vernetzen. Doch solche Möglichkeiten sind zugleich sehr komplex. Zudem wächst die Zahl der Anbieter rasant. Dies erschwert Unternehmen die Investitionsentscheidung. Know-how und Vertrauen auf allen Seiten aufzubauen ist ein Muss für IT-Anbieter. Denn wir verkaufen ja keine schnell konsumierbaren Produkte wie Milch oder Kaffee. Vielmehr geht es in der IT-Branche um langfristige, vertrauensvolle Beziehungen mit Kunden und darum, neben dem Verkäufer auch zum Berater und Partner für die Digitalisierung zu werden.

Drei Dinge sind das Grundgerüst einer erfolgreichen digitalen Transformation: Digitalisierte interne Prozesse, ein technologischer Unterbau, der die gesamte IT-Landschaft beheimatet und vernetzt, und nicht zuletzt die digitalen Geschäftsmodelle, die nah am Kunden ausgerichtet sein müssen. Diese Komponenten müssen Unternehmen mit unserer Hilfe in Angriff nehmen; nicht morgen, sondern heute. Sonst setzen sie in der digitalen Welt die Zukunft ihrer Firma aufs Spiel.

Kernaussagen

  • Wer am Markt eine Chance haben will, muss Mut zum Wandel haben und die Digitalisierung sowie die Cloud in den Mittelpunkt der eigenen Strategie stellen.
  • Häufig fühlen sich Unternehmen von der Komplexität der digitalen Welt überfordert. Digitalisierung einfach machen ist Aufgabe der Dienstleister – einen einfachen Einstieg bieten branchenspezifische Anwendungen und standardisierte Plattformen.
  • Keiner kann das IoT allein beherrschen, denn die eine Lösung für alle Zwecke gibt es nicht. Nur mit Partner-Ökosystemen lassen sich die digitalen Kundenwünsche von morgen beantworten.
  • In Zukunft dreht sich alles um die Echtzeitverarbeitung immer dichterer Datenströme aus verschiedenen Quellen; schnelle Netze, intelligente Datenanalyse-Tools und sichere Cloud-Plattformen sind der Schlüssel dazu.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Anette Bronder

New Work und Arbeiten 4.0

In Zeiten des Umbruchs werden die Weichen für die Zukunft gestellt.
Auch die der Arbeit.

von Christoph Berger

Die Digitalisierung verändert derzeit ganze Märkte und Branchen. Diese Transformation hat folglich auch Einfluss auf die Arbeit an sich und die Personalarbeit im Besonderen. Die Unternehmensstrukturen und Büroumgebungen verändern sich, die Grenzen zwischen Privat- und Berufsleben sind immer weniger eindeutig erkennbar. Das Zukunftsinstitut in Frankfurt hat den Megatrend „New Work“(1) ausgemacht.

Start-ups zeigen etablierten Unternehmen im Zeitalter der Digitalisierung und bei der Transformation von der Industrie- hin zur Wissensgesellschaft nicht nur, wie Geschäfts­prozesse effizienter gestaltet werden und Kunden komfortabler und schnel­ler an ihr Ziel kommen können -man denke hier zum Beispiel an die jungen Finanztech­nologieunternehmen die sogenannten FinTechs – sondern leben man­ches Mal auch vor, dass es ohne oder zumindest mit flachen Hierarchien funktio­niert. Dabei ist es wichtig, die Mitarbeiter auf dem Weg in die Zukunft mitzunehmen, ihnen Verantwortung zu geben und Eigeninitiati­ve zuzulassen.  Immer häufiger ist von agilen Strukturen die Rede. Das bedeutet, beweglich zu sein, intern und extern schnell auf sich verändernde Herausforderungen reagieren zu können. Die großen Unternehmen beginnen zu lernen und öffnen sich ihrerseits Schritt für Schritt den Neuerungen.

Welche Relevanz und welchen Einfluss das Thema Digitalisierung auf die Arbeit hat, wird auch durch das vom Bundesministerium für Arbeit und Soziales herausgegebene Weißbuch „Arbeiten 4.0“(2) deutlich. IT und Software mit Cloud-Technologie und künstlicher Intelligenz, Robotik und Sensorik einhergehend mit neuen Fertigungstechniken sowie die Vernetzung sind die drei Bereiche, die demnach mit ihrem Fortschritt und durch ihr Zusammenwirken eine neue Qualität der Digitalisierung vorantreiben. Mit der Publikation wird aber auch herausgestellt, dass eine tiefgehende Auseinandersetzung mit der Thematik in allen Teilen der Gesellschaft notwendig ist, um zum einen ihre Komplexität erfassen und bewerten zu können, zum anderen, um die Zukunft zu gestalten und Werte darüber festzulegen, wie wir in Zukunft arbeiten werden und wollen.

Denn vieles, was derzeit passiert, kann aus unterschiedlichsten Richtungen betrachtet werden. So schaffen die technischen Entwicklungen zwar viele neue Möglichkeiten – zum Beispiel neue Geschäftsmodelle mithilfe von Big Data –, die Folgen für den Menschen sind dabei aber nicht immer absehbar. Ein Beispiel: Mobile Endgeräte ermöglichen es zwar, von unterschiedlichsten Orten zu arbeiten, versprechen gleichzeitig aber auch eine ständige Erreichbarkeit. Letzteres erhöht den Druck auf die Mitarbeiter. Die Folge ist eine Zunahme psychischer Erkrankungen. Demgegenüber hat das Institut der deutschen Wirtschaft Köln (IW) in einer Studie herausgefunden, dass die Digitalisierung die Unternehmen familienfreundlicher machen kann – insofern sie richtig eingesetzt wird. (3) So arbeiten inzwischen rund 57 Prozent der Deutschen digital und mobil, jeder Fünfte nutzt mobile Endgeräte wie Smartphone oder Tablet beruflich sogar häufig. Laut den Ergebnissen sind mobil arbeitende Menschen prinzipiell eher in der Lage, Beruf und Familie miteinander zu verbinden, als dies nicht mobil arbeitende Mitarbeiter tun.

Es gilt also, eine Gratwanderung zu bewältigen und Lösungen zu finden, die für möglichst alle annehmbar sind, und so viele wie möglich mitnehmen – sowie die neuen Möglichkeiten zu nutzen.

Quellen:
(1)    Zukunftsinstitut GmbH: https://www.zukunftsinstitut.de/dossier/megatrend-new-work
(2)    Bundesministerium für Arbeit und Soziales, Abteilung Grundsatzfragen des Sozialstaats, der Arbeitswelt und der sozialen Marktwirtschaft (2016): Weißbuch Arbeiten 4.0, https://www.arbeitenviernull.de
(3)    Andrea Hammermann, Oliver Stettes (2016): Familienfreundliche Arbeitswelt im Zeichen der Digitalisierung, in: IW-Trends 4.2016, Institut der Deutschen Wirtschaft Köln.

ERP-Systeme verwandeln IoT-Daten in optimierte Prozesse

von Stefan Issing und Peter Schulz

Um die Möglichkeiten von Industrie 4.0 voll auszuschöpfen, müssen die aus Sensorendaten gewonnenen Erkenntnisse operationalisiert und in effizientere Prozesse umgesetzt werden. Das ist die zentrale Rolle von ERP-Systemen in Indus­trie-4.0-Umgebungen.

Das Internet of Things (IoT) kann Industrieunternehmen heute Millionen an Sensorendaten liefern, aus deren Analyse sich wertvolle Erkenntnisse gewinnen lassen. Diese Informationen nur zu sammeln und auszuwerten reicht aber nicht aus. Um von diesen Big Data wirklich zu profitieren, müssen die Erkenntnisse auch zu Aktionen führen, die die Geschäftsabläufe verbessern, seien es optimierte Wartungspläne, verbesserte Service-Levels, optimierte Logistik, bessere Produkte oder die Entwicklung neuer Geschäftsmodelle.

Die IoT-Daten müssen also operationalisiert werden – und das ist die zentrale Aufgabe von ERP-Systemen in Industrie-4.0-Umgebungen. Zum einen steuern sie als Herzstück der Unternehmens-IT die Kernprozesse der Indus­trieunternehmen und sind damit naturgemäß auch für deren Optimierung durch neue Erkenntnisse zuständig; zum anderen agieren ihre Anbieter teilweise schon Jahrzehnte am Markt und verfügen deshalb über ein umfassendes Know-how dafür, welche Daten ein Unternehmen genau benötigt, um durch optimierte Geschäftsprozesse für effizientere Abläufe oder höhere Qualität zu sorgen.

Industrie 4.0 entwickelt in den allermeisten Fällen das vorhandene Geschäft weiter, anstatt es grundlegend zu verändern.

ERP-Systeme in IoT-Plattformen aus der Cloud integrieren

Ein Beispiel für die Operationalisierung von IoT-Daten im ERP-System sind optimierte Wartungsprozesse. Wenn etwa Sensoren Daten über zu hohe Temperaturen eines bestimmten Teils sammeln, sollten diese nicht nur gesammelt und registriert werden, um dann manuell darauf zu reagieren; das volle Potenzial zeigt sich erst dann, wenn auf Basis dieser Daten ein Prozess angestoßen wird, der automatisch Servicepersonal mit dem Austausch des betroffenen Teils beauftragt und damit seinen Ausfall verhindert. Operationalisieren und Automatisieren – erst durch diese Kombination kann Industrie 4.0 ihre ganze Kraft entfalten und signifikante Umsatzsteigerungen bewirken.

Stefan Issing

Im ERP-System werden dazu aber nicht sämtliche Daten benötigt, die Industrie 4.0 generiert. Deshalb muss es in eine IT-Architektur eingebunden werden, die die Erfassung, Speicherung und Filterung der Daten ermöglicht. Eine sehr gute Möglichkeit dazu bietet die Integration in IoT-Plattformen in der Cloud.
Mit diesen Plattformen lassen sich die riesigen Datenmengen, die unter anderem von den Sensoren geliefert werden, empfangen, verarbeiten, filtern und an das ERP-System weiterreichen, ohne dafür selbst ein Rechenzentrum aufbauen zu müssen, das Millionen von Transaktionen stemmen kann. Im Sinne einer ganzheitlichen IT-Landschaft wird mittelfristig auch das ERP-System selbst zunehmend in die Cloud wandern; allerdings wird sich dabei hierzulande vor allem das Private-Cloud-Modell durchsetzen. In Deutschland, aber auch in Österreich und der Schweiz sind die Unternehmen – ganz im Gegensatz etwa zu den USA – sehr zurückhaltend, wenn es darum geht, geschäftskritische Daten in die öffentliche Cloud auszulagern.

Das Geschäft nicht auf den Kopf stellen, sondern Schritt für Schritt verbessern

Peter Schulz

Beim Stichwort Internet of Things kommen vielen Menschen automatisch Unternehmen mit disruptiven Geschäftsmodellen wie der Online-Fahrdienst-Vermittler Uber oder der Video-Streaming-Dienst Netflix in den Sinn, die komplette Branchen auf den Kopf gestellt haben. Industrie 4.0 entwickelt aber in den allermeisten Fällen das vorhandene Geschäft weiter, anstatt es grundlegend zu verändern. Beim Blick auf Unternehmen, die bereits erfolgreich Industrie-4.0-Anwendungen nutzen, zeigt sich, dass die allermeisten von ihnen mit einem inkrementellen Ansatz gestartet sind. Das kann zunächst auch nur die Anbindung einer einzigen Maschine sein.

Erzielt man dadurch ein bisschen mehr Umsatz, kann das die Inspiration für einen größeren Schritt sein – beispielsweise die Integra­tion mit weiteren Datenstreams wie Wettervorhersagen oder Temperaturänderungen, die es erlauben, die Leistung einer Maschine weiter zu optimieren.
So wird durch zunehmende Vernetzung Schritt für Schritt die Fabrik von morgen entstehen, in der ERP-Lösungen mithilfe Künstlicher Intelligenz und Algorithmen sich selbst planende und steuernde Systeme unterstützen. Szenarien wie das folgende sind dann an der Tagesordnung: Zahlreiche Komponenten in einem Auto sammeln kontinuierlich Daten über ihren Zustand und können auf Basis dieser Informationen mitteilen, wann sie unter Umständen ausgetauscht werden müssen, noch bevor es zu einem möglichen Ausfall kommt.

Checkliste ERP-System in Industrie-4.0-Umgebungen

Das muss ein ERP-System für Industrie 4.0 mitbringen:
– Es lässt sich durch Konfiguration statt Modifikation flexibel an die veränderten Rahmenbedingungen anpassen.
– Es kann unterschiedlichste Datentypen verarbeiten, die von Sensoren und Geräten erzeugt werden.
– Zur Kommunikation mit den Ressourcen in der Fertigung kann es über offene Plug-and-Play-Schnittstellen unterschiedliche Produktionsleitsysteme anbinden.
– Leistungsfähige Multi- und Inter-Site-Funktionalitäten sorgen für die Steuerung des erweiterten Informationsflusses über sämtliche, auch internationale Standorte hinweg.
– Zur schnellen Anbindung neuer Partner bietet es offene und leicht konfigurierbare EDI-Schnittstellen sowie spezielle B2B-Portale.
– Um sich selbst organisierende Produktionseinheiten zu ermöglichen, unterstützt es durch Methoden wie Kanban eine hohe Automatisierung.
– Zur Echtzeit-Überwachung von Industrie-4.0-Prozessen führt es Daten und Prozesse aus mehreren Quellen in einem Enterprise-Operational-Intelligence-System zusammen.

Dazu sendet die betroffene Komponente selbstständig eine Mitteilung an den Hersteller, dass Ersatz gefertigt werden muss. In der Fabrik, in der dieser Auftrag bearbeitet wird, konfigurieren sich die Maschinen selbst so, dass das passende Teil gefertigt wird, und schicken es anschließend an den richtigen Zielort. Der Termin in der Werkstatt ist dann bereits vereinbart – denn auch darum hat sich das Auto bereits selbstständig gekümmert.

Kernaussagen

  • Um von den Big Data des Internet of Things wirklich profitieren zu können, reicht es nicht, die Daten nur zu sammeln und auszuwerten. Die Erkenntnisse müssen auch zu Aktionen führen, die die Geschäftsprozesse verbessern.
  • Diese Operationalisierung der IoT-Daten ist die Aufgabe von ERP-Systemen – denn sie steuern als Herzstück der Unternehmens-IT die Kernprozesse von Industrieunternehmen und sind damit auch für deren Optimierung zuständig.
  • Dazu sollte sich das ERP an IoT-Plattformen in der Cloud anbinden lassen. Sie bieten eine sehr gute Möglichkeit, die riesigen Datenmengen zu empfangen, zu filtern und an das ERP weiterzureichen, ohne dafür ein eigenes Rechenzentrum zu benötigen.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Stefan Issing

Informationen zu Peter Schulz

Abteilung Vertrieb

Einfluss der Digitalisierung auf den Vertrieb

Digitaler Vertrieb bedeutet, dass die Vermarktung und der Absatz über digitale Vertriebswege erfolgen. Anders ausgedrückt heißt das, dass der digitale Vertrieb in erster Linie das Internet als Vertriebskanal nutzt, um mit den Kunden zu kommunizieren, die Leistungen bereitzustellen und Geschäfte abzuwickeln. Die Umsätze durch E-Commerce werden auch 2017 weiter steigen. Dies zeigt eindeutig, dass es sich für Unternehmen lohnt, die Arbeit in eine hochwertige Internetvermarktung zu investieren.

Ein Beispiel: Durch den Einsatz eines Produktdatenmanagements (PIM) ist ein Unternehmen nicht nur für den Online-Auftritt gut gerüstet und bietet den Käufern ausreichend Informationen für das Produkt, sondern optimiert auch gleichzeitig die eigenen Geschäftsprozesse. Alle relevanten Informationen zu einem Produkt sind zentral abrufbar. Bei der Entwicklung neuer Produkte kann leichter auf bereits vorhandene Komponenten o. Ä. zurückgegriffen werden. Der gesamte Aufbau hat also weit mehr Nutzen als den reinen Vorteil im Internethandel.

Die jeweils eingesetzte Technologie sollte dem Vertrieb einen Informationsvorsprung verschaffen. Durch die systematische Informationsbeschaffung und -analyse von Kunden, Märkten und Konkurrenten soll die Erzielung eines komparativen Wettbewerbsvorteils generiert werden. Weiterhin ist eine Reduktion der Prozesskomplexität von Bedeutung. Anhand technologisch stringenter Prozessabläufe können Beschleunigungen und Vereinfachungen der Vertriebsaktivitäten erreicht und Arbeitsentlastungen realisiert werden. Außerdem können durch den digitalisierten Technologieeinsatz Kostensenkungspotenziale ausgeschöpft werden. So gewährt die Digitalisierung Möglichkeiten der Prozessauslagerung oder -verkürzung, der Eliminierung von Markteintrittsbarrieren sowie die differenzierte Betreuung von Kunden. Aufgrund dieser Chancen sind auch kleine oder mittelständische Unternehmen in der Lage, sich in internationalen Märkten zu positionieren, da beispielsweise der Aufbau lokaler Vertriebsstrukturen durch Online-Shops umgangen werden kann. Weiterhin erlauben digitale Technologien durch strategische Kommunikation eine Schaffung von Bekanntheit und Optimierung des Images. Dem Unternehmen wird es ermöglicht, seine Leistungen werblich zu positionieren, und hohe Kontaktfrequenzen vieler digitaler Medien generieren eine Wahrnehmung der kommunikationspolitischen Maßnahmen durch die potenziellen Kunden in kurzer Zeit. Letztlich sollten digitale Technologien eine Effektivitätssteigerung für den Vertrieb eröffnen. Diese ist begründet in Absatzsteigerungen durch den wirkungsvollen Einsatz der Vertriebsmaßnahmen, in der Reduktion von Streuverlusten sowie in der erhöhten Erreichbarkeit potenzieller und bereits akquirierter Kunden.

Jedem Unternehmer sollte bewußt sein, von welcher zentralen Bedeutung eine sauber strukturierte Datenpflege und -ablage ist und wie sehr doch die Online-Promotion mittlerweile in die Vertriebskanäle der Unternehmen Einzug gehalten hat. Und durch die überwiegend kostenlos von Google & Co. bereitgestellten Instrumente und Dienste ist dies auch ein wesentlich günstigerer Vertriebsweg als beispielsweise die Printmedien. Zudem greift der Produktkatalog im Online-Shop stets auf die aktuellen zentral vorgehaltenen Daten zurück.

Digitalisierung bedeutet aber auch den Vertriebsaußendienst mit neuen mobilen Lösungen auszustatten. Ziel ist es, beim Kunden vor Ort die wichtigsten Kundendaten parat zu haben, um auf Kundenfragen reagieren zu können. Tablets und Beratungs-Apps bieten bislang nicht gekannte Möglichkeiten, komplexe Themen und Pro­duk­te einfach, fast spielerisch dem Kunden zu vermitteln. Auf diese Weise können viele Dienstleister ihre Servicequalität in der Kun­denberatung weiter verbessern und damit ihre Marktposition gegenüber dem Wettbewerb stärken. Bewährt hat es sich beispielsweise, den in der jeweiligen Produktkategorie erfolgreichsten Ver­triebs­mitarbeiter in die App-Entwick­lung einzubinden.

Dies gewährleistet, dass die wichtigsten fach­lichen Informationen und relevanten Verkaufsargumente integriert und sinnvoll miteinander verknüpft werden. Damit die Produktinformationen auch nach­vollziehbar sowie anschaulich für den Vertrieb aufbereitet werden, empfiehlt sich die Erstel­lung eines App-Storyboards.
Dieses visualisiert die Erfolgs­story des ausgewählten Vertriebsmit­arbeiters, d. h. die Vorgehensweise, die sich in der Beratung seiner Kunden bewährt hat. Seine einzelnen Vor­ge­hens­schrit­te wer­den in gezeichneten Screen-Bildern festgehalten und diese dann zur App-Story miteinander verbunden. Darüber hinaus werden im App-Storyboard mit einem Usa­bility-Experten die Interaktionen und Animationen festgehalten, die ein­gebunden werden sollen, und pro Screen-Bild vermerkt. Für das Unternehmen ist damit der erste Schritt hin zu einem mobilen Vertrieb erfolgreich vollzogen.

Vorteile durch den digitalen Vertrieb:

  • Vertriebsreichweiten erweitern durch Online-Shops, SEO und Bewegtbild
  • Agil reagieren auf veränderte Marktbedinungen und Nutzerverhalten
  • Personalisierte Ansprache von Kunden durch Mailingkampagnen, Newsletter & Co.
  • Sharing und viraler Vertrieb über soziale Netzwerke und mobile Endgeräte
  • Höhere Effizienz durch digitale und zentrale Produktdatenhaltung über PIM-Systeme

Innovationen und Trends im digitalen Vertrieb:

  • Einsatz von PIM-Lösungen
  • Leadgenerierung auf Basis von Algorhitmen
  • Omni- und Multichannel-Vertriebsstrategien für den stationären Handel
  • Cross-Selling über Partner-Shops und in sozialen  Netzwerken
  • SMS und mobiles Text-Marketing
  • Bewegtbildkommunikation in Form von Screencasts und Produktvideos
  • Social-Media-Marketing
  • Aufbau der eigenen Social-Media-Präsenz
  • Einsatz von Content-Marketing und Suchmaschinenoptimierung
  • Produktplattformen für mobile Endgeräte
  • Produktunterstützung und Abverkauf durch die Entwicklung von Mobile-Apps für Smartphones und Tablets
  • Business-Intelligence und Big-Data-Datenauswertung
  • Anbindung an Mobile- und E-Payment-Lösungen
  • Anbindung an eigene CRM-Lösungen
  • Webinare und E-Learning-Angebote etablieren zur Vertriebsunterstützung
  • Kundenbeziehungen aufbauen durch soziale Netzwerke
  • Augmented Reality und Virtual Reality für Produktpräsentation und Interaktion
  • Einsatz von kognitiven und algorithmengestützten Systemen wie zum Beispiel „Predictive-Leadscoring-Softwarelösungen“ (Anhand von bestimmten Mustern erkennt eine Software die Qualität von Leads und unterstützt damit das Sales­team bei seiner Arbeit.)

Vertrieb per IoT

Beispiel: IoT – Vertriebsformen

Die Anwendungsmöglichkeiten des Internets der Dinge sind in den Bereichen Marketing und Vertrieb bisher maßgeblich durch den US-amerikanischen Online-Versandhändler Amazon vorangetrieben worden. Dieser experimentiert mit den verschiedensten Technologien, um den Online-Handel immer stärker in den Alltag der Kunden einzubinden. Die Vorteile liegen dabei auf der Hand: Die Marktanteile können erhöht und der Umsatz pro Kunde kann gesteigert werden. Auch neue Kunden können durch die Innovationen angelockt werden, was ebenfalls zu einer Umsatzsteigerung führt. Ab Mitte 2016 sind die ersten Dash-Buttons nun auch in Deutschland angekommen. Der Preis dafür liegt momentan bei fünf Euro. Amazon erstattet die Anschaffungskosten für den Button nach der ersten Bestellung, die über das Device ausgeführt wurde.

Der im Jahr 2015 auf dem US-Markt eingeführte Amazon Dash Button ermöglicht es dem Kunden, auf Knopfdruck vordefinierte Bestellungen von Verbrauchsgütern aufzugeben. Nachdem ein Kunde einen solchen Button bestellt hat, wird dieser mit der dazugehörigen Smartphone-App konfiguriert.
Durch die Konfigurierung kann festgelegt werden, welcher Artikel in welcher Menge nach dem „Knopfdruck“ bestellt wird. Es besteht zum einen die Möglichkeit, sich einen komplett selbst konfigurierbaren Dash-Button zu bestellen, aber aufgrund von umfangreichen Kooperationen mit namhaften Verbrauchsmittelherstellern können auch Dash-Buttons für bestimmte Produkte geordert werden. Es handelt sich dabei um Produkte wie Waschmittel, Kaffeekapseln, Rasierklingen oder Körperpflegeprodukte.

Nach der Betätigung des Dash-Buttons wird automatisch eine Bestellung erzeugt, welche in der dazugehörigen Smartphone-App bestätigt werden muss. Prinzipiell kann die Bestellung zwar vollkommen autonom aufgebeben werden, die Authentifizierung durch den Kunden soll jedoch die Möglichkeit bieten, versehentlich ausgelöste Bestellungen zu korrigieren oder auch die zu bestellende Menge abzuändern. Bei den bestellbaren Mengen handelt es sich dabei hauptsächlich um größere Vorratspackungen, da beispielsweise die Versendung einer einzelnen Flasche Spülmittel nur in den seltensten Fällen wirtschaftlich ist. Durch die Möglichkeit, Bestellungen zu bündeln, können jedoch auch kleinere Einheiten angeboten werden. Die benötigten Produkte werden dabei in festgelegten Zeiträumen gesammelt und dann zusammen bestellt. Auf diese Weise lässt sich eine Art „Einkaufszettel“ erstellen, welcher dann zu einem beliebigen Zeitpunkt abgearbeitet wird. Amazon selbst sieht diese Art der Bestellung jedoch nur als Zwischenschritt an, da in Zukunft selbst ein Knopfdruck überflüssig werden kann und Gegenstände ihre benötigten Verbrauchsgegenstände autonom bestellen können.

Dash Amazon Replenishment: Derzeit entwickelt Amazon in Zusammenarbeit mit verschiedenen Großgeräteherstellern ein Konzept für autonome Haushaltsgeräte. Vergleichbar mit den „Smarten Verkaufsautomaten“ im stationären Einzelhandel, sollen diese dann selbstständig fehlende Ressourcen erkennen und diese nachbestellen. Dafür bieten sich z. B. Waschmaschinen, Kaffeeautomaten, Wasserfilter, Kühlschränke oder Drucker an. Sollte beispielsweise ein Drucker erkennen, dass mit dem aktuellen Tintenvorrat nur noch eine geringe Anzahl an Seiten gedruckt werden kann, könnte dieser selbstständig neue Farbpatronen bestellen.

Quellen und Textlizenz:
https://winfwiki.wi-fom.de/index.php/Einfluss_der_Digitalisierung_auf_den_Vertrieb; Autoren: Christian Müller-Vorrink, Lars Ivanusic, Julia Rosada
https://winfwiki.wi-fom.de/index.php/Einfluss_des_Internet_der_Dinge_auf_den_Einzelhandel#Marketing_und_Vertrieb; Autor(en): Kai Schlüsener, Manuel Wester
https://winfwiki.wi-fom.de/index.php/Promotion_von_Produktdaten_bei_Google; Autoren: Ebru Tirhis, Robert Trojanowski, Falk vom Schemm
Titel der Arbeit: Promotion von Produktdaten bei Google, Hochschule und Studienort: FOM Essen
Quelle: https://trendreport.de/apps-fuer-finanzdienstleister/

Lizenzbestimmungen: https://www.gnu.org/licenses/fdl-1.2

Abteilung Personalwesen

Einfluss der Digitalisierung auf das Personalwesen

Mit Einzug der Digitalisierung in die Arbeitswelt und damit auch in den Bereich des Personalwesens entwickeln sich neue Möglichkeiten der Organisation von Personalarbeit, neue Herausforderungen an Mitarbeiter und neue Risiken. Bereits 2011 hat ein Großteil der Großunternehmen mit mehr als 10 000 Mitarbeitern sein Personalwesen auf das Businesspartner-Modell bestehend aus Shared-Service-Center, Center of Expertise und Businesspartner umstrukturiert  und damit wichtige Voraussetzungen geschaffen, um als eine wertbeitragende Einheit im Unternehmen wahrgenommen zu werden.
Dennoch kann auch 2016 noch nicht von einem flächendeckenden Erfolg von HR 4.0 gesprochen werden. Wichtig ist, dass im Zuge der Umstellung auf das Businesspartner-Modell auch konsequent Prozesse standardisiert wie auch automatisiert werden müssen.

Bereits durch diese Maßnahmen lassen sich noch Effizienzpotenziale freilegen. Dies verlangt allerdings nach Mitarbeitern mit neuen Kompetenzen und Kenntnissen aus den Bereichen IT und Datenanalyse. Dazu wird eine höhere Lernmotivation erforderlich sein als bisher. Führungskräfte müssen dazu als Change-Leader qualifiziert werden und den Wandel zu HR 4.0 steuern. HR-Personal der Zukunft wird aufgrund der großen Masse an personenbezogenen Daten, die gesammelt werden, zunehmend die Balance zwischen Daten- und Mitarbeiterschutz finden müssen, Datensicherheit und Datenschutz werden daher eine wichtige Rolle im digitalisierten Personalwesen einnehmen.

Idealerweise wird sich der HR-Bereich zum strategischen Partner der Geschäftsführung entwickeln. Dabei hilft HRM zukünftig durch neue Recruitingmaßnahmen und Analysen sowie durch Employer-Branding, die bereits jetzt knappen Fachkräfte an sich und das Unternehmen binden zu können.
Vorhandenes Fachpersonal wird durch neu eingeführte Lernmethoden und Motivationsprogramme weiterentwickelt und ist in der Lage, durch Performancemanagement mittels Big Data Prozesse optimal zu steuern. HR 4.0 ist kein Verwalter von Mitarbeitern mehr, sondern sieht sich als proaktiver Dienstleister im Unternehmen.

In der heutigen Zeit greift die Digitalisierung immer weiter in die Arbeitswelt und in die damit vorhandenen Prozesse eines Unternehmens ein. Es existiert kaum ein Prozess in der Personalabteilung, der nicht unter dem Einfluss der Digitalisierung steht.
Im Folgenden werden Personalprozesse und Instrumente aufgezeigt, die zum Teil nur durch den technologischen Wandel möglich sind. Durch die elektronische Abbildung von Prozessen innerhalb der Personalabteilung werden Abläufe vereinfacht und optimiert. Quantitative Daten gewinnen neben qualitativen Daten immer mehr Einfluss und verbessern so die Entscheidungsfindung für die Zukunft. Die momentane Situation zeigt, dass viele deutsche Firmen sich neu aufstellen sollten, um dem kommenden Wandel gerecht zu werden.

Neue Kompetenzanforderungen

Megatrends wie die Digitalisierung oder der demografische Wandel stellen die jetzige Position des Personalwesens in Unternehmen mit Blick auf die Wahrnehmung seiner Funktionen und seines Wertbeitrages vor große Herausforderungen. Technologietreiber der Märkte sorgen für neue Geschäftsmodelle, Unternehmensstrukturen und Arbeitsumfelder für Arbeitnehmer, die Verknappung von lokalen Fachkräften und Spezialisten sorgt zusätzlich für Veränderungen in der strategischen Personalplanung. Um diesen Herausforderungen Rechnung zu tragen, werden völlig neue Kompetenzen an Mitarbeiter des Personalwesens gestellt.

Mit Einführung der Businesspartner-Rolle für das HRM gehen neue Erwartungen an die Personaler einher, gleichzeitig erfordert dies auch die Bewältigung neuer Kompetenzfelder. Die Kunden erwarten von ihrem Businesspartner vor allem eine direkte Unterstützung bei strategischen und geschäftsbezogenen Personalthemen, die nicht im Shared-Service-Center oder Center of Expertise abgebildet werden können. Die zukünftigen Kompetenzfelder können in die Kategorien Recruitment, Learning & Development, Performancemanagement und Employer-Branding unterteilt werden.

Recruitment & Employer-Branding

Der „War for Talents“ hat bereits begonnen und wird durch den Megatrend „demografischer Wandel“ auch bestehen bleiben. Unternehmen, die in Zukunft die fähigsten Fachkräfte zu den günstigsten Konditionen in kürzester Zeit für sich gewinnen können, werden sich so einen entscheidenden Wettbewerbsvorteil sichern können, der nur schwer wieder einzuholen sein wird. Recruiter werden hier in der Lage sein müssen, mittels analytischer Verfahren dynamisch wechselnde Bedarfssituationen vorausschauend zu erkennen und mit neuen innovativen Recruitingverfahren Bewerber für das Unternehmen zu gewinnen.

Learning & Development

Mithilfe von neuen Lerntechniken, Wissensdatenbanken und Anreizen zum spielerischen Lernen wird es wichtig sein, Mitarbeiter zu motivieren, neue Aufgaben im Unternehmen wahrzunehmen und somit auch einen Wettbewerbsbeitrag zu leisten. Die Methoden der Wissensvermittlung in der beruflichen Aus- und Weiterbildung ändern sich. Lernziele werden zukünftig als Matrix organisiert, d. h. in „Fast Verticals“, also Fachschulungen mit einer Dauer von drei bis vier Tagen, und „Continuous Horizontals“, längerfristig angelegten Lerneinheiten, die kompetenzbasiertes Lernen ermöglichen.

Performancemanagement

Heutige Personalfunktionen generieren eine große Menge an Daten, welche zukünftig analytisch ausgewertet werden müssen, um strategische Schlussfolgerungen und Problemlösungen anbieten zu können. Dazu benötigt es Fachkräfte, die entsprechende Plattformen konzipieren, betreiben und anfallende Daten auswerten können.

Weiterführende Beiträge aus TREND REPORT zum Thema

Serious Games lösen wenig abwechslungsreiche E-Learning-Angebote ab. Die neuen Zielgruppen, die „Digital Natives“, erwarten mehr von den Lerninhalten, berichten Falk Hegewald und Christian Wachter. https://trendreport.de/neuer-trend-game-based-learning/

 

In einer globalisierten Welt sind Fremdsprachenkenntnisse für den Geschäftserfolg unabdingbar. Blended Learning hilft, schnell und individuell eine Sprache, zugeschnitten auf das Business, zu lernen, weiß Armin Hopp.
https://trendreport.de/mehrsprachig-zum-erfolg/

 

 

Digitale Trends im Personalwesen

  1. Social Media
    Der Begriff Social Media beschreibt allgemein die Möglichkeit, im Internet Meinungen, Erfahrungen und Informationen auszutauschen. Für Unternehmen im Speziellen stellt das einen weiteren Kanal im E-Recruitment dar, über welchen diese sich selbst repräsentieren, vakante Stellen ausschreiben und aktiv potenzielle Mitarbeiter suchen können.
  2. Cloud-Dienstleistungen – „Software as a Service“ (SaaS)
    Cloudangebote wie „Software as a Service“ (SaaS) sind als wichtiger Trend bei den Unternehmen angekommen. Auch hier ist festzustellen, dass vorrangig einfach standardisierbare Prozesse übergeben werden. Strategisch wichtige Funktionen oder Prozesse, bei denen es zur Speicherung von Mitarbeiter- oder Bewerberdaten kommt, verbleiben dagegen weiterhin im Unternehmen.
    Laut einer Studie nutzen nur 17 Prozent der Befragten Clouddienste, die zukünftige Bereitschaft wird bei mehr als der Hälfte der Unternehmen mit „weniger hoch“ bewertet. Gründe für die noch verhaltene Nachfrage an Online-Lösungen für das Human-Resource-Management finden sich auch hier wieder begründet in den Bedenken beim Datenschutz. Dazu wird bei knapp der Hälfte der Befragten eine zu hohe Abhängigkeit und bei einem Drittel der Unternehmen eine zu geringe Flexibilität erwartet. Auch bei der Wahl des Standortes des Cloudanbieters spielt der Datenschutz eine prägende Rolle, über die Hälfte der Unternehmen wünschen sich einen Standort in Deutschland, nur 18 Prozent ist der Standort nebensächlich oder sollte mindestens in Europa liegen.
    Clouddienste bzw. „Software as a Service“ gelten bei Unternehmen durchaus als wichtige IT-Trends im Human-Resource-Management. Jedoch müssen Softwarehersteller wie auch Betreiber der Plattformen, IT-Infrastrukturen und Rechenzentren gemeinsam noch Aufklärungsarbeit leisten, um für eine von Vertrauen geprägte Geschäftsbeziehung zu werben. Noch bestehende Sicherheitsbedenken bei Unternehmen können so ausgeräumt werden und den Weg freimachen für eine breitere Akzeptanz der Dienste.
  3. Big Data
    Durch den Einsatz von Big Data ist es möglich, die Zuordnung eines Beschäftigten zu einer Stelle optimal zu gestalten. Die Auswertung der Daten von Beschäftigten wie z. B. Weiterbildung, Interessen, Fähigkeiten mit internen und externen Daten können eine Unter- und Überforderung vermeiden. Das Vereinen der Unternehmensziele bzw. des Anforderungsprofils mit den persönlichen Zielen der Beschäftigten stellt für die Personalabteilung eine Herausforderung dar. Diese Hürde könnte mithilfe von Big Data überwunden werden.
    Ein Beispiel: Eine mittelständische Bäckereifilialkette in Norddeutschland, die mit täglichen hohen Retouren der Backwaren aus den einzelnen Filialen zurechtkommen musste. Ein Dienstleister wertete die Wetterdaten aus, verknüpfte dies mit dem Kaufverhalten von den Kunden. Die Flohmärkte, Sommerfeste oder Baustellen in der Nähe der jeweiligen Filialen wurden mit in die Analyse einbezogen. Dadurch war  das Verringern der Retouren und eine treffsicherere Einsatzplanung des Personals möglich. Im Bereich Personalwesen werden neue Berufsfelder entstehen, die Unternehmen und die Arbeitswelt werden sich dadurch wandeln. Ein Verzicht auf Big Data im Personalwesen ist kaum denkbar. Es ist nur die Frage, wann, wie und in welchem Umfang Big Data im Personalwesen eingesetzt wird und das wird eine kontinuierlich zu stellende Frage sein.
  4. Unternehmenswebseite
    Die Unternehmenswebseite zählt heutzutage zum Standard eines jeden mittelständischen Unternehmens. Wurde früher noch durch das Web 1.0 die Unternehmensseite als einseitiger Informationskanal nach außen verwendet, so kann man heute die Homepage nutzen, um sich nicht nur zu präsentieren, sondern auch den Rückkanal verwenden, um z. B. neue Mitarbeiter für sich zu gewinnen.
  5. Online-Jobbörsen
    Online-Jobbörsen stellen neben der Unternehmenswebseite einen weiteren wichtigen Kanal zur Findung neuer Mitarbeiter im E-Recruitment dar. Im Jahre 1995 ging die erste Online-Jobbörse in Deutschland an den Markt. Damals als „Jobs & Adverts“ von Dr. Roland Metzger gegründet, läuft sie seither unter dem Namen Jobpilot und gehört seit 2004 zur Monster Worldwide Deutschland GmbH, bekannt für ihr Portal monster.de. Mittlerweile gibt es in Deutschland über 1 000 Jobportale mit mehreren Millionen vakanten Stellen.
  6. Mobile Recruiting
    Ein ebenfalls immer wichtiger werdender Punkt in der Personalbeschaffung ist das Thema Mobile Recruiting. Unter dem Begriff versteht sich das Erreichen potenzieller Bewerber über mobile Endgeräte wie z. B. Smartphones oder Tablets.
  7. Talent-Relationship-Management
    Der übliche Ablauf zum Besetzen vakanter Stellen ist, dass die Personalabteilung, sobald eine Stelle zu besetzen ist, eine Anzeige schaltet und auf den Eingang von Bewerbungen wartet. Dieser Vorgang ist reaktiv und eher passiv. Talent-Relationship-Management, kurz TRM, beschreibt dagegen einen Bereich im Personalwesen, bei welchem gegenüber anderen Rekrutierungsmaßnahmen der Fokus auf dem Finden und Halten von potenziellen neuen Mitarbeitern liegt, bevor eine vakante Stelle verfügbar ist.
  8. Digitale Bewerberauswahl
    Telefoninterviews sind ein bereits verbreitetes Mittel zur Vorauswahl neuer Mitarbeiter für eine zu besetzende Stelle. Daneben ist ein Anstieg digitaler Einstellungsinterviews und der Einsatz von Online-Assessment-Centern zu verzeichnen. Studien des Online-Karriereportals Staufenbiel ermitteln jährlich beliebte Methoden der Bewerbungswege.
    Videotelefonie und Online-Assessment-Center werden erst seit 2014 in der Studie berücksichtigt, was zeigt, dass dies ein recht neuer, nicht zu missachtender Trend ist. In Asien und Amerika ist diese Form der Vorstellungsgespräche bereits verbreitet und anerkannt, wohingegen Deutschland erst in den Anfängen der Umsetzung ist. Im Jahr 2016 liegt der Anteil der Assessment-Center bei 13 % und der Skype bzw. Videointerviews bei 16 %.
  9. Employee-Self-Service
    Hinter dem Begriff Employee-Self-Service stehen administrative Tätigkeiten, auf die im späteren Verlauf genauer eingegangen wird. Employee-Self-Service ist ein Teil eines Mitarbeiterportals. Unter dem Begriff „Portal“ wird verstanden, dass es sich um einen IT-Marktplatz im Internet oder Intranet handelt. Ziele solcher Mitarbeiterportale sind, die breite Masse an Informationen zu bündeln und relevante Daten für Mitarbeiter bereitzustellen. Aber auch personenbezogene Daten werden dort hinterlegt, wie z. B. die Lohnabrechnungsdaten.
  10. Digitale Personalakte
    Unter einer digitalen Personalakte ist eine personifizierte digitale Datei zu verstehen, die die analoge Papier-Personalakte ersetzt. Dabei ist eine digitale Personalakte Teil eines Dokumenten-Management-Systems, so kann die Personalakte direkt in Arbeitsabläufe integriert werden.
  11. Automatisierte Zeugnisgeneratoren
    2015 wurden durchschnittlich drei Viertel der Zeugnisse mit Textprogramm manuell erstellt, nur 15 % nutzten spezielle Software laut einer Studie von Haufe in Zusammenarbeit mit der RIM Marktforschung GmbH. Danach können 40 % der befragten Unternehmen, die auf digitalisierte HR-Prozesse bei der Zeugniserstellung zurückgreifen, nach unter einer Stunde dieses aushändigen, nur 9 % der Unternehmen mit normaler Textverarbeitung können hier mithalten.
  12. Datenschutz
    In Unternehmen werden im Rahmen der Personalarbeit persönliche Daten von Mitarbeitern erhoben, verarbeitet und gespeichert. Durch die zunehmende Vermengung von Arbeits- und Privatleben, z. B. die private Nutzung von E-Mail und Internetzugang, stellt die praktische Einhaltung von gesetzlichen Regelungen zum Datenschutz eine Herausforderung für die Unternehmen dar. Aus Arbeitgebersicht ergeben sich hinsichtlich eigener Kontrollinteressen und nötiger Datenerhebung sowie angesichts des Rechts auf informelle Selbstbestimmung des Arbeitnehmers immer wieder Konfliktsituationen, die es durch klare Regeln und kommunizierte Grenzen zu vermeiden gilt.

Zusätzlich erschweren vielfältige Rechtsgrundlagen zum Arbeitnehmerdatenschutz die regelkonforme Umsetzung. Diese finden sich im Grundgesetz, im BSDG, Telekommunikationsgesetz, Betriebsverfassungsgesetz, im Arbeitssicherheitsgesetz und der EU-Richtlinie zum Arbeiternehmerschutz.
Der Datenschutz im Arbeitsverhältnis ergibt sich maßgeblich aus dem Bundesdatenschutzgesetz (BDSG). Die zentrale Vorschrift ist der § 32 BDSG. Zulässig ist die Erhebung, Verarbeitung und Nutzung von personenbezogenen Daten nur, soweit es das Bundesdatenschutzgesetz bzw. eine andere Rechtsvorschrift zulässt oder die betroffene Person eingewilligt hat. Die Einwilligung des Betroffenen muss in jeder Phase des Umgangs mit seinen personenbezogenen Daten vorliegen, also bei Erhebung, Verarbeitung und Nutzung der Daten. Des Weiteren ist der Betroffene der Datenerhebung über den persönlichen Datenbestand, den Zweck der Verarbeitung und die Zugriffsberechtigungen zu informieren. Dieser hat das Recht auf Auskunft, Sperrung und Löschung seiner Daten, welches im Rahmen des Transparenzgebotes und des Betroffenenrechts zu wahren ist.

Der Umgang, also die Erhebung, Verarbeitung und Nutzung von personenbezogenen Daten, muss für den Arbeitgeber möglich sein, um seine berechtigten Interessen wahren zu können. Hierzu zählen regelmäßig Daten zum Führen einer Personalakte, zur Arbeitszeiterfassung, zu Zugangs- und Leistungskontrollen sowie Daten zur automatisierten Überweisung von Gehaltszahlungen. Grundsätzlich gilt bereits bei der Planung von automatisierten Prozessen zur Verarbeitung von Personaldaten der Grundsatz der Datenvermeidung und Datensparsamkeit. Nach den Datenschutzgesetzen dürfen personenbezogene Daten nur so lange aufbewahrt werden, wie ihre Kenntnis für den Arbeitgeber zur Erfüllung seiner berechtigten Interessen erforderlich ist.

Die Inhalte sind zum Teil aus https://winfwiki.wi-fom.de/index.php/Einfluss_der_Digitalisierung_auf_das_Personalwesen übernommen worden; Lizenzbestimmungen: https://www.gnu.org/licenses/fdl-1.2

 

Quelle: Hochschule für Oekonomie & Management, Düsseldorf, Studiengang Bachelor Wirtschaftsinformatik; Autoren: René Seiffert, Dario Lohr, Béla Varga, Christian Hoffmann; betreuender Professor: Prof. Dr. Uwe Kern; Typ: Fallstudienarbeit.

Elektronische Rechnungsbearbeitung

von Dr. Martin Bartonitz

Papier ist geduldig, aber auch teuer. Dieser kurze Satz verweist indirekt auf die Vorteile einer papierlosen, elektronischen Rechnungsbearbeitung. Dabei geht es beim Thema E-Invoicing nicht zwingend um Materialkosten oder Umweltschutzaspekte, sondern um Einsparungen auf der Prozesskostenseite. Zu Beginn der elektronischen Datenverarbeitung mussten Papierrechnungen ausgedruckt oder händisch ausgefüllt, kuvertiert, frankiert und per Post verschickt werden (vgl. Abb. 1). Das Fax beschleunigte den Übertragungsprozess, allerdings blieb der Papierverbrauch fast unverändert. Der Empfänger musste die Rechnung prüfen und bei Beanstandungen auf dem gleichen Weg zurücksenden. Kopien der Rechnung mussten anschließend bei dem Versender und dem Empfänger liegen, um der zehnjährigen gesetzlichen Aufbewahrungspflicht gerecht zu werden (u. a. zur Absetzung der USt., vgl. Box 1). Der Platzbedarf für Archive stieg stetig an, mehrere Kilometer Aktenschränke waren (und sind!) bei Großunternehmen mit Hunderttausenden Papierdokumenten nicht ungewöhnlich.

Abb. 1: Kostentreiber in der Rechnungsbearbeitung

Rechnungen im unternehmerischen Umfeld

Die Papierrechnung wird das 21. Jahrhundert vielleicht nicht überleben, doch wer sie schon abschreibt, ist auf dem Holzweg. Denn auch wenn z. B. Mobilfunkanbieter für ihre Privatkunden bereits auf papierlose Rechnungen setzen, ist die Situation im unternehmerischen Bereich grundverschieden. Rund 75 % aller deutschen Unternehmen empfangen ihre Rechnungen noch in Papierform, Digitalisierung hin oder her. Da Papierrechnungen erst händisch geprüft, dann ggf. weitergeleitet und freigegeben werden müssen, verstreicht viel Zeit. Dies ist besonders dann der Fall, wenn Rechnungen in den Zwischenschritten „hängenbleiben“, sei es krankheitsbedingt oder weil Details unklar sind. Vielen Firmen entgeht dadurch nicht nur der Schnellzahler-Rabatt (Skonto, vgl. Box 2), sie laufen zudem Gefahr, Mahnungen zu erhalten. Bei einer elektronischen Bearbeitung (bestenfalls in einem Enterprise-Content-Management-System) kön­nen Fragen schneller geklärt, Freigaben in Sekunden erteilt und Stellvertreter im Workflow festgelegt werden, selbst wenn der Freigebende außer Haus ist, was den Prozess bis zur Bezahlung deutlich beschleunigt.
Achtung: Eine gescannte Rechnung im PDF-Format ist nicht automatisch eine elektronische Rechnung, denn letztere müssen sowohl elektronisch versendet als auch elektronisch empfangen werden (vgl. Box 3).

Box 1: Erfolgsneutralität der Umsatzsteuer

  • Unternehmensumsätze unterliegen der Umsatzsteuer (derzeit 19 %, bisweilen sieben Prozent)
  • Der Leistungserbringer berechnet seinen Umsatz (100 %) und fügt die Steuer hinzu. Der Leistungsempfänger muss folglich 119 % der Leistung bezahlen.
  • Die 19 % des Leistungserbringers gehen an das Finanzamt. Die verbleibenden 100 % werden als umsatzsteuerliches Entgelt des Leistenden bezeichnet.
    Sofern der Leistungsempfänger ebenfalls unternehmerisch tätig ist, können die 19 % Umsatzsteuer vor dem Finanzamt als Vorsteuer geltend gemacht werden. Es verbleibt eine betriebswirtschaftliche Belastung des Empfängers von 100 %.

Kostentreiber in der Rechnungsbearbeitung

Die manuelle Rechnungsverarbeitung kostet versendende Unternehmen zwischen 0,70 und 4,00 €, bisweilen sogar 13,00 € pro Rechnung und den Empfänger zwischen 2,00 und 30,00 € (je nach Unternehmensgröße und Personalkosten, verfügbare Studien variieren hier; vgl. Abb. 1). Mit elektronischer Rechnungsbearbeitung könnten diese Kosten, laut einer Studie von Capgemini, um bis zu 75 % gesenkt werden. Am meisten Geld sparen Unternehmen aber bei der Strafvermeidung: Fehlerhafte Rechnungen schlagen – aufgrund von Strafzahlungen bei Audits oder Problemen zwischen Lieferant und Empfänger – mit bis zu 50 € pro Rechnung zu Buche. Insgesamt könnten auf EU-Ebene laut Berechnungen der Deutschen Bank durch eine Umstellung auf E-Invoicing Einsparungen zwischen 80 und 250 Milliarden € erzielt werden – und 12 Millionen Bäume müssten nicht gefällt werden.

Box 2: Einsparpotenziale elektronischer Rechnungen

  • Minimale Versandkosten – Versender
  • Schnellzahler-Rabatt (Skonto) – Empfänger
  • Automatisierte Prüfung – Empfänger und Versender
  • Geringe Archivierungskosten – Empfänger und Versender

Verfahrensarten und Extraktion

Doch keine Prozessoptimierung und Automatisierung ohne eine Standardisierung der Datensätze. Weit verbreitet ist z. B. der internationale, branchenübergreifende Standard EDIFACT (Electronic Data Interchange for Administration, Commerce and Transport), der bereits seit über 20 Jahren existiert. EDIFACT ist bei der UN-Wirtschaftskommission für Europa (UNECE) angesiedelt und galt als großer Hoffnungsträger des elektronischen Datenaustauschs. Allerdings wurden die Formate mittlerweile branchenspezifisch so stark ausdifferenziert und zwischen Lieferanten und Kunden so individuell angepasst, dass EDIFACT kaum noch als Standard-Austauschformat bezeichnet werden kann.
Ein „klassisches“ PDF wiederum lässt sich zwar problemlos erstellen und versenden, doch ist es auch fehleranfällig, nicht zuletzt aufgrund der sog. Medienbrüche. Ein Beispiel: Die ursprüngliche Rechnungsdatei liegt beim Aussteller in strukturierter Form, also z. B. als Exceldatei, vor. Wird ein PDF erstellt, werden diese strukturierten Daten in ein Bild (= unstrukturierte Daten) umgewandelt (erster Medienbruch), nur um auf der Empfängerseite wieder als strukturierte Daten extrahiert zu werden (zweiter Medienbruch). Bei jedem dieser Schritte kann es zu Fehlern kommen, welche die Rechnung korrumpieren. Dazu kommen mögliche Tippfehler, Unschärfen aus dem Scanprozess und die Manipulierbarkeit von Bildern generell: Der Teufel lauert im Detail und Fehler können, wie erwähnt, sehr teuer werden.

Box 3: Was ist eine elektronische Rechnung?

  • Eine „elektronische Rechnung“ muss sowohl elektronisch erstellt als auch elektronisch ausgeliefert werden. Nicht jeder Scan ist also eine elektronische Rechnung!
  • Der Vorsteuerabzug bei elektronischen Rechnungen geht verloren, wenn der Nachweis und die Kontrolle der Echtheit, Herkunft und Unversehrtheit des Inhalts fehlen und die Rechnung nicht alle Angaben enthält.

Abb. 2: Digitale Erfassung von Papierdokumenten (Beispiel)

Reformen und Standardisierung

Das Europäische Parlament und der Rat der Europäischen Union brachten Bewegung in die wenig zufriedenstellende Situation. Im Rahmen einer EU-weiten Reform für das E-Government wurden ab 2011 einheitliche Richtlinien und Gesetze für die Rechnungsstellung erarbeitet und initiiert. Veränderungen im Bereich der Rechnungsstellung, die in Deutschland ebenfalls 2011 durch das Steuervereinfachungsgesetz angestoßen wurden (Abschaffung der verpflichtenden Verwendung digitaler Signaturen), mündeten 2013 im E-Government-Gesetz des BMI und 2014 in der Richtlinie 2014/55/EU des Europäischen Parlaments und des Rates über die elektronische Rechnungsstellung bei öffentlichen Aufträgen. Verwaltungen in den Mitgliedstaaten wurden angehalten, ihre Prozesse zu digitalisieren und vollständig auf elektronische Rechnungsbearbeitung umzustellen. Die Öffentliche Verwaltung in Deutschland ist gemäß RL 2014/55/EU ab 2018 zum elektronischen Rechnungsaustausch verpflichtet.

ZUGFeRD als zukunftsfähiger Standard?

Da EDIFACT mittlerweile zu ausdifferenziert und reine PDF-Dateien zu fehleranfällig waren, musste ein neuer Standard her, der ohne Medienbrüche auskommt, aber gleichzeitig Sicherheit und Verlässlichkeit gewährleistet. In Anlehnung an die Richtlinien der EU entstand der Zentrale User Guide des Forums elektronische Rechnung Deutschland (ZUGFeRD). Der Guide kombiniert maschinenlesbare, standardisierte Daten mit dem menschenlesbaren Beleg auf Grundlage des PDF/A-3-Standards. Der PDF-Datei wird eine XML-Datei inkludiert, die dem Format ZUGFeRD genügt und sämtliche relevanten Daten einer erstellten Rechnung enthält.

Box 5: Hashwert-Prüfverfahren im Dokumentversand

  • Vor dem Versand wird mit einem Algorithmus eine Quersumme über den Inhalt des Dokumentes gebildet.
  • Nach dem Empfang erfolgt die Gegenprüfung, ob die Quersumme noch stimmt.
  • Bei Unregelmäßigkeiten kann sofort interveniert und eine manuelle, inhaltliche Dokumentprüfung vorgenommen werden.

In der Regel wird eine solche ZUGFeRD-konforme Rechnung in einem Enterprise-Resource-Planning-System erstellt. Sollte der Rechnungsempfänger kein ERP-System nutzen, kann das Auslesen auch über ein Dokumentenmanagement-System erfolgen. Diese Art der Rechnungsablage erfordert dennoch einen manuellen, menschlichen Zwischenschritt. Soll der Prozess automatisiert werden, kommt eine Klassifizierungssoftware (vgl. Abb. 2) zum Einsatz, die das ZUGFeRD-Format automatisch ausliest, die Daten vom Dokument trennt, strukturiert im System ablegt und für die Weiterverarbeitung bereitstellt. Diese Vorgehensweise lohnt sich aber erst bei einer sehr hohen Zahl an Eingangsrechnungen pro Tag, denn es müssen große Trainingsmengen gebildet werden, um der Software beizubringen, jede Rechnung richtig zu klassifizieren und zu extrahieren. Die Schwierigkeit ergibt sich aus dem nicht einheitlichen Layout von Rechnungen, da jeder Rechnungssteller anders tabelliert – ZUGFeRD ist also nur ein Datenformatstandard und hat nichts mit dem Layout von Rechnungen zu tun.

Box 4: Rechnungsprüfung

  • Echtheit der Herkunft
  • Übereinstimmung der Rechnung mit Bestellung
  • Unversehrtheit des Rechnungsinhalts
  • Lesbarkeit der Rechnung
  • Erfüllung sämtlicher gesetzlicher Voraussetzungen für eine Rechnung im umsatzsteuerlichen Sinne

Ob automatisierte oder manuelle Extraktion: In jedem Fall müssen interne, inhaltliche Prüfverfahren festgelegt werden (vgl. Box 4). Automatisierte Kontrollen, wie das Hashwert-Prüfverfahren (vgl. Box 5), können nur auf Unregelmäßigkeiten hinweisen, aber die inhaltliche Prüfung nicht ersetzen.

Ausblick

Bisher ist ZUGFeRD vor allem in der Öffentlichen Verwaltung im Einsatz, hat aber aufgrund der großen Einsparmöglichkeiten auf Empfängerseite auch Zukunftspotenzial in der Privatwirtschaft. ZUGFeRD basiert auf den Standards „Cross Industry Invoice“ (CII) und Message User Guides (MUG), die vom Europäischen Standardisierungsgremium CEN entwickelt wurden und eignet sich daher als Grundstein zur Etablierung eines einheitlichen europäischen Formates. Im European Multi Stakeholder Forum on Electronic Invoicing wird derzeit an einer Empfehlung für den europaweiten Einsatz gearbeitet.

Kernaussagen

Elektronische Rechnungen bergen jede Menge Vorteile, wie bspw. minimale Versand- oder Archivierungskosten.Durch digitale Verteil- und Freigabeworkflows inkl. automatisierter Ablage, Prüfung und Buchung werden Fehler reduziert, Arbeitszeit gespart und Skontofristen besser eingehalten.

Trotz aller Vorteile: Die durchgängige digitale Prozessoptimierung und Automatisierung erfordert eine weitergehende Standardisierung von Rech­nungsdatensätze. Der in die Jahre ge­kommene internationale, branchen­übergreifende Standard EDIFACT genügt – ebenso wie einfache PDF-Rechnungen – diesen Anforderungen nicht bzw. nicht mehr.

Die Lösung: Der neue, an EU-Richtlinien angelehnte Standard ZUGFeRD, ermöglicht auch das weitestgehend medienbruchfreie und automatisierte Versenden, Empfangen und Ablegen digitaler Rechnungen – in Kombination mit Klassifizierungssoftware – in ECM-Systemen.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Prof. Bartonitz

Abteilung Buchhaltung

Einfluss der Digitalisierung auf die Buchhaltung und das Rechnungswesen

Zum jetzigen Zeitpunkt finden wir in der Buchhaltung noch eine Mischung von diversen Dokumenten­arten vor. Belege sind entweder in Papierform, elektronisch (z. B. Rechnungen im PDF-Format) oder bereits digital (z. B. EDI/EDIFACT-Format) vorhanden. Der Anteil der digitalen Unterlagen hat mit der Etablierung der digitalen Rechnungen durch die niedrigeren Formatanforderungen des Umsatzsteuergesetzes zugenommen. Dennoch werden digitale Belege zur Verbuchung gerne noch in Papierform umgewandelt, statt sie gleich digital zu verarbeiten. Viele Unternehmen scheuen den Umstieg zur digitalen Buchhaltung, obwohl kaum Hindernisse oder Risiken dagegensprechen.

In „papierlosen Büros“ werden sämtliche Äbläufe in der Buchhaltung und Lohnbuchhaltung sowie die Büroverwaltung rein auf dem digitalen Weg organisiert und gespeichert. Die papierlose Buchhaltung hilft, Kosten zu sparen, und optimiert bestehende Prozesse.

Heute bringen moderne ERP-Lösungen bereits komplette Buchhaltungs- und Lohnbuchhaltungslösungen mit sich. Die elektronische Belegablage wird so automatisch mit implementiert. Trotzdem muss sich auch die Unternehmenskultur in diesem Kontext ändern. Dies fängt bereits mit der Digitalisierung der täglich eingehenden Papierdokumente in Form von Rechnungen an. Zunächst sollten jegliche Papierdokumente mit einer professionellen Dokumentenmanagement-Lösung per Scan und OCR erfasst und damit digital zur Verfügung gestellt werden.

Gerade bei Rechnungen müssen vorab beteiligte Sachbearbeiter die Rechnungspositionen prüfen und sind daher meist auch in den Buchhaltungsprozess einbezogen. Durch vorab gescannte und damit digitalisierte Eingangsrechnungen können alle am Prozess beteiligten Abteilungen schnell und rechtssicher informiert und einbezogen werden. Die digitale Zusammenarbeit und Kollaboration ermöglicht auf diesem Wege schon große Einsparpotenziale.
Die Kostenvorteile entstehen als Folge der digitalen Verfügbarkeit von Dokumenten. Diesbezüglich geht es vorrangig um die Minimierung von Suchkosten für Mitarbeiter, die Zugriff auf Belege haben sollten.

Kostenreduktionen machen sich jedoch nicht nur im Unternehmen, sondern auch im Umgang mit externen Dienstleistern bemerkbar, wenn es beispielsweise um den digitalen Austausch der Unternehmensunterlagen mit dem eigenen Steuerberater geht. Auch die Korrespondenz mit Geschäftspartnern und Kunden  lässt sich in papierloser Form effizient gestalten.

Tipps zur Einführung

  1. Machen Sie sich mit der aktuellen Gesetzgebung vertraut. Unternehmen sind in der Pflicht, ihr Rechnungswesen auf das digitale Zeitalter umzurüsten. Die Grundsätze zur ordnungsmäßigen Führung und Aufbewahrung von Büchern, Aufzeichnungen und Unterlagen in elektronischer Form sowie zum Datenzugriff (GoBD) regeln die formalen Anforderungen. Zudem enthalten die GoBD Regeln zum elektronischen Datenzugriff der Finanzverwaltung im Rahmen von Außenprüfungen. Die GoBD wurden durch Schreiben des Bundesfinanzministeriums am 14. November 2014 veröffentlicht. Die GoBD sind ab 1. Januar 2015 gültig. Sie lösen die Grundsätze zum Datenzugriff und zur Prüfbarkeit digitaler Unterlagen (GDPdU) und die Grundsätze ordnungsmäßiger DV-gestützter Buchführungssysteme (GoBS) ab.(1) Besonders wichtig sind die GoBD für die elektronische Aufzeichnung der Barerlöse, die oftmals nicht vollständig aufgezeichnet oder nachträglich mit Manipulationssoftware verändert werden. Umfassende Regelungen zum internen Kontrollsystem und der Verfahrensdokumentation sind zu beachten. Der Unternehmer bleibt nach den GoBD verantwortlich, auch wenn er die Datenverarbeitung auslagert oder einen Dienstleister wie den Steuerberater einschaltet. Die GoBD gelten auch im Bereich der Bareinnahmen nur für digitale Aufzeichnungen mit Kassensystemen, Registrierkassen, PC-Kassen, Wiegekassen und Taxometern. Sie gelten nicht für manuelle Kassenführung wie z. B. die offene Ladenkasse.
  2. Gewohnte Verhaltensmuster durchbrechen. Bisher wurden Rechnungen und Dokumente ausgedruckt und in Ordnern abgeheftet. Elektronische Rechnungen und die elektronische Weiterverarbeitung erfordern ein Umdenken im Kontext der bisher angewendeten Prozesse.
  3. Innerbetriebliches Kontrollverfahren etablieren und implementieren. Laut Umsatzsteuergesetz (UStG) § 14 ist die Ausstellung von Rechnungen(2) in ein langfristiges und sicheres Archivierungssystem (Grundlage sind die GoBS)(3) einzuführen.
  4. Papierlose Prozesse einführen. Digitalisieren Sie alle Dokumente, die bisher in Papierform vorliegen. Besonders die Mitarbeiter müssen in den Ver­än­derungs­prozess einbezogen werden, damit kein Geschäftsrisiko entsteht.
  5. Beziehen Sie Ihren Steuerberater vorab in Ihre Überlegungen mit ein.

Digitales Belegwesen

Das digitale Belegwesen ist die dynamische Weiterentwicklung der heutigen Finanzbuchhaltung. Im digitalen Belegwesen werden Barbelege / Kassenquittungen durch den Klienten selbst per Fax oder per E-Mail an einen Steuerberater oder eine Buchführungsfirma übermittelt. Die Originale behält der Mandant selbst. Rechnungseingänge werden als Fax übermittelt. Rechnungsausgänge werden ebenfalls gefaxt oder der Steuerberater erhält sie aus dem Fakturierungsprogramm des Mandanten. Bankbewegungsdaten werden Bestandteil der Buchführung, indem sie elektronisch direkt von der Bank übermittelt werden. Danach können sowohl Steuerberater wie auch Mandant per verschlüsseltem Netz-Zugang auf die Daten zugreifen. Eine Smartcard bzw. ein USB-Stick mit Smartcard sorgt für die notwendige Sicherheit der Authentifizierung.

Trends

  1. Elektronische Bilanz. Als Elektronische Bilanz oder E-Bilanz wird in Deutschland die elektronische Übermittlung einer Unternehmensbilanz an das zuständige Finanzamt bezeichnet. Grundsätzlich sind die Inhalte der Bilanz und Gewinn- und Verlustrechnung für Wirtschaftsjahre, die nach dem 31. Dezember 2011 beginnen, durch Datenfernübertragung zu übermitteln. Rechtsgrundlage ist § 5b Einkommensteuergesetz (EStG).
  2. XBRL. Eine gute Nachricht gleich vorweg: XBRL ist ein freier Standard, den jeder unentgeltlich nutzen kann. XBRL („eXtensible Business Reporting Language“) ist eine auf XML basierende Sprache, mit der elektronische Dokumente im Bereich der Finanzberichterstattung erstellt werden. Insbesondere werden Jahresabschlüsse in dieser Sprache generiert. XBRL bietet auf Basis von XML einen standardisierten Austausch von Informationen der Geschäftsberichterstattung. Ziel von XBRL ist es, Ineffizienzen im Prozess des Datenaustauschs und der -analyse zu reduzieren sowie den Vergleich und die Vergleichbarkeit von Informationen zu erleichtern. Erste XBRL-basierte Taxonomien lassen erhebliches Effizienzsteigerungspotenzial beim Austausch und der automatisierten (Kennzahlen-)Analyse erkennen. Sie tragen aber nicht zu einem erleichterten Vergleich oder gar inhaltlicher Vergleichbarkeit von Informationen der Geschäftsberichterstattung bei.(4)
  3. Cloud-Computing. Vollauslagerung  von  Diensten  über  Shared-Service-Center und Application-Service-Provider. Online-Buchhaltungssoftware ist auf dem Vormarsch. Unternehmen erkennen die Vorteile der Cloud: unkompliziert und flexibel mit hoher Sicherheit. Denken Sie daran, dass nach der neuen Gesetzgebung das Hosting Ihrer Daten nur innerhalb der EU vorgenommen werden darf. Der „EU-US Privacy Shield“ (auch EU-US-Datenschutzschild) ist ein Abkommen auf dem Gebiet des Datenschutzrechts, das 2015 bis 2016 zwischen der Europäischen Union und den Vereinigten Staaten von Amerika ausgehandelt wurde.
    Es besteht aus einer Reihe von Zusicherungen der US-amerikanischen Bundesregierung und einem Beschluss der EU-Kommission. Die Kommission hat am 12. Juli 2016 beschlossen, dass die Vorgaben des Datenschutzschilds dem Datenschutzniveau der Europäischen Union entsprechen; damit kann das Abkommen angewendet werden.(5)
  4. Open-Source-Lösungen. Als Open Source oder quelloffen wird Software bezeichnet, deren Quelltext öffentlich ist und von Dritten eingesehen werden kann. OSS ist flexibler, wenn es um die Anpassung an die eigenen Unternehmensprozesse geht. Vorsicht, OSS ist nicht kostenfrei! Die Implementierung sowie die Schulung und der Umgang mit dem System müssen ebenso bezahlt werden wie sonstige Anpassungen. Unsere Redaktion hat sich in diesem Kontext mit der ERP-Lösung OpenZ beschäftigt. Die Open-Source-ERP-Software OpenZ ist ein branchenübergreifend einsetzbares Standard-ERP-System. Es unterstützt die gesamte Wertschöpfungskette und ist dabei agil bei Veränderungen der firmenspezifischen Prozesse anpassbar. Die nachfolgenden Features im Bereich der Finanzbuchhaltung werden abgedeckt:
    1. Deutscher Kontenrahmen: SKR03 oder SKR04
    2. DATEV-Export und DATEV-Import
    3. Abgleich der Summen und Saldenliste mit DATEV
    4. Offene-Posten-Liste
    5. Zahlungsabgleich / Zahlungsverkehr
    6. SEPA-Bankeinzug und Überweisungen
    7. Kontierungen können frei hinterlegt werden
    8. Anlagenbuchhaltung inkl. Anlagenspiegel
    9. Steuerautomatik bei allen Buchungen
    10. USt.-Voranmeldung
    11. Betriebswirtschaftliche Auswertungen
    12. Kostenstellen / Kostenträger
  5. Mobile Buchhaltung in der Cloud und Buchhaltungssoftware für Tablets. Cloud-Unternehmenssoftware gibt es auch als Apps für Tablet und Smartphone. Damit können Unternehmer auch von unterwegs auf Daten zugreifen, betriebliche Prozesse steuern oder auch die Buchhaltung erledigen. Hohe Sicherheitsstandards müssen selbstverständlich nachgewiesen werden. In der nächsten Zeit werden auch die bekannten Softwarehersteller diesem Trend folgen. Bis dahin lohnt sich ein genauer Vergleich der Cloud-Buchhaltungen.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/

 

(1) Michael Goldshteyn, Stefan Thelen: Praxishandbuch digitale Betriebsprüfung /Anforderungen der neuen GoBD an Buchführung, Datenspeicherung und Datenzugriff, ISBN 978-3-7910-3446-1; https://de.wikipedia.org/w/index.php?title=GoBD&redirect=no

(2) https://www.gesetze-im-internet.de/ustg_1980/__14.html

(3) https://www.bundesfinanzministerium.de/Content/DE/Downloads/BMF_Schreiben/Weitere_Steuerthemen/Abgabenordnung/Datenzugriff_GDPdU/2014-11-14-GoBD.html

(4) Norbert Flickinger: XBRL in der betrieblichen Praxis: Der Standard für Unternehmensreporting und E-Bilanz, 2., neu bearbeitete Auflage. Erich Schmidt, Berlin 2013, ISBN 978-3-503-14455-6.

(5) https://de.wikipedia.org/wiki/EU-US_Privacy_Shield

Der Chief Digital Officer

Potenziale der Digitalisierung fürs eigene Unternehmen ausschöpfen.

von Rolf Dreier

Fast alle Branchen sind von der digitalen Transformation betroffen. Unternehmen, die ihren Finger am Puls der Zeit haben und wettbewerbsfähig bleiben wollen, müssen zeitnah handeln – eine Wahl gibt es nicht. Die schwierige Aufgabe, eine digitale DNA im Unternehmen zu verankern, übernimmt ab jetzt der Chief Digital Officer.

Große Konzerne wie TUI Deutschland, die Bayer AG und die Deutsche Bank haben in ihrer Chefetage bereits Platz für den CDO geschaffen und lassen sich von ihm den Weg in die digitale Zukunft ebnen. Auch in vielen mittelständischen und kleineren Unternehmen ist die Digitalisierung zur Wettbewerbssicherung unerlässlich geworden. Leider trifft man vor allem in kleinen Unternehmen selten einen CDO oder eine vergleichbare Führungskraft an: ein fataler Fehler.

Warum Chief Information Officer und Chief Marketing Officer die Digitalisierung nicht alleine stemmen können

Jedes Unternehmen sollte im 21. Jahrhundert einen CDO oder eine vergleichbare Führungskraft haben, die ebenso wie der CIO und CMO im oberen Management des Unternehmens angesiedelt ist. Die Notwendigkeit, für den CDO eine eigene Stelle zu schaffen, wird aber noch nicht von allen Unternehmen gesehen. Der Glaube, die vorhandenen Führungskräfte könnten die Aufgaben des CDOs mittragen, ist aber falsch. Zwar arbeiten CIO, CMO und CDO innerhalb des Unternehmens eng miteinander zusammen, ihre Aufgabenbereiche aber sind verschieden.

Der CIO plant und realisiert die IT-Projekte in einem Unternehmen. Er ist auf die Technologien spezialisiert, die für die digitale Transformation verantwortlich sind und sie ermöglichen. Der CMO trifft strategische Entscheidungen in allen marketingrelevanten Bereichen eines Unternehmens. Die Herausforderungen der digitalen Transformation und die Aufgaben des CDOs ist jedoch die Verschmelzung dieser Einzeldisziplinen: Der CDO ist das Bindeglied zwischen Marketing, IT und der Geschäftsleitung und für die Umsetzung und langfristige Verankerung der Digitalisierung des Unternehmens verantwortlich. Er vernetzt alle digitalen Prozesse über die Abteilungs- und Unternehmensgrenzen hinaus und muss dabei stets auf den Kundennutzen bedacht sein.

Alle Unternehmensbereiche sind von der digitalen Transformation betroffen

Die digitale Transformation verändert unsere Kommunikation und Arbeitsweise grundlegend. Ein Management, das Antworten auf die Fragen entwickelt, wie die komplexen Veränderungen bewältigt werden können, ist daher für Unternehmen unverzichtbar. Je nach Unternehmensgröße kann es sogar sinnvoll sein, den CDO mit einem eigenen Team auszustatten.
Die Art der Kommunikation verändert durch Smartphones und soziale Medien nicht nur den Kontakt zum Endkunden, sondern auch den Austausch innerhalb der Unternehmensbereiche: die Unternehmenskultur und Produktionsprozesse stehen vor einem Wandel. Online- und Offline-Kanäle verschmelzen, E-Commerce findet mehr und mehr auch zwischen Geschäftskunden statt und die Entwicklung neuer Produkte erfolgt im digital unterstützten Dialog mit den Kunden.

Der Chief Digital Officer hat ein umfangreiches Profil

Die Aufgabenbereiche des CDOs sind weit gefächert, weil er alle unternehmensinternen Prozesse in Zusammenarbeit mit den Fachabteilungen effizienter gestalten und auf die digitale Welt hin ausrichten muss. Es versteht sich also von selbst, dass alleiniges IT- oder Marketing-Know-how für den verantwortungsvollen Job des CDOs nicht ausreicht. Ein CDO braucht ein fundiertes BWL-Know-how, eine ausgeprägte Medien- und Digitalkompetenz, umfangreiches Wissen im E-Commerce, Projekterfahrung, ein exzellentes Datenverständnis und langjährige Erfahrung in Führungspositionen. Selbst schon einmal ein Startup gegründet zu haben und verschiedene Unternehmensgrößen aus dem eigenen Arbeitsalltag zu kennen, ist für den Job als CDO ebenfalls vorteilhaft.
Einen klassischen Werdegang zum CDO gibt es nicht. Er kommt aus den verschiedensten Bereichen wie der Volks- und Betriebswirtschaft, der Informationstechnologie, dem Dienstleistungssektor, der Produktentwicklung oder Kommunikation. Neben den zahlreichen fachlichen Kompetenzen muss ein CDO noch eine ganze Palette sozialer Kompetenzen mitbringen, um die digitalen Themen im Unternehmen erfolgreich vorantreiben zu können.

Ein moderner Leadership-Stil ist das A und O

Auf dem Weg der Digitalisierung eines Unternehmens reicht es nicht aus, eine Strategie zu entwickeln. Entscheidend ist die Umsetzung, an der alle Mitarbeiter der verschiedenen Unternehmensbereiche beteiligt sind. Es ist einerseits Aufgabe des CDOs, die Voraussetzungen für eine umfassende Digitalisierung zu schaffen, andererseits aber auch, alle Mitarbeiter auf dem Weg der digitalen Transformation mitzunehmen, Impulse zu geben und bei der Umsetzung den Überblick zu behalten.
Was jeder CDO zusätzlich zur fachlichen Kompetenz benötigt, ist die Fähigkeit, im Team offen, transparent und kooperativ zu arbeiten. Ein CDO braucht Mut, Überzeugungskraft, Kommunikationsbereitschaft, Leidenschaft für die digitale Welt, Energie, Integrität und viel Geduld. Die umfassende Digitalisierung der Unternehmenswertschöpfungskette ist das Ziel des CDOs. Der Weg dorthin ist ein langer Prozess, bei dem der CDO die Unterstützung aller Mitarbeiter braucht und eng mit dem CIO, CMO und der Geschäftsleitung zusammenarbeiten muss.

Jedes zukunftsorientierte Unternehmen sollte eine digitale Führungskraft haben

Die digitale Transformation ist keine Eintagsfliege. Je früher Unternehmen das Potenzial der Digitalisierung für sich erkennen und ihre Veränderungen für sich nutzen, desto wettbewerbsfähiger und produktiver werden sie in Zukunft sein. Kein Unternehmen kann sich der Digitalisierung entziehen. Die Frage, ob man bei der Digitalisierung mitmacht, stellt sich nicht – es geht lediglich um das Wie. Und genau für dieses Wie ist eine digitale Führungskraft notwendig.
Alle Prozesse innerhalb eines Unternehmens auf digitale Komponenten hin auszurichten, ist eine schwierige Aufgabe, die nicht nebenbei laufen oder auf bestehende Posten im Unternehmen verteilt werden kann. Vielmehr braucht es für diesen langen Prozess eine eigene Führungskraft, die sich vollkommen der ganzheitlichen Entwicklung des digitalen Geschäfts widmet und dabei das Potenzial der Digitalisierung für das Unternehmen ausschöpft. Deshalb benötigen auch kleinere Unternehmen eine digitale Führungskraft, die trotz oft limitierter Ressourcen kreativ und effektiv auf die neuen Gegebenheiten reagiert.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Rolf Dreier

Digitalisierung heißt Kulturwandel

von Jürg Stuker

Man nehme eine Portion Cloud-Computing, dazu Big Data, vielleicht noch eine Prise Indus­trie 4.0 – und schon funktioniert der digitale Wandel. Nach diesem Rezept verfahren viele Unter­­nehmen. Doch wer Digitalisierung auf Tech­nologien reduziert, liegt falsch. Wichtig ist ein An­satz, der holistisch die gesamte Unternehmung ins Visier nimmt. Dazu zählen die Anpassung der Unternehmenskultur und die Entwicklung neuer Geschäftsmodelle, aber auch und gerade die Anpassung der Prozesse und damit der Organisation.

Der digitale Wandel zählt laut einer Studie des Marktforschungsunternehmens Bitkom Re­search für 72 Prozent der deutschen Unternehmen zu den größten Herausforderungen. Zugleich stufen 88 Prozent die Digitalisierung als Chance ein. Wie eine erfolgreiche Digitalisierungsstrategie in der Praxis aussehen kann, zeigen Beispiele aus unterschiedlichen Branchen. Sie belegen, dass es nicht nur darauf ankommt, neue Technologien einzusetzen. Auch „weiche“ Faktoren wie die Unternehmenskultur spielen eine wichtige Rolle.

Chance statt Bedrohung: Deutsche Unternehmen betrachten den digitalen Wandel als positive Entwicklung. Quelle: bitkom research

Dem Innovationsdruck standhalten

Ein zentrales Element der digitalen Transformation ist die Herausforderung, schneller, besser und vor allem innovativer zu sein als Mitbewerber. Das erfordert gut ausgebildete und engagierte Mitarbeiter, vor allem im Bereich Informations- und Kommunikationstechnik (ICT). Doch solche Fachleute sind Mangelware. So stufen laut der Studie von Bitkom Research 73 Prozent der deutschen Unternehmen die Suche nach geeigneten Fachkräften als Hürde bei der Umsetzung einer Digitalisierungsstrategie ein. Mit vergleichbaren Herausforderungen sieht sich die Swisscom konfrontiert, der führende Telekommunikationsanbieter der Schweiz. Um sich als attraktiver Arbeitgeber im Bereich ICT zu positionieren, setzt das Unternehmen auf ungewöhnliche Maßnahmen im Bereich „Employer-Branding“. Eine davon ist das „Project 365d“. Drei talentierte Absolventen von Studiengängen in der ICT-Sparte leben ein Jahr lang gemeinsam in einer Wohngemeinschaft. An einem Tag entwickeln sie dabei Ideen zum Wohnen der Zukunft: Sie vernetzen beispielsweise Möbel oder arbeiten an sprechenden Kühlschränken. An den anderen vier Tagen absolvieren sie ein Praktikum in der Innovationsabteilung von Swisscom. Über ihre Erfahrungen berichten die WG-Bewohner im ICT-Blog des Unternehmens. Außerdem laden sie Fachleute in ihre „Wohnung der Zukunft“ ein und diskutieren mit diesen über „smarte“ Einrichtungsgegenstände. Das Project 365d hat sich für Swisscom voll bezahlt gemacht. So rückte das Unternehmen von Platz 10 auf Rang 3 im Universum-Ranking der beliebtesten Arbeitgeber in der Schweiz. Außerdem konnten die Kosten für das Recruiting neuer Mitarbeiter halbiert werden. Die Investitionen in das Projekt haben sich somit mehrfach amortisiert.

Neue Geschäftsmodelle entwickeln

Ein Effekt der Digitalisierung ist, dass beste­hende Geschäftsmodelle in Frage gestellt wer­den. Laut der Studie von Bitkom Research haben es bereits 54 Prozent der Firmen in Deutschland mit Mitbewerbern aus dem Digitalsektor zu tun. Das heißt, Geschäftsmodelle müssen angepasst werden. Wie sich ein solcher Strategiewechsel durchführen lässt, zeigt das Medizintechnik-Unternehmen Medela AG aus Baar, südlich von Zürich. Medela hat sich auf medizinische Vakuum-Technologien und Pro­dukte für stillende Mütter spezialisiert. Bis 2014 nutzte das Unter­nehmen ausschließlich Fachhändler als Vertriebskanal. Mittlerweile aber hat Medela über digitale Angebote einen direkten Zugang zu Endkunden eingerichtet, zum Beispiel mit der MyMedela-App. Sie spricht Mütter an, die Infor­mationen zum Thema Stillen suchen. Außerdem ermöglicht die Anwendung, direkt mit Kunden zu interagieren. Ergänzend dazu hat das Unternehmen das Vertriebsmodell „digitalisiert“: Die Produkte für Konsumenten und für Fachkunden sind über Online-Shops in Europa, Nordamerika und Australien verfügbar. Medela hat somit sein Geschäftsmodell radikal geändert und bietet seine Produkte direkt an. Die Veränderung zeigt sich auch in der Vermietung von Geräten. Somit ist der E-Shop gleichzeitig eine Mietplattform. Parallel dazu besteht weiterhin der klassische indirekte Vertriebskanal.

Technologien nutzen

Die Versicherungsbranche zählt zu den Sparten, die von der Digitalisierung besonders betroffen sind. Das hat SWICA erkannt, ein Spezialist für Unfall- und Krankenversicherungen. Das schweizerische Unternehmen wollte seine Website aufwerten, um die Beziehung zu Kunden zu verbessern und die Zahl der Online-Abschlüsse von Verträgen zu erhöhen.
Umsetzen ließ sich dies nur durch die Implementierung eines neuen Content-Management-Systems (CMS) und eine grundlegende Modernisierung der Website. Ein neues Design macht nun die Website noch ansprechender. Außerdem wurden Elemente integriert, die dem Besucher einen konkreten Nutzen bringen. Dazu zählen ein Prämienrechner und eine Kontaktbox, über die sich Anfragen an SWICA stellen lassen. Solche Elemente sind wichtig, um die Kundenzufriedenheit zu erhöhen und die Hürden zu überwinden, die dem (Online-)Dialog mit Kunden im Wege stehen.

Kernaussagen

Digitale Transformation ist ein kontinuierlicher Prozess, der holistisch die gesamte Unternehmung ins Visier nimmt. Eine offene Unternehmenskultur mit Raum für Ausprobieren und Fehler ist genauso wichtig wie technologischer Fortschritt und fachliches Know-how.
Die Arbeit in Teams sowie in Abteilungs- und Unternehmens-übergreifenden Projektgruppen gewinnt an Bedeutung. Eine solche Struktur basiert auf Technologien wie Chats, Wikis und Videokonferenzen.
Digitale Transformation muss vom Manage­ment gesteuert werden. Das sorgt da­für, dass alle Mitarbeiter fachlich wie emo­tional mitgenommen werden, denn sie müssen den Prozess in der täglichen Arbeit leben: Indem sie den Mut haben zu hinterfragen, ihr Wissen teilen und sich über Abteilungen hinweg konstruktiv austauschen.

Prozesse an die Digitalisierung anpassen

Die digitale Transformation ist kein Projekt, sondern ein Prozess, der mit Anpassungen in vielen Unternehmensbereichen verbunden ist. Dass solche Modifikationen Vorteile bringen, zeigt das Beispiel von ABB, einem führenden Unternehmen für Energie- und Automatisierungstechnik. ABB stand vor dem Problem, dass für den Vertrieb seiner Produkte Print-Materialien und PDF-Dokumente genutzt wurden. Doch diese Materialien veralteten schnell, waren teuer und ließen sich nur mit hohem Aufwand aktualisieren.
Die Lösung heißt „Digital Sales Assistant“. Die Applikation stellt über die App „ABB Connect“ eine Vielzahl der Produkte auf Mobilgeräten dar. Außerdem verknüpft sie Informationen, die in 17 000 PDF-Dateien vorliegen, mit den entsprechenden Produkten. Die Vertriebsmitarbeiter von ABB haben nun jederzeit die aktuellen Informationen zur Hand, wenn sie mit Kunden Gespräche führen, inklusive Videos und PDF-Dokumenten.
Hinzu kommt ein weiterer Vorteil: Mit ABB Connect lassen sich personalisierte Kundenportfolios erstellen. Spezielle Anforderungen von Kunden gleicht die Anwendung automatisch mit den passenden Produkten von ABB ab und stellt diese als Slideshow bereit. Die Vertriebsfachleute müssen sich daher nicht mit dem Zusammensuchen von Informationen beschäftigen, sondern haben mehr Zeit für den Kunden.

Die Unternehmenskultur muss passen

Eine Prozessoptimierung oder der Einsatz neuer Technologien helfen jedoch für sich alleine genommen nicht, den digitalen Wandel zu meistern. Dieser Prozess muss durch die Mitarbeiter und die Unternehmenskultur mitgetragen werden. Das bestätigt auch eine Studie der Commerzbank. So wollen Mitarbeiter selbstständiger und flexibler arbeiten und zudem mehr Verantwortung übernehmen.
Generell erfordert die digitale Transformation eine transparente und offene Kultur. Hinzu kommt die Bereitschaft, bestehende Strukturen und Abläufe zu hinterfragen und anzupassen. Das gilt beispielsweise für die Arbeitsweise und -prozesse: Die Arbeit in Teams sowie in abteilungs- und unternehmensübergreifenden Projektgruppen gewinnt an Bedeutung. Eine solche Struktur basiert auf Technologien wie Chats, Wikis und Videokonferenzen.
Ergänzend dazu ist eine neue Form des Wissensmanagements erforderlich, etwa in Form interner Wissensnetzwerke. Sie animieren Mitarbeiter dazu, Informationen über Aufgabenbereiche und Best Practices mit Kollegen zu teilen. Außerdem verhindern solche Netzwerke, dass sich Informations-Silos entwickeln. Letztlich erhöht das die Transparenz im Unternehmen und führt dazu, dass sich Menschen, unabhängig von der Organisationsstruktur, für andere Menschen interessieren.
Ein wichtiger Bestandteil einer solchen Unternehmenskultur ist zudem der Umgang mit Fehlern. Nur wer die richtigen Schlüsse aus gescheiterten Projekten und Geschäftsmodellen zieht, entwickelt sich weiter. Sowohl Mitarbeiter als auch Führungskräfte müssen daher bereit sein, neue Dinge auszuprobieren und Fehler in Kauf zu nehmen. Ein hilfreiches Werkzeug in diesem Kontext ist das Prototyping, also das Aufsetzen von Versuchsmodellen auf dem Weg zum Ziel.

Die digitale Transformation erfordert eine andere Art von Führungskultur, die auf Koordination und
Kooperation setzt statt auf Kontrolle. (Quelle: Commerzbank, Studie UnternehmerPerspektiven im Internet, 2015 TNS Infratest)

Fazit: Das Gesamtpaket muss stimmen

Der digitale Wandel stellt kein unüberwindbares Hindernis dar. Im Gegenteil: Unternehmen können diesen Transformationsprozess in einen wirtschaftlichen Vorteil ummünzen. Die Voraussetzung ist, dass sie sich nicht auf einzelne Aspekte konzentrieren. Vielmehr muss das Gesamtpaket stimmen, von der Entwicklung neuer Geschäftsmodelle bis zur Prozessoptimierung. Nicht übersehen werden dürfen dabei Faktoren wie ein Innovations- und Wissensmanagement und die Bereitschaft, über den Tellerrand hinauszuschauen. Nur Unternehmen, die eine solche ganzheitliche Sichtweise entwickeln, werden vom digitalen Wandel profitieren.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Jürg Stuker