Beiträge

Going Global

Mehr Wachstum durch die Erschließung neuer Märkte

Internationalisierung bietet Online-Händlern die Chance, ihre Umsätze zu steigern. Doch die Expansion ins Ausland ist mit Hürden verbunden, die zunächst gemeistert werden müssen.

Nicht jedes Land ist gleichermaßen als Expansionsziel geeignet. Generell ist es einfacher, sich zunächst in den Ländern auszubreiten, die sprachlich und kulturell wenig Unterschiede aufweisen und daher keine komplexere Anpassung des Online-Shops erfordern. Je nach feilgebotener Ware kann es natürlich gute Gründe geben, von dieser Regel abzuweichen, wie beispielsweise die Konkurrenzsituation und auch damit verbundene Unterschiede in der zu erwartenden Nachfrage.

Location-Intelligence-Dienste können helfen, den geeigneten Zielmarkt zu finden. Unter „Location Intelligence“ versteht man die Fähigkeit, Wissen anzuwenden, das durch den Zugriff auf Informationen und deren Analyse und Aufbereitung unter Berücksichtigung räumlicher Zusammenhänge entsteht. Sie beschreibt das Konzept, dass Organisationen mithilfe von Standortinformationen ihre Kunden, Bürger und Märkte besser verstehen und einen Wettbewerbsvorteil erzielen.(1)

Um die Prozesse und Systeme mit den Anforderungen der Zielländer in Einklang zu bringen, ist lokale Expertise immer von Vorteil, aber auch Software-Tools können hinsichtlich einer Compliance-Überprüfung hilfreich sein. Um Vertrauen im Zielland aufzubauen, ist es unerlässlich, alle rechtlichen Standards einzuhalten: Impressum, AGBs, Liefer-, Zahlungs- und Einfuhrbestimmungen sowie Kennzeichnungspflichten müssen berücksichtigt werden. Zudem lässt sich die Vertrauenswürdigkeit des eigenen Online-Shops im Ausland erhöhen, wenn er mit einem Gütesiegel zertifiziert wurde.

Die technische und die logistische Infrastruktur sind die Grundpfeiler des E-Commerce. IT-Infrastrukturen wie „Content Delivery Networks“ helfen Latenzen und Ausfallzeiten für den Web-Shop zu vermeiden. Natürlich sollte auch der Warenversand schnell, kostengünstig und nachvollziehbar sein. Digitale Lösungen wie Sendungsverfolgung oder Lieferung in den Kofferraum bieten zusätzlich Komfort und erhöhen damit das Kundenbindungspotenzial.

Achten Sie auch bei den Zahlungsmitteln darauf, dass Sie den Gepflogenheiten des Landes entsprechen. Während hierzulande noch viel auf Rechnung gekauft wird, führt in China kein Weg an Mobile-Payment-Plattformen wie WeChat Pay und Alipay vorbei.

Die Anpassung eines Online-Shops an die Zielländer ist maßgeblich für den Erfolg. Die Übersetzung steht dabei an erster Stelle, wobei insbesondere auch auf die richtigen Maßeinheiten zu achten ist. Generell sollten alle Marketingmaßnahmen und somit auch die Gestaltung der Seite und die auf der Startpage beworbene Produktauswahl an die Vorlieben im Zielland angepasst werden. Achten Sie auch bei Suchmaschinenoptimierungen auf landesspezifische Besonderheiten. Google dominiert zwar weltweit den Markt, spielt aber in China (Baidu) und Russland (Yandex) keine Rolle. Vergleichbares gilt natürlich auch bei der Nutzung sozialer Medien.

IT-Dienstleistungen


Gerade der IT-Dienstleistungssektor ist geprägt von internationalem Wettbewerb. Durch Cloud-Computing-Plattformen wie Amazon Web Services oder Microsoft Azure sind Dienstleistungsmarktplätze entstanden, worüber schlüsselfertige Softwarelösungen bezogen werden können. Buchbare Dienste reichen von Betriebssystemen über Cloud-Speicher bis hin zu AI, Blockchain oder IoT-Anwendungen. Wer hier seine eigenen Leistungen einstellt, ist mit einem Schlag international abrufbar.

Das im internationalen Vergleich extrem unterschiedliche Preisniveau macht ein IT-Offshoring besonders lukrativ. In Ländern wie Indien, den Philippinen, China, Thailand, Sri Lanka oder Mexiko sind IT-Dienstleistungen wesentlich günstiger. Dies betrifft nicht nur die Löhne, sondern auch die Miete, zudem bestehen teils steuerliche Vorteile. Wichtig dabei ist, auf die Datenschutzbestimmungen des eigenen Landes zu achten, da ein Verstoß kostspielige Konsequenzen mit sich bringt. Zusätzlich entsteht beim IT-Offshoring ein besonders hohes Risiko der Wirtschaftsspionage. Auch wenn keine sensiblen Firmendaten im Ausland verarbeitet werden, lässt sich durch den Datenaustausch besonders leicht Malware einschleusen. //


(1) Seite „Location Intelligence“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 13. September 2018, 18:34 UTC. URL: https://de.wikipedia.org/w/index.php?title=Location_Intelligence&oldid=180881672 (Abgerufen: 12. April 2019, 11:54 UTC)


Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Die Trends in Forschung & Entwicklung

Neue digitale Technologien verändern den Innovationsprozess und binden den Kunden stärker in die Produktentstehung mit ein.

von Dr. Ralf Magagnoli

Ziel vieler Unternehmen ist es, in puncto Industrie 4.0 die umfassendste Option zu realisieren, nämlich die des Enablers. Der Enabler ist ein Technologieanbieter für das IoT und nutzt Plattformen (Clouds) zur Entwicklung, Herstellung und Lieferung vernetzter Dienste und Produkte. Was bedeutet dies für die Abteilung Forschung & Entwicklung: Zum einen werden die traditionellen Schranken zwischen Forschung & Entwicklung, Produktmanagement und Produktion tendenziell aufgehoben, zum anderen werden die sogenannten Stakeholder, meistens Kunden, an der Entwicklungsarbeit beteiligt. Die Vorteile sind u. a. schnellere Produktreife, besser ausgetestete Produkte, kostengünstigere Produkte und – last, but not least – völlig neue Produkte. Was also sind die Trends in der Forschungs- und Entwicklungsabteilung?

Künstliche Intelligenz (KI) / Machine Learning

Die Begriffe KI und Machine Learning werden oft synonym verwendet, sind aber nicht deckungsgleich, da Machine Learning nur einen Bereich, allerdings den wichtigsten der KI, ausmacht. So sagt der chinesisch-amerikanische Informatiker Andrew Ng: „99 Prozent des ökonomischen Wertes, den KI heute schafft, wird durch die eine Art von KI erzeugt, die von A nach B lernt, durch Input- zu Output-Mappings“, also durch Machine Learning. Worum geht es? Es geht um selbstständig lernende Maschinen und Computer; diese lernen anhand von Beispielen und können diese nach Ende der Lernphase verallgemeinern, indem sie Muster und Gesetzmäßigkeiten in den Lerndaten „erkennen“.

Für die Forschung & Entwicklung bieten KI und vor allem das Machine Learning riesige Potenziale, wenn es darum geht, das Kundenverhalten über prädiktive Analysen gezielter zu prognostizieren und via Algorithmen fundiertere Innovationsentscheidungen zu fällen.

Dies erfolgt mithilfe von Algorithmen, die sich wiederum in überwachtes Lernen (teilüberwachtes, bestärkendes, aktives Lernen) und unüberwachtes Lernen unterteilen lassen. Für die Forschung & Entwicklung bieten KI und vor allem das Machine Learning riesige Potenziale, wenn es darum geht, das Kundenverhalten über prädiktive Analysen gezielter zu prognostizieren und via Algorithmen fundiertere Innovationsentscheidungen zu fällen. Dies betrifft u. a. den Designprozess – Stichwort Generatives Design – reicht aber weit darüber hinaus.

Generatives Design

Hier übernimmt ein Algorithmus die Aufgabe, die früher der Designer erledigte. Dieser erstellt nur den digitalen „Werkzeugkasten“, während der Computer das Ergebnis erzeugt. Die Aufgabe des Designers besteht darin, das Ergebnis zu beurteilen und ggf. den Quellcode, die Parameter und den Algorithmus zu verändern. Dazu gibt es neue Tools – Stichwort bspw. Low Code – die eine Programmierung auch ohne vertiefte Programmierkenntnis erlauben. Der Gestaltungsspielraum erweitert sich durch Generative Design in erheblicher Weise, wozu Parameter wie Zufall, Struktur oder Wiederholung kombiniert mit traditionellen Faktoren wie Schrift, Form, Farbe und Bild beitragen.

Dabei bietet sich auch in diesem Fall die Open Innovation, also die Zusammenarbeit verschiedener Akteure – meist über eine cloudbasierte Plattform –, an, über die sich nicht nur eine Vielzahl von Entwurfsalternativen erzeugen lässt, sondern über die die Entwürfe auch im Hinblick auf die Kundenakzeptanz geprüft werden können. Im Idealfall werden die verschiedenen Stakeholder, allen voran natürlich die Kunden, am Projekt beteiligt und aktiv in den Designprozess eingebunden. Die Echt­zeitinformationen sorgen für schnellere Durchlaufzeiten von Projekten.

Digitaler Zwilling

Das Gabler Wirtschaftslexikon definiert den „digitalen Zwilling“ (Digital Twin) als „virtuelles Modell z. B. eines Prozesses, eines Produkts oder einer Dienstleistung, welches die reale und virtuelle Welt verbindet“. Notwendig sind dabei drei Elemente: das abzubildende Objekt – bspw. ein Fahrrad –, der digitale Zwilling und die Daten, die beide miteinander integrieren. So wird das reale, mit Sensoren ausgestattete Fahrrad, um diesen Fall zu nehmen, mit dem System verbunden, das die Sensordaten empfängt, verarbeitet und auswertet. Anhand des digitalen Zwillings können dann die Leistungsfähigkeit, die Widerstandskraft und die Haltbarkeit des Fahrrads, etwa unter Extrembedingungen, getestet werden.

Über Simulationen werden so verschiedene Alternativen erforscht, um die in der Regel komplexen Produktanforderungen zu erfüllen – zum Beispiel: Ist das Produkt intuitiv nutzbar? Funktioniert die Elektronik einwandfrei? Wie interagieren die verschiedenen Komponenten? Und, im Hinblick auf das Fahrrad, bei welchen Lastfällen sind welche Bereiche des metallischen Fahrradrahmens oder der Federgabel als kritisch zu beurteilen?

Der digitale Zwilling wird gerne in der Automobilindustrie für Crashtests eingesetzt. Aufgrund der Effektivitätssteigerungen entlang der gesamten Wertschöpfungskette rechnet der Analyst Gartner damit, dass schon 2021 die Hälfte der größeren Industrieunternehmen den digitalen Zwilling einsetzen wird. Dabei geht es auch hier in Richtung künstlicher Intelligenz, sodass man von der gegenseitigen Wahrnehmung und Interaktion zur Kommunikation und eigenständigen Optimierung der Systeme gelangt.

Additive Fertigung / 3-D-Druck

Auch diese beiden Begriffe werden meist synonym verwendet. Worum geht es? Es handelt sich um ein professionelles, sich von konventionellen Methoden unterscheidendes Produktionsverfahren, bei dem Schicht um Schicht Bauteile aufgebaut werden, um Prototypen zu erstellen. Durch ein sogenanntes Rapid Prototyping in der Forschung & Entwicklung können die Produktentwicklung (und damit die Markteinführung) entscheidend beschleunigt werden. (Im Sinne verschwindender Grenzen zwischen Forschung & Entwicklung einerseits und Produktion andererseits hält das Verfahren zunehmend Einzug in die Serienfertigung.)

Der entscheidende Vorteil gegenüber traditionellen Fertigungsmethoden aber liegt im „Design-driven Manufacturing Process“, bei dem nicht die Fertigung die Konstruktion determiniert, sondern bei dem die Konstruktion die Fertigung bestimmt. Die additive Fertigung verspricht zudem Designfreiheit, Funktionsoptimierung und -integration sowie die Individualisierung von Produkten in der Serienfertigung.

VR- & AR-Konzepte werden Forschung und Entwicklung massiv beeinflussen.

Augmented Reality (AR)

Nicht selten wird beim Prototyping auch die „erweiterte Realität“ (Augmented Reality) eingesetzt, die computerbasierte Erweiterung der Realitätswahrnehmung – oft mithilfe von AR-Brillen. So lassen sich in mehrdimensionalen Räumen Objekte, die nur zweidimensional als Baupläne existieren, völlig neu fassen, da das eigene Verhalten virtuell abgebildet werden kann. Bspw. werden virtuell konzipierte Werkstücke, etwa beim Autobau Mittelkonsolen, per AR-Anwendungen simuliert.

Der Entwickler oder – idealerweise über Open Innovation – auch der Kunde hat damit die Möglichkeit, zu prüfen, ob die Teile tatsächlich funktional und anwenderfreundlich angeordnet worden sind oder ob Optimierungsbedarf entsteht. Die Vorteile liegen auf der Hand, vor allem die Reduzierung von Forschungs- und Entwicklungskosten sowie die Verkürzung des Entwicklungsprozesses.

Open Innovation

Der Begriff der Open Innovation stammt von Henry Chesbrough und bezeichnet die meist plattformübergreifende Öffnung des Innovationsprozesses in Unternehmen und die strategische Nutzung der Außenwelt. Dazu müssen die Unternehmen imstande sein, externes Wissen zu internalisieren und internes Wissen zu externalisieren. Das durch steigenden Wettbewerbsdruck, kürzere Produktlebenszyklen und höheren Innovationsdruck begründete Konzept wirkt sich vor allem auf die Forschungs- und Entwicklungsabteilung aus. Lautete das Motto der Closed Innovation, also der Innovation ausschließlich im Unternehmen, „We can do it, we will do it“ („Wir schaffen das“), so gilt für die Open Innovation die Devise „The best from anywhere“. Eigene Mitarbeiter außerhalb des Forschungs- und Entwicklungsteams, aber auch „Stakeholder“ wie Kunden, Lieferanten, Universitäten sowie auch Mitbewerber und Unternehmen anderer Branchen können in den Innovationsprozess eingebunden werden.

Es handelt sich um ein kollaboratives Networking im Bereich der Forschungs- und Entwicklungsarbeit, das auf Wissensaustausch und Vernetzung von Know-how basiert. Da Open Innovation immer ein Geben und Nehmen impliziert und viele Unternehmen immer noch zurückhaltend sind, eigenes Know-how preiszugeben, hat sich das Konzept noch nicht in der Breite durchgesetzt – dennoch ist angesichts des Drucks auf die Unternehmen zu erwarten, dass sich Open Innovation mehr und mehr durchsetzen wird. Beispiele für gelungene Projekte sind InnovationJam, eine IBM-Plattform, über die Unternehmen und Universitäten aus verschiedenen Ländern miteinander kooperieren, oder die Internet-Musikbörse Last.fm, die sogenannte „Hacker-Tage“ organisiert, an denen Nutzer neue Applikationen entwickeln können.

Coopetition

Die Coopetition – ein Kunstwort, das sich aus Competition (Wettbewerb) und Cooperation (Zusammenarbeit) zusammensetzt – bedeutet eine Dualität aus Kooperation und Wettbewerb. So können auf der gleichen Wertschöpfungsstufe – in diesem Fall eben meistens der Forschung & Entwicklung – die Kompetenzen und das Know-how gebündelt werden (horizontale Kooperation), während man etwa in puncto Marketing und Vertrieb Wettbewerber bleibt. Ein Beispiel ist die Kooperation zwischen VW und Ford, die gemeinsam einen Fahrzeugtyp entwickelten, der bei VW als „VW Sharan“ und „Seat Alhambra“, bei Ford als „Ford Galaxy“ vermarktet wurde. Einfacher ist die gemeinsame Produktentwicklung natürlich zwischen Unternehmen, die mit dem Produkt unterschiedliche Anwendungs-zwecke verfolgen und unterschiedliche Zielgruppen bedienen.

Customer Experience

Auch die Customer Experience ist eng mit der Open Innovation verbunden. Hierbei geht es um die gezielte Einbindung von Kunden, oft sogenannter Lead-User, also besonders fortschrittlicher Anwender, zur Verbesserung und Weiterentwicklung von Produkten. In sogenannten „Customer Experience Centres“ haben Kunden die Möglichkeit, Prototypen und Produkte zu testen. Während mit dem Ansatz der Customer Experience generell positive Kundenerfahrungen generiert werden und die Kunden im Idealfall zu „begeisterten Botschaftern“ gemacht werden sollen, bedeutet er für die Forschungs- und Entwicklungsabteilung die passgenaue Identifikation der Kundenwünsche. Nichts ist schlimmer als ein Team verspielter Technikfreaks, die an den Kundenwünschen vorbeiarbeiten. Die zentrale Forderung, gerade für Forschung & Entwicklung, lautet daher: „Customer Experience bedeutet, die Bedürfnisse des Kunden nicht nur zu erfüllen, sondern jederzeit zu übertreffen.“ Voraussetzung dafür ist, sie zu kennen. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Fallbeispiele

Weiterführende Beiträge und Interviews zum Thema finden Sie in unserer
Wirtschaftszeitung TREND REPORT sowie in unseren Open-Content-Werken.

Andreas Fuhrich weiß: „Dezentral, flexibel und günstig – Cloud-Computing erobert mit hoher Skalierbarkeit bei niedrigen Kosten immer mehr deutsche Unternehmen.“
https://handbuch-­digitalisierung.de/cloud-computing-2/


Der Begriff Open Source beschränkt sich nicht nur auf Software, sondern bezieht sich auch auf freies Wissen und Information durch freie Inhalte.
https://handbuch-digitalisierung.de/die-open-bewegung/


Abstract network background with low poly design with connecting lines

Geschäftsmodelle im Fokus: Selbstlernende Maschinen nutzen Big Data und Cloud-Computing, um laufend die abhängigen Prozesse zu optimieren.
https://handbuch-handel.de/­kuenstliche-intelligenz/


Big – Smart – Fast: Unser Arbeitsalltag wird zunehmend von digitalen Daten beeinflusst. Big Data berührt alle Branchen und Märkte.
https://handbuch-handel.de/big-smart-fast/


Die TREND-REPORT-Redaktion sprach mit Maurizio Riva über die intelligente Cloud: „Wir haben dabei natürlich besonderen Fokus auf künstliche Intelligenz, 5G und den ‚Netzwerk­rand‘ gelegt.“ https://trendreport.de/die-intelligente-cloud-ermoeglichen/


Blockchain & Finanzwirtschaft

Der Wegfall zwischengeschalteter Prüfinstanzen zwingt Banken, ihre Rolle in einem digital vernetzten Ökosystem zu überdenken.

von Christopher Weßels

Selten lagen Chancen und Bedrohung so dicht beieinander: Die Bewegung um Blockchain stellt zwar manches Geschäftsfeld der Finanzbranche in Frage. Doch auf der anderen Seite bietet das Blockchain-Modell der kollektiven Prüfung digitaler Transaktionen ohne externe Echtheitsbestätigung auch gänzlich neue Wertschöpfungsoptionen. Banken sollten sich daher lieber heute als morgen auf ihre neue Rolle in einem grundlegend veränderten Marktumfeld einstellen.

Blockchain wird meist in einem Atemzug mit Kryptowährungen genannt. Virtuelles Geld ist jedoch nur eines von vielen Beispielen für die neue Möglichkeit, praktisch beliebige digitale Güter ohne eine zwischengeschaltete Prüfinstanz zu besitzen und weiterveräußern zu können: So wie ein Bitcoin ohne Bank den Besitzer wechselt, so lassen sich in einer Blockchain auch digitale Verträge ohne Mitwirkung eines Notars beglaubigen. Solche bisher lokalen Echtheitsbestätigungen werden hier gleichsam digitalisiert, automatisiert und globalisiert. Dieses Prinzip ist mit der Blockchain ohne Weiteres auf jede beliebige digitale Dienstleistung übertragbar – z. B. auch auf den Handel mit Videos oder Musikdateien.

Echtheitsgarantie ohne externe Prüfinstanz

Doch was genau versteht man unter einer Blockchain? Zunächst einmal handelt es sich um eine verteilte Datenbank, die kontinuierlich fortgeschrieben und durch neue Datensätze – sogenannte Blöcke – erweitert wird. In solchen Blöcken werden digitale Transaktionen unterschiedlicher Art gespeichert. Was die Blockchain indessen von anderen verteilten Datenbanken unterscheidet, ist die Tatsache, dass sie von vielen Servern im Internet fälschungssicher betrieben wird. Dazu erhält jeder neue Datenblock einen digitalen Fingerabdruck seines Vorgängers: Statt Blöcke lediglich aufzureihen, werden sie per Fingerabdruck im Wortsinn verkettet. Daher der Name Blockchain.

Erzeugt werden die digitalen Fingerabdrücke mit kryptographischen Methoden, wobei eine sogenannte Hashfunktion für jeden Datenblock einen eindeutigen Hashwert als einzigartigen Fingerabdruck berechnet. Bei jedem Versuch, einen Datenblock nachträglich zu verändern, müssten folglich auch alle Nachfolger verändert werden. Da neue Blöcke parallel auf sehr vielen Teilnehmersystemen angefügt werden, hat ein Angreifer kaum eine Chance und dieser Manipulationsversuch würde auffallen. Es ist also die kollektive Prüfung in einem dezentralen Blockchain-Ökosystem, die eine Echtheitsgarantie für digitale Transaktionen ohne externe Beglaubigung erst ermöglicht.

Neues Modell für die organisationsübergreifende Zusammenarbeit

Jenseits von digitalem Besitz eröffnet das Prinzip der verteilten Transaktionsprüfung und Automatisierung insbesondere auch für die unternehmensübergreifende Zusammenarbeit via Internet vollkommen neue Perspektiven. Allerdings empfiehlt sich dafür eine besondere Blockchain-Spielart – nämlich eine sogenannte Consortium-Blockchain: Im Unterschied zu öffentlichen Blockchains à la Bitcoin & Co. ist die Teilnehmerzahl begrenzt und die Mitglieder kennen sich bereits. In diesem Fall kann auf rechenintensive Absicherungsfunktionen – wie bei Bitcoin & Co. – verzichtet werden. Vielmehr regelt in einer Consortium-Blockchain ein vorab ausgehandelter Konsensprozess, wer welche Aufgaben erfüllt. So kann zum Beispiel ein Konsortium aus 15 Banken per Konsens festgelegen, dass mindestens fünf Blockchain-Mitglieder die Echtheit jeder Transaktion parallel zu den daran beteiligten Instituten überprüfen.

Während bei traditionellen Business-Netzwerken Administratoren für die Kontrolle einer zentralen Datenbank zuständig sind, entfällt diese Funktion bei der dezentralisierten Blockchain. Nun übernimmt das Netzwerk den Konsensmechanismus und alle Daten werden bei jedem Nutzer identisch protokolliert.

Fremden bleibt der Zugang zu einer Consortium-Blockchain generell verwehrt. Mitglied kann nur werden, wen die Mehrheit der bisherigen Teilnehmer akzeptiert. Auf diese Weise sichert sich das Konsortium die Kontrolle über seine Blockchain. Ein weiterer Unterschied zur öffentlichen Variante: In einer Consortium-Blockchain lassen sich die Regeln zur Transaktionsverarbeitung weitaus flexibler gestalten und sehr genau an den jeweiligen Anwendungszweck anpassen. Denkbar sind künftig auch Mischformen von Public und Consortium-Blockchains, die miteinander interagieren können: Neben dem vertraglich geregelten Zusammenwirken mit bereits bekannten Partnern wären dann auch spontane Interaktionen ohne Vertragsverhältnis via Public Blockchain möglich.

Blockchains verändern das Marktumfeld

Welchen Einfluss haben Blockchains auf den künftigen Wettbewerb? Wer bei diesem Thema seinen Blick einseitig auf digitales Geld fixiert, nimmt vermutlich nur die – fraglos vorhandenen – Bedrohungen für traditionelle Player in der Kreditwirtschaft wahr: Verdrängt werden Banken beispielsweise aus Handelsgeschäften, deren Zahlungsströme zumindest partiell über eine Kryptowährung abgewickelt werden. Zudem überwindet virtuelles Geld im Internet spielend Ländergrenzen, sodass SWIFT als Monopolist für den grenzüberschreitenden Zahlungsverkehr in diesem Szenario überflüssig wird. Für Banken folgt dieser Schluss aber keineswegs. Denn digitale Münzen müssen irgendwann wieder in reales Geld – oder umgekehrt – umgetauscht werden. Überdies dürfte die Blockchain künftig auch ganz neue Bedarfsfelder generieren – zum Beispiel im Hinblick auf Blockchain-basierte Bürgschafts- und Finanzierungsmodelle.

Umso wichtiger erscheint es aus Sicht der Fiducia & GAD, dass sich die genossenschaftliche Finanzgruppe auf eine grundlegend veränderte Wettbewerbssituation einstellt: Volks- und Raiffeisenbanken müssen künftig in der Lage sein, an den digital vernetzten Geschäftsmodellen der Blockchain-Ära teilzuhaben. Und sie müssen dabei einen originären Mehrwert stiften.

Blitzfinanzierung per Blockchain

Start-ups träumen davon: Am Freitagabend wird eine Geschäftsidee im Netz gepostet, am Wochenende läuft die Finanzierungsrunde und am Montagmorgen ist das Kapital verfügbar. Klingt unrealistisch, ist aber möglich – und zwar mit einer Blockchain-Methode, die sich „Initial Coin Offerings“ (ICO) nennt.

Das Prinzip erinnert an eine initiale Wertpapieremission und funktioniert etwa folgendermaßen: Das Start-up erzeugt in der Blockchain digitale Token und verkauft sie wie digitale Aktien. Allerdings werden mit einem Token nicht unbedingt nur Unternehmensanteile erworben, sondern ebenso Kaufoptionen oder digitale Gutscheine, die einen Anspruch auf bestimmte Dienstleistungen begründen. Auch eine anteilige Gewinnausschüttung in Krypto-Geld ist via Smart Contract ohne Weiteres möglich.

ICOs beschleunigen die Bereitstellung von Kapital für die Umsetzung innovativer Ideen – und kurbeln damit das Innovationstempo an. Attraktiv ist dieses Modell inzwischen nicht nur für Start-ups, sondern zum Beispiel auch für Projektfinanzierungen bei etablierten Unternehmen.



Großes Potenzial für Prozessverbesserungen

Noch lässt eine überzeugende „Killerapplikation“, an der die Richtung der künftigen Entwicklung ablesbar wäre, auf sich warten. Doch Abwarten ist für den genossenschaftlichen IT-Dienstleister keine Option. Vielmehr evaluiert die Fiducia & GAD bereits seit geraumer Zeit das Potenzial und die Erfolgsfaktoren des Blockchain-Modells in der Finanzwirtschaft.

Sinnvoll erscheint der Blockchain-Einsatz beispielsweise, wenn es um Prozesse geht, deren besonders hohe Legitimierungsansprüche ihrer Digitalisierung bislang im Wege standen: Statt Unterschrift und Stempel auf Papier könnte in solchen Fällen die verteilte Transaktionsverarbeitung einer Blockchain für den notwendigen Echtheitsnachweis sorgen. Überdies werden Transaktionen in der Blockchain nicht nur gespeichert, sondern nach dem Verkettungsprinzip in all ihren Phasen permanent fortgeschrieben und damit auch protokolliert. Demnach können alle Teilnehmer jederzeit die komplette Historie einer jeden Transaktion nachvollziehen. Die Blockchain verspricht somit ein bisher nicht gekanntes Maß an Verbindlichkeit und Transparenz. Gleichzeitig ermöglicht das Modell der verteilten Transaktionsverarbeitung signifikante Effizienzsteigerungen – zum Beispiel, weil der Aufwand für periodische Synchronisationen wie Monats- oder Tagesabschüsse entfällt.

Auf qualitativer Ebene wirkt sich die Blockchain insbesondere auf übergreifende Prozesse aus. Denn gemeinsame Regeln, Definitionen und Ablaufmodelle führen fast zwangsläufig zu einer Vereinheitlichung der Transaktionsabwicklung – und damit auch zu einer höheren Prozessqualität. Nicht zuletzt verbessert die Blockchain auch die Stabilität organisationsübergreifender Prozesse. Denn die Arbeitsfähigkeit der verteilten Blockchain-Datenbank leidet unter einem eventuellen Systemausfall bei einem oder sogar mehreren Teilnehmern nicht.

Resümee

Der Wesenskern der Blockchain kreist um ein vernetztes Kollektiv, das klar definierte Leistungen nach vorgegebenen Regeln ohne eine externe Kontrollinstanz erbringt. Wie das Notarbeispiel zeigt, werden vormals lokale Beglaubigungsfunktionen durch Vernetzung gleichsam globalisiert. Vor diesem Hintergrund gilt es heute, klassische Bankkompetenzen neu zu interpretieren – wobei der Fokus weniger auf tradierten Geschäftsmodellen, sondern vielmehr auf künftig veränderten Kundenbedürfnissen liegen sollte. Obwohl das Zeitalter digital vernetzter Ökosysteme erst in Umrissen sichtbar wird, steht eines schon heute fest – nämlich: dass die Blockchain die Erwartungen der Kunden von morgen massiv verändern wird. //

Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

HR beginnt beim Menschen

Personalverantwortliche brauchen mehr Freiraum für strategische Arbeit.

von Benedikt Lell

People First“ ist nicht nur das Firmenmotto von PeopleDoc by Ultimate Software, sondern die Essenz der unternehmerischen Tätigkeit. Angetrieben von der Idee, die „Employee Experience“ stetig zu verbessern, bietet PeopleDoc eine umfassende HR-Service-Delivery-Plattform in der Cloud. Als native Cloud-Plattform bietet PeopleDoc mehrere technische und kommerzielle Vorteile: Es muss keine teure Infrastruktur mehr bereitgestellt werden, um Systeme aufzusetzen und zu administrieren. Regelmäßige Updates und Funktionserweiterungen sind im Preis inbegriffen, wodurch das System immer auf dem aktuellen Stand ist und keine eigenen Mitarbeiterkapazitäten für die Entwicklung oder Releasewechsel in Anspruch genommen werden müssen. Mittlerweile werden dabei keine neuen Releases mehr veröffentlicht, sondern Continuous Deployment genutzt: Eine Funktion wird entwickelt und umfassend getestet, bis das Ergebnis allen Anforderungen entspricht, und dann in die Produktionsumgebung integriert. Durch die Mietmodelle vereinfachen sich die Investitionsmöglichkeiten für Unternehmen. Skalierungsmöglichkeiten entstehen, es wird nur bezahlt, was wirklich genutzt wird. Bei PeopleDoc beispielsweise richtet sich der monatliche Mietpreis nach der Mitarbeiteranzahl.

Die Implementierungsdauer der PeopleDoc- Lösung variiert dabei in Abhängigkeit von ihrem Umfang. Die Einführung einer digitalen Personalakte kann bereits nach wenigen Wochen abgeschlossen sein. Umfangreichere Lösungen mit mehreren Hundert Prozessen weltweit dauern entsprechend länger. Die PeopleDoc-Cloudplattform steht dem Kunden bereits direkt nach Vertragsabschluss aus technischer Sicht vollumfänglich zur Verfügung. Mit der funktionalen Konfiguration von Prozessen kann sofort begonnen werden. Hierbei kommt der HR eine zentrale Rolle zu: Die funktionale Konfiguration von HR-Prozessen kann durch HR selbst ohne technisches Customizing oder gar Programmierung durchgeführt werden.

Positive Employee Experience

Die cloudbasierte HR-Service-Delivery-Lösung von PeopleDoc verbessert das Service-Erlebnis der Mitarbeiter bei der Interaktion mit HR während des gesamten Employee-Lifecycles: vom Onboarding bis zum Offboarding. Dabei sollten die Mitarbeiter mindestens die gleiche Servicequalität erfahren, wie die besten Kunden eines Unternehmens. Die bessere Employee Experience trägt nicht nur zu einer Steigerung der Arbeitsmotivation und somit der Leistungsbereitschaft der Mitarbeiter für das Unternehmen bei. Die Employee Experience liefert über den direkten Austausch zwischen den Mitarbeitern einen unmittelbaren Mehrwert für das „Employer Branding“ und erleichtert dadurch auch den Erfolg beim Recruiting.

Vier Erkenntnisse: Employee Experience richtig umsetzen

Motivation lässt sich auch in Zahlen ablesen: Eine Gallup-Studie aus 2016 zeigt auf, dass motivierte Mitarbeiter profitable Mitarbeiter sind und im Schnitt 21 Prozent mehr Umsatz erwirtschaften, 17 Prozent produktiver sind und um 10 Prozent bessere Kundenbewertungen erzeugen. Doch was macht ein motiviertes Team aus? Wie werden Mitarbeiter motiviert?

  • Mitarbeiter sind motivierter, wenn das „Unternehmensleitbild“ klar definiert ist.
  • Mitarbeiter aller Ebenen freuen sich über Anerkennung.
  • Bei großen Problemen ist Teamarbeit ein entscheidender Faktor.
  • Mitarbeiter wollen gehört werden. Sie brauchen regelmäßiges Feedback

Die Leistung der HR am Mitarbeiter beginnt mit dem Onboarding. Die Einführung und Einarbeitung neuer Mitarbeiter ist ein wich- tiger, aber auch dokumentenintensiver Prozess. Er erfordert ein koordiniertes Vorgehen zwischen verschiedenen Managern und Ab- teilungen. Früher vergingen allein für die Zustellung des Arbeitsvertrags nach einem über- zeugenden Vorstellungsgespräch ein bis zwei Wochen. Gerade im „War for Talents“ sind das ein bis zwei Wochen zu viel, die der Mitarbeiter Zeit hat, sich anderweitig zu orientieren, obwohl die Kosten für die Rekrutierung qualifizierter Mitarbeiter ständig steigen.

Digitale Lösungen tilgen nicht nur dieses Risiko, sondern schaffen auch Begeisterung. Bereits 30 Minuten nach Abschluss des Bewerbungsgesprächs erhält der Mitarbeiter einen Link zu seinem bereits vom Arbeitgeber unterschriebenen Arbeitsvertrag. Er selbst kann diesen jetzt dort per digitaler Signatur unterzeichnen. Der neue Mitarbeiter erhält Zugriff auf das firmeneigene Onboarding-Portal, auf das auch von den mobilen Endgeräten wie Smartphones zugegriffen werden kann. Hier findet der neue Mitarbeiter relevante Informationen zur Vorbereitung auf die neue Stelle und beginnt bereits vor dem ersten Arbeitstag damit, alle administrativen Aufgaben, wie zum Beispiel das Ausfüllen von Formularen und Checklisten, zu erledigen. Durch strukturierte, auditierungsfähige Prozesse wird zudem die Einhaltung aller relevanten Compliance-Vorgaben im Onboarding gewährleistet.

Auf diese Weise vereinfacht eine automatisierte Onboarding-Lösung den Einführungs- und Einarbeitungsprozess. Mitarbeiter können vom ersten Tag an produktiver arbeiten und verknüpfen mit dem Onboarding eine positive Erfahrung.

Analysen der HR-Prozesse sind die Basis für Veränderungsansätze.

Vorteile einer digitalen Personalakte

Die Dokumente aus Recruiting und Onboarding werden dabei zentral in einer digitalen Personalakte aufbewahrt. Dort werden auch alle weiteren Unterlagen aufbewahrt, die im Laufe des Employee-Lifecycles erstellt werden. Somit ist die digitale Personalakte zentrale Informationsquelle über einen Mitarbeiter.

Nach der Analyse unseres Onboarding-Prozesses haben wir im ersten Schritt alle Dokumente digitalisiert. Mit PeopleDoc war es dann möglich, Dokumente elektronisch zu signieren und automatisch in der Personalakte zu speichern.

Erin Montgomery, Vice President HR Systeme, American Express

Eine digitale Personalakte hat dabei verschiedene Vorteile im Vergleich zu einer Papierakte: Zum einen die direkte Kostenersparnis durch eine wesentlich erhöhte Effizienz im Dokumentenhandling sowie den Wegfall der Kosten für die Lagerung von Papierakten. Genauso wichtig sind allerdings die Vorteile, die sich nicht direkt als Kostenfaktor beziffern lassen, hinsichtlich der Compliance. Aufbewahrungsfristen und Zugriffsrechte müssen für jeden einzelnen Dokumenttyp in der Personalakte geregelt werden. Die Einhaltung der Compliance-Vorschriften ist mit Papierakten schlichtweg nicht mehr machbar. Es ist unmöglich, bei einer Regeländerung manuell Zigtausende Personalakten zu durchforsten und zu prüfen, ob gegebenenfalls ein Dokument entfernt werden muss.

Neben der Bereitstellung der HR-Service-Delivery-Cloudplattform unterstützt PeopleDoc seine Kunden auch mit Informationen zu Datenschutz- und Compliancethemen in über 40 Ländern weltweit.

HR Compliance Assist ist ein Online-Portal, in dem Kunden übersichtlich zusammengefasst die wichtigsten Regularien zur elektronischen Verarbeitung von Personaldaten und Personaldokumenten zur Verfügung gestellt werden. Hierzu gehört auch eine Übersicht über die länderspezifischen Aufbewahrungsfristen einzelner Dokumenttypen in jedem Land. Zudem bietet PeopleDoc mit ComplianceWatch einen Newsletter, der Kunden über Änderungen informiert und Praxisbeispiele gibt, um komplexe Fach­themen über Ländergrenzen zu managen.

Kernaussagen

  • Die Personalabteilung produziert mehr Dokumente als jede andere Abteilung im Unternehmen – zu oft werden diese auch noch manuell verwaltet.
  • Eine digitale Personalakte ist ein großer Schritt mit vielen Vorteilen; unter ande- rem mehr Rechtssicherheit bei Aufbe- wahrungsfristen.
  • Für die HR-Abteilung entstehen durch Automatisierung durch KI Freiräume. Es bleibt mehr Zeit für Tätigkeiten, die einen strategischen Mehrwert bieten, wie die Employee Experience.
  • Zukünftige Aufgabe von HR wird es sein, zu verstehen, was die Mitarbeiter motiviert.

RPA, KI und Freiräume für HR

Fakt ist, die Personalabteilung produziert mehr Dokumente als jede andere Unternehmensabteilung. In einer traditionellen HR-Abteilung sind daher Mitarbeiter oft nur mit der manuellen Bearbeitung dieser Dokumente beschäftigt. Auch in der Interaktion zwischen Mitarbeiter und HR über das Employee Case Management fallen zahlreiche manuelle Arbeitsschritte an. Nahezu kein HR-Prozess findet ausschließlich in einem System statt. In der Realität sind in einem fachlichen Geschäftsprozess mehrere Systeme beteiligt – und oftmals werden die einzelnen Systeme manuell durch HR angetriggert. Genau hier setzt die „Robotic Process Automation“ (RPA) an. Die Bots übernehmen als „Click-Maschine“ voll automatisiert und in Realtime repetitive Aufgaben, die vormals manuell und zeitaufwendig durch HR-Fachkräfte durchgeführt wurden.

Die Technologie erlaubt es den verwendeten Systemen, im Hintergrund miteinander zu kommunizieren und Prozesse abzuschließen. Die Bots können dabei sogar anhand vordefinierter Logiken eigenständig Entscheidungen treffen. So entstehen „Multi-Applikation“-Geschäftsprozesse, die den fachlichen Prozess über Systemgrenzen hinweg vollständig automatisiert abbilden.

Für die HR-Abteilung entstehen durch Automatisierung mit KI Freiräume. Es bleibt mehr Zeit für Tätigkeiten, die den Mitarbeitern einen echten Mehrwert bieten, wie Mitarbeiterentwicklung und Karriereplanung.

Künstliche Intelligenz geht jedoch noch einen Schritt weiter. Basierend auf den verarbeiteten Daten werden die Systeme in die Lage versetzt, nicht nur Empfehlungen auszusprechen, sondern ganz konkrete Aktionen in die Wege zu leiten, z. B. im Sinne eines proaktiven Talent-Managements Mitarbeitern bestimmte Schulungen anzubieten.

Für die HR-Abteilung entstehen durch die Automatisierung durch RPA und KI neue Freiräume. Es bleibt mehr Zeit für Tätigkeiten, die den Mitarbeitern einen Mehrwert bieten, wie die Mitarbeiterentwicklung und Karriereplanung.

Zukünftig wird HR wesentlich intensiver mit den Mitarbeitern zusammenarbeiten. Ihre Aufgabe wird es sein, zu verstehen, was die Mitarbeiter – heruntergebrochen auf einzelne Abteilungen – motiviert oder demotiviert. PeopleDoc Advanced Analytics ermöglicht eine Einsicht in zuvor unbekannte Daten. Wie lange dauert es, bis ein Mitarbeiter einen Vertrag unterschrieben hat? Zu welchen Themen gehen die meisten Mitarbeiteranfragen ein? Ausgestattet mit diesen Informationen kann HR jetzt Engpässe umgehend beheben und die eigene Performance messen, um Mitarbeitern den besten Service und Support zu bieten.

Künstliche Intelligenz in Verbindung mit Natural-Language-Processing ist dabei in der Lage, Fließtexte sowohl von Mitarbeiterbefragungen als auch von externen Quellen, z. B. Arbeitgeberbewertungsportalen, automatisiert zu analysieren und wichtige Erkenntnisse zu generieren. So lässt sich nicht nur herausfinden, welche Themen Mitarbeiter beschäftigen, sondern auch, welche Emotionen damit verbunden sind. Hieraus lassen sich Maßnahmen ableiten, die Arbeitserfahrung weiter zu verbessern – ganz im Sinne von „People First“. //

Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Bild von rawpixel auf Pixabay

Finanzierung der Digitalisierung

von Udo Rettberg

Die sichere und nachhaltige Finanzierung der Digitalisierung gilt als eine ganz wesentliche Voraussetzung dafür, dass dieser Megatrend auch in Zukunft nachhaltig alle seine Stärken und Vorteile wird ausspielen können.

Als Geldgeber für Finanzierungen haben sich in der Vergangenheit nicht zuletzt ältere und über die Dekaden hinweg finanziell bestens bestückte Generationen gezeigt. Diese „German Entrepreneurs“ hatten sich durch harte Arbeit während ihres Berufslebens eine Menge Erspartes beiseitegelegt. Heute tun sich diese Kapitalgeber, die durch ihre Risikobereitschaft einst als Rückgrat zum „deutschen Wirtschaftswunder“ beigetragen haben, schwer. Früher hatten sie ihr Risikokapital in sichtbare und ertastbare Produkte, Technologien und auch in bekannte Dienstleistungen investiert. Sie konnten also die von ihnen finanzierten Produkte sehen, spüren, fühlen, ertasten, riechen und vor allem in physischer Form auch im Alltag nutzen. Doch die Zeiten haben sich geändert. Und so ist festzustellen, dass aus dieser Betrachtungsweise eine Art Generationenkonflikt resultiert. Die in der Regel noch sehr jungen Unternehmen der Digitalisisierungsbranche beklagen nämlich, dass potenziellen potenten Geldgebern das Verständnis für die Situation fehlt. Die Digitalisierung spielt sich in der Regel in der weitgehend anonymen Datenwelt in der sogenannten „Cloud“ ab. Sie ist daher nichts, was tastbar oder anfassbar wäre.

Diese zwischen 1980 und 1999 geborenen Menschen, die im Angelsächsischen als „Millennials“ bezeichnet werden, sind quasi in das Digitalisierungs-Zeitalter hineingeboren und hineingewachsen. Die Mehrheit dieser Digitalisierungs-Ureinwohner verfügt (von Ausnahmen abgesehen) jedoch nicht unbedingt über größere Kapitalmengen. Diese Generation nutzt praktisch ihre Erfahrungen in der digitalisierten Welt zur Entwicklung neuer Finanzierungsformen und -plattformen. Dabei werden von den Gründungsvätern der Digitalisierung alle Register gezogen und auch eher im Verborgenen blühende Möglichkeiten in der VC-Finanzierung, der Fusions-Finanzierung (per LBO und MBO) und Sanierungsfinanzierung genutzt.
Auch die öffentliche Hand sieht sich in der Pflicht, für Start-ups und Neulinge spezielle staatliche Finanzierungen zu kreieren und z. B. über Förderbanken dann für Wachstumszwecke zur Verfügung zu stellen.  Die zahlreichen Ideen der Digitalisierung sollen auf eine breite Finanzierungsbasis stoßen, um nicht zuletzt auch eine zu starke Konzentration der Marktmacht zu verhindern.

Und so könnten Unternehmen der Datenökonomie bei ihren Finanzierungs-Anstrengungen während der verschiedenen Stufen ihrer Geschichte und Entwicklung inzwischen sowohl mehr Finanzierungsformen als auch anderen bislang weitgehend verschlossenen Kapitalquellen vertrauen als das bei den Firmengründern der „old economy“ der Fall war. Angefangen bei der Gründungsfinanzierung  per Bankkredite und Gründungsdarlehen über staatliche Förderprogramme (z. B. über die Kreditanstalt für Wiederaufbau oder andere Entwicklungsbanken) und der dann im weiteren Verlauf anstehenden Kapitalbeschaffung über Venture-Capital (Risikokapital) bieten sich im weiteren Verlauf der Historie zahlreiche andere Formen an.
Disziplin beim Umgang mit Kapital ist eine der wesentlichen Voraussetzungen,  damit Technologiefirmen auch einige Jahre nach der Gründung noch beständig wachsen können. Dabei geht es bei der Finanzierung dann im Prinzip vor allem um die Beschaffung von Eigenkapital (in der Regel über Aktien) auf der einen sowie von Fremdkapital (meist über Kredite, Anleihen, Schuldverschreibungen etc.) auf der anderen Seite.

Nachhaltig digitalisiert

Interview mit Prof. Michael Kuhndt über neue Geschäftsmodelle an der Schnittstelle von Digitalisierung, Nachhaltigkeit und Ressourceneffizienz.

Welches Potenzial räumen sie der Energieeffizienz und der Digitalisierung im Kontext der Nachhaltigkeit ein?
Zunächst einmal: Die Digitalisierung bringt Transparenz. Diese Transparenz ist Grundvoraussetzung für das Wissen über Energie. Also: Wo brauche ich Energie? Was ist an Energie in meine Produkte geflossen? Wie kann ich die Kreisläufe schließen und damit Ressourcen erhalten? Hier kommen wir also sehr schnell auf die Notierung der Circular Economy. Wichtig ist es ja auch zu sehen, dass ein Energieeffizienzthema alleine betrachtet – also in der Nutzenphase eines Produkts – nur ein Aspekt ist. Aber wenn ich die Energieeffizienz im Kontext der Kreislaufwirtschaft sehe, dann habe ich eine direkte Schnittstelle zur Digitalisierung. Also wenn ich den Energieverbrauch möglichst effizient halten möchte, muss ich mit Rohstoffen effizient umgehen. Das heißt, ich muss einen Kreislauf führen. Sonst muss ich z. B. das Aluminium zehnmal produzieren, so kann ich das Aluminium im Kreislauf führen, habe es einmal produziert und kann es dann weiterverarbeiten. Und genau dazu brauche ich die Digitalisierung. Ich muss Transparenz haben: Wo sind die Warenströme? Wo geht es hin? Wo kommt das her? Was genau steckt in den Materialien, die ich z. B. weiterverarbeite? Kann ich das wieder verwerten? Da entstehen momentan mannigfaltig neue Geschäftsmodelle.

Auf der gleichen Grundlage, der Mehrfachnutzung von Resourcen, setzt die Sharing Economy an. Ohne die Digitalisierung wäre so ein Konzept nicht denkbar. Spielt diese spezielle Form von Teilen in Ihrem Beratungsalltag eine Rolle?
Ja, sie spielt eine Rolle. Wir sehen hier ein immer stärkeres Wachstum. Für das Weltwirtschaftsforum haben wir eine Studie zu dem Thema gemacht und sind damit auch auf dem Economic Forum in Davos aufgetreten. Speziell die großen Unternehmen – die diese Studie auch bei uns angefragt haben – sehen die Sharing Economy als „Emerging Trend“, also es wächst, es entsteht, genauso wie die Digitalisierung.

Prof. Michael Kuhndt, CSP Centre gGmbH

Nutzen Unternehmen explizit Konzepte wie die Sharing Economy, wenn sie neue Geschäftsmodelle generieren?
Die Frage ist ja, wie sieht unsere Zukunftsgesellschaft aus? Vielmehr: Wie wollen wir, dass unsere Zukunftsgesellschaft aussieht? Fakt ist: Produkte werden künftig eine untergeordnete Rolle spielen. Die Zukunft des Produkts liegt in der „Subscription-Economy“. Es geht darum, dass man ein Produkt als Dienstleistung versteht. Es entsteht ein Produkt-Dienstleistungs-System. Schauen sie sich Philips an, die sagen: Wir stellen nicht mehr die Lampe her, sondern wir verkaufen Licht, wir verkaufen Helligkeit. Das Geschäftsmodell dazu sieht so aus: Unternehmen kommen zu Philips und sagen: „Kommt doch bitte in unser Büro herein und stellt sicher, dass die Dienstleistung ‚ausgeleuchtete Arbeitsplätze‘ sichergestellt wird.“ Wir als Kunden wollen gar nicht die Produkte selbst kaufen. Diese Entwicklung ist hochinteressant. Es geht also weg vom Besitzen hin zum Nutzen. Übrigens eine Entwicklung, die die Digitalisierung hervorgebracht hat. Genau dieser Gedanke steckt auch hinter der Sharing Economy: Muss ich alles, was ich nutzen will, auch besitzen? Das heißt, wenn wir konkret mit Unternehmen arbeiten, ist das genau auch ein Aspekt unserer Zusammenarbeit, über den die Unternehmen dann auch sprechen wollen. Egal ob Tourismusbranche oder Textilien … Muss man Textilien zum Beispiel immer wieder neu kaufen? Oder könnte man auch sagen: Weil sich der Geschmack, das eigene Gewicht oder Lebensumstände geändert haben, geben wir Textilien fortan eine „Nutzenphase“? Nicht nur wir bringen ein solches Thema an, sondern eben auch konkrete Nachfragen von Großunternehmen, auch vom Handel. Ein weiteres Beispiel aus der Möbelbranche: Möbel, muss ich die immer verkaufen …? Täte es meinem Geschäft nicht viel besser, wenn ich das tatsächlich nur nutzen lasse und ich bekomme es dann wieder zurück? Nebeneffekt: So habe ich für zukünftige Produkte und Weiterentwicklungen gleichzeitig meine Ressourcen im Kreislauf und spare effektiv beim Einkauf.

Geht der Trend also in Richtung „Product as a Service“?
Genau, das ist es. Nicht alles besitzen, aber jederzeit alles nutzen. Das geht natürlich auch wieder einher mit der Digitalisierung. Als Konsument habe ich die mit dem Smartphone ja quasi in der Hand.

Welche Weichen sollten Ihrer Meinung nach jetzt in Politik und Wirtschaft gestellt werden?
Ich denke, das Thema Digitalisierung ist in der Politik angekommen, alle Bundesländer und die Regierung beschäftigen sich damit. Auch die Kommunen diskutieren über diese Themen. Womit sich die Politik beschäftigen muss, sind die Rahmenbedingungen. Treffen Konzepte wie Sharing Economy, Circular Economy oder Subscription-Economy oder hierauf basierende, neue Geschäftsmodelle auf Rahmenbedingungen, die mit ihnen vereinbar sind? Die große Sorge meinerseits besteht darin, dass wir Teile der Gesellschaft von der Digitalisierung entkoppeln: Geschäftsmodelle und auch die sogenannten „Digital Natives“ verändern sich viel schneller als Politik und andere Teile der Gesellschaft es überhaupt können. Nehmen Sie Uber: Hier steht ein Bedürfnis nach Mobilität einer ganzen Branche entgegen, die von ihrem Beruf auch leben können will – und soll. Dafür werden „Sub-Systeme“ immer interessanter. „Spielwiesen auf Stadtebene“, um neue Geschäftsmodelle wie z. B. Energieeffizienz, Smart Home und IoT gemeinsam mit dem Bürger „auszuprobieren“. Dafür brauchen wir einen rechtlichen Rahmen.

Man bräuchte Regelungen für Modell-Städte oder Modell-Viertel?
Genau richtig. So kann man auch die Akzeptanz-Probleme quasi in kleinen Labs, in kleinen Systemen, beseitigen helfen. Erkennen die Menschen den Nutzwert einer Neuerung, wie etwa der „Smart City“, dann lässt sich das auch schnell auf Bundesebene skalieren. Hier muss die Politik dringend Regeln finden.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Zum Interviewpartner

Digitalisierung und Nachhaltigkeit bieten viele Optionen

von Bernward Janzing

Es gibt viele Möglichkeiten, mit Algorithmen Abläufe in Wirtschaft und Gesellschaft im Sinne einer effizienten Ressourcennutzung zu optimieren: Energieverbraucher, die bedarfsgerecht gesteuert werden, sind ein bekanntes Beispiel. Ein weiteres ist eine ausgeklügelte Transportlogistik, die Ladekapazitäten von Fahrzeugen optimal ausnutzt oder durch regionale Belieferung der Kunden Ferntransporte von Waren sogar vermindert. Ein wichtiges Feld ist außerdem die gemeinsame Nutzung von Gütern, die heute mit dem Begriff der „Sharing Economy“ umschrieben wird. Sie lässt sich durch den Einsatz digitaler Systeme optimieren, weil Anbieter und Interessenten von Gütern oder Dienstleistungen schneller zusammenfinden können.

Mit dem Aufbau der Internetkommunikation und der anschließenden Marktdurchdringung mobiler Geräte war der Einzug der Digitalisierung in unternehmerische Prozesse nur eine logische Folge. Dienstleistungen, die zuvor in der analogen Welt zwar schon angeboten wurden, aber oft einigen zeitlichen Vorlauf brauchten (zum Beispiel Mitfahrzentralen oder Car-Sharing), werden nun in der digitalen Welt per App optimiert und quasi in Echtzeit angeboten. Die Kundenzahlen nehmen seither deutlich zu.

Somit kommen mit der fortschreitenden Digitalisierung erhebliche Veränderungen auf die Gesellschaft zu. Doch so sehr die neuen Angebote den Menschen manches erleichtern, so sehr haben sie auch eine andere Seite, mit der sich die Gesellschaft beschäftigen muss und wird. Die neuen Angebote werden zum Beispiel immer mehr persönliche Daten nutzen. Manche werden auch Bewegungsprofile erstellen, wieder andere Lebensgewohnheiten erfassen, wie es zum Beispiel mit dem elektronischen Stromzähler („Smart Meter“) möglich ist. Allenthalben entstehen somit Daten, die den persönlichen Tagesablauf und die Gewohnheiten in mehr oder weniger großen Teilen abbilden können.

Entsprechend gibt es in der öffentlichen Debatte natürlich auch viele Aspekte, die bei den Bürgern auf Vorbehalte stoßen und mit denen sich Industrie und Politik auseinandersetzen müssen. Zum einen ist das die Datensicherheit aus IT-Sicht: Sind die Systeme ausreichend gegen Hacker geschützt? Vor allem dort, wo es um vitale Strukturen der Gesellschaft geht (zum Beispiel in der Stromversorgung), müssen Cyber-Angriffe absolut ausgeschlossen werden. Zum zweiten sind die Ängste der Menschen ernst zu nehmen, die sich durch ihre zunehmend erhobenen persönlichen Daten, wie Bewegungsprofile und Kommunikation, allzu gläsern fühlen. Eine Datenaggregation, die am Ende keine Rückschlüsse auf die einzelne Person mehr ermöglicht, kann die Akzeptanz deutlich erhöhen.
Und drittens fürchten Bürger zumindest in einigen Lebensbereichen auch eine „Entmündigung“ durch die Algorithmen und die neuen Abhängigkeiten von der Technik. So ist die Vorstellung, das Auto werde künftig von einem Computer gelenkt, für viele Menschen heute noch gewöhnungsbedürftig. Kritisch zu hinterfragen ist bei allen Ansätzen zugleich auch immer, in welchen Einsatzgebieten der technische Aufwand sowohl aus wirtschaftlichen wie auch aus ressourcenökonomischen Gründen gerechtfertigt ist. Denn der Aufbau einer digitalen Infrastruktur kostet natürlich erst einmal Geld, und er braucht durch die Fertigung der elektronischen Komponenten auch erst einmal Ressourcen. Manche Ansätze der Digitalisierung im Wohnumfeld – etwa die Waschmaschine, die bei günstigen Strompreisen startet – haben sich bisher nicht durchsetzen können, weil die Wirtschaftlichkeit für die Konsumenten nicht gegeben war.
Nur dort, wo der spätere Vorteil die anfänglichen Investitionen tatsächlich überwiegt, wird im Sinne der Nachhaltigkeit künftig ein Gewinn zu erzielen sein. Diese Ansätze zu finden, stellt die Herausforderung der Zukunft dar.

Neurofinance

Ein neuer Ansatz sorgt für Furore an den Kapitalmärkten: Roland Ullrich und Bernd Weber gewähren Einblicke in ein vielversprechendes Forschungsgebiet.

Herr Prof. Weber, noch ist die Beratung in Banken eine Bastion der menschlichen Intelligenz. Wann werden selbstlernende Computersysteme mit Siri-Stimme und Avatar-Gesicht den klassischen Kundenberater ersetzen?
Man sieht derzeit in vielen Bereichen der Kundeninteraktion die Nutzung von Avataren. Dies stößt bei vielen Verbrauchern auf dem jetzigen Stand der Technik aber auch auf große Skepsis bis Ablehnung. Menschen reagieren sehr sensibel auf ihr Gegenüber und Nuancen in sozialen Interaktionen. Bei den aktuellen Systemen der „künstlichen Berater“ ist dies sehr weit von natürlichen Interaktionen entfernt und führt eher zur Ablehnung durch die Kunden. Selbstlernende Algorithmen, die auf die individuellen und eben auch schwankenden emotionalen Bedürfnisse der Kunden eingehen, wird es auf absehbare Zeit nicht geben.

Herr Ullrich, Sie schreiben, der Schwerpunkt Ihrer Konferenz ist der Transfer von Forschungsergebnissen in die Praxis der Finanzindustrie, welche Trends machen Sie aus?

Roland Ullrich

Die spannenden Erkenntnisse der modernen Hirnforschung sind mittlerweile in den Management- und Finanzkreisen der deutschen Wirtschaft angekommen. Neurofinance macht sich die neuesten neurowissenschaftlichen Methoden und Technologien zunutze, um das Verhalten der Menschen an den Finanzmärkten zu analysieren. Dabei hat sich herausgestellt, dass wir trotz all dem Wissen und der Informationen, die wir „real time“ zur Verfügung haben, nicht in der Lage sind, vernünftig mit Geld umzugehen. Aus der Evolution stammende, unbewusste Verhaltensmuster spielen uns allzu oft einen Streich.  Denn unsere uralten Gehirnsysteme sind das Ergebnis eines evolutionären Selektionsprozesses. Sie sind uns zum Überleben gegeben und einfach nicht dafür geeignet, rationale Entscheidungen an komplexen Finanzmärkten zu treffen. Finanzmärkte folgen völlig anderen Gesetzen. Die gute Nachricht ist, dass unser Gehirn vollkommen plastisch ist, d. h. lebenslang wandelbar. Wir können lernen, die Kontrolle über unsere automatischen Gehirnaktivitäten zu erlangen. Hirnforscher sind heute in der Lage, Anlegerverhalten vorherzusagen und zu beeinflussen. Mit dem Bewusstsein, wie unser Gehirn finanzielle Entscheidungen trifft, können wir Methoden erlernen, die uns helfen, im ökonomischen Sinn rationaler, d. h. besser mit Geld umzugehen. Hierzu zählen zum Beispiel Mindfulness-Training, Neurofeedback und Neurocoaching. Bei vielen angelsächsischen Investoren sind diese Methoden populär. Zusammen mit der DFVA wollen wir die Ergebnisse der Neurofinance Forschung in Deutschland bekannter machen und eine Plattform für die verschiedenen Anwendungsmöglichkeiten bieten. Gleichzeitig zeigt der Trend zur Digitalisierung der Finanzbranche, wie irrationales Anlegerverhalten mithilfe kognitiver Technologien ausgeschaltet werden kann. Algorithmen-basierte Anlageprodukte und digitales Asset-Management können dazu beitragen, dass Anleger und Investoren ihre Emotionen besser in den Griff bekommen.

Herr Ullrich, welche Schwerpunkte und Themen haben Sie für die erste „Neurofinance-Konferenz“ gewählt?
Gemeinsam mit der DVFA haben wir ein Konferenzkonzept entwickelt, welches aus zwei Bausteinen besteht. Zu Beginn geht es darum, die spannenden Erkenntnisse der Neurofinance-Forschung den Teilnehmern verständlich zu machen. Mit dem Bewusstsein, wie emotional und oftmals irrational wir finanzielle Entscheidungen treffen, geht es im zweiten Baustein darum, dieses Wissen in die Praxis zu übertragen und Anwendungsmöglichkeiten vorzustellen. Liegt die Zukunft in kognitiven Trainingsmethoden zur Verbesserung finanzieller Entscheidungsprozesse oder werden uns bald selbstlernende Algorithmen und Künstliche Intelligenz steuern? Mensch oder Maschine? Oder lässt sich menschliche Intelligenz mit kognitiven Technologien verbinden?
Herr Prof. Weber, können Sie uns kurz und bündig erklären, was wir unter den Begriffen „Neurofeedback“ oder „Mindfulness“ verstehen dürfen?
Diese verschiedenen „Interventionen“ stellen Verfahren dar, die dazu dienen sollen, die Prozesse von Entscheidungen zu verbessern. Bei Neurofeedbackmethoden werden direkt biologische Signale visualisiert und den Nutzern zurückgespielt. Diese sollen dann lernen, bestimmte neuronale Muster zu verstärken oder abzuschwächen. Hier existieren eine Reihe von Studien, v.  a. im medizinischen Kontext, dass diese Feedbackmethoden in der Lage sind, z. B. die Symptome bei Angst- oder Suchterkrankungen zu verbessern. Mindfulness – oder ähnliche Traingsverfahren – sollen dazu dienen, sich seiner emotionalen Zustände bewusster zu werden und damit in der Lage zu sein, diese besser in Entscheidungen zu nutzen. Auch diese Verfahren sind im Bereich der Psychotherapie stark etabliert und zeigen auch positive Effekte für ökonomisches Entscheidungsverhalten.

Herr Prof. Weber, wo sehen Sie wichtige Aspekte für die Zukunft der Forschung im Bereich der Neurofinance?

Prof. Bernd Weber

In den letzten Jahren haben wir extrem viel über basale Mechanismen von Entscheidungen gelernt. Wir stehen trotzdem noch am Anfang. Obwohl sich viele Studien mit Themen wie „nudging“ von Finanzentscheidungen beschäftigt haben, existieren noch eine Reihe spannender Fragen, welche helfen könnten, Interventionen oder Unterstützungen von Entscheidern zu verbessern. Ein wichtiger Aspekt dabei wäre z. B., die riesige Anzahl von Entscheidungsverzerrungen, die bisher beschrieben sind, auf eine geringe Anzahl von Prinzipien zu reduzieren, welche es ermöglichen würde, bessere Modelle von Entscheidungen zu entwickeln. Aber auch ganz konkrete Fragen wie: Welche Rolle spielen soziale Medien oder genereller soziale Interaktionen in Finanzentscheidungen? Wieso sind viele Privatinvestoren bereit, größere Gebühren für aktiv gemanagte Fonds zu bezahlen, wobei ein Großteil der Daten zeigt, dass günstigere z. B. Indexfonds eigentlich die gewinnbringendere Wahl für sie wären?

 

 

 

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Prof. Bernd Weber

Informationen zu Roland Ullrich

Digital Finance

FinTechs gehen mit frischen Ideen auf den Markt und verändern diesen nachhaltig. Neue Technologien offenbaren ihr disruptives Potenzial.

von Andreas Fuhrich

Zwar begann die Digitalisierung der Banken mit dem Online-Banking schon im letzten Jahrtausend, doch weitere Innovationen blieben lange aus. Für den Knotenpunkt aller Geldgeschäfte galt der Bankkunde als Selbstverständlichkeit und musste nicht mit technischen Neuerungen gebunden werden. Selbst das Online-Banking diente mehr dem Stellenabbau und der damit verbundenen Gewinnoptimierung als dazu, einen wirklichen Service anzubieten. Heute noch beworbene Tagesgeldkonten wirken wie absurde Überbleibsel aus der Zeit, in der sie mit lukrativen Zinsen als Online-Banking-Marketingmaschine fungierten.
Seit einigen Jahren verändert nun die aufstrebende FinTech-Branche den Finanzmarkt. Dem Kundenwunsch nach mehr digitalen Lösungen, der vor allem durch die Entwicklungen der Mobile Devices mit ständigem Internetzugriff noch verstärkt wird, soll entsprochen werden. Vormals ineffiziente und unflexible Geschäftsfelder werden revolutioniert oder zumindest den neuen technologischen Möglichkeiten angepasst. Die Finanzkrise 2008, das zerstörte Vertrauensverhältnis zu den Großbanken, diente dabei als Katalysator für die junge Branche, die offen in Konkurrenz zu den alteingesessenen Instituten tritt.

Durch den Druck der FinTechs und der Digitalisierung der Finanzbranche haben mittlerweile auch traditionelle Bankhäuser erkannt, dass sie aktuelle Techniken einsetzen müssen, um den Bedürfnissen der Kunden zu entsprechen. Zwar arbeitet man jetzt verstärkt an der Modernisierung und Technologisierung der gesamten Dienstleistungskette, kann jedoch nicht mit der Innovationskraft eines agilen Start-ups mithalten. Verschärfte Regulierungen und neue BIZ-Eigenkapitalvorschriften erschweren  den Prozess zusätzlich. Wohl deshalb treten viele Banken seit einiger Zeit nicht mehr nur als Konkurrent, sondern als Partner von FinTechs auf. So erhalten sie die Möglichkeit, zeitnah ihren Kunden Innovationen anzubieten, ohne eigene Forschung betreiben zu müssen. Auch FinTechs haben erkannt, dass durch Partnerschaften Win-win-Situationen entstehen. Die vielen Regularien machen es für Start-ups fast unmöglich, die Bedingungen für eine Banklizenz zu erfüllen, die für manche Dienstleistungen, wie z. B. die Kreditvergabe, aber zwingend erforderlich ist. Anstatt sich selbst mit den hohen Anforderungen auseinanderzusetzen, übernimmt jetzt die lizensierte Partnerbank die endgültige Abwicklung.

Die Innovationen der Finanztechnologie beginnen dabei gerade erst, die Branche immer stärker und immer schneller umzukrempeln. Eine accenture-Studie belegt, dass die Investitionen in FinTechs von weltweiten 1,791 Milliarden Dollar im Jahr 2010 auf über 22 Milliarden 2015 anwuchsen.(1)
Allein in den letzten beiden Jahren machten zwei Schlagwörter auf sich aufmerksam, denen ein ungeheures disruptives Potenzial zugesprochen wird. 2015 wurden weltweit über 800 Millionen Dollar in InsurTech-Start-ups investiert,(2) also in Unternehmen, die neue Lösungen für die Versicherungsbranche liefern. Laut einer McKinsey-Studie könnte dadurch in den nächsten zehn Jahren jeder vierte Arbeitsplatz in der westeuropäischen Versicherungsbranche verloren gehen.(3) 2016 sorgte der Begriff „Blockchain“ für Aufsehen. Ob die Technologie hinter dem Bitcoin tatsächlich dem disruptiven Potenzial gerecht wird, welches ihr zugesprochen wird, bleibt abzuwarten.

Quellen:

(1)    accenture-Studie: „Fintech and  the evolving landscape: landing points for the industry“ von: Julian Skan, James Dickerson und  Luca Gagliardi, 2016. URL: https://www.fintechinnovationlablondon.co.uk/pdf/Fintech_Evolving_Landscape_2016.pdf (Abgerufen: 16. November 2016).
(2)    Seite „Versicherungstechnologie“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 26. August 2016, 13:13 UTC. URL: https://de.wikipedia.org/w/index.php?title=Versicherungstechnologie&oldid=157401432 (Abgerufen: 16. November 2016, 09:44 UTC).
(3)    McKinsey Studie: „Automating the insurance industry“ von: Sylvain Johansson und Ulrike Vogelgesang, 2016, URL: https://www.mckinsey.com/industries/financial-services/our-insights/automating-the-insurance-industry (Abgerufen: 16. November 2016).

Neues Lizenzmanagement

Die Lizenzmodelle der Softwareindustrie wandeln sich im Zuge des Cloud-Computings. Neue Abrechnungsmodelle müssen kalkuliert werden.

Die TREND-REPORT-Redaktion sprach mit Prof. Dr. Andreas Gadatsch, Hochschule Bonn-Rhein-Sieg, und Dipl.-Kfm. Stefan Brassel M. A., Bechtle AG, über zukünftige Lizenzpraktiken und die damit einhergehenden Folgen für Unternehmen.

Herr Prof. Dr. Gadatsch, wie werden cloudbasierte Software- und Infrastruktur-Services die heutige IT-Nutzungskultur in den Unternehmen verändern?
Die IT-Leistungen vermischen sich zunehmend mit Business-Leistungen. Der Unterschied zwischen IT und Business verschwindet immer mehr. Anwender werden Leistungen beziehen und nicht danach fragen, ob „die eigene IT das kann oder nicht“. Dies bedeutet, dass der CIO bzw. der CDO mehr in die Rolle des Moderators, Beschaffers und Koordinators wechselt und Innovationen ganzheitlich vorantreiben muss.

Und was ändert sich im Kontext der jetzigen Lizenzpraktiken?
In der Vergangenheit verbanden Kunden mit „Lizenzierung“ lediglich softwaretechnologische sowie lizenzrechtliche Fragestellungen. Software- und Businessstrategie wurden als getrennte Bereiche eingestuft und von verschiedenen Personen verantwortet. In diesem Zusammenhang tauchte die Frage nach dem eigenen IT-Betrieb bzw. internen Unternehmensprozessen – insb. die Fragestellung nach dem sogenannten „Wertbeitrag“ der IT zum Unternehmenszweck im Rahmen der Servicedienstleistung – auf, welche die IT den Fachabteilungen anzubieten hatte. Die Entscheider im Unternehmen hatten oftmals lediglich einen Fokus auf den finanziellen Aspekt. Zudem waren Kaufentscheidungen im Standardsoftwareumfeld oftmals durch die Compliance-Überprüfungen der Lizenzgeber „beeinflusst“ und weniger technologisch getrieben. Wenn Unternehmen sich mit Outsourcing befassten, passierte dies i. d. R. unabhängig von der Softwarebeschaffung, im Rahmen einer grundsätzlichen Strategiediskussion, oftmals vor dem Hintergrund von Kostensenkungsaspekten. Bedingt durch die „Verschmelzung von Software und Hardware sowie Serviceanteilen“ zu Cloud-Diensten, kann man im Rahmen von „Lizenzierung“ nun über Outsourcing durch die Hintertür sprechen. Der Eingriff in Unternehmensprozesse ist teilweise enorm (als Beispiel sei hier nur die technologische Abhängigkeit von Diensten wie Office 365 vom Design des „Active Directory“ eines Kunden genannt), die Anbieterauswahl stark eingeschränkt und SLAs und Haftungsfragen können i. d. R. nicht verhandelt werden. In diesem Zusammenhang gilt es zudem, die Grundsätze der „Principal Agent Theory“ und des Transaktionskostenansatzes im Auge zu behalten.

  • Durch Cloud-Dienste entsteht ein enormes Einsparpotenzial im IT-Betreib, jedoch sollte im Vorfeld eine ausführliche technische Evaluation und eine Analyse der zur Diskussion stehenden Vertragswerke stattfinden.
  • Wo der Einfluss auf die SLAs von großer Bedeutung ist, kann es sinnvoll sein, auf „lokale“ Outsourcing-Partner zu setzen, mit denen Vertragsinhalte noch verhandelt werden können.
  • Früher sorgte der IT-Controller einfach für möglichst niedrige Lizenzgebühren und Mengenvolumina, heute muss er er einen vollständigen Business-Case erstellen bzw. bewerten und ggf. nach Alternativen suchen.

Herr Brassel, wie reagieren Unternehmen am besten und schnell darauf?
Entscheidend ist im ersten Schritt, dass sich die IT-Abteilungen der Unternehmen der Auswirkungen dieser Entwicklung bewusst werden und der CIO in seiner Rolle als Schnittstelle zum Management das Thema „Softwarebeschaffung“ unter den neuen Gegebenheiten auf Managementebene strategisch diskutiert. Hieran schließt sich die Frage nach den Anforderungen an die interne IT an (Wertbeitrag der IT zum Unternehmenszweck). Es ist zu klären, welche der erbrachten Leistungen eher „Commodity“ ohne strategische Relevanz sind und welche Leistungen als erfolgskritisch für die Unternehmensstrategie angesehen werden können.

Was müssen Unternehmen jetzt konkret tun?

Dipl.-Kfm. Stefan Brassel M. A.

Zu empfehlen ist hier eine Analyse und Clusterung der Unternehmensdaten. Welche Daten sind für den Unternehmenserfolg so entscheidend, dass sie nicht herausgegeben werden können, selbst wenn sie verschlüsselt wurden, und welche Daten könnte man auslagern? Im Allgemeinen bietet es sich an, über die Auslagerung von Basis-IT-Services wie Mail, Collaboration, Communication und DataShare nachzudenken. Denn hier lassen sich neben Standardisierungsüberlegungen und Einsparpotenzialen im IT-Betrieb insb. auch Optimierungen im Bereich der Administration realisieren. Dies erfordert jedoch im Vorfeld neben einer ausführlichen technischen Evaluation auch eine Analyse der zur Diskussion stehenden Vertragswerke in Bezug auf „Service Level Agreements“ (SLA), Pönalen (Strafen für SLA-Verletzungen), Datenschutz, Laufzeiten und Kündigungsfristen. Auch gilt es, den „regulären“ Unternehmensbetrieb im Verhältnis zu extrem störempfindlichen Unternehmensbereichen, wie z. B. einem Produktionsbetrieb, zu analysieren und für den IT-Support jedes einzelnen Unternehmensbereiches eine gesonderte „Make or buy“-Entscheidung zu treffen.

 

 

 

Herr Prof. Dr. Gadatsch, wie wirkt sich der Wandel auf das IT-Controlling aus?

Dr. Andreas Gadatsch, Hochschule Bonn-Rhein-Sieg

Die Rolle des IT-Controllers besteht ja für viele immer noch im jährlichen Aufstellen von IT-Budgets und deren monatlicher Kontrolle. Diese Eingrenzung ist historisch bedingt nachvollziehbar, weil früher hohe IT-Kosten „verdächtig“ waren und die Unternehmensleitung bestrebt war, die IT-Kosten möglichst zu senken. Beim klassischen Lizenzcontrolling hat dieses Modell noch funktioniert. Der IT-Controller sorgt für möglichst niedrige Lizenzgebühren und Mengenvolumina in Kooperation mit dem IT-Einkauf. Heute wird eher danach gefragt, welche IT-Investitionen sinnvoll sind und wie sie sich auf die Geschäfte des Unternehmens auswirken. Im Rahmen der aktuellen Veränderungen müssen komplexe Prozesse bewertet werden. Dies macht die Aufgabe des IT-Controllers wesentlich schwieriger. Er muss nun einen vollständigen Business-Case erstellen bzw. bewerten und ggf. auch nach Alternativen suchen.
Müssen neue Attribute, Begriffe oder Rollen für das Risikomanagement gefunden werden?
Neue Begriffe sind immer gut für Berater, Journalisten und Wissenschaftler. Oft findet man aber den bekannten alten Wein in neuen Schläuchen. Es kommt aber immer auf die Inhalte an. Das Risikomanagement war bislang im IT-Controlling nur ein Thema von vielen. Es ist aufgrund der veränderten Rahmenbedingungen wahrscheinlich, dass die Aufgabengebiete IT-Controlling und IT-Risikomanagement enger zusammenwachsen. Vielleicht ist Risikomanagement in Zukunft eine Kernaufgabe des IT-Controllers.

Herr Brassel, quasi die Renaissance der SLA?
Eher eine ganz neue Wahrnehmung der Bedeutung von unternehmensinternen SLAs. Den Unternehmen muss bewusst sein, dass sie etwas „Outsourcen“ um Geld zu sparen, womit der beteiligte Dienstleister aber dennoch Geld verdienen möchte. So etwas funktioniert nur über Skalierung bzw. Standardisierung. Die SLAs im Rahmen von Diensten wie z. B. Office 365 der Firma Microsoft sind im Prinzip nicht verhandelbar. Der Dienst ist auch nur oberflächlich individuell „konfigurierbar“. Die Prozesse, Verfügbarkeit und Haftungsfragen sind weitestgehend vom Anbieter vorgegeben und weltweit standardisiert. Das wirft im Bezug auf SLAs ganz neue Fragen auf. Wo vom Nachfrager maximale Flexibilität und Verfügbarkeit gefordert werden, scheiden solche hochstandardisierten Dienste eher aus. Wo der Einfluss auf die SLAs von großer Bedeutung ist, kann es nach wie vor sinnvoll sein, auf „lokale“ Outsourcing-Partner zu setzen, mit denen die Vertragsinhalte noch verhandelt werden können. Somit könnte man eher von einer Renaissance der grundsätzlichen Make-or-buy-Strategie in einem Unternehmen sprechen, des grundsätzlichen Sourcingansatzes vor dem Hintergrund der Anforderungen an SLAs. Zumindest was IT-Dienste betrifft.

Herr Prof. Dr. Gadatsch, CIO, CEO und CDO: Wie sieht die neue Rollenverteilung im Kontext der „transformierten IT“ aus?
Die Rolle des CIO wurde über 20 Jahre lang diskutiert, trotzdem finden Sie in den Unternehmen immer noch sehr unterschiedliche Sichten. Die Rolle des CDO wird ja gerade erst langsam klarer, wenngleich die Diskussion noch im vollen Gang ist. Egal, wer die digitale Transformation treibt, ein klassischer IT-Leiter, ein CIO oder ein CDO: Sie bleibt im Kern Chefsache und damit ist der CEO immer involviert.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Prof. Dr. Andreas Gadatsch

Informationen zu Dipl. Kfm Stefan Brassel M.A.

Ein Kampf gegen Windmühlen?

Gut gerüstet mit Verschlüsselungstechnologien und einem zuverlässigen Key-Management werden Cloud-Risiken für Unternehmen beherrschbar.

von Thorsten Krüger

Geringe Kosten, hohe Flexibilität – Cloud-Computing ist längst kein Schlagwort mehr, sondern aus der Unternehmenswelt nicht mehr wegzudenken. Rund ein Drittel aller IT-Manager und Sicherheitsverantwortlichen nutzt IT heute schon ausschließlich aus der Cloud, mehr als zwei Drittel erachten cloudbasierte Services und Plattformen als wichtig für ihr Geschäft. Allerdings stehen viele vor der Herausforderung, in Umgebungen fernab ihres eigenen Rechenzentrums die Kontrolle über Daten zu behalten und alle Richtlinien zu erfüllen. Jeder Zweite hält die gewählte Cloud-Sicherheitsstrategie und die Einhaltung von Datenschutzrichtlinien im eigenen Unternehmen für unzureichend. Vor allem sensible Informationen werden zu sorglos mit Geschäftspartnern, Auftragnehmern oder Händlern geteilt.
Häufig kommen zudem unzureichende Kontroll- und Sicherheitsmaßnahmen zum Einsatz, um sensible Daten in der Wolke zu schützen. Der Fokus wird oft auf Intrusion-Prevention, Firewall, Content-Security oder Access-Point-Security gesetzt, um Infrastrukturen abzusichern. Solche klassischen Sicherheitsmaßnahmen greifen in Cloud-Umgebungen zu kurz.

Obendrein erschwert das Phänomen Schatten-IT die Sicherheitsvorkehrungen. Fast die Hälfte aller Cloud-Services wird nicht von den IT-Verantwortlichen selbst, sondern von anderen Abteilungen betrieben. IT-Sicherheitsexperten sind auch selten in die Entscheidung involviert, welche Cloud-Applikationen oder -Plattformen zum Einsatz kommen. Das Ergebnis: Fast die Hälfte aller Geschäftsdaten in der Cloud steht nicht unter der Kontrolle der IT-Abteilung. Dass vor diesem Hintergrund der Überblick über die eigenen Applikationen, Plattformen oder Infrastruktur-Services verloren geht, ist kaum verwunderlich. Gefährdet sind vor allem vertrauliche und sensible Daten wie Kundeninformationen, E-Mails, Personalakten und Zahlungsinformationen, die häufig in der Cloud gespeichert werden.

Der Versuch, immer neue Sicherheitslücken zu schließen, gleicht einem Kampf gegen Windmühlen, und auch der Ansatz, die Security-Compliance von Cloud-Providern untersuchen zu wollen, entpuppt sich oft als aussichtsloses Unterfangen. Um sensible Informationen effektiv zu schützen, müssen die Unternehmen die Kontrolle über ihre Daten behalten. Im Zentrum der Sicherheitsbemühungen sollte ein datenzentrierter Ansatz stehen, mit dem sich sowohl Kunden- als auch Geschäftsdaten über alle täglich verwendeten Cloud-Services hinweg schützen lassen. Technologien wie Authentifizierung in Verbindung mit Verschlüsselung, Tokenization und anderen kryptografischen Lösungen kommen dafür in Frage. Dreh- und Angelpunkt muss hierbei sein, dass Unternehmen ihre kryptografischen Schlüssel nicht aus der Hand geben.

Der Schlüssel zu mehr Sicherheit

Das Identitätsmanagement in der Cloud empfinden viele als schwieriger als in On-Premise-Umgebungen. Die meisten Unternehmen setzen noch immer auf Passwörter und Nutzernamen, um Identitäten zu verifizieren und Nutzerzugänge zu schützen. Die Erkenntnis, dass das für ein hohes Sicherheitsniveau nicht ausreichend ist, setzt sich jedoch immer mehr durch.
Erst eine Multifaktor-Authentifizierung sorgt dafür, dass sich Cloud-Zugänge von Mitarbeitern und Dritten zuverlässig überwachen lassen. Dabei werden mindestens zwei voneinander unabhängige Faktoren für die Authentifizierung von Kunden genutzt. Konkret können dies Dinge sein, die der Kunde weiß (Passwort, Sicherheitsfrage), die er besitzt (Mobiltelefon, Token) oder etwas, das ihn persönlich auszeichnet (Fingerabdruck, biometrische Gesichtserkennung).

Kernaussagen

  • Jeder zweite IT-Manager hält die Cloud-Sicherheitsstrategie im eigenen Unternehmen für unzureichend.
  • Klassische Sicherheitsmaßnahmen greifen in Cloud-Umgebungen nicht.
  • Fast die Hälfte aller Geschäftsdaten in der Cloud wird nicht von der IT-Abteilung kontrolliert.
    Durch Technologien wie Verschlüsselung, Tokenization und andere kryptografische Lösungen behalten Unternehmen die Kontrolle über ihre Daten in der Cloud
  • Mit Multifaktor-Authentifizierung lassen sich die Cloud-Zugänge von Mitarbeitern und Dritten zuverlässiger überwachen als mit Passwörtern.
  • Verschlüsselung gewährleistet „Vertraulichkeit, Integrität und Verfügbarkeit“, sowohl bei mobilen Geräten als auch in der Cloud.

Bis dato verschlüsselt nur rund ein Drittel der Unternehmen sensible oder vertrauliche Daten direkt in der cloudbasierten Applikation. Sauber und ohne Hintertüren implementiert trägt Verschlüsselung dazu bei, die drei Sicherheitsziele „Vertraulichkeit, Integrität und Verfügbarkeit“ zu erfüllen. Dabei kann die Technologie zwar nicht alle Aufgaben der Zugangs-, Zugriffs- und Weitergabekontrolle übernehmen, doch ohne sie sind diese Kontrollmaßnahmen kaum möglich.

Bei mobilen Endgeräten ist die Verschlüsselung nicht weniger wichtig als in der Cloud. Vor allem bei Smartphones und Tablets besteht ein hohes Verlust- und Diebstahlrisiko. Fehlt die mobile Datenverschlüsselung, können Gerätediebe und unehrliche Finder auf die vertraulichen Daten zugreifen.
Die deutschen Aufsichtsbehörden für den Datenschutz betonen: Verschlüsselung in der Cloud sollte so organisiert werden, dass die Schlüssel in der Hoheit der Nutzer verbleiben. Unternehmen sind deshalb einerseits in der Pflicht, nach Verschlüsselungslösungen Ausschau zu halten, die hinsichtlich Stärke und Algorithmus dem Stand der Technik entsprechen. Andererseits gilt es, ein zuverlässiges Key-Management zu etablieren. Das Thema Sicherheit in der Cloud wird für Unternehmen damit beherrschbar und diese können somit auch den Vorgaben bei Compliance und Governance gerecht werden. Sensible Daten sind überall und zu jederzeit geschützt.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Thorsten Krüger

Smart, jetzt wirklich?

Manch „smartes“ Gerät sieht schnell unsmart aus, wenn wichtige Regeln wie Datenschutz, Sicherheit und Nutzererwartungen nicht erfüllt werden.

von Oliver Sucker

Die fortschreitende Digitalisierung eröffnet neue Wege und Techniken in allen Bereichen des täglichen Lebens, birgt aber auch Herausforderungen, Tücken und unerwartete Fallstricke. Nicht immer bringt die Digitalisierung nur Positives, wenn sie nicht richtig angegangen wird.
Insbesondere der Datenschutz ist ein essentieller Kernaspekt, will man das Vertrauen seiner Kunden nicht auf einen Schlag verspielen. Noch wichtiger ist in diesem Zusammenhang das allübergreifende Thema IT-Sicherheit: Ohne System- und Datensicherheit ist auch kein Datenschutz möglich.

Neben all den rechtlichen und komplexen technischen Fragen darf man aber auch die Erwartungen und Wünsche des Endanwenders nicht vergessen. Wenn es nicht gelingt, Bekanntes und Bewährtes in entsprechenden Analogien aufzugreifen, stößt man – insbesondere bei älteren oder sehr tradierten Menschen – schnell auf ein Akzeptanzproblem. „Smarte“ Geräte wie Fitnesstracker, Fernseher, Überwachungskameras und Alarmanlagen oder gar Sprachassistenten sind mehrheitlich ein Graus. Öffentlich im Internet verfügbare Gesundheitsdaten, zweifelhafte Clouds in Fernost, zu denen sich IP-Kameras verbinden, die blinde Datensammelwut mancher Hersteller oder wanzenartige, permanente Raumüberwachung machen sie zu potenziellen Feinden in unseren Büros, Wohnzimmern oder gar an unserem Körper. Die „Sicherheitskamera“ wird da schnell zum Einbruchinformationssystem; die Alarmanlage, die sich per unverschlüsseltem Funk einfach abschalten lässt, gibt nur trügerische Sicherheit. Manch „smartes“ Produkt schaut da schnell dumm aus der Wäsche.

Manche Geräte sind aber auch einfach nur ärgerlich: Erst nötigen sie uns zur Anmeldung bei eigentlich überflüssigen Cloud-Diensten, über deren Sicherheit, Seriosität und Fortexistenz wir weder Kenntnis noch Kontrolle haben. Ohne die Cloud am anderen Ende wird das Gerät wertlos. Es ist zudem auch höchst fraglich, ob alles in der Cloud gespeichert werden muss, nur weil es gerade so hipp ist.
Fast alle modernen Geräte enthalten neben der Hardware auch entsprechende Software (Firmware und ggf. Betriebssystem). Diese enthält generell Fehler, linear abhängig von der Komplexität des Produkts, der Kompetenz, Sorgfalt und Kultur der Entwickler sowie dem Reifegrad des Produkts. Selbst in reifen Softwareprodukten tauchen regelmäßig Fehler auf, mitunter sicherheitsrelevante.

Sicherheitslücken müssen also durch regelmäßige Produktpflege beseitigt werden, anderenfalls wird das Produkt tendenziell immer anfälliger. Das tückische dabei ist, dass der Endanwender sicherheitsrelevante Fehler – im Gegensatz zu funktionalen Mängeln – nicht selbst erkennen kann; ein ansonsten wunderbar funktionierendes Produkt kann gespickt sein mit Sicherheitslücken.
Was ist also mit dem noch prima funktionierenden Smartphone, für das der Hersteller keine Sicherheitsupdates (mehr) liefert, wie es am PC selbstverständlich ist? Wegschmeißen oder einfach darauf hoffen, dass unsere privaten Daten schon nicht gestohlen werden, obwohl unsere Haustür sperrangelweit offen steht?

Dann ist da noch der Aspekt der Benutzerfreundlichkeit: „Smarte“ Telefone haben das Telefonieren in den Augen nicht weniger Menschen schwieriger, de facto zumindest aber umständlicher gemacht. Uhren sind gar so smart geworden, dass sie vor lauter Kraft nicht mal 24 Stunden ohne Nachladen durchhalten. Die elektronische Internetbriefmarke sieht nicht nur nicht mehr schön aus, der früher oftmals nützliche Poststempel mit dem Einlieferungsdatum fällt auch ersatzlos weg. Ein jahrzehntelang funktionierender Prozess ist so zumindest teilweise ruiniert.

All diese Probleme lassen sich durch solides Know-how und guten Willen lösen; dies wäre auch ein wesentlicher Beitrag, bestehende Akzeptanzprobleme abzubauen und die digitale Spaltung der Gesellschaft abzuwenden. Derzeit ist jedoch eher ein gegenteiliger Trend zu erkennen. Zum bekannten Abfallhaufen aus kaputten Zahlungssystemen, Zertifikatsinfrastrukturen, Mobilfunktechnologien, Routern und anderen Embedded-Geräten kommt nun u. a. noch Industrie 4.0 und das „Internet of Things“ (IoT), ob im Smart Home, vernetzten Fahrzeugen oder der Smart City.
Dass die Geräte immer stärker vernetzt sind, ist aus Anwendersicht Segen und Fluch zugleich: Die Geräte werden dadurch immer angreifbarer, ebenso kann zum Beispiel das Nutzungsverhalten ausgespäht werden. Es gilt also stets abzuwägen, ob weitere Vernetzung mehr Chancen oder mehr Risiken birgt. Gleichzeitig gilt es, Risiken zu minimieren und auch die Datenverarbeitung auf das zu beschränken, was für die Funktionalität tatsächlich nötig ist – auch wenn Unmengen an Statistiken über die eigenen Kunden manche Begehrlichkeiten wecken. Nur wenn der Anwender genau weiß, welche Daten erhoben werden und wofür, bleibt das böse Erwachen am Tag X aus.

Hersteller sollten Sicherheit und Datenschutz nicht als notwendiges Übel, sondern als solide Basis jeden digitalen Handelns verstehen. Patzer können ein Produkt oder gar ein ganzes Unternehmen in den Abgrund reißen; „Digitale Abgasskandale“ sind unter allen Umständen zu vermeiden. Diese Kernaspekte müssen dazu von Anfang an in Design und Entwicklung berücksichtigt und im Rahmen der Continous Delivery/Continous Integration oder in jedem Release permanent geprüft werden, auch die etwaigen Backend-Systeme. Penetrationstests und Audits sind hier auch in einem hohen Maße automatisierbar, sodass Aufwand und Kosten überschaubar bleiben.

Kernaussagen

  • Es muss nicht alles in der Cloud gespeichert werden. Es gilt, Risiken zu minimieren und die Datenverarbeitung auf das zu beschränken, was für die Funktionalität tatsächlich nötig ist.
  • Für den sicheren Umgang mit „smarten“ Produkten fehlt es den Endanwendern an Prüf- und Einflußmöglichkeiten. Hersteller, Importeure, Verbraucher- und Datenschutzorganisationen sind daher stärker als bisher gefordert, für sichere und datenschutzfreundliche Produkte zu sorgen.
  • Hersteller sollten Sicherheit und Datenschutz als solide Basis digitalen Handelns verstehen. Regelmäßige Sicherheitsupdates müssen garantiert beim Endanwender ankommen, im Ernstfall in wenigen Tagen oder sogar Stunden.

Eine ergänzende Möglichkeit, Ihr Vertrauen in die eigenen Produkte zu zeigen, ist das Ausschreiben von Kopfgeld-Zahlungen („Bug  Bounty“) an Sicherheitsforscher, die Probleme in Produkten finden und melden. Dies kann jedoch kein Ersatz für eine fachlich versierte Produktprüfung sein, da hier nicht sichergestellt ist, wie gut, wie tief und ob überhaupt jemand prüft. Ein mickriger Geldbetrag von wenigen Hundert Euro wird außer Kinderchen, die ihr Taschengeld aufbessern wollen, niemanden anlocken und auch keine detaillierte Produktprüfung ermöglichen.
Als Minimum sollte die Produkthomepage generell eine Kontaktmöglichkeit zum Melden von Sicherheitsproblemen bieten und konkrete Informationen zur Produktsicherheit und zu wichtigen Updates liefern. Dies setzt jedoch voraus, dass sich Anwender auch aktiv informieren, wovon mehrheitlich nicht ausgegangen werden kann.

Sicher sind die Produkte aber erst, wenn Updates auch beim Endanwender installiert sind. Dazu ist es also nötig, Updates entweder komplett automatisiert auszurollen oder zumindest einen Kanal zum Endanwender aufzubauen, über den wichtige Informationen kommuniziert werden können. Ein Informationsblatt zur Produktsicherheit mit nötigen Einstellungen, Empfehlungen und Informationsmöglichkeiten ist ebenfalls sehr nützlich.
Den Anwendern kann man nur anraten, obige Punkte in Bezug auf ihren Lieferanten zu prüfen bzw. prüfen zu lassen und die Produkte genauer zu hinterfragen. Ist zum Betrieb des Produkts eine Cloud erforderlich? Wie ist sie abgesichert und zertifiziert? In welcher Jurisdiktion werden die Daten gespeichert? Was passiert im Fall einer Insolvenz oder Übernahme?

Welche Daten erhebt ein Gerät und wozu? Gibt es ein unabhängiges Audit der Software? Ist der Quellcode einsehbar? Wie, wo, wie oft und wie lange gibt es Sicherheitsupdates? Monatlich automatisch sollte hier der Standard sein – bei akuten Problemen auch schneller – wie es große Firmen wie Microsoft oder Google vormachen.
Privatanwender können all dies natürlich nicht leisten: Hier sind Hersteller, Importeure und die Verbraucher- und Datenschutzorganisationen gleichermaßen mehr gefordert, den Bereich Software genauer ins Visier zu nehmen, ansonsten wird es die Politik tun müssen. So manches Produkt, das in deutsche Lande kommt, entspricht nicht den europäischen Datenschutzbestimmungen und ist in puncto Softwaresicherheit mangelhaft.

Denke digital. Denke analog. Dann agiere klug und balanciert, unter Abwägung von Nutzen, Risiken und traditionellen Erwartungen. Und immer daran denken: Nichts verschlimmbessern und vor allem nichts kaputt machen!

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Oliver Sucker

Cyber-Security

Komplexe IT-Bedrohungen der digitalen Ära können mit ganzheitlichen Cyber-Defense-Strategien abgewehrt werden.

von Kai Grunwitz

Prävention, Erkennung, Abwehr und Reaktion sind die Grundpfeiler einer zukunftsweisenden, ganzheitlichen Cyber-Defense-Strategie. Diese Strategie ist für alle Unternehmen essenziell, die sich erfolgreich gegen die immer raffinierter und komplexer werdenden Angriffe von Cyber-Kriminellen wehren wollen.

Die Cyber-Kriminalität übt großen Druck auf Unternehmen aus. Die Motivation der Angreifer, eine IT-Infrastruktur lahmzulegen, Daten zu stehlen oder ein Unternehmen zu sabotieren, ist dabei vielfältig. Sie reicht von der Erpressung durch professionelle Kriminelle über die Unzufriedenheit oder Rache von (Ex-)Mitarbeitern bis hin zu politischen Gründen, wenn etwa Systeme von Regierungen oder Interessenverbänden angegriffen werden. Mit einer Besserung ist nicht zu rechnen, da beispielsweise die Zahl der DDoS- oder Ransomware-Attacken seit Jahren kontinuierlich zunimmt.

Prävention, Erkennung, Abwehr und Reaktion sind die Grundpfeiler einer zukunftsweisenden, ganzheitlichen Cyber-Defense-Strategie.

Beim Schutz der eigenen IT und der Abwehr zielgerichteter Angriffe haben sich vor allem drei bisher etablierte Sicherheitsverfahren als unzureichend beziehungsweise ungeeignet herauskristallisiert: die Perimeter-Absicherung; die rein auf Zugriffsbeschränkungen ausgelegten IT-Lösungen sowie die signaturbasierte Malware-Abwehr bei Endpunkten. Probleme bereiten den etablierten Schutzmechanismen vor allem die zunehmende Vernetzung und Kommunikationsvielfalt durch n-zu-n-Beziehungen von Unternehmen mit Mitarbeitern, Lieferanten, externen Dienstleistern oder Kunden sowie die relative Trägheit der signaturbasierten Malware-Abwehr.

Paradigmenwechsel durch Cyber-Defense

In der IT-Sicherheit ist daher ein Umdenken nötig, denn nur ein ganzheitlicher Ansatz kann lückenlose Cyber-Sicherheit bieten. Zentrales Merkmal ist die Erweiterung herkömmlicher Sicherheitskonzepte, die auf dem Perimeter-Schutz basieren. Neben reaktiven Maßnahmen muss eine Full-Lifecycle-Sicherheitslösung heute auch einen aktiven Schutz umfassen. Der klassische Netzwerk-Schutzwall wird dabei um proaktive Sicherheitsmechanismen ergänzt, die sich auch auf Applikationen und Daten sowie die einzelnen Endpunkte erstrecken. Cyber-Defense steht dabei für mehr als nur die Summe einzelner Sicherheitsmaßnahmen und die Kombination punktueller Ansätze, die zum Beispiel nur eine spezifische Herausforderung wie die APT-Abwehr aufgreifen. Das bedeutet auch, dass es dabei um wesentlich mehr als das reine Infrastruktur- und Technologie-Management geht. Sie stellen in der Regel lediglich die Basis für höherwertige, weitreichendere Services dar.

Am Anfang einer Cyber-Defense-Strategie steht die Analyse des individuellen Risiko-Profils (Risk-Insight). Jedes Unternehmen weist ein solches Profil auf, das durch eine Klassifizierung und Risikobewertung der schützenswerten Daten und Prozesse ermittelt werden muss. Alle folgenden Maßnahmen bauen im Rahmen einer zukunftsweisenden Cyber-Abwehr darauf auf. Die vier zentralen Grundkomponenten der Strategie sind: Prävention, Erkennung, Abwehr und Reaktion.

Die vier Phasen des Security-Lifecycles im Überblick. Quelle: NTT

Prävention auf Applikationen, Daten und Clients ausdehnen

Der klassische Perimeter-Schutz mit E-Mail-Gateways inklusive Spam- und Malware-Filter, Next-Generation-Firewalls, VPN-Systemen oder dynamischen Sandboxing-Lösungen bietet keinen hinreichenden Schutz mehr, da er beispielsweise Business-Applikationen und Daten nicht ausreichend berücksichtigt. Lösungen wie Data-Loss-Protection oder Digital-Rights-Management schließen diese Lücken.

Für Eindringlinge sind Endpunkte wie Desktops, Tablets oder Smartphones ein immer wichtigeres Einfallstor, und deshalb ist es unabdingbar, diesen Geräten auch eine höhere Gewichtung zuzuweisen. Signaturbasierte Mechanismen können gezielte Angriffe durch Malware nur schwer erkennen und abwehren, sodass moderne, intelligente Endpunkt-Lösungen unverzichtbar sind. Das bedeutet, dass zum Beispiel mit einer stärkeren Nutzung von Micro-Hypervisor-Lösungen zu rechnen ist, die eine zuverlässige Endpunktsicherung durch Isolierung von Applikationen ermögli-chen, oder auch mit einer verstärkten Überwachung der Endpunkte, um Verhaltensauffälligkeiten und deren Verbreitung frühzeitig zu erkennen und zu bewerten. Im Hinblick auf die Prävention dürfen gerade auch aktuelle Trends und Themen wie die zunehmende Cloud-Nutzung, das Internet der Dinge oder die verstärkte Vernetzung von Produktionsanlagen, Industrial-Control-Systems oder SCADA-Systemen mit der IT nicht vernachlässigt werden.

Trotz aller Vorkehrungen: Die 100-prozentige Sicherheit bleibt eine Utopie!

Ein ganzheitliches Cyber-Defense-Konzept muss nicht zuletzt auch den Faktor Mensch berücksichtigen. Die Minimierung dieser potenziellen Schwachstelle durch die Förderung von Awareness und das Training von Mitarbeitern ist ebenfalls ein wichtiger Baustein einer präventiven Cyber-Defense-Strategie.

Früherkennung implementieren

Die zunehmende Vernetzung stellt auch neue Anforderungen an die gängige Monitoring-Praxis. Es reicht nicht mehr, sich auf Systemlogs und -warnungen zu verlassen. Die Überwachung muss vielmehr auch Verhaltensanalysen der IT-Umgebung in Echtzeit erlauben. Nur so lassen sich ungewöhnliche Aktivitäten aufdecken – etwa wenn Systeme, die nichts miteinander zu tun haben, Daten tauschen oder „stille“ interne Systeme plötzlich mit externen Systemen kommunizieren. Da Unternehmen in der Regel weder die finanziellen noch die personellen Ressourcen für solche Frühwarnsysteme aufbringen können, sollten sie die Unterstützung von Managed-Security-Services (MSS)-Anbietern anfordern, die mit ihren Security-Operations-Centern (SOC) Angriffe frühzeitig erkennen. Die Analysten in diesen SOCs analysieren mithilfe von intelligenten Tools permanent den Datenverkehr. Das versetzt sie in die Lage, aus den unterschiedlichen Informationen Korrelationen herzustellen und mit ihrer fachlichen Expertise zu bewerten.

Ein SOC sollte über eine valide globale Datenbasis für ein proaktives Sicherheits-Monitoring verfügen. Nur eine derartige globale Threat-Intelligence kann die zuverlässige Basis für die Realisierung eines umfassenden Schutzes vor akuten – auch gänzlich neuen – Bedrohungen sein. Dabei kann ein weltweit agierender Provider im Unterschied zu einem rein lokal vertretenen MSS-Anbieter Meldungen und Störungen unterschiedlichster IT-Infrastrukturen von Tausenden Kunden weltweit überwachen und analysieren – und auf dieser Datenbasis dann ein Echtzeitbild der Bedrohungslage erzeugen, das wiederum für die Erstellung effizienter Cyber-Abwehrlösungen genutzt wird. Ein international vertretener Service-Anbieter wie NTT Security beispielsweise betreibt weltweit 17 SOCs sowie Forschungs- und Entwicklungszentren und beschäftigt mehr als 1 500 Sicherheitsexperten, davon mehr als 250 allein in der DACH-Region. Zudem nutzt NTT weltweit verteilte proprietäre – auf eigener IP basierende – kommerzielle und Open-Source-Honeypots und kann damit seinen Kunden ein Höchstmaß an präventiver Sicherheit bieten.

Der Cyber-Defense-Ansatz von NTT Security basiert auf den vier Grundkomponenten Prävention, Erkennung, Abwehr und Reaktion. Quelle: NTT

Notfallplan entwerfen

Trotz aller Vorkehrungen bleibt die 100-prozentige Sicherheit eine Utopie. Unternehmen sollten deshalb immer für den Ernstfall gewappnet sein und einen Notfall-Plan in der Hinterhand haben, den sie bei einem Angriff oder Leck kurzfristig in Kraft setzen, um Schaden abzuwenden oder zu minimieren. Dass dies jedoch bei den meisten Unternehmen noch nicht der Fall ist, zeigt der aktuelle NTT Security Global Threat Intelligence Report, demzufolge gerade ein Viertel der Unternehmen ausreichend auf einen Incident vorbereitet ist. Bei der Entwicklung des Notfallplans bieten erfahrene Sicherheitsexperten eine entscheidende Unterstützung. Sie helfen auch, wenn es darum geht, Response-Teams bereitzustellen, die im Fall eines Falles einen ungewollten Datenabfluss unterbinden.

Der Text ist unter der Lizenz CC BY-SA 4.0 DE verfügbar.
Lizenzbestimmungen: https://handbuch-digitalisierung.de/cc-by-sa


Informationen zu Kai Grunwitz

Neue digitale Sicherheitskultur

Sicherheit für kritische Infrastrukturen und innovative Cyber-Abwehr sind für Unternehmen und den Public Sektor gefragter denn je.

Die  Digitalisierung und Vernetzung, das Internet der Dinge, Industrie 4.0 und die zunehmende Mobility bieten Cyber-Angreifern vielfältige Möglichkeiten, Informationen auszuspähen, Geschäftsprozesse zu sabotieren oder sich unter Einsatz von Malware und damit verbundener erpresserischer Datenverschlüsselung kriminell zu bereichern.

Täglich werden rund 380 000 neue Schadprogrammvarianten entdeckt, die Anzahl von Spam-Nachrichten mit Schadsoftware im Anhang ist explosionsartig um 1 270 Prozent angestiegen. Wie Frau Merkel bemerkte, werden Cyber-Angriffe zum Alltag gehören.

Klassische Abwehrmaßnahmen reichen nicht mehr aus

Unternehmen aller Branchen,  kritische Infrastrukturen, Forschungseinrichtungen, Ver­waltung und Bürger sind es, auf die sich Angreifer mit flexibel einsetzbaren Angriffsmitteln und -methoden fokussieren. Konsequenzen aus bereits erfolgten Angriffen sind teils verheerend und verdeutlichen, wie verwundbar eine digitalisierte Gesellschaft ist.  Dieser Thematik folgend entstehen neue Anforderungen an die bestehenden Sicherheitskonzepte. Hinzu kommen die gesetzlichen Vorgaben, wie das 2015 eingeführte IT-Sicherheitsgesetz, das um Sicherheitsanforderungen an sogenannte „Kritische Infrastrukturen“ noch ergänzt wurde. Es gilt der Ansatz, ein Unternehmen so zu führen und zu kontrollieren, dass die relevanten und möglichen Risiken abgedeckt sind. Das bedeutet, diese Risiken zu identifizieren, analysieren und bewerten. Um darauf aufbauend die Erstellung eines ganzheitlichen Sicherheitskonzeptes zu ermöglichen. Das beinhaltet nicht nur die eingesetzten Technologien, sondern auch organisatorische Maßnahmen, wie Zuständigkeiten, Berechtigungen, Kontrollinstanzen oder konzeptionelle Aspekte, wie etwa Mindestanforderungen für bestimmte Sicherheitsmerkmale zu definieren.

Kritische Infrastrukturen müssen branchenspezifische Mindeststandards erfüllen, wozu insbesondere die Einführung eines ISMS zählt. Hilfestellungen gewähren die kostenfreien IT-Grundschutz-Kataloge des BSI. Eine Sammlung von Dokumenten, welche die schrittweise Einführung und Umsetzung eines ISMS erläutern. Weiterhin müssen große Unternehmen und solche der „kritischen Infrastruktur“ relevante Vorfälle, die die IT-Sicherheit betreffen, an das BSI melden.

Durch das IT-Sicherheitsgesetz wurden außerdem weitere Gesetze wie z. B. das Energiewirtschaftsgesetz geändert. Durch die Änderung des Energiewirtschaftsgesetzes werden sämtliche Strom- und Gasnetzbetreiber verpflichtet, den IT-Sicherheitskatalog der Bundesnetzagentur umzusetzen und ein ISMS einzuführen.

ISO 27001

Als Standard für Managementsysteme der Informationssicherheit hat sich die ISO-Norm 27001 zur Umsetzung und Kontrolle von gesetzlichen Vorgaben hinsichtlich Informationssicherheit und Datenschutz etabliert. Bei der Verwendung von Informationssystemen müssen proaktiv Schutzmaßnahmen und Schutzmethoden ergriffen werden, um mögliche Bedrohungen und Schwachstellen bestenfalls vorab zu verhindern oder auf ein überschaubares Risiko zu minimieren.
Die Zukunft ist vernetzt und mobil, mit immer mehr Schnittstellen zwischen Mensch, System und Maschine, national und global. Das bedeutet, dass wir ein sicheres und vertrauenswürdiges Ökosystem vom kleinsten Sensor bis zum Benutzer benötigen. Eine Absicherung der Systeme kann nur unter Einbezug sämtlicher Beteiligter, also Hersteller, Systemintegrator, Betreiber der Anlagen sowie der Öffentlichkeit, gleichermaßen gewährleistet werden.
Der Einsatz aktueller Schutzmechanismen, die Verfügbarkeit, Verbindlichkeit und Authentizität gewährleisten, wird von zunehmender Bedeutung sein. Techniken zur Verschlüsselung, Authentifizierung und Autorisierung auf Basis biometrischer Verfahren und hochleistungsfähiger Kryptografie-Methoden werden zum Standard avancieren.

Weiterführende Reportage aus TREND REPORT zum Thema

Heft 3/2015 „Vernetzte Gesellschaft“
„IoT: Beginn der Vernetzung“, Autor Chris Löwer
https://trendreport.de/iot-beginn-der-vernetzung/

Heft 2/2016 „Deutschland digital“
„Orientierung gesucht“, Dr. Ralf Magagnoli
https://trendreport.de/orientierung-gesucht/

Heft 1/2016 „Creative Companies“
„360°: Risiken immer im Blick“, Frank Romeike
https://trendreport.de/360-risiken-immer-im-blick/

Wann ist Big Data sinnvoll?

Big-Data-Technologien sind nicht die einzige Lösung, wenn es um viele Daten geht. Es gibt mehrere Kriterien, die über die Art der Datenverarbeitung entscheiden.

von Peter Welker

Technisch gesehen geht es beim Trendbegriff „Big Data“ um Daten, die durch ihre schiere Menge (Volume), den benötigten Datendurchsatz und die maximale Verzögerung (Velocity) sowie durch Komplexität und Variabilität (Variety) besondere Techniken für die Datenverarbeitung und Speicherung benötigen.(1) Der Einsatz traditioneller Technologie, wie relationaler Datenbanken, stößt bei solchen Anforderungen architekturbedingt irgendwann an seine Grenzen. Dasselbe gilt für nicht konsequent auf Parallelisierung ausgelegte Programmierparadigmen zur Verarbeitung der Daten.

Zu Beginn der Big-Data-Ära um 2010 konnte man es auf vielen IT-Konferenzen und in zahlreichen Publikationen spüren: Die neuen Lösungen rund um Hadoop und NoSQL sollten vor allem die althergebrachten analytischen Applikationen (z. B. Data-Warehouse) revolutionieren und ersetzen.
Die Investitionen in klassische analytische Anwendungen haben aber keineswegs darunter gelitten. (2) Relationale Datenbanken und klassische Datenintegrationswerkzeuge sind auch nicht so limitiert, wie es die Verfechter neuer Technologie gerne proklamieren. Das Laden, Transformieren und die optimierte Aufbereitung mehrerer hundert Millionen Datensätze pro Tag ist heute auch mit kostengünstiger Hardware kein Problem. Dennoch: Auch wenn die größten relationalen DWH-Datenbanken im zweistelligen Petabyte-Bereich liegen,(3) ist in den meisten Fällen im zwei- bis dreistelligen Terabyte-Bereich Schluss. Häufig wegen Lizenz- und Supportkosten für benötigte kommerzielle Software, nicht etwa weil die Grenze der technischen Leistungsfähigkeit erreicht wäre.
Es sind vielmehr neue Anforderungen, die mit neuen Techniken implementiert werden. Zur Verdeutlichung der Entscheidungskriterien pro oder contra Big-Data-Technologie betrachten wir drei Anwendungsfälle.

Process-Data-Warehouse

Data Warehouses müssen keineswegs nur Finanzdaten aufbereiten. Ein Übertragungsnetzbetreiber aus der Energiebranche lädt täglich 60 Millionen Mess- und Applikationswerte in ein relationales DWH und speichert sie dort für zehn Jahre, um beispielsweise schadhafte Bauteile zu analysieren oder die Zuverlässigkeit von Verbrauchsprognosen zu prüfen. Dafür müssen die Daten spätestens 20 Minuten nach ihrer Erzeugung für Zeitreihen- und andere Analysen optimiert bereitstehen (Latenz). Die wichtigsten auf diesen Daten basierenden Auswertungen benötigen dann jeweils weniger als fünf Sekunden und sind somit interaktiv durchführbar.

Besonders im Energiesektor fallen bei Erzeugung und Verbrauch enorme Datenmengen an, doch nicht immer kommen Big-Data-Technologien zum Einsatz.

Es sprechen erste Kriterien für Big-Data-Technologie. Überraschenderweise ist es aber keineswegs die Datenmenge, denn trotz vieler Datensätze bewegt sich das Volumen noch im unteren Terabyte-Bereich. Allerdings sind Wide-Column-NoSQL-Datenbanken besser für Zeitreihenanalysen geeignet als ihre relationalen Pendants. Dennoch entschied sich der Betreiber aufgrund des traditionellen Know-hows seiner Mitarbeiter, der Stabilität und sicheren Verfügbarkeit relationaler Tools für die klassische Lösung mit hohem Investitionsschutz und vergleichsweise niedrigen Kosten. Und das funktioniert. Die Anwendung skaliert bei Bedarf und stärkerer Hardware auch noch um den Faktor zehn.

Messdatenlandschaft

Es wäre ein Fehler, rein fachliche Kriterien für einen Technologieentscheid zu nutzen. In einem zweiten, ganz ähnlich gelagerten Fall befüllt ein Autozulieferer zwecks Analyse der Produktionsprozesse Dutzende örtlich separierte, aber gleichartige relationale Datenbanken mit Messdaten. Inzwischen bewegt sich das Gesamtvolumen deutlich im dreistelligen Terabyte-Bereich. Alle Informationen sind innerhalb einer Stunde – ebenfalls vorwiegend für Zeitreihenanalysen – fertig aufbereitet.

Im Zuge einer Zusammenführung dieser Datenbanken und eines zunehmend operationalen Monitorings müssen nun sehr zeitnahe Analysen ermöglicht werden. Darum ist es erforderlich, die Latenz auf maximal fünf Minuten zu reduzieren. Jetzt stellen sich neue Fragen: Wie repliziert man Daten aus unterschiedlichen Orten so schnell wie möglich in ein zentrales System, wenn Hunderte von Transformationsprozessen nötig sind und ebenso viele Benutzer gleichzeitig die Daten analysieren?

Wann soll ich Big-Data-Technologien einsetzen?

Wichtige Indikatoren für den Einsatz von Big-Data-Technologien lassen sich also zum einen aus den drei „V“ ableiten: Volume, Velocity und Variety. Wenn man für ein Vorhaben also eine oder mehrere der folgenden Fragen mit Ja beantwortet, ist demnach zumindest eine genauere Technologiebetrachtung angesagt:

Verarbeitungslatenz
Wie lange nach der Entstehung von Daten müssen Muster erkannt und daraus Aktivitäten abgeleitet werden? Habe ich Anforderungen im Minuten- oder Sekundenbereich – oder sogar noch darunter?
Datenvolumen
Wie groß ist die Datenmenge, die insgesamt vorgehalten werden muss? Komme ich weit in den Terabyte-Bereich oder darüber hinaus?
Skalierbarkeit
Muss die Verarbeitung „elastisch“ sein? Also: Werden starke Schwankungen bei der Last erwartet und soll die gewählte Lösung auch noch um den Faktor 10, 100 oder 1 000 nach oben skalierbar sein? Hilft mir eventuell der Einsatz von Cloud-Diensten?
Flexibilität
Wie vielfältig ist mein verfügbares Datenmaterial? Weiß ich jetzt schon, was ich später damit machen möchte?

Andererseits spielen natürlich auch nicht-technische Kriterien eine wichtige Rolle: Das Know-how der Mitarbeiter oder die Bereitschaft einer Abteilung oder eines Unternehmens, sich für reale Fragestellungen auf neue Wege einzulassen zum Beispiel. Ein gutes Erwartungsmanagement und ausreichend Budget für Implementierungsaufwände können ebenfalls wichtige Kriterien sein: Bei ersten Fragestellungen sind nicht immer revolutionäre Antworten zu erwarten und Big-Data-Anwendungen sind nicht einfacher oder kürzer (und damit billiger) als herkömmliche Projekte.

Relationale Datenbanken und klassische Datenintegration alleine erweisen sich dabei aufgrund der nötigen Latenz irgendwann als Flaschenhals. Besser eignen sich Vorgehensweisen aus dem Internet of Things – einer Domäne für Big-Data-Anwendungen: An jedem Standort werden neue (Sensor-)Daten innerhalb von Sekunden vorbereitet und für erste Analysen eine Weile im Hauptspeicher lokaler Rechner – ähnlich einem Gateway – vorgehalten. Die Datenströme fließen gleichzeitig in einen Event-Hub in der Cloud. An diesem bedienen sich alle weiteren Transformationsprozesse, die ihre Ergebnisse in einem großen, ebenfalls cloudbasierten NoSQL-Datenbankcluster ablegen.
Hier kommen zahlreiche Big-Data-Techniken zum Einsatz: Stream-Analytics und Transformationslösungen wie Spark, Event-Hubs wie Kafka und NoSQL-Datenbanken wie Cassandra. Sie wurden ursprünglich von Facebook, LinkedIn und dem APMLab der University of California ins Leben gerufen:

  • Im Gegensatz zu traditionellen Tools sind sie konsequent auf Skalierbarkeit ausgelegt. Die meisten Lösungen laufen ohne nennenswerten Overhead auf Clustern mit Hunderten oder Tausenden Rechnern.
  • Viele Tools werden von großen Entwicklergemeinden als Open-Source-Programme weiterentwickelt.
  • Hinter den meisten Produkten stehen zudem Unternehmen, die Enterprise-Level-Support und kommerzielle Varianten mit erweitertem Funktionsumfang anbieten.
  • Sie wurden als Open-Source-Software entwickelt und an die Apache Software Foundation weitergereicht. Inzwischen gibt es dafür  auch rein kommerzielle Alternativen, beispielsweise in der Microsoft Azure Cloud (Event-Hubs, Stream-Analytics).

Bewegungsdaten

Ein weiteres Kriterium für den Einsatz neuer Technologien ist neben Datenmenge und Durchsatz bzw. Latenz auch die Datenvielfalt. Während in relationalen Datenbanken stark strukturierte Daten genutzt werden, gilt das nicht für Big-Data-Anwendungen. Auch Texte, Videos, Bilder, Geodaten oder XML- und JSON-Dateien aus Web-Click-Streams oder Applikationslogs sind relevant.
In unserem dritten Fall nutzt ein Mobilfunkbetreiber neben Geodaten und GSM-Daten aus dem Funknetz auch zahlreiche weitere Quellen für analytische Anwendungen. Da inzwischen fast jeder ein angeschaltetes Handy mit sich führt, kann der Netzbetreiber je nach Netzausbau und Art des Funkverkehrs den Aufenthaltsort eines Teilnehmers recht genau orten. Zudem können Endgeräte und zum Teil auch die Teilnehmer identifiziert werden. Die dabei anfallenden Datenmengen sind sehr groß und bedürfen umfangreicher Interpretation. Dann aber lassen sich detaillierte Bewegungsprofile erzeugen.

Natürlich dürfen aus Datenschutzgründen die Daten aller Teilnehmer nur anonymisiert verarbeitet werden, sodass keine Rückschlüsse auf Personen möglich sind. Dennoch bleiben die Möglichkeiten vielfältig. So kann man mit diesen Verfahren sehr einfach zuverlässige Aussagen über den gegenwärtigen Straßenverkehrsfluss machen, Pendlerströme visualisieren, um typische Einzugsgebiete zu erkennen, oder Transit- von regionalem Verkehr unterscheiden.

Die dabei anfallenden Datenmengen überschreiten schon in kurzer Zeit die PetabyteGrenze und sind durchaus vielfältig. Wichtig sind historische Daten, aber manche Anwendungsfälle, wie die Verkehrsbetrachtung, benötigen auch zeitnahe Werte. Zudem will man beim Speichern der Daten eine Unabhängigkeit von den Datenstrukturen sicherstellen (Variety). Während bei der Speicherung in relationalen Datenbanken im Allgemeinen die Datenstruktur vorab bekannt sein muss, ist das bei der Datenablage in File-Systemen wie Hadoop nicht der Fall. Hier genügt es, erst beim Lesen der Daten über deren Struktur Bescheid zu wissen. Das ermöglicht auch das vorausschauende Speichern von Daten, für die heute noch keine ausgearbeiteten Einsatzzwecke vorliegen, die aber mit hoher Wahrscheinlichkeit eines Tages von Bedeutung sein werden.

Alle Indikatoren zeigen also in Richtung der neuen Technologien. Und folgerichtig werden hier beispielsweise Hadoop für die langfristige Speicherung von strukturierten und unstrukturierten Daten und Spark für die Transformation und Analyse dieser Daten eingesetzt. Damit ist neben einer kostengünstigen Ablage von Massendaten auch die Skalierbarkeit für zukünftige Fachanforderungen gesichert.

Quellen:

(1) https://blogs.gartner.com/doug-laney/files/2012/01/ad949-3D-Data-Management-Controlling-Data-Volume-Velocity-and-Variety.pdf, abgerufen am 02.11.2016
(2) https://tdwi.org/Articles/2015/03/31/Dimensional-Data-Warehouses-Get-Job-Done.aspx, abgerufen am 02.11.2016
(3) https://www.guinnessworldrecords.com/world-records/largest-data-warehouse, abgerufen am 02.11.2016

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Peter Welker

Big – Smart – Fast

Unser Arbeitsalltag wird zunehmend von digitalen Daten beeinflusst. Big Data berührt alle Branchen und Märkte.

Werfen wir im Kontext der Digitalisierung einen  kurzen Blick zurück: Es wird angenommen, dass es der Menschheit im Jahr 2002 zum ersten Mal möglich war, mehr Informationen digital als analog zu speichern – der Beginn des „Digitalen Zeitalters“. Alles was heute an analogen Informationen in Bits und Bytes gewandelt werden kann, wird zu Daten. Im Zuge der Digitalisierung, die Unternehmen im Kontext betrieblicher Abläufe zu Effizienzsteigerung und damit einer verbesserten Wirtschaftlichkeit verhilft, wachsen die Daten dementsprechend exponentiell. Wir sprechen heute von Big Data. Der aus dem englischen Sprachraum stammende Begriff Big Data oder auf gut Deutsch Massendaten steht dabei grundsätzlich für große digitale Datenmengen, aber auch für deren Analyse, Nutzung, Sammlung, Verwertung und Vermarktung. In der Definition von Big Data bezieht sich das „Big“ auf die drei Dimensionen „volume“, für Umfang und Datenvolumen, „velocity“ für die Geschwindigkeit, mit der die Datenmengen generiert und transferiert werden, sowie „variety“ für die Bandbreite der Datentypen und -quellen. Erweitert wird diese Definition um die zwei V „value“ und „validity“, welche für einen unternehmerischen Mehrwert und die Sicherstellung der Datenqualität stehen.

Die gesammelten Daten können dabei aus verschiedensten Quellen stammen: Überwachungssysteme, Nutzung von Kunden- oder Bank- bzw. Bezahlkarten, jegliche elektronische Kommunikation, Navigationssysteme, GPS, Smartphones, Smart Homes, Fahrzeuge aller Art, von Behörden und Unternehmen erhobene und gesammelte Daten, Sensordaten im Kontext von IoT und Industrie.
Die Analyse, Erfassung und Verarbeitung von großen Datenmengen ist heute in vielen Bereichen alltäglich, aber verbesserungswürdig hinsichtlich Big Data.

TREND REPORT zum Thema

Unser Arbeitsalltag wird zunehmend von digitalen Daten beeinflusst. Business-Intelligence-Lösungen helfen, Geschäftsprozesse zu optimieren und Ordnung in das Big-Data-Chaos zu bringen, weiß Brian Gentile. https://trendreport.de/bi-daten-clever-nutzen/

Mit der TREND-REPORT-Redaktion sprach Tom Becker über die Herausforderungen und die Bedeutung der Datenanalyse für den Geschäftserfolg und welchen Vorteil Self-Service-Datenanalysetools bieten. https://trendreport.de/analyse-der-datenanalyse/

Datenmengen sind und werden zu groß, zu komplex, zu schnelllebig oder zu schwach strukturiert, um sie mit herkömmlichen Methoden der Datenverarbeitung auszuwerten. Aktuelle Entwicklungen von Software für die Verarbeitung von Big Data kommen neben klassischen prioritären Anbietern oft aus dem Open-Source-Bereich. Bekannt ist hier z. B. Apache Hadoop, ein freies Framework für skalierbare, verteilt arbeitende Software, die es ermöglicht, intensive Rechenprozesse mit großen Datenmengen auf Computerclustern durchzuführen. Big Data kann Geschäftsprozess-Verbesserungen in allen Funktionsbereichen von Unternehmen, vor allem aber im Bereich der Technologieentwicklung und Informationstechnik sowie des Marketings erzeugen. Die Erhebung und Verwertung der Datenmengen dient dabei im Allgemeinen der Umsetzung von Unternehmenszielen. Bisher haben vor allem große Branchen, Unternehmen und Anwendungsbereiche der Wirtschaft, Marktforschung, Vertriebs- und Servicesteuerung, Medizin, Verwaltung und Nachrichtendienste die entsprechenden digitalen Methoden für sich genutzt: Die erfassten Daten sollen weiterentwickelt und nutzbringend eingesetzt werden. Die Erhebung der Daten dient dabei meistens für konzernorientierte Geschäftsmodelle sowie Trendforschung in den sozialen Medien und Werbeanalysen, um zukunftsweisende und möglicherweise gewinnbringende Entwicklungen zu erkennen. Big Data kann die Triebfeder für innovative Geschäftsmodelle und Produkte werden. Welches Marktpotential tatsächlich in Big Data Lösungen steckt scheint nicht vorhersehbar: 2013 prognostizierte der US-Marktforscher IDC den weltweiten Umsatz für 2017 auf gut 32 Milliarden Dollar. Tatsächlich betrug er 2015 bereits 125 Milliarden.

Quellen:
Wikipedia – Data Scientist: https://de.wikipedia.org/wiki/Data_Science
Wikipedia – Big Data
Wikipedia – Business Intelligence
Martin Hilbert, Priscila López: The World’s Technological Capacity to Store, Communicate, and Compute Information. In: Science, 2011, 332(6025), S. 60-65; martinhilbert.net/WorldInfoCapacity.html (Kostenfreier Zugriff auf den Artikel). The World’s Technological Capacity to Store, Communicate, and Compute Information from 1986 to 2010. (Abgerufen am 15. April 2015 PDF).
Big Data: 32 Milliarden Dollar Umsatz bis 2017 erwartet – 125 Milliarden Dollar 2015 Realität, von: Michael Kroker. URL: https://blog.wiwo.de/look-at-it/2016/07/26/big-data-32-milliarden-dollar-umsatz-bis-2017-erwartet-125-milliarden-dollar-2015-realitaet/ (Abgerufen: 6. Dezember 2016)

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/

Smarte Lösungen für den Handel

Über die Chancen von Big Data und der Vernetzung

von Jens Lappoehn

Die Digitalisierung ist die größte technologische Revolution der letzten 200 Jahre. Sie erfasst die Wirtschaft genauso wie die Gesellschaft und verändert die Art und Weise, wie wir leben und arbeiten. Die Digitalisierung ist vor allem eines: Eine große Chance, denn viele zentrale Herausforderungen der Zukunft sind ohne digitale Technologien nicht lösbar. Telefónica Deutschland trägt als nach Kundenzahl größtes Mobilfunkunternehmen Deutschlands maßgeblich dazu bei, dass die digitale Zukunft Wirklichkeit wird. Denn wir bieten zwei zentrale Rohstoffe für die Digitalisierung: Konnektivität und Daten.
Diese Rohstoffe wollen wir nutzen. Wir sind überzeugt, dass in der Vernetzung von Dingen und der smarten Datenanalyse großes Potenzial für die Gesellschaft und die Wirtschaft steckt. Deshalb haben wir eine neue Gesellschaft, die Telefónica Germany NEXT GmbH, gegründet, die diese digitalen Wachstumsfelder vorantreibt. Auf Basis von Datenanalysen und der Vernetzung von Dingen bietet die Gesellschaft anderen Unternehmen Lösungen an, damit diese die Chancen der Digitalisierung besser nutzen können.

Milliarden Daten intelligent verknüpft

Mit über 44 Millionen Kundenanschlüssen liegt uns durch unsere normalen Geschäftsprozesse eine große Menge an Daten vor. Darunter sind vor allem solche, die ausschließlich bei uns als Netzbetreiber anfallen, beispielsweise Mobilitätsdaten. Diese entstehen, wenn Handys, z. B. beim Surfen, mit den Mobilfunkzellen kommunizieren. Täglich entstehen so mehr als vier Milliarden Datenpunkte.
Für Analysezwecke werden sie durch ein dreistufiges, TÜV-zertifiziertes Verfahren vollständig anonymisiert und im Anschluss statistisch ausgewertet. Trotz vollständiger Anonymisierung können Kunden der Verwendung ihrer Daten jederzeit wiedersprechen. Sie haben so die Möglichkeit, ihre persönlichen Präferenzen mit dem Nutzen abzuwägen, den ihre Daten für die Wirtschaft und Gesellschaft schaffen.
Intelligent verknüpft ergeben sich aus den Daten neue Erkenntnisse, die für Unternehmen unterschiedlichster Branchen ebenso wie für Kommunen, öffentliche Verkehrsbetriebe und die Gesellschaft insgesamt relevant sind. Die Erkenntnisse aus datenbasierten Analysen sind beispielsweise für Städte interessant, die unter hohem Verkehrsaufkommen leiden. Das Potenzial von Mobilfunkdaten als eine verlässliche Datenquelle für die Verkehrsplanung untersuchen wir aktuell in Stuttgart gemeinsam mit dem Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO. Zudem beteiligen wir uns an einem Pilotprojekt in Nürnberg, bei dem auf Basis von Mobilfunkdaten die Verkehrsströme und darüber die Luftverschmutzung analysiert werden.

Der Weg der Daten: vom Handy über die Anonymisierung zur Verkehrsmessung

Smarte Datenanalyse für den Handel

Präzise Daten sind nicht nur für die Verkehrsplanung hilfreich, sondern auch für den stationären Handel von großem Interesse. Online-Händler verstehen bereits sehr präzise, wie viele Kunden ihre Website besuchen, wie lange sie dort jeweils bei welchem Angebot verweilen und welche Art der Produktplatzierung für welche Zielgruppe vielversprechend ist. Auf der Grundlage dieser Kundeninformationen passen bereits viele Online-Händler ihre Angebote schnell und flexibel an die Kunden an. Wir arbeiten bei Telefónica NEXT daran, dass diese Möglichkeiten auch für den Offline-Handel, also den stationären Handel, funktionieren. Dies kommt nicht zuletzt auch den Innenstädten zugute. Unsere smarte Datenanalyse trägt dazu bei, dass der stationäre Handel Informationen über seine Zielgruppe erhält, die ihm bisher so nicht zur Verfügung standen. Wir analysieren beispielsweise mithilfe von Mobilfunkdaten Kundenströme im Umfeld einer Filiale.
Auf Basis von Daten kann der Händler seine Kunden besser verstehen und smarter mit ihnen interagieren – und nicht zuletzt seine eigenen Prozesse effizienter gestalten. Die Kunden wiederum profitieren von einem digitalen Einkaufserlebnis. Das stärkt die Position des Einzelhandels gegenüber dem Online-Handel. Händler, die online und offline Kanäle bedienen, erhalten wertvolle Informationen, wie sie diese noch besser vernetzen.

Bewegungen rund um den Store

Bislang waren Kaufhäuser und Einzelhändler auf Schätzungen angewiesen, um zu wissen, wie viele Kunden tatsächlich ihre Schaufenster passieren. Durch die smarte Datenanalyse können die Bewegungsströme vor Geschäften statistisch exakter berechnet werden, denn die Stichprobe aus anonymisierten Daten ist größer und aktueller – und nicht verzerrt durch Großereignisse oder z. B. das Wetter. Durch zusätzliche Analy­severfahren ermitteln wir beispielsweise auch, wie viele Menschen derselben Al­tersgruppe und desselben Geschlechts sich in der Nähe des Stores aufgehalten haben. Zudem können wir auf Basis der anonymisierten Daten beispielsweise typische Routen oder durchschnittliche Verweildauern bestimmter Zielgruppen berechnen. Über Roaming-Informationen ist auch die Identifikation der Zielgruppe der Touristen möglich.

Der Einzelhandel kann anhand dieser vielfältigen Informationen zum Beispiel Standorte viel besser bewerten, Öffnungszeiten optimieren, Werbung in Schaufenstern passend gestalten oder das Sortiment an die Zielgruppe anpassen. Auch Telefónica Deutschland stellte nach dem Zusammenschluss mit E-Plus mithilfe der Datenanalyse das eigene Filialnetz der Shops auf den Prüfstand. Von diesen relevanten Erfahrungen profitiert Telefónica NEXT.

Telefónica NEXT

Telefónica Deutschland hat die strategischen Wachstumsfelder „Advanced Data Analytics“ und „Internet of Things“ in einer eigenen Gesellschaft gebündelt, der Telefónica Germany NEXT GmbH mit Sitz in Berlin. Die Gesellschaft bietet anderen Unternehmen Lösungen an, damit diese die Wachstumschancen der Digitalisierung besser nutzen können. Mit „Advan­ced Data Analytics“ richtet Telefónica NEXT den Blick auf den gesellschaftlichen und wirtschaftlichen Nutzen, der sich aus der Analyse großer Datenmengen ziehen lässt. Zudem arbeitet das Unternehmen an Lösungen für das Internet der Dinge und wird mit der neuen Software-Plattform geeny.io Unternehmen dabei unterstützen, vernetzte Lösungen auch für Endverbraucher anzubieten.

In einem nächsten Schritt werden wir auch Analysen für das Innere der Stores ermöglichen. Damit erfahren Händler, wie viele und welche Kunden tatsächlich den Store betreten haben und wie lange und wo sie sich darin aufgehalten haben. So können Händler die Kundenströme viel besser verstehen und z. B. die Gestaltung ihrer Flächen optimieren oder auch den Erfolg einzelner Filialen miteinander vergleichen.
Durch die Verknüpfung von beidem – Analysen außerhalb des Stores und im Store – kann der Händler die sogenannte Customer-Journey nahezu vollständig abbilden und seine Verkaufskanäle optimieren.

Das digitale Erlebnis im vernetzten Store

Kunden erhalten datenbasiert passende Angebote von Partnern (Quelle: Quelle Telefónica Deutschland)

Wir unterstützen die Händler auch dabei, im Inneren ihrer Geschäfte digitale Technologien gewinnbringend einzusetzen – und das für beide: für Händler und Kunde. Mithilfe unserer Datenanalyse kann der Händler sein Geschäft smarter an die Bedürfnisse seiner Zielgruppe anpassen und mit seinen weiteren Verkaufskanälen vernetzen. Sei es durch stimmige Musik, passende Displays oder wertvolle digitale Zusatzinformationen. All das bietet den Kunden ein mehrere Sinne ansprechendes Erlebnis, das der Online-Handel alleine nicht ermöglicht. Dabei wird der Kontakt zu den echten Mitarbeitern nicht weniger, sondern effizienter und besser – und damit auch wirtschaftlicher für den Händler.
Für die Auswahl passender Produkte bauen wir auf einem umfangreichen internationalen Portfolio unseres spanischen Mutterkonzerns Telefónica S. A. auf. Ein Beispiel sind digitale Plakate. Sogenannte Digital Signage können mit verschiedenen relevanten und anonymisierten Daten, zum Beispiel Alter und Geschlecht der vorhandenen Kunden und Wetterdaten, verknüpft werden. So kann der Händler in Echtzeit jeweils passende Informationen oder Angebote auf den Displays präsentieren. Zusätzliche Interaktivität bieten smarte Umkleidekabinen. Der Kunde hat die Möglichkeit, Informationen über Größen- und Farbvarianten der Produkte auf einem Tablet abzurufen. Zudem kann er sich zu passenden Accessoires inspirieren und sich gewünschte Varianten von den Mitarbeitern bringen lassen.

Ein weiteres Beispiel für mehr Interaktion und gleichzeitige Effizienz sind digitale Preisschilder. Sie lassen sich vom Kunden über einen Touch-Screen bedienen und bieten ihm Zusatzinformationen zum Produkt an. Durch die zentrale Steuerung der Preisschilder kann der Händler die Fläche schneller umgestalten.

Kunden außerhalb des Stores gezielt ansprechen

Händler können von der Digitalisierung auch außerhalb ihrer Stores profitieren und mit ihrer Zielgruppe kommunizieren. Hierbei handelt es sich um spezifische Werbeangebote, die Kunden auf unterschiedlichen Wegen erreichen.

Datenschutz ist Grundvoraussetzung

Der Datenschatz ist ohne Datenschutz wertlos. Telefónica Deutschland nimmt den Datenschutz sehr ernst, denn er ist die Grundlage für die Akzeptanz von datenbasierten Geschäftsmodellen in der Gesellschaft. Deshalb ist das Herzstück der Datenanalyse ein vom TÜV zertifiziertes und von der Bundesbeauftragten für den Datenschutz und die Informationsfreiheit begleitetes Verfahren. Es sorgt dafür, dass Kundendaten über ein dreistufiges Verfahren komplett anonymisiert werden und sich auch nicht nachträglich bestimmten Personen zuordnen lassen. Trotz dieser vollständigen Anonymisierung hat jeder Kunde die freie Wahl und kann der Nutzung seiner anonymisierten Daten jederzeit widersprechen. So behält er stets die Hoheit über seine Daten.
https://analytics.telefonica.de/

Einerseits erlaubt die Plattform Axonix die datenbasierte, gezielte Ausspielung von Werbebannern beim mobilen Surfen. Andererseits können Händler mithilfe des Service O2 More Local ihre Zielgruppe per Nachricht auf dem Mobiltelefon erreichen. Mit der kostenlosen Buchung von O2 More Local erlaubt der Kunde, dass O2 seine Daten, wie Aufenthaltsort, Wetter, Tageszeit, Alter und Geschlecht, verwenden darf, um ihm Angebote von Marken per Mobile Messaging zu senden. Da die Angebote auf den individuellen Daten basieren, treffen sie mit höherer Wahrscheinlichkeit auf die Interessen des Kunden. Ihre Daten sind dabei vollständig geschützt.

Zur richtigen Zeit am richtigen Ort

Vor dem Store, im Store und in unmittelbarem Kontakt mit dem Produkt: Die Digitalisierung bietet Kunden und Händlern völlig neue Möglichkeiten der Interaktion. Wir bei Telefónica NEXT werden die Möglichkeiten der smarten Datenanalyse und der Vernetzung von Dingen weiter vorantreiben – für Angebote zur richtigen Zeit, am richtigen Ort für den richtigen Kunden.

Kernaussagen

Intelligent verknüpft ergeben sich aus den anonymisierten Daten neue Erkenntnisse, die für Unternehmen unterschiedlichster Branchen ebenso wie für Kommunen, öffentliche Verkehrsbetriebe und die Gesellschaft insgesamt relevant sind.
Mit Blick auf den Handel trägt die smarte Datenanalyse dazu bei, dass Händler Informationen über ihre Zielgruppe erhalten, die ihnen bisher so nicht zur Verfügung standen. Telefónica NEXT analysiert beispielsweise mithilfe von Mobilfunkdaten Kundenströme im Umfeld einer Filiale.
Auf Basis der Daten kann der Händler seine Kunden besser verstehen, smarter mit ihnen interagieren und der Kunde profitiert von einem digitalen Einkaufserlebnis. So kann der Einzelhandel seine Position gegenüber dem Online-Handel stärken bzw. seine Omnichannel besser miteinander vernetzen.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Jens Lappoehn

Offene Logistikplattform erhöht die Transparenz

von Geert-Jan Gorter

Regelmäßig landet die Logistik in Studien, in denen der Reifegrad der digitalen Transformation in der Wirtschaft untersucht wird, auf den hinteren Plätzen. So zeigte die Befragung „Digitale Transformation der Supply-Chain – Stand heute und in fünf Jahren” von Capgemini Consulting, dass fast die Hälfte der Logistikunternehmen in der Kommunikation mit Partnern in der Lieferkette immer noch an erster Stelle auf „traditionelle Methoden“ – wie beispielsweise Telefon, Fax und E-Mail – vertrauen. Für 75 % der befragten Führungskräfte ist die digitale Transformation der Supply-Chain zwar „wichtig“ bis „sehr wichtig“, 70 % gaben zudem an, sich bereits mit dem Thema auseinanderzusetzen. Doch mit dem Ergebnis der Bemühungen ist ein Drittel der Befragten „unzufrieden“ – und lediglich 5 % sind bereits „sehr zufrieden“.

Hindernisse für Logistik 4.0

Komplexe Dienstleisterstrukturen – wie etwa im Kombinierten Verkehr mit Speditionen, Eisenbahnen, Reedereien, Terminalbetreibern, Instandhaltern und Verladern – erschweren Abstimmungen und damit das Management arbeitsteiliger Prozesse. Hinzu kommt, dass in die Supply-Chain eingebundene Unternehmen in der Regel über eigene, historisch gewachsene IT-Landschaften verfügen, die einen ungehinderten horizontalen und vertikalen Informationsfluss im Sinne einer Logistik 4.0 nach allgemeiner Auffassung nicht zulassen. Dabei ist gerade die Logistikbranche mit ihren vielen manuellen Prozessen prädestiniert für enorme Fortschritte durch digitale Innovationen.

Fallbeispiel DB Cargo BTT

Die Digitalisierung erfolgreich in Angriff genommen
Die DB Cargo BTT ist auf den Transport von Chemie-, Mineralöl- und Düngemitteltransporten im Kombinierten Verkehr und im Wagenladungsverkehr spezialisiert. Sie organisiert den Hauptlauf auf der Schiene, den Umschlag im Terminal und den Vor- und Nachlauf auf der Straße für alle europäischen Relationen. Mithilfe von catkin wurde innerhalb von nur vier Wochen für die internationalen Aluminiumverkehre des Unternehmens eine Vernetzung der beteiligten Partner in der Transportkette realisiert. Trotz des komplexen Verkehrskonzepts mit einer Vielzahl von Akteuren über unterschiedliche Transportmittel, Zeitzonen und Sprachen hinweg, gibt es nun die völlige Transparenz in Echtzeit. Etwa über den Auftragsstatus, die eingesetzten Transporteinheiten und schadhaftes Equipment.

Flexible Prozessplattform

Das cloudbasierte Logistikportal catkin vernetzt Kunden und Dienstleister über frei konfigurierbare Aufträge. Es ermöglicht so eine systemunabhängige, unternehmensübergreifende und zugleich standardisierte Kommunikation und unterstützt das Management von mobilen Ressourcen, wie etwa Personal, Loks und Waggons, aber auch Container, Lkw oder Auflieger.
So ist etwa das Tracking von Containern lückenlos von der Aufnahme bis zur Zustellung möglich. Als universelle Plattform für alle Auftragstypen erlaubt catkin die Vernetzung unterschiedlicher Assets. Mobiles Personal, Depots und Terminals sind leicht zu integrieren.

Flexible Beteiligungsmöglichkeiten

Jeder Teilnehmer kann sich über das Web und die mobile App beteiligen. Kleinunternehmen und Freiberufler verwenden Browser und App, Unternehmen mit einer etablierten IT integrieren ihre Systeme sukzessive über die offene Plattformspezifikation. Die Anbindung an vorhandene ERP-, Telematik- oder auch Speditionslösungen ist über die vorhandenen Anwendungsschnittstellen (APIs) recht einfach zu bewerkstelligen.

Fallbeispiel TX Logistik

Auftragsdurchlaufzeiten um 25 Prozent reduziert
Das Schienenlogistikunternehmen TX Logistik verbessert mithilfe des catkin-Portals das Management von Ganzzügen und des Kombinierten Verkehrs. Durch die Integration der zur Verfügung gestellten Funktionalitäten in das eigene Planungs- und Steuerungsprogramm halbierte sich bei den Vor- und Nachläufen per Spedition die Fehlerquote und der Arbeitsaufwand sank um 12 Prozent. Gleichzeitig konnten die Auftragsdurchlaufzeiten um 25 Prozent reduziert werden. Weitere Erfolge zeigen sich in Form einer verbesserten Abstimmung mit den Bahn-Dienstleistern und im operativen Personaleinsatz. Die erhöhte Transparenz führt hier zu einer deutlichen Reduzierung von Verspätungen und 50 % weniger Support-Anrufen im European Control Center der Güterbahn.

Sicherheit und Datenschutz

Auch die Integration neuer Akteure und Prozesse sowie eine zügige Implementierung neuer Standards sind jederzeit möglich. Die Konfiguration von neuen Auftragsstrukturen und Arbeitsabläufen geschieht ohne aufwändige Programmierung. Die Kombination von standardisierter Technik und flexiblen Strukturen ermöglicht so dynamische Prozesse.
Der sichere Austausch der Daten entlang der gesamten Data-Supply-Chain ist dabei eine wesentliche Voraussetzung. Disponenten etwa, die das catkin-Portal nutzen, können sicher sein, dass ihre Daten nicht in irgendeiner Cloud jenseits des großen Teichs unterwegs sind, sondern sich in einem modernen deutschen Rechenzentrum befinden –  unter Einhaltung aller Datenschutzbestimmungen. Zudem werden die im Zuge der Auftragsabwicklung erzeugten Daten nach Abschluss innerhalb eines gewissen Zeitfensters wieder aus dem System entfernt.

Nahtlose Kollaboration

Der Ansatz von catkin integriert die Beteiligten am Erbringen einer Logistikdienstleistung unmittelbar horizontal und stellt somit sofort für alle Teilnehmer gleichermaßen ein Kunden- als auch Dienstleisterportal dar. Zudem wird die Steuerung von mobilen Personalen und „rollendem Material“ automatisch unterstützt. Auftragsdaten und Lieferfortschritt lassen sich sicher, einfach und in Echtzeit kommunizieren, wodurch im Sinne von Logistik 4.0 eine nahtlose Kollaboration über Unternehmensgrenzen hinaus realisiert wird. Voraussetzung für Smart Services, innovative Leis­tungsangebote und automatisierte Geschäftsprozesse in der Logistik 4.0 sind der sichere Austausch und die einfache Kombination von Daten in Wertschöpfungsnetzwerken – ohne dass die Beteiligten in der Lieferkette die Souveränität über die eigenen Daten verlieren.

Fallbeispiel Kloiber Transporte

Optimierter Container-Transport
Die Spedition Kloiber aus Bayern, ein Familienunternehmen mit jährlich 85 000 transportierten Ladeeinheiten und einer Flotte von 150 Lastwagen, führte catkin als Kundenportal ein und koppelte es an das vorhandene Planungssystem. Die Vernetzung zwischen den Beteiligten – etwa Reeder, Zoll, Bahn, Operateur, Lkw-Spediteur, Fahrer und Kunde – kann ebenso auf Basis der Containernummer, die eine eindeutige Identifikation ermöglicht, erfolgen. Statt einer weiteren Insellösung verfügt Kloiber nun über eine offene Plattform, die eine einfache Anbindung von weiteren Kunden und beliebigen Subunternehmern ermöglicht.

„Industrial Data Space“

Die Initiative „Industrial Data Space“, an der mit Unterstützung des Bundesministeriums für Bildung und Forschung verschiedene Fraunhofer-Institute und Unternehmen unterschiedlichster Branchen und Größen – darunter auch catkin – beteiligt sind, schafft die Voraussetzungen für den dringend nötigen sicheren Datenraum. Zwischen allen Beteiligten am Datenaustausch wird ein standardisierter Vertrag geschlossen, der in Software „gegossen“ den Daten immer mitgegeben wird. Er beschreibt, was der Empfänger mit den Daten tun darf und was nicht. Der Sender bleibt Eigentümer, kann Bedingungen der Nutzung festlegen und auch den Zeitraum der Gültigkeit.

Mehr Informationen unter https://www.catkin.eu/HandbuchDigitalisierung

Kernaussagen

Fast die Hälfte der Logistikunternehmen vertrauen in der Kommunikation mit Partnern in der Lieferkette immer noch an erster Stelle auf „traditionelle Methoden“ – wie beispielsweise Telefon, Fax und E-Mail.
Komplexe Dienstleisterstrukturen – wie etwa im Kombinierten Verkehr – erschweren Abstimmungen und damit das Management arbeitsteiliger Prozesse. Trotzdem ist gerade die Logistikbranche mit ihren vielen manuellen Prozessen prädestiniert für enorme Fortschritte durch digitale Innovationen.
Mithilfe einer universellen Logistikplattform für eine vernetzte Auftragsabwicklung und Kommunikation wie zum Beispiel catkin kann bereits heute der Weg in eine Logistik 4.0 beschritten werden, bei der die Transparenz der Supply-Chain im Mittelpunkt steht.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Geert-Jan Gorter

Logistik braucht IT

Nichts bewegt sich ohne eine enge Verzahnung von Logistik und IT. In Zukunft wird der 3D-Druck Dienstleistungen rund um die Logistik verändern.

Die Logistikbranche wird und muss sich im Zuge der Digitalisierung umfassend verändern. Prozesse werden mit Hilfe von neuen Technologien wie RFID, Beacons oder Pick-by-Solutions revolutioniert.
Beispielhaft sind E-Procurement und E-Marketplaces in der Beschaffungslogistik, die mit den zunehmenden Möglichkeiten des Internets überhaupt erst möglich sind. Unternehmen werden flexibler in ihren Beschaffungswegen, -zeiten und -quellen. In der Produktionslogistik wird in Zukunft mit Hilfe von Digitalen Fabriken ein gesamtes Unternehmen in vereinfachter Form abgebildet werden, von Mitarbeitern über Prozesse bis zu den IT-Anwendungen, was der Planung und Steuerung immens hilft. Durch Pick-by-Methoden kann der Kommissionierungsvorgang drastisch beschleunigt werden.

Die Prozesse der Distributionslogistik werden im Bereich der Routenplanung verbessert, was vor allem an einer verbesserten Kommunikationsmöglichkeit liegt. Das ermöglicht eine schnellere Zustellung der Lieferungen. Zusätzlicher Service wird dem Kunden durch Sendungsverfolgung geboten. In den kommenden Jahren werden sich Prozesse noch weiter verbessern, besonders in der Distributionslogistik. Autonom fahrende LKWs, Schiffe, Roboter und Drohnen werden die Zustellung, gerade auch auf der „letzten Meile“ zum Kunden revolutionieren und Personal für diese Bereiche nahezu obsolet machen.

Umfassende Änderungen werden die Logistikbranche treffen. Unternehmen müssen sich also mit  neue Technologien auseinandersetzen und in sie investieren, um konkurrenzfähig zu bleiben. Ein völlig neuer Konkurrent für Logistiker ist z.B. der 3D-Drucker. Denn wieso sollte man sich etwas liefern lassen, wenn man es sich auch zu Hause ausdrucken kann? Das geht schneller, und ist womöglich sogar noch billiger. Zur Zeit ist das Problem nicht so ernst zu nehmen, da die Möglichkeiten des 3D-Drucks noch begrenzt sind. Die meisten Dinge wird man sich schlicht liefern lassen müssen, wobei auch aktuelle Lieferzeiten in den meisten Fällen verkraftbar sind. Startup-Unternehmen haben aktuell bessere Chancen denn je.

TREND REPORT zum Thema

Heft 3/2015 „Vernetzte Gesellschaft“
„Industrie 4.0: Vision wird Realität“, Autor Chris Löwer
https://trendreport.de/industrie-4-0-vision-wird-realitaet-2/

Heft 2/16 „Standort Deutschland digital“
Reportage „IoT: Beginn der Vernetzung“, Autor Chris Löwer, https://trendreport.de/iot-beginn-der-vernetzung/

Bezüglich ihrer Konkurrenzfähigkeit geben sich deutsche Unternehmen relativ zuversichtlich. Wie realistisch diese Einschätzung ist, wird die Zeit zeigen. Wer auch immer in Zukunft führender Logistikdienstleister im deutschen Raum sein wird: Kunden profitieren von neuen Komfort. Zustellungen innerhalb von einem Tag, also Same-Day-Delivery-Modelle, werden zum Standard werden. Für Beschäftigte der Branche gestaltet sich die Lage anders: operative Berufe wie Lagerarbeiter oder auch LKW-Fahrer könnten schnell wegfallen, aber es werden neue Arbeitsplätze in Bereichen wie IT und Controlling geschaffen werden. Wie jede Neuerung bringt die Digitalisierung eben nicht nur positive Auswirkungen für Unternehmen. Neben den sich bietenden Möglichkeiten entsteht die Gefahr, den Anschluss an Konkurrenten zu verlieren und so vom Markt verdrängt zu werden. Grund genug für die BVL, ein Positionspapier zu erstellen, das die Herausforderungen für Politik und Unternehmen beschreibt und Handlungsempfehlungen gibt. Das von den Logistikexperten Professor Michael ten Hompel, Professor Jakob Rehof und Frauke Heistermann erstellte Papier definiert Logistik als „ganzheitliche Planung, Steuerung, Koordination, Durchführung und Kontrolle aller unternehmensinternen und unternehmensübergreifenden Informations- und Güterflüsse.“ Mit dieser Definition der Logistik ist die enge Verzahnung von Logistik und IT festgeschrieben, die im Positionspapier weiter ausgeführt wird.

Quelle und Textlizenz:
https://winfwiki.wi-fom.de/index.php/Einfluss_der_Digitalisierung_auf_die_Logistikbranche; Autoren: Federica Scichilone, Rico Schulte, Niklas Leppkes

Lizenzbestimmungen: https://www.gnu.org/licenses/fdl-1.2

Die digitale Revolution: einfach machen!

von Anette Bronder

Viel Lärm um nichts oder entscheidender Wettbewerbsvorteil? Bei den meisten Unternehmen ist mittlerweile angekommen, dass sie sich mit dem Thema „Digitalisierung“ beschäftigen müssen, um zukunftsfähig zu sein. Fachkräftemangel, ein schärferer Wettbewerb, Start-ups, die mit einer cleveren Idee ganze Branchen umkrempeln, neue technische Möglichkeiten – das sind die großen Herausforderungen, die die heutigen Unternehmen jetzt aktiv angehen müssen. Der Treiber für nachhaltiges Wachstum? Digitaler Fortschritt!

Fast alle Branchen werden mit Chancen und Risiken der Digitalisierung konfrontiert, auch wenn unterschiedliche Bereiche und Prozesse betroffen sind. Unternehmen können im Internet der Dinge einzelne Produkte, Herstellungsprozesse, ganze Wertschöpfungsketten oder auch komplette Geschäftsmodelle vernetzen. Und das müssen sie auch: Kunden erwarten im sogenannten „Age of the Customer“ individuelle, preisgünstige Konsumgüter und schnellen Service. Hier haben deutsche Firmen Nachholbedarf, denn das Potenzial von IoT ist laut einer Studie von PAC erst zu fünf Prozent ausgeschöpft. Es gilt: Wer die erste Halbzeit der Digitalisierung verschlafen hat, muss in der zweiten erst recht Gas geben.

Was hindert Unternehmen daran? Häufig fehlt es an Digitalisierungs-Know-how. Eine aktuelle Studie von Crisp Research ermittelte anhand eines Reifegradmodells die Fähigkeit von Führungskräften, die digitale Transformation ihrer Unternehmen voranzutreiben. Und fand heraus, dass 71 Prozent nur wenig Wissen rund um neue digitale Technologien und auch kein ausgeprägtes „Digital-First“-Denken aufweisen. Viele dieser Entscheider können durchaus konkret die Eigenschaften und Funktionen nennen, die einen „Digital Leader“ ausmachen. Dennoch fehlt ihnen an der ein oder anderen Stelle der Digitalisierungswille und auch das Wissen, es gewinnbringend umzusetzen.

Um den nötigen Sprung in die digitale Welt zu schaffen, sind Dienstleister und Produktanbieter umso mehr gefordert. Besonders branchenspezifische Anwendungen und standardisierte Plattformansätze für den einfachen Einstieg in das IoT werden dringend benötigt. Wir müssen Anwendern Schützenhilfe leisten und Lösungen anbieten, die sich schnell und einfach implementieren lassen. So nehmen wir Unternehmen die großen Ängste vor der digitalen Angriffsfläche und der Komplexität der vernetzten Welt. Eine häufig gestellte Frage: Wie viel muss ich in meinem Unternehmen digitalisieren? Ich rate immer klein anzufangen und den Digitalisierungsgrad langsam auszubauen. Auf einzelne Geräte oder Bereiche begrenzte Lösungen bieten Unternehmern die Möglichkeit, eine Vernetzung auszuprobieren und auf Potenziale für ihr gesamtes Geschäftsmodell abzuklopfen. Besonders für kleine und mittelständische Firmen, die große und riskante Investitionen scheuen, ist dies ein unkomplizierter Weg ins IoT.

Welche Strategie hin zum digitalen Unternehmen ist die richtige? Zunächst sollte man das Potenzial der Digitalisierung für sich erkennen. Maschinenbauer wie Pfannenberg, der Klimatisierungslösungen für Schaltschränke baut, oder der Küchengerätehersteller Rieber vernetzen ihre Geräte, um sie aus der Ferne zu überwachen und zu steuern. Dampfkesselproduzent Certuss geht sogar noch einen Schritt weiter: Er verbindet seine Maschinen mit der Cloud, um die gewonnenen Daten zur vorbeugenden Wartung, der sogenannten „Predictive Maintenance“, zu nutzen. Thomas Hamacher, Chief Technical Officer bei Certuss, sagt, er gehe damit auf „Spurensuche“, um anhand der interpretierten Daten die Geräte vorausschauend zu warten und die Zufriedenheit der Kunden zu erhöhen. Diese Unternehmen haben herausgefunden, wie sie digitale Lösungen für sich nutzen können, und sie haben diese Erkenntnis mithilfe einfach anwendbarer Lösungen in die Tat umgesetzt.

Um Fahrstühle, Kühlschränke oder Werksmaschinen ins Internet zu bringen, sind drei Komponenten vonnöten: Netz, Sensoren, die Daten übertragen, und die Cloud, wo die Daten intelligent ausgewertet werden.

Und von solchen Optimierungen bestehender Produkte und Dienstleistungen sowie effizienteren Strukturen und besseren Kostenstrukturen profitieren bereits viele Unternehmen. Noch aber zögern Firmen, neue Wege einzuschlagen und in das Ungewisse zu investieren. Digitale Transformation erfordert durchaus Mut und vor allem Offenheit. Das ist eine der Herausforderungen. Die andere besteht darin, richtig zu digitalisieren – mit Strategie, den richtigen Partnern und optimalen IT-Lösungen.

Auch wir Dienstleister sind in der Pflicht, denn kein Anbieter kann das Internet der Dinge alleine beherrschen. Starke Kooperationen mit Partnern und ein eng verknüpftes Ökosystem aus Infrastruktur, Plattformen und Produkten, die sich stets branchenübergreifend einsetzen lassen, ist die Voraussetzung für eine umfassende Vernetzung. So lässt sich etwa ein intelligenter Kühlschrank mit anderen Geräten zu einem Smart Home, mehrere Smart Homes mit weiteren Lösungen wie Smart Parking lassen sich zu einer Smart City vernetzen. Doch solche Möglichkeiten sind zugleich sehr komplex. Zudem wächst die Zahl der Anbieter rasant. Dies erschwert Unternehmen die Investitionsentscheidung. Know-how und Vertrauen auf allen Seiten aufzubauen ist ein Muss für IT-Anbieter. Denn wir verkaufen ja keine schnell konsumierbaren Produkte wie Milch oder Kaffee. Vielmehr geht es in der IT-Branche um langfristige, vertrauensvolle Beziehungen mit Kunden und darum, neben dem Verkäufer auch zum Berater und Partner für die Digitalisierung zu werden.

Drei Dinge sind das Grundgerüst einer erfolgreichen digitalen Transformation: Digitalisierte interne Prozesse, ein technologischer Unterbau, der die gesamte IT-Landschaft beheimatet und vernetzt, und nicht zuletzt die digitalen Geschäftsmodelle, die nah am Kunden ausgerichtet sein müssen. Diese Komponenten müssen Unternehmen mit unserer Hilfe in Angriff nehmen; nicht morgen, sondern heute. Sonst setzen sie in der digitalen Welt die Zukunft ihrer Firma aufs Spiel.

Kernaussagen

  • Wer am Markt eine Chance haben will, muss Mut zum Wandel haben und die Digitalisierung sowie die Cloud in den Mittelpunkt der eigenen Strategie stellen.
  • Häufig fühlen sich Unternehmen von der Komplexität der digitalen Welt überfordert. Digitalisierung einfach machen ist Aufgabe der Dienstleister – einen einfachen Einstieg bieten branchenspezifische Anwendungen und standardisierte Plattformen.
  • Keiner kann das IoT allein beherrschen, denn die eine Lösung für alle Zwecke gibt es nicht. Nur mit Partner-Ökosystemen lassen sich die digitalen Kundenwünsche von morgen beantworten.
  • In Zukunft dreht sich alles um die Echtzeitverarbeitung immer dichterer Datenströme aus verschiedenen Quellen; schnelle Netze, intelligente Datenanalyse-Tools und sichere Cloud-Plattformen sind der Schlüssel dazu.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Anette Bronder

Zukunft des 3D-Drucks und Industrie 4.0

Die TREND-REPORT-Redaktion im Dialog mit Prof. Dr. Welf Wawers von der Hochschule Bonn-Rhein-Sieg über das Thema 3D-Druck und die Folgen für die Industrie 4.0.

Herr Prof. Dr. Wawers, welches Potenzial hat die 3D-Drucktechnologie für das Internet of Things bzw. für Industrie 4.0?
In der Industrie 4.0 stehen intelligente Maschinen, Anlagen und Geräte, kurz cyberphysische Systeme, in Kommunikation und Kooperation mit Menschen, Logistik und Produkten. Ziel dieser Vernetzung ist die endverbrauchernahe industrielle Produktion des personalisierten Produkts, am liebsten in Echtzeit. Diese gewollt dezentralisierte Organisation kann nicht an einer zentralisierten Fertigungsstätte, beispielsweise einem Fließband in Fernost, enden. Hier muss, in logischer Konsequenz, eine disruptive Technologie wie der 3D-Druck stehen, der dann quasi die Vollendung dieses Wertschöpfungsnetzwerks bildet. Mit ihrer extrem hohen Flexibilität ist die 3D-Drucktechnologie in der Lage, die von den cyberphysischen Systemen über das Internet der Dinge gesammelten Daten zur z. B. Beanspruchung, Nutzung oder Alterung eines Produktes direkt in entsprechende bauliche Optimierungen umzusetzen. Für jedes einzelne Produkt, wohlgemerkt. Das Austauschprodukt oder Nachfolgemodell steht dann für den Nutzer passend zum Ende des Produktlebens zur Abholung bereit. Und zwar in der intelligenten Fabrik 4.0, zwei Straßenecken weiter. Tatsächlich haben jetzt schon laut der Erhebung des jungen Amsterdamer Unternehmens 3D Hubs eine Milliarde Menschen Zugang zu einer 3D-Produktionsstätte in höchstens 16 km Entfernung. Und Schätzungen gehen davon aus, dass sich die Zahl der 3D-Drucker jährlich verdoppeln wird.

Was ist in diesem Kontext dann disruptiv?
Durch die sich der 3D-Drucktechnik bedienende Fabrik 4.0 wird nahezu jeder Bereich der Produktentstehungskette beeinflusst, wenn nicht revolutioniert. Das beginnt bereits bei der Produktplanung und -bewerbung. In der konservativen Massenproduktion stellen aufwändige Studien und Feldversuche sicher, dass ein und dasselbe Produkt die Bedürfnisse eines möglichst großen Personenkreises erfüllt. Die individualisierte 3D-Drucktechnik stellt diese Sichtweise auf den Kopf. Nicht mehr das in den Forschungsabteilungen ausgeklügelte Design eines Produkts entscheidet über dessen Markterfolg, sondern wie weit sich dieses Design bei voller Funktionalität individualisieren lässt. Auch ermöglicht die 3D-Drucktechnologie die Herstellung völlig neuer Produkte mit hochkomplexem, bislang nicht herstellbarem Design. Stichwort hier ist beispielsweise der Leichtbau nach dem Vorbild von Knochenstrukturen. Reverse Engineering, die Erforschung und der Nachbau vorhandener Strukturen, erhält hier einen ganz neuen Stellenwert in den Entwicklungsabteilungen. Vor nicht minder großen Neuerungen steht die Produktion, Logistik und Lagerhaltung. Mit der 3D-Drucktechnik wird die Herstellung eines Einzelstückes genauso kostengünstig wie ein Bauteil aus der Massenproduktion. Damit wird einer der Hauptauslöser der zweiten industriellen Revolution, heute würde man sagen der Industrie 2.0, praktisch zu Grabe getragen. Die hochautomatisierte Produktion 4.0 ist darüber hinaus auch in Hochlohnländern rentabel. Die Verlagerung von Produktionsstätten nach Fernost und der damit verbundene weltweite Warentransfer sind nicht mehr erforderlich. Die Hersteller von Massenprodukten müssen dann nicht nur die Konzeption und Lage ihrer Fabrikationsstätten überdenken, sie sehen sich auch einer neuen Konkurrenz gegenüber. Mit konventionellen Fertigungsverfahren stellt der Einstieg in ein neues Produkt oftmals eine große finanzielle und logistische Herausforderung dar. Produktionslinien müssen umgestellt werden, Arbeiter an neuen Maschinen angelernt werden usw. Verglichen damit sind die Anstrengungen in der hochflexiblen 3D-Drucktechnologie minimal. Ein und dieselbe Maschine kann heute Zahnbürsten produzieren und morgen Turnschuhe. Lediglich Herstelldaten und Rohmaterial müssen ausgetauscht werden. Damit fallen für viele Firmen Hindernisse weg, die bislang den Einstieg in neue Produkte erschwerten oder gar verwehrten. Wenn wir noch einen Schritt weiterdenken, wird sich die Produktion auch in die Haushalte verlagern, die zunehmend über eigene 3D-Drucker verfügen. Einige Medien sprechen hier bereits von einer „Demokratisierung des Produkts“. Auch wenn die 3D-Drucktechnologie die konventionellen Fertigungsmethoden nicht vollständig verdrängen wird, werden durch sie tiefgreifende Veränderungen ausgelöst. Nicht nur in der Produktion, auch im Handel und in der Gesellschaft.

Wie reagiert darauf die deutsche Maschinenbaubranche? Was sollten dann deutsche Maschinenbauer tun und wie schnell wird sich der 3D-Druck verbreiten?
Die traditionell eher konservativ eingestellte deutsche Industrie scheint dieser neuen Technologie gegenüber recht aufgeschlossen zu sein. Laut einer aktuellen Studie von Ernst & Young sind deutsche Firmen beim 3D-Druck sogar weltweit führend, was die Umsätze mit 3D-Produkten angeht. In Zahlen ausgedrückt kommt Ernst & Young auf einen Jahresumsatz von fast einer Milliarde Euro, bei weltweit ca. 10 Milliarden Euro. Verglichen mit dem Gesamtumsatz des deutschen Maschinenbaus, in 2015 rund 247 Milliarden Euro, ist das aber immer noch relativ gering. Umso überraschender ist, dass von den 200 deutschen von Ernst & Young befragten Unternehmen immerhin 37 % Prozent angaben, die 3D-Drucktechnologie bereits zu nutzen. Die Diskrepanz erklärt sich wahrscheinlich dadurch, dass viele der befragten Firmen die Technik für interne Prozesse nutzen, beispielsweise den Prototypenbau, und keinen direkten Umsatz mit dem Vertrieb dieser Bauteile erzielen. Es gibt aber auch kritische Stimmen, die die deutsche Maschinenbaubranche der Technologie hinterherfahren sehen. So schrieb das manager-magazin noch 2015 von der Gefahr, dass deutsche Unternehmen den Siegeszug des 3D-Drucks verschlafen könnten. Als einer der weltweiten Vorreiter wurde hier China genannt, wo heute bereits neben kompletten Autos auch Wohnhäuser im 3-Druck erstellt werden. Während das in Deutschland derzeit noch undenkbar ist, planen die Chinesen bereits mit einem weltweiten Massenmarkt. Und die Nachfrage gibt ihnen Recht, Ägypten hat zum Beispiel schon 20 000 gedruckte Häuser geordert. Tatsache ist, dass wir weltweit gerade erst dabei sind, das immense Potenzial und die revolutionierenden Veränderungen zu begreifen, die mit der rasant anwachsenden 3D-Drucktechnologie einhergehen. Schätzungen sehen das jährliche Wachstum des Marktes bei 30 % (Roland Berger) oder sogar 34 % (Morgan Stanley). Der US-Marktforscher Gartner geht davon aus, dass bereits 2018 50 % aller Hersteller von Konsumgütern, Schwergütern und Biogütern die 3D-Drucktechnik nutzen werden. Siemens sagte 2015 für die nächsten fünf Jahre ein Anwachsen der Druckgeschwindigkeit um 400 % bei gleichzeitiger Halbierung der 3D-Druckkosten voraus. Wenn man die Zahlen der weltweit verkauften 3D-Drucker betrachtet, summieren sich diese in konservativen Schätzungen für 2020 auf ca. 25 Millionen, die wiederum Milliarden von Bauteilen ausdrucken werden. Der Zug ist also noch lange nicht abgefahren, im Gegenteil. Baldiges Aufspringen wäre aber trotzdem ratsam.

In welchen Industriezweigen wird sich der 3D-Druck zunächst durchsetzen?
Bereits lange fest etabliert ist der 3D-Druck im Prototypenbau, der ersten, als „Rapid Prototyping“ bezeichneten Anwendung. Aber auch im Werkzeugbau, Formenbau und in der Ersatzteilherstellung hat das Verfahren als „Rapid Manufacturing“ oder auch „Additive Manufacturing“ Fuß gefasst. Hier haben die großen, teilweise einzigartigen Vorteile des Verfahrens, die extrem hohe Flexibilität und die nahezu uneingeschränkte Geometriefreiheit, frühzeitig Vorbehalte gegenüber dieser neuen Technologie beiseitegeschoben. Ein gutes Beispiel ist der Spritzguss in der Kunststoffproduktion. Bis zu 70 % kann die Kühlzeit innerhalb der Zykluszeit der Serienfertigung ausmachen. Um die Kühlzeit zu reduzieren, sind im Spritzgusswerkzeug konturnahe Kühlkanäle erforderlich. Deren Herstellung bringt den konventionellen Werkzeugbau aufgrund der komplexen Geometrien oftmals an seine Grenzen, im 3D-Druck ist das problemlos herstellbar. Der nächste Schritt, den einige Hersteller schon gegangen sind, ist es, die Werkzeuge gleich ganz wegzulassen und die Kunststoffbauteile direkt im 3D-Druck herzustellen. Ermöglicht wird dies durch die rasante Zunahme der Druckgeschwindigkeit und die kontinuierliche Qualitätsverbesserung der Ausdrucke. Damit öffnet sich auch der Massenmarkt für Konsumgüter der 3D-Produktion. Ein anderer Industriezweig, der vorwiegend Individualprodukte hervorbringt und daher auch schon länger den 3D-Druck erfolgreich einsetzt, ist die Medizintechnik. Neben Zahnimplantaten können passgenaue Titan-Prothesen im 3D-Drucker hergestellt werden. Originalgetreue, schnell aufgebaute 3D-Modelle beschädigter Organe helfen bei der Operationsvorbereitung. Zukunftsvision, aber bereits im Forschungsstadium befindlich ist der 3D-Druck funktionsfähiger Organe und Stammzellen. Auch im Leichtbau, und speziell in der Luftfahrtindustrie, hat die Technologie Einzug gehalten und wird weiter wachsen. Die Geometriefreiheit des 3D-Drucks eröffnet hier neue Möglichkeiten der Gewichtseinsparung bei erhöhter Steifigkeit. Und auch der Mittelstand beginnt die Vorteile der neuen Technologie für sich zu entdecken. Einer Umfrage des Münchner Marktforschungsinstituts Pierre Audoin Consultants (PAC) im Auftrag der Freudenberg IT zufolge sind 45 % der befragten mittelständischen Fertigungsunternehmen der Meinung, dass sich mit dem Einsatz von 3D-Druckern Kosten- und Effizienzvorteile realisieren lassen, Tendenz steigend.

Gibt es anschauliche Beispiele?
Es gibt viele Beispiele dafür, dass Unternehmen, auch aus Deutschland, das Potenzial der 3D-Drucktechnologie schon erkannt haben. Im Bereich der Massenproduktion baut adidas derzeit eine „Speedfactory“ im fränkischen Ansbach auf. Dank 3D-Drucktechnik und vernetzter Maschinen sollen ab 2017 auf 4 600 m² 500 000 Paar Schuhe pro Jahr gefertigt werden, zum ersten Mal seit 30 Jahren wieder „Made in Germany“. Airbus setzt in seinem Werk in Bremen verstärkt auf den 3D-Druck und plant, 10 % seiner Ersatzteile mit diesem Verfahren selber herzustellen. 3D-gedruckte Prototypen werden bei Mercedes-Benz Lkw schon seit einigen Jahren eingesetzt, und seit September dieses Jahres bietet das Unternehmen auch erstmals Ersatzteile aus dem 3D-Drucker an. Mercedes-Benz betont dabei, dass bei der Qualität, Langlebigkeit, Zuverlässigkeit, Wirtschaftlichkeit und Funktionalität die gleichen Maßstäbe wie in der klassischen Ersatzteilproduktion angelegt werden. Auch die BMW AG benutzt bereits die 3D-Drucktechnologie. Bislang wurden damit hauptsächlich exotische Bauteile wie die im metallischen 3D-Druck hergestellte Wasserpumpe des DTM-Rennwagens hergestellt. Nun soll der 3D-Druck langfristig in die Produktionsstrategie auch für Serienteile integriert werden. BMW arbeitet dabei mit HP zusammen, das nach langem Zögern seit Mai dieses Jahres seine ersten eigenen 3D-Drucker anbietet. Überhaupt ist es verwunderlich, dass die großen Drucker-Hersteller so spät in die 3D-Drucktechnik eingestiegen sind. Canon ist seit 2015 dabei, Epson bereitet immerhin gerade den Einstieg in die 3D-Drucktechnik vor. Bei Brother und bei Lexmark sucht man derzeit noch vergeblich nach einem 3D-Drucker. Gerade diese Zurückhaltung hat aber jungen deutschen Unternehmen die Möglichkeit gegeben, sich zu entfalten. Mit SLM Solutions aus Lübeck ist 2014 der erste deutsche Hersteller von industrietauglichen 3D-Druckanlagen an die Frankfurter Börse gegangen, kurz nachdem das ebenfalls deutsche Unternehmen Voxeljet an der New Yorker Börse notiert hat. Weitere bedeutende Hersteller sind Concept Laser aus dem bayrischen Lichtenfels und EOS aus Krailling bei München, um einige zu nennen. Tatsächlich sind deutsche Hersteller industrietauglicher 3D-Druckanlagen laut der WirtschaftsWoche vom Januar 2014 ihren Mitbewerbern aus den USA und Asien technisch um Jahre voraus.

Kernaussagen

  • Die Wirkung des 3D-Drucks ist bis weit in die Gesellschaft hinein. Durch 3D-Drucker für den Heimgebrauch sprechen Experten schon von der „Demokratisierung des Produktes“.
  • Im „Rapid Prototyping“ ist der 3D-Druck bereits lange fest etabliert. Weitere Einsatzbereiche sind z. B. Werkzeugbau, Formenbau und Ersatzteilherstellung.
  • Die Produktion eines Konsumguts kann nun auch wieder in Hochlohnländern lohnenswert sein.

Mit welchen Weiterentwicklungen und Innovationen ist in den nächsten zwei bis drei Jahren zu rechnen?
Der Bereich der technischen Weiterentwicklungen der 3D-Drucktechnologie konzentriert sich auf die Erhöhung der Druckgeschwindigkeit, die Reduzierung der Druckkosten und die Verbesserung der Druckqualität. Auch in der teilweise aufwändigen und bei Metallen auch nicht ganz ungefährlichen Rohmaterialherstellung wird intensiv geforscht. Feines Pulver, sei es von Metallen oder anderen Stoffen, ist besonders reaktionsfreudig, wodurch es sich leicht entzünden kann. Ein Beispiel dafür sind Mehlstaubexplosionen in Getreidemühlen. Ein weiterer Forschungsschwerpunkt ist die Weiterentwicklung der Druckstrategie. Das betrifft beispielsweise den Ausdruck eines Bauteils aus verschiedenen Materialien oder die Herstellung kompletter, aus beweglichen Teilen bestehender Baugruppen in einem 3D-Druck, „Print-in-Place“ (PIP) genannt. Mitsubishi hat kürzlich auch den „5D-Druck“ vorgestellt. Tatsächlich handelt es sich dabei um einen 3D-Drucker mit 5 Achsen. Die hergestellten Musterbauteile, Druckkappen, halten einem drei- bis fünfmal stärkeren Berstdruck gegenüber „nur“ 3D-gedruckten Bauteilen stand. Die Technik ist also noch lange nicht ausgereizt, mit technischen Innovationen ist auch weiterhin zu rechnen. Was die Marktentwicklung und das Wachstum der 3D-Drucktechnologie angeht, gibt es zahlreiche positive Zukunftsprognosen, die bereits erwähnt wurden. Außerdem werden sich auch neue Märkte und Geschäftsmodelle eröffnen. 3D-Druck-Shops werden zunehmen. Manche nach Art der Copy-Shops, in denen man eben schnell den durchgebrochenen Hebel der Kaffeemaschine 3D-kopiert, aber auch kleine Fabrikationsstätten, die Bauteile von Einzelstücken bis zur Großserie in Lohnfertigung herstellen. Und da auch immer mehr Konsumenten über eigene 3D-Drucker verfügen, wird sich auch ein Markt für virtuelle Bauteile eröffnen, in dem statt physischer Produkte deren 3D-Design verkauft wird. Es ist auch vorstellbar, dass diese Konsumenten ihre privaten 3D-Drucker zur Bauteilherstellung auf Internetplattformen anbieten, sich also quasi „Baubörsen“ bilden werden. Natürlich werden solche Geschäftsmodelle, und auch die 3D-Druck-Shops, Fragen nach der Produkthoheit und dem Gebrauchsmusterschutz aufwerfen. Andere Geschäftsbereiche werden sich verändern müssen. Im Zuge der endverbrauchernahen, bedarfsgerechten 3D-Produktion wird es nicht mehr notwendig sein, Produkte über weite Strecken zu transportieren oder große Stückzahlen davon zu lagern. Die Logistik oder der After-Market stehen hier vor ganz neuen Herausforderungen, während die Industrie wieder im Heimatmarkt produzieren kann. Dieser Trend des „Reshorings“, der Rückkehr der Produktion in die Heimmärkte, ist derzeit weltweit zu beobachten, wie das Beispiel adidas zeigt. Abschließend, aber deswegen nicht weniger wichtig, sei noch der Aspekt des Umweltschutzes erwähnt. Der weltweite Warenverkehr stellt eine enorme Belastung der Umwelt dar. Endverbrauchernahe Produktion wird damit zur umweltgerechten Produktion. Wenn dieses Label von Politik und Gesellschaft erkannt wird, bekommen Unternehmen, die noch nicht in die 3D-Drucktechnologie eingestiegen sind und an ihren Produktionsstätten in Niedriglohnländern festhalten, ein Problem. All diese Entwicklungen werden sicher nicht innerhalb der nächsten zwei bis drei Jahre passieren, aber zumindest ihren Anfang nehmen.

Gibt es aktuelle Forschungsprojekte?
Meine Forschungsarbeiten an der Hochschule Bonn-Rhein-Sieg stehen als neuberufener Professor noch am Anfang. Derzeit bauen wir gerade mehrere Laserlabore auf. Geplant sind u. a. Forschungsarbeiten zum „Selective Laser Melting“ (SLM), dem marktführenden 3D-Druckverfahren für metallische Bauteile. Ein Thema, dem ich mich am Fraunhofer Institut für Lasertechnik bereits während meiner Studienzeit gewidmet habe. Konkrete Forschungsfragen sind beispielsweise, inwieweit sich bionische Strukturen mittels Reverse Engineering und dem 3D-Druck für technische Anwendungen, z. B. den Leichtbau, nutzbar machen lassen.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Prof. Dr. Welf Wawers

Internet of Things

Smart Things kommunizieren über das Internet der Dinge miteinander, wodurch neue Möglichkeiten automatischer Prozesse entstehen.

von Andreas Fuhrich

Statt selbst Gegenstand der menschlichen Aufmerksamkeit zu sein, soll das „Internet der Dinge“ den Menschen bei seinen Tätigkeiten unmerklich unterstützen. Dabei bezeichnet das Internet of Things (IoT) die Verknüpfung eindeutig identifizierbarer physischer Objekte mit einer virtuellen Repräsentation in einer internetähnlichen Struktur.

Die automatische Identifikation mittels RFID wird oft als Grundlage für das Internet der Dinge angesehen. Allerdings kann eine eindeutige Identifikation von Objekten auch mittels anderer Identifikationsverfahren, wie Strichcode oder 2D-Code, erfolgen. Bauteile wie Sensoren und Aktoren erweitern die Funktionalität um die Erfassung von Zuständen bzw. die Ausführung von Aktionen.

Ziel des IoT ist die automatische Übertragung von Zustandsdaten realer Dinge in die virtuelle Welt, um dort weiterverarbeitet werden zu können. Solche Daten können beispielsweise Informationen über die aktuelle Nutzung, den Verbrauch, aber auch über besondere Umweltbedingungen am Ort des „Things“ sein. In einem IoT-Netzwerk kommunizieren auf diese Weise mehrere Dinge miteinander und sind in der Lage, sich gegenseitig Aufgaben zuzuweisen.

Wearables sind ein typisches Einsatzgebiet des IoT. Eine Smartwatch kann beispielsweise ihren Träger genau lokalisieren und diese Daten an die Heizung im Smart Home übermitteln. So kann sich diese automatisch ausschalten, falls das Haus verlassen wird, und sich einschalten, wenn man sich nähert.
In der Wirtschaft spielt das IoT vor allem im Zusammenhang mit der Industrie 4.0 eine wichtige Rolle. Dabei soll, nach Plänen der Bundesregierung, eine weitestgehend selbst­organisierte Produktion möglich werden: Menschen, Maschinen, Anlagen und Produkte kommunizieren und kooperieren direkt miteinander. Durch die Vernetzung soll es möglich werden, nicht mehr nur einen Produktionsschritt, sondern eine ganze Wertschöpfungskette zu optimieren. Das Netz soll zudem alle Phasen des Lebenszyklus des Produktes einschließen – von der Idee eines Produkts über die Entwicklung, Fertigung, Nutzung und Wartung bis hin zum Recycling. Durch die Aktionen, die auf Basis der Daten des eigenständigen Informationsaustauschs zwischen Produktionsmaschinen, Lagersystemen und Betriebsmitteln entstehen, ergeben sich diverse Vorteile: Produkte können effizienter hergestellt werden und die Produktqualität kann verbessert. Der Energieverbrauch kann optimiert werden, da die einzelnen Teilnehmer eines IoT-Netzwerks nur dann aktiv sind, wenn sie wirklich benötigt werden. Durch die Nutzung moderner Technologien wird der Arbeitsplatz auch für die Mitarbeiter attraktiver. Zudem können Produkte kundenindividueller hergestellt werden, wodurch die Kundenbindung verbessert wird.

Von entscheidender Bedeutung beim IoT ist das Thema Sicherheit. Schließlich können Hacker nicht nur Daten stehlen oder verändern, sondern auch die Steuerung der Dinge übernehmen. Das Gefahrenpotenzial etwa im E-Health-Bereich oder bei Steuerungssystemen eines Kraftwerks ist daher außerordentlich.

Künstliche Intelligenz

Selbstlernende Maschinen nutzen Big Data und Cloud-Computing, um laufend die abhängigen Prozesse zu optimieren.

von Andreas Fuhrich

Eine eindeutige Definition des Begriffs Künstliche Intelligenz (KI) sucht man zwar vergebens, aber zumindest für den aktuellen, die Wirtschaft betreffenden Diskurs lässt er sich relativ klar skizzieren. Im Wesentlichen lässt sich er sich dabei in die Bereiche des maschinellen Lernens und des Cognitive Computings aufteilen:
Unter maschinellem Lernen versteht man die Fähigkeit eines künstlichen Systems, aus Erfahrung Wissen zu generieren. Dabei werden nicht nur Beispiele auswendig gelernt, sondern Muster und Gesetzmäßigkeiten erkannt, wodurch es in die Lage versetzt wird, auch unbekannte Daten beurteilen zu können. Kognitive Systeme gehen bei der Humanisierung der Maschine noch einen Schritt weiter. Neben der Fähigkeit des Lernens sind sie auch in der Lage, mit Ambiguitäten und Unschärfen umzugehen. Wichtige Voraussetzungen für eine KI beim „natürlichen“ Umgang mit menschlicher Sprache oder dem Deuten von Emotionen aus einer Gesichtsmimik.

Durch die Entwicklung der Informationstechnologie sind immer größere Datenmengen (Big Data) verfügbar. Diese enthalten oft implizites Wissen, das, wenn es bekannt wäre, große wirtschaftliche oder wissenschaftliche Bedeutung hätte. Unter Data-Mining versteht man die Suche nach potenziell nützlichem Wissen in großen Datenmengen – maschinelle Lernverfahren gehören zu den Schlüsseltechnologien innerhalb dieses Gebiets. Sie unterstützen den Data-Mining-Prozess vor allem beim Aufspüren neuer Muster und Gesetzmäßigkeiten. Andererseits unterstützt der Data-Mining-Prozess aber auch das maschinelle Lernen, indem dadurch neue Lerndaten zur Verfügung gestellt werden.

Zusätzlich profitiert das maschinelle Lernen von den Entwicklungen der Cloud-Technologie, denn flexible Rechenkapazitäten und Managed Services machen den Einsatz von Machine-Learning einfacher. Die großen Cloud-Anbieter wie Amazon, Google und Microsoft bieten Machine-Learning bereits als Schnittstelle (API) an. Durch Open-Source-Projekte wie Prediction.io oder TensorFlow steht zudem Technologie frei zur Verfügung, auf der man aufsetzen kann.

Nach aktuellen Prognosen von Crisp Research werden sich die Ausgaben für Infrastruktur, Software und Plattformen, Algorithmen-Design und verbundene Dienstleistungen von rund  1,96 Mrd. Euro in 2015 auf rund 15 Mrd. Euro im Jahr 2020 nahezu verzehnfachen.(1)

Einsatzmöglichkeiten für künstliche Intelligenz entstehen dabei für nahezu alle Branchen, weshalb sich CIOs und Digitalisierungsverantwortliche darauf gefasst machen sollten, dass nicht nur unternehmensintern diese Art von Skills nachgefragt werden. Die Anzahl an Machine-Learning-Spezialisten ist begrenzt und die Schnittmenge derjenigen, die auch noch Business-Verständnis mitbringen, umso kleiner. Für Unternehmen ist es daher umso wichtiger, sich rechtzeitig um Experten für den eigenen Betreib zu bemühen, z. B. durch Kooperationen mit Universitäten, um unmittelbar die Nachwuchskräfte zu binden, die auf dem freien Arbeitsmarkt kaum zur Verfügung stehen werden.

(1) „Künstliche Intelligenz und echte Profite – Machine Learning auf dem Weg in den Mainstream“, von: Carlo Velten, 2016, URL: https://www.crisp-research.com/kunstliche-intelligenz-und-echte-profite-machine-learning-auf-dem-weg-den-mainstream/ (Abgerufen: 24.November 2016).

Digitalisierung als Treiber der Mission: Mitarbeiter

von Doris Albiez

Bereits zum dritten Mal innerhalb weniger Jahrzehnte verändert die IT nun unsere Arbeitswelt. Als Ende der 60er-Jahre zum ersten Mal IT-Systeme, sie hießen damals noch „EDV“, auf breiter Front eingeführt wurden, betraf das nur große Unternehmen. Der gewaltige Umbruch ist fast schon vergessen, und dass davor Banken die Konten noch weitgehend von Hand verwalteten, dass Einwohnermeldeämter mit riesigen Karteikästen arbeiteten, ist kaum noch vorstellbar. Die Arbeit in Banken, Versicherungen und Behörden veränderte sich, und der grün leuchtende Bildschirm eines Großrechner-Terminals wurde an vielen Arbeitsplätzen unverzichtbar. Damals verschwanden die „Kontoristen“ aus den Büros, neue Berufsbilder entstanden: „Programmierer“ oder – schon wieder fast vergessen – „Datentypistin“.

Ein zweiter Umbruch der Arbeitswelt erfolgte mit den Arbeitsplatzrechnern Anfang der 80er-Jahre. Jetzt übernahmen PCs viele manuelle Arbeitsprozesse in Unternehmen aller Größenordnungen bis zu Arztpraxen und Kanzleien. Wieder verschwanden ganze Berufsbilder – die Schreibkraft ebenso wie das hoch angesehene Handwerk des Schriftsetzers. Zugleich entstanden neue Berufe. Man konnte nun Netzwerkadministrator, EDV-Kaufmann oder Medizininformatiker werden. Doch die IT veränderte innerhalb weniger Jahre auch nahezu alle Berufe: Ob Ärzte, Buchhalter, Piloten, Musiker, Bäcker, Vertreter oder Designer, früher oder später bekamen es alle mit dem PC zu tun.

Derzeit stehen wir am Anfang einer dritten Umwälzung der Arbeitswelt durch IT-Technologien. Diesmal werden die Veränderungen noch tiefgreifender sein. Die Digitalisierung vernetzt intelligente Systeme umfassend und grenzenlos; der ständige Zugang zu Informationen aus aller Welt und eine universelle Kommunikationsfähigkeit revolutionieren sämtliche Arbeitsprozesse. Sie werden flexibler, weil sie nicht mehr an bestimmte Orte und Zeiten gebunden sind und die nötigen digitalen Ressourcen überall zur Verfügung stehen, sei es auf mobilen Geräten oder in der Cloud. Das hat natürlich erhebliche Auswirkungen auf die jeweiligen Arbeitsplätze und damit auf die Mitarbeiter, die dabei nicht auf der Strecke bleiben dürfen.

Arbeitsprozesse

Doch die aktuellen Veränderungen unterscheiden sich erheblich von den früheren. Der durch die Digitalisierung initiierte Wandel ist umfassender, weil er alle Branchen und alle Berufsgruppen betrifft: Banken und Versicherungen, Handel, Industrie, Medien oder Gesundheitswesen. Vor allem aber sind alle Ebenen betroffen: Intelligente Tools, vernetzte, selbstlernende Systeme oder „künstliche Intelligenz“ können Arbeitsprozesse auf breiter Front automatisieren und effizienter organisieren. Wurde zum Beispiel die ehemalige Schreibkraft weitgehend durch Angestellte mit Textverarbeitungssystemen ersetzt, so geht die Digitalisierung nun noch einen Schritt weiter: Sie automatisiert durch selbstlernende Systeme das Erstellen des Contents selbst. Software-Roboter schreiben dann beispielsweise Börsennachrichten.
Es werden also nicht mehr wie bisher nur Routinetätigkeiten automatisiert, sondern auch qualitativ hochwertigere Aufgaben von „Wissensarbeitern“, zum Beispiel von Lehrern, Bankangestellten oder Anwälten. Der Unterschied der Digitalisierung zu den früheren Phasen ist deutlich: Der Arzt nutzt nicht mehr nur eine Arzt-Software zu Verwaltung von Patientendaten, er wird bei der Diagnose von intelligenten Systemen unterstützt und in manchen Fällen können solche Systeme Aufgaben auch ganz übernehmen.

Arbeitsplätze

Diese Entwicklungen führen dazu, dass sich die Arbeitsplätze erheblich verändern. Wie der Arbeitsplatz der Zukunft genau aussieht, lässt sich heute noch kaum abschätzen, und die Mehrzahl der Berufe, in denen wir in fünf oder zehn Jahren arbeiten werden, sind heute noch gar nicht bekannt. Wissensmanager, Produktionstechnologe oder IoT-Planer könnten solche Berufe sein. Darauf müssen sich nicht nur die Arbeitnehmer selbst einstellen, sondern auch die Unternehmen; beide Seiten müssen hier umdenken und können nicht erwarten, dass sich bisheriges einfach fortschreiben lässt.

Zugleich schafft die Digitalisierung auch neue Modelle des Arbeitens. Herkömmliche Arbeitsstrukturen lösen sich langsam auf oder werden zurückgedrängt. Immer häufiger arbeiten Mitarbeiter in virtuellen Teams, die unabhängig von festen Orten für Projekte aus wechselnden Mitgliedern zusammengestellt werden. Fachkräfte arbeiten im Homeoffice, von unterwegs aus oder flexibel als Freelancer mal für dieses, mal für jenes Unternehmen.

Arbeitnehmer

Was für Mitarbeiter wirklich wichtig ist…

Arbeitsplätze sind aber nicht abstrakte Entitäten, sondern bedeuten immer auch Mitarbeiter. Sie sind von der Digitalisierung ganz persönlich massiv betroffen. Mühevoll erworbenes Wissen wird überflüssig, langjährige Erfahrung obsolet – neues Wissen ist verlangt und entsteht nicht von selbst. Der enorme Anpassungsaufwand bringt unvermeidlich auch Reibungen. Für den Erfolg der Digitalisierung wird es nicht zuletzt darauf ankommen, wie Unternehmen diese Anpassungen bewältigen. Sie müssen dem Mitarbeiter Anerkennung und Wertschätzung vermitteln. Vom Wissen, von der Kreativität, aber auch von der Motivation der Beschäftigten hängt ab, ob das alles tatsächlich so funktionieren wird, wie es sich die Strategen der Digitalisierung vorstellen. Unternehmen müssen daher eine „Mission Mitarbeiter“ starten und ihr Verhältnis zu Mitarbeitern neu definieren. So hat Dell im Plan 2020, in dem die Position des Unternehmens in Umwelt und Gesellschaft festgehalten wurde, den Mitarbeitern viel Raum eingeräumt und spezielle Förderprogramme aufgesetzt. Der Arbeitsplatz der Zukunft braucht ein attraktives Arbeitsumfeld, in dem die Teammitglieder ihr Potenzial entfalten und ihre persönlichen Ziele erreichen können.

Eines der bemerkenswertesten Resultate der aktuellen Studie zur „Future Workforce“, die Dell und Intel erstellt haben, ist der hohe Wert von 89 Prozent, der sich in Deutschland für die Zufriedenheit mit dem aktuellen Job ergab. Dieser außerordentliche Motivationsfaktor muss in den Umwälzungen der Digitalisierung erhalten bleiben. Ein motiviertes Team war immer schon ein Wettbewerbsvorteil – in der Digitalisierung ist es eine Voraussetzung, ohne die Unternehmen ein derart anspruchsvolles Konzept nicht realisieren können.

Future-Workforce-Studie

Ob und wie weit die Mitarbeiter für diesen Prozess bereit sind, ist für einen erfolgreichen Transformationsprozess entscheidend. Die Future-Workforce-Studie zeigt, dass die Mitarbeiter bei der künftigen Entwicklung der Arbeitswelt der Technologie eine wichtige Rolle zumessen: In Deutschland erwartet sich davon eine deutliche Mehrheit mehr Produktivität – soweit es sich um konkrete Anwendungen handelt: So erreichen schnelleres Internet (63%), moderne Geräte (63%) und besseres Messaging (51%) hohe Zustimmung, während die Möglichkeiten der Produktivitätssteigerung etwa durch künstliche Intelligenz (38%) weniger vorteilhaft gesehen werden. Von einer ablehnenden Haltung gegenüber neuen Technologien kann bei den Mitarbeitern jedenfalls keine Rede sein.
Die mit der Digitalisierung verbundene Neuorganisation der Arbeitswelt ist bei den Beschäftigten noch nicht durchgängig angekommen. Auf die Frage, wo sie am besten arbeiten können, nennt mehr als die Hälfte das traditionelle Büro, nur 14 Prozent nennen das Homeoffice und ebenso viele geteilte Arbeitsräume („Shared Office Space“).

Mitarbeiter bevorzugen den persönlichen Kontakt

Eine zentrale Rolle spielen für die Beschäftigten der Studie zufolge die sozialen Aspekte des Arbeitsumfelds: persönlicher Kontakt und direkter Austausch mit Kollegen ist wichtiger als die eingesetzte Technologie. Nicht zuletzt davon hängen die hohen Werte für die Zufriedenheit mit dem aktuellen Job ab, die wiederum eine Voraussetzung für Motivation und hohe Produktivität ist. Es wird in der digitalen Transformation wesentlich darauf ankommen, dieses Zufriedenheitsniveau der Mitarbeiter auch über die anstehenden Veränderungen hinweg zu erhalten und im Zuge einer „Mission Mitarbeiter“ ein attraktives und interessantes Arbeitsumfeld zu schaffen, in dem alle Teammitglieder ihr Potenzial entfalten können.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Doris Albiez