Die EU-DSGVO im Kontext der Digitalisierung

Risikofaktor IoT: Schützenswert sind alle Informationen, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen.

von Dr. Ralf Magagnoli

Am 25. Mai 2016 trat die EU-Datenschutzgrundverordnung (EU-DSGVO) in Kraft, ab dem 25. Mai 2018 müssen die EU-Mitgliedstaaten die Verordnung anwenden. Obwohl das Bewusstsein in den Chefetagen der Unternehmen gestiegen ist, sind nicht alle Unternehmen gut aufgestellt.
Mit der EU-DSGVO gibt es erstmals eine Verordnung, die das Datenschutzrecht EU-weit vereinheitlicht und die Unternehmen zum Nachweis verpflichtet, die Prinzipien des EU-Datenschutzes einzuhalten. Sie gilt für in der EU ansässige Unternehmen, aber auch für ausländische Unternehmen, wenn diese eine Niederlassung in der EU haben oder Daten von EU-Bürgern verarbeiten. Also de facto für alle größeren internationalen Unternehmen, aber auch für viele Mittelständler und KMU.
Die Strafen bei Verletzung der EU-DSGVO sind saftig: Bis zu 20 Millionen oder vier Prozent des Jahresumsatzes – im Zweifelsfall gilt der höhere Wert.

DSGVO und IoT

Als Daten gelten dabei nicht nur Kontakdaten wie Name, Adresse, E-Mail-Adresse, Telefonnummer. Damit betrifft sie auch das IoT, sammeln seine Geräte doch zuhauf vielfältige Nutzerdaten. Je nach Funktion reichen diese von Blutgruppe, über das bevorzugte TV-Programm bis hin zum Aufenthaltsort des Hundes. Hier sollte ein Privacy-by-Design-Ansatz verfolgt werden, damit schon bei der Entwicklung die Datenschutzrisiken gering gehalten werden können und Datensicherheit gewährleistet ist. Schließlich ist auch zu klären, wo im Unternehmen die Daten überhaupt gespeichert sind und wer Zugriff darauf hat.

Was ist neu?

Ganz wichtig: Unternehmen haben eine Rechenschaftspflicht. Im Fall einer Klage gilt die Beweislastumkehr: Nicht der Kläger muss nachweisen, dass die EU-DSGVO verletzt worden ist. Das Unternehmen muss beweisen, dass es die strengen Kriterien der Verordnung erfüllt. Hier könnte sich unter Umständen für Unternehmen ein Betätigungsfeld eröffnen, um unliebsamen Konkurrenten zu schaden. Außerdem muss in bestimmten Fällen ein Datenschutzbeauftragter ernannt werden.

Hinzu kommt die Verpflichtung, ein sogenanntes „Privacy by Design“ einzuführen, mit dem datenschutzrelevante Maßnahmen von Beginn an in Design sowie Entwicklung von Systemen, Prozessen und Produkten integriert werden. Auch sind mehr Daten betroffen, so etwa Einzelangaben über persönliche und sachliche Verhältnisse einer bestimmten oder bestimmbaren Person. Die Anforderungen an „bestimmbare Personen“ sind sehr gering. Auch Lieferanten können betroffen sein, zum Beispiel solche, die von einem Unternehmen beauftragt werden, personenbezogene Mitarbeiterdaten zu verarbeiten.

Mehr Rechte für Beschäftigte, mehr Pflichten für die Unternehmen

Nach Auffassung vieler Fachleute werden die Pflichten des Arbeitgebers beim Datenschutz deutlich erhöht, die Rechte der Beschäftigten hingegen gestärkt. Diese erhalten die Hoheit über ihre Daten und das Recht, auf Anfrage zu erfahren, ob, welche und in welchem Umfang personenbezogene Daten durch den Arbeitgeber verarbeitet werden. Das muss laut EU-DSGVO schneller und umfassender geschehen, als dies früher der Fall war. Unternehmen ohne digitale Personalakte haben hier einen großen Aufwand, da die dafür zuständigen Personalabteilungen meist in einem mühseligen Prozess die zerstückelt geführten Personalakten, Gehaltsabrechnungen oder Berichte prüfen müssen.

Vieles hängt von der Art und Größe des Unternehmens ab

Einige Experten warnen, die Aufgaben im Zusammenhang mit der Verordnung zu unterschätzen. Die häufig vertretene Ansicht, dass die Erstellung eines Verarbeitungsverzeichnisses die Erfüllung der Richtlinien gemäß DSGVO bedeutet, ist leider nicht richtig. Ein Verarbeitungsverzeichnis ist zwar wesentlich, jedoch nur einer von mehreren Schritten der Umsetzung. Jedes Unternehmen muss also auch alle technischen und organisatorischen Maßnahmen zur Sicherung und zum Schutz der Daten umsetzen und auch dokumentieren. Nicht zu vergessen, die Einhaltung und Dokumentation aller Betroffenenrechte. Eine Lösung muss all diese Aspekte mitberücksichtigen und ganzheitlich erfüllen. In welchem „Detailgrad“ die Umsetzung auf Unternehmensebene erfolgt, hängt jedoch von der Art und Größe des Unternehmens sowie den verfügbaren Ressourcen ab. Entscheidend ist auch die Branche, da jede ihre ganz eigenen Anforderungen hat.

Von der Geschäftsführung bis hin zum Betriebsrat müssen die Verantwortlichen über die Regelungen und Veränderungen beim Datenschutz informiert und aktiv werden.

Zertifizierungen als Basis

Manche Unternehmen profitieren von bereits vorhandenen Zertifizierungen, etwa nach ISO 9001 oder ISO / IEC 27001. Diese Zertifizierungen dienen als Basis für ein Datenschutzmanagementsystem (DSMS), das die Compliance mit der EU-DSGVO gewährleistet. Ähnliches gilt für die Zertifizierung nach dem Standard BS 10012:2017. Trotzdem muss vieles noch angepasst werden im Hinblick auf die neuen Regeln.

Datenschutz als Querschnittsaufgabe

Wichtig sei es, darin stimmen Experten überein, das Thema EU-DSGVO als Querschnittsthema im gesamten Unternehmen zu verankern und das Bewusstsein der Mitarbeiter für diese Problematik zu schärfen. Vom Vorstand oder der Geschäftsführung bis hin zum Betriebsrat müssen die Verantwortlichen über die Regelungen und Veränderungen beim Datenschutz informiert und teilweise aktiv werden:

  • Vorstand und Geschäftsführung müssen die veränderte datenschutzrechtliche Praxis im Unternehmen kennen;
  • die IT-Abteilung muss prüfen, welche technisch-organisatorischen Maßnahmen für das geforderte Risk-Management notwendig sind;
  • die Finanzabteilung muss die Kosten berücksichtigen, die dem Unternehmen durch Anpassungsprozesse entstehen;
  • die Rechtsabteilung muss viele Verträge anpassen;
  • die Compliance-Abteilung muss die Risiken eines Verstoßes gegen die Verordnungen berücksichtigen – diese betreffen die außerordentlich hohen Bußgelder, aber auch den Vertrauensverlust, der bei Kunden, Lieferanten oder Mitarbeitern entstehen kann;
  • die Forschungs- und Entwicklungsabteilung muss schon bei einem frühen Projektstadium darauf achten, dass die datenschutzrechtlichen Grundsätze eingehalten werden;
  • für die Personalabteilung entsteht ein hoher Aufwand, da sie einerseits Mitarbeiterschulungen zum Thema organisieren, andererseits den Mitarbeitern auf Nachfrage nachweisen muss, wie ihre Daten geschützt werden; auch der Betriebsrat ist einzubinden.

Ist es sinnvoll, darüber hinauszugehen?

Vielleicht aber ist es sinnvoll, noch ein paar Schritte weiterzugehen. Die Einhaltung der EU-DSGVO-Compliance sollte Teil einer umfassenden Unternehmensphilosophie sein und von der Spitze her gelebt werden – damit ist das EU-DSGVO-Management Chefsache. Es sollte nicht einfach eine lästige Pflicht sein, denn immerhin geht es darum, das Image des Unternehmens in der Öffentlichkeit, bei gegenwärtigen und künftigen Mitarbeitern sowie bei Geschäftspartnern als verantwortungsvoll handelnde Organisation zu stärken. Dazu gehören auch ein umfassender Schutz der Daten und der sichere IT-Betrieb.

Die Risiken einer Verletzung des Datenschutzes sind groß und müssen im Einzelfall genau analysiert werden. Doch wie sieht es mit den Chancen aus? Zum Beispiel könnte ein gut umgesetztes Datenschutzmanagementsystem auch den Eintritt in Länder mit einem ähnlich hohen Datenschutzniveau deutlich erleichtern, wie z. B. Kanada oder Japan.

Echte Mehrwerte im Wettbewerb entstehen, wenn es gelingt, über entsprechende Maßnahmen und ihre Dokumentation Vertrauen zu schaffen. Zudem fördern transparente personenbezogene Daten die Automatisierung von Prozessen und treiben somit die Digitalisierung voran. Einige aktuelle Studien belegen, dass Unternehmen, die auf diesem Weg vorangegangen sind, sich bereits Vorteile verschafft haben. Es liegt also an den Unternehmen selbst, ob ihnen die EU-DSGVO mehr nutzt oder doch eher schadet. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Cloud-Computing

Tipps für eine zukunftsorientierte Cloud-Strategie

von Bernhard Haselbauer

Dezentral, flexibel und günstig – Cloud-Computing erobert mit hoher Skalierbarkeit bei niedrigen Kosten immer mehr deutsche Unternehmen. Auch in diesem Jahr ist der Cloud-Markt wieder gewachsen. Deutsche Unternehmen setzten mittlerweile auf die Public Cloud, Single-Cloud-Architekturen werden in Zukunft nur noch die Ausnahme darstellen.

Es kann festgehalten werden, dass durch Cloud-Dienstleistungen Betrieb und Wartung von IT‐Ressourcen hinfällig werden. Dies führt zu geringeren Personalkosten in der IT‐Abteilung und Unternehmen müssen weder in Hardware investieren, noch Überkapazitäten für Lastspitzen bereithalten. Momentan lauten die Trendthemen Multi-Cloud, Blockchain, Edge Computing, RPA und künstliche Intelligenz (KI). Aufgrund des großen Anwendungspotenzials steigt die Nachfrage nach Datenverarbeitung und KI immer mehr. Aber wie können wir uns zum Bespiel „KI/AI as a Service“ als Cloud-Dienstleistung vorstellen?

Zum Beispiel haben Cloud-Anbieter bereits KI-Anwendungen für Unternehmen als „as a Service“ in ihr Angebot integriert – d. h., sie stellen diese Anwendungen über „Open Source Platforms“ zur Verfügung, sodass Unternehmen keine eigenen Tools oder Infrastrukturen aufbauen müssen. Der Vorteil für Unternehmen liegt darin, dass Entwicklungszeiten so reduziert und Kosten gesenkt werden können. Das Investitionsrisiko für den Einstieg in KI reduziert sich also, während die Flexibilität steigt. Wollen Unternehmen von verschiedenen KI-Anwendungen Gebrauch machen, die für komplexe Szenarien eingesetzt werden können, so müssen die verschiedenen Anwendungen und Datenbanken zusammenarbeiten. Mit Multi-Cloud-Architekturen kann das weltweit erreicht werden.

Die Ressourcenverteilung der Cloud-Infrastruktur wird künftig nicht nur automatisiert ablaufen, vielmehr werden selbstlernende Computersysteme die zugrunde liegenden Automatismen nutzerspezifisch weiterentwickeln.

Viele Berichte deuten darauf hin, dass 2019 das Jahr der Multi- und Hybrid Cloud werden soll. Aus dem Englischen übersetzt bedeutet Multi-Cloud die Verwendung mehrerer Cloud-Computing- und Storage-Services in einer einzigen heterogenen Architektur. Dies wird auch als Polynimbus-Cloud-Strategie bezeichnet und bezieht sich auch auf die Verteilung von Cloud-Assets, Software, Anwendungen usw. in mehreren Cloud-Hosting-Umgebungen.

Die Multi-Cloud verhält sich aus Anwendersicht wie eine einzige große Cloud. Wie die Hybrid Cloud kann die Multi-Cloud mehrere Cloud-Modelle wie die Private Cloud oder die Public Cloud integrieren.

Die meisten Unternehmen werden wohl zunächst mit Hybrid-Cloud-Lösungen arbeiten, um Abhängigkeiten zu vermeiden. Außerdem können User der Hybrid Cloud Angebote von mehreren Cloud-Anbietern vergleichen und so das Kostenrisiko optimieren. Zusätzlich werden weitere Redundanzen die Ausfallsicherheit erhöhen. Aus diesen Gründen werden wohl die großen Public-Cloud-Anbieter das Thema „Vendor Lock-in“ weiter verfolgen. Wer sich mit dem Thema Cloud-Computing beschäftigt, hat wahrscheinlich den Begriff Vendor-Lock-in bereits gehört. Hier spricht man von einem sogenannten Lock-in-Effekt, wenn sich ein Kunde so abhängig von einem bestimmten Hersteller gemacht hat, dass der Wechsel zu einem alternativen Anbieter aufgrund zu hoher Transaktionskosten unwirtschaftlich ist.

Um die Vorteile einer Hybrid- oder Multi-Cloud-Umgebung zu nutzen, empfehlen wir einen kompetenten „Managed Services Provider“ (MSP) zu konsultieren.


Von Robotik und Automation

Lange verdammt, unentwegt einfachste Handlungen zu verrichten, mutieren Roboter zu autonom agierenden „Kollegen“ mit flexiblen Aufgaben.

von Andreas Fuhrich

Automatisierung ist ein maßgeblicher Erfolgsfaktor des produzierenden Gewerbes. Durch sie lassen sich Kosten senken und dennoch höchste Qualitätsansprüche realisieren. Bezahlbare und leistungsfähige Produkte, vom Smartphone bis zur Sicherheitstechnik im Auto, sind ohne sie nicht denkbar.

War das Thema Automatisierung bis vor einigen Jahren noch den „großen“ Unternehmen vorbehalten, gehen mittlerweile mehr und mehr kleine und mittelständische Betriebe dazu über, ihre Fertigung zu automatisieren.(1)

Roboter, als wesentliche Bausteine der Automatisierung, dienen dabei vermehrt als persönliche Produktionsassistenten, die direkt mit dem Werker in gemeinsamer Arbeitsumgebung ohne trennende Schutzzäune interagieren. Innovative Sicherheitskonzepte verbunden mit dem vermehrten Einsatz von Sensorik, Software und Bildverarbeitungstechnologie bilden die ausschlaggebende Basis der hierfür notwendigen erhöhten Sicherheit.(2)

China ist mit der größte Produzent von Industrierobotern und produzierte laut einer Schätzung der International Federation of Robotics 2017 115 000 Einheiten. Dahinter folgen Südkorea (44 000), Japan (42 000) und USA (36 000). Auf Platz fünf rangiert Deutschland (21 000)(3), wo die Branche 2017 erstmals einen Umsatz von über 14 Mrd. Euro erwirtschaftete.(4)

IoRT – Das Internet of Robotic Things

Während Roboter ursprünglich dazu angedacht waren, einfache repetitive Aufgaben unentwegt auszuüben, sind sie heute in der Lage, mit ihrer Umwelt zu interagieren und intelligentes Verhalten zu zeigen. Ein Roboter mit einer Verbindung zum Internet verfügt dabei über eine immense Informationsquelle, die ihm bei Entscheidungsfindungen und Interaktionen hilft. Vernetzen sich diese Roboter zusätzlich auch untereinander, entsteht eine gemeinsame Intelligenz, die für alle betreffenden Geräte die günstigsten Handlungsabläufe ermitteln kann. Das Konzept der Einbindung von Teams aus Robotern in das IoT wird als das „Internet of Robotic Things“ oder das „IoRT“ bezeichnet.

Autonome Roboter-Schwärme

Derart vernetzte Schwarm-Drohnen werden bald in Gruppen zu Hunderten oder Tausenden um uns schwirren, in Formationen wie bei Vogelschwärmen. In Zukunft könnten solche Schwärme etwa kostengünstig Pipelines, Hochspannungsleitungen und Industrieanlagen inspizieren oder in der Landwirtschaft Pestizide und Herbizide versprühen, und zwar exakt dosiert an den erforderlichen Stellen.

Die Grundlagen der Robotik – Erfassung, Bewegung, Mobilität, Manipulation, Autonomie und Intelligenz – werden durch das Internet of Things auf eine neue Stufe gehoben. Roboter müssen nicht länger selbst mit kognitiven Fähigkeiten ausgerüstet sein, denn schließlich stellt das IoT mit all seinen Sensordaten wiederverwendbare und offen verfügbare Informationen bereit, auf die sie zur Erfüllung ihrer Aufgaben zugreifen können. Dies ermöglicht eine Miniaturisierung vernetzter Roboter-Schwärme bis auf Nano-Ebene, wodurch ganz neue Möglichkeiten eröffnet werden.(5)


Digital Banking

FinTechs, Tech-Giganten und neue Technologien verändern die Branche.

Zwar begann die Digitalisierung der Banken mit dem Online-Banking schon im letzten Jahrtausend, doch weitere Innovationen blieben lange aus. Für den Knotenpunkt aller Geldgeschäfte galt der Bankkunde als Selbstverständlichkeit und musste nicht mit technischen Neuerungen gebunden werden. Selbst das Online-Banking diente mehr dem Stellenabbau und der damit verbundenen Gewinnoptimierung als dazu, einen wirklichen Service anzubieten. Heute noch beworbene Tagesgeldkonten wirken wie absurde Überbleibsel aus der Zeit, in der sie mit lukrativen Zinsen als Online-Banking-Marketingmaschine fungierten.

Seit einigen Jahren verändert nun die aufstrebende FinTech-Branche den Finanzmarkt. Dem Kundenwunsch nach mehr digitalen Lösungen, der vor allem durch die Entwicklungen der Mobile Devices mit ständigem Internetzugriff noch verstärkt wird, soll entsprochen werden. Vormals ineffiziente und unflexible Geschäftsfelder werden revolutioniert oder zumindest den neuen technologischen Möglichkeiten angepasst. Durch die PSD2-Richtlinie wurde mittlerweile auch das Monopol der Banken in Bezug auf Kontoinformationen gebrochen. Sie sind nun verpflichtet, eine API-Schnittstelle anzubieten, und, die Einverständniserklärung des Kunden vorausgesetzt, auch anderen Unternehmen Zugriff zu gewähren.

Mittlerweile haben auch viele der altehrwürdigen Bankhäuser erkannt, wie wichtig es im Wettbewerb um die Gunst der Kunden ist, durch eine Modernisierung und Technologisierung der gesamten Dienstleistungskette zu punkten. Oftmals machen sie sich dabei die Innovationskraft eines agilen Start-ups zunutze. Nicht selten agieren diese als White-Label-Lösung im Verborgenen, profitieren aber im Gegenzug von der bereits aufgebauten Kundschaft der etablierten Institute. Auf der anderen Seite machen es die vielen Regularien für Start-ups fast unmöglich, die Bedingungen für eine Banklizenz zu erfüllen. Gerade bei besonders populären FinTech-Lösungen, wie dem Crowdlending, agieren daher nun die Banken im Hintergrund und regeln beispielsweise die Abwicklung der Kreditvergaben.

Zwar machten kleine Start-ups den Anfang, doch mittlerweile bitten auch die Tech-Giganten auf dem Finanzparkett zum Tanz. Siri ermöglicht mittlerweile Überweisungen per Sprachbefehl und ebenso wie Apple Pay ermöglicht auch das Android-Pendant Google Pay das Bezahlen via Smartphone an der Kasse.

Amazon-Go-Filialen schaffen Kassensysteme sogar komplett ab. Eine auf dem Smartphone installierte App vernetzt sich mit der ausgeklügelten Technik im Geschäft, die genau erkennt, welche Waren der Kunde einsteckt. Nach Verlassen des Ladens erhält dieser nur noch eine Push-Benachrichtigung, einen digitalen Kassenbon. Zusätzlich setzen sich die Unternehmen auch im Online-Commerce an die Schnittstelle zwischen Händler und Kunden, indem sie bei Bezahlungen per App Rabatte anbieten oder als Identitätsdienst die Registrierung beim Onlineshop mit nur einem Klick ermöglichen.

Enormes disruptives Potenzial wird auch der Blockchain zugesprochen. Der Hype der Kryptowährungen endete zwar relativ schnell nach dem Bitcoin-Höchststand im Dezember 2017, doch nicht nur FIAT-Währungen werden durch die Technologie in Frage gestellt. Blockchain-Ökosysteme ermöglichen Legitimation, Absicherung und Auslandszahlungsverkehr – also Kerndienstleistungen der Banken.


Die Trends in Forschung & Entwicklung

Neue digitale Technologien verändern den Innovationsprozess und binden den Kunden stärker in die Produktentstehung mit ein.

von Dr. Ralf Magagnoli

Ziel vieler Unternehmen ist es, in puncto Industrie 4.0 die umfassendste Option zu realisieren, nämlich die des Enablers. Der Enabler ist ein Technologieanbieter für das IoT und nutzt Plattformen (Clouds) zur Entwicklung, Herstellung und Lieferung vernetzter Dienste und Produkte. Was bedeutet dies für die Abteilung Forschung & Entwicklung: Zum einen werden die traditionellen Schranken zwischen Forschung & Entwicklung, Produktmanagement und Produktion tendenziell aufgehoben, zum anderen werden die sogenannten Stakeholder, meistens Kunden, an der Entwicklungsarbeit beteiligt. Die Vorteile sind u. a. schnellere Produktreife, besser ausgetestete Produkte, kostengünstigere Produkte und – last, but not least – völlig neue Produkte. Was also sind die Trends in der Forschungs- und Entwicklungsabteilung?

Künstliche Intelligenz (KI) / Machine Learning

Die Begriffe KI und Machine Learning werden oft synonym verwendet, sind aber nicht deckungsgleich, da Machine Learning nur einen Bereich, allerdings den wichtigsten der KI, ausmacht. So sagt der chinesisch-amerikanische Informatiker Andrew Ng: „99 Prozent des ökonomischen Wertes, den KI heute schafft, wird durch die eine Art von KI erzeugt, die von A nach B lernt, durch Input- zu Output-Mappings“, also durch Machine Learning. Worum geht es? Es geht um selbstständig lernende Maschinen und Computer; diese lernen anhand von Beispielen und können diese nach Ende der Lernphase verallgemeinern, indem sie Muster und Gesetzmäßigkeiten in den Lerndaten „erkennen“.

Für die Forschung & Entwicklung bieten KI und vor allem das Machine Learning riesige Potenziale, wenn es darum geht, das Kundenverhalten über prädiktive Analysen gezielter zu prognostizieren und via Algorithmen fundiertere Innovationsentscheidungen zu fällen.

Dies erfolgt mithilfe von Algorithmen, die sich wiederum in überwachtes Lernen (teilüberwachtes, bestärkendes, aktives Lernen) und unüberwachtes Lernen unterteilen lassen. Für die Forschung & Entwicklung bieten KI und vor allem das Machine Learning riesige Potenziale, wenn es darum geht, das Kundenverhalten über prädiktive Analysen gezielter zu prognostizieren und via Algorithmen fundiertere Innovationsentscheidungen zu fällen. Dies betrifft u. a. den Designprozess – Stichwort Generatives Design – reicht aber weit darüber hinaus.

Generatives Design

Hier übernimmt ein Algorithmus die Aufgabe, die früher der Designer erledigte. Dieser erstellt nur den digitalen „Werkzeugkasten“, während der Computer das Ergebnis erzeugt. Die Aufgabe des Designers besteht darin, das Ergebnis zu beurteilen und ggf. den Quellcode, die Parameter und den Algorithmus zu verändern. Dazu gibt es neue Tools – Stichwort bspw. Low Code – die eine Programmierung auch ohne vertiefte Programmierkenntnis erlauben. Der Gestaltungsspielraum erweitert sich durch Generative Design in erheblicher Weise, wozu Parameter wie Zufall, Struktur oder Wiederholung kombiniert mit traditionellen Faktoren wie Schrift, Form, Farbe und Bild beitragen.

Dabei bietet sich auch in diesem Fall die Open Innovation, also die Zusammenarbeit verschiedener Akteure – meist über eine cloudbasierte Plattform –, an, über die sich nicht nur eine Vielzahl von Entwurfsalternativen erzeugen lässt, sondern über die die Entwürfe auch im Hinblick auf die Kundenakzeptanz geprüft werden können. Im Idealfall werden die verschiedenen Stakeholder, allen voran natürlich die Kunden, am Projekt beteiligt und aktiv in den Designprozess eingebunden. Die Echt­zeitinformationen sorgen für schnellere Durchlaufzeiten von Projekten.

Digitaler Zwilling

Das Gabler Wirtschaftslexikon definiert den „digitalen Zwilling“ (Digital Twin) als „virtuelles Modell z. B. eines Prozesses, eines Produkts oder einer Dienstleistung, welches die reale und virtuelle Welt verbindet“. Notwendig sind dabei drei Elemente: das abzubildende Objekt – bspw. ein Fahrrad –, der digitale Zwilling und die Daten, die beide miteinander integrieren. So wird das reale, mit Sensoren ausgestattete Fahrrad, um diesen Fall zu nehmen, mit dem System verbunden, das die Sensordaten empfängt, verarbeitet und auswertet. Anhand des digitalen Zwillings können dann die Leistungsfähigkeit, die Widerstandskraft und die Haltbarkeit des Fahrrads, etwa unter Extrembedingungen, getestet werden.

Über Simulationen werden so verschiedene Alternativen erforscht, um die in der Regel komplexen Produktanforderungen zu erfüllen – zum Beispiel: Ist das Produkt intuitiv nutzbar? Funktioniert die Elektronik einwandfrei? Wie interagieren die verschiedenen Komponenten? Und, im Hinblick auf das Fahrrad, bei welchen Lastfällen sind welche Bereiche des metallischen Fahrradrahmens oder der Federgabel als kritisch zu beurteilen?

Der digitale Zwilling wird gerne in der Automobilindustrie für Crashtests eingesetzt. Aufgrund der Effektivitätssteigerungen entlang der gesamten Wertschöpfungskette rechnet der Analyst Gartner damit, dass schon 2021 die Hälfte der größeren Industrieunternehmen den digitalen Zwilling einsetzen wird. Dabei geht es auch hier in Richtung künstlicher Intelligenz, sodass man von der gegenseitigen Wahrnehmung und Interaktion zur Kommunikation und eigenständigen Optimierung der Systeme gelangt.

Additive Fertigung / 3-D-Druck

Auch diese beiden Begriffe werden meist synonym verwendet. Worum geht es? Es handelt sich um ein professionelles, sich von konventionellen Methoden unterscheidendes Produktionsverfahren, bei dem Schicht um Schicht Bauteile aufgebaut werden, um Prototypen zu erstellen. Durch ein sogenanntes Rapid Prototyping in der Forschung & Entwicklung können die Produktentwicklung (und damit die Markteinführung) entscheidend beschleunigt werden. (Im Sinne verschwindender Grenzen zwischen Forschung & Entwicklung einerseits und Produktion andererseits hält das Verfahren zunehmend Einzug in die Serienfertigung.)

Der entscheidende Vorteil gegenüber traditionellen Fertigungsmethoden aber liegt im „Design-driven Manufacturing Process“, bei dem nicht die Fertigung die Konstruktion determiniert, sondern bei dem die Konstruktion die Fertigung bestimmt. Die additive Fertigung verspricht zudem Designfreiheit, Funktionsoptimierung und -integration sowie die Individualisierung von Produkten in der Serienfertigung.

VR- & AR-Konzepte werden Forschung und Entwicklung massiv beeinflussen.

Augmented Reality (AR)

Nicht selten wird beim Prototyping auch die „erweiterte Realität“ (Augmented Reality) eingesetzt, die computerbasierte Erweiterung der Realitätswahrnehmung – oft mithilfe von AR-Brillen. So lassen sich in mehrdimensionalen Räumen Objekte, die nur zweidimensional als Baupläne existieren, völlig neu fassen, da das eigene Verhalten virtuell abgebildet werden kann. Bspw. werden virtuell konzipierte Werkstücke, etwa beim Autobau Mittelkonsolen, per AR-Anwendungen simuliert.

Der Entwickler oder – idealerweise über Open Innovation – auch der Kunde hat damit die Möglichkeit, zu prüfen, ob die Teile tatsächlich funktional und anwenderfreundlich angeordnet worden sind oder ob Optimierungsbedarf entsteht. Die Vorteile liegen auf der Hand, vor allem die Reduzierung von Forschungs- und Entwicklungskosten sowie die Verkürzung des Entwicklungsprozesses.

Open Innovation

Der Begriff der Open Innovation stammt von Henry Chesbrough und bezeichnet die meist plattformübergreifende Öffnung des Innovationsprozesses in Unternehmen und die strategische Nutzung der Außenwelt. Dazu müssen die Unternehmen imstande sein, externes Wissen zu internalisieren und internes Wissen zu externalisieren. Das durch steigenden Wettbewerbsdruck, kürzere Produktlebenszyklen und höheren Innovationsdruck begründete Konzept wirkt sich vor allem auf die Forschungs- und Entwicklungsabteilung aus. Lautete das Motto der Closed Innovation, also der Innovation ausschließlich im Unternehmen, „We can do it, we will do it“ („Wir schaffen das“), so gilt für die Open Innovation die Devise „The best from anywhere“. Eigene Mitarbeiter außerhalb des Forschungs- und Entwicklungsteams, aber auch „Stakeholder“ wie Kunden, Lieferanten, Universitäten sowie auch Mitbewerber und Unternehmen anderer Branchen können in den Innovationsprozess eingebunden werden.

Es handelt sich um ein kollaboratives Networking im Bereich der Forschungs- und Entwicklungsarbeit, das auf Wissensaustausch und Vernetzung von Know-how basiert. Da Open Innovation immer ein Geben und Nehmen impliziert und viele Unternehmen immer noch zurückhaltend sind, eigenes Know-how preiszugeben, hat sich das Konzept noch nicht in der Breite durchgesetzt – dennoch ist angesichts des Drucks auf die Unternehmen zu erwarten, dass sich Open Innovation mehr und mehr durchsetzen wird. Beispiele für gelungene Projekte sind InnovationJam, eine IBM-Plattform, über die Unternehmen und Universitäten aus verschiedenen Ländern miteinander kooperieren, oder die Internet-Musikbörse Last.fm, die sogenannte „Hacker-Tage“ organisiert, an denen Nutzer neue Applikationen entwickeln können.

Coopetition

Die Coopetition – ein Kunstwort, das sich aus Competition (Wettbewerb) und Cooperation (Zusammenarbeit) zusammensetzt – bedeutet eine Dualität aus Kooperation und Wettbewerb. So können auf der gleichen Wertschöpfungsstufe – in diesem Fall eben meistens der Forschung & Entwicklung – die Kompetenzen und das Know-how gebündelt werden (horizontale Kooperation), während man etwa in puncto Marketing und Vertrieb Wettbewerber bleibt. Ein Beispiel ist die Kooperation zwischen VW und Ford, die gemeinsam einen Fahrzeugtyp entwickelten, der bei VW als „VW Sharan“ und „Seat Alhambra“, bei Ford als „Ford Galaxy“ vermarktet wurde. Einfacher ist die gemeinsame Produktentwicklung natürlich zwischen Unternehmen, die mit dem Produkt unterschiedliche Anwendungs-zwecke verfolgen und unterschiedliche Zielgruppen bedienen.

Customer Experience

Auch die Customer Experience ist eng mit der Open Innovation verbunden. Hierbei geht es um die gezielte Einbindung von Kunden, oft sogenannter Lead-User, also besonders fortschrittlicher Anwender, zur Verbesserung und Weiterentwicklung von Produkten. In sogenannten „Customer Experience Centres“ haben Kunden die Möglichkeit, Prototypen und Produkte zu testen. Während mit dem Ansatz der Customer Experience generell positive Kundenerfahrungen generiert werden und die Kunden im Idealfall zu „begeisterten Botschaftern“ gemacht werden sollen, bedeutet er für die Forschungs- und Entwicklungsabteilung die passgenaue Identifikation der Kundenwünsche. Nichts ist schlimmer als ein Team verspielter Technikfreaks, die an den Kundenwünschen vorbeiarbeiten. Die zentrale Forderung, gerade für Forschung & Entwicklung, lautet daher: „Customer Experience bedeutet, die Bedürfnisse des Kunden nicht nur zu erfüllen, sondern jederzeit zu übertreffen.“ Voraussetzung dafür ist, sie zu kennen. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Kapitel 3: Herausforderungen

Kapitel 2: Abteilungen

Einfluss der Digitalisierung auf die Unternehmensabteilungen

Die Digitalisierung, Automatisierung und „Datafizierung“ betrifft das gesamte Unternehmen, wirkt sich aber unterschiedlich auf die jeweiligen Abteilun­gen aus. Die Aufgabe der Geschäftsleitung ist es, den Kurs der digitalen Transformation vorzugeben (2.1), während die IT-Abteilung schließlich die Systeme am Laufen halten muss. (2.2) Im Marketing wird der Kunde analysiert und individualisiert monetarisiert. (2.6) Die Daten werden dabei auch aus IoT-Devices gesammelt und als Feedback an die Produktion und Fertigung weitergeleitet, um eine stetige Verbesserung zu ermöglichen. (2.7) Passgenaue Informationen sind auch für den Vertrieb eine wertvolle Hilfe im persönlichen Kundenkontakt (2.5), der auch das Lebenselixier des Einkäufers ist. Von der Automatisierung getrieben, ist er verdammt, zu einem Netzwerker mit Mehrwert zu werden. (2.8) Natürlich darf bei all den anfallenden Daten der Schutz nicht vergessen werden. Die EU-DSGVO stellt insbesondere an die Buchhaltung (2.3) und das Personalwesen (2.4) Anforderungen, die sich mit Papierakten nicht mehr bewältigen lassen. //

Das Kapitel im Überblick

Abteilung IT

Die Zukunft der IT-Abteilung liegt in der Automatisierung.

von Dr. Ralf Magagnoli

Die Prophezeiungen der Auguren waren teils düster: „Die IT-Abteilung vor dem Aus retten“, titelte etwa die Computerwoche im Oktober 2018. Sicher ist nur, die IT-Abteilung wird sich wandeln, sie wird neue Aufgaben übernehmen und alte delegieren müssen. Welche Trends sind gegenwärtig erkennbar, die auf die IT-Abteilungen einwirken und mit denen sich die IT-Abteilungen befassen müssen? Wie wirken sich vor allem Automatisierung und Digitalisierung auf die Arbeit der IT-Abteilungen aus?

Der „Chief Digital Officer“ (CDO)

In vielen Unternehmen gibt es ihn bereits als Hauptverantwortlichen der Digitalisierungsstrategie im Unternehmen. Der CDO gehört der obersten Hierarchieebene an. Zu seinen Aufgaben gehören die Analyse der Ist-Situation in den Unternehmen, die Entwicklung einer digitalen Strategie, die Bereitstellung der notwendigen Ressourcen für die digitale Transformation, die Beaufsichtigung des Wandels, die Beobachtung neuer Entwicklungen und die etwaige Übernahme in das bestehende digitale System. Kritisiert wird eine oftmals unklare Rollenverteilung in vielen Unternehmen. Hier gilt es, klare Regeln und Verantwortlichkeiten zu definieren und dem CDO die Möglichkeit zu geben, die digitale Transformation umzusetzen.

Strukturveränderung

Möglicherweise wird sich die Struktur der IT-Abteilung selbst drastisch verändern. Zwei Möglichkeiten stehen hier zur Disposition: Der Analyst Forrester Research schreibt, dass sie möglicherweise in einen Frontend- und einen Backend-Teil, welcher dann an eine Shared-Services-Abteilung berichtet, zerfallen werde. Eine weitere Möglichkeit besteht darin, dass die IT als eigenständige Einheit auf die verschiedenen Abteilungen im Unternehmen aufgeteilt wird. Gut möglich aber auch, dass die IT-Abteilung weitgehend in der bisherigen Form erhalten bleibt. Sicher ist nur, dass, wie auch in anderen Abteilungen, die Anforderungen an die Mitarbeiter in puncto Agilität, Fähigkeit, über den eigenen Tellerrand zu schauen, und Bereitschaft zum Kulturwandel wachsen werden. Anders ausgedrückt: Nerds und „Das haben wir schon immer so gemacht“-Typen werden immer weniger gefragt sein.

Modernisierung der Legacy-Systeme

Unter Legacy-Systemen werden die über Jahre, teilweise über Jahrzehnte gewachsenen IT-Infrastrukturen verstanden, die oft als Altlasten ein Hindernis für die Zukunftsfähigkeit der Unternehmen sind. Dies in zweifacher Hinsicht: Zum einen im Hinblick auf die Geschäftsprozesse, zum anderen auch in finanzieller Hinsicht, denn die Versuche, die IT-Kosten zu senken, führen zu einem Investitionsstau, dessen Folge archaische Systeme sind, deren Wartungskosten steigen, womit wiederum weniger Gelder für Investitionen zur Verfügung stehen. Ein Teufelskreis, den es zu durchbrechen gilt. Hier bietet sich die Verlagerung von Software und Infrastruktur in die Cloud an, die von spezialisierten Dienstleistern auch vorgenommen wird.


Für die IT-Abteilung wie für die Unternehmen wird es darauf ankommen, den Spagat zwischen inkrementeller und disruptiver Methode zu meistern

Ralf Magagnoli

Microservices

Hier kommen oft Standardsysteme mit adaptiven Architekturen zum Einsatz. Diese Dienste sind so konzipiert, dass sie mit den Anforderungen wachsen und zudem einen modularen Aufbau ermöglichen, was wiederum ein „Plug and play“ mit selbst entwickelten, meist allerdings zugekauften Komponenten erlaubt. Über Continuous Integration / Continuous-Deployment-Pipelines sind zudem agilere, produktzentrierte Betriebsmodelle möglich. Zugleich sollten Unternehmen die Risiken im Auge behalten, die sich über eine zu schnelle Übernahme von Standardsystemen ergeben – nämlich, dass der USP unter Umständen verloren gehen kann. Auch hier ist eine „smarte“ Kombination von Standardisierung und Customizing gefordert.

„Software as a Service“ und „Infrastructure as a Service“

Auch dieser Punkt hängt mit den beiden vorangehenden Punkten zusammen. Nicht nur die Software, sondern die gesamte Infrastruktur wird in die Cloud verlagert und, meist von einem spezialisierten Dienstleister, zur Verfügung gestellt. Die Unternehmen brauchen also weder Software zu entwickeln oder einzukaufen noch Rechnerinfrastrukturen aufzubauen, sondern mieten diese. Betrieb und Wartung liegen beim Dienstleister. Tendenziell bestehen die Rechner in den Unternehmen dann aus Thin Clients: Die Anwender greifen dann per Webbrowser auf die Anwendungen in der Cloud zu. Die Vorzüge: Kalkulierbare Kosten (Miete) und Konzentration aufs Kerngeschäft. Dennoch haben immer noch viele Unternehmen Hemmungen, unternehmenskritische Anwendungen Dritten zu überlassen.

Internet of Things (IoT)

Hier besteht ein Unterschied zwischen der Erwartungshaltung – wie bedeutsam ist IoT für das Unternehmen, wie bedeutsam wird IoT für das Unternehmen werden? – und der Umsetzung. Während laut einer aktuellen IDC-Studie rund 43 Prozent der Befragten in Unternehmen IoT für sehr wichtig bzw. wichtig halten und über 63 Prozent glauben, dass die Bedeutung in Zukunft sehr hoch bzw. hoch sein wird, haben nur rund 20 Prozent der Unternehmen IoT-Projekte umgesetzt. Ziel des IoT ist es, die Lücke zwischen der realen und der virtuellen Informationswelt zu schließen, die dadurch entsteht, dass die in der realen Welt verfügbaren Informationen im Internet nicht abrufbar sind. Das hat Auswirkungen zum Beispiel auf den Kundendialog, der mittels IoT über sogenannte Connected Products verbessert wird, was wiederum die Optimierung bestehender und die Kreierung neuer Produkte zur Folge hat. Beispiel: Der Sportartikelhersteller, dessen Turnschuh sich je nach Laufgeschwindigkeit aufpumpt bzw. fester schnürt. Wichtige Daten werden über Sensoren nicht nur an den Kunden, sondern auch an den Hersteller weitergeleitet. Tritt ein Problem auf, kann der Hersteller schnell reagieren und Verbesserungen an dem Produkt vornehmen.

Industrial Internet of Things (IIoT)

Es geht um den Einsatz von IoT im industriellen Bereich, bspw. im produzierenden Gewerbe, im Gesundheitswesen, in der Energiewirtschaft oder im Agrarwesen. Hierbei gilt es, Daten über den gesamten Informationsprozess zu erfassen und zu kontrollieren. Beispiel Produktion. Das Stichwort hier lautet etwa Predictive Maintenance: Die Maschinen geben Zustandsdaten, die eine proaktive Wartung ermöglichen. So etwa, im kostengünstigen Fall, der Tintenstrahldrucker, der vorab informiert, wann der Füllstand unterschritten wird. Bedenkt man, dass bei komplexeren Maschinen ein Ausfall auch nur von zwei oder drei Stunden teuer werden kann, rechnet sich die Predictive Maintenance. Das IIoT umfasst aber auch die Verbesserung und Kontrolle der Supply Chain, die Sicherstellung der Energiezufuhr über Smart Grids, intelligente, dezentrale Verteilnetze oder Werte bzgl. Raumtemperatur, Luftqualität und Ozongehalt in Produktionsstätten.

Data Science

Als Data Science wird die Extraktion von Wissen aus Daten bezeichnet. Angesichts der auch durch IoT und IIoT dramatisch erhöhten Datenmenge kommt dieser Extraktion eine besondere Bedeutung zu, sodass Spezialisten – meist Absolventen der einschlägigen Studiengänge – sehr gefragt sind. Data Scientists benötigen im Prinzip Kenntnisse in fünf Bereichen: Diese reichen von der ersten Schicht, der „Database Technology“, über die zweite Schicht, die „Data Access & Transformation“, die dritte Schicht, die „Programming Language“, die vierte Schicht, die „Data Science Tool & Library“, die fünfte Schicht, die „Data Science Method“, bis zur Fachexpertise im jeweiligen Fachbereich – also etwa der Ingenieurswissenschaft oder der Betriebswirtschaft. Erst wenn ein Mindestmaß an Fachwissen vorhanden ist, kann der Data Scientist die Fachspezialisten gezielt unterstützen. In kleineren Unternehmen wird im Allgemeinen der Data-Science-Allrounder gesucht, der imstande ist, das gesamte Aufgabenspektrum zu übernehmen, das in größeren Unternehmen von den jeweiligen Spezialisten im jeweiligen Bereich übernommen wird.

Digitale Ökosysteme

Oikos im Altgriechischen bedeutet Haus, sýstema das Verbundene. Auch wenn die Abgrenzung digitaler Ökosysteme nicht ganz einfach ist, kann als ihr Ziel das Überwinden komplexer Herausforderungen durch Imitation biologisch-komplexer Systeme genannt werden. Ein digitales Ökosystem, das sich prinzipiell durch Offenheit auszeichnet, setzt sich aus heterogenen Akteuren unterschiedlicher Branchen und Disziplinen zusammen. Hier wird die Aufgabe der IT-Abteilung darin bestehen, die Einbindung des Unternehmens in ein solches digitales Ökosystem zu gewährleisten und die Stabilität dieses heterogenen Netzwerks bei gleichzeitiger Offenheit zu ermöglichen.


Quelle: Computerfutures
https://www.computerfutures.com/de/blog/2018/02/die-zukunft-der-it-abteilung

Automatisierung / „Robotic Process Automation“ (RPA)

Darunter werden virtuelle Mitarbeiter verstanden, die ähnlich den physisch existenten Robotern der klassischen Prozessautomatisierung bestimmte Aufgaben erfüllen. Es handelt sich dabei um Software-Agenten, die menschliches Handeln nachahmen. Dabei kann der Aufgabenbereich der jeweiligen Software-Agenten eher einfache Aufgaben wie das Versenden von Sammelmails, aber auch komplexere Aufgaben erfüllen. Der Vorteil von RPA liegt u. a. darin, dass über Kostenreduktionen Insourcing bestimmter Aufgaben wieder interessant werden kann. Problematisch kann RPA dort werden, wo keine klaren Verantwortlichkeiten benannt sind – für Wartung, Upgrades – oder wo Mitarbeiter an der Konfiguration mitarbeiten sollen, die durch die Anwendungen ersetzt werden sollen. Wichtig ist es, den richtigen Anbieter auszuwählen, der entsprechende Erfahrungen mit RPA-Projekten vorweisen kann, die in der Regel in verschiedenen Schritten vorgenommen werden: Analyse der Arbeitsprozesse (oft über Filmaufnahmen), Definition der Automatisierung, Umsetzung, Erfolgskontrolle.

Künstliche Intelligenz / Machine Learning

Machine Learning ist ein Aspekt künstlicher Intelligenz, wenngleich ein zentraler. Über maschinelles Lernen wird ein Computer in die Lage versetzt, ein selbstlernendes System zu werden, ohne ihn entsprechend zu programmieren. Auch hier wird, ähnlich dem digitalen Ökosystem, die Natur zum Vorbild genommen, etwa über „Rückmeldungen“ Objekte zu identifizieren. Dies geschieht mittels selbstlernender Algorithmen, die in Daten bestimmte Muster und Gesetzmäßigkeiten erkennen. Die Intelligenz besteht darin, ähnlich der menschlichen Intelligenz, Dinge miteinander zu verknüpfen, Zusammenhänge zu erkennen und Rückschlüsse zu ziehen. Entsprechende Programme tragen dazu bei, dass aufwendige und langweilige Arbeiten vom Rechner erledigt werden – dies gilt etwa für die Papierdokumentation.

Digital Workplace

Die Arbeitswelt verändert sich stetig. Vorbei die Zeiten, als der Beschäftigte um acht Uhr das Büro betrat und um siebzehn Uhr das Büro verließ (eine Stunde Mittagspause), wobei die Stempeluhr die Arbeitszeit dokumentierte. Heutzutage verschwimmen tendenziell die Grenzen zwischen Arbeitszeit und Freizeit. Über den Digital Workplace können Mitarbeiter von jedem Ort und zu jeder Zeit auf die Unternehmensanwendungen zugreifen, egal ob vom Rechner im Homeoffice, vom Tablet im Zug oder vom Smartphone am Strand. Das Zauberwort heißt selbstbestimmtes (und damit effektiveres) Arbeiten.

Endpoint-Security / Endpoint-Protection

Dass sich durch Homeoffice-Arbeitsplätze angesichts immer anspruchsvollerer Vorgaben des Gesetzgebers – hier sei etwa die Datenschutzgrundverordnung (DGSVO) genannt – die Anforderungen an die Compliance erhöhen, versteht sich von selbst. Ein Ansatz ist die sogenannte Endpoint-Security oder Endpoint-Protection, über die Netzwerke von Laptops, Tablets, Handys und anderen Geräten gesichert werden sollen. Die Rechtevergabe obliegt dem Systemadministrator, der auch deren Einhaltung überprüft. Dabei können Vergehen gegen die Datensicherheit – etwa unbefugte Zugriffe auf sensible Daten – sofort verfolgt und geahndet werden – wichtig gerade im Hinblick auf die Wirtschaftsspionage. Es bestehen Verbindungen zum Cloud-Computing (Software as a Service, Infrastructure as a Service) und den Thin Clients im Unternehmen.

Self-Service (Low Code)

Low-Code-Plattformen sind grafische Entwicklungsinstrumente für Geschäftsapplikationen. Sie ermöglichen es, Softwareprogramme schnell und leicht zu erstellen und anzupassen. Dazu sind weder spezielle Programmierkenntnisse noch größere Erfahrungen nötig. Über offene Schnittstellen lassen sich bestehende Technologien und Anwendungen meist problemlos nutzen. Die Vorteile liegen auf der Hand: Die Unternehmen sind weniger abhängig von externen Dienstleistern, die Programme werden bis zu zehn Mal schneller erstellt, sie können auch von Mitarbeitern der Fachabteilungen geschrieben werden, wodurch sich der Graben zwischen IT-Abteilung und Fachabteilung verringert, die internen Entwickler können sich um die komplexeren Aufgaben kümmern.

Inkrementelle vs. disruptive Innovation / Bimodale IT

Während es beim inkrementellen Ansatz um schrittweise Optimierungen und Kostensenkungen geht (Beispiele Digital Workplace, Software as a Service, RPA), setzt der disruptive Ansatz auf dramatische Änderungen meist ganzer Geschäftsmodelle. Dementsprechend liegt im IT-Bereich die inkrementelle Innovation tendenziell beim CIO und der IT-Abteilung, während die disruptive Innovation eher Sache des Vorstands (und ggf. des CDO) ist. In den meisten Fällen geht es aber nicht um ein Entweder-oder, sondern um ein Sowohl-als-auch, da beide Ansätze ihre Vor- und Nachteile haben. Stichwort: Bimodale IT. Diese umfasst ein vorhersagbares Kernsystem einerseits und eine experimentelle, agile Form andererseits, die es erlaubt, mit den schnellen Veränderungen in der Geschäftswelt Schritt zu halten. Für die IT-Abteilung wie für die Unternehmen wird es darauf ankommen, den Spagat zwischen inkrementeller und disruptiver Methode zu meistern. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Kapitel 1: Treiber und Trends

Das Potenzial vernetzter Dinge ist immens. Smart ist, wer es zu nutzen weiß.

Die Politik verantwortet die Wettbewerbsfähigkeit des digitalen Standorts Deutschland. Das betrifft vor allem Themen wie künstliche Intelligenz (1.1) oder den 5G-Netzaufbau (1.2). In den Büros beginnt die digitale Transformation mit der Standardisierung von Dokumenten in ein auswertbares Format. Sie ebnet den Weg für eine konsistente Datenbasis, mit der Prozesse automatisierbar und KI-Anwendun­gen leichter umsetzbar sind. (1.8) Beim Thema digitale Innovationen muss der deutsche Mittelstand den internationalen Vergleich nicht scheuen (1.4), wobei gerade auch in der Forschung und Entwicklung neue digitale Technologien den Innovationsprozess verändern (1.7) und agile Teams die Time to Market verkürzen (1.5). Dem Erfolg „Made in Germany“ folgt die Internationalisierung. Sprachgrenzen überwinden automatisierte Übersetzungsprozesse. (1.3) Doch Vorsicht: Mit dem technologischen Fortschritt fällt schnell so manches Geschäftsmodell der Disruption zum Opfer. Nur, wer zum Wandel bereit ist, überlebt. (1.6)

Das Kapitel im Überblick

Testen, entwickeln, forschen

In praxisnahen „Forschungsfabriken“ können neue Verfahren getestet werden – unter anderem am KIT in Karlsruhe.

Die TREND-REPORT-Redaktion sprach mit Prof. Dr.-Ing. Jürgen Fleischer, Institutsleiter des wbk Instituts für Produktionstechnik des Karlsruher Instituts für Technologie (KIT), über die neue Karlsruher Forschungsfabrik und „Company on Campus“.

Herr Prof. Fleischer, mit welchen Themen und Aufgaben beschäftigt sich Ihr Forschungsbereich?

Mein Forschungsbereich beschäftigt sich mit Maschinen, Anlagen und Prozessautomatisierung. Die Kernkompetenzen dieses Bereichs liegen in der Entwicklung und Auslegung von intelligenten, ressourceneffizienten Komponenten für Maschinen und Anlagen sowie in der Gestaltung flexibler, automatisierter Prozessketten. Neben den wesentlichen Kriterien wie Stückzahl- und Variantenflexibilität rückt der Umgang mit neuen, aber unreifen Technologien, in den Anwendungsfeldern Elektromobilität oder Leichtbaufertigung, in den Vordergrund. Zur Etablierung des Produktionsstandorts Deutschland ist die Entwicklung von Maschinen und Methoden für eine schnelle Industrialisierung von neuen, innovativen Produktionstechnologien essenziell.

Welche Aufgaben hat die „Karlsruher Forschungsfabrik“ im Kontext der neuen Technologien?

Die zunehmen­de Individualisierung und hohe Variantenviel­falt von Produkten sowie die Forderung nach neuen und komplexen Fertigungsprozessen stellen eine große Herausforderung an die produ­zierenden Unternehmen. Ziel der Karlsruher Forschungsfabrik ist es, neue Produktionstechnologien durch die interdisziplinäre Zusammenarbeit des Maschinenbaus und der Informatik schnell in sichere und profitable industrielle Fertigungsprozesse umzusetzen. Hierbei spielt die „Strategie Künstliche Intelligenz“ der Bundesregierung sicherlich eine wichtige Rolle.

Am „Campus-Ost“ des KIT, in unmittelbarer Nähe zum Fraunhofer IOSB und dem Karlsruher Technologiepark, entsteht auf rund 4 500 m² die neue Forschungsfabrik.
Bild: Heinle, Wischer und Partner Freie Architekten GbR

Allerdings kann die KI nur einen effizienten Mehrwert generieren, wenn sie intelligent mit dem domänenspezifischen Wissen von Produktionsexperten kombiniert wird. Zusätzlich sind für die oben genannten Herausforderungen neuartige Produktionsanlagen mit automatisierten Lösungen notwendig, sodass individualisierte Produkte mit kleinen Stückzahlen rentabel und flexibel fertigbar sind. Zur Erreichung dieses Ziels haben wir eine starke Kooperation zwischen dem wbk Institut für Produktionstechnik des KIT und den Fraunhofer Instituten ICT und IOSB etabliert.

Wie sehen die Anwendungsfelder der Forschungsfabrik hier aus?

Neben dem technologischen Wandel in der Mobilität durch die Transformation zu alternativen Antrieben, neuen Fahrzeugkonzepten, Geschäftsmodellen und Digitalisierung steigt der Bedarf an individualisierten, hochwertigen und gleichzeitig schnell verfügbaren Mobilitätsprodukten. Dies stellt hohe Herausforderungen an geeignete Produktionsverfahren gerade in den Anwendungsfeldern Elektromobilität und an die hybride Leichtbaufertigung.

Mit neuen Produkten sehr viel früher als bisher auf den Zielmärkten präsent zu sein … Sie versuchen gerade die „Time to Market“ insbesondere für kleine und mittlere Unternehmen im Kontext der neuen Technologien und Geschäftsmodelle zu verkürzen – wie und welche Unternehmen können sich daran beteiligen?

Ziel ist die Unterstützung der produzierenden Unternehmen und des Maschinenbaus, neue Produktionsverfahren schneller als bisher zu industrialisieren. Daraus resultiert für die Unternehmen auch gleichzeitig ein Wettbewerbsvorteil, indem sie ihre Produkte schneller an den Markt bringen können. Für die Kooperation mit Unternehmen haben wir das Konzept „Company on Campus“ entwickelt. Hier ist das Ziel, dass die Unternehmen mit den Partnern der Forschungsfabrik unter einem Dach in einer langfristigen Kooperation in sogenannten „Innovation Centern“ zusammenarbeiten. Hierfür gibt es zusätzlich moderne Büroarbeitsplätze, Konferenz- und Kreativräume in direkter Nähe zur Forschungsfabrik.

Für die Kooperation mit Unternehmen haben wir das Konzept ‚Company on Campus‘ entwickelt. Hier ist das Ziel, dass die Unternehmen mit den Partnern der Forschungsfabrik unter einem Dach in einer langfristigen Kooperation in sogenannten ‚Innovation Centern‘ zusammenarbeiten.

Welche Möglichkeiten und Vorteile bietet Ihr „Company on Campus“ für Unternehmen?

Die Karlsruher Forschungsfabrik bietet eine Plattform für den engen Austausch von Forschungsinstituten und den Unternehmen zu konkreten Entwicklungsfragen. Der Vorteil ist die Nutzung der Synergien aus der innovativen Forschung und den langjährigen Kompetenzen der Unternehmen. Zusätzlich strahlt der Standort Karlsruhe eine hohe Anziehungskraft für junge, hoch qualifizierte Mitarbeiter aus, sodass Unternehmen und Forschung davon profitieren. Neben dem Zugang zu jungen „Talenten“ aus dem Hochschulumfeld bietet die Kooperation in der Karlsruher Forschungsfabrik Potenzial für die Entwicklung neuer, disruptiver Technologien. Diese sind essenziell für die Zukunftssicherung der Unternehmen und des Produktionsstandorts Deutschland. //


Kontakt zum Interviewpartner

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Digitale Souveränität wahren

Soll sich KI auf breiter Basis durchsetzen, ist es notwendig, dass die Industrie und auch die Verbraucher Vertrauen in die Technologie gewinnen.

Die TREND-REPORT-Redaktion sprach mit Professor Holger Hanselka, Präsident des Karlsruher Instituts für Technologie (KIT) und Mitglied im Lenkungskreis der Plattform Lernende Systeme.

Herr Prof. Hanselka, welche Chancen bieten sich für den Standort Deutschland im Kontext neuer KI-Technologien?

Lernende Systeme, die auf Methoden und Technologien der künstlichen Intelligenz basieren, werden zunehmend zum Treiber der Digitalisierung in Wirtschaft und Gesellschaft. Man denke nur an Industrie 4.0, medizinische Diagnostik, autonomes Fahren sowie die Unterstützung von Rettungskräften in Katastrophengebieten. Das wirtschaftliche Potenzial dieser Systeme für Deutschland ist enorm: Bereits heute entstehen völlig neue Geschäftsmodelle, welche die traditionellen Wertschöpfungsketten drastisch verändern.

Aktuell ist die Herausforderung im Zusammenspiel von Wissenschaft und Wirtschaft, dass wir unser Wissen rasch für neue KI-Anwendungen und Geschäftsmodelle nutzen, denn lernende Systeme sind ein zentraler Wettbewerbsfaktor für die Zukunftsfähigkeit des Innovationsstandortes Deutschland.

Dies bietet Chancen für neue Unternehmen, kann aber auch zur Bedrohung für etablierte Marktführer werden, wenn diese nicht rechtzeitig reagieren. In Deutschland ist es unser erklärtes Ziel, dass künstliche Intelligenz dem Menschen dienen soll, nicht umgekehrt. So steht es auch in der KI-Strategie der Bundesregierung. Dies ist auch der Kerngedanke der Plattform Lernende Systeme, in der Politik, Wirtschaft und Wissenschaft zusammenarbeiten, um die Chancen, die KI bietet, bestmöglich für Deutschland zu nutzen.

Die deutschen Investitionen in KI-Technologien, im Vergleich zu den USA und China, fallen eher nüchtern aus. Wie können wir mit der Forschung am Ball bleiben?

In unserer Forschung zu Industrie 4.0, beim autonomen Fahren oder auch im Bereich der Entwicklung von lernenden Systemen für lebensfeindliche Umgebungen nehmen wir in Deutschland bereits einen Spitzenplatz ein. So halten deutsche Unternehmen weltweit die meisten Patente zum autonomen Fahren. Auch in der IT-Sicherheit, einer wichtigen Voraussetzung für Industrie 4.0, sind wir wissenschaftlich weit vorne. Beispielsweise erforschen wir am Karlsruher Institut für Technologie in unserem Kompetenzzentrum für IT-Sicherheit KASTEL, wie sich KI nutzen lässt, um gegen Angreifer gewappnet zu sein, und wie man sich gegen menschlich und künstlich intelligente Angreifer-Systeme wehrt.

Mit der zunehmenden Vernetzung von Unternehmen und öffentlichen Einrichtungen wächst auch deren potenzielle Verwundbarkeit durch Cyber-Angriffe.

Damit die Industrie Vertrauen in KI gewinnt, ist es erforderlich, dass wir die digitale Souveränität wahren können. Die Herausforderung im Zusammenspiel von Wissenschaft und Wirtschaft ist aktuell, dass wir unser Wissen rasch für neue KI-Anwendungen und Geschäftsmodelle nutzen, denn lernende Systeme sind ein zentraler Wettbewerbsfaktor für die Zukunftsfähigkeit des Innovations­standortes Deutschland.

Wie können wir mehr Start-ups im Kontext der neuen Technologien an den Start bringen und fördern?

Wichtig ist eine Gründerförderung auf allen Ebenen. Daher sieht die KI-Strategie der Bundesregierung konkrete Maßnahmen vor, um die Zahl der Gründungen im Bereich der KI zu erhöhen, von Beratungsangeboten bis hin zur Bereitstellung von Wagniskapital. Klar ist: Das Wissen, das wir aktuell in Deutschland haben, müssen wir in den Markt bringen, sodass es der Gesellschaft und Wirtschaft nutzt. Auch am KIT fördern wir massiv Ausgründungen.

Zwei Beispiele: Das 2016 gegründete Unternehmen „Understand ai“ mit Wurzeln am KIT kombiniert Machine Learning mit menschlicher Sorgfalt und bereitet mithilfe selbstlernender Algorithmen Daten für das autonome Fahren auf. „Things Thinking“ setzt KI ein, um große Textmengen in kurzer Zeit zu analysieren, was beispielsweise Wirtschaftsprüfern, Steuerberatern und Kanzleien weiterhilft. Wichtig ist, dass wir Gründern in jedem Schritt des Unternehmensaufbaus systematisch Beratungsangebote an die Hand geben. Dies bedeutet auch, dass wir im Sinne einer Kultur des Scheiterns gesellschaftlich anerkennen, dass junge Unternehmen auch von negativen Erfahrungen lernen und dadurch immer besser werden.

Wo befinden wir uns ungefähr im Entwicklungsprozess der „wirklichen KI“?

Wenn Sie mit „wirklicher KI“ die Unterscheidung von starker und schwacher KI meinen, dann bin ich der falsche Ansprechpartner, denn ich bin kein Informatiker und auch kein Philosoph. Aber als Ingenieur interessiert mich sehr, wie KI in unterschiedliche technische Entwicklungsprozesse einfließt und dort zu großen Veränderungen führt. Denn letztendlich ist es ja nicht die KI, die gesellschaftliche Veränderungen mit sich bringt, sondern die technischen Veränderungen in unterschiedlichen Anwendungsbereichen, die durch KI erreicht werden können. Und da sind die Veränderungen, die man heute schon durch den Einsatz von KI erreichen kann, durchaus schon beträchtlich.

Diesen Ansatz verfolgen wir ja auch in der Plattform Lernende Systeme, wo drei Arbeitsgruppen sich konkreten Anwendungsszenarien widmen, zu intelligenten Verkehrssystemen, zur Gesundheit und zu lebensfeindlichen Umgebungen.

Teilweise autonom fahrende Fahrzeuge sind bereits Realität.

Was wird in naher Zukunft zu erwarten sein?

Im autonomen Fahren werden wir gewaltige Fortschritte machen. Autos, die selbstständig einparken und die uns von A nach B bringen werden, sind ja bereits heute Realität. Fahrerlose Autos werden mehr und mehr unsere Mobilität prägen, die multimodal sein wird und verschiedene Verkehrsmittel kombiniert, idealerweise geplant mit einer App. Dies wird auch die Stadt- und Regionalentwicklung positiv beeinflussen, weil gerade auch ältere Menschen durch das fahrerlose Auto mobiler sind und nicht mehr zwingend in die Stadt ziehen müssen.

Genauso ist die intelligente integrierte Vernetzung der Produktion ein Prozess, der längst begonnen hat und sich in der globalisierten Welt mehr und mehr durchsetzen wird. Dies hat zur Folge, dass wir nicht in Ländergrenzen denken dürfen, sondern europaweit Strategien entwickeln müssen. Die jüngst verkündete Zusammenarbeit von Daimler und BMW beim autonomen Fahren ist ein wichtiges Zeichen, denn es geht darum, in Europa die Kräfte zu bündeln.

Wir müssen KI fest in die in­ge­nieurwissenschaftliche Ausbildung integrieren.

Auch werden sich Berufsbilder verändern. Das Weltwirtschaftsforum rechnet damit, dass schon bis zum Jahr 2022 weltweit rund 75 Millionen Arbeitsplätze durch Maschinen ersetzt werden. Gleichzeitig werden der Studie zufolge in den kommenden fünf Jahren 133 Millionen neue Stellen geschaffen, für die teilweise ganz neue Fachkenntnisse nötig sein werden, wie Datenanalysten, E-Commerce- und Social-Media-Spezialisten.

Dies bedeutet, dass bereits Schülerinnen und Schüler programmieren lernen und wir KI fest in die ingenieurwissenschaftliche Ausbildung integrieren müssen. Denn künftig werden wir KI in jedem Schritt der Entwicklung von neuen Produkten mitdenken müssen.

Wie könnten in Zukunft die neuen KI-Technologien unsere Netze und Anwendungen sicherer machen und welche Herausforderungen sind noch zu meistern?

Der Hackerangriff auf den Bundestag Ende des letzten Jahres und die Cyberattacke „Wanna Cry“ auf die Deutsche Bahn im Mai 2017 sind nur zwei Beispiele für Angriffe auf IT-Systeme des Staates und der Wirtschaft. Mit der zunehmenden Vernetzung von Unternehmen und öffentlichen Einrichtungen wächst auch deren potenzielle Verwundbarkeit durch Cyber-Angriffe.

KI kann die Sicherheit von IT-Systemen verbessern. Wir sollten aber darauf achten, nicht nur die Außengrenzen eines komplexen IT-Systems zu schützen, das reicht nicht aus. Denn wir müssen auch reagieren können, wenn ein Teil des IT-Systems von einem Angreifer übernommen wurde.

KI-Systeme können ihr Potenzial ausspielen, wenn es um die verlässliche Angriffserkennung geht. Eine Herausforderung besteht darin zu verstehen, warum eine KI dies oder jenes tut. Daher brauchen wir dringend weitere Forschung und Einblicke in die „Blackbox“ der KI, damit wir uns auf die Entscheidungen von KI-Systemen in kritischen Situationen verlassen können. //

Kontakt zum Interviewpartner

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

5G: Steuerung ohne Latenz

Der 5G-Standard: Grundvoraussetzung für das Industrial IoT

von Kristina Kastner

Immer mehr, immer schneller: Jahrzehntelang wurden mit jedem neuen Mobilfunkstandard die Datenraten massiv erhöht. So auch diesmal, beim Wechsel von 4G zu 5G. Und doch ist diesmal etwas fundamental anders: Für das IoT sind exorbitante Geschwindigkeiten beim Up- und Download zwar interessant, wichtiger aber sind Zuverlässigkeit, niedrige Latenzen und eine gute Festkörperdurchdringung. Im Mittelpunkt der Standardisierungsbemühungen stehen bei 5G mehrere Milliarden Maschinen, Autos, Dinge, die in Echtzeit miteinander kommunizieren wollen.

Mobilfunknetze haben seit den 1980er-Jahren vor allem einen Zweck: Menschen zu verbinden. Zunächst diente das Netz ausschließlich zum Telefonieren, also der Sprachübertragung. Danach gab es ungefähr alle zehn Jahre einen Entwicklungssprung durch die Einführung eines neuen Mobilfunkstandards.

In den 1990er-Jahren kam mit der zweiten Generation (2G) die Textübertragung in Form der SMS hinzu. Internetfähig war kaum ein Mobilgerät. Und wenn doch, wurden mobile Daten über GPRS oder per Edge (E) mit maximal 220 kbit / s übertragen. Das reicht kaum für den Aufbau einer modernen Website.

Mit der dritten Generation (3G oder auch UMTS) begann der Siegeszug der Smartphones und das Internet wurde mobil – um mit der vierten Generation (4G oder auch LTE-Advanced) seine heutige Geschwindigkeit zu erreichen. In der Theorie sind heute Downloadgeschwindigkeiten von 1 000 Mbit / s möglich, in der Praxis sind es allerdings eher 50 Mbit / s. Das liegt zum Beispiel daran, dass zu viele Nutzer in einer Zelle eingewählt sind, oder daran, dass sich der Nutzer in einem geschlossenen Raum befindet und sich der Empfang dadurch deutlich verschlechtert.

Seit 1998 federführend bei der Standardisierungsarbeit ist 3GPP („3rd Generation Partnership Project“), eine weltweite Kooperation von Standardisierungsgremien. Ein Großteil aller Mobilfunknetzbetreiber, -hersteller und -regulierungsbehörden ist hier organisiert und erarbeitet technische Spezifikationen, die alle Aspekte der Mobilfunktechnik möglichst präzise beschreiben. So soll sichergestellt werden, dass die Mobilgeräte der Hersteller in den Mobilfunknetzen weltweit kompatibel sind.

„In der Fabrik der Gegenwart sind zahlreiche Prozesse automatisiert. Zudem werden heute bereits Maschinendaten gesammelt, analysiert und zur Optimierung von Abläufen genutzt.“

Soweit zur Geschichte der Mobilfunkstandards. Die Zukunft heißt 5G und wird für das Jahr 2020 erwartet. 5G verspricht nicht weniger als eine Revolution: Zum ersten Mal steht nicht die Kommunikation zwischen Menschen im Mittelpunkt der Weiterentwicklung, sondern die zwischen Dingen – das Internet of Things. Selbstverständlich wird auch in diesem Entwicklungsschritt das Mobilfunknetz bzw. das mobile Internet noch komfortabler für die menschlichen Anwender. Bis zu 10 Gb / s Downloadgeschwindigkeit und sogar 20 Gb / s im Upload sollen zukünftig laut 3GPP-Spezifikationen – in der Spitze – möglich sein. 5G richtet sich (zumindest in Europa) aber weniger an die Endverbraucher als vielmehr an die Industrie und die hat, über die hohen Bandbreiten hinaus, ganz andere Bedürfnisse.

Vernetzung in der Smart Factory

In der Fabrik der Gegenwart sind zahlreiche Prozesse automatisiert. Zudem werden heute bereits Maschinendaten gesammelt, analysiert und zur Optimierung von Abläufen genutzt. So kann mancherorts der Wartungsbedarf prognostiziert und vorausschauend eingeplant werden – Stillstände werden so vermieden. Um die dafür benötigten Daten zu sammeln, werden die Maschinen mit Sensoren ausgestattet, die in einem lokalen Netzwerk vernetzt sind und die Daten zu einer Plattform in einer Cloud schicken.

Die Fabrik der Zukunft, die Smart Factory, basiert auf solchen intelligenten Einheiten. Das bedeutet, die Zahl der vernetzten Dinge steigt: Dazu gehören etwa fahrerlose Transportfahrzeuge in der Logistik oder Transportbehälter, die ihre aktuelle Position und ihren Füllstand melden, aber auch Augmented-Reality-Brillen, die die Fabrikarbeiter durch komplexe Anwendungen und Arbeitsschritte führen.

Der große Unterschied zwischen heute und morgen: Heutige Vernetzungstechnologien sind größtenteils noch kabelgebunden. Hier kommen vor allem Ethernet- und Feldbus-Technologien zum Einsatz. Die Smart Factory aber muss kabellos funktionieren, denn nur so wird die benötigte Mobilität und Flexibilität möglich – also etwa das Tracken einer Lieferung in einer komplexen Logistikkette. Heutige Funkverbindungen genügen jedoch kaum den Ansprüchen der Smart Factory, insbesondere in Hinblick auf Zuverlässigkeit, Latenzen und die Möglichkeit, eine große Masse an Dingen miteinander – in Echtzeit – zu vernetzen.

Erste Schritte auf dem Weg zur Smart Factory sind heute schon möglich: So existieren bereits jetzt mit Narrowband-IoT und M2M-Kommunikation Technologien und Konzepte, die die Vernetzung zwischen Dingen bzw. Maschinen möglich machen. Narrowband-IoT ist als 3GPP-Standard Teil von „Long Term Evolution“ (LTE). Er funktioniert über simple Funkmodule, die per Plug & Play installiert werden und günstig in der Anschaffung und im Betrieb sind – und somit ideal für IoT-Anwendungen, die nur ab und zu kleine Datenmengen versenden. An Narrowband-IoT lässt sich bereits ablesen, was den 5G-Standard gegenüber seinen Vorgängern so besonders macht: Bei Industrieanwendungen wie dem IoT geht es nur selten um große Bandbreite und hohe Geschwindigkeiten. Vielmehr müssen kleine Datenmengen zuverlässig übertragen werden – auch in schwierigen Umgebungen und über große Distanzen.

Das Netzwerk in Scheiben schneiden

Die Herausforderung, die der 5G-Standard meistern muss, liegt auch und besonders in der Zahl der Geräte, die sich im mobilen Netz befinden. Laut einer Prognose des US-amerikanischen Marktforschungsunternehmens IDC werden im Jahr 2020 etwa 1,8 Milliarden Smartphones weltweit mobiles Internet nutzen – hinzu kommen bis zu 50 Milliarden vernetzte Fahrzeuge, Maschinen und sonstige Geräte, die miteinander, mit der Cloud und mit den Nutzern kommunizieren. Die Lösung liegt darin, das Netz zu entzerren, je nach Anforderung. Das geschieht durch das sogenannte Network-Slicing. Dabei bekommt jede Anwendung das Netz, das sie benötigt, indem das Netz virtuell in Abschnitte oder Sub-Netze mit eigens definierten Ressourcen- und Verfügbarkeits-Garantien unterteilt wird.

Im 5G-Netz werden neue Frequenzbereiche hinzugezogen, die bisher nicht genutzt wurden. Bisher findet der gesamte Mobilfunk im Bereich bis 6 GHz statt. Die Frequenzen darüber hinaus waren nicht nutzbar, da bislang die notwendigen Technologien fehlten. Die neuen, großen Übertragungsraten finden alle oberhalb von 6 GHz statt. Das bedeutet unter anderem, dass das Netz deutlich engmaschiger werden muss, als das bisher der Fall war. Hier werden die Mobilfunkbetreiber investieren müssen, in neue – und vor allem mehr – Antennen. Das Signal der IoT-Endgeräte dagegen muss Wände und andere Festkörper durchdringen können, da es in Gebäuden auch vom Kellergeschoss ins Erdgeschoss gelangen muss. Diese Festkörperdurchdringung ist besonders bei den niedrigen Frequenzen gegeben, außerdem wird in diesem Spektrum eine hohe Zuverlässigkeit erreicht. Für eine flächendeckende Abdeckung ist das 2,6-GHz-Spektrum prädestiniert.

Pro Quadratkilometer eine Million vernetzter Geräte

Das IoT stellt fünf große Anforderungen an das mobile Netz: Größtmögliche Netzabdeckung, robuste Übertragungen, maximale IT-Sicherheit, geringstmöglicher Stromverbrauch und minimale Kosten. IoT-Endgeräte verbrauchen durch die Einschränkungen bei der Datenrate und der Sendefrequenz sehr wenig Strom, sodass ein Batteriesatz zehn Jahre oder länger halten kann. Aufgrund der geringen benötigten Bandbreite lassen sich mehrere 10 000 IoT-Endpunkte (an denen die gesendeten Daten der vernetzten Geräte zusammenlaufen) mit einer Funkzelle versorgen. Das 5G-Netz wird für die Vernetzung von einer Million Geräte / Dinge pro Quadratkilometer ausgelegt sein.

„Die Herausforderung, die der 5G-Standard meistern muss, liegt auch und besonders in der Zahl der Geräte, die sich im mobilen Netz befinden.“

Ein weiterer Faktor, der für das IoT elementar ist, ist die niedrige Latenz. Der Zeitraum zwischen dem Auftreten eines Signals beim Sender und dem Eintreffen desselben beim Empfänger muss für Industrieanwendungen so kurz wie möglich sein, sodass etwa im Falle einer Störung im Produktionsablauf kein Domino-Effekt einsetzt und weitere Schäden nach sich zieht. Gleichzeitig dürfen die betreffenden Anwendungen praktisch keinerlei Ausfall verzeichnen. Im 4G-Netz liegt die Latenz bei 10 ms, sie soll auf 1 ms in 5G sinken.


Quelle: Begleitforschung Technologieprogramm PAiCE

Mitreden bei der Standardisierung

Die Arbeit am 5G-Mobilfunkstandard soll im Rahmen der 3GPP bis Ende 2019 abgeschlossen werden, sodass 2020 mit der Einführung begonnen werden kann. In den einzelnen Arbeitsgruppen sind auch Vertreter aus Forschung und Wirtschaft vertreten, unter anderem auch aus Deutschland. So auch mehrere Projektpartner des Forschungsprojektes IC4F aus dem Technologieprogramm PAiCE des Bundesministeriums für Wirtschaft und Energie (BMWi), das an robusten und echtzeitfähigen Kommunikationslösungen für die verarbeitende Industrie arbeitet. Sie konnten einige relevante Anwendungsfälle und Anforderungen an 5G im Kontext der Smart Factory in die 5G-Standardisierung einbringen. Diese wurden im Technical Report „Study on Communication for Automation in Vertical domains” berücksichtigt. Auf diese Weise können einzelne Branchen Einfluss darauf nehmen, dass ihre Interessen bei der Formulierung des 5G-Standards berücksichtigt werden.

„Die Arbeit am 5G-Mobilfunkstandard soll im Rahmen der 3GPP bis Ende 2019 abgeschlossen werden, sodass 2020 mit der Einführung begonnen werden kann.“

Der betreffende Technical Report deckt Anwendungsfälle aus wichtigen Bereichen wie Service-Robotik, Augmented Reality, Virtual Reality, Fertigungsautomatisierung, Prozesssteuerung und -überwachung, mobile Fernsteuerung und Fernwartung mit Sicherheitsfunktionen sowie massive funkbasierte Sensornetze ab. So konnte etwa festgelegt werden, dass mobile Robotiksysteme, die über ein 5G-Netz kommunizieren, in der Lage sein müssen, in Echtzeit miteinander zu kommunizieren und Kontrolldaten auszutauschen. Dies ist elementar für die kollisionsfreie Zusammenarbeit, da in der Fabrik der Zukunft bis zu hundert (potenziell bis zu 1 000) autonome mobile Robotiksysteme gleichzeitig zusammenarbeiten werden. Einer von vielen Schritten hin zu einem Industrial IoT. //


Autorenvita Kristina Kastner

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Künstliche Intelligenz ohne Vorurteile

Die Datenqualität bestimmt die Leistungsfähigkeit selbstlernender Systeme.

von Andrea Martin

Künstliche Intelligenz (KI) kreiert Tausende neue Möglichkeiten und stößt Türen in digitale Welten auf, die vorher unerreichbar waren. Um bei diesem Fortschritt nicht den Anschluss zu verpassen, investieren viele Unternehmen derzeit kräftig in Funktionalitäten, die die neue Technologie mit sich bringt. Von Chatbots, die Unternehmen helfen, Gespräche mit ihren Kunden zu personalisieren, bis hin zu Systemen, die jahrzehntelanges institutionelles Wissen für einen Fachexperten sofort zugänglich machen. Die Wunderwaffe von intelligenten KI-Systemen: Dort Muster zu erkennen und intelligente Vorhersagen aus erhobenen Daten zu treffen, wo die kognitiven Fähigkeiten des Menschen nicht mehr ausreichen.

Laut einer aktuellen Studie von IDC haben gut ein Viertel der befragten Unternehmen in Deutschland bereits KI-Projekte umgesetzt. 69 Prozent wollen in den nächsten zwölf Monaten neue KI-Initiativen anstoßen. Gebremst wird diese Entwicklung allerdings von einem mangelnden Vertrauen in die „denkenden Maschinen“. Viele machen sich Gedanken, ob sie den Ergebnissen einer KI-Lösung vertrauen können und ob die neue Technologie auch allen rechtlichen Vorschriften entspricht. Im Zentrum steht dabei die Frage, ob und wie sich die Entscheidungen von selbstlernenden Maschinen nachvollziehen und überprüfen lassen.

Unfaire Verzerrungen in den Daten identifizieren

Die Vision ist simpel: Statt sich auf menschliche Annahmen zu stützen, beispielsweise bei der Kreditvergabe oder bei der Vorauswahl im Bewerbungsprozess, beziehen sich die lernenden Maschinen auf statistische Modelle aus einer Vielzahl von Datenquellen und Parametern. Das Problem dabei: Enthalten die Daten unbewusste Vorurteile, Stereotype und altmodische Rollenbilder, werden diese von den lernenden Algorithmen nicht nur übernommen, sondern noch zusätzlich verstärkt.

Vertrauens- und Transparenzprinzipien

  • Der Zweck einer KI ist es, die menschliche Intelligenz zu erweitern und zu unterstützen.
  • KI-Systeme müssen transparent und erklärbar sein.

  • Daten und Erkenntnisse gehören ihren Schöpfern bzw. den jeweiligen Unternehmen, die das KI-System nutzen.

Wenn Fotos und deren Beschriftungen Kochen überwiegend mit Frauen in Verbindung bringen, dann lernt die Software Kochen immer als Frauentätigkeit zu erkennen. Die Maschinen denken dann genauso in Rollenklischees wie wir Menschen. Mitarbeiter müssen KI-Lösungen und die resultierenden Ergebnisse während der Entwicklung, der Trainingsphase und im Betrieb genau beobachten. Ziel ist, statistische und systematische Fehler zu erkennen, ggf. Gegenmaßnahmen zu ergreifen und deren Effekt zu überwachen.

Vielfalt menschlicher Gesichter stellt KI auf die Probe

Die Herausforderungen beim Training von künstlicher Intelligenz zeigen sich besonders bei der Gesichtserkennung. Es ist nicht einfach, Gesichtserkennungssysteme zu entwickeln, die in puncto Fairness unseren Erwartungen entsprechen. Der Kern des Problems liegt dabei nicht in der KI-Technologie selbst, sondern in der Art und Weise, wie die KI-gestützten Gesichtserkennungssysteme optimiert und trainiert werden.

Wie funktionieren neuronale Netze? 

Neuronale Netzwerke sind Rechenmodelle für das maschinelle Lernen, die von der Struktur des menschlichen Gehirns inspiriert sind. Im Gehirn sind Neuronen hochgradig vernetzt und kommunizieren chemische Signale über Synapsen in den Nervenzellen.

Künstliche neuronale Netze kommunizieren Signale (Zahlen) über Gewichte und Aktivierungsfunktionen (z. B. Sigmoide), die Neuronen aktivieren. Sie werden anhand von Beispielen trainiert und nicht explizit programmiert: Mithilfe eines Trainingsalgorithmus passen die Netzwerke in jeder „Trainingsrunde“ diese Gewichte an, um ein bestimmtes Problem immer besser zu lösen – das Netz „lernt“.

Um die gewünschten, immer exakteren Resultate zu erzielen, müssen die Trainingsdaten vielfältig sein und eine enorme Bandbreite an Informationen abdecken. Nur so kann die KI die Nuancen erkennen, durch die sich Gesichter in verschiedenen Situationen voneinander unterscheiden. Die Trainingsbilder müssen diese unterschiedlichen Gesichtsmerkmale der Gesichter widerspiegeln.

Ein Großteil der Leistungsfähigkeit von KI kommt heute durch den Einsatz von immer präziseren datengetriebenen Deep-Learning-Optimierungseinheiten, die immer größere Datenmengen nutzen können, um KI-Systeme zu trainieren. Die Stärke dieser Methode kann aber wie in den Beispielen dargestellt gleichzeitig auch eine Schwäche sein. Denn KI-Systeme lernen, was ihnen beigebracht wird. Werden sie nicht mit soliden und vielfältigen Datensätzen optimiert, können die Ergebnisse verzerrt werden, damit die Fairness leiden und letztlich auch die Genauigkeit.

Andrea Martin, CTO IBM

Anhand dieser Trainings-Datensätze weiß man jedoch, auf welcher Datengrundlage die KI-Systeme lernen und Entscheidungen treffen. Wie genau die neuronalen Netze aber zu ihren Schlussfolgerungen kommen, lässt sich im Moment noch kaum nachvollziehen. Für Nutzer sind sie oftmals eine Blackbox – undurchsichtig und schwer zu erschließen.

Zu einer transparenten Offenlegung der Entscheidungswege von KI gehört, dass jede Vorhersage, jede Modellversion und jegliche Trainingsdaten dokumentiert und gespeichert werden – und damit Unternehmen bei der auditsicheren Einhaltung von Compliance-Richtlinien und der DSGVO unterstützt.

Andrea Martin

KI-Empfehlungen transparent nachvollziehen

Zu einer transparenten Offenlegung der Entscheidungswege von KI gehört, dass jede Vorhersage, jede Modellversion und jegliche Trainingsdaten dokumentiert und gespeichert werden – und damit Unternehmen bei der auditsicheren Einhaltung von Compliance-Richtlinien und der DSGVO unterstützt.

Das ist besonders in stark regulierten Branchen wie dem Finanz- und Gesundheitswesen oder auch in datenintensiven und -sensiblen Branchen wie der Automobil- oder der Pharmaindustrie relevant, in denen die Einhaltung der DSGVO und anderer umfassender Vorschriften erhebliche Hindernisse für eine breite Anwendung von KI darstellt.

Ohne Ethik gibt es kein Vertrauen

Die Debatte um eine verantwortungsvolle Entwicklung und Nutzung von KI in Deutschland wird inzwischen auch auf höchster politischer Ebene adressiert. Die Bundesregierung begreift künstliche Intelligenz als Schlüsseltechnologie, ist sich jedoch ebenfalls über die gesellschaftlichen und ethischen Implikationen bewusst. Die „Strategie Künstliche Intelligenz“ greift daher die zentralen Fragestellungen auf und wird auch in der Enquete-Kommission „Künstliche Intelligenz“ des Bundestages diskutiert. Sie soll einen Rahmen bilden, wie sich KI gemeinwohlorientiert entwickeln und einsetzen lässt.

Enquete-Kommission

  • Setzt sich aus 19 Mitgliedern des Deutschen Bundestages und 19 sachverständigen externen Expertinnen und Experten zusammen

  • Untersucht die Potenziale und den zukünftigen Einfluss von KI auf unser (Zusammen-)Leben, die deutsche Wirtschaft und die zukünftige Arbeitswelt

  • Erörtert sowohl die Chancen als auch die Herausforderungen von KI für Gesellschaft, Staat und Wirtschaft

  • In öffentlichen Kurzvorträgen umreißen Sachverständige theoretische und praktische Aspekte rund um KI

  • Sitzungen werden im Internet auf www.bundestag.de live (zeitversetzt) übertragen

Um KI-Systemen vertrauen zu können, müssen wir verstehen, warum sie die Entscheidungen treffen, die sie treffen. Die Entwicklung von KI darf kein Selbstzweck sein, sondern muss dem Menschen dienen. Hier bedarf es Leitlinien, Prinzipien und Werte, die eine KI einhalten muss – ähnlich dem Grundgesetz. Denn Vertrauen und Akzeptanz kann nur durch einen vertrauensvollen Umgang mit KI aufgebaut werden. //

Kontakt zur Autorin

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Auf Unbekanntes vorbereiten

Im Kontext von Datensicherheit bedeuten KI-Systeme zwangsläufig, dass Organisationen sich auf neuartige Bedrohungen einstellen müssen.

Prof. Dr. Jörn Müller-Quade erläuterte der TREND-REPORT-Redaktion das Forschungs­feld „Kryptographie und Sicher­­heit“ am KIT und mögliche künftige Bedrohungsszenarien im Kontext von KI.

Herr Prof. Müller-Quade, mit welchen Themen und Aufgaben beschäftigt sich Ihr Forschungsbereich?

Ich erforsche kryptographische Protokolle, etwa für Online-Banking oder Online-Wahlen. Für mich sind diese Verfahren wie kleine Wunder, weil scheinbar Unmögliches erreicht wird, so kann etwa die Korrektheit der Auszählung einer Online-Wahl nachgewiesen werden, ohne dass das Wahlgeheimnis verletzt wird. Neben dem Nutzen, den solche Verfahren in der IT-Sicherheit haben, finde ich sie auch für sich genommen faszinierend. Sogenannte Zero-Knowledge-Beweise können einen von einer Aussage überzeugen, ohne dabei aber mehr zu verraten als die Gültigkeit eben jener Aussage. Sichere Mehrparteienberechnungen erlauben es mehreren Teilnehmern gemeinsam, auf geheimen Eingaben der einzelnen Teilnehmer basierend ein Ergebnis verteilt zu berechnen – ohne dass ein Teil der Teilnehmer das Ergebnis manipulieren oder mehr erfahren kann als eben das Ergebnis. Wie man so etwas hinbekommt und wie man aus solchen mächtigen Bausteinen größere Anwendungen bauen kann, sind Grundfragen der kryptographischen Forschung.

Auf welche Gefahren und Szenarien im Kontext von KI-Technologien müssen wir uns einstellen?

KI-Systeme können Angreifer unterstützen, damit können beispielsweise Angriffe, die bisher mühsam von Menschen gemacht werden müssen, automatisiert werden, was zu einer enormen Zunahme solcher Angriffe führen wird. Konkret denke ich an „Spear Phishing“, also maßgeschneiderte Betrugs-E-Mails, die eine Schadsoftware enthalten, die aktiv wird, wenn man den Empfänger dazu verleitet, eine Datei oder einen Link anzuklicken. KI-Systeme entwickeln in manchen Bereichen übermenschliche Leistungen und könnten somit auch völlig neue Angriffe finden. KI-Systeme, wie sie in Zukunft in vielen Anwendungen stecken werden, können auch selbst angegriffen werden. Wenn man das Verhalten einer KI analysiert, kann man diese KI leicht täuschen, oder wenn man Trainingsdaten verfälscht, kann ein sehr unerwünschtes Verhalten der KI bewirkt werden. Ein Problem ist, dass wir KI-Systeme nicht gut verstehen, daher müssen wir KI-Systeme geschickt mit klassischen Systemen kombinieren, wir benötigen ein „KI-Engineering“.

Wie können schlaue Algorithmen und KI im Kontext der Cybersecurity zum Einsatz gebracht werden?

Angriffe lassen sich nicht 100-prozentig verhindern, daher ist auch die Angriffserkennung extrem wichtig. Insbesondere hier werden KI-Systeme enorm nützlich sein. Auch werden KI-Systeme bei Sicherheitstests helfen, etwa Systeme testweise angreifen, um die Systeme weiter zu härten. Dies ist beispielsweise denkbar für sogenannte Seitenkanalangriffe auf Hardware. Ist etwa der Stromverbrauch einer Berechnung korreliert mit geheimen Eingaben der Berechnung, könnten KI-Systeme dies in Zukunft besser erkennen als Menschen. Leider haben solche Ansätze einen Dual-Use-Charakter und könnten auch von Angreifern missbraucht werden, hier erwarte ich ein Hase-und-Igel-Wettrennen. KI-Systeme könnten den Datenschutz verbessern, ein Beispiel ist das NurseEYE-System, bei dem ein schlauer Algorithmus aus Video­daten Stürze von Patienten in einem Krankenhaus erkennt. Erst wenn ein Sturz erkannt wird, werden die hochaufgelösten Videodaten an das Klinikpersonal weitergegeben.

Was meinen Sie mit dem „systemischen Ansatz zur wirksameren Vorbeugung von Cyberangriffen“?

Wenn wir in Zukunft befürchten müssen, dass KI-Systeme oder Mensch-Maschine-Teams völlig neue Angriffe finden, wird es nicht genug sein, unsere IT-Systeme gegen bekannte Angriffe zu patchen. Wir müssen uns auf unbekannte Angriffe vorbereiten. Hier könnte die Kryptographie ein Vorbild sein. Dort gibt es die sogenannte beweisbare Sicherheit, dies ist leider eine sehr missverständliche Bezeichnung, denn die Sicherheit realer Systeme lässt sich nicht beweisen. Dennoch wird in einem mathematischen Modell nachgewiesen, dass jeder erfolgreiche Angriff vorher explizit angegebene Sicherheitsannahmen verletzt. Dieser Zugang berücksichtigt alle Angriffe, auch bisher unbekannte Angriffe, die sich im Modell darstellen lassen. Wird nun ein beweisbar sicheres Verfahren dennoch gebrochen, so ist entweder das Modell noch nicht nahe genug an der Realität oder eine Sicherheitsannahme ist falsch. Durch jeden erfolgreichen Angriff hat man einen Erkenntnisgewinn.

Inwieweit können die Blockchain-Technologien helfen, die IT sicherer zu machen, und welche Rolle spielt dabei die Kryptographie?

Die Blockchain ist ein gutes Beispiel dafür, wie kryptographische Verfahren scheinbar Unmögliches schaffen. So kann eine Blockchain die Basis für eine Währung sein, die ein gewisses Maß an Anonymität hat und obwohl sie überhaupt nicht mehr an stoffliche Artefakte gebunden ist, dennoch einen Wert hat. Neben der Blockchain gibt es aber noch viele andere kryptographische Verfahren, die manchmal sogar viel geeigneter sind, all die Probleme zu lösen, für die zurzeit die Blockchain vorgeschlagen wird. Prinzipiell kann man sich vorstellen, dass all die Aufgaben, für die zur Zeit ein vertrauenswürdiger Vermittler nötig ist, etwa ein Auktionator, ein Notar oder eine Bank, auch von verteilten kryptographischen Verfahren gelöst werden können.

Sichere Verschlüssungsverfahren? Was raten Sie an?

Bei Verschlüsselungsverfahren wird der Erfolg der Kryptographie besonders deutlich. Die Snowden-Enthüllungen haben gezeigt, dass selbst die NSA moderne Verschlüsselungsverfahren nicht brechen konnte und Hintertürchen benutzen musste. Wie KI-Systeme die IT-Sicherheit in Zukunft verändern werden, ist eine der Fragen, der die nationale Plattform Lernende Systeme nachgeht. Bei Verschlüsselungsverfahren bin ich aber optimistisch, dass keine Gefahr besteht. Trotzdem gibt es selbst hier noch Forschungsbedarf, etwa an Verfahren, die auch langfristig sicher bleiben, etwa, wenn Quantencomputer möglich werden. Die eigentliche Schwachstelle bei der sicheren Kommunikation sind die Endgeräte, mein Rat wäre also, verstärkt auch Endgerätesicherheit systematisch zu erforschen.

Kryptographie: Welche Chancen und Möglichkeiten bringt in diesem Kontext das Forschungsgebiet der „sicheren Mehrparteienberechnung“?

Sichere Mehrparteienberechnungen erlauben es mehreren sich gegenseitig misstrauenden Teilnehmern, gemeinsam etwas auszurechnen. Die geheimen Eingaben der Teilnehmer bleiben geschützt und das Ergebnis kann nicht manipuliert werden, selbst wenn einige der Teilnehmer beliebig vom Protokoll abweichen. Anwendungen hierfür wären etwa Berechnungen auf Medizindaten, die in verschiedenen Kliniken vorliegen, aber die Klinik nicht verlassen dürfen, oder automatisierte Verhandlungen, bei denen nichts bekannt wird, außer dem Geschäftsabschluss, wenn er zustande kommt. Auch denkbar ist, dass man mit diesem Paradigma sichere Systeme aus nicht vertrauenswürdigen Komponenten aufbaut und so digitale Souveränität erreichen könnte, ohne alles selber machen zu müssen. //


Kontakt zum Interviewpartner

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Aufmacherbild von Hebi B. auf Pixabay

Das „Internet of Medical Things“ (IoMT)

E-Health-Innovationen machen unser Leben sicherer und gesünder – ein Milliardengeschäft.

Das Marktforschungsunternehmen Gartner erwartet bis 2020 weltweit 20 Milliarden vernetzte Medizingeräte, die im Krankenhaus 4.0, beim Arzt, im Smarthome oder in der Smart City zum Einsatz kommen. Der Gesamtwert des IoMT-Marktes in Europa betrug laut einer Studie von Deloitte letztes Jahr rund 12 Mrd. US-Dollar. 2020 sollen es 40 Mrd. sein. Auf dem Markt tummeln sich dabei nicht nur diverse Start-ups, sondern vor allem auch Big Player wie Siemens, Apple und Google bzw. die Alphabet-Tochter verily.

Vielfalt der Sensoren

Herzfrequenzsensoren erkennen Anzeichen eines Vorhofflimmerns, Beschleunigungssensoren registrieren schwere Stürze und schlagen Alarm. Sensoren sind heute in der Lage, nahezu jede Körperfunktion rund um die Uhr zu überwachen, machen unser aller Leben und vor allem das von Patienten leichter und sicherer. Diabetiker, Epileptiker und Herzpatienten werden schon gewarnt, bevor sie selber Anzeichen verspüren und Krankenhäuser und (Not-)Ärzte können frühzeitig alarmiert werden.

Viele Sensoren sind dabei heute so klein, dass sie einfach mit der Smartwatch getragen werden können. Für spezielle Anwendungen geht es auch noch kleiner bzw. filigraner. Sensoren auf Kontaktlinsen etwa sind in der Lage, anhand der Tränenflüssigkeit den Blutzuckerwert zu messen und zu übermitteln. Im Krankenhaus überwachen Sensoren dabei nicht nur Patienten, sondern auch medizinische Geräte. Diese lassen sich so nicht nur leicht lokalisieren, sondern auch rechtzeitig warten. Durch die Möglichkeiten einer Predictive Maintenance werden so Ausfallzeiten verhindert und Kosten gesenkt.

AR und VR

Durch Augmented Reality lassen sich komplette Eingriffe realitätsnah simulieren. Im echten OP erleichtern auf Datenbrillen projizierte Informationen das Operieren. Der Chirurg muss nicht mehr seinen Kopf zum Monitor heben, sondern kann sich komplett auf den Patienten konzentrieren. In Zukunft sollen Mediziner während einer Operation passgenau CT- und MRT-Bilder über den Patienten eingeblendet bekommen, um bestimmte Bereiche besser lokalisieren zu können.

Ein Forscherteam der RWTH und FH Aachen präsentierte im Juni eine 3-D-Betrachtung eines stark verlagerten Kiefergelenkbruchs mittels einer Virtual-Reality-Brille. Dabei wurde deutlich, wie hilfreich eine solche Darstellung für den Chirurgen bei der Planung seines Eingriffs sein kann. Natürlich ist diese Technologie auch während der fachärztlichen Ausbildung oder während des Studiums besonders vielversprechend.

Digitale Gesundheitsakte

Gesundheitsminister Jens Spahn will, dass ab 2021 Versicherte generell ihre Patientendaten auch per Handy oder Tablet einsehen können. Während die Techniker Krankenkasse und die AOK eine eigene Lösung anbieten, ist „vivy“ ein Gemeinschaftsprojekt diverser anderer privater und gesetzlicher Krankenkassen. Die App ist dabei elektronische Gesundheitsakte und persönliche Assistentin zugleich. Sie hilft bei der Einhaltung von Medikationsplänen oder erinnert an den nächsten Impf- / Vorsorgetermin. Welche Daten wann an wen übermittelt werden, entscheidet der Nutzer selbst. Auch soll technisch und organisatorisch sichergestellt sein, dass Krankenversicherungen keinen Zugriff auf persönliche Daten bekommen können. Akzeptanz und Vertrauen in derartige Produkte fehlt allerdings dennoch in breiten Schichten der Bevölkerung.

Sicherheitsbedenken

Vernetzte Geräte bilden naturgemäß eine Angriffsfläche für Hacker. Neben unseren Gesundheitsdaten kann dadurch auch unmittelbar unser Leben bedroht werden, bspw. wenn der Herzschrittmacher gehackt wird. Nach dem Medizinproduktgesetz müssen vernetzte Medizingeräte zwar besonders hohe Sicherheits- und Qualitätsauflagen erfüllen, doch absolute Sicherheit kann auch dadurch nie gewährleistet werden. Das Potenzial das Leben vor allem von Risikopatienten deutlich sicherer zu machen, scheint dabei aktuell die Risiken mehr als aufzuwiegen. Dies darf aber nicht dazu führen, verstärkte Sicherheitsmaßnahmen zu vernachlässigen. //


Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Innovationsstandort Deutschland?

Wettbewerbsfähigkeit erfordert passende Rahmenbedingungen.

Frank Thelen, CEO von Freigeist Capital, sprach mit der TREND-REPORT-Redaktion über das Potenzial neuer Technologien und darüber, wie Gründer in Deutschland unterstützt werden müssen, um diese zu nutzen.

Herr Thelen, inwieweit braucht künstliche Intelligenz das IoT (IIoT) und umgekehrt?
Künstliche Intelligenz braucht nicht unbedingt IoT, aber IoT braucht KI. Durch IoT und unzählige Sensoren fallen so große Datenmengen an, dass diese von Menschen und „dummen“ Systemen gar nicht sinnvoll ausgewertet werden können, geschweige denn, dass in Echtzeit auf Erkenntnisse aus diesen Datenmengen reagiert werden kann. Big Data ohne KI bringt keine wertvollen Erkenntnisse …

Wenn Blockchain, KI- und IoT-Technologien verschmelzen – welches Potenzial steckt dann in der Konvergenz dieser Technologien?
Das Zusammenspiel dieser Technologien hat das Potenzial, viele Bereiche unseres Lebens grundlegend zu verändern. Denken wir allein an die Energiewirtschaft: Intelligente Stromzähler und Sensoren erkennen, wann und wo wie viel Strom benötigt wird. Eine KI steuert in Abhängigkeit davon in Echtzeit Kraftwerke und die gesamte Abrechnung unter allen Beteiligten erfolgt voll automatisiert und sicher über die Blockchain, ohne dass ein Mensch eingreifen muss. Damit werden ganz neue Konzepte und Modelle bei der Energieversorgung möglich, insbesondere deren Dezentralisierung. Setzen wir diese Möglichkeiten konsequent um, können wir in Deutschland ein echter Vorreiter werden.

Welche Chancen haben Deutschland und unsere Wirtschaft dabei?
Wir haben die Chance, endlich wieder bei einer Schlüsseltechnologie führend zu werden. KI ist wie z. B. das Smartphone eine Grundlagen-Technologie, die unfassbar viele neue Möglichkeiten bringt. In diesem Fall sogar deutlich mehr als das Smartphone, es ist die bisher größte und wichtigste Erfindung der Menschheit. KI ist ja kein Selbstzweck, sondern Voraussetzung für die Weiterentwicklung in vielen anderen Technologiebereichen. Sei es die gerade genannte Energieversorgung, Medizintechnik, Mobilitätskonzepte oder auch die Entwicklung neuer Medikamente oder Werkstoffe – all dies sind Bereiche, in denen die deutsche Wirtschaft noch stark ist. Durch den Einsatz von KI stellen wir sicher, dass wir es bleiben.

Reichen die Ausgaben der Regierung, um den Standort mit der neuen Technologie international voranzubringen?
Nein, die Notwendigkeit, hier mehr tun zu müssen, wurde zwar erkannt, aber noch geben die USA und China deutlich mehr für die Förderung aus. Wollen wir hier den Anschluss nicht verlieren, muss mehr passieren. Damit meine ich nicht nur rein finanzielle Förderung, sondern auch das Schaffen passender Rahmenbedingungen. Es bleibt also viel zu tun.


Künstliche Intelligenzen sind dazu da, uns Menschen zu unterstützen. Sie nehmen uns Routineaufgaben ab und geben uns die Chance, dass wir uns auf die wirklich wichtigen Dinge konzentrieren.


Im Sinne der Chancen … was muss jetzt getan werden?
Natürlich helfen Fördermittel. Wir brauchen aber zusätzlich ein Umdenken: In Deutschland neigen wir dazu, immer nur Risiken und Bedenken zu sehen und eher kritisch zu sein, was neue Technologien und Entwicklungen angeht. Damit stehen wir uns sozusagen selbst im Wege. All dies ist ein weites Feld und umfasst neben einem gesellschaftlichen Umdenken stabile rechtliche Rahmenbedingungen und eine bessere Koordination bestehender Aktivitäten und Projekte.

Was raten Sie deutschen Unternehmern im Hinblick auf neue KI-Projekte?
Unternehmen müssen erkennen, dass KI ihnen in vielen Bereichen ihrer Prozesse helfen kann, in Zukunft vielleicht sogar für ihren Fortbestand entscheidend sein kann. Sie sollten sich daher mit der Materie frühzeitig befassen und z. B. den Kontakt und Austausch mit Start-ups aus dem KI-Bereich suchen.

Wie kann KI in Deutschland implementiert und realisiert werden im Kontext der DSGVO?
Ich bin kein Jurist, aber die DSGVO hat in der gesamten IT-Branche für viel Verunsicherung gesorgt. Und gerade bei KI-Projekten ist die Verarbeitung personenbezogener Daten ja oft notwendig – die DSGVO bremst hier auf jeden Fall. Ja, der Schutz persönlicher Daten ist wichtig, braucht aber praktikable Regeln, die die DSGVO gerade nicht bietet. Das hat die Politik aber erkannt und ich habe die Hoffnung, dass die Regelungen angepasst werden.

Wo befinden wir uns ungefähr im Entwicklungsprozess der „wirklichen“ KI?
Noch sind wir in einer recht frühen Phase der KI. Denken wir an digitale Assistenten wie Siri, Google Now oder Alexa, deren Fähigkeiten doch noch sehr begrenzt sind. Wir haben es bei KI eben noch nicht mit echter Intelligenz zu tun, sondern mit Programmen, die auf Grundlage vorgegebener Algorithmen so etwas wie menschliche Intelligenz simulieren und deren Stärke darin besteht, große Datenmengen schnell verarbeiten zu können, und darin, z. B. Zusammenhänge zu erkennen. Die steigende Leistungsfähigkeit der Computersysteme ermöglicht nun aber schon neuronale Netze, die selber lernen und sich und ihre Methoden optimieren können – die KI lernt sozusagen gerade laufen.

Wie sieht das „neue Menschsein“ aus im Zeitalter von KI?
Künstliche Intelligenzen sind dazu da, uns Menschen zu unterstützen. Sie nehmen uns Routineaufgaben ab und geben uns die Chance, dass wir uns auf die wirklich wichtigen Dinge konzentrieren: Kreativität, Freizeit mit der Familie, Sport, soziales Engagement z. B. KI richtig eingesetzt wird uns die Möglichkeit geben, ein menschlicheres Leben zu führen.

Wo und wann hört der Spaß auf und wie sollte das Risiko- und Chancenmanagement gestaltet werden?
Wir dürfen nie vergessen, dass KI dazu da ist, dem Menschen zu dienen und ihm zu helfen. Es darf nie passieren, dass eine KI gleichsam über dem Menschen steht und von diesem im Zweifel nicht, vereinfacht gesprochen, abgeschaltet werden kann. Der Weg in Richtung KI kennt kein Zurück mehr, aber wir müssen ihn in unserem Sinne gestalten und permanent kritisch hinterfragen, ob die aktuellen Entwicklungen in die gewünschte Richtung gehen. Hierfür braucht es klare und sinnvolle Regulierungen.

Können wir Maschinen Moral beibringen?
Das Maschinen sobald ein echtes Verständnis für Ethik und Moral entwickeln werden, glaube ich nicht. Hier müssen wir ihnen mit Vorgaben und Regeln helfen. Eine Grundlage dafür können übrigens die von Asimov schon 1942 formulierten Robotergesetze sein. Das erste und wichtigste davon besagt, dass ein Roboter kein menschliches Wesen wissentlich verletzen darf. Was sich theoretisch so einfach anhört, ist in der Praxis viel komplizierter: Wie soll sich die KI in einem selbstfahrenden Auto entscheiden, wenn sie das Leben entweder des Fahrers oder das eines Fußgängers gefährden muss, um Schlimmeres zu vermeiden? Die Probleme und Fragestellungen sind also ganz konkret und akut.

Warum gründen in Deutschland im Verhältnis nur wenige Entwickler und Technologiespezialisten?
Forschung fand in Deutschland lange Zeit vornehmlich im akademischen Elfenbeinturm statt und Kontakte mit der Wirtschaft, geschweige denn ein Austausch, galten fast schon als anrüchig. So ist es zu erklären, dass viele Grundlagentechnologien – z. B. MP3 – zwar hierzulande entwickelt, aber von anderen Ländern zum Erfolg geführt wurden. Dieses Denken ist bei vielen noch tief verhaftet. In letzter Zeit gibt es aber Anstrengungen, diese traditionelle Trennung zu überwinden. Ich bin zuversichtlich, dass wir schon bald mehr Gründungen aus diesem Umfeld sehen.


Ich bin kein Jurist, aber die
DSGVO hat in der gesamten IT-Branche für viel Verunsicherung gesorgt.


Wie ergeht es jungen Tech-Gründern und Spezialisten in Deutschland, wenn Seed- oder Wachstumskapital benötigt wird?
Hier haben es deutsche Gründer tatsächlich schwieriger als z. B. die in den USA. Ich sehe drei große Probleme: Zunächst ist das Angebot tatsächlich nicht so groß. Zum anderen ist es – auch aufgrund unserer föderalen Struktur – sehr zersplittert und dementsprechend unübersichtlich. Zuletzt sind die juristischen und formalen Hürden für Beteiligungen hierzulande vergleichsweise hoch. Aber auch dieses Problem ist erkannt worden, wobei Änderungen natürlich Zeit brauchen.

Was hat es mit Ihrem just erschienenen Buch „Startup-DNA“ auf sich und wer sollte es lesen?
Das Buch habe ich aus mehreren Gründen geschrieben. Zum einen werde ich immer wieder gefragt, wie sich mein Weg zum Investor gestaltet hat. Gleichzeitig will ich Menschen ermutigen, ihre Ziele und Ideen in die Tat umzusetzen und selber zu gründen, denn noch nie hat es – dank der aktuellen technischen Entwicklungen – so viele Möglichkeiten gegeben, etwas zu gestalten und zu bewegen. Und diese neuen Möglichkeiten wie KI, Blockchain oder Quantencomputing möchte ich möglichst vielen Menschen näherbringen. Deshalb habe ich diese und andere Zukunftstechnologien im Buch für jedermann verständlich erklärt. Ich kann also ganz unbescheiden sagen: Das Buch sollte jeder lesen, der sich für seine und unsere Zukunft interessiert. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Abteilung Buchhaltung

Einfluss der Digitalisierung auf die Buchhaltung und das Rechnungswesen

Die Idee des „papierlosen Büros“ steht im Zentrum der Transformationbestrebungen der Finanzabteilung. Sämtliche Abläufe in der Buchhaltung und Lohnbuchhaltung sowie die Büroverwaltung sollen auf rein digitalem Weg organisiert und gespeichert werden. Die papierlose Buchhaltung hilft so, Kosten zu sparen, und optimiert bestehende Prozesse.

Kostenreduktionen machen sich dabei nicht nur im Unternehmen durch den schnelleren Austausch von Dokumenten bemerkbar, sondern auch im Umgang mit externen Dienstleistern, beispielsweise beim digitalen Versenden der Unternehmensunterlagen an den eigenen Steuerberater.

Das digitale Belegwesen ist dabei die dynamische Weiterentwicklung der heutigen Finanzbuchhaltung. Im digitalen Belegwesen werden relevante Belege digitalisiert (z. B. per Scanner) und in die Buchhaltungssysteme übernommen. Dort können sie dann, teilweise automatisch, bearbeitet werden. Dabei ist darauf zu achten, dass die fiskalischen Regeln für das manipulationssichere Speichern der gescannten Belege eingehalten werden. Zunehmend werden Geschäftsvorfälle zwischen Firmen auch vollständig digital abgewickelt, sodass eine Digitalisierung von Belegen entfällt.(1)

Ein weiteres Beispiel einer Effizienzsteigerung ist die Einführung einer Software zur automatischen Verbuchung von Eingangsrechnungen. Per OCR-Erkennung sind Systeme in der Lage, die bestellte Ware mit der Rechnung zu vergleichen. Zahlreiche manuelle Bearbeitungsschritte im Rechnungseingangs- und Rechnungsprüfungsprozess werden eliminiert und auch Bearbeitungsfehler werden reduziert. Durch den beschleunigten Rechnungsdurchlauf lassen sich auch Skontomöglichkeiten besser ausnutzen.

Stammdatenmanagement / EU-DSGVO

Die Qualität der Stammdaten ist ein weiterer zentraler Aspekt bei der Digitalisierung der Finanzabteilung. Im Rahmen der EU-DSGVO müssen für die Stammdatenpflege dabei Prozesse definiert werden, die sowohl das Auskunftsrecht als auch das „Recht auf Vergessen“ gewährleisten.

Da in vielen Unternehmen die Buchhaltung entweder Anwendungen in die Cloud verlagert oder aber eine externe Steuerkanzlei beschäftigt, muss sichergestellt werden, dass Cloud-Anbieter oder Steuerberater ebenfalls die EU-DSGVO-Kriterien erfüllen. Beide sind in der Pflicht, eine entsprechende Konformität nachzuweisen, wobei sich Unternehmen diese vertraglich garantieren lassen sollten.


Abteilung Personal

Einfluss der Digitalisierung auf das Personalwesen

In der heutigen Zeit greift die Digitalisierung immer weiter in die Arbeitswelt und in die damit vorhandenen Prozesse eines Unternehmens ein. Es existiert kaum ein Prozess in der Personalabteilung, der nicht unter dem Einfluss der Digitalisierung steht. Dadurch entstehen neue Möglichkeiten der Organisation von Personalarbeit, neue Herausforderungen an Mitarbeiter und neue Risiken.

Die Aufgabenprofile wandeln sich durch künstliche Intelligenz (KI) und Automatisierung. Software-Bots und smarte Assistenten helfen, stupides Arbeiten zu vermeiden, und schaffen neue Freiräume für Personaler, die mit strategischen Aufgeben besetzt werden. Der HR-Bereich wird so zum Partner der Geschäftsführung und der einstige Verwalter von Mitarbeitern wird zum proaktiven Dienstleister im Unternehmen.

Eine der wichtigsten Aufgaben der HR 4.0: die knappen Fachkräfte an das Unternehmen zu binden. Dabei helfen neue Recruitingmaßnahmen und Analysen sowie ein gekonntes Employer-Branding.

Vorhandenes Fachpersonal wird durch neu eingeführte Lernmethoden und Motivationsprogramme weiterentwickelt und ist in der Lage, durch Performancemanagement mittels Big Data Prozesse optimal zu steuern.
HR-Personal der Zukunft wird aufgrund der großen Masse an personenbezogenen Daten, die gesammelt werden, zunehmend die Balance zwischen Daten- und Mitarbeiterschutz finden müssen, Datensicherheit und Datenschutz werden daher eine wichtige Rolle im digitalisierten Personalwesen einnehmen. Gerade die Nutzung personenbezogener Daten für KI-optimierte Prozesse ist dabei problembehaftet.

Neue Kompetenzfelder des Personalwesens durch Einfluss der Digitalisierung

Neue Kompetenzanforderungen

Megatrends wie die Digitalisierung oder der demografische Wandel stellen die jetzige Position des Personalwesens in Unternehmen mit Blick auf die Wahrnehmung seiner Funktionen und seines Wertbeitrages vor große Herausforderungen. Technologietreiber der Märkte sorgen für neue Geschäftsmodelle, Unternehmensstrukturen und Arbeitsumfelder für Arbeitnehmer, die Verknappung von lokalen Fachkräften und Spezialisten sorgt zusätzlich für Veränderungen in der strategischen Personalplanung. Gleichzeitig wächst die sogenannte Gig-Economy: Vor allem im IT-Bereich gehören Arbeitnehmer nicht länger fest zu einer Organisation, sondern bieten ihre Dienstleistung projektbezogen auf Plattformen an und sind so zeitlich befristet für verschiedene Auftraggeber tätig. Die On- und Offboarding-Prozesse im Unternehmen nehmen entsprechend zu, wodurch auch der administrative Aufwand steigt und sich die Einführung einer Automatisierungslösung entsprechend rentiert.

Um den verschiedenen Herausforderungen Rechnung zu tragen, werden völlig neue Kompetenzen von den Mitarbeitern des Personalwesens erwartet. Diese können in die Kategorien Recruitment, Learning & Development, Performancemanagement und Employer-Branding unterteilt werden.

Heutige Personalfunktionen generieren eine große Menge an Daten, welche zukünftig analytisch durch Big-Data-Verfahren ausgewertet werden müssen, um strategische Schlussfolgerungen und Problemlösungen anbieten zu können.


Weiterführende Beiträge aus TREND REPORT zum Thema

Wie die HR-Abteilung neue Herausforderungen, wie die zunehmende Agilität und die Gig-Economy, mit digitalen Lösungen bewältigen kann und Mitarbeiter begeistert werden, weiß Wieland Volkert. https://trendreport.de/herausforderungen-digital-begegnen/

Post and pray – Stellen ausschreiben und abwarten – war gestern. Wie Unternehmen ein neues Recruiting Mindset entwickeln können, verrät
Frank Rechsteiner. https://trendreport.de/recruiting-mindset-schluessel-zum-unternehmenserfolg/


Recruitment & Employer-Branding

Der „War for Talents“ hat bereits begonnen und wird durch den Megatrend „demografischer Wandel“ auch bestehen bleiben. Unternehmen, die in Zukunft die fähigsten Fachkräfte zu den günstigsten Konditionen in kürzester Zeit für sich gewinnen können, werden sich so einen entscheidenden Wettbewerbsvorteil sichern können, der nur schwer wieder einzuholen sein wird. Recruiter werden hier in der Lage sein müssen, mittels analytischer Verfahren dynamisch wechselnde Bedarfssituationen vorausschauend zu erkennen und mit neuen innovativen Recruitingverfahren Bewerber für das Unternehmen zu gewinnen.

Beispielsweise bietet es sich bei einer großen Zahl eingehender Bewerbungen an, Chatbots und schlaue Algorithmen für die Vorauswahl einzusetzen. Big Data und Predictive Analytics ermöglichen objektiv fundierte Entscheidungen, wenn sie zur Aggregation und Darstellung sämtlicher Bewerberdaten eingesetzt werden. Damit Kandidaten ihre Unterlagen mit minimalem Aufwand an die Wunscharbeitgeber senden können, sollten Unternehmen One-Click-Bewerbungsmöglichkeiten zur Verfügung stellen. Die Liste ließe sich noch deutlich erweitern und es ist die Aufgabe der HR-Verantwortlichen, die richtigen Technologien einzusetzen und dabei auf dem neusten Stand zu bleiben.

Trotz aller technischen Möglichkeiten sollte das Unternehmen jedoch weiterhin den direkten Kontakt mit den Kandidaten pflegen und persönliche Personalentscheidungen fällen: Je rarer die begehrten Fachkräfte werden, desto mehr legen sie bei einer Stellenbewerbung darauf Wert, als VIP behandelt – wenn nicht gar hofiert – zu werden. Active Sourcing, also die proaktive Recherche und Ansprache potenzieller Mitarbeiter im Rahmen von Social Media, Karriere-Netzwerken, Messen und unternehmenseigenen Talent-Pools, geht in die gleiche Schlagrichtung.

Ziel ist der Aufbau einer langfristigen Beziehung zu interessanten Kandidaten, um sie bei Bedarf für neu entstehende Vakanzen zu gewinnen. Auch eigene Mitarbeiter können dabei als Markenbotschafter wirken. Dieses Influencer-Recruiting wirkt meist effektiver als sämtliche Argumente im Bewerbungsgespräch.(1)

Learning & Development

Mithilfe von neuen Lerntechniken, Wissensdatenbanken und Anreizen zum spielerischen Lernen wird es wichtig sein, Mitarbeiter zu motivieren, neue Aufgaben im Unternehmen wahrzunehmen und somit auch einen Wettbewerbsbeitrag zu leisten. Die Methoden der Wissensvermittlung in der beruflichen Aus- und Weiterbildung ändern sich. Lernziele werden zukünftig als Matrix organisiert, d. h. in „Fast Verticals“, also Fachschulungen mit einer Dauer von drei bis vier Tagen, und „Continuous Horizontals“, längerfristig angelegten Lerneinheiten, die kompetenzbasiertes Lernen ermöglichen.

Performancemanagement

Heutige Personalfunktionen generieren eine große Menge an Daten, welche zukünftig analytisch durch Big-Data-Verfahren ausgewertet werden müssen, um strategische Schlussfolgerungen und Problemlösungen anbieten zu können

Digitale Trends im Personalwesen

  1. Social Media
    Der Begriff Social Media beschreibt allgemein die Möglichkeit, im Internet Meinungen, Erfahrungen und Informationen auszutauschen. Für Unternehmen im Speziellen stellt das einen weiteren Kanal im E-Recruitment dar, über welchen diese sich selbst repräsentieren, vakante Stellen ausschreiben und aktiv potenzielle Mitarbeiter suchen können.
  2. Cloud-Dienstleistungen – „Software as a Service“ (SaaS)
    Cloud-Angebote wie „Software as a Service“ (SaaS) sind als wichtiger Trend bei den Unternehmen angekommen. Bei der Wahl des Standortes des Cloud-Anbieters spielt der Datenschutz eine prägende Rolle.
  3. Big Data
    Durch den Einsatz von Big Data ist es möglich, die Zuordnung eines Beschäftigten zu einer Stelle optimal zu gestalten. Die Auswertung der Daten von Beschäftigten wie z. B. Weiterbildung, Interessen, Fähigkeiten mit internen und externen Daten können eine Unter- und Überforderung vermeiden. Das Vereinen der Unternehmensziele bzw. des Anforderungsprofils mit den persönlichen Zielen der Beschäftigten stellt für die Personalabteilung eine Herausforderung dar. Diese Hürde kann mithilfe von Big Data überwunden werden.
  4. Unternehmenswebseite
    Die Unternehmenswebseite zählt heutzutage zum Standard eines jeden mittelständischen Unternehmens. Wurde früher noch durch das Web 1.0 die Unternehmensseite als einseitiger Informationskanal nach außen verwendet, so kann man heute die Homepage nutzen, um sich nicht nur zu präsentieren, sondern auch den Rückkanal verwenden, um z. B. neue Mitarbeiter für sich zu gewinnen.
  5. Online-Jobbörsen
    Online-Jobbörsen stellen neben der Unternehmenswebseite einen weiteren wichtigen Kanal zur Findung neuer Mitarbeiter im E-Recruitment dar. Im Jahre 1995 ging die erste Online-Jobbörse in Deutschland an den Markt. Mittlerweile gibt es in Deutschland über 1 000 Jobportale mit mehreren Millionen vakanten Stellen.
  6. Mobile Recruiting
    Ein ebenfalls immer wichtiger werdender Punkt in der Personalbeschaffung ist das Thema Mobile Recruiting. Unter dem Begriff versteht sich das Erreichen potenzieller Bewerber über mobile Endgeräte wie z. B. Smartphones oder Tablets.
  7. Talent-Relationship-Management
    Der übliche Ablauf zum Besetzen vakanter Stellen ist, dass die Personalabteilung, sobald eine Stelle zu besetzen ist, eine Anzeige schaltet und auf den Eingang von Bewerbungen wartet. Dieser Vorgang ist reaktiv und eher passiv. „Talent Relationship Management“, kurz TRM, beschreibt dagegen einen Bereich im Personalwesen, bei welchem gegenüber anderen Rekrutierungsmaßnahmen der Fokus auf dem Finden und Halten von potenziellen neuen Mitarbeitern liegt, bevor eine vakante Stelle verfügbar ist.
  8. Digitale Bewerberauswahl
    Telefoninterviews sind ein bereits verbreitetes Mittel zur Vorauswahl neuer Mitarbeiter für eine zu besetzende Stelle. Daneben sind ein Anstieg digitaler Einstellungsinterviews und der Einsatz von Online-Assessment-Centern zu verzeichnen. Bei einer großen Zahl eingehender Bewerbungen bietet es sich an, Chatbots und schlaue Algorithmen für die Vorauswahl einzusetzen.
  9. Employee-Self-Service
    Hinter dem Begriff Employee-Self-Service stehen administrative Tätigkeiten, auf die im späteren Verlauf genauer eingegangen wird. Employee-Self-Service ist ein Teil eines Mitarbeiterportals. Unter dem Begriff „Portal“ wird verstanden, dass es sich um einen IT-Marktplatz im Internet oder Intranet handelt. Ziele solcher Mitarbeiterportale sind, die breite Masse an Informationen zu bündeln und relevante Daten für Mitarbeiter bereitzustellen. Aber auch personenbezogene Daten werden dort hinterlegt, wie z. B. die Lohnabrechnungsdaten.
  10. Digitale Personalakte
    Unter einer digitalen Personalakte ist eine personifizierte digitale Datei zu verstehen, die die analoge Papier-Personalakte ersetzt. Dabei ist eine digitale Personalakte Teil eines Dokumenten-Management-Systems, so kann die Personalakte direkt in Arbeitsabläufe integriert werden. Sie bildet die Basis der vielen Automatisierungsprozesse innerhalb der Personalabteilung.
  11. Automatisierte Zeugnisgeneratoren
    Egal ob manuell oder halbautomatisch erstellt, das Arbeitszeugnis ist das „ungeliebte Kind“ eines jeden Personalers, denn es wird als zeitaufwendige und ressourcenintensive Last empfunden, der wir gem. § 630 BGB in Verbindung mit § 109 GewO (Gewerbeordnung) nachkommen müssen (Österreich §1163 ABGB, §39 AngG; Schweiz Art. 330a OR). Umso mehr, weil wir gerade beim Austrittszeugnis für das Unternehmen gar keinen Mehrwert mehr haben – der Mitarbeiter verlässt uns ohnehin. Schon deshalb lohnt es sich, den Prozess so schlank und unaufwendig wie nur irgend möglich zu gestalten.(2) //

Quelle:
Hochschule für Oekonomie & Management, Düsseldorf, Studiengang Bachelor Wirtschaftsinformatik; Autoren: René Seiffert, Dario Lohr, Béla Varga, Christian Hoffmann; betreuender Professor: Prof. Dr. Uwe Kern; Typ: Fallstudienarbeit.
(1) Vgl. TREND REPORT 1/19 S.16: https://trendreport.de/digital-lesen/2019-01/#p=16
(2) Vgl.: Dr. Grentzer, Martin, Personalarbeit neu denken: Arbeitszeugnis in 15 Sekunden, in: Handbuch HR-Management, New Work & Arbeiten 4.0, hrsg. von ayway media GmbH, Bonn 2017, S.155-159. https://handbuch-hr.de/digital-lesen/#p=155

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Abteilung Vertrieb

Prozessoptimierung und Absatzsteigerung im Fokus

Datenpflege und Produktinformationsmanagement (PIM)

Jedem Unternehmer sollte bewusst sein, von welch zentraler Bedeutung eine sauber strukturierte Datenpflege und -ablage ist und wie sehr die Online-Promotion mittlerweile in die Vertriebskanäle der Unternehmen Einzug gehalten hat.

Der Einsatz eines Produktinformationsmanagements (PIM) ist dabei von entscheidender Bedeutung. Es rüstet das Unternehmen für den Online-Auftritt und bietet den Käufern ausreichend Informationen über das Produkt, da der Produktkatalog im Online-Shop stets auf die aktuellen zentral vorgehaltenen Daten zurückgreifen kann. Gleichzeitig optimiert es auch eigene Geschäftsprozesse: Alle relevanten Informationen zu einem Produkt sind zentral abrufbar, wodurch auch bei der Entwicklung neuer Produkte leichter auf bereits vorhandene Komponenten o. Ä. zurückgegriffen werden kann. Der gesamte Aufbau hat also weit mehr Nutzen als den reinen Vorteil im Internethandel.

B2C-Vertrieb

Durch die systematische Informationsbeschaffung und -analyse von Kunden, Produkten (Stichwort: IoT), Märkten und Konkurrenten wird ein komparativer Wettbewerbsvorteil generiert. Ein gutes PIM schafft so auch für den Vertrieb einen entscheidenden Informationsvorsprung und ermöglicht eine differenzierte Betreuung von Kunden. Durch einen wirkungsvollen Einsatz entstehen Absatzsteigerungen, bedingt durch eine Reduktion von Streuverlusten und eine verbesserte Erreichbarkeit bereits akquirierter Kunden.

Der Einsatz weiterer digitaler Technologien ermöglicht darüber hinaus eine Reduktion der Prozesskomplexität. Anhand technologisch stringenter Prozessabläufe können Beschleunigungen und Vereinfachungen der Vertriebsaktivitäten erreicht und Arbeitsentlastungen realisiert werden. Smarte Geräte etwa sind schon in der Lage, den Verkäufer komplett zu ersetzen, und ordern online völlig automatisiert zur Neige gehende Ressourcen wie Druckerpatronen, Wasserfilter und Ähnliches.

So schöpft der Einsatz digitaler Technologien Kostensenkungspotenziale aus und es entstehen Möglichkeiten der Prozessauslagerung oder -verkürzung. Zusätzlich kann der Aufbau lokaler Vertriebsstrukturen durch Online-Shops umgangen werden, wodurch auch kleine oder mittelständische Unternehmen in der Lage sind, sich in internationalen Märkten zu positionieren, und Markteintrittsbarrieren werden eliminiert.

B2B-Vertrieb

Digitalisierung bedeutet aber auch den Vertriebsaußendienst mit neuen mobilen Lösungen auszustatten. Ziel ist es, beim Kunden vor Ort die wichtigsten Kundendaten parat zu haben, um auf Kundenfragen reagieren zu können. Tablets und Beratungs-Apps sowie die Möglichkeiten von VR und AR bieten bislang nicht gekannte Möglichkeiten, komplexe Themen und Pro­duk­te einfach, fast spielerisch dem Kunden zu vermitteln. Auf diese Weise können viele Dienstleister ihre Servicequalität in der Kun­denberatung weiter verbessern und damit ihre Marktposition gegenüber dem Wettbewerb stärken.

Im Vertrieb wird mehr denn je ein Netzwerkgedanke Einzug halten. Apps und Smartphone helfen beim Organisieren.

In der Praxis hat es sich bewährt, den in der jeweiligen Produktkategorie erfolgreichsten Ver­triebs­mitarbeiter in die App-Entwick­lung einzubinden. Dies gewährleistet, dass die wichtigsten fach­lichen Informationen und relevanten Verkaufsargumente integriert und sinnvoll miteinander verknüpft werden.

Damit die Produktinformationen auch nach­vollziehbar sowie anschaulich für den Vertrieb aufbereitet werden, empfiehlt sich die Erstel­lung eines App-Storyboards. Dieses visualisiert die Erfolgs­story des ausgewählten Vertriebsmit­arbeiters, d. h. die Vorgehensweise, die sich in der Beratung seiner Kunden bewährt hat. Seine einzelnen Vor­ge­hens­schrit­te wer­den in gezeichneten Screen-Bildern festgehalten und diese dann zur App-Story miteinander verbunden. Darüber hinaus werden im App-Storyboard mit einem Usa­bility-Experten die Interaktionen und Animationen festgehalten, die ein­gebunden werden sollen, und pro Screen-Bild vermerkt. Für das Unternehmen ist damit der erste Schritt hin zu einem mobilen Vertrieb erfolgreich vollzogen.


Tablets und Beratungs-Apps sowie die Möglichketen von VR und AR bieten bislang nicht gekannte Möglichkeiten, komplexe Themen und Pro­duk­te einfach, fast spielerisch dem Kunden zu vermitteln.


Unterstützung aus dem Marketing

Weiterhin erlauben digitale Technologien durch strategische Kommunikation eine Schaffung von Bekanntheit und Optimierung des Images. Dabei sollte die Vielfalt der Kanäle – Social Media, Messenger, Smart Speaker etc. – berücksichtigt werden. Eine hohe Kontaktfrequenz vieler digitaler Medien generiert eine Wahrnehmung der kommunikationspolitischen Maßnahmen durch die potenziellen Kunden in kurzer Zeit. Letztlich sollte das Marketing den Vertrieb soweit unterstützen, dass sich für diesen eine Effektivitätssteigerung eröffnet.

Digitalisierung und Marketing

Der Handel diskutiert bereits intensiv über das Thema der Personalisierung und Indivi­dualisierung.

von Prof. Dr. Thomas Asche

Die Dynamik im Marketing ist ungebrochen. Budgets werden immer schneller zwischen Print und Online, Personen und Maschinen, Inhouse und Dienstleistern hin- und hergeschoben. Die digitale Transformation ist Gegenstand zahlloser Kongresse und Veröffentlichungen. Im Handel führt diese Entwicklung dazu, dass sich Unternehmen nicht mehr nur dem stärker operativ geprägten Geschäft widmen dürfen. Handel ist Wandel bedeutet daher auch, sich besonders mit strategisch relevanten Umbrüchen auseinanderzusetzen.

Es gilt also, für die Zukunftssicherheit des Unternehmens sowohl operativ als auch strategisch zu agieren, wobei sich Weiterentwicklungen nicht nur auf das Online-Geschäft konzentrieren sollten. Bei der Frage, wie das Marketing der Zukunft für den Handel aussehen könnte, ist zunächst zu fragen, wie „Zukunft“ abgegrenzt werden soll. Wenn die nahe Zukunft eher eine operative Sichtweise umfasst, dann wäre die darüber hinausgehende Sichtweise eher strategisch. Insofern lässt sich eine gedankliche Matrix aufspannen, deren Felder die Herausforderungen für den Handel strukturieren.

Auch Preise werden mehr und mehr personalisiert. Willingness-to-pay-Ansätze sind hier weitere Treiber.

Online-Entwicklungen

Der Handel diskutiert bereits intensiv über das Thema der Personalisierung und Individualisierung. In E-Mails und Newslettern erfolgt i. d. R. eine formelle namentliche Ansprache der Adressaten. Wo noch nicht umgesetzt, wird dies unter Reaktionsaspekten notwendig werden. Zur Individualisierung der Online-Kommunikation gehört auch die Gestaltung zielgruppenspezifischer Inhalte in Newslettern und Homepages. Fortschritte in der Informations- und Produktionstechnologie ermöglichen weiterhin die zunehmende Individualisierung von Produkten (vgl. Gondorf, S. 37). Für den Handel zieht dies eine steigende Sortimentsvielfalt mit der Konsequenz einer höheren Artikelanzahl, mehr Regalfläche und ggf. einen geringeren Warenumschlag nach sich. Die induzierte Heterogenität der Sortimente führt zu einer geringeren Vergleichbarkeit der Preise. Auch bzgl. der Preise wird eine größere Individualisierung festgestellt. Preisverhandlungen aus dem stationären Handel oder Online-Auktionen werden noch stärker in das E-Commerce-Geschäft adaptiert. Willingness-to-pay-Ansätze sind hier weitere Treiber.

Einen weitereren Ansatz bei den Online-Entwicklungen stellen Augmented und Mixed Reality dar. Während bei der Augmented Reality erkennbar zusätzliche Informationen zur Umwelt auf das Mobile Device eingeblendet werden, erweitert die Mixed Reality die Umwelt des Nutzers unbewusst um weitere Elemente (vgl. Schart/Tschanz, S. 21). Neben dem Gaming ergeben sich für den B2B-Bereich und die Kaufberatung im Handel vielfältige Anwendungen. Inwieweit sich diese Technologien auch angesichts einer schon jetzt vorhandenen Informationsübersättigung beim Kunden durchsetzen, bleibt abzuwarten. Andere Nationen sind hier technikaffiner. Auf die Frage in einer GfK-Studie in 2016, ob virtuelle Interaktionen mit Menschen und Orten genau so gut sein können wie reale, wurden folgende Unterschiede festgestellt:
Database-Marketing wird weiter an Bedeutung gewinnen, schon allein, um die User nicht mit undifferenzierten Newslettern zu verärgern. Im Rahmen der Big-Data-Diskussion wird es darauf ankommen, die durch die Customer-Journey produzierte Datenflut sinnvoll auswerten zu können (vgl. Frick, 2016). Das klassische Database-Marketing könnte darunter leiden, weil Selektionen mehr und mehr über die getrackten Nutzungseigenschaften der User laufen werden und sich die User damit quasi selbst segmentieren.

Die Akzeptanz von Virtual Reality ist in Deutschland besonders klein bzw. die Ablehnung von Virtual Reality besonders groß. Hierzulande überwiegen also die Skeptiker.

Offline-Entwicklungen

Kunden erwarten auch offline eine immer schnellere Reaktion von Unternehmen. Hier geht es nicht nur um die tagesaktuelle Kommunikation, z. B. bei Anfragen oder Beschwerden. Eine 48-stündige Belieferung wird vorausgesetzt. Das Angebot einer Same-Day-Delivery wird von vielen Bestellern nicht nur im LEH präferiert. Instant Delivery innerhalb von zwei Stunden wird von Unternehmen bereits getestet. Das von Tankstellen schon seit langem praktizierte Dynamic Pricing wird sich auch im stationären Handel durchsetzen (v. Elm, S. 70 f.).

Durch die Verlagerung der Einzelhandelsumsätze in das Internet werden insbesondere 1b- und 1c-Lagen schrumpfen. Diese Lücken werden zukünftig Pop-up-Stores wesentlich öfter füllen. Pop-up-Stores schaffen Abwechslung und damit Attraktivität in innerstädtischen Lagen. Sie sind ein geeignetes Mittel für Sonderaktionen etablierter Händler oder Warenabschleusungen, ohne das eigentliche Ambiente der Hauptverkaufsfläche zu zerstören. Pop-up-Stores werden weiterhin vom Online-Handel eingesetzt, um physische Präsenz zu zeigen und damit die anonyme Distanz zum Kunden zu überwinden.

Der Handel muss sich kurzfristig zudem mit einer weiteren Vertikalisierung auseinandersetzen. Hersteller sind der neue Handel. Die Macht im Absatzkanal verschiebt sich. Deutlich wird dies an der Zunahme der Shop-in-Shop-Konzepte und Monolabel-Läden. Bislang beschränkt sich die Entwicklung auf Gebrauchsgüter (z. B. Haushaltswaren, Textil, Möbel). Es ist zu erwarten, dass insbesondere Hersteller höherwertiger FMGCs in dieser Richtung aktiv werden.

Online-Trends

Im Rahmen längerfristiger Online-Trends schreitet die Entmenschlichung der Kommunikation fort. Avatare begleiten den Kaufprozess, Chat-Robots beantworten Fragen zu Produkten. Das Internet of Things, bei dem Maschinen mit Maschinen kommunizieren, wird auch den B2C-Bereich erfassen – schon heute erlebbar, wenn der Kühlschrank beim Händler Nachschub ordert. Die Entwicklung zu diesem posthumanen Zeitalter wird notwendig durch die demografische Entwicklung, die aufgrund der Knappheit an menschlichen Ressourcen stärker auf smarte Systeme angewiesen sein wird.

Ein weiterer Trend, den die digitale Transformation unterstützt, ist der Trend zur Shared Economy. Der Wertewandel weg vom Eigentum zum Besitz wird durch eine Vielzahl von Geschäftsmodellen unterstützt, die heute ausprobieren, was morgen alltäglich sein wird. So werden Jeans (www.mudjeans.eu), Kinderbekleidung (www.tchibo-share.de) oder Möbel (www.in-lease.com) usw. verliehen. Das größte Wachstum wird nicht bei den Dienstleistern (z. B. Airbnb, Car2go, Uber) gesehen, sondern beim Handel und Konsumgütern. Da insbesondere Jüngere und damit die Wachstums­treiber diesem Trend offen gegenüberstehen, wird die Branche diese Geschäftsmodelle selbst stärker adaptieren müssen (vgl. PwC, 2016). Ausgenommen bleiben Verbrauchsgüter, individualisierte Produkte und Hygieneprodukte.

Die Globalisierung ist ein weiterer langanhaltender Trend. Nicht nur Unternehmen agieren als Global Player. Der Kunde nutzt ebenso das Netz für ein weltweites Sourcing. Die aktuelle Rechtsprechung fördert diese Machtverschiebung mit dem Verbot des Geoblocking. Vereinheitlichte weltweite Zahlungssysteme tun ein Übriges (Lambertz, Pinhammer, S. 26). Zusätzlich bedrängen internationale Unternehmen den europäischen Handel. Amazon, Alibaba und Rakuten haben weite Teile erobert. Ein letzter weißer Fleck ist Afrika, der auf der Suche nach Umsätzen in den Fokus rückt.

Die Absatzkanäle erleben deutliche Marktanteilsverschiebungen. (1)

Offline-Trends

Angesichts der Verschiebung der Marktanteile vom stationären Handel zum E-Commerce stellt sich die Frage nach dessen Profilierung. Ein Überleben kann nur durch eine Kooperation (z. B. intelligente Umkleidekabine, Serviceannahme) oder Omnichanneling gelingen. Der stationäre Handel ist gezwungen, noch viel stärker seine Vorteile (Unmittelbarkeit, Anonymität, Beratung, Haptik) zu kommunizieren. Dabei sollte er nicht den Fehler machen, daraus ein Preispremium abzuleiten. Die notwendigen zusätzlichen DBs kommen aus dem Mengen- und nicht dem Wertwachstum.

Das Handelsmarketing hat sich kurz- und langfristig einer Vielzahl von Herausforderungen zu stellen. Die Unsicherheit darüber, welche Ansätze Erfolg versprechend sind, ist groß.

Die Konsumerismusbewegung gewinnt aufgrund aufgeklärter Verbraucher weiter an Fahrt. Vor dem Hintergrund eines investigativen Journalismus und kritischer Verbrauchersendungen müssen Werbeaussagen auf ihre Glaubwürdigkeit überprüft werden. Das momentan stark diskutierte Influencer-Marketing wird zurückgedrängt. Testurteile und Siegel werden für die Kaufentscheidung dominanter.

Ein dritter Trend betrifft die Nachhaltigkeit. Dessen Ausgangspunkt war die Bio-Welle. Er setzt sich aktuell in der Precycling-Debatte bei (Plastik-)Verpackungen fort. Der Trend wird zukünftig ergänzt durch die stärkere Beachtung des Produktionsstandorts und der damit verbundenen Transportwege sowie die Forderung nach einer Wiederverwendbarkeit bzw. einem Zweitnutzen des Produkts (vgl. Kriener, Grimm, Berg, S. 25 ff.). Der Bezug zur Shared Economy ist offensichtlich.

Das Handelsmarketing hat sich kurz- und langfristig einer Vielzahl von Herausforderungen zu stellen. Die Unsicherheit darüber, welche Ansätze Erfolg versprechend sind, ist groß. Es bleibt wohl nur der Trial-and-Error-Ansatz, also vieles auszuprobieren, dabei zu lernen und sich schnell von nicht marktfähigen Ideen zu trennen. Die verbleibenden Ideen sichern den Fortbestand. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Der Beitrag Digitalisierung und Marketing erschien 2018 im Handbuch Handel

Abteilung Marketing

Mit digitalem Marketing den Kunden individualisiert ansprechen

Um heutzutage eine erfolgreiche Marketing-Strategie zu erstellen, sollten Werbetreibende vor allem die Synergien innerhalb der verschiedenen Kanäle, aber auch die Wechselwirkung zwischen den klassischen und digitalen Kanälen berücksichtigen. Verantwortliche müssen verstehen, welche Kontaktpunkte zur Marke bestehen und welcher Einfluss damit verbunden ist.

Um zur richtigen Zeit die richtige Botschaft auszuspielen, ist ein Multichannel-Ansatz daher Grundvoraussetzung und vielfach schon gelebte Realität. Daten aus allen Kanälen laufen in einem zentralen System zusammen und ermöglichen einen ganzheitlichen Blick auf alle Maßnahmen.

Der schnellste und effektivste Kanal – die menschliche Sprache – wird dabei im Zeitalter der digitalen Assistenten und Smart Speaker immer wichtiger und eine Präsenz in Alexa und Co. zum festen Bestandteil des Markenerlebnisses. Analog zu anderen Kommunikationskanälen benötigen Unternehmen deshalb eine eigene Voice- und Audiostrategie. Sie müssen eine Audio-Identity und eigenen Audio-Content entwickeln und mit ihren Marken, Produkten und Angeboten ihren Zielgruppen auf die neuen Geräte folgen. Die künstliche Intelligenz ist dabei mittlerweile so weit, dass sie nicht nur Sprache verstehen kann, sondern aus den gesprochenen Worten Emotionen herausliest. Ein unschätzbarer Datenschatz, der auch im Callcenter entsteht und aus dem das Marketing wertvolle Rückschlüsse gewinnen kann.

Smart Speaker gehören zu den großen Trends im digitalen
Marketing und interagieren durch immer natürlichere
Sprache mit ihren Benutzern.

In Verbindung mit weiteren Daten, die bei jedem Online-Werbekontakt oder dem Besuch einer Website entstehen, lässt sich das Bild über die Interessen, Abneigungen und Absichten des Users weiter präzisieren, wobei die Datengrundlage in Umfang und Qualität mit der fortschreitenden Digitalisierung zunimmt.

Wir befinden uns im Zeitalter des Kunden. Dies bedeutet: in Echtzeit zu wissen, was der Kunde will, individuelle Kundenwünsche zu erfüllen und das jederzeit über alle Kanäle hinweg. Dazu müssen nicht nur Prozesse und Reaktionszeiten beschleunigt werden, das gesamte Unternehmen muss sich digital transformieren. Vorhandene Daten sind in Wissen über die Kunden zu verwandeln und die Chancen hierfür über alle Kanäle hinweg zu nutzen. Potenzielle Kunden sind mit genau den passenden Werbebotschaften zu genau dem richtigen Zeitpunkt über genau den richtigen Kanal zu kontaktieren.

Unternehmen haben mit Big-Data-Analysen die Möglichkeit, auf Kundenwünsche schnell und individuell zu reagieren, können aber oftmals die Vielzahl an Daten nicht miteinander richtig verknüpfen und auswerten. Hier gilt es die richtigen Weichen für den Erfolg zu stellen. Das Produktinformationsmanagement übernimmt dabei in der Praxis eine entscheidende Rolle. Informationen liegen in einem Unternehmen häufig nicht zentral gebündelt vor, sondern verstreut bei Mitarbeitern und in Abteilungen – etwa in der Entwicklungsabteilung, im Warenwirtschaftssystem oder im Vertrieb.

Dabei werden Daten in unterschiedlichen Formaten abgespeichert oder sind nur als Druckversion verfügbar. Diese Informationen werden in verschiedenen Umgebungen und Kontexten verwendet – etwa im Verkaufskatalog für eine detaillierte Produktbeschreibung mit Preisangabe oder in der Logistikabteilung für Angaben zu Größe und Gewicht zur Frachtkostenberechnung. PIM stellt hier einen Lösungsansatz zur zentralen, medienneutralen Datenhaltung dar, um einkaufs-, produktions- und kommunikationsrelevante Daten für die Mehrfachnutzung über mehrere IT-Systeme, Sprachen, Ausgabemedien und Publikationen hinweg bereitzustellen. Es bietet zudem Lösungen zur effizienten Datenübernahme, -verwaltung, -anreicherung und -ausgabe.(1)


Durch die Digitalisierung sind Unternehmen angebots- und preistransparent. Kunden haben dadurch eine stärkere Markt­position.


Für viele Unternehmen ist der Hauptgrund, digitale Kanäle nicht zu nutzen, der Datenschutz. Unternehmen müssen besonders vertrauensvoll mit den Daten der Kunden umgehen, sodass zwar Erkenntnisse abgeleitet werden, aber kein Datenmissbrauch betrieben wird. Die digitalen Kanäle sind günstiger als die klassischen Marketingmedien, aber Kunden fühlen sich teilweise überrollt von Werbung. Kunden entwickeln und nutzen daher auch Technologien, um sich gegen diese Art des Marketing (Customer Resistance) zu schützen. Verbraucher nutzen Pop-up-Blocker, um Werbung beim Surfen zu entgehen, oder filtern E-Mail-Newsletter über die Junk-Mail-Funktion.

Die Chancen, mit digitalen Kanälen seinen Bekanntheitsgrad zu steigern und in neue Märkte einzusteigen, sind dennoch groß, bergen aber auch Risiken. Durch die Digitalisierung sind Unternehmen angebots- und preistransparent. Kunden haben dadurch eine stärkere Marktposition. Der Einfluss der Digitalisierung auf den Bereich Marketing hat zusätzlich dazu geführt, dass Kunden durch verschiedene Technologie wie zum Beispiel Social Media ein Sprachrohr erhalten und so einen Einfluss auf Unternehmen erlangen. Auch hier gilt es, Strategien zu entwickeln, um unkontrollierten Kommuni­kationseffekten, sogenannten „Shitstorms“, entgegenzuwirken oder zumindest richtig mit ihnen umzugehen.

Quelle:
(1) Vgl.: Seite „Produktinformationsmanagement“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 27. März 2019, 08:49 UTC. URL: https://de.wikipedia.org/w/index.php?title=Produktinformationsmanagement&oldid=186977501 (Abgerufen: 9. April 2019, 13:08 UTC)

Abt. Produktion & Fertigung

Erst die Vielzahl an Daten erweckt das (I)IoT zum Leben.

von Andreas Fuhrich

Unter dem Begriff Industrie 4.0 subsumiert die Bundesregierung diverse technologische Trends wie Maschine-zu-Maschine-Kommunikation und das Internet der Dinge. Sie erwartet, dass die Organisation und Steuerung der gesamten Wertschöpfungskette über den kompletten Lebenszyklus hinweg sich durch den Einzug neuer Technologien verändern wird. Grundlage bildet dabei die Verfügbarkeit aller notwendigen Informationen in Echtzeit, durch die Vernetzung aller beteiligten Instanzen.(1) Die 5G-Technologie ist hierfür eine Grundvoraussetzung.

Der Trend geht dabei weg von standardisierten hin zu individuellen, auf den Kunden zugeschnittenen Produkten. Durch die Möglichkeiten des 3-D-Drucks und sogenannter Smart Factories kann der Endkunde jetzt selbst unmittelbar Einfluss auf die Fertigung des Produkts nehmen, etwa über eine einfach zu nutzende CAD-Software, welche ihm kostenlos zum Download bereitgestellt wird.

Cyber-physische Fertigungseinheiten kommunizieren über das Internet der Dinge in Echtzeit sowohl miteinander als auch mit der Fertigungsanlage. Auf diese Weise werden die miteinander vernetzten Produktionsbestandteile in die Lage versetzt, jederzeit auf Veränderungen zu reagieren, ohne dass die Produktionskette hierfür unterbrochen werden muss. Individuelle Kundenwünsche können so kosteneffizient umgesetzt werden.


www.plattform-i40.de
2013 haben Bitkom, vdma und zvei in einer Kooperationsvereinbarung beschlossen, in Form einer ideellen thematischen Zusammenarbeit über Verbandsgrenzen hinweg die Plattform Industrie 4.0 zu betreiben, denn in der Industrie 4.0 werden Informations- und Kommunikations-, Automatisierungs- und Produktionstechnologien stärker denn je miteinander verzahnt. Ziel ist es, den traditionellen Kern der deutschen Industrie mit seiner international herausragenden Position zu verteidigen und auszubauen. www.plattform-i40.de


Die Struktur der Vernetzung kann jedoch auch über einzelne Fertigungsanlagen hinaus erweitert werden, sodass ganze selbst organisierende, unternehmensübergreifende Wertschöpfungsnetzwerke entstehen. Diese Netzwerke lassen sich beispielsweise nach Kriterien wie Kosten, Verfügbarkeit oder Ressourcenverbrauch optimieren. Die Fähigkeit, die Datenmenge der cyber-physischen Systeme (Big Data) effektiv zu analysieren und daraus Optimierungsschritte abzuleiten, wird in diesem Zusammenhang immer wichtiger. Aufgabenbereiche von traditionellen Produktionsmitarbeitern und Wissensarbeitern, wie z. B. Datenanalysten, werden weiter zusammenwachsen.

Die Erfahrung der Produktionsmitarbeiter kann in Kombination mit Big Data dazu genutzt werden, Produkte weiterzuentwickeln oder neue Produkte zu fertigen. Zusätzlich können selbstlernende Systeme die in der Wertschöpfungskette entstehenden Daten laufend analysieren und darauf aufbauend die Prozesse optimieren. Unwirtschaftliche Fertigungsschritte werden durch die Analysemöglichkeiten besser erkannt und immer häufiger aufgelöst bzw. durch externe Zulieferer ersetzt. Der Komplexitätsgrad eines Unternehmens wird weiter steigen und die Vernetzung von Unternehmen nimmt zu. Auf Plattformen entstehen bereits branchenspezifische Eco-Systems mit sich ergänzenden Dienstleistungen unterschiedlicher Unternehmen. Die Fertigungstiefe innerhalb des Unternehmens nimmt ab, dafür steigt der Aufwand, die Zulieferer zu steuern und zu kontrollieren.

Entscheidend wird daher in Zukunft der Umgang mit kurzzyklischen Schwankungen der Märkte sein. Diese resultieren auch aus dem wichtigsten zukünftigen Erfolgsfaktor: Durch Vernetzung und Echtzeitanalyse sind Produktionsunternehmen in der Lage und gewissermaßen verpflichtet, schnell auf sich ändernde Kundenanforderungen zu reagieren.(2)

Die zunehmende Automatisierung von Produktion und Fertigung sowie das Internet der Dinge bieten auch in puncto Nachhaltigkeit ein enormes Potenzial. Maschinen laufen nur dann, wenn sie wirklich benötigt werden, intelligente Heiz- und Kühlsysteme regulieren die Temperatur bei höchster Ressourceneffizienz und mittels Bodensensoren kann jeder einzelne Fleck eines Feldes optimal gedüngt und bewässert werden, um nur einige Beispiele zu nennen.

Tipp: Durch die Ersparnis an Rohstoffen und Energiekosten können sich Ausgaben in solche Technologien schon nach kurzer Zeit amortisieren.

Abteilung Einkauf & Beschaffung

Die Automatisierung stellt neue Anforderungen an das Procurement.

Die ständig wachsenden Herausforderungen und die Digitalisierung auf den globalen Märkten führen dazu, dass die Beschaffung immer mehr an Bedeutung gewinnt. Die Beschaffungsoptimierung hat direkte Auswirkungen auf den Gewinn des Unternehmens. Im Vergleich zu traditionellen Beschaffungsstrukturen, die sich durch Ineffizienz kennzeichnen, ermöglicht die konsequente Integration von E-Procurement-Systemen eine Vielzahl von Vorteilen zur Prozessverbesserung und Kosteneinsparung. Das Ziel von E-Procurement ist, die strategische, aber auch die operative Beschaffung durch elektronische Hilfsmittel zu unterstützen. Das passiert in der Praxis durch den Einsatz verschiedener E-Procurement-Werkzeuge.

Das Katalogmanagement spielt dabei eine wichtige Rolle. Produktkataloge können der Auswahl und Beschaffung von Produkten auf Kundenseite, Lieferseite oder auf Marktplätzen dienen. Neue Technologien, rasante Digitalisierung und massiv geänderte Kundenerwartungen stellen die bisherige Einkaufsorganisation auf den Prüfstand. Die Entwicklungen im Zusammenhang mit der Digitalisierung sollten nicht losgelöst voneinander betrachtet werden. So spielt der CPO („Chief Procurement Officer“) im Einkauf und damit bei der Umsetzung von Industrie 4.0 in Zukunft eine zentrale Rolle. Er muss die Technologien und Innovationen mit dem CDO und der Geschäftsleitung ins Unternehmen bringen, damit es die vierte industrielle Revolution erfolgreich meistern kann. In diesem Kontext ist Einkauf 4.0 nicht nur ein Buzzword. Künstliche Intelligenz und kognitive Systeme werden in Zukunft das Lager mit der Produktion und dem Einkauf verbinden. Die digitale Konvergenz zieht sich durch: nicht nur durch den kompletten Lebenszyklus eines Produktes, sondern auch durch die komplette Produktwertschöpfungskette.

Die Digitalisierung ist damit auch der Treiber für das Next-Level-Procurement, bei dem neue Anforderungen wie Agilität, Kollaboration und Analytik gefragt sind. Zu deren Umsetzung ist die Prozesskompetenz und Marktexpertise des CPOs und des CDOs unverzichtbar.

Mit der vierten industriellen Revolution bietet sich dem Einkauf die Chance, eine neue strategische Rolle im Unternehmen einzunehmen und damit der zunehmenden Automatisierung zu entgehen. Je digitaler und vor allem autonomer und effizienter die Einkaufsprozesse werden, desto eher kann sich der Einkauf auf seine strategischen Aufgaben konzentrieren.


Die Digitalisierung des Einkaufs und dessen enge Vernetzung nach innen und außen bieten die Möglichkeit, dass innovative Erfolgsstrategien für das gesamte Unternehmen entwickelt werden.

Die Lagerhaltung der Zukunft wird ohne die momentan gebräuchlichen Scanner auskommen und mit innovativer Kamera- und Sensortechnik sowie deren Analyseverfahren Echtzeitinformationen zur Verfügung stellen. Mit Location-based Services lassen sich schon heute Inhouse-Warenströme in Echtzeit analysieren, um Ware sicher bis auf die Verkaufsflächen nachzuverfolgen.

Alles was sich auf einer Palette befindet, die sich durch das Lager bewegt, kann durch moderne Funk-Technologie in Realtime getrackt werden. Kameras und Sensoren identifizieren zum Beispiel (autonome) Transportfahrzeuge und ihre Bewegung. Es lässt sich so verfolgen, ob Fahrzeuge Lasten aufgenommen oder abgegeben haben. Stellplätze und Lagerflächen werden effizient überwacht, damit weitere Lagerhaltungsprozesse angestoßen werden können.

Daten im Kontext aller logistischen Vorgänge wie z. B. der Ein- oder Auslagerungen sind in Echtzeit abrufbar und werden automatisch mit dem ERP- oder Lagerverwaltungssystem abgeglichen. Die Anzahl der Mitarbeiter im Einkauf, sowohl im operativen als auch im strategischen Bereich, wird sich dadurch verringern. Der operative Einkäufer wird aussterben und der komplette operative und administrative Bereich wird digitalisiert sein.

Durch den Wandel brauchen die Einkäufer zukünftig viele neue Fähigkeiten:

  • Der Einkauf agiert als Koordinator, Multi-Talent, Controller, Vertragsmanager.
  • Der Einkauf wird zum Berater.
  • Der Einkäufer entwickelt sich immer mehr zum Produktentwickler.
  • Der Einkäufer wird zum Datenanalysten.
  • Der Einkäufer wird Manager der Rahmenbedingungen.
  • Der Einkäufer wird noch mehr zum Schnittstellenmanager.

Der Mensch wird weiterhin eine zentrale Rolle beim Einkaufen behalten, da der persönliche Kontakt und die „Chemie“ wichtig für Verhandlungen und Lieferantenbeziehungen bleiben. Es sind also seine Fähigkeiten als Netzwerker, die im Vergleich zur Maschine noch einen Mehrwert für Unternehmen bieten. Dadurch, dass es im strategischen Einkauf weniger Einkäufer geben wird, diese aber komplexere Aufgaben bewältigen müssen, erfordert dies ein höheres Qualifikationsniveau.

Die Digitalisierung des Einkaufs und dessen enge Vernetzung nach innen und außen bieten die Möglichkeit, dass innovative Erfolgsstrategien für das gesamte Unternehmen entwickelt werden. In Zukunft bedeutet Einkauf Mehrwert, der durch Digitalisierung und Automation der Supply Chain erzeugt wird. Deswegen geht der Einkauf 4.0 über das E-Procurement und E-Sourcing hinaus. Zulieferer und Einkauf werden in Zukunft auch enger aneinander angebunden sein, damit im Idealfall die Warenbestände automatisiert sind und in Echtzeit diese abgefragt und angefordert werden können.

Durch Verträge abgesicherte Allianzen und Partnerschaften werden nötig sein, um kundenspezifische Lösungen zu realisieren, denn herkömmliche Produkte werden intelligent und somit zu einer Kernkomponente der Industrie 4.0. Dies macht die Prozesskompetenz und Marktexpertise des Einkaufs unverzichtbar, um das Internet der Dinge und Dienste umzusetzen. Ziel soll sein, eine voll integrierte Steuerung der Lieferkette über mehrere Unternehmen hinweg zu haben und je nach Marktentwicklung die besten Gewinnaussichten oder niedrigsten Kosten zu haben.

Einkauf und die Logistik stehen im Zentrum der Digitalisierung der Wirtschaft, denn ohne Einkauf und organisierte Supply Chain kann das Internet der Dinge nicht stattfinden. Durch gutes Knowledge-Management und die Nutzung von E-Tools kann aber das Hoheitswissen, über welches ein strategischer Einkäufer verfügt, einfacher übertragen werden.

Unternehmen werden sich daher in Zukunft die Frage stellen, wo der Einkauf stattfinden wird, da die Einkaufsabteilung, wie andere Serviceprozesse auch (Human Resource, Buchhaltung, Logistik), in Shared-Service-Centern gebündelt und gegebenenfalls komplett outgesourct werden kann. Der Einkauf muss durch permanente Innovation und neue Wertbeiträge einen dauerhaften positiven ROSMA („Return on Supply Management Assets“) generieren. //


Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Bild von athree23 auf Pixabay

Plattformen im Field-Service

Digitalisierung des Remote Supports im industriellen Service

von Alina Kaspers und Martin Riedel

Hersteller von komplexen Maschinen und Anlagen sind gefordert, einen reibungslosen und meist weltweiten Service anzubieten. Damit die Funktion der Maschinen und Anlagen gewährleistet ist, ist es unabdingbar, geplant, aber auch reaktiv bei technischen Problemen vor Ort Wartungen durchzuführen.

Ist der Servicemitarbeiter vor Ort nicht in der Lage, die Maschine oder Anlage zu reparieren, ist der Austausch mit Experten in der Zentrale unbedingt notwendig. Denn für die Lösung des technischen Problems müssen relevante Informationen unmittelbar an den Einsatzort gebracht werden. Kann ein technisches Problem nicht unmittelbar gelöst werden, drohen, aufgrund von zusätzlichen Reisen und einer aufwendigen Kommunikation, hohe Kosten. Gleichzeitig sinkt die Verfügbarkeit der Maschine und Anlage, die sich signifikant negativ auf die Produktivität auswirkt und die Kundenzufriedenheit belastet. Ein effektiver und kosteneffizienter Service ist daher im globalen und wettbewerbsintensiven Marktumfeld von heute eine „Muss-Bedingung“ und ein enormer Wettbewerbsvorteil gegenüber der nationalen wie internationalen Konkurrenz.

Remote Support ist Kernprozess im industriellen Service, bisher aber analog

Der Remote Support bzw. die Unterstützung der Servicemitarbeiter vor Ort stellt für den Anlagen- und Maschinenbau einen besonders kritischen Prozess dar. Aufgrund der immer steigenden Komplexität der Maschinen und Anlagen ist ein Servicemitarbeiter oftmals nicht eigenständig in der Lage, das Problem vor Ort zu lösen. Dezidiertes Expertenwissen ist gefordert. Daher muss sich der Servicemitarbeiter in den meisten Fällen für die Problemlösung an einen Experten wenden, der oftmals weit entfernt vom Einsatzort sitzt. Die herkömmliche Kommunikation via E-Mail, Telefon und privates Messaging ist jedoch ineffizient, ermöglicht keinen unmittelbaren Austausch von Bildern und Dokumenten und keine direkte Sicht auf das Problem. Eine strukturierte Dokumentation der Fälle bleibt komplett aus, sodass das erarbeitete Expertenwissen verloren geht. Der Austausch über den herkömmlichen Weg führt daher oft zu Ernüchterung und keinem Ergebnis. Die Folge ist, dass Fälle nicht auf Anhieb gelöst werden können und kein Weg daran vorbeiführt, zusätzliche Mitarbeiter anreisen zu lassen, um das Problem zu lösen. Für den Service entstehen dadurch hohe Reisekosten und ein zeitintensiver Prozess, der mit einem hohen personellen Aufwand verbunden ist. Der Stillstand der Maschine oder Anlage sorgt währenddessen für einen Produktionsausfall, der mit zusätzlichen Kosten verbunden ist und für eine hohe Unzufriedenheit bei den Kunden sorgt.

Unterstützung eines Servicemitarbeiters aus der Zentrale über Augmented-Reality-Smartglasses

Digitalisierung des Remote-Support-Prozesses im industriellen Service

Als Anbieter von innovativen Softwarelösungen für den industriellen Service digitalisiert rise den kompletten Remote-Support-Prozess. Auf nur einer Softwareplattform können Nachrichten, Bilder, Videos und Dokumente in chronologischer Abfolge ausgetauscht werden, um Servicemitarbeitern alle relevanten Informationen zur Verfügung zu stellen und den Experten in der Zentrale das technische Problem zu veranschaulichen. Über eine Live-Zusammenarbeit mit zusätzlichen Augmented-Reality-Werkzeugen sind interaktive Videokonferenzen möglich. Anstatt ein Problem missverständlich über das Telefon zu erklären, erhält ein Experte dadurch den wertvollen Blick auf das Geschehen vor Ort und kann den Servicemitarbeiter wirksam instruieren. Das ausgetauschte Expertenwissen kann unmittelbar in rise dokumentiert und strukturiert abgelegt werden, um eine Wissensdatenbank aufzubauen. Diese ermöglicht dem Servicemitarbeiter, bei zukünftig ähnlichen Fällen im Archiv eine Problemlösung zu finden. Dies spart Bearbeitungszeit und minimiert die Anfragen an die Serviceexperten.

Als innovative Softwareplattform kann rise auf allen Endgeräten eingesetzt werden, von Desktop-PCs mit eigenem Programm über Tablets, Smartphones sowie auf Augmented-Reality-Smartglasses. Mithilfe der Smart­glasses (Datenbrillen) ist ein vollständiges Arbeiten mit freien Händen möglich. Dadurch ist für höchste Produktivität und effektivste Unterstützung gesorgt. Anhand einer eingebauten Kamera wird das exakte Sichtfeld des Servicemitarbeiters an den Experten in der Zentrale übertragen. Über Annotationen im Livebild, Bildbearbeitung oder das Teilen von dritten Bildschirminhalten, z. B. von Schaltplänen, kann der Experte intuitiv unterstützen, als ob er vor Ort wäre.

rise lässt sich einfach in bestehende Softwaresysteme integrieren

Remote Support ist ein wesentlicher Prozess­schritt im industriellen Service, der bisher kaum über dezidierte Softwarelösungen abgebildet wurde. Mit zunehmendem Digitalisierungsgrad werden jedoch diverse Prozesse integriert und ineinandergreifende Systeme eingesetzt. Ausgangspunkt für die digitale Servicedienstleistung ist meist ein Ticket- oder CRM-System, in dem maschinen- bzw. kundenbezogen alle relevanten Informationen hinterlegt werden. Geht ein Fall ein, so kann im Ticketsystem direkt ein neuer Fall erstellt werden, in dem die Stammdaten hinterlegt sind. Der Fall wird daraufhin in rise bearbeitet und dokumentiert. Die fertige Dokumentation wird anschließend automatisch an das Ticketsystem weitergeleitet, um alle Aktivitäten zentral zu hinterlegen. Durch die Vielzahl an Daten kann wiederum die Servicedienstleistung verbessert werden, z. B. durch die Wissensdatenbank, Analysen zur Optimierung der Serviceorganisation oder die Etablierung neuer Geschäftsmodelle.

Der Digitale Customer Support

Mithilfe von rise lassen sich nicht nur interne Kosten sparen, sondern auch neue Geschäftsmodelle anbieten. Durch den digitalen Support durch Experten kann der Kunde deutlich einfacher und kosteneffizienter unterstützt werden, wodurch sich neue und margenstarke Einnahmequellen im Service auftun. Gleichzeitig erhält der Kunde einen effektiveren Support bei minimaler Reaktionszeit, um die Verfügbarkeit seiner Maschinen und Anlagen zu erhöhen. Neben zusätzlichen Serviceumsätzen ermöglicht solch ein Modell auch, die Auslastung der internen Servicemitarbeiter zu reduzieren, Mitarbeiter die in Zeiten des Fachkräftemangels ohnehin knapp sind.

„Evolutionsstufen“ des Remote Supports

Der digitale Experte

Die Digitalisierung des industriellen Service schreitet mit großen Schritten voran, auch wenn der bisherige Fokus eher auf CRM und Ticketsystemen lag. Mit der Verfügbarkeit von mobilem Internet, leistungsstarken Smartphones, Smartglasses und der notwendigen Softwaretechnologie lassen sich immer weitere kritische Serviceprozesse – insbesondere der Remote Support – digitalisieren. Die Unterstützung per Augmented-Reality-Smartglasses ist jedoch nur eine weitere Evolutionsstufe.

Vorteile der rise-Plattform
  • Reduzierung von Service- und Reisekosten
  • Wegfall von Wartezeiten auf Servicemitarbeiter
  • Erhöhung der Maschinen- und Anlagenverfügbarkeit
  • Aufbau einer Wissensdatenbank
  • Zugriff auf Expertenwissen von überall
  • Geringere Prozesszeiten
  • Steigerung der Serviceerlöse

In Zukunft wird das notwendige technische Wissen automatisiert bereitgestellt, künstliche Intelligenz und Machine Learning machen dies möglich. Ein Servicefall wird dann wie folgt aussehen: Smartglasses aufsetzen, Maschine über die Serialnummer per Scan identifizieren, Vorschläge mit Detailanleitung für das mögliche Problem erhalten, per interaktiver Anleitung in der Brille das Problem lösen. rise wird damit von der Remote-Support-Plattform zum digitalen Experten.

Fazit

Mit rise lässt sich ein kritischer Serviceprozess in der Industrie digitalisieren. Neben einer deutlich effektiveren Zusammenarbeit im Vergleich zu Telefon, E-Mail und Co. wird erstmals auch eine lückenlose Dokumentation und Archivierung des so wichtigen Expertenwissens möglich. Effektiver Support aus der Ferne bietet neue Chancen, wie beispielsweise die Unterstützung des Kunden und den Aufbau neuer Servicedienstleistungen. Der digitale Experte, der automatisierten Support über die intelligente Brille bietet, ist keine allzu ferne Vision mehr. Bei der zunehmenden Komplexität von Maschinen und Anlagen und bei gleichzeitig hohem Wettbewerbsdruck im internationalen Marktumfeld ist der digitale Remote Support ein entscheidender Bestandteil der Servicestrategie. //

Anwendungsfall Strautmann Umwelttechnik GmbH

Die Strautmann Umwelttechnik GmbH, ein führender Anbieter von Recycling-Maschinen in der Entsorgungslogistik, hat ihren Remote-Support-Prozess erfolgreich digitalisiert. Gibt es technische Probleme bei einer ihrer Maschinen, die oft bei Einzelhandelsketten zum Einsatz kommen, so stockt die Logistikkette zur Verarbeitung und zum Abtransport der recycelten Materialien. Eine schnelle und effektive Unterstützung der Servicemitarbeiter ist daher von hoher Bedeutung. Die bisherige E-Mail-Kommunikation im Service wurde durch rise digitalisiert. Nachrichten, Bilder, Dokumente und Videos werden auf diese Weise deutlich schneller ausgetauscht. Benötigen weitere Personen aus Entwicklung und Qualität Zugriff auf die Informationen, werden die Kollegen einfach zum jeweiligen Fall eingeladen. Eine aufwendige Weiterleitung von Informationen entfällt. Benötigt ein Servicemitarbeiter oder ein Händler im Ausland Unterstützung bei der Lösung eines technischen Problems, wird per Live-Videokonferenz unterstützt. Dadurch konnten in den vergangenen Monaten mehrere zeit- und kostenintensive Reisen insbesondere ins Ausland eingespart werden. Alle Fälle werden nach Lösung des technischen Problems dokumentiert und im Archiv abgelegt. Das Archiv mit mittlerweile mehreren Hundert Fällen dient als Wissensdatenbank, um zukünftige Fälle an Hand vorhandener Lösungsbeschreibungen zu lösen.


Über die Autoren:

Namensnennung-Keine Bearbeitung 3.0 Deutschland (CC BY-ND 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Reibungslose Sicherheit

Automatisierte IT-Security im Kontext neuer Arbeitsmodelle

Das spannende Thema der Digitalisierung und die damit einhergehenden neuen Möglichkeiten werden von den Unternehmen mit Enthusiasmus verfolgt. IT-Security hingegen hat trotz all der Euphorie nach wie vor einen schweren Stand. Sie wird entweder als Bremser im geschäftlichen Alltag verortet oder als notwendiges Übel und lästige Pflicht betrachtet. Viele handeln noch nach dem Prinzip Hoffnung. Ein verheerendes Prinzip, beziffert doch das BSI allein in den Jahren 2017 und 2018 den Gesamtschaden für die deutsche Wirtschaft auf 43,4 Milliarden Euro.(1) Und jetzt entstehen gerade durch die Digitalisierung ganz neue Gefahren und Herausforderungen.

Neue Arbeitsmodelle im Kontext von IT-Security

Arbeit aus dem Homeoffice ist en vogue. Aber die Gig-Economy hält noch mehr Veränderungen bereit. Sie wird in den nächsten Jahren die traditionellen „Nine to Five“-Arbeitstage ablösen. Für Unternehmen und deren Security-Policy bedeutet das, noch mehr „freiberufliche Projektarbeiter“ im Unternehmen mit einer passenden digitalen Arbeitsumgebung zu versorgen – auch wenn es sich dabei nur um einen kurzen Auftritt handelt. Gerade bei nur kurzfristig engagierten Arbeitskräften fehlt die Identifikation mit dem Unternehmen und entsprechend nachlässig wird mit dem Thema Sicherheit umgegangen. Zusätzlich wird gerade in diesem Bereich Homeoffice angeboten, sodass durch die steigende Anzahl an Endgeräten die Anforderung an eine verlässliche Sicherheitssoftware entsprechend steigt.

Durch eine Consumer-Version unserer Software, die auf die neuen Endgeräte gespielt wird, garantieren wir, dass der Datenaustausch mit den Firmen sicher und verschlüsselt abläuft. Sobald sich ein neues Gerät mit dem Netzwerk verbindet, überprüft unser System, ob die entsprechende Software installiert ist und ob der Virenschutz auf dem neusten Stand ist. Erst dann wird der Zugriff auf bestimmte Unternehmensdaten ermöglicht. Dabei kontrollieren wir auch, von wo aus die Zugriffe auf das Netzwerk erfolgen. Sollte jemand innerhalb eines kurzen Zeitintervalls beispielsweise einmal aus China und einmal aus den USA auf Daten zugreifen wollen, ist das Benutzerkonto offensichtlich kompromittiert und das Konto wird in Quarantäne verschoben.

Zusätzlich schafft unsere Software Sicherheit, indem sie die Schnittstellen kontrolliert und auf diese Weise beispielsweise verhindert, dass per USB-Stick ein Virus ins Unternehmensnetzwerk geschleust wird. Zugleich überwacht sie den Datenabfluss, protokolliert, wenn Daten auf den Stick kopiert werden, oder aber verhindert solche Kopien komplett. Durch ihre Verschlüsselung garantiert sie, dass Dokumente nicht von externen oder nicht berechtigten internen Mitarbeitern gelesen werden können. Das gilt auch dann, wenn Dateien versehentlich per Mail an eine falsche Empfängeradresse geschickt werden.

Unser Tool Insight Analysis wertet die protokollierten Daten der Endgeräte aus und stellt sie in visualisierter und tabellarischer Form dar. So lassen sich alle sicherheitsrelevanten Prozesse und Vorgänge analysieren und ein situationsgerechtes Schutzkonzept erstellen. Bei registrierten Auffälligkeiten, beispielsweise wenn besonders viele Dateien kopiert werden, schlägt es Alarm.


Abb.: Weniger als 50 Prozent der Unternehmen haben laut IDC ihre IT-Security automatisiert.


Automatisierung und Sicherheit

Wichtig ist hier, die richtige Balance zu finden, Sicherheitsaspekte und Mitarbeiteranforderungen sollten in Einklang gebracht werden, ohne die Arbeitsfähigkeit des Unternehmens zu gefährden. Um dies zu gewährleisten, muss IT-Security drei Anforderungen erfüllen:

  • Sie darf nicht als störend empfunden werden, d. h. eine andere Arbeitsweise erfordern.
  • Es darf nicht möglich sein, sie zu umgehen, da es auch böswillige Mitarbeiter geben kann.
  • Sie muss automatisiert funktionieren.

Die Automatisierung nimmt der Firma die manuellen Schritte ab, stellt sicher, dass nichts vergessen wird und ermöglicht eine 24 / 7-Sicherheit. Mit einer Mischung aus Software und Awareness-Schulung ist es möglich, Betrugsversuche zu erkennen.

Firewalls und Antiviren-Tools bieten keinen ausreichenden Schutz vor Viren, Trojanern und Ransomware mehr und hundertprozentige Sicherheit existiert nicht. Post-Infection-Protection geht von vornherein von einem erfolgreichen Angriff aus. Ein Algorithmus analysiert alle Abläufe, erkennt böse Absichten und blockt diese in Echtzeit. Statt eines Virus werden also virustypische Muster erkannt. Durch maschinelles Lernen optimiert sich das System nach jeder False-Positive-Meldung und wird so immer klüger.

Datenschutz und DSGVO

Die Herausforderungen der EU-DSGVO sind durchaus vielschichtig und stellen zusammengesetzt eine sehr große Gefahr für die Unternehmen im Hinblick auf die Absicherung der firmeneigenen IT dar. Entscheidend ist der Schutz von Kundendaten vor Fremdzugriff. Mit der Produktversion 12 der „EgoSecure Data Protection“ bieten wir ein komplettes Lösungsportfolio, das die Einhaltung der EU-DSGVO-Artikel 25, 30, 32, 33 und 34 gewährleistet. Diese Artikel beziehen sich auf die Verhinderung von Angriffen durch Datenverschlüsselung, die Überwachung von Datenverletzungen ohne Verschlüsselung, die privilegierte Zugriffskontrolle sowie die Erstellung von Audit-Daten und die Verwaltung der Datenübertragung in Echtzeit.

Dennoch darf eines nicht außer Acht gelassen werden. Die Unvorsichtigkeit der Mitarbeiter bleibt ein Sicherheitsrisiko. Das Bewusstsein für den sicheren Umgang mit Daten muss geschärft werden. Wenn Mensch und Software optimal agieren, haben Angreifer es schwer, erfolgreich zu sein. //

Fünf Ratschläge für eine höhere IT-Sicherheit
1. Führen Sie eine realistische Bestandsaufnahme der Schutz-, Abwehr- und Wiederherstellungsfähigkeit Ihres Unternehmens durch
2. Betrachten Sie IT-Security ganzheitlich und planen Sie strategisch
3. Integrieren Sie Ihre Tools und automatisieren Sie Ihre Prozesse
4. Nutzen Sie unterschiedliche Lösungen und Bereitstellungsmodelle
5. Entwickeln Sie eine Security-Kultur in Ihrem Unternehmen

Endpoint-Security
Endpoint-Security-Lösungen bieten effektiven Schutz, weil sie:
auf der Ebene des Betriebssystems agieren und sich darauf konzentrieren, Angreifer am Erreichen ihres Ziels zu hindern: dem Stehlen, Manipulieren oder Verschlüsseln von Endpunkt- und Serverdaten
die Funktionen einer Endpoint-Prevention-Plattform mit denen einer Endpoint-Detection-and-Response kombinieren
Echtzeitschutz gegen Ransomware gewährleisten
eine Warnmeldung absetzen, sobald es zu einer schädlichen Outbound-Kommunikation oder Datenmanipulation kommt oder eine unautorisierte Verschlüsselung unterbunden wurde

Abb.: Einflussfaktoren auf die IT-Security-Prozesse in den Unternehmen

Weitere Informationen über die Matrix42 AG

(1) https://www.bitkom.org/sites/default/files/file/import/181008-Bitkom-Studie-Wirtschaftsschutz-2018-NEU.pdf, S.25