Beiträge

Neurofinance

Ein neuer Ansatz sorgt für Furore an den Kapitalmärkten: Roland Ullrich und Bernd Weber gewähren Einblicke in ein vielversprechendes Forschungsgebiet.

Herr Prof. Weber, noch ist die Beratung in Banken eine Bastion der menschlichen Intelligenz. Wann werden selbstlernende Computersysteme mit Siri-Stimme und Avatar-Gesicht den klassischen Kundenberater ersetzen?
Man sieht derzeit in vielen Bereichen der Kundeninteraktion die Nutzung von Avataren. Dies stößt bei vielen Verbrauchern auf dem jetzigen Stand der Technik aber auch auf große Skepsis bis Ablehnung. Menschen reagieren sehr sensibel auf ihr Gegenüber und Nuancen in sozialen Interaktionen. Bei den aktuellen Systemen der „künstlichen Berater“ ist dies sehr weit von natürlichen Interaktionen entfernt und führt eher zur Ablehnung durch die Kunden. Selbstlernende Algorithmen, die auf die individuellen und eben auch schwankenden emotionalen Bedürfnisse der Kunden eingehen, wird es auf absehbare Zeit nicht geben.

Herr Ullrich, Sie schreiben, der Schwerpunkt Ihrer Konferenz ist der Transfer von Forschungsergebnissen in die Praxis der Finanzindustrie, welche Trends machen Sie aus?

Roland Ullrich

Die spannenden Erkenntnisse der modernen Hirnforschung sind mittlerweile in den Management- und Finanzkreisen der deutschen Wirtschaft angekommen. Neurofinance macht sich die neuesten neurowissenschaftlichen Methoden und Technologien zunutze, um das Verhalten der Menschen an den Finanzmärkten zu analysieren. Dabei hat sich herausgestellt, dass wir trotz all dem Wissen und der Informationen, die wir „real time“ zur Verfügung haben, nicht in der Lage sind, vernünftig mit Geld umzugehen. Aus der Evolution stammende, unbewusste Verhaltensmuster spielen uns allzu oft einen Streich.  Denn unsere uralten Gehirnsysteme sind das Ergebnis eines evolutionären Selektionsprozesses. Sie sind uns zum Überleben gegeben und einfach nicht dafür geeignet, rationale Entscheidungen an komplexen Finanzmärkten zu treffen. Finanzmärkte folgen völlig anderen Gesetzen. Die gute Nachricht ist, dass unser Gehirn vollkommen plastisch ist, d. h. lebenslang wandelbar. Wir können lernen, die Kontrolle über unsere automatischen Gehirnaktivitäten zu erlangen. Hirnforscher sind heute in der Lage, Anlegerverhalten vorherzusagen und zu beeinflussen. Mit dem Bewusstsein, wie unser Gehirn finanzielle Entscheidungen trifft, können wir Methoden erlernen, die uns helfen, im ökonomischen Sinn rationaler, d. h. besser mit Geld umzugehen. Hierzu zählen zum Beispiel Mindfulness-Training, Neurofeedback und Neurocoaching. Bei vielen angelsächsischen Investoren sind diese Methoden populär. Zusammen mit der DFVA wollen wir die Ergebnisse der Neurofinance Forschung in Deutschland bekannter machen und eine Plattform für die verschiedenen Anwendungsmöglichkeiten bieten. Gleichzeitig zeigt der Trend zur Digitalisierung der Finanzbranche, wie irrationales Anlegerverhalten mithilfe kognitiver Technologien ausgeschaltet werden kann. Algorithmen-basierte Anlageprodukte und digitales Asset-Management können dazu beitragen, dass Anleger und Investoren ihre Emotionen besser in den Griff bekommen.

Herr Ullrich, welche Schwerpunkte und Themen haben Sie für die erste „Neurofinance-Konferenz“ gewählt?
Gemeinsam mit der DVFA haben wir ein Konferenzkonzept entwickelt, welches aus zwei Bausteinen besteht. Zu Beginn geht es darum, die spannenden Erkenntnisse der Neurofinance-Forschung den Teilnehmern verständlich zu machen. Mit dem Bewusstsein, wie emotional und oftmals irrational wir finanzielle Entscheidungen treffen, geht es im zweiten Baustein darum, dieses Wissen in die Praxis zu übertragen und Anwendungsmöglichkeiten vorzustellen. Liegt die Zukunft in kognitiven Trainingsmethoden zur Verbesserung finanzieller Entscheidungsprozesse oder werden uns bald selbstlernende Algorithmen und Künstliche Intelligenz steuern? Mensch oder Maschine? Oder lässt sich menschliche Intelligenz mit kognitiven Technologien verbinden?
Herr Prof. Weber, können Sie uns kurz und bündig erklären, was wir unter den Begriffen „Neurofeedback“ oder „Mindfulness“ verstehen dürfen?
Diese verschiedenen „Interventionen“ stellen Verfahren dar, die dazu dienen sollen, die Prozesse von Entscheidungen zu verbessern. Bei Neurofeedbackmethoden werden direkt biologische Signale visualisiert und den Nutzern zurückgespielt. Diese sollen dann lernen, bestimmte neuronale Muster zu verstärken oder abzuschwächen. Hier existieren eine Reihe von Studien, v.  a. im medizinischen Kontext, dass diese Feedbackmethoden in der Lage sind, z. B. die Symptome bei Angst- oder Suchterkrankungen zu verbessern. Mindfulness – oder ähnliche Traingsverfahren – sollen dazu dienen, sich seiner emotionalen Zustände bewusster zu werden und damit in der Lage zu sein, diese besser in Entscheidungen zu nutzen. Auch diese Verfahren sind im Bereich der Psychotherapie stark etabliert und zeigen auch positive Effekte für ökonomisches Entscheidungsverhalten.

Herr Prof. Weber, wo sehen Sie wichtige Aspekte für die Zukunft der Forschung im Bereich der Neurofinance?

Prof. Bernd Weber

In den letzten Jahren haben wir extrem viel über basale Mechanismen von Entscheidungen gelernt. Wir stehen trotzdem noch am Anfang. Obwohl sich viele Studien mit Themen wie „nudging“ von Finanzentscheidungen beschäftigt haben, existieren noch eine Reihe spannender Fragen, welche helfen könnten, Interventionen oder Unterstützungen von Entscheidern zu verbessern. Ein wichtiger Aspekt dabei wäre z. B., die riesige Anzahl von Entscheidungsverzerrungen, die bisher beschrieben sind, auf eine geringe Anzahl von Prinzipien zu reduzieren, welche es ermöglichen würde, bessere Modelle von Entscheidungen zu entwickeln. Aber auch ganz konkrete Fragen wie: Welche Rolle spielen soziale Medien oder genereller soziale Interaktionen in Finanzentscheidungen? Wieso sind viele Privatinvestoren bereit, größere Gebühren für aktiv gemanagte Fonds zu bezahlen, wobei ein Großteil der Daten zeigt, dass günstigere z. B. Indexfonds eigentlich die gewinnbringendere Wahl für sie wären?

 

 

 

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Prof. Bernd Weber

Informationen zu Roland Ullrich

Digital Finance

FinTechs gehen mit frischen Ideen auf den Markt und verändern diesen nachhaltig. Neue Technologien offenbaren ihr disruptives Potenzial.

von Andreas Fuhrich

Zwar begann die Digitalisierung der Banken mit dem Online-Banking schon im letzten Jahrtausend, doch weitere Innovationen blieben lange aus. Für den Knotenpunkt aller Geldgeschäfte galt der Bankkunde als Selbstverständlichkeit und musste nicht mit technischen Neuerungen gebunden werden. Selbst das Online-Banking diente mehr dem Stellenabbau und der damit verbundenen Gewinnoptimierung als dazu, einen wirklichen Service anzubieten. Heute noch beworbene Tagesgeldkonten wirken wie absurde Überbleibsel aus der Zeit, in der sie mit lukrativen Zinsen als Online-Banking-Marketingmaschine fungierten.
Seit einigen Jahren verändert nun die aufstrebende FinTech-Branche den Finanzmarkt. Dem Kundenwunsch nach mehr digitalen Lösungen, der vor allem durch die Entwicklungen der Mobile Devices mit ständigem Internetzugriff noch verstärkt wird, soll entsprochen werden. Vormals ineffiziente und unflexible Geschäftsfelder werden revolutioniert oder zumindest den neuen technologischen Möglichkeiten angepasst. Die Finanzkrise 2008, das zerstörte Vertrauensverhältnis zu den Großbanken, diente dabei als Katalysator für die junge Branche, die offen in Konkurrenz zu den alteingesessenen Instituten tritt.

Durch den Druck der FinTechs und der Digitalisierung der Finanzbranche haben mittlerweile auch traditionelle Bankhäuser erkannt, dass sie aktuelle Techniken einsetzen müssen, um den Bedürfnissen der Kunden zu entsprechen. Zwar arbeitet man jetzt verstärkt an der Modernisierung und Technologisierung der gesamten Dienstleistungskette, kann jedoch nicht mit der Innovationskraft eines agilen Start-ups mithalten. Verschärfte Regulierungen und neue BIZ-Eigenkapitalvorschriften erschweren  den Prozess zusätzlich. Wohl deshalb treten viele Banken seit einiger Zeit nicht mehr nur als Konkurrent, sondern als Partner von FinTechs auf. So erhalten sie die Möglichkeit, zeitnah ihren Kunden Innovationen anzubieten, ohne eigene Forschung betreiben zu müssen. Auch FinTechs haben erkannt, dass durch Partnerschaften Win-win-Situationen entstehen. Die vielen Regularien machen es für Start-ups fast unmöglich, die Bedingungen für eine Banklizenz zu erfüllen, die für manche Dienstleistungen, wie z. B. die Kreditvergabe, aber zwingend erforderlich ist. Anstatt sich selbst mit den hohen Anforderungen auseinanderzusetzen, übernimmt jetzt die lizensierte Partnerbank die endgültige Abwicklung.

Die Innovationen der Finanztechnologie beginnen dabei gerade erst, die Branche immer stärker und immer schneller umzukrempeln. Eine accenture-Studie belegt, dass die Investitionen in FinTechs von weltweiten 1,791 Milliarden Dollar im Jahr 2010 auf über 22 Milliarden 2015 anwuchsen.(1)
Allein in den letzten beiden Jahren machten zwei Schlagwörter auf sich aufmerksam, denen ein ungeheures disruptives Potenzial zugesprochen wird. 2015 wurden weltweit über 800 Millionen Dollar in InsurTech-Start-ups investiert,(2) also in Unternehmen, die neue Lösungen für die Versicherungsbranche liefern. Laut einer McKinsey-Studie könnte dadurch in den nächsten zehn Jahren jeder vierte Arbeitsplatz in der westeuropäischen Versicherungsbranche verloren gehen.(3) 2016 sorgte der Begriff „Blockchain“ für Aufsehen. Ob die Technologie hinter dem Bitcoin tatsächlich dem disruptiven Potenzial gerecht wird, welches ihr zugesprochen wird, bleibt abzuwarten.

Quellen:

(1)    accenture-Studie: „Fintech and  the evolving landscape: landing points for the industry“ von: Julian Skan, James Dickerson und  Luca Gagliardi, 2016. URL: https://www.fintechinnovationlablondon.co.uk/pdf/Fintech_Evolving_Landscape_2016.pdf (Abgerufen: 16. November 2016).
(2)    Seite „Versicherungstechnologie“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 26. August 2016, 13:13 UTC. URL: https://de.wikipedia.org/w/index.php?title=Versicherungstechnologie&oldid=157401432 (Abgerufen: 16. November 2016, 09:44 UTC).
(3)    McKinsey Studie: „Automating the insurance industry“ von: Sylvain Johansson und Ulrike Vogelgesang, 2016, URL: https://www.mckinsey.com/industries/financial-services/our-insights/automating-the-insurance-industry (Abgerufen: 16. November 2016).

Business-Design für den digitalen Wandel

von Elmar Nathe

Die digitale Transformation erfordert vom Topmanagement eines Unternehmens das grundlegende Überdenken des etablier­ten Geschäftsmodells und die Neuausrichtung der Geschäftsorganisation. Neue Geschäfts­chancen, die durch die Digitalisierung erst ermöglicht werden, müssen erst verstanden und auf ihre Relevanz zur Erneuerung des Geschäftsmodells geprüft werden. Digitalisierung verzahnt Business und IT unmittelbar. Jede Neuaus­rich­tung löst sofort eine entsprechende Änderung in der IT aus. Auch wenn IT-Trends wie z. B. „Internet of Things“ sicher die Weichensteller der digitalen Geschäftsmodelle sind, sollten Unternehmen beim Entwurf ihrer digitalen Strategie an den Nutzen für ihre Kunden denken. Startpunkt sind also die – wahrscheinlich schon – bekannten Probleme der Kunden. Ein tieferes Verständnis zu entwickeln, worin der Kern des Problems eigentlich besteht und welche Ansätze diese lösen können. Mögliche Fragestellungen sind:

  • Was sind die aktuellen Herausforderungen unserer Kunden in ihren Märkten?
  • Wie können digitale Technologien unsere Produkte bzw. Services verbessern?
  • Wie können unsere Kunden enger an uns gebunden werden?

Doch wie kann effektiv eine digitale Strategie entwickelt und umgesetzt werden? Das wird am Beispiel eines Maschinenbauers dargestellt. Dieser möchte sein herkömmliches, auf der Konstruktion, Produktion und Lieferung von Spezialmaschinen beruhendes Geschäftsmodell erweitern. Hierfür sollen Technologien aus der Industrie 4.0 wie z. B. Sensoren, RFID und Big Data genutzt werden.

Zur digitalen Strategie mit vier Management-Werkzeugen

Die pragmatische, lösungsorientierte Kopplung von Business und IT ist im Rahmen der digitalen Transformation wichtig. Hierfür bietet es sich als Unternehmen an, folgende Elemente auszuarbeiten:

  • Customer-Journey-Mapping
  • Geschäftsfähigkeiten-Landkarte
  • Value-Proposition
  • Lean Start-up.

Potenziale aus der Kundensicht entdecken

Elmar Nathe

Customer-Journeys stellen die Reise des Kunden bei der Interaktion mit dem Unternehmen dar. Dadurch lassen sich Potenziale und Ansatzpunkte aus Kundensicht entdecken. Hierbei ist es entscheidend, sich auf die Darstellung der Herausforderungen und der Erwartungshaltung der Kunden zu konzentrieren. Die IT kommt erst ins Spiel, wenn es darum geht, wie die identifizierten Probleme gelöst werden können. Als Best Practice hat es sich herausgestellt, dass aus den Customer-Journeys Geschäftsfähigkeiten abgeleitet werden, die das Unternehmen aufbauen muss, um die Kundenbedürfnisse besser bedienen zu können.
Bei dem Maschinenbauer beginnt die Customer-Journey des Kunden bei der Planung der neuen Maschinen und bildet anschließend den Kauf, Betrieb und die Instandhaltung der Anlage bis zur Ersetzung dieser ab. Bzgl. der Instandhaltung könnte erkannt werden, dass es strategisch entscheidend ist, über Geschäftsfähigkeiten zu verfügen, die dem Kunden helfen, die Maschinenlaufzeiten und die -auslastung zu erhöhen.

Nutzen für den Stakeholder herausarbeiten

Ob eine solche Geschäftsfähigkeit das Potenzial hat, ein neues Geschäftsmodell zu tragen, kann über einen „Business Model Canvas“ (BMC) pragmatisch beschrieben werden. Zentral für den BMC ist das Konzept der Value-Proposition (dt.: Leistungsversprechen). Auf dieser Ebene werden noch nicht die konkreten digitalen Services beschrieben, sondern welcher Wert bzw. Nutzen für den Stakeholder erzeugt werden soll.
Im Kontext einer digitalen Strategie sind Customer-Journeys und die abgeleiteten Geschäftsfähigkeiten ein guter Ausgangspunkt, um eine griffige Value-Proposition für eine Gesamtstrategie zu bilden. So ergibt sich insgesamt ein verständliches Zielbild der digitalen Transformation des Unternehmens. Der Maschinenbauer könnte sich für die Zukunft entscheiden, sich mithilfe von Nutzungsdaten aus der IT und von neu entworfenen Serviceprozessen vom reinen Maschinenlieferanten hin zum Managed-Service-Provider zu entwickeln, der dem Kunden hilft, die Maschinenlaufzeiten und -auslastung zu optimieren.

Kernfunktionalitäten werden im MVP abgebildet

Nach Customer-Journey, Geschäftsfähigkeiten und definierten Value-Propositions kommt die Feinarbeit! Jetzt gilt es, konkret die einzelnen, neuen Geschäftsfähigkeiten zu detaillieren und in IT-Produkte umzusetzen. Business und IT arbeiten hier Hand in Hand zusammen, um iterativ und möglichst schnell das Produkt auf den Markt zu bringen. Nach dem Lean-Start­up-Ansatz wird zuerst ein „Minimum Viable Product“ (MVP) entwickelt. Das MVP enthält nur die Kernfunktionalitäten, die den primären Nutzen für den Kunden generieren sollen. Das MVP wird schnellstmöglich auf den „Markt“ gebracht, um zu evaluieren, wie die neue Produktidee basierend auf der Value-Proposition tatsächlich bei den Kunden ankommt.

Der Maschinenbauer könnte in ersten Workshops gemeinsam mit ausgewählten Pilotkunden die Hauptursachen für Maschinenausfälle ermitteln und sich in einem MVP auf diese fokussieren. Hierfür wird ein erster Prozess entworfen, mit dem die Betriebsdaten der Maschinen analysiert und Muster erkannt werden können, die auf ein technisches Problem hindeuten. In einem iterativen Prozess können dann mit den Kunden Serviceprozesse und die zugrunde liegenden IT-Systeme weiterentwickelt und verfeinert werden, bis das neue Geschäftsmodell Managed-Service-Provider tragfähig und profitabel ist.
Werden die Schritte systematisch durchgeführt, wird so eine zukunftsträchtige digitale Strategie für das Unternehmen entwickelt. Kreative, innovationsfördernde Methoden und iterative, auf schnellem Kundenfeedback beruhende Ansätze für das Business-Development lassen auch in etablierten Unternehmen die notwendige Start-up-Mentalität einziehen.

Kernaussagen

Die Digitalisierung eröffnet neue Geschäftschancen. Diese müssen ergebnisoffen in interdisziplinären Teams diskutiert und ausgearbeitet werden.
Bei der anschließenden Ausarbeitung der digitalen Strategie wird der Kunde in den Mittelpunkt gestellt.
Vier Management-Werkzeuge erleichtern die Ausarbeitung der digitalen Strategie:

  • Customer-Journey-Mapping
  • Geschäftsfähigkeiten-Landkarte
  • Value-Proposition
  • Lean-Start-up.

 

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Zum Autoren

Neue digitale Sicherheitskultur

Sicherheit für kritische Infrastrukturen und innovative Cyber-Abwehr sind für Unternehmen und den Public Sektor gefragter denn je.

Die  Digitalisierung und Vernetzung, das Internet der Dinge, Industrie 4.0 und die zunehmende Mobility bieten Cyber-Angreifern vielfältige Möglichkeiten, Informationen auszuspähen, Geschäftsprozesse zu sabotieren oder sich unter Einsatz von Malware und damit verbundener erpresserischer Datenverschlüsselung kriminell zu bereichern.

Täglich werden rund 380 000 neue Schadprogrammvarianten entdeckt, die Anzahl von Spam-Nachrichten mit Schadsoftware im Anhang ist explosionsartig um 1 270 Prozent angestiegen. Wie Frau Merkel bemerkte, werden Cyber-Angriffe zum Alltag gehören.

Klassische Abwehrmaßnahmen reichen nicht mehr aus

Unternehmen aller Branchen,  kritische Infrastrukturen, Forschungseinrichtungen, Ver­waltung und Bürger sind es, auf die sich Angreifer mit flexibel einsetzbaren Angriffsmitteln und -methoden fokussieren. Konsequenzen aus bereits erfolgten Angriffen sind teils verheerend und verdeutlichen, wie verwundbar eine digitalisierte Gesellschaft ist.  Dieser Thematik folgend entstehen neue Anforderungen an die bestehenden Sicherheitskonzepte. Hinzu kommen die gesetzlichen Vorgaben, wie das 2015 eingeführte IT-Sicherheitsgesetz, das um Sicherheitsanforderungen an sogenannte „Kritische Infrastrukturen“ noch ergänzt wurde. Es gilt der Ansatz, ein Unternehmen so zu führen und zu kontrollieren, dass die relevanten und möglichen Risiken abgedeckt sind. Das bedeutet, diese Risiken zu identifizieren, analysieren und bewerten. Um darauf aufbauend die Erstellung eines ganzheitlichen Sicherheitskonzeptes zu ermöglichen. Das beinhaltet nicht nur die eingesetzten Technologien, sondern auch organisatorische Maßnahmen, wie Zuständigkeiten, Berechtigungen, Kontrollinstanzen oder konzeptionelle Aspekte, wie etwa Mindestanforderungen für bestimmte Sicherheitsmerkmale zu definieren.

Kritische Infrastrukturen müssen branchenspezifische Mindeststandards erfüllen, wozu insbesondere die Einführung eines ISMS zählt. Hilfestellungen gewähren die kostenfreien IT-Grundschutz-Kataloge des BSI. Eine Sammlung von Dokumenten, welche die schrittweise Einführung und Umsetzung eines ISMS erläutern. Weiterhin müssen große Unternehmen und solche der „kritischen Infrastruktur“ relevante Vorfälle, die die IT-Sicherheit betreffen, an das BSI melden.

Durch das IT-Sicherheitsgesetz wurden außerdem weitere Gesetze wie z. B. das Energiewirtschaftsgesetz geändert. Durch die Änderung des Energiewirtschaftsgesetzes werden sämtliche Strom- und Gasnetzbetreiber verpflichtet, den IT-Sicherheitskatalog der Bundesnetzagentur umzusetzen und ein ISMS einzuführen.

ISO 27001

Als Standard für Managementsysteme der Informationssicherheit hat sich die ISO-Norm 27001 zur Umsetzung und Kontrolle von gesetzlichen Vorgaben hinsichtlich Informationssicherheit und Datenschutz etabliert. Bei der Verwendung von Informationssystemen müssen proaktiv Schutzmaßnahmen und Schutzmethoden ergriffen werden, um mögliche Bedrohungen und Schwachstellen bestenfalls vorab zu verhindern oder auf ein überschaubares Risiko zu minimieren.
Die Zukunft ist vernetzt und mobil, mit immer mehr Schnittstellen zwischen Mensch, System und Maschine, national und global. Das bedeutet, dass wir ein sicheres und vertrauenswürdiges Ökosystem vom kleinsten Sensor bis zum Benutzer benötigen. Eine Absicherung der Systeme kann nur unter Einbezug sämtlicher Beteiligter, also Hersteller, Systemintegrator, Betreiber der Anlagen sowie der Öffentlichkeit, gleichermaßen gewährleistet werden.
Der Einsatz aktueller Schutzmechanismen, die Verfügbarkeit, Verbindlichkeit und Authentizität gewährleisten, wird von zunehmender Bedeutung sein. Techniken zur Verschlüsselung, Authentifizierung und Autorisierung auf Basis biometrischer Verfahren und hochleistungsfähiger Kryptografie-Methoden werden zum Standard avancieren.

Weiterführende Reportage aus TREND REPORT zum Thema

Heft 3/2015 „Vernetzte Gesellschaft“
„IoT: Beginn der Vernetzung“, Autor Chris Löwer
https://trendreport.de/iot-beginn-der-vernetzung/

Heft 2/2016 „Deutschland digital“
„Orientierung gesucht“, Dr. Ralf Magagnoli
https://trendreport.de/orientierung-gesucht/

Heft 1/2016 „Creative Companies“
„360°: Risiken immer im Blick“, Frank Romeike
https://trendreport.de/360-risiken-immer-im-blick/

Wann ist Big Data sinnvoll?

Big-Data-Technologien sind nicht die einzige Lösung, wenn es um viele Daten geht. Es gibt mehrere Kriterien, die über die Art der Datenverarbeitung entscheiden.

von Peter Welker

Technisch gesehen geht es beim Trendbegriff „Big Data“ um Daten, die durch ihre schiere Menge (Volume), den benötigten Datendurchsatz und die maximale Verzögerung (Velocity) sowie durch Komplexität und Variabilität (Variety) besondere Techniken für die Datenverarbeitung und Speicherung benötigen.(1) Der Einsatz traditioneller Technologie, wie relationaler Datenbanken, stößt bei solchen Anforderungen architekturbedingt irgendwann an seine Grenzen. Dasselbe gilt für nicht konsequent auf Parallelisierung ausgelegte Programmierparadigmen zur Verarbeitung der Daten.

Zu Beginn der Big-Data-Ära um 2010 konnte man es auf vielen IT-Konferenzen und in zahlreichen Publikationen spüren: Die neuen Lösungen rund um Hadoop und NoSQL sollten vor allem die althergebrachten analytischen Applikationen (z. B. Data-Warehouse) revolutionieren und ersetzen.
Die Investitionen in klassische analytische Anwendungen haben aber keineswegs darunter gelitten. (2) Relationale Datenbanken und klassische Datenintegrationswerkzeuge sind auch nicht so limitiert, wie es die Verfechter neuer Technologie gerne proklamieren. Das Laden, Transformieren und die optimierte Aufbereitung mehrerer hundert Millionen Datensätze pro Tag ist heute auch mit kostengünstiger Hardware kein Problem. Dennoch: Auch wenn die größten relationalen DWH-Datenbanken im zweistelligen Petabyte-Bereich liegen,(3) ist in den meisten Fällen im zwei- bis dreistelligen Terabyte-Bereich Schluss. Häufig wegen Lizenz- und Supportkosten für benötigte kommerzielle Software, nicht etwa weil die Grenze der technischen Leistungsfähigkeit erreicht wäre.
Es sind vielmehr neue Anforderungen, die mit neuen Techniken implementiert werden. Zur Verdeutlichung der Entscheidungskriterien pro oder contra Big-Data-Technologie betrachten wir drei Anwendungsfälle.

Process-Data-Warehouse

Data Warehouses müssen keineswegs nur Finanzdaten aufbereiten. Ein Übertragungsnetzbetreiber aus der Energiebranche lädt täglich 60 Millionen Mess- und Applikationswerte in ein relationales DWH und speichert sie dort für zehn Jahre, um beispielsweise schadhafte Bauteile zu analysieren oder die Zuverlässigkeit von Verbrauchsprognosen zu prüfen. Dafür müssen die Daten spätestens 20 Minuten nach ihrer Erzeugung für Zeitreihen- und andere Analysen optimiert bereitstehen (Latenz). Die wichtigsten auf diesen Daten basierenden Auswertungen benötigen dann jeweils weniger als fünf Sekunden und sind somit interaktiv durchführbar.

Besonders im Energiesektor fallen bei Erzeugung und Verbrauch enorme Datenmengen an, doch nicht immer kommen Big-Data-Technologien zum Einsatz.

Es sprechen erste Kriterien für Big-Data-Technologie. Überraschenderweise ist es aber keineswegs die Datenmenge, denn trotz vieler Datensätze bewegt sich das Volumen noch im unteren Terabyte-Bereich. Allerdings sind Wide-Column-NoSQL-Datenbanken besser für Zeitreihenanalysen geeignet als ihre relationalen Pendants. Dennoch entschied sich der Betreiber aufgrund des traditionellen Know-hows seiner Mitarbeiter, der Stabilität und sicheren Verfügbarkeit relationaler Tools für die klassische Lösung mit hohem Investitionsschutz und vergleichsweise niedrigen Kosten. Und das funktioniert. Die Anwendung skaliert bei Bedarf und stärkerer Hardware auch noch um den Faktor zehn.

Messdatenlandschaft

Es wäre ein Fehler, rein fachliche Kriterien für einen Technologieentscheid zu nutzen. In einem zweiten, ganz ähnlich gelagerten Fall befüllt ein Autozulieferer zwecks Analyse der Produktionsprozesse Dutzende örtlich separierte, aber gleichartige relationale Datenbanken mit Messdaten. Inzwischen bewegt sich das Gesamtvolumen deutlich im dreistelligen Terabyte-Bereich. Alle Informationen sind innerhalb einer Stunde – ebenfalls vorwiegend für Zeitreihenanalysen – fertig aufbereitet.

Im Zuge einer Zusammenführung dieser Datenbanken und eines zunehmend operationalen Monitorings müssen nun sehr zeitnahe Analysen ermöglicht werden. Darum ist es erforderlich, die Latenz auf maximal fünf Minuten zu reduzieren. Jetzt stellen sich neue Fragen: Wie repliziert man Daten aus unterschiedlichen Orten so schnell wie möglich in ein zentrales System, wenn Hunderte von Transformationsprozessen nötig sind und ebenso viele Benutzer gleichzeitig die Daten analysieren?

Wann soll ich Big-Data-Technologien einsetzen?

Wichtige Indikatoren für den Einsatz von Big-Data-Technologien lassen sich also zum einen aus den drei „V“ ableiten: Volume, Velocity und Variety. Wenn man für ein Vorhaben also eine oder mehrere der folgenden Fragen mit Ja beantwortet, ist demnach zumindest eine genauere Technologiebetrachtung angesagt:

Verarbeitungslatenz
Wie lange nach der Entstehung von Daten müssen Muster erkannt und daraus Aktivitäten abgeleitet werden? Habe ich Anforderungen im Minuten- oder Sekundenbereich – oder sogar noch darunter?
Datenvolumen
Wie groß ist die Datenmenge, die insgesamt vorgehalten werden muss? Komme ich weit in den Terabyte-Bereich oder darüber hinaus?
Skalierbarkeit
Muss die Verarbeitung „elastisch“ sein? Also: Werden starke Schwankungen bei der Last erwartet und soll die gewählte Lösung auch noch um den Faktor 10, 100 oder 1 000 nach oben skalierbar sein? Hilft mir eventuell der Einsatz von Cloud-Diensten?
Flexibilität
Wie vielfältig ist mein verfügbares Datenmaterial? Weiß ich jetzt schon, was ich später damit machen möchte?

Andererseits spielen natürlich auch nicht-technische Kriterien eine wichtige Rolle: Das Know-how der Mitarbeiter oder die Bereitschaft einer Abteilung oder eines Unternehmens, sich für reale Fragestellungen auf neue Wege einzulassen zum Beispiel. Ein gutes Erwartungsmanagement und ausreichend Budget für Implementierungsaufwände können ebenfalls wichtige Kriterien sein: Bei ersten Fragestellungen sind nicht immer revolutionäre Antworten zu erwarten und Big-Data-Anwendungen sind nicht einfacher oder kürzer (und damit billiger) als herkömmliche Projekte.

Relationale Datenbanken und klassische Datenintegration alleine erweisen sich dabei aufgrund der nötigen Latenz irgendwann als Flaschenhals. Besser eignen sich Vorgehensweisen aus dem Internet of Things – einer Domäne für Big-Data-Anwendungen: An jedem Standort werden neue (Sensor-)Daten innerhalb von Sekunden vorbereitet und für erste Analysen eine Weile im Hauptspeicher lokaler Rechner – ähnlich einem Gateway – vorgehalten. Die Datenströme fließen gleichzeitig in einen Event-Hub in der Cloud. An diesem bedienen sich alle weiteren Transformationsprozesse, die ihre Ergebnisse in einem großen, ebenfalls cloudbasierten NoSQL-Datenbankcluster ablegen.
Hier kommen zahlreiche Big-Data-Techniken zum Einsatz: Stream-Analytics und Transformationslösungen wie Spark, Event-Hubs wie Kafka und NoSQL-Datenbanken wie Cassandra. Sie wurden ursprünglich von Facebook, LinkedIn und dem APMLab der University of California ins Leben gerufen:

  • Im Gegensatz zu traditionellen Tools sind sie konsequent auf Skalierbarkeit ausgelegt. Die meisten Lösungen laufen ohne nennenswerten Overhead auf Clustern mit Hunderten oder Tausenden Rechnern.
  • Viele Tools werden von großen Entwicklergemeinden als Open-Source-Programme weiterentwickelt.
  • Hinter den meisten Produkten stehen zudem Unternehmen, die Enterprise-Level-Support und kommerzielle Varianten mit erweitertem Funktionsumfang anbieten.
  • Sie wurden als Open-Source-Software entwickelt und an die Apache Software Foundation weitergereicht. Inzwischen gibt es dafür  auch rein kommerzielle Alternativen, beispielsweise in der Microsoft Azure Cloud (Event-Hubs, Stream-Analytics).

Bewegungsdaten

Ein weiteres Kriterium für den Einsatz neuer Technologien ist neben Datenmenge und Durchsatz bzw. Latenz auch die Datenvielfalt. Während in relationalen Datenbanken stark strukturierte Daten genutzt werden, gilt das nicht für Big-Data-Anwendungen. Auch Texte, Videos, Bilder, Geodaten oder XML- und JSON-Dateien aus Web-Click-Streams oder Applikationslogs sind relevant.
In unserem dritten Fall nutzt ein Mobilfunkbetreiber neben Geodaten und GSM-Daten aus dem Funknetz auch zahlreiche weitere Quellen für analytische Anwendungen. Da inzwischen fast jeder ein angeschaltetes Handy mit sich führt, kann der Netzbetreiber je nach Netzausbau und Art des Funkverkehrs den Aufenthaltsort eines Teilnehmers recht genau orten. Zudem können Endgeräte und zum Teil auch die Teilnehmer identifiziert werden. Die dabei anfallenden Datenmengen sind sehr groß und bedürfen umfangreicher Interpretation. Dann aber lassen sich detaillierte Bewegungsprofile erzeugen.

Natürlich dürfen aus Datenschutzgründen die Daten aller Teilnehmer nur anonymisiert verarbeitet werden, sodass keine Rückschlüsse auf Personen möglich sind. Dennoch bleiben die Möglichkeiten vielfältig. So kann man mit diesen Verfahren sehr einfach zuverlässige Aussagen über den gegenwärtigen Straßenverkehrsfluss machen, Pendlerströme visualisieren, um typische Einzugsgebiete zu erkennen, oder Transit- von regionalem Verkehr unterscheiden.

Die dabei anfallenden Datenmengen überschreiten schon in kurzer Zeit die PetabyteGrenze und sind durchaus vielfältig. Wichtig sind historische Daten, aber manche Anwendungsfälle, wie die Verkehrsbetrachtung, benötigen auch zeitnahe Werte. Zudem will man beim Speichern der Daten eine Unabhängigkeit von den Datenstrukturen sicherstellen (Variety). Während bei der Speicherung in relationalen Datenbanken im Allgemeinen die Datenstruktur vorab bekannt sein muss, ist das bei der Datenablage in File-Systemen wie Hadoop nicht der Fall. Hier genügt es, erst beim Lesen der Daten über deren Struktur Bescheid zu wissen. Das ermöglicht auch das vorausschauende Speichern von Daten, für die heute noch keine ausgearbeiteten Einsatzzwecke vorliegen, die aber mit hoher Wahrscheinlichkeit eines Tages von Bedeutung sein werden.

Alle Indikatoren zeigen also in Richtung der neuen Technologien. Und folgerichtig werden hier beispielsweise Hadoop für die langfristige Speicherung von strukturierten und unstrukturierten Daten und Spark für die Transformation und Analyse dieser Daten eingesetzt. Damit ist neben einer kostengünstigen Ablage von Massendaten auch die Skalierbarkeit für zukünftige Fachanforderungen gesichert.

Quellen:

(1) https://blogs.gartner.com/doug-laney/files/2012/01/ad949-3D-Data-Management-Controlling-Data-Volume-Velocity-and-Variety.pdf, abgerufen am 02.11.2016
(2) https://tdwi.org/Articles/2015/03/31/Dimensional-Data-Warehouses-Get-Job-Done.aspx, abgerufen am 02.11.2016
(3) https://www.guinnessworldrecords.com/world-records/largest-data-warehouse, abgerufen am 02.11.2016

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Peter Welker

Smarte Lösungen für den Handel

Über die Chancen von Big Data und der Vernetzung

von Jens Lappoehn

Die Digitalisierung ist die größte technologische Revolution der letzten 200 Jahre. Sie erfasst die Wirtschaft genauso wie die Gesellschaft und verändert die Art und Weise, wie wir leben und arbeiten. Die Digitalisierung ist vor allem eines: Eine große Chance, denn viele zentrale Herausforderungen der Zukunft sind ohne digitale Technologien nicht lösbar. Telefónica Deutschland trägt als nach Kundenzahl größtes Mobilfunkunternehmen Deutschlands maßgeblich dazu bei, dass die digitale Zukunft Wirklichkeit wird. Denn wir bieten zwei zentrale Rohstoffe für die Digitalisierung: Konnektivität und Daten.
Diese Rohstoffe wollen wir nutzen. Wir sind überzeugt, dass in der Vernetzung von Dingen und der smarten Datenanalyse großes Potenzial für die Gesellschaft und die Wirtschaft steckt. Deshalb haben wir eine neue Gesellschaft, die Telefónica Germany NEXT GmbH, gegründet, die diese digitalen Wachstumsfelder vorantreibt. Auf Basis von Datenanalysen und der Vernetzung von Dingen bietet die Gesellschaft anderen Unternehmen Lösungen an, damit diese die Chancen der Digitalisierung besser nutzen können.

Milliarden Daten intelligent verknüpft

Mit über 44 Millionen Kundenanschlüssen liegt uns durch unsere normalen Geschäftsprozesse eine große Menge an Daten vor. Darunter sind vor allem solche, die ausschließlich bei uns als Netzbetreiber anfallen, beispielsweise Mobilitätsdaten. Diese entstehen, wenn Handys, z. B. beim Surfen, mit den Mobilfunkzellen kommunizieren. Täglich entstehen so mehr als vier Milliarden Datenpunkte.
Für Analysezwecke werden sie durch ein dreistufiges, TÜV-zertifiziertes Verfahren vollständig anonymisiert und im Anschluss statistisch ausgewertet. Trotz vollständiger Anonymisierung können Kunden der Verwendung ihrer Daten jederzeit wiedersprechen. Sie haben so die Möglichkeit, ihre persönlichen Präferenzen mit dem Nutzen abzuwägen, den ihre Daten für die Wirtschaft und Gesellschaft schaffen.
Intelligent verknüpft ergeben sich aus den Daten neue Erkenntnisse, die für Unternehmen unterschiedlichster Branchen ebenso wie für Kommunen, öffentliche Verkehrsbetriebe und die Gesellschaft insgesamt relevant sind. Die Erkenntnisse aus datenbasierten Analysen sind beispielsweise für Städte interessant, die unter hohem Verkehrsaufkommen leiden. Das Potenzial von Mobilfunkdaten als eine verlässliche Datenquelle für die Verkehrsplanung untersuchen wir aktuell in Stuttgart gemeinsam mit dem Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO. Zudem beteiligen wir uns an einem Pilotprojekt in Nürnberg, bei dem auf Basis von Mobilfunkdaten die Verkehrsströme und darüber die Luftverschmutzung analysiert werden.

Der Weg der Daten: vom Handy über die Anonymisierung zur Verkehrsmessung

Smarte Datenanalyse für den Handel

Präzise Daten sind nicht nur für die Verkehrsplanung hilfreich, sondern auch für den stationären Handel von großem Interesse. Online-Händler verstehen bereits sehr präzise, wie viele Kunden ihre Website besuchen, wie lange sie dort jeweils bei welchem Angebot verweilen und welche Art der Produktplatzierung für welche Zielgruppe vielversprechend ist. Auf der Grundlage dieser Kundeninformationen passen bereits viele Online-Händler ihre Angebote schnell und flexibel an die Kunden an. Wir arbeiten bei Telefónica NEXT daran, dass diese Möglichkeiten auch für den Offline-Handel, also den stationären Handel, funktionieren. Dies kommt nicht zuletzt auch den Innenstädten zugute. Unsere smarte Datenanalyse trägt dazu bei, dass der stationäre Handel Informationen über seine Zielgruppe erhält, die ihm bisher so nicht zur Verfügung standen. Wir analysieren beispielsweise mithilfe von Mobilfunkdaten Kundenströme im Umfeld einer Filiale.
Auf Basis von Daten kann der Händler seine Kunden besser verstehen und smarter mit ihnen interagieren – und nicht zuletzt seine eigenen Prozesse effizienter gestalten. Die Kunden wiederum profitieren von einem digitalen Einkaufserlebnis. Das stärkt die Position des Einzelhandels gegenüber dem Online-Handel. Händler, die online und offline Kanäle bedienen, erhalten wertvolle Informationen, wie sie diese noch besser vernetzen.

Bewegungen rund um den Store

Bislang waren Kaufhäuser und Einzelhändler auf Schätzungen angewiesen, um zu wissen, wie viele Kunden tatsächlich ihre Schaufenster passieren. Durch die smarte Datenanalyse können die Bewegungsströme vor Geschäften statistisch exakter berechnet werden, denn die Stichprobe aus anonymisierten Daten ist größer und aktueller – und nicht verzerrt durch Großereignisse oder z. B. das Wetter. Durch zusätzliche Analy­severfahren ermitteln wir beispielsweise auch, wie viele Menschen derselben Al­tersgruppe und desselben Geschlechts sich in der Nähe des Stores aufgehalten haben. Zudem können wir auf Basis der anonymisierten Daten beispielsweise typische Routen oder durchschnittliche Verweildauern bestimmter Zielgruppen berechnen. Über Roaming-Informationen ist auch die Identifikation der Zielgruppe der Touristen möglich.

Der Einzelhandel kann anhand dieser vielfältigen Informationen zum Beispiel Standorte viel besser bewerten, Öffnungszeiten optimieren, Werbung in Schaufenstern passend gestalten oder das Sortiment an die Zielgruppe anpassen. Auch Telefónica Deutschland stellte nach dem Zusammenschluss mit E-Plus mithilfe der Datenanalyse das eigene Filialnetz der Shops auf den Prüfstand. Von diesen relevanten Erfahrungen profitiert Telefónica NEXT.

Telefónica NEXT

Telefónica Deutschland hat die strategischen Wachstumsfelder „Advanced Data Analytics“ und „Internet of Things“ in einer eigenen Gesellschaft gebündelt, der Telefónica Germany NEXT GmbH mit Sitz in Berlin. Die Gesellschaft bietet anderen Unternehmen Lösungen an, damit diese die Wachstumschancen der Digitalisierung besser nutzen können. Mit „Advan­ced Data Analytics“ richtet Telefónica NEXT den Blick auf den gesellschaftlichen und wirtschaftlichen Nutzen, der sich aus der Analyse großer Datenmengen ziehen lässt. Zudem arbeitet das Unternehmen an Lösungen für das Internet der Dinge und wird mit der neuen Software-Plattform geeny.io Unternehmen dabei unterstützen, vernetzte Lösungen auch für Endverbraucher anzubieten.

In einem nächsten Schritt werden wir auch Analysen für das Innere der Stores ermöglichen. Damit erfahren Händler, wie viele und welche Kunden tatsächlich den Store betreten haben und wie lange und wo sie sich darin aufgehalten haben. So können Händler die Kundenströme viel besser verstehen und z. B. die Gestaltung ihrer Flächen optimieren oder auch den Erfolg einzelner Filialen miteinander vergleichen.
Durch die Verknüpfung von beidem – Analysen außerhalb des Stores und im Store – kann der Händler die sogenannte Customer-Journey nahezu vollständig abbilden und seine Verkaufskanäle optimieren.

Das digitale Erlebnis im vernetzten Store

Kunden erhalten datenbasiert passende Angebote von Partnern (Quelle: Quelle Telefónica Deutschland)

Wir unterstützen die Händler auch dabei, im Inneren ihrer Geschäfte digitale Technologien gewinnbringend einzusetzen – und das für beide: für Händler und Kunde. Mithilfe unserer Datenanalyse kann der Händler sein Geschäft smarter an die Bedürfnisse seiner Zielgruppe anpassen und mit seinen weiteren Verkaufskanälen vernetzen. Sei es durch stimmige Musik, passende Displays oder wertvolle digitale Zusatzinformationen. All das bietet den Kunden ein mehrere Sinne ansprechendes Erlebnis, das der Online-Handel alleine nicht ermöglicht. Dabei wird der Kontakt zu den echten Mitarbeitern nicht weniger, sondern effizienter und besser – und damit auch wirtschaftlicher für den Händler.
Für die Auswahl passender Produkte bauen wir auf einem umfangreichen internationalen Portfolio unseres spanischen Mutterkonzerns Telefónica S. A. auf. Ein Beispiel sind digitale Plakate. Sogenannte Digital Signage können mit verschiedenen relevanten und anonymisierten Daten, zum Beispiel Alter und Geschlecht der vorhandenen Kunden und Wetterdaten, verknüpft werden. So kann der Händler in Echtzeit jeweils passende Informationen oder Angebote auf den Displays präsentieren. Zusätzliche Interaktivität bieten smarte Umkleidekabinen. Der Kunde hat die Möglichkeit, Informationen über Größen- und Farbvarianten der Produkte auf einem Tablet abzurufen. Zudem kann er sich zu passenden Accessoires inspirieren und sich gewünschte Varianten von den Mitarbeitern bringen lassen.

Ein weiteres Beispiel für mehr Interaktion und gleichzeitige Effizienz sind digitale Preisschilder. Sie lassen sich vom Kunden über einen Touch-Screen bedienen und bieten ihm Zusatzinformationen zum Produkt an. Durch die zentrale Steuerung der Preisschilder kann der Händler die Fläche schneller umgestalten.

Kunden außerhalb des Stores gezielt ansprechen

Händler können von der Digitalisierung auch außerhalb ihrer Stores profitieren und mit ihrer Zielgruppe kommunizieren. Hierbei handelt es sich um spezifische Werbeangebote, die Kunden auf unterschiedlichen Wegen erreichen.

Datenschutz ist Grundvoraussetzung

Der Datenschatz ist ohne Datenschutz wertlos. Telefónica Deutschland nimmt den Datenschutz sehr ernst, denn er ist die Grundlage für die Akzeptanz von datenbasierten Geschäftsmodellen in der Gesellschaft. Deshalb ist das Herzstück der Datenanalyse ein vom TÜV zertifiziertes und von der Bundesbeauftragten für den Datenschutz und die Informationsfreiheit begleitetes Verfahren. Es sorgt dafür, dass Kundendaten über ein dreistufiges Verfahren komplett anonymisiert werden und sich auch nicht nachträglich bestimmten Personen zuordnen lassen. Trotz dieser vollständigen Anonymisierung hat jeder Kunde die freie Wahl und kann der Nutzung seiner anonymisierten Daten jederzeit widersprechen. So behält er stets die Hoheit über seine Daten.
https://analytics.telefonica.de/

Einerseits erlaubt die Plattform Axonix die datenbasierte, gezielte Ausspielung von Werbebannern beim mobilen Surfen. Andererseits können Händler mithilfe des Service O2 More Local ihre Zielgruppe per Nachricht auf dem Mobiltelefon erreichen. Mit der kostenlosen Buchung von O2 More Local erlaubt der Kunde, dass O2 seine Daten, wie Aufenthaltsort, Wetter, Tageszeit, Alter und Geschlecht, verwenden darf, um ihm Angebote von Marken per Mobile Messaging zu senden. Da die Angebote auf den individuellen Daten basieren, treffen sie mit höherer Wahrscheinlichkeit auf die Interessen des Kunden. Ihre Daten sind dabei vollständig geschützt.

Zur richtigen Zeit am richtigen Ort

Vor dem Store, im Store und in unmittelbarem Kontakt mit dem Produkt: Die Digitalisierung bietet Kunden und Händlern völlig neue Möglichkeiten der Interaktion. Wir bei Telefónica NEXT werden die Möglichkeiten der smarten Datenanalyse und der Vernetzung von Dingen weiter vorantreiben – für Angebote zur richtigen Zeit, am richtigen Ort für den richtigen Kunden.

Kernaussagen

Intelligent verknüpft ergeben sich aus den anonymisierten Daten neue Erkenntnisse, die für Unternehmen unterschiedlichster Branchen ebenso wie für Kommunen, öffentliche Verkehrsbetriebe und die Gesellschaft insgesamt relevant sind.
Mit Blick auf den Handel trägt die smarte Datenanalyse dazu bei, dass Händler Informationen über ihre Zielgruppe erhalten, die ihnen bisher so nicht zur Verfügung standen. Telefónica NEXT analysiert beispielsweise mithilfe von Mobilfunkdaten Kundenströme im Umfeld einer Filiale.
Auf Basis der Daten kann der Händler seine Kunden besser verstehen, smarter mit ihnen interagieren und der Kunde profitiert von einem digitalen Einkaufserlebnis. So kann der Einzelhandel seine Position gegenüber dem Online-Handel stärken bzw. seine Omnichannel besser miteinander vernetzen.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Jens Lappoehn

Künstliche Intelligenz

Selbstlernende Maschinen nutzen Big Data und Cloud-Computing, um laufend die abhängigen Prozesse zu optimieren.

von Andreas Fuhrich

Eine eindeutige Definition des Begriffs Künstliche Intelligenz (KI) sucht man zwar vergebens, aber zumindest für den aktuellen, die Wirtschaft betreffenden Diskurs lässt er sich relativ klar skizzieren. Im Wesentlichen lässt sich er sich dabei in die Bereiche des maschinellen Lernens und des Cognitive Computings aufteilen:
Unter maschinellem Lernen versteht man die Fähigkeit eines künstlichen Systems, aus Erfahrung Wissen zu generieren. Dabei werden nicht nur Beispiele auswendig gelernt, sondern Muster und Gesetzmäßigkeiten erkannt, wodurch es in die Lage versetzt wird, auch unbekannte Daten beurteilen zu können. Kognitive Systeme gehen bei der Humanisierung der Maschine noch einen Schritt weiter. Neben der Fähigkeit des Lernens sind sie auch in der Lage, mit Ambiguitäten und Unschärfen umzugehen. Wichtige Voraussetzungen für eine KI beim „natürlichen“ Umgang mit menschlicher Sprache oder dem Deuten von Emotionen aus einer Gesichtsmimik.

Durch die Entwicklung der Informationstechnologie sind immer größere Datenmengen (Big Data) verfügbar. Diese enthalten oft implizites Wissen, das, wenn es bekannt wäre, große wirtschaftliche oder wissenschaftliche Bedeutung hätte. Unter Data-Mining versteht man die Suche nach potenziell nützlichem Wissen in großen Datenmengen – maschinelle Lernverfahren gehören zu den Schlüsseltechnologien innerhalb dieses Gebiets. Sie unterstützen den Data-Mining-Prozess vor allem beim Aufspüren neuer Muster und Gesetzmäßigkeiten. Andererseits unterstützt der Data-Mining-Prozess aber auch das maschinelle Lernen, indem dadurch neue Lerndaten zur Verfügung gestellt werden.

Zusätzlich profitiert das maschinelle Lernen von den Entwicklungen der Cloud-Technologie, denn flexible Rechenkapazitäten und Managed Services machen den Einsatz von Machine-Learning einfacher. Die großen Cloud-Anbieter wie Amazon, Google und Microsoft bieten Machine-Learning bereits als Schnittstelle (API) an. Durch Open-Source-Projekte wie Prediction.io oder TensorFlow steht zudem Technologie frei zur Verfügung, auf der man aufsetzen kann.

Nach aktuellen Prognosen von Crisp Research werden sich die Ausgaben für Infrastruktur, Software und Plattformen, Algorithmen-Design und verbundene Dienstleistungen von rund  1,96 Mrd. Euro in 2015 auf rund 15 Mrd. Euro im Jahr 2020 nahezu verzehnfachen.(1)

Einsatzmöglichkeiten für künstliche Intelligenz entstehen dabei für nahezu alle Branchen, weshalb sich CIOs und Digitalisierungsverantwortliche darauf gefasst machen sollten, dass nicht nur unternehmensintern diese Art von Skills nachgefragt werden. Die Anzahl an Machine-Learning-Spezialisten ist begrenzt und die Schnittmenge derjenigen, die auch noch Business-Verständnis mitbringen, umso kleiner. Für Unternehmen ist es daher umso wichtiger, sich rechtzeitig um Experten für den eigenen Betreib zu bemühen, z. B. durch Kooperationen mit Universitäten, um unmittelbar die Nachwuchskräfte zu binden, die auf dem freien Arbeitsmarkt kaum zur Verfügung stehen werden.

(1) „Künstliche Intelligenz und echte Profite – Machine Learning auf dem Weg in den Mainstream“, von: Carlo Velten, 2016, URL: https://www.crisp-research.com/kunstliche-intelligenz-und-echte-profite-machine-learning-auf-dem-weg-den-mainstream/ (Abgerufen: 24.November 2016).

New Work und Arbeiten 4.0

In Zeiten des Umbruchs werden die Weichen für die Zukunft gestellt.
Auch die der Arbeit.

von Christoph Berger

Die Digitalisierung verändert derzeit ganze Märkte und Branchen. Diese Transformation hat folglich auch Einfluss auf die Arbeit an sich und die Personalarbeit im Besonderen. Die Unternehmensstrukturen und Büroumgebungen verändern sich, die Grenzen zwischen Privat- und Berufsleben sind immer weniger eindeutig erkennbar. Das Zukunftsinstitut in Frankfurt hat den Megatrend „New Work“(1) ausgemacht.

Start-ups zeigen etablierten Unternehmen im Zeitalter der Digitalisierung und bei der Transformation von der Industrie- hin zur Wissensgesellschaft nicht nur, wie Geschäfts­prozesse effizienter gestaltet werden und Kunden komfortabler und schnel­ler an ihr Ziel kommen können -man denke hier zum Beispiel an die jungen Finanztech­nologieunternehmen die sogenannten FinTechs – sondern leben man­ches Mal auch vor, dass es ohne oder zumindest mit flachen Hierarchien funktio­niert. Dabei ist es wichtig, die Mitarbeiter auf dem Weg in die Zukunft mitzunehmen, ihnen Verantwortung zu geben und Eigeninitiati­ve zuzulassen.  Immer häufiger ist von agilen Strukturen die Rede. Das bedeutet, beweglich zu sein, intern und extern schnell auf sich verändernde Herausforderungen reagieren zu können. Die großen Unternehmen beginnen zu lernen und öffnen sich ihrerseits Schritt für Schritt den Neuerungen.

Welche Relevanz und welchen Einfluss das Thema Digitalisierung auf die Arbeit hat, wird auch durch das vom Bundesministerium für Arbeit und Soziales herausgegebene Weißbuch „Arbeiten 4.0“(2) deutlich. IT und Software mit Cloud-Technologie und künstlicher Intelligenz, Robotik und Sensorik einhergehend mit neuen Fertigungstechniken sowie die Vernetzung sind die drei Bereiche, die demnach mit ihrem Fortschritt und durch ihr Zusammenwirken eine neue Qualität der Digitalisierung vorantreiben. Mit der Publikation wird aber auch herausgestellt, dass eine tiefgehende Auseinandersetzung mit der Thematik in allen Teilen der Gesellschaft notwendig ist, um zum einen ihre Komplexität erfassen und bewerten zu können, zum anderen, um die Zukunft zu gestalten und Werte darüber festzulegen, wie wir in Zukunft arbeiten werden und wollen.

Denn vieles, was derzeit passiert, kann aus unterschiedlichsten Richtungen betrachtet werden. So schaffen die technischen Entwicklungen zwar viele neue Möglichkeiten – zum Beispiel neue Geschäftsmodelle mithilfe von Big Data –, die Folgen für den Menschen sind dabei aber nicht immer absehbar. Ein Beispiel: Mobile Endgeräte ermöglichen es zwar, von unterschiedlichsten Orten zu arbeiten, versprechen gleichzeitig aber auch eine ständige Erreichbarkeit. Letzteres erhöht den Druck auf die Mitarbeiter. Die Folge ist eine Zunahme psychischer Erkrankungen. Demgegenüber hat das Institut der deutschen Wirtschaft Köln (IW) in einer Studie herausgefunden, dass die Digitalisierung die Unternehmen familienfreundlicher machen kann – insofern sie richtig eingesetzt wird. (3) So arbeiten inzwischen rund 57 Prozent der Deutschen digital und mobil, jeder Fünfte nutzt mobile Endgeräte wie Smartphone oder Tablet beruflich sogar häufig. Laut den Ergebnissen sind mobil arbeitende Menschen prinzipiell eher in der Lage, Beruf und Familie miteinander zu verbinden, als dies nicht mobil arbeitende Mitarbeiter tun.

Es gilt also, eine Gratwanderung zu bewältigen und Lösungen zu finden, die für möglichst alle annehmbar sind, und so viele wie möglich mitnehmen – sowie die neuen Möglichkeiten zu nutzen.

Quellen:
(1)    Zukunftsinstitut GmbH: https://www.zukunftsinstitut.de/dossier/megatrend-new-work
(2)    Bundesministerium für Arbeit und Soziales, Abteilung Grundsatzfragen des Sozialstaats, der Arbeitswelt und der sozialen Marktwirtschaft (2016): Weißbuch Arbeiten 4.0, https://www.arbeitenviernull.de
(3)    Andrea Hammermann, Oliver Stettes (2016): Familienfreundliche Arbeitswelt im Zeichen der Digitalisierung, in: IW-Trends 4.2016, Institut der Deutschen Wirtschaft Köln.

ERP-Systeme verwandeln IoT-Daten in optimierte Prozesse

von Stefan Issing und Peter Schulz

Um die Möglichkeiten von Industrie 4.0 voll auszuschöpfen, müssen die aus Sensorendaten gewonnenen Erkenntnisse operationalisiert und in effizientere Prozesse umgesetzt werden. Das ist die zentrale Rolle von ERP-Systemen in Indus­trie-4.0-Umgebungen.

Das Internet of Things (IoT) kann Industrieunternehmen heute Millionen an Sensorendaten liefern, aus deren Analyse sich wertvolle Erkenntnisse gewinnen lassen. Diese Informationen nur zu sammeln und auszuwerten reicht aber nicht aus. Um von diesen Big Data wirklich zu profitieren, müssen die Erkenntnisse auch zu Aktionen führen, die die Geschäftsabläufe verbessern, seien es optimierte Wartungspläne, verbesserte Service-Levels, optimierte Logistik, bessere Produkte oder die Entwicklung neuer Geschäftsmodelle.

Die IoT-Daten müssen also operationalisiert werden – und das ist die zentrale Aufgabe von ERP-Systemen in Industrie-4.0-Umgebungen. Zum einen steuern sie als Herzstück der Unternehmens-IT die Kernprozesse der Indus­trieunternehmen und sind damit naturgemäß auch für deren Optimierung durch neue Erkenntnisse zuständig; zum anderen agieren ihre Anbieter teilweise schon Jahrzehnte am Markt und verfügen deshalb über ein umfassendes Know-how dafür, welche Daten ein Unternehmen genau benötigt, um durch optimierte Geschäftsprozesse für effizientere Abläufe oder höhere Qualität zu sorgen.

Industrie 4.0 entwickelt in den allermeisten Fällen das vorhandene Geschäft weiter, anstatt es grundlegend zu verändern.

ERP-Systeme in IoT-Plattformen aus der Cloud integrieren

Ein Beispiel für die Operationalisierung von IoT-Daten im ERP-System sind optimierte Wartungsprozesse. Wenn etwa Sensoren Daten über zu hohe Temperaturen eines bestimmten Teils sammeln, sollten diese nicht nur gesammelt und registriert werden, um dann manuell darauf zu reagieren; das volle Potenzial zeigt sich erst dann, wenn auf Basis dieser Daten ein Prozess angestoßen wird, der automatisch Servicepersonal mit dem Austausch des betroffenen Teils beauftragt und damit seinen Ausfall verhindert. Operationalisieren und Automatisieren – erst durch diese Kombination kann Industrie 4.0 ihre ganze Kraft entfalten und signifikante Umsatzsteigerungen bewirken.

Stefan Issing

Im ERP-System werden dazu aber nicht sämtliche Daten benötigt, die Industrie 4.0 generiert. Deshalb muss es in eine IT-Architektur eingebunden werden, die die Erfassung, Speicherung und Filterung der Daten ermöglicht. Eine sehr gute Möglichkeit dazu bietet die Integration in IoT-Plattformen in der Cloud.
Mit diesen Plattformen lassen sich die riesigen Datenmengen, die unter anderem von den Sensoren geliefert werden, empfangen, verarbeiten, filtern und an das ERP-System weiterreichen, ohne dafür selbst ein Rechenzentrum aufbauen zu müssen, das Millionen von Transaktionen stemmen kann. Im Sinne einer ganzheitlichen IT-Landschaft wird mittelfristig auch das ERP-System selbst zunehmend in die Cloud wandern; allerdings wird sich dabei hierzulande vor allem das Private-Cloud-Modell durchsetzen. In Deutschland, aber auch in Österreich und der Schweiz sind die Unternehmen – ganz im Gegensatz etwa zu den USA – sehr zurückhaltend, wenn es darum geht, geschäftskritische Daten in die öffentliche Cloud auszulagern.

Das Geschäft nicht auf den Kopf stellen, sondern Schritt für Schritt verbessern

Peter Schulz

Beim Stichwort Internet of Things kommen vielen Menschen automatisch Unternehmen mit disruptiven Geschäftsmodellen wie der Online-Fahrdienst-Vermittler Uber oder der Video-Streaming-Dienst Netflix in den Sinn, die komplette Branchen auf den Kopf gestellt haben. Industrie 4.0 entwickelt aber in den allermeisten Fällen das vorhandene Geschäft weiter, anstatt es grundlegend zu verändern. Beim Blick auf Unternehmen, die bereits erfolgreich Industrie-4.0-Anwendungen nutzen, zeigt sich, dass die allermeisten von ihnen mit einem inkrementellen Ansatz gestartet sind. Das kann zunächst auch nur die Anbindung einer einzigen Maschine sein.

Erzielt man dadurch ein bisschen mehr Umsatz, kann das die Inspiration für einen größeren Schritt sein – beispielsweise die Integra­tion mit weiteren Datenstreams wie Wettervorhersagen oder Temperaturänderungen, die es erlauben, die Leistung einer Maschine weiter zu optimieren.
So wird durch zunehmende Vernetzung Schritt für Schritt die Fabrik von morgen entstehen, in der ERP-Lösungen mithilfe Künstlicher Intelligenz und Algorithmen sich selbst planende und steuernde Systeme unterstützen. Szenarien wie das folgende sind dann an der Tagesordnung: Zahlreiche Komponenten in einem Auto sammeln kontinuierlich Daten über ihren Zustand und können auf Basis dieser Informationen mitteilen, wann sie unter Umständen ausgetauscht werden müssen, noch bevor es zu einem möglichen Ausfall kommt.

Checkliste ERP-System in Industrie-4.0-Umgebungen

Das muss ein ERP-System für Industrie 4.0 mitbringen:
– Es lässt sich durch Konfiguration statt Modifikation flexibel an die veränderten Rahmenbedingungen anpassen.
– Es kann unterschiedlichste Datentypen verarbeiten, die von Sensoren und Geräten erzeugt werden.
– Zur Kommunikation mit den Ressourcen in der Fertigung kann es über offene Plug-and-Play-Schnittstellen unterschiedliche Produktionsleitsysteme anbinden.
– Leistungsfähige Multi- und Inter-Site-Funktionalitäten sorgen für die Steuerung des erweiterten Informationsflusses über sämtliche, auch internationale Standorte hinweg.
– Zur schnellen Anbindung neuer Partner bietet es offene und leicht konfigurierbare EDI-Schnittstellen sowie spezielle B2B-Portale.
– Um sich selbst organisierende Produktionseinheiten zu ermöglichen, unterstützt es durch Methoden wie Kanban eine hohe Automatisierung.
– Zur Echtzeit-Überwachung von Industrie-4.0-Prozessen führt es Daten und Prozesse aus mehreren Quellen in einem Enterprise-Operational-Intelligence-System zusammen.

Dazu sendet die betroffene Komponente selbstständig eine Mitteilung an den Hersteller, dass Ersatz gefertigt werden muss. In der Fabrik, in der dieser Auftrag bearbeitet wird, konfigurieren sich die Maschinen selbst so, dass das passende Teil gefertigt wird, und schicken es anschließend an den richtigen Zielort. Der Termin in der Werkstatt ist dann bereits vereinbart – denn auch darum hat sich das Auto bereits selbstständig gekümmert.

Kernaussagen

  • Um von den Big Data des Internet of Things wirklich profitieren zu können, reicht es nicht, die Daten nur zu sammeln und auszuwerten. Die Erkenntnisse müssen auch zu Aktionen führen, die die Geschäftsprozesse verbessern.
  • Diese Operationalisierung der IoT-Daten ist die Aufgabe von ERP-Systemen – denn sie steuern als Herzstück der Unternehmens-IT die Kernprozesse von Industrieunternehmen und sind damit auch für deren Optimierung zuständig.
  • Dazu sollte sich das ERP an IoT-Plattformen in der Cloud anbinden lassen. Sie bieten eine sehr gute Möglichkeit, die riesigen Datenmengen zu empfangen, zu filtern und an das ERP weiterzureichen, ohne dafür ein eigenes Rechenzentrum zu benötigen.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Stefan Issing

Informationen zu Peter Schulz

Abteilung Marketing

Einfluss der Digitalisierung auf das Marketing

Silodenken sollte der Vergangenheit angehören. Alle Abteilungen müssen in der Zukunft weiter zusammenwachsen und abteilungsübergreifend miteinander agieren. Dies betrifft vor allem die IT und das Marketing, die oftmals noch nicht eng genug miteinander verzahnt sind. Dabei ist die IT der Hauptansprechpartner für das Marketing, wenn es sich um die Automatisierung von Analysen und Abläufen handelt.

Zum Beispiel kann das Marketing-Controlling auf vorhandene Marktforschungsdaten und weitere interne Datengrundlagen zurückgreifen. Diese Datengrundlagen nehmen in Umfang und Qualität mit der fortschreitenden IT-Unterstützung der Marketingprozesse zu.

Durch die Analysen der Daten aus BI, CRM, Big Data oder anderen Quellen sollen ebenso Handlungsempfehlungen für das Marketing entstehen. Insbesondere Big Data und die automatisierte Auswertbarkeit dieser bereits schon erhobenen Menge an Daten werden in der Zukunft somit eine größer werdende Rolle spielen. Durch Echtzeitanalyse und Anpassung der daraus entstehenden Empfehlung können personalisierte Marketingaktionen realisert werden.
Auswirkungen werden weiter verfolgt und analysiert, um nach und nach neue Vergleiche zu ziehen und Tendenzen erkennen zu können. Darüber hinaus wäre denkbar, dass selbstlernende Systeme eine Rolle spielen. Diese könnten selbstständig die Parameter einer alten Kampagne auf eine neue Kampagne projizieren. Besonders Datenschützer werden bei den fast schon gläsernen Verbrauchern immer stärker in Erscheinung treten, um diese zu schützen.

Im Bereich Online-Shopping wird der Einkauf über mobile Endgeräte wie Smartphones und Tablets weiter zunehmen und Anbieter müssen ihren Auftritt und ihre Angebote für Smartphones tauglich machen. Ziel sollte es sein, eine konsistente E-Business-Strategie zu verfolgen und Kunden über alle Kanäle hinweg langfristig an sich zu binden. Über neue Technologien wie z. B. das CRM, Big-Data-Analytics oder Social Analytics hat das Marketing die Möglichkeit, viele Daten über den Verbraucher zu erhalten. Denn es geht künftig vor allem darum, die Erwartungen des Kunden individuell zu erfüllen. In vielen Fällen fehlen jedoch die Expertise und Parameter, um diese sinnvoll oder effektiv zu interpretieren und zu verarbeiten. Damit ein Unternehmen von der Digitalisierung profitieren kann, muss eine passende Strategie entwickelt werden. Denn nur wenn Daten sinnvoll analysiert und genutzt werden und die IT mit dem Marketing verstärkt zusammenarbeitet, ent- und bestehen erfolgreiche Händler.

Heute stehen Unternehmen vor der Herausforderung, die häufig auch strukturell separierten Bereiche vernetzt zu steuern. Nicht zuletzt die Digitalisierung hat dazu beigetragen zu erkennen, dass Markenführung wesentlich mehr Bereiche als nur das Marketing betrifft. Wir befinden uns im Zeitalter des Kunden. Dies bedeutet: in Echtzeit zu wissen, was der Kunde will, individuelle Kundenwünsche zu erfüllen und das jederzeit über alle Kanäle hinweg. Dazu müssen nicht nur Prozesse und Reaktionszeiten beschleunigt werden, das gesamte Unternehmen muss sich digital transformieren. „Mach es dem Kunden leicht, dich zu erreichen.“ Vorhandene Daten sind in Wissen über die Kunden zu verwandeln und die Chancen der mobilen Ausrichtungen sind zu nutzen.

Multichannel heißt heute und in Zukunft die Multichannel-Perspektive auf Distributions- und Kommunikationskanäle. Die Herausforderung liegt in der zunehmenden Vernetzung aller digitalen und analogen Kanäle.

Unter den vier Instrumenten des Marketingmix (Produkt-, Preis-, Distributions- und Kommunikationspolitik) wird der marktgerichteten Unternehmenskommunikation zukünftig – neben dem Produkt – die größte Bedeutung beigemessen. Das Web 2.0 stellt viele Unternehmen vor eine neue Herausforderung. Kommunikation bedeutet nicht mehr nur das Aussenden von Informationen (unidirektionales Mitteilen) mit einer sehr eingeschränkten Perspektive auf gewünschte Reaktion (attraktiver finden, Bedürfnis entwickeln, kaufen), sondern die Kommunikation mit bidirektionalem Informationsaustausch. Hier gilt für Unternehmen, zuzuhören und zu lernen. Medien erfahren eine steigende Interaktivität durch diesen bidirektionalen Informationsaustausch. „Die Digitalisierung macht aus den Medien Dialogmedien.“ Social Communities, Internet-TV, interaktives Fernsehen, E-Magazines und viele mehr sind Kommunikationskanäle, die dank der Digitalisierung eine Dialogfunktion übernehmen. Die wichtigste Rolle wird in Zukunft der Mobile Commerce spielen. Unternehmen müssen sich darauf einstellen, smartphonefähige Plattformen zur Verfügung zu stellen. Denn der Einkauf über ein Smartphone auf einem nicht smartphoneoptimierten Webshop kann dazu führen, dass der Kauf abgebrochen wird. Die Statistik zeigt die Entwicklung der Nutzung von Smartphones oder Tablets für den mobilen Einkauf im Internet. Trotzdem haben es klassische Kaufhäuser immer schwerer und müssen sich etwas Neues einfallen lassen. So hat die Digitalisierung auch Einfluss auf Filialen in Innenstädten. Kunden können sich in der Umkleidekabine mit den anprobierten Kleidungsstücken oder mit durchtrainiertem Service-Personal fotografieren lassen und die Bilder direkt bei Facebook veröffentlichen. Auch hier steht, ähnlich wie bei der Produktpolitik, das Erlebnis mit der Marke und dem Produkt im Vordergrund.

Dies bedeutet, dass Unternehmen sich nicht nur auf einen Bereich konzentrieren sollten, sondern mehrere Kontaktpunkte bieten müssen. Die Verknüpfung zwischen analogem und digitalem Kanal bedeutet, dass Kunden zum Beispiel auf Online-Rabattaktionen zurückgreifen und damit im lokalen Ladengeschäft einkaufen gehen oder sich über das Schaufenster inspirieren lassen und online einkaufen. Die Chancen, mit digitalen Kanälen (Homepage, E-Mail, Suchmaschinen, Social Media etc.) seinen Bekanntheitsgrad zu steigern und in neue Märkte einzusteigen, sind groß, bergen aber auch Risiken. Der Einfluss der Digitalisierung auf den Bereich Marketing hat dazu geführt, dass Kunden durch verschiedene Technologie wie z. B. Social Media ein Sprachrohr erhalten und so einen Einfluss auf Unternehmen erlangen. Unternehmen haben mit Big-Data-Analysen und Social Analytics die Möglichkeit, auf Kundenwünsche schnell und individuell zu reagieren, können aber oftmals die Vielzahl an Daten nicht miteinander richtig verknüpfen und auswerten. Durch die Digitalisierung sind Unternehmen angebots- und preistransparent. Kunden haben dadurch eine stärkere Markposition, wodurch auch unkontrollierte Kommunikationseffekte (sog. „Shit-Storms“) entstehen können. Für viele Unternehmen ist der Hauptgrund, digitale Kanäle nicht zu nutzen, der Datenschutz. Unternehmen müssen besonders vertrauensvoll mit den Daten der Kunden umgehen, sodass zwar Erkenntnisse abgeleitet werden, aber kein Datenmissbrauch betrieben wird. Die digitalen Kanäle sind günstiger als die klassischen Marketingmedien, aber Kunden fühlen sich teilweise überrollt von Werbung. Kunden entwickeln und nutzen daher auch Technologien, um sich gegen diese Art des Marketing (Customer-Resistance) zu schützen. Verbraucher nutzen Pop-up-Blocker, um Werbung beim Surfen zu entgehen, oder filtern E-Mail-Newsletter über die Junk-Mail-Funktion. Bei einem Spielfilm geht der Kunde über zum zeitversetzten Fernsehen und überspringt so die Werbung. Einzelhändler zum Beispiel bieten eine App mit aktuellen Angeboten oder eine Einkaufsliste über das eigene Smartphone, um die Positionierung als sympathischer Discounter zu stützen. Die Erwartungshaltung des Kunden an eine Marke ist sowohl online als auch offline gleich. Ein Unternehmen sollte daher nicht nur digitale Kanäle nutzen, denn nicht alle Kunden sind online erreichbar.

Quelle und Textlizenz:
https://winfwiki.wi-fom.de/index.php/Einfluss_der_Digitalisierung_auf_das_Marketing; „Einfluss der Digitalisierung auf das Marketing“; Andre Kreutzer, Paulo Afonso, Björn Brade; FOM Hamburg

Lizenzbestimmungen: https://www.gnu.org/licenses/fdl-1.2

Abteilung Personalwesen

Einfluss der Digitalisierung auf das Personalwesen

Mit Einzug der Digitalisierung in die Arbeitswelt und damit auch in den Bereich des Personalwesens entwickeln sich neue Möglichkeiten der Organisation von Personalarbeit, neue Herausforderungen an Mitarbeiter und neue Risiken. Bereits 2011 hat ein Großteil der Großunternehmen mit mehr als 10 000 Mitarbeitern sein Personalwesen auf das Businesspartner-Modell bestehend aus Shared-Service-Center, Center of Expertise und Businesspartner umstrukturiert  und damit wichtige Voraussetzungen geschaffen, um als eine wertbeitragende Einheit im Unternehmen wahrgenommen zu werden.
Dennoch kann auch 2016 noch nicht von einem flächendeckenden Erfolg von HR 4.0 gesprochen werden. Wichtig ist, dass im Zuge der Umstellung auf das Businesspartner-Modell auch konsequent Prozesse standardisiert wie auch automatisiert werden müssen.

Bereits durch diese Maßnahmen lassen sich noch Effizienzpotenziale freilegen. Dies verlangt allerdings nach Mitarbeitern mit neuen Kompetenzen und Kenntnissen aus den Bereichen IT und Datenanalyse. Dazu wird eine höhere Lernmotivation erforderlich sein als bisher. Führungskräfte müssen dazu als Change-Leader qualifiziert werden und den Wandel zu HR 4.0 steuern. HR-Personal der Zukunft wird aufgrund der großen Masse an personenbezogenen Daten, die gesammelt werden, zunehmend die Balance zwischen Daten- und Mitarbeiterschutz finden müssen, Datensicherheit und Datenschutz werden daher eine wichtige Rolle im digitalisierten Personalwesen einnehmen.

Idealerweise wird sich der HR-Bereich zum strategischen Partner der Geschäftsführung entwickeln. Dabei hilft HRM zukünftig durch neue Recruitingmaßnahmen und Analysen sowie durch Employer-Branding, die bereits jetzt knappen Fachkräfte an sich und das Unternehmen binden zu können.
Vorhandenes Fachpersonal wird durch neu eingeführte Lernmethoden und Motivationsprogramme weiterentwickelt und ist in der Lage, durch Performancemanagement mittels Big Data Prozesse optimal zu steuern. HR 4.0 ist kein Verwalter von Mitarbeitern mehr, sondern sieht sich als proaktiver Dienstleister im Unternehmen.

In der heutigen Zeit greift die Digitalisierung immer weiter in die Arbeitswelt und in die damit vorhandenen Prozesse eines Unternehmens ein. Es existiert kaum ein Prozess in der Personalabteilung, der nicht unter dem Einfluss der Digitalisierung steht.
Im Folgenden werden Personalprozesse und Instrumente aufgezeigt, die zum Teil nur durch den technologischen Wandel möglich sind. Durch die elektronische Abbildung von Prozessen innerhalb der Personalabteilung werden Abläufe vereinfacht und optimiert. Quantitative Daten gewinnen neben qualitativen Daten immer mehr Einfluss und verbessern so die Entscheidungsfindung für die Zukunft. Die momentane Situation zeigt, dass viele deutsche Firmen sich neu aufstellen sollten, um dem kommenden Wandel gerecht zu werden.

Neue Kompetenzanforderungen

Megatrends wie die Digitalisierung oder der demografische Wandel stellen die jetzige Position des Personalwesens in Unternehmen mit Blick auf die Wahrnehmung seiner Funktionen und seines Wertbeitrages vor große Herausforderungen. Technologietreiber der Märkte sorgen für neue Geschäftsmodelle, Unternehmensstrukturen und Arbeitsumfelder für Arbeitnehmer, die Verknappung von lokalen Fachkräften und Spezialisten sorgt zusätzlich für Veränderungen in der strategischen Personalplanung. Um diesen Herausforderungen Rechnung zu tragen, werden völlig neue Kompetenzen an Mitarbeiter des Personalwesens gestellt.

Mit Einführung der Businesspartner-Rolle für das HRM gehen neue Erwartungen an die Personaler einher, gleichzeitig erfordert dies auch die Bewältigung neuer Kompetenzfelder. Die Kunden erwarten von ihrem Businesspartner vor allem eine direkte Unterstützung bei strategischen und geschäftsbezogenen Personalthemen, die nicht im Shared-Service-Center oder Center of Expertise abgebildet werden können. Die zukünftigen Kompetenzfelder können in die Kategorien Recruitment, Learning & Development, Performancemanagement und Employer-Branding unterteilt werden.

Recruitment & Employer-Branding

Der „War for Talents“ hat bereits begonnen und wird durch den Megatrend „demografischer Wandel“ auch bestehen bleiben. Unternehmen, die in Zukunft die fähigsten Fachkräfte zu den günstigsten Konditionen in kürzester Zeit für sich gewinnen können, werden sich so einen entscheidenden Wettbewerbsvorteil sichern können, der nur schwer wieder einzuholen sein wird. Recruiter werden hier in der Lage sein müssen, mittels analytischer Verfahren dynamisch wechselnde Bedarfssituationen vorausschauend zu erkennen und mit neuen innovativen Recruitingverfahren Bewerber für das Unternehmen zu gewinnen.

Learning & Development

Mithilfe von neuen Lerntechniken, Wissensdatenbanken und Anreizen zum spielerischen Lernen wird es wichtig sein, Mitarbeiter zu motivieren, neue Aufgaben im Unternehmen wahrzunehmen und somit auch einen Wettbewerbsbeitrag zu leisten. Die Methoden der Wissensvermittlung in der beruflichen Aus- und Weiterbildung ändern sich. Lernziele werden zukünftig als Matrix organisiert, d. h. in „Fast Verticals“, also Fachschulungen mit einer Dauer von drei bis vier Tagen, und „Continuous Horizontals“, längerfristig angelegten Lerneinheiten, die kompetenzbasiertes Lernen ermöglichen.

Performancemanagement

Heutige Personalfunktionen generieren eine große Menge an Daten, welche zukünftig analytisch ausgewertet werden müssen, um strategische Schlussfolgerungen und Problemlösungen anbieten zu können. Dazu benötigt es Fachkräfte, die entsprechende Plattformen konzipieren, betreiben und anfallende Daten auswerten können.

Weiterführende Beiträge aus TREND REPORT zum Thema

Serious Games lösen wenig abwechslungsreiche E-Learning-Angebote ab. Die neuen Zielgruppen, die „Digital Natives“, erwarten mehr von den Lerninhalten, berichten Falk Hegewald und Christian Wachter. https://trendreport.de/neuer-trend-game-based-learning/

 

In einer globalisierten Welt sind Fremdsprachenkenntnisse für den Geschäftserfolg unabdingbar. Blended Learning hilft, schnell und individuell eine Sprache, zugeschnitten auf das Business, zu lernen, weiß Armin Hopp.
https://trendreport.de/mehrsprachig-zum-erfolg/

 

 

Digitale Trends im Personalwesen

  1. Social Media
    Der Begriff Social Media beschreibt allgemein die Möglichkeit, im Internet Meinungen, Erfahrungen und Informationen auszutauschen. Für Unternehmen im Speziellen stellt das einen weiteren Kanal im E-Recruitment dar, über welchen diese sich selbst repräsentieren, vakante Stellen ausschreiben und aktiv potenzielle Mitarbeiter suchen können.
  2. Cloud-Dienstleistungen – „Software as a Service“ (SaaS)
    Cloudangebote wie „Software as a Service“ (SaaS) sind als wichtiger Trend bei den Unternehmen angekommen. Auch hier ist festzustellen, dass vorrangig einfach standardisierbare Prozesse übergeben werden. Strategisch wichtige Funktionen oder Prozesse, bei denen es zur Speicherung von Mitarbeiter- oder Bewerberdaten kommt, verbleiben dagegen weiterhin im Unternehmen.
    Laut einer Studie nutzen nur 17 Prozent der Befragten Clouddienste, die zukünftige Bereitschaft wird bei mehr als der Hälfte der Unternehmen mit „weniger hoch“ bewertet. Gründe für die noch verhaltene Nachfrage an Online-Lösungen für das Human-Resource-Management finden sich auch hier wieder begründet in den Bedenken beim Datenschutz. Dazu wird bei knapp der Hälfte der Befragten eine zu hohe Abhängigkeit und bei einem Drittel der Unternehmen eine zu geringe Flexibilität erwartet. Auch bei der Wahl des Standortes des Cloudanbieters spielt der Datenschutz eine prägende Rolle, über die Hälfte der Unternehmen wünschen sich einen Standort in Deutschland, nur 18 Prozent ist der Standort nebensächlich oder sollte mindestens in Europa liegen.
    Clouddienste bzw. „Software as a Service“ gelten bei Unternehmen durchaus als wichtige IT-Trends im Human-Resource-Management. Jedoch müssen Softwarehersteller wie auch Betreiber der Plattformen, IT-Infrastrukturen und Rechenzentren gemeinsam noch Aufklärungsarbeit leisten, um für eine von Vertrauen geprägte Geschäftsbeziehung zu werben. Noch bestehende Sicherheitsbedenken bei Unternehmen können so ausgeräumt werden und den Weg freimachen für eine breitere Akzeptanz der Dienste.
  3. Big Data
    Durch den Einsatz von Big Data ist es möglich, die Zuordnung eines Beschäftigten zu einer Stelle optimal zu gestalten. Die Auswertung der Daten von Beschäftigten wie z. B. Weiterbildung, Interessen, Fähigkeiten mit internen und externen Daten können eine Unter- und Überforderung vermeiden. Das Vereinen der Unternehmensziele bzw. des Anforderungsprofils mit den persönlichen Zielen der Beschäftigten stellt für die Personalabteilung eine Herausforderung dar. Diese Hürde könnte mithilfe von Big Data überwunden werden.
    Ein Beispiel: Eine mittelständische Bäckereifilialkette in Norddeutschland, die mit täglichen hohen Retouren der Backwaren aus den einzelnen Filialen zurechtkommen musste. Ein Dienstleister wertete die Wetterdaten aus, verknüpfte dies mit dem Kaufverhalten von den Kunden. Die Flohmärkte, Sommerfeste oder Baustellen in der Nähe der jeweiligen Filialen wurden mit in die Analyse einbezogen. Dadurch war  das Verringern der Retouren und eine treffsicherere Einsatzplanung des Personals möglich. Im Bereich Personalwesen werden neue Berufsfelder entstehen, die Unternehmen und die Arbeitswelt werden sich dadurch wandeln. Ein Verzicht auf Big Data im Personalwesen ist kaum denkbar. Es ist nur die Frage, wann, wie und in welchem Umfang Big Data im Personalwesen eingesetzt wird und das wird eine kontinuierlich zu stellende Frage sein.
  4. Unternehmenswebseite
    Die Unternehmenswebseite zählt heutzutage zum Standard eines jeden mittelständischen Unternehmens. Wurde früher noch durch das Web 1.0 die Unternehmensseite als einseitiger Informationskanal nach außen verwendet, so kann man heute die Homepage nutzen, um sich nicht nur zu präsentieren, sondern auch den Rückkanal verwenden, um z. B. neue Mitarbeiter für sich zu gewinnen.
  5. Online-Jobbörsen
    Online-Jobbörsen stellen neben der Unternehmenswebseite einen weiteren wichtigen Kanal zur Findung neuer Mitarbeiter im E-Recruitment dar. Im Jahre 1995 ging die erste Online-Jobbörse in Deutschland an den Markt. Damals als „Jobs & Adverts“ von Dr. Roland Metzger gegründet, läuft sie seither unter dem Namen Jobpilot und gehört seit 2004 zur Monster Worldwide Deutschland GmbH, bekannt für ihr Portal monster.de. Mittlerweile gibt es in Deutschland über 1 000 Jobportale mit mehreren Millionen vakanten Stellen.
  6. Mobile Recruiting
    Ein ebenfalls immer wichtiger werdender Punkt in der Personalbeschaffung ist das Thema Mobile Recruiting. Unter dem Begriff versteht sich das Erreichen potenzieller Bewerber über mobile Endgeräte wie z. B. Smartphones oder Tablets.
  7. Talent-Relationship-Management
    Der übliche Ablauf zum Besetzen vakanter Stellen ist, dass die Personalabteilung, sobald eine Stelle zu besetzen ist, eine Anzeige schaltet und auf den Eingang von Bewerbungen wartet. Dieser Vorgang ist reaktiv und eher passiv. Talent-Relationship-Management, kurz TRM, beschreibt dagegen einen Bereich im Personalwesen, bei welchem gegenüber anderen Rekrutierungsmaßnahmen der Fokus auf dem Finden und Halten von potenziellen neuen Mitarbeitern liegt, bevor eine vakante Stelle verfügbar ist.
  8. Digitale Bewerberauswahl
    Telefoninterviews sind ein bereits verbreitetes Mittel zur Vorauswahl neuer Mitarbeiter für eine zu besetzende Stelle. Daneben ist ein Anstieg digitaler Einstellungsinterviews und der Einsatz von Online-Assessment-Centern zu verzeichnen. Studien des Online-Karriereportals Staufenbiel ermitteln jährlich beliebte Methoden der Bewerbungswege.
    Videotelefonie und Online-Assessment-Center werden erst seit 2014 in der Studie berücksichtigt, was zeigt, dass dies ein recht neuer, nicht zu missachtender Trend ist. In Asien und Amerika ist diese Form der Vorstellungsgespräche bereits verbreitet und anerkannt, wohingegen Deutschland erst in den Anfängen der Umsetzung ist. Im Jahr 2016 liegt der Anteil der Assessment-Center bei 13 % und der Skype bzw. Videointerviews bei 16 %.
  9. Employee-Self-Service
    Hinter dem Begriff Employee-Self-Service stehen administrative Tätigkeiten, auf die im späteren Verlauf genauer eingegangen wird. Employee-Self-Service ist ein Teil eines Mitarbeiterportals. Unter dem Begriff „Portal“ wird verstanden, dass es sich um einen IT-Marktplatz im Internet oder Intranet handelt. Ziele solcher Mitarbeiterportale sind, die breite Masse an Informationen zu bündeln und relevante Daten für Mitarbeiter bereitzustellen. Aber auch personenbezogene Daten werden dort hinterlegt, wie z. B. die Lohnabrechnungsdaten.
  10. Digitale Personalakte
    Unter einer digitalen Personalakte ist eine personifizierte digitale Datei zu verstehen, die die analoge Papier-Personalakte ersetzt. Dabei ist eine digitale Personalakte Teil eines Dokumenten-Management-Systems, so kann die Personalakte direkt in Arbeitsabläufe integriert werden.
  11. Automatisierte Zeugnisgeneratoren
    2015 wurden durchschnittlich drei Viertel der Zeugnisse mit Textprogramm manuell erstellt, nur 15 % nutzten spezielle Software laut einer Studie von Haufe in Zusammenarbeit mit der RIM Marktforschung GmbH. Danach können 40 % der befragten Unternehmen, die auf digitalisierte HR-Prozesse bei der Zeugniserstellung zurückgreifen, nach unter einer Stunde dieses aushändigen, nur 9 % der Unternehmen mit normaler Textverarbeitung können hier mithalten.
  12. Datenschutz
    In Unternehmen werden im Rahmen der Personalarbeit persönliche Daten von Mitarbeitern erhoben, verarbeitet und gespeichert. Durch die zunehmende Vermengung von Arbeits- und Privatleben, z. B. die private Nutzung von E-Mail und Internetzugang, stellt die praktische Einhaltung von gesetzlichen Regelungen zum Datenschutz eine Herausforderung für die Unternehmen dar. Aus Arbeitgebersicht ergeben sich hinsichtlich eigener Kontrollinteressen und nötiger Datenerhebung sowie angesichts des Rechts auf informelle Selbstbestimmung des Arbeitnehmers immer wieder Konfliktsituationen, die es durch klare Regeln und kommunizierte Grenzen zu vermeiden gilt.

Zusätzlich erschweren vielfältige Rechtsgrundlagen zum Arbeitnehmerdatenschutz die regelkonforme Umsetzung. Diese finden sich im Grundgesetz, im BSDG, Telekommunikationsgesetz, Betriebsverfassungsgesetz, im Arbeitssicherheitsgesetz und der EU-Richtlinie zum Arbeiternehmerschutz.
Der Datenschutz im Arbeitsverhältnis ergibt sich maßgeblich aus dem Bundesdatenschutzgesetz (BDSG). Die zentrale Vorschrift ist der § 32 BDSG. Zulässig ist die Erhebung, Verarbeitung und Nutzung von personenbezogenen Daten nur, soweit es das Bundesdatenschutzgesetz bzw. eine andere Rechtsvorschrift zulässt oder die betroffene Person eingewilligt hat. Die Einwilligung des Betroffenen muss in jeder Phase des Umgangs mit seinen personenbezogenen Daten vorliegen, also bei Erhebung, Verarbeitung und Nutzung der Daten. Des Weiteren ist der Betroffene der Datenerhebung über den persönlichen Datenbestand, den Zweck der Verarbeitung und die Zugriffsberechtigungen zu informieren. Dieser hat das Recht auf Auskunft, Sperrung und Löschung seiner Daten, welches im Rahmen des Transparenzgebotes und des Betroffenenrechts zu wahren ist.

Der Umgang, also die Erhebung, Verarbeitung und Nutzung von personenbezogenen Daten, muss für den Arbeitgeber möglich sein, um seine berechtigten Interessen wahren zu können. Hierzu zählen regelmäßig Daten zum Führen einer Personalakte, zur Arbeitszeiterfassung, zu Zugangs- und Leistungskontrollen sowie Daten zur automatisierten Überweisung von Gehaltszahlungen. Grundsätzlich gilt bereits bei der Planung von automatisierten Prozessen zur Verarbeitung von Personaldaten der Grundsatz der Datenvermeidung und Datensparsamkeit. Nach den Datenschutzgesetzen dürfen personenbezogene Daten nur so lange aufbewahrt werden, wie ihre Kenntnis für den Arbeitgeber zur Erfüllung seiner berechtigten Interessen erforderlich ist.

Die Inhalte sind zum Teil aus https://winfwiki.wi-fom.de/index.php/Einfluss_der_Digitalisierung_auf_das_Personalwesen übernommen worden; Lizenzbestimmungen: https://www.gnu.org/licenses/fdl-1.2

 

Quelle: Hochschule für Oekonomie & Management, Düsseldorf, Studiengang Bachelor Wirtschaftsinformatik; Autoren: René Seiffert, Dario Lohr, Béla Varga, Christian Hoffmann; betreuender Professor: Prof. Dr. Uwe Kern; Typ: Fallstudienarbeit.

Cloud Computing

Die Cloud ist die Schnittstelle der „digitalen Transformation“. Sie ist nicht nur zentraler Speicher, sondern Infrastruktur. Erfolgreiche Unternehmen nutzen intelligente Lösungen um sich selbst zu beschleunigen.

Die beinahe inflationäre Nutzung des Begriffs „Cloud Computing“ im Zusammenhang mit der Digitalisierung hat Berechtigung. Egal ob Außendienst, Standortvernetzung, Digitalisierung der Produktion, Mobilität, Big Data…
All diese Entwicklungen sind ohne die „Datenwolke“ als Schlüsseltechnologie nicht realisierbar.
Daher widmen wir im HANDBUCH DIGITALISIERUNG der Cloud ein eigenständiges Kapitel.

Der neue Privacy-Shield-Act zwischen den USA und Europa soll eine neue Basis für Datensicherheit und damit Vertrauen schaffen. Experten sehen das Werk mit gemischten Gefühlen. In der Praxis ergeben sich für ver-schiedene Technologien sinnvolle Anwendungen eben nur im Zusammenspiel mit der Cloud. Genau das – sinnvolle Nutzung und relevante Sicherheit – wollen wir in Praxisbeispielen, Gastbeiträgen und Expertenstatements an die Leser transportieren.

Buchkapitel / Inhalte

Mobilität
Ob Mitarbeiter- oder Standortvernetzung: ohne Cloud kein Datenaustausch

Industrie 4.0
Die Cloud als Schnittstelle im IoT

Privacy-Shield-Act
Analyse des neuen Abkommens

Big Data
Nur durch die Rechenleistung aus der Wolke können auch kleine Unternehmen von den großen Trends profitieren

Security follows function?
Sind die Bedenken weniger geworden?

Hier können Sie das vollständige Themenexposé herunterladen

Bildquelle / Lizenz:

Big Data & Business Intelligence

Produktion intelligenter machen, zielgenauere Kundenansprache ermöglichen oder vor finanziellen Risiken warnen: in Kombination werden Big Data und BI zu Smart Services.

Ein gutes Drittel der Unternehmen in Deutschland nutzt bereits Big Data und Business Intelligence erfolgreich. Ein knappes Viertel verfolgt Pläne zum Einsatz, weitere 18 Prozent diskutieren zumindest darüber. Dies ist das Ergebnis einer repräsentativen Umfrage von Bitkom Research und KPMG. Dabei verrät die gleiche Studie, dass Big-Data-Projekte noch zu selten von Erfolg gekrönt sind.
Im HANDBUCH DIGITALISIERUNG widmen wir uns den Erfolgsfaktoren für Big Data und Business Intelligence: eine ausreichend große Datenbasis, die unterschied-lichste Quellen kombiniert und von Fehlern bereinigt ist; die richtige Organisation auf COO- oder CDO-Level; und die „richtigen Fragen an die Daten“. Auch hierbei muss vom Kunden aus gedacht werden, damit das gesamte Unternehmen profitiert. BI und die Geschwindigkeit von Big Data werden so die Entscheidungen von morgen treffsicherer und schneller machen.

Buchkapitel / Inhalte

Smart Services
Daten analysieren, fundierte Entscheidungen treffen und kluge Verknüpfungen legen.

Wo ist Big Data sinnvoll?
Relevante Antworten gibt es nur, wenn die richtigen Fragen gestellt werden.

Datenqualität und Governance
Zentral für den Erfolg von Big Data ist die Datenqualität. Der Aufwand lohnt.

Data-driven Company
Wissensvorsprung für mehr Effizienz und Wertschöpfung. Big Data und Business Intelligence sind Querschnittsthemen.

Hier können Sie das vollständige Themenexposé herunterladen

Bildquelle / Lizenz:

Chess by Agianda, on Flickr
Chess“ (CC BY 2.0) by  Agianda