Beiträge

Digitaler Arbeitsplatz

An Team-Collaboration führt kein Weg vorbei

von Dr. Bernd Wagner und Lutz Herrmann

Der Digital Workplace rückt Nutzer und deren Anforderungen in den Mittelpunkt. Einfacher Zugriff auf Daten, Applikationen und Dienste bildet die Basis für bestmögliche Kollaboration und neue, innovative Arbeitskonzepte. Damit realisiert der digitale Arbeitsplatz mobile Arbeitswelten, bei denen Teams über die ganze Welt verteilt sein und sich in virtuellen Konferenzräumen treffen und eng austauschen können.

Das ist nicht nur Zukunftsmusik, sondern ein Thema, mit dem sich viele Unternehmen konkret beschäftigen. Dies bestätigt eine von dem Digitalisierungsspezialisten Atos in Auftrag gegebene Umfrage von CIO WaterCooler unter 500 CIOs und CTOs: 73 Prozent gaben an, in den nächsten fünf Jahren Collaboration-Tools einführen zu wollen, 58 Prozent wollen künftig auf Lösungen für virtuelle Meetings setzen.

Collaboration-Plattformen: Kommunikation mit Überblick

Moderne digitale Geschäftsmodelle erfordern erweiterte Funktionalitäten. Telefonie, Messaging und Dateiaustausch müssen sowohl sicher als auch flexibel, effizient und geräteunabhängig sein – kurz: die Produktivität fördern, statt einzuschränken. Um dies zu erreichen, bedarf es der Vereinigung aller für die Kommunikation relevanten Funktionen in einer Anwendung, einer so genannten Collaboration-Plattform, sowie einer einfachen Anbindung an bestehende Kommunikationskanäle und Datenbanken. Plattformen wie Circuit vereinen die Funktionen einzelner Kommunikationstools wie Voice, Video, Screen-Sharing, Messaging und Filesharing auf einer intuitiven Nutzeroberfläche.

Lutz Herrmann

Mit einer solchen umfassenden Plattform kann der User beispielweise von einem beliebigen Endgerät aus an Telefonkonferenzen teilnehmen oder das Endgerät während einer laufenden Unterhaltung bei Bedarf wechseln, ohne die laufende Unterhaltung zu unterbrechen.

Die Anbieter entwickeln die Plattformen kontinuierlich weiter und passen sie an die sich verändernden Anforderungen an. Dabei geht es sowohl darum, bewährte Features zu verbessern als auch neue Funktionen zu ergänzen – insbesondere um Arbeitsabläufe und die Zusammenarbeit zu unterstützen. Beispielweise erfassen erweiterte Suchfunktionen nun die gesamte Kommunikation und steigern damit ihren Nutzen.

Moderne Team Collaboration: Mobilität und Flexibilität

Eine ganzheitliche UCC-Plattform stellt Mitarbeitern auf einer einzigen Oberfläche sämtliche Informationen zur Verfügung. Medienbrüche durch den Wechsel zwischen diversen Anwendungsfenstern gibt es nicht mehr, selbst das Tischtelefon am Schreibtisch sollte nahtlos integriert werden: Geht ein Anruf ein, entscheidet der Mitarbeiter selbst, ob er das Telefonat mit dem Tischtelefon, dem Handy oder via PC führen möchte.

Die ideale Applikation ist außerdem mobil: Den Nutzern sollte eine komplette Collaboration-Suite auf Smartphone, Tablet, Laptop oder Smart Watch zur Verfügung stehen. Über die Cloud werden alle Inhalte über alle Endgeräte synchronisiert, sodass Mitarbeiter stets auf dem aktuellen Stand bleiben und effizient zusammenarbeiten können.

Die UCC-Plattform Circuit berücksichtigt die Anforderungen an den digitalen Arbeitsplatz: Die Zusammenarbeit und Kommunikation innerhalb der Teams verläuft dynamisch über Instant-Messaging-Chats, in denen sich Nachrichten und Dateien austauschen lassen. Durch die Bündelung der gesamten Kommunikation in einem Kanal bleibt deren Verlauf für alle Nutzer nachvollziehbar und da es keine Medienbrüche mehr gibt, gewinnen bekannte Features wie die Suchfunktion an Nutzen und Effizienz.

Dieser ganzheitliche Kommunikationsansatz ermöglicht eine schnelle Integration neuer Teammitglieder sowie einen raschen Wiedereinstieg nach längerer Abwesenheit, wie dem wohlverdienten Sommerurlaub.

Ein typischer Tag im Leben eines Digitalen Arbeiters

  • Ein Projektmanager kann schon morgens beim Frühstück mit dem Tablet per sicherer Verbindung Nachrichten und Termine synchronisieren und Veränderungen in laufenden Projekten abfragen, bevor er sich auf den Weg ins Büro macht.

  • Unterwegs kann er via Smartphone bereits erste Telefonate tätigen und wichtige Dokumente per File-Sharing auch anderen Teammitgliedern zur Verfügung stellen. UCC-Tools ermöglichen eine mobile Teilnahme an Telefon- und Videokonferenzen. In seinem Büro angekommen, kann der Projektmanager die auf dem Smartphone begonnene Konferenz nahtlos auf seinem Desktop-PC weiterführen, inklusive Screen-Sharing auf dem größeren Bildschirm.

  • Eine häufige Herausforderung im Büroalltag – insbesondere für mobile Mitarbeiter: Man möchte Dokumente ausdrucken, aber der Drucker im Büro ist noch nicht installiert und eingerichtet. Der virtuelle Assistent AVA (Atos Virtual Assistant) von Atos schafft via Sprachsteuerung Abhilfe: Ein autorisierter Mitarbeiter sendet über Atos OneContact den entsprechenden Zugangscode, der den Zugriff auf den Drucker freigibt. Im Shop-Portal kann der Mitarbeiter weitere nützliche Tools wie PDF-Reader herunterladen, um seine Arbeit schnell und autonom zu erledigen.

  • Das Einrichten eines Laptops und das Einbinden der Hardware in Projektprozesse und Sicherheitsinfrastrukturen sind weitere Herausforderungen digitaler Mitarbeiter. Ein standardisierter Self-Service ermöglicht ihnen, in weniger als zehn Minuten einen personalisierten Laptop aufzusetzen, der automatisch sämtliche Security-Voraussetzungen und Unternehmenspolicies erfüllt.

Im Fokus steht die User Experience

Bei der Weiterentwicklung von Plattform-Features steht die „User Experience“ im Fokus: Anwender wollen zunehmend große Dateien teilen – Daher wurde beispielsweise die UCC-Plattform Circuit um Schnittstellen zu weit verbreiteten Filesharing-Diensten wie Syncplicity und Microsoft OneDrive ergänzt.

Personalisierungsmöglichkeiten für die Nutzeroberfläche stehen ebenfalls hoch im Kurs: Um die Organisation und Suche zu erleichtern, können Circuit-Nutzer Konversationen mit Labels versehen, abgeschlossene Konversationen archivieren oder via Meeting-Reminder ohne hektische Einwahldatensuche an einem Termin teilnehmen.

Wichtig für die Anwender ist zudem, dass gängiges Zubehör wie Headsets mit der Collaboration-Lösung kompatibel ist und mobile Apps für die gängigen mobilen Endgeräte zur Verfügung stehen. Die Verquickung mit Sprachassistenten wie Siri ist ebenfalls ein geschätztes „Add-on“: So können Nutzer Siri per Sprachbefehl „beauftragen“, Anrufe zu tätigen und Nachrichten zu versenden.

Auch Circuit ist über Audiokommentare steuerbar und verfügt über umfangreiche weitere Funktionalitäten, um Mitarbeiter mit Hör- und/oder Sehbehinderung im Arbeitsalltag zu unterstützen. In der Benutzeroberfläche lassen sich Kontrast und Helligkeit für eine optimale Lesbarkeit einstellen und auch Unterstützung von Screenreader-Software ist gewährleistet.

Dr. Bernd Wagner

Auch die Zusammenarbeit mit Kunden und Partnern wird durch moderne Kommunikationstools vertieft. Beratung, Support und Service lassen sich in vielen Fällen in Chat Rooms, telefonisch mit Visualisierung (Video und/oder Screenshare) oder über Social-Media-Kanäle genauso gut durchführen, als säße man im selben Raum. „Zero Distance“ heißt das Zauberwort – viele Leistungen können aus der Entfernung (remote) in derselben Qualität erbracht werden wie aus der Nähe.

Mit einfachen Plug-and-Play-Videosystemen können so auch kleinere Unternehmen schnell und unkompliziert eine weit spannende Konferenzinfrastruktur errichten – ohne ihre bisherige Hardware kostspielig umrüsten zu müssen. Diese raumbasierten Videosysteme sind damit auch besonders für Mitarbeiter geeignet, die regelmäßig aus dem Home Office heraus arbeiten.

Die Zukunft von UCC liegt in der Cloud

Cloud-basierte Lösungen wie Circuit werden mehr und mehr zum Standard – nicht nur aufgrund der ISDN-Abschaltung: Die hohe Skalierbarkeit schafft zusätzliche Zukunfts- und Planungssicherheit – gerade für Start-ups und den Mittelstand ein wichtiger Aspekt. Solche Lösungen erfordern außerdem keinerlei zusätzliche Hardware, beschleunigen damit Rollouts und minimieren Installations- und Administrationsaufwand auf Unternehmensseite. Die Plattform ist darüber hinaus auch mit VDI-Clients von VMware und Citrix kompatibel und wird damit zum Bestandteil dieser sicheren, zentralisierten Desktop-Management-Lösungen.

Durchdachte und ganzheitlich integrierte UCC-Applikationen sind die Basis für eine erfolgreiche und zukunftsgewandte Kommunikation und Zusammenarbeit von Teams im Zeitalter der Digitalisierung.


Kontakt zu den Autoren

Dr. Bernd Wagner

Lutz Herrmann

Namensnennung-Keine Bearbeitung 3.0 Deutschland (CC BY-ND 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Investieren in Datenkompetenz

Daten werden immer mehr zur universellen Sprache – und Unternehmen, die sie beherrschen, werden erfolgreich sein.

von Bernhard Haselbauer

Der Job eines Data Scientists ist es, aus großen Datenmengen Informationen zu generieren und Handlungsempfehlungen abzuleiten, die das Unternehmen befähigen, effizienter zu arbeiten.

Doch was muss ein Data Scientist können und welche Skills sollte er mitbringen? Zum Beispiel muss er mit den unterschiedlichsten Datenbanksystemen zurechtkommen, doch meistens liegen die Daten nur unstrukturiert vor. Unternehmen arbeiten heute mit CRM-und ERP-Lösungen von Microsoft, SAP, Oracle und Co. Standardmäßig kommen in diesen Fällen relationale Datenbanken zum Einsatz. Demnach sollte ein Data Scientist SQL, „Structured Query Language“, in allen Abwandlungen beherrschen. Werden dann die Daten für die Analyse exportiert, fangen die ersten Schwierigkeiten schon an. Zusätzlich müssen immer mehr unstrukturierte Daten aus Social-Media-Kanälen und anderen Internetquellen analysiert werden.

Diverse Schnittstellen müssen in diesem Kontext bedient werden, um neue Erkenntnisse zu gewinnen. Und so geht es weiter mit Know-how über Verschlüsselungsverfahren, Datenbankanbindungen und das Echtzeitmanagement von Datenströmen. Data-Scientisten sind gefragter denn je, um die digitale Transformation im Unternehmen voranzutreiben. Doch der Markt für Spezialisten ist wie leergefegt.

Bildquelle Lizenz: Designed by macrovector / Freepik

Sich selbst zu helfen, scheint das Gebot der Stunde zu sein. Doch welche Möglichkeiten gibt es, die Datenflut zu meistern? Zum Beispiel muss die Datenanalyse nicht mehr zentral erfolgen, so kann der Self-Service-BI-Ansatz mehr Fachanwendern ermöglichen, selbst Berichte und Analysen zu erstellen. Die IT-Abteilung spart sich dadurch aufwendige Entwicklungsarbeiten für nur einmalig benötigte Auswertungen. Eine dezentrale BI legt die Analysen zur Entscheidungsfindung direkt in die Geschäftsbereiche. Daten und Analysefähigkeiten werden so in die Hände der Abteilungen und Führungskräfte übergeben, um mehr Agilität an den Tag zu legen.

Entscheider die sich zukunfts­fähig im Markt aufstellen wollen, sollten einen Blick auf ihre Daten werfen.

Die Lösungen haben inzwischen einen übersichtlichen und funktionalen Aufbau und sind in der Lage, Quelldaten aus diversen Datenbanken und Beständen einzubinden, auch über diverse Cloud-Infrastrukturen hinweg. Der Bezug von IT-Diensten im Self-Service für diverse BI-Tools hat sich als ausgesprochen produktiv und kostensparend erwiesen.

Fest steht, dass Unternehmen neue Erkenntnisse aus ihren verschiedenen Datenquellen und Datenbanken generieren können. Die Technologie dazu ist da. Moderne Data-Analytics-Lösungen ermöglichen es, Daten aus unterschiedlichsten Quellen miteinander in Beziehung zu setzen und zu erforschen. Dazu muss jedoch aus den verschiedenen Datenbanken eine Datenbank gemacht werden. Jetzt wird es möglich, Finanzdaten mit z. B. operativen Daten zu verknüpfen und daraus neue Entscheidungsgrundlagen zu ziehen. Ziel ist, Menschen durch assoziative Datenanalysen bessere Entscheidungsgrundlagen zur Verfügung zu stellen.

Das Wissen im Umgang mit Daten und Datenbanken muss mehr Verbreitung finden. Diesem Leitgedanken nimmt sich der „Data Literacy Index“ an. Der souveräne Umgang mit Daten ist für Organisationen aller Art und Größe bares Geld wert. Das geht aus einer neuen, weltweiten Studie des Data-Analytics-Spezialisten Qlik hervor. Erstellt wurde der Data Literacy Index durch die amerikanische Wharton School und das Institut IHS Markit.

Laut dem Index können große Organisationen ihren Wert um bis zu 500 Millionen Dollar steigern, wenn sie unternehmensweit und konsequent auf eine datenversierte Kultur setzen. „Es ist das erste Mal, dass die Datenkompetenz auf Unternehmensebene gemessen wird, was nicht nur die Datenkompetenz der Mitarbeiter des Unternehmens umfasst, sondern auch die Nutzung von Daten für Entscheidungen im gesamten Unternehmen“, so Lorin Hitt, Professor an der Wharton School der University of Pennsylvania. „Die Forschung deutet darauf hin, dass Datenkompetenz in Unternehmen eine Reihe von Aspekten umfasst, die sich gegenseitig verstärken und mit finanzieller Leistung verbunden sind.“

Europa hat laut der neuen Untersuchung den höchsten „Data Literacy Score“ aller Regionen, wobei Großbritannien, Deutschland und Frankreich zu den am weitesten fortgeschrittenen Nationen für „Corporate Data Literacy“ gehören. Zwar ist Singapur die datenkundigste Nation weltweit, regional betrachtet liegen die USA und APAC jedoch gleichauf mit einem geringeren Wert als Europa. Dies spiegelt eine größere Anerkennung wider, die europäische Entscheidungsträger offenbar für den Wert von Daten haben.

Denn 72 Prozent von ihnen bestätigen, dass diese „sehr wichtig“ sind – verglichen mit nur 60 Prozent in Asien und 52 Prozent in den USA. Das Maß für die Datenkompetenz von Unternehmen wurde von IHS Markit und einem Professor der Wharton School festgelegt. Es liegt auf einem Kontinuum, das auf den Datenkompetenzen der Mitarbeiter, datengetriebener Entscheidungsfindung und Datenqualitätsstreuung basiert. Eine Umfrage wurde entwickelt, um die drei Dimensionen der Datenkompetenz von Unternehmen zu messen. Antworten wurden mit passenden Skalen und Scores über alle Indikatoren hinweg standardisiert und aggregiert.

Megatrends wie Automatisierung, Robotik und künstliche Intelligenz bedeuten die vierte industrielle Revolution. Daten werden immer mehr zur universellen Sprache – und Unternehmen, die sie beherrschen, werden erfolgreich sein. Entscheider, die sich zukunftsfähig im Markt aufstellen wollen, sollten einen Blick auf ihre Daten werfen.

Übrigens bieten sich viele Weiterbildungsmöglichkeiten für Unternehmen und Mitarbeitende. Das Fraunhofer-Institut IAO zum Beispiel bietet für Führungs- und Fachkräfte sowie IT-Expertinnen und -Experten, die künstliche Intelligenz, maschinelles Lernen und Data Science verstehen möchten, Seminare an. Die Kurse geben einen Überblick über die nötigen Schritte bei der Durchführung von Datenanalysen mittels Methoden der künstlichen Intelligenz im Zeitalter von Big Data sowie die damit verbundenen Herausforderungen. Die Teilnehmenden erhalten eine Einführung in verschiedene Formen und Algorithmen des maschinellen Lernens und erhalten einen Überblick über deren Unterschiede sowie die jeweiligen Stärken und Schwächen. Praxisbeispiele und Tooldemonstrationen machen die vorgestellten Konzepte verständlich und nachvollziehbar. //


Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Datenbasierte Geschäftsmodellinnovationen

Das IoT wird zum KI-Datenlieferanten: Durch die Algorithmen des maschinellen Lernens entstehen so neue Produkte, Prozesse und Services.

Im Interview mit der TREND-REPORT-Redaktion sprach Prof. Dr. Dr. Schildhauer, Principal Investigator am Weizenbaum-Institut für die vernetzte Gesellschaft, über das Veränderungspotenzial der mit dem IoT einhergehenden Datenmenge (Big Data).

Herr Prof. Schildhauer, inwieweit verändert die KI/AI (Künstliche Intelligenz/Artificial Intelligence) datenbasierte Geschäftsmodelle?
Es entstehen durch weiterentwickelte Algorithmen Chancen, bspw. durch maschinelles Lernen, Systeme zu entwickeln, die basierend auf großen Datenkontingenten helfen, Prozesse, Strukturen und Arbeitsabläufe in Unternehmen zu optimieren und zu steuern. Mit dem Hype-Begriff „Künstliche Intelligenz“ gehe ich in diesem Kontext noch sehr vorsichtig um. Aber sichtbar ist, dass neben maschinellem Lernen weitere Technologien wie Cloud Computing, IoT oder Additive Manufacturing ein wichtiger technischer Enabler für datenbasierte Geschäftsmodelle sind. So entwickeln sich in Deutschland in diesem Zusammenhang neue technologiebasierte Start-ups z. B. in den Sektoren Handel, Logistik, Gesundheit oder Mobilität.

Start-ups, aber auch etablierte Unternehmen entwickeln auf Basis großer Datensammlungen und entsprechender Algorithmen neue Geschäftsmodelle, die beispielsweise Vorhersagen auf künftige Bedarfe oder Nutzerverhalten analysieren und vorhersagen – Predictive Analytics. Insbesondere vollzieht sich der Wandel bei etablierten Unternehmen dort, wo zumeist auf der Ebene unternehmensinterner Prozessoptimierungen Potenziale aus der Analyse großer Datenmengen geschöpft werden. Dies kann im Versicherungsbereich (bspw. Vorhersage über Schadenrisiken aus Daten der Vergangenheit und aktuellen Wetter- und Verhaltensdaten) ebenso wie in Produktionsunternehmen (Predictive Maintenance) zur Anwendung kommen. Ob und wie sich aus diesen Innovationen tragfähige datenbasierte Geschäftsmodelle entwickeln, untersucht die Forschungsgruppe „Datenbasierte Geschäftsmodellinnovation“ am Weizenbaum-Institut für die vernetzte Gesellschaft – Das deutsche Internet-Institut.

Welche Innovationen werden mit diesen neuen Technologien möglich?
Das Innovationspotenzial erstreckt sich über die gesamte Wertschöpfungskette in Unternehmen und führt zu neuen Prozessen, Produkten, Services und Geschäftsmodellen in vielen unterschiedlichen Sektoren. Neben den bereits beschriebenen Beispielen aus Dienstleistungs- und Produktionsbranchen wird die Echtzeitanalyse riesiger Datenbestände mittels Big-Data-Analytics heute auch in der Krebsdiagnostik genauso eingesetzt wie in der personalisierten Werbung. Große Potenziale entstehen auch im Bildungsbereich, diesen untersucht die Forschungsgruppe schwerpunktmäßig.

Der Einsatz von Augmented Reality führt z. B. in der Berufsbildung dazu, dass Auszubildende verstärkt praktische Fähigkeiten durch virtuelle Simulationen erlernen, was vor allem bei riskanten und teuren Arbeitsschritten ein wichtiges Innovationspozential darstellt. Neue digitale Bildungsplattformen verändern den Lehr- und Lernprozess und machen diesen erstmalig messbar. So hat z. B. eine führende Plattform für Online-Kurse im Aus- und Weiterbildungsbereich mittels maschinellen Lernens einen Algorithmus entwickelt, der Teamleiter*innen aufzeigt, welche Kompetenzen Mitarbeiter*innen fehlen und mit welchen offerierten Online-Kursen diese erworben werden können. Auch kann die Sammlung von Verlaufs-, Abbruch- und Abschlussdaten der Lernenden auf Lernplattformen dazu genutzt werden, die Lernsysteme in Echtzeit an das Verhalten der Lernenden anzupassen (Learning Analytics).

Wir gehen der Frage nach, wie durch die Veröffentlichung von Datensätzen neue Geschäftsmodelle im Mobility-Bereich oder in der Bildung entstehen können.

Inwieweit beschäftigen Sie sich in Ihrer Forschungsgruppe mit den Themen IoT und IIot im Kontext datenbasierter Geschäftsmodellinnovationen?
Wir betrachten IoT zwar als Schlüsseltechnologie, aber eben als eine von vielen, die datenbasierten Geschäftsmodellinnovationen zugrunde liegt. Neben diesen Schlüsseltechnologien stehen bei uns vor allem drei Themen im Vordergrund, die parallel erforscht werden. Den ersten inhaltlichen Schwerpunkt setzen wir im Bereich Open Data und gehen der Frage nach, wie durch die Veröffentlichung von Datensätzen neue Geschäftsmodelle im Mobility-Bereich oder in der Bildung entstehen können. Dabei fokussieren wir besonders die Themen Datenschutz, Datenqualität und Datensicherheit. Darüber hinaus untersuchen wir, wie digitale Bildungsplattformen und die dort implementierten Learning Analytics zu neuen datenbasierten Geschäftsmodellen im Bildungssektor führen können.

Zu guter Letzt wird auch die Prozess­ebene von Geschäftsmodellinnovationen erforscht, um mögliche Systematisierungen abzuleiten und Innovations-Tools für die Praxis zu entwickeln. Ein Anwendungsfall bezogen auf IIOT untersucht in diesem Zusammenhang folgende Fragestellung: Da durch zunehmende Machine-to-Machine(M2M)-Kommunikation die Anforderungen an Menschen, die Produktionsprozesse in IIOT-ausgerüsteten Produktionsstraßen steuern, stark anwachsen, müssen diese Menschen mit neuartigen Lernsystemen ausgestattet werden, die ihnen erlauben, situativ und individuell am Ort des (Produktions-)Geschehens die Lerneinheit abrufen zu können, die gerade benötigt wird, um bspw. Fehler, die in der neuen IIOT-gestützten Produktion auftreten, schnell beseitigen zu können. Über die Produktionsstandort-übergreifende Sammlung von Daten (Big Data) können für wiederkehrende Fragestellungen bereits im Vorfeld Lern­einheiten angelegt werden, die den Menschen vor Ort helfen.

Welchen Stellenwert nehmen das IoT und IIoT ein, wenn es um zukünftige datenbasierte Geschäftsmodelle geht?
Im Zusammenhang mit dem IoT und IloT rückt das Konzept des Ökosystems in den Vordergrund. Hier reden wir über mit Sensoren ausgestattete Endgeräte, die digitale Daten generieren und miteinander austauschen. Gegenstände und Prozesse, die zuvor keine Daten generiert haben, werden auf einmal zu Datenlieferanten. Damit ist die IoT-Technologie, wie auch die zuvor thematisierte KI, ein weiterer technischer Enabler für datenbasierte Geschäftsmodellinnovationen. Mit den neuen Datenkontingenten werden die bestehenden unternehmerischen Ressourcen angereichert und es entstehen neue Bedarfe für Analyse-Tools, die aus Rohdaten handlungsrelevantes Wissen generieren. Vielfach bewegen wir uns hier im Bereich der Optimierung, vor allem in B2B-Bereichen wie der Logistik. Aber auch im privaten Bereich ist das IoT bereits angekommen, in Form von Selftracking und Smarthome-Devices. Smartwatches und andere Wearables sind längst in unserer Gesellschaft etabliert – eingebettet in ein Ökosystem digitaler Dienstleistungen.

Wie können in Unternehmen durch Design Thinking innovative IoT-Ideen entstehen?
Ein Kernprinzip von Design Thinking ist immer seine Ergebnisoffenheit und die konsequente Fokussierung auf die Verwender/Nutzer. Das begünstigt zunächst innovative Ideen in allen Industrien, weil vor allem der Prozess im Vordergrund steht und nicht so sehr die einzelne Branche oder die ihr zugrunde liegende Technologie. Dies kann als Stärke und als Schwäche auslegt werden. Für uns ist deshalb die wirklich spannende Frage in diesem Zusammenhang, inwiefern sich die Design-Thinking-Methodik durch die Einbindung großer Datenmengen erweitern lässt, um die spezifischeren Anforderungen von neuen datenbasierten Geschäftsmodellen zu erfüllen. Diesbezüglich gibt es in Deutschland schon erste Vorreiter, die sich z. B. auf Data Thinking spezialisieren, und auch unsere Forschungsgruppe am Weizenbaum-Institut für die vernetzte Gesellschaft – Das Deutsche Internet-Institut beschäftigt sich mit dieser Frage.

Inwieweit können Ausgründungen etablierter Unternehmen neue unternehmerische Strukturen für die Entwicklung datenbasierter Geschäftsmodelle schaffen?
Eine Ausgründung bietet neuen Ideen Platz zum Reifen. Das ist immer dann sinnvoll, wenn innerhalb einer Organisation neue unternehmerische Ideen generiert werden, die im derzeitigen Kerngeschäft keinen Platz finden, es entstehen Spin-offs. Mit dieser organisatorischen und oft auch räumlichen Trennung werden Innovationen davor bewahrt, an der gängigen Branchenlogik und der Performance des operativen Geschäfts gemessen zu werden – also jenen Paradigmen, die eine disruptive Innovation ja gerade auf den Kopf zu stellen versucht. Oftmals gehen diese Initiativen auf die Arbeit der Abteilungen für Forschung und Entwicklung in etablierten Unternehmen zurück, die sich heute mehr denn je mit digitalen und datenbasierten Innovationspotenzialen beschäftigen.

Was können etablierte Unternehmen von Start-ups lernen?
Sie können von ihnen lernen, dass Wandel keine Bedrohung ist, sondern eine Chance. Start-ups sind sehr gut darin, das zu betreiben, was Joseph Schumpeter schon vor über 70 Jahren als schöpferische Zerstörung bezeichnete, und gezielt Lücken zu besetzen, die sich zwischen etablierten Unternehmen und ihren bisherigen Kunden aufgetan haben. Sie bleiben neugierig, probieren auch unkonventionelle Ideen aus und richten den Blick eher nach außen als nach innen. Auch sind sie bereit, Erkenntnisse aus dem Markt schnell zur Veränderung des ursprünglichen Geschäftsmodells zu nutzen. Natürlich darf dabei nicht vergessen werden, dass die viel zitierte Flexibilität und Anpassungsfähigkeit der Start-ups vielfach ihrer prekären Lage geschuldet ist, geprägt von einem Mangel an unternehmerischen Ressourcen und oftmals auch an unternehmerischer Erfahrung. Und trotzdem ist es immer wieder bemerkenswert, wie sie sehr oft erfolgreich aus dieser Not eine Tugend machen. //

Zur Person Prof. Dr. Dr. Thomas Schildhauer

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Das IoT wird zum KI-Datenlieferanten: Durch die Algorithmen des maschinellen Lernens entstehen so neue Produkte, Prozesse und Services.

Enterprise Data Cloud

Die Grundlage für Big Data schaffen

von Daniel Metzger

Wer Digitalisierung sagt, muss auch Daten sagen – und zwar Big Data. Während sich die meisten Unternehmen über die Business-Vorteile von Big-Data-Analysen freuen, stellen die Technologie und die Infrastruktur dahinter oftmals eine Herausforderung dar. Denn Daten sind nicht gleich Daten, sie können strukturiert oder unstrukturiert sein und entweder von Menschen oder von Maschinen sowie Sensoren generiert werden. Um aus diesen Daten Informationen als Basis qualifizierter Entscheidungen zu gewinnen, benötigen Unternehmen Big-Data-Architekturen, die ihnen zuverlässige und vertrauenswürdige Einblicke in diese Daten ermöglichen.

Die Bedeutung von Daten ist in den letzten 20 Jahren enorm gestiegen. Die Vernetzung der Unternehmen, intern wie extern, das Entstehen und das Wachsen sozialer Netzwerke sowie der Beginn der Digitalisierung waren die ersten Treiber dieser Entwicklung. Entsprechend rückte das Speichern, Verwalten, Auswerten und Nutzbarmachen von Daten auf der Agenda immer weiter nach oben – nicht nur in den IT-Abteilungen, sondern auch im höheren Management, das die Bedeutung von Daten für ihren Geschäftserfolg erkannt hat. Diese Notwendigkeit zum Datensammeln hat zu einem explosionsartigen, exponentiellen Anstieg der Datenmengen geführt, wodurch sogenannte Data Lakes als primärer Bestandteil von Datenarchitekturen entstanden sind.

Die vorherrschende Meinung war, dass Unternehmen große Data Lakes entwickeln müssten, in denen sich praktisch alle Daten befinden würden. Doch mit dem Aufkommen der Cloud und immer besserer und leistungsfähigerer Cloud-Dienste begann eine neue Zeitrechnung. Statt alle Daten zentral zu sammeln, wurden diese mehr und mehr verteilt. Hinzu kommt, dass durch die Datenverteilung über mehrere Standorte und teilweise Unternehmen hinweg diese ständig in Bewegung sind – inner- und außerhalb von Rechenzentren sowie der Cloud.

Daten – Strukturiert, unstrukturiert und verteilt

Eine weitere Herausforderung ist, dass unterschiedliche Arten von Daten – wie strukturierte und unstrukturierte, Sensordaten, Lieferanten-, Kunden- und Mitarbeiter-Daten – in jedem der Daten-Cluster liegen können. Gleichzeitig werden aber miteinander verwandte Daten möglicherweise verteilt in unterschiedlichen Orten gespeichert. Beispielsweise kann ein Einzelhandelsunternehmen Preisinformationen zu seinen Waren in einem Rechenzentrum in Bangkok und gleichzeitig Kundeninforma­tionen in einem Rechenzentrum in Dublin speichern. Es gibt aber auch neuartige Daten von Sensoren im Internet of Things (IoT), die in einem Cloud-Service wie Amazon Web Services (AWS) oder Microsoft Azure einfacher zu speichern sind. Diese Art von Daten könnte auch „on premises“, also lokal, auf eigenen, unternehmensinternen Speicherlösungen abgelegt sein. Für zeitnahe und Echtzeitanalysen ist es mittlerweile deutlich einfacher, diese Informationen in der Cloud zu erfassen und zu analysieren, als zu versuchen, dies komplett im eigenen Rechenzentrum abzuarbeiten.

Letztendlich benötigen Unternehmen jedoch eine übergreifende Datenplattform, die alle Daten aus Rechenzentren und Cloud-Infrastrukturen integriert. Diese Plattform ist ständig über den Standort, den Zustand und die Art der Daten informiert und kann auch weitere Services, beispielsweise in Bezug auf Datenschutz und Compliance-Richtlinien, an verschiedenen Standorten bieten.

Die Essenz in den Daten

Mit der Entscheidung für eine passende Datenplattform haben die Unternehmen zwar einen wichtigen Schritt getan, um die erfassten Daten aus technischer Sicht zu analysieren, doch damit allein ist es bei weitem noch nicht getan

Letztendlich benötigen Unternehmen jedoch eine übergreifende Datenplattform, die alle Daten aus Rechenzentren und Cloud-Infrastrukturen integriert.

Daniel Metzger

Wichtig ist ebenfalls, dass das Unternehmen die richtigen Experten auswählt, die zu unterschiedlichen Zeiten der Datenverarbeitung einen qualifizierten Blick auf die Daten werfen. Dazu gehören unter anderem Data Stewards, die in der Lage sein müssen, festzustellen, welchen Datenquellen vertraut wird, sowie wichtige Informationen über jede Quelle bereitzuhalten – zum Beispiel: Wer hat sie erstellt?, wer hat sie geändert und vieles mehr. Diese Datenverwalter sollten in der Lage sein, die Bestimmungen über alle Data Depositories hinweg durchzuführen. Denn nur, wenn die Qualität der eingehenden, gesammelten Daten wirklich hoch ist, sind auch die darauf basierenden Analysen sinnvoll.

Daniel Metzger: „Mit der Entscheidung für eine passende Datenplattform haben die Unternehmen zwar einen wichtigen Schritt getan, um die erfassten Daten aus technischer Sicht zu analysieren, doch damit allein ist es bei weitem noch nicht getan.“

Das Gleiche gilt selbstverständlich auch für alle späteren Schritte, in denen Analysten und Datenwissenschaftler die Daten, die daraus gewonnenen Informationen und schließlich die abgeleiteten Erkenntnisse bewerten, in den richtigen Kontext stellen und in Entscheidungsgrundlagen für die Geschäftsführung einarbeiten. Nur wenn wirklich alle Schritte entsprechend qualifiziert ihren Beitrag zur Analyse leisten, werden aus Massendaten wertvolle Informationen.

Enterprise Data Cloud

All diese Anforderungen müssen bereits bei der Konzeption einer Big-Data-Plattform – oder, wie Cloudera es nennt, einer „Enterprise Data Cloud“ – berücksichtigt werden. Unternehmen, die einen digitalen Wandel durchlaufen, benötigen umfassende Analysemöglichkeiten in Public-, Private-, Hybrid- und Multi-Cloud-Umgebungen. Unternehmen brauchen die Agilität, Elastizität und Benutzerfreundlichkeit von Cloud-Infrastrukturen, aber auch die Möglichkeit, Analyse-Work­loads standortunabhängig laufen zu lassen – egal, wo sich die Daten befinden.
Auch offene Architekturen und die Flexibilität, Workloads in verschiedene Cloud-Umgebungen (Public oder Private) zu verschieben, spielen eine wichtige Rolle. Nicht zuletzt ist es wichtig, mehrere Analysefunktionen auf demselben Datensatz mit einem gemeinsamen Sicherheits- und Governance-Framework ausführen zu können, um den Datenschutz und die Einhaltung gesetzlicher Vorschriften hochzuhalten. All das sind keine „Nice to have“-Features, sondern grundlegende Anforderungen für Unternehmen, die Daten erfolgreich nutzen wollen.


Ein Beispiel aus der Praxis

Thomson Reuters ist eine weltweite Quelle für Nachrichten und Informationen für die Finanz-, Rechts-, Steuer- und Medienbranche. Mit dem Service „Reuters Tracer“ hilft das Unternehmen Journalisten dabei, echte von gefälschten Nachrichten auf Twitter zu unterscheiden. Dafür nutzt Reuters eine umfangreiche Datenanalyse mit maschinellem Lernen. So verarbeitet Reuters Tracer täglich rund 13 Millionen Tweets und bestimmt deren Wahrheitsgehalt und Relevanz mit einem „Newsworthiness Score“. Diese Lösung basiert auf der Datenplattform von Cloudera für maschinelles Lernen, um die Geschwindigkeit und Genauigkeit zu erreichen, die es für die Analyse von Tweets benötigt. Die Plattform ist darauf optimiert, den Inhalt der Tweets, die verwendete Sprache, das Verbreitungsmuster und vieles mehr zu betrachten, genau wie es ein Journalist tun würde. Aufgrund des integrierten maschinellen Lernens unterscheidet der Tracer im Laufe der Zeit immer genauer relevante und wahre von unwichtigen Tweets und solchen, die Lügen verbreiten. Mit Reuters Tracer hilft Thomson Reuters somit einerseits Journalisten und Unternehmen, mit einer sich schnell verändernden Nachrichtenlandschaft Schritt zu halten, und verbessert andererseits seine eigene Wettbewerbsfähigkeit. //


Mehr als 87 Prozent der Unternehmen haben eine geringe Data und Analytics Maturity.

Quelle: Gartner „Take Your Analytics Maturity to the Next Level“

Die vier wichtigsten Merkmale einer Enterprise Data Cloud

Hybrid und Multi-Cloud:
Um Unternehmen Flexibilität zu verleihen, muss eine Enterprise Data Cloud mit gleichwertiger Funktionalität innerhalb und außerhalb des Unternehmens betrieben werden können, wobei alle wichtigen Public Clouds sowie die Private Cloud unterstützt werden sollen.

Multifunktional:
Eine Enterprise Data Cloud muss die dringendsten Anforde­rungen an Daten und Analysen im Un­ter­nehmen effizient lösen. Das Bewerk­stel­ligen realer Geschäftsprobleme erfor­dert in der Regel die Anwendung mehrerer verschiedener Analysefunktionen, denen dieselben Daten zugrunde liegen. So basieren beispielsweise autonome Fahrzeuge auf Echtzeit-Datastreaming und maschinellen Lernalgorithmen.

Sicher und geregelt:
Eine Enterprise Data Cloud muss sicher und regelkonform sein und die strengen Anforderungen an Datenschutz, Governance, Datenmigration und Metadatenmanagement großer Unternehmen in allen ihren Umgebungen erfüllen.

„Open“:
Schließlich muss eine Enterprise Data Cloud auch offen sein. Das bedeutet nicht nur den Einsatz von Open-Source-Software, sondern auch offene Rechenarchitekturen und offene Datenspeicher wie Amazon S3 und Azure Data Lake Storage. Letztendlich wollen Unternehmen die Bindung an den Anbieter (Stichwort: „Vendor Lock-in“) vermeiden, um nicht von einem einzigen Anbieter abhängig zu werden. Offene Plattformen, offene Integrationen und offene Partner-Ökosysteme werden daher bevorzugt. Bei technischen Herausforderungen kann/muss das Unternehmen somit nicht nur vom Hersteller Support beziehen, sondern die gesamte Open-Source-Community kann zur Unterstützung beigezogen werden. Dies sichert nicht nur schnelle Innovationszyklen, sondern auch den eigenen Wettbewerbsvorteil.

Kontakt zum Autor


Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

HR beginnt beim Menschen

Personalverantwortliche brauchen mehr Freiraum für strategische Arbeit.

von Benedikt Lell

People First“ ist nicht nur das Firmenmotto von PeopleDoc by Ultimate Software, sondern die Essenz der unternehmerischen Tätigkeit. Angetrieben von der Idee, die „Employee Experience“ stetig zu verbessern, bietet PeopleDoc eine umfassende HR-Service-Delivery-Plattform in der Cloud. Als native Cloud-Plattform bietet PeopleDoc mehrere technische und kommerzielle Vorteile: Es muss keine teure Infrastruktur mehr bereitgestellt werden, um Systeme aufzusetzen und zu administrieren. Regelmäßige Updates und Funktionserweiterungen sind im Preis inbegriffen, wodurch das System immer auf dem aktuellen Stand ist und keine eigenen Mitarbeiterkapazitäten für die Entwicklung oder Releasewechsel in Anspruch genommen werden müssen. Mittlerweile werden dabei keine neuen Releases mehr veröffentlicht, sondern Continuous Deployment genutzt: Eine Funktion wird entwickelt und umfassend getestet, bis das Ergebnis allen Anforderungen entspricht, und dann in die Produktionsumgebung integriert. Durch die Mietmodelle vereinfachen sich die Investitionsmöglichkeiten für Unternehmen. Skalierungsmöglichkeiten entstehen, es wird nur bezahlt, was wirklich genutzt wird. Bei PeopleDoc beispielsweise richtet sich der monatliche Mietpreis nach der Mitarbeiteranzahl.

Die Implementierungsdauer der PeopleDoc- Lösung variiert dabei in Abhängigkeit von ihrem Umfang. Die Einführung einer digitalen Personalakte kann bereits nach wenigen Wochen abgeschlossen sein. Umfangreichere Lösungen mit mehreren Hundert Prozessen weltweit dauern entsprechend länger. Die PeopleDoc-Cloudplattform steht dem Kunden bereits direkt nach Vertragsabschluss aus technischer Sicht vollumfänglich zur Verfügung. Mit der funktionalen Konfiguration von Prozessen kann sofort begonnen werden. Hierbei kommt der HR eine zentrale Rolle zu: Die funktionale Konfiguration von HR-Prozessen kann durch HR selbst ohne technisches Customizing oder gar Programmierung durchgeführt werden.

Positive Employee Experience

Die cloudbasierte HR-Service-Delivery-Lösung von PeopleDoc verbessert das Service-Erlebnis der Mitarbeiter bei der Interaktion mit HR während des gesamten Employee-Lifecycles: vom Onboarding bis zum Offboarding. Dabei sollten die Mitarbeiter mindestens die gleiche Servicequalität erfahren, wie die besten Kunden eines Unternehmens. Die bessere Employee Experience trägt nicht nur zu einer Steigerung der Arbeitsmotivation und somit der Leistungsbereitschaft der Mitarbeiter für das Unternehmen bei. Die Employee Experience liefert über den direkten Austausch zwischen den Mitarbeitern einen unmittelbaren Mehrwert für das „Employer Branding“ und erleichtert dadurch auch den Erfolg beim Recruiting.

Vier Erkenntnisse: Employee Experience richtig umsetzen

Motivation lässt sich auch in Zahlen ablesen: Eine Gallup-Studie aus 2016 zeigt auf, dass motivierte Mitarbeiter profitable Mitarbeiter sind und im Schnitt 21 Prozent mehr Umsatz erwirtschaften, 17 Prozent produktiver sind und um 10 Prozent bessere Kundenbewertungen erzeugen. Doch was macht ein motiviertes Team aus? Wie werden Mitarbeiter motiviert?

  • Mitarbeiter sind motivierter, wenn das „Unternehmensleitbild“ klar definiert ist.
  • Mitarbeiter aller Ebenen freuen sich über Anerkennung.
  • Bei großen Problemen ist Teamarbeit ein entscheidender Faktor.
  • Mitarbeiter wollen gehört werden. Sie brauchen regelmäßiges Feedback

Die Leistung der HR am Mitarbeiter beginnt mit dem Onboarding. Die Einführung und Einarbeitung neuer Mitarbeiter ist ein wich- tiger, aber auch dokumentenintensiver Prozess. Er erfordert ein koordiniertes Vorgehen zwischen verschiedenen Managern und Ab- teilungen. Früher vergingen allein für die Zustellung des Arbeitsvertrags nach einem über- zeugenden Vorstellungsgespräch ein bis zwei Wochen. Gerade im „War for Talents“ sind das ein bis zwei Wochen zu viel, die der Mitarbeiter Zeit hat, sich anderweitig zu orientieren, obwohl die Kosten für die Rekrutierung qualifizierter Mitarbeiter ständig steigen.

Digitale Lösungen tilgen nicht nur dieses Risiko, sondern schaffen auch Begeisterung. Bereits 30 Minuten nach Abschluss des Bewerbungsgesprächs erhält der Mitarbeiter einen Link zu seinem bereits vom Arbeitgeber unterschriebenen Arbeitsvertrag. Er selbst kann diesen jetzt dort per digitaler Signatur unterzeichnen. Der neue Mitarbeiter erhält Zugriff auf das firmeneigene Onboarding-Portal, auf das auch von den mobilen Endgeräten wie Smartphones zugegriffen werden kann. Hier findet der neue Mitarbeiter relevante Informationen zur Vorbereitung auf die neue Stelle und beginnt bereits vor dem ersten Arbeitstag damit, alle administrativen Aufgaben, wie zum Beispiel das Ausfüllen von Formularen und Checklisten, zu erledigen. Durch strukturierte, auditierungsfähige Prozesse wird zudem die Einhaltung aller relevanten Compliance-Vorgaben im Onboarding gewährleistet.

Auf diese Weise vereinfacht eine automatisierte Onboarding-Lösung den Einführungs- und Einarbeitungsprozess. Mitarbeiter können vom ersten Tag an produktiver arbeiten und verknüpfen mit dem Onboarding eine positive Erfahrung.

Analysen der HR-Prozesse sind die Basis für Veränderungsansätze.

Vorteile einer digitalen Personalakte

Die Dokumente aus Recruiting und Onboarding werden dabei zentral in einer digitalen Personalakte aufbewahrt. Dort werden auch alle weiteren Unterlagen aufbewahrt, die im Laufe des Employee-Lifecycles erstellt werden. Somit ist die digitale Personalakte zentrale Informationsquelle über einen Mitarbeiter.

Nach der Analyse unseres Onboarding-Prozesses haben wir im ersten Schritt alle Dokumente digitalisiert. Mit PeopleDoc war es dann möglich, Dokumente elektronisch zu signieren und automatisch in der Personalakte zu speichern.

Erin Montgomery, Vice President HR Systeme, American Express

Eine digitale Personalakte hat dabei verschiedene Vorteile im Vergleich zu einer Papierakte: Zum einen die direkte Kostenersparnis durch eine wesentlich erhöhte Effizienz im Dokumentenhandling sowie den Wegfall der Kosten für die Lagerung von Papierakten. Genauso wichtig sind allerdings die Vorteile, die sich nicht direkt als Kostenfaktor beziffern lassen, hinsichtlich der Compliance. Aufbewahrungsfristen und Zugriffsrechte müssen für jeden einzelnen Dokumenttyp in der Personalakte geregelt werden. Die Einhaltung der Compliance-Vorschriften ist mit Papierakten schlichtweg nicht mehr machbar. Es ist unmöglich, bei einer Regeländerung manuell Zigtausende Personalakten zu durchforsten und zu prüfen, ob gegebenenfalls ein Dokument entfernt werden muss.

Neben der Bereitstellung der HR-Service-Delivery-Cloudplattform unterstützt PeopleDoc seine Kunden auch mit Informationen zu Datenschutz- und Compliancethemen in über 40 Ländern weltweit.

HR Compliance Assist ist ein Online-Portal, in dem Kunden übersichtlich zusammengefasst die wichtigsten Regularien zur elektronischen Verarbeitung von Personaldaten und Personaldokumenten zur Verfügung gestellt werden. Hierzu gehört auch eine Übersicht über die länderspezifischen Aufbewahrungsfristen einzelner Dokumenttypen in jedem Land. Zudem bietet PeopleDoc mit ComplianceWatch einen Newsletter, der Kunden über Änderungen informiert und Praxisbeispiele gibt, um komplexe Fach­themen über Ländergrenzen zu managen.

Kernaussagen

  • Die Personalabteilung produziert mehr Dokumente als jede andere Abteilung im Unternehmen – zu oft werden diese auch noch manuell verwaltet.
  • Eine digitale Personalakte ist ein großer Schritt mit vielen Vorteilen; unter ande- rem mehr Rechtssicherheit bei Aufbe- wahrungsfristen.
  • Für die HR-Abteilung entstehen durch Automatisierung durch KI Freiräume. Es bleibt mehr Zeit für Tätigkeiten, die einen strategischen Mehrwert bieten, wie die Employee Experience.
  • Zukünftige Aufgabe von HR wird es sein, zu verstehen, was die Mitarbeiter motiviert.

RPA, KI und Freiräume für HR

Fakt ist, die Personalabteilung produziert mehr Dokumente als jede andere Unternehmensabteilung. In einer traditionellen HR-Abteilung sind daher Mitarbeiter oft nur mit der manuellen Bearbeitung dieser Dokumente beschäftigt. Auch in der Interaktion zwischen Mitarbeiter und HR über das Employee Case Management fallen zahlreiche manuelle Arbeitsschritte an. Nahezu kein HR-Prozess findet ausschließlich in einem System statt. In der Realität sind in einem fachlichen Geschäftsprozess mehrere Systeme beteiligt – und oftmals werden die einzelnen Systeme manuell durch HR angetriggert. Genau hier setzt die „Robotic Process Automation“ (RPA) an. Die Bots übernehmen als „Click-Maschine“ voll automatisiert und in Realtime repetitive Aufgaben, die vormals manuell und zeitaufwendig durch HR-Fachkräfte durchgeführt wurden.

Die Technologie erlaubt es den verwendeten Systemen, im Hintergrund miteinander zu kommunizieren und Prozesse abzuschließen. Die Bots können dabei sogar anhand vordefinierter Logiken eigenständig Entscheidungen treffen. So entstehen „Multi-Applikation“-Geschäftsprozesse, die den fachlichen Prozess über Systemgrenzen hinweg vollständig automatisiert abbilden.

Für die HR-Abteilung entstehen durch Automatisierung mit KI Freiräume. Es bleibt mehr Zeit für Tätigkeiten, die den Mitarbeitern einen echten Mehrwert bieten, wie Mitarbeiterentwicklung und Karriereplanung.

Künstliche Intelligenz geht jedoch noch einen Schritt weiter. Basierend auf den verarbeiteten Daten werden die Systeme in die Lage versetzt, nicht nur Empfehlungen auszusprechen, sondern ganz konkrete Aktionen in die Wege zu leiten, z. B. im Sinne eines proaktiven Talent-Managements Mitarbeitern bestimmte Schulungen anzubieten.

Für die HR-Abteilung entstehen durch die Automatisierung durch RPA und KI neue Freiräume. Es bleibt mehr Zeit für Tätigkeiten, die den Mitarbeitern einen Mehrwert bieten, wie die Mitarbeiterentwicklung und Karriereplanung.

Zukünftig wird HR wesentlich intensiver mit den Mitarbeitern zusammenarbeiten. Ihre Aufgabe wird es sein, zu verstehen, was die Mitarbeiter – heruntergebrochen auf einzelne Abteilungen – motiviert oder demotiviert. PeopleDoc Advanced Analytics ermöglicht eine Einsicht in zuvor unbekannte Daten. Wie lange dauert es, bis ein Mitarbeiter einen Vertrag unterschrieben hat? Zu welchen Themen gehen die meisten Mitarbeiteranfragen ein? Ausgestattet mit diesen Informationen kann HR jetzt Engpässe umgehend beheben und die eigene Performance messen, um Mitarbeitern den besten Service und Support zu bieten.

Künstliche Intelligenz in Verbindung mit Natural-Language-Processing ist dabei in der Lage, Fließtexte sowohl von Mitarbeiterbefragungen als auch von externen Quellen, z. B. Arbeitgeberbewertungsportalen, automatisiert zu analysieren und wichtige Erkenntnisse zu generieren. So lässt sich nicht nur herausfinden, welche Themen Mitarbeiter beschäftigen, sondern auch, welche Emotionen damit verbunden sind. Hieraus lassen sich Maßnahmen ableiten, die Arbeitserfahrung weiter zu verbessern – ganz im Sinne von „People First“. //

Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Bild von rawpixel auf Pixabay