Finanzierung der Digitalisierung

von Udo Rettberg

Die sichere und nachhaltige Finanzierung der Digitalisierung gilt als eine ganz wesentliche Voraussetzung dafür, dass dieser Megatrend auch in Zukunft nachhaltig alle seine Stärken und Vorteile wird ausspielen können.

Als Geldgeber für Finanzierungen haben sich in der Vergangenheit nicht zuletzt ältere und über die Dekaden hinweg finanziell bestens bestückte Generationen gezeigt. Diese „German Entrepreneurs“ hatten sich durch harte Arbeit während ihres Berufslebens eine Menge Erspartes beiseitegelegt. Heute tun sich diese Kapitalgeber, die durch ihre Risikobereitschaft einst als Rückgrat zum „deutschen Wirtschaftswunder“ beigetragen haben, schwer. Früher hatten sie ihr Risikokapital in sichtbare und ertastbare Produkte, Technologien und auch in bekannte Dienstleistungen investiert. Sie konnten also die von ihnen finanzierten Produkte sehen, spüren, fühlen, ertasten, riechen und vor allem in physischer Form auch im Alltag nutzen. Doch die Zeiten haben sich geändert. Und so ist festzustellen, dass aus dieser Betrachtungsweise eine Art Generationenkonflikt resultiert. Die in der Regel noch sehr jungen Unternehmen der Digitalisisierungsbranche beklagen nämlich, dass potenziellen potenten Geldgebern das Verständnis für die Situation fehlt. Die Digitalisierung spielt sich in der Regel in der weitgehend anonymen Datenwelt in der sogenannten „Cloud“ ab. Sie ist daher nichts, was tastbar oder anfassbar wäre.

Diese zwischen 1980 und 1999 geborenen Menschen, die im Angelsächsischen als „Millennials“ bezeichnet werden, sind quasi in das Digitalisierungs-Zeitalter hineingeboren und hineingewachsen. Die Mehrheit dieser Digitalisierungs-Ureinwohner verfügt (von Ausnahmen abgesehen) jedoch nicht unbedingt über größere Kapitalmengen. Diese Generation nutzt praktisch ihre Erfahrungen in der digitalisierten Welt zur Entwicklung neuer Finanzierungsformen und -plattformen. Dabei werden von den Gründungsvätern der Digitalisierung alle Register gezogen und auch eher im Verborgenen blühende Möglichkeiten in der VC-Finanzierung, der Fusions-Finanzierung (per LBO und MBO) und Sanierungsfinanzierung genutzt.
Auch die öffentliche Hand sieht sich in der Pflicht, für Start-ups und Neulinge spezielle staatliche Finanzierungen zu kreieren und z. B. über Förderbanken dann für Wachstumszwecke zur Verfügung zu stellen.  Die zahlreichen Ideen der Digitalisierung sollen auf eine breite Finanzierungsbasis stoßen, um nicht zuletzt auch eine zu starke Konzentration der Marktmacht zu verhindern.

Und so könnten Unternehmen der Datenökonomie bei ihren Finanzierungs-Anstrengungen während der verschiedenen Stufen ihrer Geschichte und Entwicklung inzwischen sowohl mehr Finanzierungsformen als auch anderen bislang weitgehend verschlossenen Kapitalquellen vertrauen als das bei den Firmengründern der „old economy“ der Fall war. Angefangen bei der Gründungsfinanzierung  per Bankkredite und Gründungsdarlehen über staatliche Förderprogramme (z. B. über die Kreditanstalt für Wiederaufbau oder andere Entwicklungsbanken) und der dann im weiteren Verlauf anstehenden Kapitalbeschaffung über Venture-Capital (Risikokapital) bieten sich im weiteren Verlauf der Historie zahlreiche andere Formen an.
Disziplin beim Umgang mit Kapital ist eine der wesentlichen Voraussetzungen,  damit Technologiefirmen auch einige Jahre nach der Gründung noch beständig wachsen können. Dabei geht es bei der Finanzierung dann im Prinzip vor allem um die Beschaffung von Eigenkapital (in der Regel über Aktien) auf der einen sowie von Fremdkapital (meist über Kredite, Anleihen, Schuldverschreibungen etc.) auf der anderen Seite.

Die „Open“-Bewegung

Der Begriff Open Source beschränkt sich nicht nur auf Software, sondern bezieht sich auch auf freies Wissen und Information durch freie Inhalte.

Im engeren Sinne steht Open-Source-Software (OSS) für Software, die die Definition der Open-Source-Initiative (OSI) erfüllt. Eine Voraussetzung ist beispielsweise, dass diese Software einer von OSI anerkannten Open-Source-Softwarelizenz unterliegt. Im weiteren, nicht nur auf Software bezogenen Sinne steht „Open Source“ für frei verfügbares Wissen und freie Information im Allgemeinen und hat dadurch die Gründung neuer „Open“-Bewegungen inspiriert, beispielsweise Open Content, Open-Source-Hardware und Open Access.
Der Begriff „Open Source“ wurde eingeführt, nachdem die ursprüngliche Bezeichnung „Free Software“ (freie Software) zu Irritationen führte, da sie als grundsätzlich kostenlose Software missverstanden wurde. Open Source hat viele Ursprünge und Vorläufer, beispielsweise die Do-it-yourself-Bewegung, die Hacker-Bewegung der 1960 / 70-er und die Freie-Software-Bewegung der 1980-er Jahre, die der unmittelbare Vorläufer wurde.
Ein Beispiel dafür sind Wikipedia und die Wikimedia-Commons, in deren Zusammenhang von freien Inhalten („Open Content“) gesprochen wird. Weitere bedeutende Beispiele für Open Content sind OpenStreetMap und Open Educational Resources. Eine Lizenzfamilie, die für solche freien Inhalte („free cultural works“) geschaffen wurde, sind die Creative-Commons-Lizenzen. Übertragen wurde die Idee des öffentlichen und freien Zugangs zu Information auch auf Entwicklungsprojekte.
In diesem Zusammenhang wird oft von freier Hardware („Open Hardware“) gesprochen, also freiem Zugang zu allen Informationen (Offener Standard, Offenes Format), um eine entsprechende Hardware herzustellen. Produktbeispiel auf Basis von offenen Standards und Rezepturen sind Vores Øl/Free Beer oder OpenCola. Auch als „Offen“ und der Open-Source- und Open-Hardware-Bewegung nahestehend verstehen sich die FabLabs, die freien Zugang zur (Produktions-)Hardware vermitteln wollen.
„Open Access“ (englisch für offener Zugang) versucht, den freien Zugang zu wissenschaftlicher Literatur und anderen Materialien im Internet zu ermöglichen und Paywalls abzubauen. Ähnlich versucht „Open Government“, den Zugang zu Regierungsressourcen für Bürger zu erleichtern.
Eric S. Raymond beschreibt in seinem Buch „Die Kathedrale und der Basar“ eine Entwicklungsmethode (den Basar), durch die Open-Source-Projekte selbstständig ohne zentrale Entität von der Gemeinschaft verwaltet werden können. Ob diese Entwicklungsmethode tatsächlich so Anwendung findet oder überhaupt praktisch umgesetzt werden kann, ist aber umstritten.
Beispielsweise folgt der Linux-Kernel, eines der großen OSS-Erfolgsprojekte, mit Linus Torvalds an der Spitze eher einem zentralisierten „Benevolent Dictator for Life“-Entwicklungsmodell (auf dt. etwa „Wohlwollender Diktator auf Lebenszeit“). In Raymondscher Terminologie wird von einer „Kathedrale“ gesprochen.
Ähnliche Führungsstrukturen sind mit Richard Stallman an der Spitze des FSF / GNU-Projekts und auch bei der Mozilla-Foundation zu finden. Als Gegenbeispiele werden die Community-getriebenen Projekte Apache Hadoop und OpenStack angeführt.

Bildquelle / Lizenz:

Johannes Spielhagen, Bamberg, Germany – Provided as files by the author to be published by OSBF e.V. under an open license. CC BY-SA 3.0; https://creativecommons.org/licenses/by-sa/3.0/de/

Nachhaltig digitalisiert

Interview mit Prof. Michael Kuhndt über neue Geschäftsmodelle an der Schnittstelle von Digitalisierung, Nachhaltigkeit und Ressourceneffizienz.

Welches Potenzial räumen sie der Energieeffizienz und der Digitalisierung im Kontext der Nachhaltigkeit ein?
Zunächst einmal: Die Digitalisierung bringt Transparenz. Diese Transparenz ist Grundvoraussetzung für das Wissen über Energie. Also: Wo brauche ich Energie? Was ist an Energie in meine Produkte geflossen? Wie kann ich die Kreisläufe schließen und damit Ressourcen erhalten? Hier kommen wir also sehr schnell auf die Notierung der Circular Economy. Wichtig ist es ja auch zu sehen, dass ein Energieeffizienzthema alleine betrachtet – also in der Nutzenphase eines Produkts – nur ein Aspekt ist. Aber wenn ich die Energieeffizienz im Kontext der Kreislaufwirtschaft sehe, dann habe ich eine direkte Schnittstelle zur Digitalisierung. Also wenn ich den Energieverbrauch möglichst effizient halten möchte, muss ich mit Rohstoffen effizient umgehen. Das heißt, ich muss einen Kreislauf führen. Sonst muss ich z. B. das Aluminium zehnmal produzieren, so kann ich das Aluminium im Kreislauf führen, habe es einmal produziert und kann es dann weiterverarbeiten. Und genau dazu brauche ich die Digitalisierung. Ich muss Transparenz haben: Wo sind die Warenströme? Wo geht es hin? Wo kommt das her? Was genau steckt in den Materialien, die ich z. B. weiterverarbeite? Kann ich das wieder verwerten? Da entstehen momentan mannigfaltig neue Geschäftsmodelle.

Auf der gleichen Grundlage, der Mehrfachnutzung von Resourcen, setzt die Sharing Economy an. Ohne die Digitalisierung wäre so ein Konzept nicht denkbar. Spielt diese spezielle Form von Teilen in Ihrem Beratungsalltag eine Rolle?
Ja, sie spielt eine Rolle. Wir sehen hier ein immer stärkeres Wachstum. Für das Weltwirtschaftsforum haben wir eine Studie zu dem Thema gemacht und sind damit auch auf dem Economic Forum in Davos aufgetreten. Speziell die großen Unternehmen – die diese Studie auch bei uns angefragt haben – sehen die Sharing Economy als „Emerging Trend“, also es wächst, es entsteht, genauso wie die Digitalisierung.

Prof. Michael Kuhndt, CSP Centre gGmbH

Nutzen Unternehmen explizit Konzepte wie die Sharing Economy, wenn sie neue Geschäftsmodelle generieren?
Die Frage ist ja, wie sieht unsere Zukunftsgesellschaft aus? Vielmehr: Wie wollen wir, dass unsere Zukunftsgesellschaft aussieht? Fakt ist: Produkte werden künftig eine untergeordnete Rolle spielen. Die Zukunft des Produkts liegt in der „Subscription-Economy“. Es geht darum, dass man ein Produkt als Dienstleistung versteht. Es entsteht ein Produkt-Dienstleistungs-System. Schauen sie sich Philips an, die sagen: Wir stellen nicht mehr die Lampe her, sondern wir verkaufen Licht, wir verkaufen Helligkeit. Das Geschäftsmodell dazu sieht so aus: Unternehmen kommen zu Philips und sagen: „Kommt doch bitte in unser Büro herein und stellt sicher, dass die Dienstleistung ‚ausgeleuchtete Arbeitsplätze‘ sichergestellt wird.“ Wir als Kunden wollen gar nicht die Produkte selbst kaufen. Diese Entwicklung ist hochinteressant. Es geht also weg vom Besitzen hin zum Nutzen. Übrigens eine Entwicklung, die die Digitalisierung hervorgebracht hat. Genau dieser Gedanke steckt auch hinter der Sharing Economy: Muss ich alles, was ich nutzen will, auch besitzen? Das heißt, wenn wir konkret mit Unternehmen arbeiten, ist das genau auch ein Aspekt unserer Zusammenarbeit, über den die Unternehmen dann auch sprechen wollen. Egal ob Tourismusbranche oder Textilien … Muss man Textilien zum Beispiel immer wieder neu kaufen? Oder könnte man auch sagen: Weil sich der Geschmack, das eigene Gewicht oder Lebensumstände geändert haben, geben wir Textilien fortan eine „Nutzenphase“? Nicht nur wir bringen ein solches Thema an, sondern eben auch konkrete Nachfragen von Großunternehmen, auch vom Handel. Ein weiteres Beispiel aus der Möbelbranche: Möbel, muss ich die immer verkaufen …? Täte es meinem Geschäft nicht viel besser, wenn ich das tatsächlich nur nutzen lasse und ich bekomme es dann wieder zurück? Nebeneffekt: So habe ich für zukünftige Produkte und Weiterentwicklungen gleichzeitig meine Ressourcen im Kreislauf und spare effektiv beim Einkauf.

Geht der Trend also in Richtung „Product as a Service“?
Genau, das ist es. Nicht alles besitzen, aber jederzeit alles nutzen. Das geht natürlich auch wieder einher mit der Digitalisierung. Als Konsument habe ich die mit dem Smartphone ja quasi in der Hand.

Welche Weichen sollten Ihrer Meinung nach jetzt in Politik und Wirtschaft gestellt werden?
Ich denke, das Thema Digitalisierung ist in der Politik angekommen, alle Bundesländer und die Regierung beschäftigen sich damit. Auch die Kommunen diskutieren über diese Themen. Womit sich die Politik beschäftigen muss, sind die Rahmenbedingungen. Treffen Konzepte wie Sharing Economy, Circular Economy oder Subscription-Economy oder hierauf basierende, neue Geschäftsmodelle auf Rahmenbedingungen, die mit ihnen vereinbar sind? Die große Sorge meinerseits besteht darin, dass wir Teile der Gesellschaft von der Digitalisierung entkoppeln: Geschäftsmodelle und auch die sogenannten „Digital Natives“ verändern sich viel schneller als Politik und andere Teile der Gesellschaft es überhaupt können. Nehmen Sie Uber: Hier steht ein Bedürfnis nach Mobilität einer ganzen Branche entgegen, die von ihrem Beruf auch leben können will – und soll. Dafür werden „Sub-Systeme“ immer interessanter. „Spielwiesen auf Stadtebene“, um neue Geschäftsmodelle wie z. B. Energieeffizienz, Smart Home und IoT gemeinsam mit dem Bürger „auszuprobieren“. Dafür brauchen wir einen rechtlichen Rahmen.

Man bräuchte Regelungen für Modell-Städte oder Modell-Viertel?
Genau richtig. So kann man auch die Akzeptanz-Probleme quasi in kleinen Labs, in kleinen Systemen, beseitigen helfen. Erkennen die Menschen den Nutzwert einer Neuerung, wie etwa der „Smart City“, dann lässt sich das auch schnell auf Bundesebene skalieren. Hier muss die Politik dringend Regeln finden.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Zum Interviewpartner

Digitalisierung und Nachhaltigkeit bieten viele Optionen

von Bernward Janzing

Es gibt viele Möglichkeiten, mit Algorithmen Abläufe in Wirtschaft und Gesellschaft im Sinne einer effizienten Ressourcennutzung zu optimieren: Energieverbraucher, die bedarfsgerecht gesteuert werden, sind ein bekanntes Beispiel. Ein weiteres ist eine ausgeklügelte Transportlogistik, die Ladekapazitäten von Fahrzeugen optimal ausnutzt oder durch regionale Belieferung der Kunden Ferntransporte von Waren sogar vermindert. Ein wichtiges Feld ist außerdem die gemeinsame Nutzung von Gütern, die heute mit dem Begriff der „Sharing Economy“ umschrieben wird. Sie lässt sich durch den Einsatz digitaler Systeme optimieren, weil Anbieter und Interessenten von Gütern oder Dienstleistungen schneller zusammenfinden können.

Mit dem Aufbau der Internetkommunikation und der anschließenden Marktdurchdringung mobiler Geräte war der Einzug der Digitalisierung in unternehmerische Prozesse nur eine logische Folge. Dienstleistungen, die zuvor in der analogen Welt zwar schon angeboten wurden, aber oft einigen zeitlichen Vorlauf brauchten (zum Beispiel Mitfahrzentralen oder Car-Sharing), werden nun in der digitalen Welt per App optimiert und quasi in Echtzeit angeboten. Die Kundenzahlen nehmen seither deutlich zu.

Somit kommen mit der fortschreitenden Digitalisierung erhebliche Veränderungen auf die Gesellschaft zu. Doch so sehr die neuen Angebote den Menschen manches erleichtern, so sehr haben sie auch eine andere Seite, mit der sich die Gesellschaft beschäftigen muss und wird. Die neuen Angebote werden zum Beispiel immer mehr persönliche Daten nutzen. Manche werden auch Bewegungsprofile erstellen, wieder andere Lebensgewohnheiten erfassen, wie es zum Beispiel mit dem elektronischen Stromzähler („Smart Meter“) möglich ist. Allenthalben entstehen somit Daten, die den persönlichen Tagesablauf und die Gewohnheiten in mehr oder weniger großen Teilen abbilden können.

Entsprechend gibt es in der öffentlichen Debatte natürlich auch viele Aspekte, die bei den Bürgern auf Vorbehalte stoßen und mit denen sich Industrie und Politik auseinandersetzen müssen. Zum einen ist das die Datensicherheit aus IT-Sicht: Sind die Systeme ausreichend gegen Hacker geschützt? Vor allem dort, wo es um vitale Strukturen der Gesellschaft geht (zum Beispiel in der Stromversorgung), müssen Cyber-Angriffe absolut ausgeschlossen werden. Zum zweiten sind die Ängste der Menschen ernst zu nehmen, die sich durch ihre zunehmend erhobenen persönlichen Daten, wie Bewegungsprofile und Kommunikation, allzu gläsern fühlen. Eine Datenaggregation, die am Ende keine Rückschlüsse auf die einzelne Person mehr ermöglicht, kann die Akzeptanz deutlich erhöhen.
Und drittens fürchten Bürger zumindest in einigen Lebensbereichen auch eine „Entmündigung“ durch die Algorithmen und die neuen Abhängigkeiten von der Technik. So ist die Vorstellung, das Auto werde künftig von einem Computer gelenkt, für viele Menschen heute noch gewöhnungsbedürftig. Kritisch zu hinterfragen ist bei allen Ansätzen zugleich auch immer, in welchen Einsatzgebieten der technische Aufwand sowohl aus wirtschaftlichen wie auch aus ressourcenökonomischen Gründen gerechtfertigt ist. Denn der Aufbau einer digitalen Infrastruktur kostet natürlich erst einmal Geld, und er braucht durch die Fertigung der elektronischen Komponenten auch erst einmal Ressourcen. Manche Ansätze der Digitalisierung im Wohnumfeld – etwa die Waschmaschine, die bei günstigen Strompreisen startet – haben sich bisher nicht durchsetzen können, weil die Wirtschaftlichkeit für die Konsumenten nicht gegeben war.
Nur dort, wo der spätere Vorteil die anfänglichen Investitionen tatsächlich überwiegt, wird im Sinne der Nachhaltigkeit künftig ein Gewinn zu erzielen sein. Diese Ansätze zu finden, stellt die Herausforderung der Zukunft dar.

Neurofinance

Ein neuer Ansatz sorgt für Furore an den Kapitalmärkten: Roland Ullrich und Bernd Weber gewähren Einblicke in ein vielversprechendes Forschungsgebiet.

Herr Prof. Weber, noch ist die Beratung in Banken eine Bastion der menschlichen Intelligenz. Wann werden selbstlernende Computersysteme mit Siri-Stimme und Avatar-Gesicht den klassischen Kundenberater ersetzen?
Man sieht derzeit in vielen Bereichen der Kundeninteraktion die Nutzung von Avataren. Dies stößt bei vielen Verbrauchern auf dem jetzigen Stand der Technik aber auch auf große Skepsis bis Ablehnung. Menschen reagieren sehr sensibel auf ihr Gegenüber und Nuancen in sozialen Interaktionen. Bei den aktuellen Systemen der „künstlichen Berater“ ist dies sehr weit von natürlichen Interaktionen entfernt und führt eher zur Ablehnung durch die Kunden. Selbstlernende Algorithmen, die auf die individuellen und eben auch schwankenden emotionalen Bedürfnisse der Kunden eingehen, wird es auf absehbare Zeit nicht geben.

Herr Ullrich, Sie schreiben, der Schwerpunkt Ihrer Konferenz ist der Transfer von Forschungsergebnissen in die Praxis der Finanzindustrie, welche Trends machen Sie aus?

Roland Ullrich

Die spannenden Erkenntnisse der modernen Hirnforschung sind mittlerweile in den Management- und Finanzkreisen der deutschen Wirtschaft angekommen. Neurofinance macht sich die neuesten neurowissenschaftlichen Methoden und Technologien zunutze, um das Verhalten der Menschen an den Finanzmärkten zu analysieren. Dabei hat sich herausgestellt, dass wir trotz all dem Wissen und der Informationen, die wir „real time“ zur Verfügung haben, nicht in der Lage sind, vernünftig mit Geld umzugehen. Aus der Evolution stammende, unbewusste Verhaltensmuster spielen uns allzu oft einen Streich.  Denn unsere uralten Gehirnsysteme sind das Ergebnis eines evolutionären Selektionsprozesses. Sie sind uns zum Überleben gegeben und einfach nicht dafür geeignet, rationale Entscheidungen an komplexen Finanzmärkten zu treffen. Finanzmärkte folgen völlig anderen Gesetzen. Die gute Nachricht ist, dass unser Gehirn vollkommen plastisch ist, d. h. lebenslang wandelbar. Wir können lernen, die Kontrolle über unsere automatischen Gehirnaktivitäten zu erlangen. Hirnforscher sind heute in der Lage, Anlegerverhalten vorherzusagen und zu beeinflussen. Mit dem Bewusstsein, wie unser Gehirn finanzielle Entscheidungen trifft, können wir Methoden erlernen, die uns helfen, im ökonomischen Sinn rationaler, d. h. besser mit Geld umzugehen. Hierzu zählen zum Beispiel Mindfulness-Training, Neurofeedback und Neurocoaching. Bei vielen angelsächsischen Investoren sind diese Methoden populär. Zusammen mit der DFVA wollen wir die Ergebnisse der Neurofinance Forschung in Deutschland bekannter machen und eine Plattform für die verschiedenen Anwendungsmöglichkeiten bieten. Gleichzeitig zeigt der Trend zur Digitalisierung der Finanzbranche, wie irrationales Anlegerverhalten mithilfe kognitiver Technologien ausgeschaltet werden kann. Algorithmen-basierte Anlageprodukte und digitales Asset-Management können dazu beitragen, dass Anleger und Investoren ihre Emotionen besser in den Griff bekommen.

Herr Ullrich, welche Schwerpunkte und Themen haben Sie für die erste „Neurofinance-Konferenz“ gewählt?
Gemeinsam mit der DVFA haben wir ein Konferenzkonzept entwickelt, welches aus zwei Bausteinen besteht. Zu Beginn geht es darum, die spannenden Erkenntnisse der Neurofinance-Forschung den Teilnehmern verständlich zu machen. Mit dem Bewusstsein, wie emotional und oftmals irrational wir finanzielle Entscheidungen treffen, geht es im zweiten Baustein darum, dieses Wissen in die Praxis zu übertragen und Anwendungsmöglichkeiten vorzustellen. Liegt die Zukunft in kognitiven Trainingsmethoden zur Verbesserung finanzieller Entscheidungsprozesse oder werden uns bald selbstlernende Algorithmen und Künstliche Intelligenz steuern? Mensch oder Maschine? Oder lässt sich menschliche Intelligenz mit kognitiven Technologien verbinden?
Herr Prof. Weber, können Sie uns kurz und bündig erklären, was wir unter den Begriffen „Neurofeedback“ oder „Mindfulness“ verstehen dürfen?
Diese verschiedenen „Interventionen“ stellen Verfahren dar, die dazu dienen sollen, die Prozesse von Entscheidungen zu verbessern. Bei Neurofeedbackmethoden werden direkt biologische Signale visualisiert und den Nutzern zurückgespielt. Diese sollen dann lernen, bestimmte neuronale Muster zu verstärken oder abzuschwächen. Hier existieren eine Reihe von Studien, v.  a. im medizinischen Kontext, dass diese Feedbackmethoden in der Lage sind, z. B. die Symptome bei Angst- oder Suchterkrankungen zu verbessern. Mindfulness – oder ähnliche Traingsverfahren – sollen dazu dienen, sich seiner emotionalen Zustände bewusster zu werden und damit in der Lage zu sein, diese besser in Entscheidungen zu nutzen. Auch diese Verfahren sind im Bereich der Psychotherapie stark etabliert und zeigen auch positive Effekte für ökonomisches Entscheidungsverhalten.

Herr Prof. Weber, wo sehen Sie wichtige Aspekte für die Zukunft der Forschung im Bereich der Neurofinance?

Prof. Bernd Weber

In den letzten Jahren haben wir extrem viel über basale Mechanismen von Entscheidungen gelernt. Wir stehen trotzdem noch am Anfang. Obwohl sich viele Studien mit Themen wie „nudging“ von Finanzentscheidungen beschäftigt haben, existieren noch eine Reihe spannender Fragen, welche helfen könnten, Interventionen oder Unterstützungen von Entscheidern zu verbessern. Ein wichtiger Aspekt dabei wäre z. B., die riesige Anzahl von Entscheidungsverzerrungen, die bisher beschrieben sind, auf eine geringe Anzahl von Prinzipien zu reduzieren, welche es ermöglichen würde, bessere Modelle von Entscheidungen zu entwickeln. Aber auch ganz konkrete Fragen wie: Welche Rolle spielen soziale Medien oder genereller soziale Interaktionen in Finanzentscheidungen? Wieso sind viele Privatinvestoren bereit, größere Gebühren für aktiv gemanagte Fonds zu bezahlen, wobei ein Großteil der Daten zeigt, dass günstigere z. B. Indexfonds eigentlich die gewinnbringendere Wahl für sie wären?

 

 

 

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Prof. Bernd Weber

Informationen zu Roland Ullrich

Digital Finance

FinTechs gehen mit frischen Ideen auf den Markt und verändern diesen nachhaltig. Neue Technologien offenbaren ihr disruptives Potenzial.

von Andreas Fuhrich

Zwar begann die Digitalisierung der Banken mit dem Online-Banking schon im letzten Jahrtausend, doch weitere Innovationen blieben lange aus. Für den Knotenpunkt aller Geldgeschäfte galt der Bankkunde als Selbstverständlichkeit und musste nicht mit technischen Neuerungen gebunden werden. Selbst das Online-Banking diente mehr dem Stellenabbau und der damit verbundenen Gewinnoptimierung als dazu, einen wirklichen Service anzubieten. Heute noch beworbene Tagesgeldkonten wirken wie absurde Überbleibsel aus der Zeit, in der sie mit lukrativen Zinsen als Online-Banking-Marketingmaschine fungierten.
Seit einigen Jahren verändert nun die aufstrebende FinTech-Branche den Finanzmarkt. Dem Kundenwunsch nach mehr digitalen Lösungen, der vor allem durch die Entwicklungen der Mobile Devices mit ständigem Internetzugriff noch verstärkt wird, soll entsprochen werden. Vormals ineffiziente und unflexible Geschäftsfelder werden revolutioniert oder zumindest den neuen technologischen Möglichkeiten angepasst. Die Finanzkrise 2008, das zerstörte Vertrauensverhältnis zu den Großbanken, diente dabei als Katalysator für die junge Branche, die offen in Konkurrenz zu den alteingesessenen Instituten tritt.

Durch den Druck der FinTechs und der Digitalisierung der Finanzbranche haben mittlerweile auch traditionelle Bankhäuser erkannt, dass sie aktuelle Techniken einsetzen müssen, um den Bedürfnissen der Kunden zu entsprechen. Zwar arbeitet man jetzt verstärkt an der Modernisierung und Technologisierung der gesamten Dienstleistungskette, kann jedoch nicht mit der Innovationskraft eines agilen Start-ups mithalten. Verschärfte Regulierungen und neue BIZ-Eigenkapitalvorschriften erschweren  den Prozess zusätzlich. Wohl deshalb treten viele Banken seit einiger Zeit nicht mehr nur als Konkurrent, sondern als Partner von FinTechs auf. So erhalten sie die Möglichkeit, zeitnah ihren Kunden Innovationen anzubieten, ohne eigene Forschung betreiben zu müssen. Auch FinTechs haben erkannt, dass durch Partnerschaften Win-win-Situationen entstehen. Die vielen Regularien machen es für Start-ups fast unmöglich, die Bedingungen für eine Banklizenz zu erfüllen, die für manche Dienstleistungen, wie z. B. die Kreditvergabe, aber zwingend erforderlich ist. Anstatt sich selbst mit den hohen Anforderungen auseinanderzusetzen, übernimmt jetzt die lizensierte Partnerbank die endgültige Abwicklung.

Die Innovationen der Finanztechnologie beginnen dabei gerade erst, die Branche immer stärker und immer schneller umzukrempeln. Eine accenture-Studie belegt, dass die Investitionen in FinTechs von weltweiten 1,791 Milliarden Dollar im Jahr 2010 auf über 22 Milliarden 2015 anwuchsen.(1)
Allein in den letzten beiden Jahren machten zwei Schlagwörter auf sich aufmerksam, denen ein ungeheures disruptives Potenzial zugesprochen wird. 2015 wurden weltweit über 800 Millionen Dollar in InsurTech-Start-ups investiert,(2) also in Unternehmen, die neue Lösungen für die Versicherungsbranche liefern. Laut einer McKinsey-Studie könnte dadurch in den nächsten zehn Jahren jeder vierte Arbeitsplatz in der westeuropäischen Versicherungsbranche verloren gehen.(3) 2016 sorgte der Begriff „Blockchain“ für Aufsehen. Ob die Technologie hinter dem Bitcoin tatsächlich dem disruptiven Potenzial gerecht wird, welches ihr zugesprochen wird, bleibt abzuwarten.

Quellen:

(1)    accenture-Studie: „Fintech and  the evolving landscape: landing points for the industry“ von: Julian Skan, James Dickerson und  Luca Gagliardi, 2016. URL: https://www.fintechinnovationlablondon.co.uk/pdf/Fintech_Evolving_Landscape_2016.pdf (Abgerufen: 16. November 2016).
(2)    Seite „Versicherungstechnologie“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 26. August 2016, 13:13 UTC. URL: https://de.wikipedia.org/w/index.php?title=Versicherungstechnologie&oldid=157401432 (Abgerufen: 16. November 2016, 09:44 UTC).
(3)    McKinsey Studie: „Automating the insurance industry“ von: Sylvain Johansson und Ulrike Vogelgesang, 2016, URL: https://www.mckinsey.com/industries/financial-services/our-insights/automating-the-insurance-industry (Abgerufen: 16. November 2016).

Virtual & Augmented Reality

Postdigitale Transformation: Augmented und Virtual Reality – wenn Devices unser aller zweite Haut werden

Computergenerierte interaktive Simulationen mittels kleiner Devices in unserem Leben eröffnen schier unendliche Potenziale an Möglichkeiten, um die Welt neu zu erfahren. Technologische Entwicklungen, die es uns jetzt schon erlauben, die Wirklichkeit zunehmend zu virtualisieren, sind vorhanden. Schon jetzt lässt sich erahnen, welche Änderungen auf uns zukommen. Die Art, wie wir miteinander interagieren und wie wir die Welt wahrnehmen werden, wird nicht mehr dieselbe sein.

Was ist Augmented Reality?
Unter „Augmented Reality“ (kurz AR), also erweiterte Realität, versteht man die computergestützte Erweiterung der Realitätswahrnehmung. Diese Informationen können alle menschlichen Sinnesmodalitäten ansprechen.  Häufig wird jedoch unter erweiterter Realität nur die visuelle Darstellung von Informationen verstanden, also die Ergänzung von Bildern oder Videos mit computergenerierten Zusatzinformationen oder virtuellen Objekten mittels Einblendung/Überlagerung. Bei Fußball-Übertragungen ist erweiterte Realität beispielsweise das Einblenden von Entfernungen bei Freistößen mithilfe eines Kreises oder einer Linie. (Wikipedia – Erweiterte Realität)

Im „Realitäts-Virtualitäts-Kontinuum“ (nach Paul Milgram et al., 1994) sind die erweiterte Realität („Augmented Reality“) und erweiterte Virtualität („Augmented Virtuality“) Teil der sogenannten gemischten Realität („Mixed Reality“). Während der Begriff Augmented Virtuality kaum benutzt wird, werden Augmented Reality und Mixed Reality, selten auch Enhanced Reality, meist synonym verwendet.
Im Gegensatz zur virtuellen Realität (kurz VR), bei welcher der Benutzer komplett in eine virtuelle Welt eintaucht, steht bei der erweiterten Realität die Darstellung zusätzlicher Informationen im Vordergrund. Virtuelle Realität und die Realität werden also miteinander kombiniert oder teilweise überlagert. Interaktivität in Echtzeit, in der reale und virtuelle Objekte dreidimensional zueinander in Bezug stehen. Diese Definition umfasst jedoch nur technische Merkmale und beschränkt sich dabei auf einen Teilaspekt von AR.

Andere Arbeiten definieren AR als eine Ausweitung der Sinneswahrnehmung des Menschen durch Sensoren um Umgebungseigenschaften, die der Mensch selbst nicht wahrnehmen kann, wie z. B. Radar, Infrarot und Distanzbilder. Menschliche Eigenschaften können damit durch AR verstärkt oder gar ergänzt werden.
Allein die visuelle Modalität bedeutet eine nicht unwesentliche komplexe Herausforderung an die Positionsbestimmung (Tracking) und Kalibrierung. Um eine Augmented-Reality-Anwendung aufzubauen, benötigt es AR-Systeme (kurz ARS), die sich aus technischen Bestandteilen, wie z. B. Kamera, Trackinggeräte, Unterstützungssoftware usw. zusammensetzen. VR und AR sind weit mehr als nur ein Hype. Erkennen lässt sich dies nicht nur an ernst zu nehmenden Hardware-Entwicklungen / Devices für AR-Systeme, wie Facebooks Oculus Rift, HTC VIVE und Microsofts HoloLens, die mittlerweile durchaus massentauglich sind. Auch geistiges Eigentum wird sich einverleibt.

Erst jüngst wurden spannende Investitionen von Giganten wie Google, Facebook oder Apple getätigt, wie bspw. im Falle von MagicLeap. Die großen Player am Markt bereiten sich offensichtlich auf eine Zukunft mit AR vor. Viele Argumente sprechen zudem  für den Einsatz und das Wachstumspotenzial dieser neuen Technologien: Kostenersparnisse, Qualitätssteigerungen, Sicherheit.

VR- und AR-Technologien haben einen großen Einfluss – nicht nur auf unsere zukünftigen Lebens- und Arbeitswelten. Bereits eingesetzte VR- und AR-Anwendungen lassen dies jetzt schon erkennen. Pick-by-Prozesse in der Logistik und Produktpräsentationen im B-to-C Handel  werden schon sinnvoll optimiert und teils völlig verändert.

Begriffserklärung

Am besten veranschaulicht man sich diese abstrakten Begriffe an konkreten Beispielen:
Reine Realität ist ein Mensch, der zum Einkaufen in den Supermarkt geht.
Erweiterte Realität sind Brillengläser, auf deren Innenseite ein Computer den Einkaufszettel des Benutzers projiziert; und zwar so, dass beim Benutzer der Eindruck entsteht, der Einkaufszettel sei an die Wand des Supermarktes angeschrieben. Die Wirklichkeit wird hier um virtuelle Informationen angereichert.
Erweiterte Virtualität ist ein Computerspiel, das über einen VR-Helm gespielt wird und das die Türsprechanlage auf die Kopfhörer überträgt, wenn es an der Tür klingelt. Die Virtualität wird hier um reelle Informationen angereichert.
Virtuelle Realität ist ein Computerspiel, das über einen VR-Helm gespielt wird und nicht auf die reale Außenwelt des Benutzers reagiert.
(Quelle: Wikipedia„Mixed Reality“)

Mobile Economy

Ortsungebunden und immer erreichbar. Smartphones und Tablets stellen den „Arbeitsplatz“ in Frage und ermöglichen neue flexible Arbeitsweisen.

von Brigitte Kasper

Die Initialzündung für „Mobile“ kam sicherlich durch die Einführung von iPhone und iPad. Mit einem Mal genügte es nicht mehr, mit dem Handy nur zu telefonieren und ein paar SMS zu versenden. Zwar konnte man mit den damaligen mobilen Geräten auch schon z. B. Musik hören, fotografieren und E-Mails empfangen und versenden, jedoch geschah das noch mehr oder weniger halbherzig bzw. war auf nicht allzu viele geschäftliche Nutzer begrenzt. Mit den neuen Prestigeobjekten, die zudem durch eine neuartige Bedienung glänzten, eröffnete sich ihren Nutzern so nach und nach die Welt der Applikationen (Apps), d. h., von kleinen, auf dem Gerät gespeicherten oder ladbaren Programmen, über die man sich – zum Teil spielerisch – immer neue Anwendungen, Nutzen und Mehrwerte erschloss. Andere Hersteller zogen mit den sogenannten Smartphones und Tablet-PCs nach, für die nun ihrerseits ein kaum noch zu überblickendes App-Universum entstand.

Mittlerweile geht es nicht mehr ohne. Mobile ist zu einem gesamtgesellschaftlichen Phänomen geworden – sowohl privat als auch im Business. Mancherorts heißt es nicht mehr „Mobile First“, sondern „Mobile Only“. Es wird mobil gelebt, gespielt, gearbeitet, gelernt, eingekauft, bezahlt und Geld überwiesen. Kaum ein Unternehmensbereich oder eine Branche kommt noch ohne mobile Arbeitsmittel aus, sei es im Vertrieb, in der Kundenberatung oder im Außendienst, in der Logistik oder im Handwerk. Moderne Apps machen es möglich, von überall her z. B. auf weiterführende Informationen oder Unternehmens- und Kundendaten zuzugreifen, um so die Kundengespräche oder auch Finanzberatungen durch aktuelle Fakten untermauern zu können. Oder vor Ort gewonnene Messdaten via App und Mobilfunk in den Unternehmensserver zu senden, um sie dort zu speichern und auszuwerten.

Die Zahlen sprechen für sich: Laut dem aktuellen Ericsson-Mobility-Report wird die Anzahl der Smartphone-Verträge 2016 weltweit auf 3,9 Mrd. steigen. Nahezu 90 % der Kunden werden dann die schnellen WCDMS/HSPA- und LTE-Netze nutzen. In Deutschland werden insgesamt voraussichtlich 27,9 Mio. Geräte über den Ladentisch gehen, so die Prognose des Digitalverbands Bitkom. 76 % aller Bundesbürger ab 14 und bis 69 Jahre nutzen bereits ein Smartphone und mit ihm auch das mobile Internet. Das Tablet hingegen läuft langsam Laptop und Notebook den Rang ab.

Nach ihrem Siegeszug im Privaten krempeln Smartphone und Tablet nun die Arbeitswelt um und ermöglichen neue Arbeitsweisen – losgelöst von Raum und Zeit. Wie aus dem aktuellen „Adobe Enterprise Mobile Survey“ hervorgeht, setzen 75 % der hiesigen Firmen inzwischen Enterprise-Mobile-Apps für tägliche Arbeiten ein, beispielsweise für eine verbesserte Kommunikation der Mitarbeiter untereinander, mit Kunden oder auch in Sales-Prozessen – auch von unterwegs und außerhalb der „normalen“ Arbeitszeiten. Vertrieb, Marketing, Kundenberatung usw. werden sich in einem Maß den mobilen Möglichkeiten anpassen müssen, das heute noch gar nicht abzuschätzen ist. So wie die Kunden jederzeit, überall und flexibel erreichbar sind, erwarten sie es auch von ihren Geschäftspartnern. Starre und archaische Hierarchien, bislang erfolgreiche Geschäftsmodelle und Märkte sowie bestehende Wertschöpfungsketten müssen hinterfragt und gegebenenfalls aufgebrochen werden. Neue Denkweisen und Geschäftsmodelle müssen her. Nicht umsonst fordert der VDE mehr „Californian Spirit“ statt „German Angst“. Er sieht die Digitalisierung als Feuerprobe für Deutschland 4.0. Kaum auszudenken, würde man hier den Anschluss an die USA und Asien verlieren.

Vom ECM zum EIM

Auf den Content kommt es an: Die Informationsbeschaffung und -verarbeitung erfordert eine sich selbst optimierende Organisation.

von Dr. Ralf Magagnoli

Wer nicht mit der Zeit geht, wird mit der Zeit gehen“, sagt ein Sprichwort. Unternehmen stehen vor der Herausforderung, ihren Beschäftigten, aber auch Kunden und anderen Geschäftspartnern zeitnah Informationen bereitzustellen – und zwar auf unterschiedlichsten Kanälen. Diese Informationen müssen nicht nur schnell, sondern auch sicher und hochwertig sein. Im Vordergrund steht dabei der Nutzen des Anwenders, egal ob er als Beschäftigter im Unternehmen selbst arbeitet oder ein Externer ist.

Die Informationsbeschaffung und -verarbeitung erfordert also eine sich selbst optimierende Organisation, sprich das Unternehmen muss aus den Informationen lernen und das Angebot anwenderorientiert anpassen. Zudem erwarten Geschäftspartner, Informationen über die selbst gewählten Kanäle zu erhalten und auszutauschen, ohne dass es zu Beeinträchtigungen der Informationsqualität kommt.

„Enterprise Content Management“ und „Enterprise Information Management“

Damit steigen die Anforderungen an Systeme im Hintergrund, die Informationen sammeln, kontextuell verbinden und Prozesse steuern, also an ECM-Systeme („Enterprise Content Management“) und EIM-Systeme („Enterprise Information Management“). ECM- und EIM-Systeme helfen also dabei, Mitarbeiter beim Erfassen, Suchen, Verwalten und Verteilen von Daten zu entlasten, Prozesse zu automatisieren und zu vereinfachen und somit die Effizienz der Prozesse zu steigern – und darüber hinaus die Qualität der gelieferten Daten zu verbessern. ECM und EIM sind also nahe Verwandte, wenngleich man das EIM in gewisser Weise als Weiterentwicklung des ECM-Ansatzes sehen kann. Beim ECM steht der technische Aspekt im Vordergrund: Es geht um Technologien, die das Erfassen, Verwalten, Speichern, Sichern und Bereitstellen von Daten ermöglichen, mit denen organisatorische Prozesse unterstützt werden. Hierbei handelt es sich meist um unstrukturierte oder schwach strukturierte Daten. Das EIM geht darüber hinaus: Stärker als beim ECM steht der jeweilige Anwender, egal ob Interner oder Externer, mit seinen spezifischen Bedürfnissen im Mittelpunkt. Mehr als beim ECM geht es beim EIM um kommunikative, informelle und organisatorische Aufgaben. Zudem bieten EIM-Systeme größere Möglichkeiten zur Verwaltung von strukturierten und unstrukturierten Daten.

Integration unterschiedlicher Systeme

Die Herausforderung, vor der sowohl ECM- als auch EIM-Systeme stehen, besteht darin, Daten aus unterschiedlichen Systemen zu verbinden und, soweit dies möglich ist, automatisch zu klassifizieren und zu verarbeiten. Hier spielt die Digitalisierung eine entscheidende Rolle, geht es doch zunehmend darum, plattformübergreifend zu arbeiten, Insellösungen und vertikale Applikationen zu integrieren und etwaige Datenbrüche zu vermeiden. Außerdem wird das Thema Mobilität wichtiger: Der Anwender möchte die Daten nicht nur von seinem Rechner, sondern mobil auf seinem Smartphone per App bereitgestellt bekommen: Zum Beispiel der Vertriebler, der sich auf ein Kundengespräch vorbereitet und dazu die Kundenhistorie abrufen will. Oder der Manager, der für ein Treffen mit dem Lieferanten Informationen über verspätete Lieferungen benötigt.

Im Allgemeinen gilt: Je weniger der Nutzer bemerkt, welche Systeme im Hintergrund stehen, je mehr ihm nur diejenigen Daten zur Verfügung gestellt werden, die er für seine Arbeit benötigt – statt einer Datenflut, die er nicht bewältigen kann –, je besser man sich an die Bedürfnisse des Nutzers anpassen kann, umso besser funktionieren ECM und EIM. Im Folgenden sollen einige Trends und Geschäftsmodelle vorgestellt werden.

Business-Design für den digitalen Wandel

von Elmar Nathe

Die digitale Transformation erfordert vom Topmanagement eines Unternehmens das grundlegende Überdenken des etablier­ten Geschäftsmodells und die Neuausrichtung der Geschäftsorganisation. Neue Geschäfts­chancen, die durch die Digitalisierung erst ermöglicht werden, müssen erst verstanden und auf ihre Relevanz zur Erneuerung des Geschäftsmodells geprüft werden. Digitalisierung verzahnt Business und IT unmittelbar. Jede Neuaus­rich­tung löst sofort eine entsprechende Änderung in der IT aus. Auch wenn IT-Trends wie z. B. „Internet of Things“ sicher die Weichensteller der digitalen Geschäftsmodelle sind, sollten Unternehmen beim Entwurf ihrer digitalen Strategie an den Nutzen für ihre Kunden denken. Startpunkt sind also die – wahrscheinlich schon – bekannten Probleme der Kunden. Ein tieferes Verständnis zu entwickeln, worin der Kern des Problems eigentlich besteht und welche Ansätze diese lösen können. Mögliche Fragestellungen sind:

  • Was sind die aktuellen Herausforderungen unserer Kunden in ihren Märkten?
  • Wie können digitale Technologien unsere Produkte bzw. Services verbessern?
  • Wie können unsere Kunden enger an uns gebunden werden?

Doch wie kann effektiv eine digitale Strategie entwickelt und umgesetzt werden? Das wird am Beispiel eines Maschinenbauers dargestellt. Dieser möchte sein herkömmliches, auf der Konstruktion, Produktion und Lieferung von Spezialmaschinen beruhendes Geschäftsmodell erweitern. Hierfür sollen Technologien aus der Industrie 4.0 wie z. B. Sensoren, RFID und Big Data genutzt werden.

Zur digitalen Strategie mit vier Management-Werkzeugen

Die pragmatische, lösungsorientierte Kopplung von Business und IT ist im Rahmen der digitalen Transformation wichtig. Hierfür bietet es sich als Unternehmen an, folgende Elemente auszuarbeiten:

  • Customer-Journey-Mapping
  • Geschäftsfähigkeiten-Landkarte
  • Value-Proposition
  • Lean Start-up.

Potenziale aus der Kundensicht entdecken

Elmar Nathe

Customer-Journeys stellen die Reise des Kunden bei der Interaktion mit dem Unternehmen dar. Dadurch lassen sich Potenziale und Ansatzpunkte aus Kundensicht entdecken. Hierbei ist es entscheidend, sich auf die Darstellung der Herausforderungen und der Erwartungshaltung der Kunden zu konzentrieren. Die IT kommt erst ins Spiel, wenn es darum geht, wie die identifizierten Probleme gelöst werden können. Als Best Practice hat es sich herausgestellt, dass aus den Customer-Journeys Geschäftsfähigkeiten abgeleitet werden, die das Unternehmen aufbauen muss, um die Kundenbedürfnisse besser bedienen zu können.
Bei dem Maschinenbauer beginnt die Customer-Journey des Kunden bei der Planung der neuen Maschinen und bildet anschließend den Kauf, Betrieb und die Instandhaltung der Anlage bis zur Ersetzung dieser ab. Bzgl. der Instandhaltung könnte erkannt werden, dass es strategisch entscheidend ist, über Geschäftsfähigkeiten zu verfügen, die dem Kunden helfen, die Maschinenlaufzeiten und die -auslastung zu erhöhen.

Nutzen für den Stakeholder herausarbeiten

Ob eine solche Geschäftsfähigkeit das Potenzial hat, ein neues Geschäftsmodell zu tragen, kann über einen „Business Model Canvas“ (BMC) pragmatisch beschrieben werden. Zentral für den BMC ist das Konzept der Value-Proposition (dt.: Leistungsversprechen). Auf dieser Ebene werden noch nicht die konkreten digitalen Services beschrieben, sondern welcher Wert bzw. Nutzen für den Stakeholder erzeugt werden soll.
Im Kontext einer digitalen Strategie sind Customer-Journeys und die abgeleiteten Geschäftsfähigkeiten ein guter Ausgangspunkt, um eine griffige Value-Proposition für eine Gesamtstrategie zu bilden. So ergibt sich insgesamt ein verständliches Zielbild der digitalen Transformation des Unternehmens. Der Maschinenbauer könnte sich für die Zukunft entscheiden, sich mithilfe von Nutzungsdaten aus der IT und von neu entworfenen Serviceprozessen vom reinen Maschinenlieferanten hin zum Managed-Service-Provider zu entwickeln, der dem Kunden hilft, die Maschinenlaufzeiten und -auslastung zu optimieren.

Kernfunktionalitäten werden im MVP abgebildet

Nach Customer-Journey, Geschäftsfähigkeiten und definierten Value-Propositions kommt die Feinarbeit! Jetzt gilt es, konkret die einzelnen, neuen Geschäftsfähigkeiten zu detaillieren und in IT-Produkte umzusetzen. Business und IT arbeiten hier Hand in Hand zusammen, um iterativ und möglichst schnell das Produkt auf den Markt zu bringen. Nach dem Lean-Start­up-Ansatz wird zuerst ein „Minimum Viable Product“ (MVP) entwickelt. Das MVP enthält nur die Kernfunktionalitäten, die den primären Nutzen für den Kunden generieren sollen. Das MVP wird schnellstmöglich auf den „Markt“ gebracht, um zu evaluieren, wie die neue Produktidee basierend auf der Value-Proposition tatsächlich bei den Kunden ankommt.

Der Maschinenbauer könnte in ersten Workshops gemeinsam mit ausgewählten Pilotkunden die Hauptursachen für Maschinenausfälle ermitteln und sich in einem MVP auf diese fokussieren. Hierfür wird ein erster Prozess entworfen, mit dem die Betriebsdaten der Maschinen analysiert und Muster erkannt werden können, die auf ein technisches Problem hindeuten. In einem iterativen Prozess können dann mit den Kunden Serviceprozesse und die zugrunde liegenden IT-Systeme weiterentwickelt und verfeinert werden, bis das neue Geschäftsmodell Managed-Service-Provider tragfähig und profitabel ist.
Werden die Schritte systematisch durchgeführt, wird so eine zukunftsträchtige digitale Strategie für das Unternehmen entwickelt. Kreative, innovationsfördernde Methoden und iterative, auf schnellem Kundenfeedback beruhende Ansätze für das Business-Development lassen auch in etablierten Unternehmen die notwendige Start-up-Mentalität einziehen.

Kernaussagen

Die Digitalisierung eröffnet neue Geschäftschancen. Diese müssen ergebnisoffen in interdisziplinären Teams diskutiert und ausgearbeitet werden.
Bei der anschließenden Ausarbeitung der digitalen Strategie wird der Kunde in den Mittelpunkt gestellt.
Vier Management-Werkzeuge erleichtern die Ausarbeitung der digitalen Strategie:

  • Customer-Journey-Mapping
  • Geschäftsfähigkeiten-Landkarte
  • Value-Proposition
  • Lean-Start-up.

 

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Zum Autoren

BPM: Wegbereiter der digitalen Transformation

von Michael Rossitsch

Business-Process-Management (BPM) gilt vielerorts immer noch als komplex und teuer. Tatsächlich aber reduziert BPM die System- und Prozesskomplexität. Mit einer fundierten Einführungsmethodik beschleunigt sich zudem der digitale Wandel, sodass sich BPM-Kosten dank höherer Effizienz meist schnell wieder refinanzieren.

Zu Recht wird immer wieder darauf hingewiesen, dass es sich bei der digitalen Transformation nicht allein um eine technologische Herausforderung handelt, sondern primär um ein neues Verhältnis zu den Kunden. Weniger klar wird in der Debatte um den digitalen Wandel allerdings eine andere fundamentale Tatsache: Nämlich, dass eine konsequente Kundenorientierung nur auf der Grundlage medienbruchfreier, von Ende zu Ende durchstrukturierter Prozesse möglich ist. So sind zum Beispiel personalisierte Serviceangebote via Internet nicht realisierbar, wenn der Kundenkontakt zwar digital über ein modernes Portal oder mobil via App erfolgt, die dahinterliegenden Abwicklungsprozesse aber nicht von A bis Z optimal aufeinander abgestimmt sind.
In zu vielen Unternehmen werden trotz zeitgemäßer Digitalschnittstelle zu den Kunden nach wie vor servicerelevante Daten manuell von einem System ins andere übertragen. Von unvermeidlichen Fehlern und betriebswirtschaftlich kaum vertretbarem Aufwand einmal abgesehen: Die im Wettbewerb so wichtige Konsistenz eines einheitlichen Markenerlebnisses der Kunden über alle Kontaktkanäle hinweg bleibt unter solchen Bedingungen ein unerfüllbarer Traum. Dass demgegenüber ein hohes Maß an Prozessintegrität und Automation ein wesentliches Merkmal digital exzellenter Organisationen ist, brachte schon 2015 eine grundlegende Studie der Universität Hamburg in Kooperation mit Sopra Steria Consulting ans Licht. Insofern erweist sich Business-Process-Management gleichsam als ein Ticket auf dem Weg zur digitalen Exzellenz.

Assessment: Am Anfang steht die Selbsterkenntnis

Die Digitalisierung der Geschäftstätigkeit bedeutet im Kern eine Digitalisierung von Prozessen. Wäre es demnach nicht am einfachsten, die bestehenden und oftmals langjährig bewährten Prozesse eins zu eins digital abzubilden und so zu automatisieren? Das wäre ein verhängnisvoller Trugschluss. Denn die Struktur der Prozesse so zu belassen, wie sie waren, und sie lediglich auf ein digitales Medium zu übertragen, würde jede Chance zur Innovation verschenken. Stattdessen empfiehlt es sich, im ersten Schritt der BPM-Einführung den Status quo der gesamten Prozesslandschaft systematisch zu erfassen: Welche Genehmigungszyklen spielen eine Rolle? Welche Datenquellen und Abteilungen sind involviert? Welche Teilprozesse sind bereits automatisiert? All dies gilt es zunächst, im Sinne eines Assessments vollständig und detailliert zu dokumentieren.
Auf dieser Basis wird im zweiten Schritt dann sehr schnell deutlich, an welchen Stellen ein Medienbruch Sand ins Workflow-Getriebe streut. In der Praxis haben sich hierfür Ablaufvisualisierungen bewährt, weil damit die Flaschenhälse im bisherigen Prozessgefüge für alle Beteiligten anschaulich sichtbar werden. Nicht selten ergibt sich dabei ein sehr komplexes Bild, bei dem auf Anhieb niemand so recht weiß, wo die Prozessoptimierung am besten beginnen sollte. In solchen Fällen kann es ratsam sein, sich zunächst auf einen überschaubaren Prozessbereich für ein bestimmtes Geschäftsmodell zu beschränken.

BPM im Spannungsfeld von Mensch, Prozess und Technologie

Die Einführung von BPM gliedert sich idealerweise in die vier Phasen Assess, Align, Establish und Transform: Nach einer detaillierten Bestandsaufnahme und Dokumentation der bestehenden Prozesslandschaft werden Optimierungschancen sichtbar. Deren Umsetzung folgt in der Align-Phase anhand strategischer Vorgaben und unter Einsatz visueller Tools. Agile Vorgehensweisen sichern in diesem Schritt die Übereinstimmung der digitalisierten Prozesse und Geschäftsmodelle mit den tatsächlichen Bedürfnissen der späteren Anwender. Weiteres Optimierungspotenzial erschließt sich zumeist auch während der Implementierung in der dritten Establish-Phase. Denn in diesem Projektstadium werden oftmals Standardisierungsinitiativen angestoßen sowie siloartige Datenquellen durch einen Integrations-Layer vereinheitlicht. Die vierte und letzte Phase schließlich bringt explizit den Faktor Mensch ins Spiel – und zwar durch eine gezielte Weiterentwicklung der Unternehmenskultur und geeignete Trainingsmaßnahmen für die betroffenen Mitarbeiter.

Agiler Weg zu perfekten Prozessen

Solche kleineren Prozesspakete bieten den großen Vorteil, dass sie sich besser mit agilen Methoden optimieren lassen: Man entwirft erst einmal einen Prototypen, der weder perfekt noch komplett sein muss. Wichtig ist vielmehr, dass die späteren Prozesseigner und idealerweise auch schon die Kunden, die den Service später nutzen sollen, zu einem möglichst frühen Zeitpunkt in die Prozessgestaltung einbezogen werden. Schritt für Schritt kann der ursprüngliche Prototyp dann in iterativen Schleifen immer weiter verfeinert werden – wobei das Feedback der Anwender als Input für jede nächstfolgende Iterationsschleife dient.

Business-Process-Management ist ein Ticket auf dem Weg zur digitalen Exzellenz.

Im dritten Schritt folgt die sogenannte Establish-Phase: Hierbei geht es darum, das neu gestaltete Prozesspaket für ein digital transformiertes Geschäftsmodell in der vorhandenen IT-Umgebung zu implementieren. Insbesondere werden in dieser Phase frühere Medienbrüche überbrückt – zum Beispiel, indem ein Layer zwischen der Prozessebene und den vormals desperaten Datenquellen eingezogen wird. An dieser Stelle wird deutlich, dass BPM fast immer auch Standardisierungsfragen aufwirft, deren Lösung der eingangs zitierten Studie zufolge ein Unternehmen ebenfalls ein gutes Stück weiter in Richtung digitaler Exzellenz voranbringt.

Der menschliche Faktor

Bei agiler BPM-Prozessgestaltung erhöht die Rückkopplung durch das Feedback der späteren Anwender ohne Frage die Chance auf breite Akzeptanz. Zugleich aber löst die Neustrukturierung von Abläufen im Vorfeld ihrer Digitalisierung auch organisatorische Veränderungen im Unternehmen aus – zum Beispiel, indem eingefahrene Genehmigungsprozeduren und damit auch die zugrunde liegenden Hierarchien auf den Prüfstand gestellt werden. Zudem bringt das digitale Geschäftsmodell selbst mitunter gänzlich neue, für manche Mitarbeiter ungewohnte Aufgaben mit sich. Das betrifft beispielsweise die Kundenbetreuer einer Bank oder Versicherung, die nun auch via Video-Chat ad hoc mit Kunden interagieren. Erst die Befähigung der Belegschaft zur selbstbewussten Nutzung digitaler Tools – und damit zu echter Kundenorientierung – schließt als vierte Phase ein erfolgreiches BPM-Projekt ab.

Der Text ist unter der Lizenz CC BY-SA 4.0 DE verfügbar.
Lizenzbestimmungen: https://handbuch-digitalisierung.de/cc-by-sa


Informationen zu Michael Rossitsch

Neues Lizenzmanagement

Die Lizenzmodelle der Softwareindustrie wandeln sich im Zuge des Cloud-Computings. Neue Abrechnungsmodelle müssen kalkuliert werden.

Die TREND-REPORT-Redaktion sprach mit Prof. Dr. Andreas Gadatsch, Hochschule Bonn-Rhein-Sieg, und Dipl.-Kfm. Stefan Brassel M. A., Bechtle AG, über zukünftige Lizenzpraktiken und die damit einhergehenden Folgen für Unternehmen.

Herr Prof. Dr. Gadatsch, wie werden cloudbasierte Software- und Infrastruktur-Services die heutige IT-Nutzungskultur in den Unternehmen verändern?
Die IT-Leistungen vermischen sich zunehmend mit Business-Leistungen. Der Unterschied zwischen IT und Business verschwindet immer mehr. Anwender werden Leistungen beziehen und nicht danach fragen, ob „die eigene IT das kann oder nicht“. Dies bedeutet, dass der CIO bzw. der CDO mehr in die Rolle des Moderators, Beschaffers und Koordinators wechselt und Innovationen ganzheitlich vorantreiben muss.

Und was ändert sich im Kontext der jetzigen Lizenzpraktiken?
In der Vergangenheit verbanden Kunden mit „Lizenzierung“ lediglich softwaretechnologische sowie lizenzrechtliche Fragestellungen. Software- und Businessstrategie wurden als getrennte Bereiche eingestuft und von verschiedenen Personen verantwortet. In diesem Zusammenhang tauchte die Frage nach dem eigenen IT-Betrieb bzw. internen Unternehmensprozessen – insb. die Fragestellung nach dem sogenannten „Wertbeitrag“ der IT zum Unternehmenszweck im Rahmen der Servicedienstleistung – auf, welche die IT den Fachabteilungen anzubieten hatte. Die Entscheider im Unternehmen hatten oftmals lediglich einen Fokus auf den finanziellen Aspekt. Zudem waren Kaufentscheidungen im Standardsoftwareumfeld oftmals durch die Compliance-Überprüfungen der Lizenzgeber „beeinflusst“ und weniger technologisch getrieben. Wenn Unternehmen sich mit Outsourcing befassten, passierte dies i. d. R. unabhängig von der Softwarebeschaffung, im Rahmen einer grundsätzlichen Strategiediskussion, oftmals vor dem Hintergrund von Kostensenkungsaspekten. Bedingt durch die „Verschmelzung von Software und Hardware sowie Serviceanteilen“ zu Cloud-Diensten, kann man im Rahmen von „Lizenzierung“ nun über Outsourcing durch die Hintertür sprechen. Der Eingriff in Unternehmensprozesse ist teilweise enorm (als Beispiel sei hier nur die technologische Abhängigkeit von Diensten wie Office 365 vom Design des „Active Directory“ eines Kunden genannt), die Anbieterauswahl stark eingeschränkt und SLAs und Haftungsfragen können i. d. R. nicht verhandelt werden. In diesem Zusammenhang gilt es zudem, die Grundsätze der „Principal Agent Theory“ und des Transaktionskostenansatzes im Auge zu behalten.

  • Durch Cloud-Dienste entsteht ein enormes Einsparpotenzial im IT-Betreib, jedoch sollte im Vorfeld eine ausführliche technische Evaluation und eine Analyse der zur Diskussion stehenden Vertragswerke stattfinden.
  • Wo der Einfluss auf die SLAs von großer Bedeutung ist, kann es sinnvoll sein, auf „lokale“ Outsourcing-Partner zu setzen, mit denen Vertragsinhalte noch verhandelt werden können.
  • Früher sorgte der IT-Controller einfach für möglichst niedrige Lizenzgebühren und Mengenvolumina, heute muss er er einen vollständigen Business-Case erstellen bzw. bewerten und ggf. nach Alternativen suchen.

Herr Brassel, wie reagieren Unternehmen am besten und schnell darauf?
Entscheidend ist im ersten Schritt, dass sich die IT-Abteilungen der Unternehmen der Auswirkungen dieser Entwicklung bewusst werden und der CIO in seiner Rolle als Schnittstelle zum Management das Thema „Softwarebeschaffung“ unter den neuen Gegebenheiten auf Managementebene strategisch diskutiert. Hieran schließt sich die Frage nach den Anforderungen an die interne IT an (Wertbeitrag der IT zum Unternehmenszweck). Es ist zu klären, welche der erbrachten Leistungen eher „Commodity“ ohne strategische Relevanz sind und welche Leistungen als erfolgskritisch für die Unternehmensstrategie angesehen werden können.

Was müssen Unternehmen jetzt konkret tun?

Dipl.-Kfm. Stefan Brassel M. A.

Zu empfehlen ist hier eine Analyse und Clusterung der Unternehmensdaten. Welche Daten sind für den Unternehmenserfolg so entscheidend, dass sie nicht herausgegeben werden können, selbst wenn sie verschlüsselt wurden, und welche Daten könnte man auslagern? Im Allgemeinen bietet es sich an, über die Auslagerung von Basis-IT-Services wie Mail, Collaboration, Communication und DataShare nachzudenken. Denn hier lassen sich neben Standardisierungsüberlegungen und Einsparpotenzialen im IT-Betrieb insb. auch Optimierungen im Bereich der Administration realisieren. Dies erfordert jedoch im Vorfeld neben einer ausführlichen technischen Evaluation auch eine Analyse der zur Diskussion stehenden Vertragswerke in Bezug auf „Service Level Agreements“ (SLA), Pönalen (Strafen für SLA-Verletzungen), Datenschutz, Laufzeiten und Kündigungsfristen. Auch gilt es, den „regulären“ Unternehmensbetrieb im Verhältnis zu extrem störempfindlichen Unternehmensbereichen, wie z. B. einem Produktionsbetrieb, zu analysieren und für den IT-Support jedes einzelnen Unternehmensbereiches eine gesonderte „Make or buy“-Entscheidung zu treffen.

 

 

 

Herr Prof. Dr. Gadatsch, wie wirkt sich der Wandel auf das IT-Controlling aus?

Dr. Andreas Gadatsch, Hochschule Bonn-Rhein-Sieg

Die Rolle des IT-Controllers besteht ja für viele immer noch im jährlichen Aufstellen von IT-Budgets und deren monatlicher Kontrolle. Diese Eingrenzung ist historisch bedingt nachvollziehbar, weil früher hohe IT-Kosten „verdächtig“ waren und die Unternehmensleitung bestrebt war, die IT-Kosten möglichst zu senken. Beim klassischen Lizenzcontrolling hat dieses Modell noch funktioniert. Der IT-Controller sorgt für möglichst niedrige Lizenzgebühren und Mengenvolumina in Kooperation mit dem IT-Einkauf. Heute wird eher danach gefragt, welche IT-Investitionen sinnvoll sind und wie sie sich auf die Geschäfte des Unternehmens auswirken. Im Rahmen der aktuellen Veränderungen müssen komplexe Prozesse bewertet werden. Dies macht die Aufgabe des IT-Controllers wesentlich schwieriger. Er muss nun einen vollständigen Business-Case erstellen bzw. bewerten und ggf. auch nach Alternativen suchen.
Müssen neue Attribute, Begriffe oder Rollen für das Risikomanagement gefunden werden?
Neue Begriffe sind immer gut für Berater, Journalisten und Wissenschaftler. Oft findet man aber den bekannten alten Wein in neuen Schläuchen. Es kommt aber immer auf die Inhalte an. Das Risikomanagement war bislang im IT-Controlling nur ein Thema von vielen. Es ist aufgrund der veränderten Rahmenbedingungen wahrscheinlich, dass die Aufgabengebiete IT-Controlling und IT-Risikomanagement enger zusammenwachsen. Vielleicht ist Risikomanagement in Zukunft eine Kernaufgabe des IT-Controllers.

Herr Brassel, quasi die Renaissance der SLA?
Eher eine ganz neue Wahrnehmung der Bedeutung von unternehmensinternen SLAs. Den Unternehmen muss bewusst sein, dass sie etwas „Outsourcen“ um Geld zu sparen, womit der beteiligte Dienstleister aber dennoch Geld verdienen möchte. So etwas funktioniert nur über Skalierung bzw. Standardisierung. Die SLAs im Rahmen von Diensten wie z. B. Office 365 der Firma Microsoft sind im Prinzip nicht verhandelbar. Der Dienst ist auch nur oberflächlich individuell „konfigurierbar“. Die Prozesse, Verfügbarkeit und Haftungsfragen sind weitestgehend vom Anbieter vorgegeben und weltweit standardisiert. Das wirft im Bezug auf SLAs ganz neue Fragen auf. Wo vom Nachfrager maximale Flexibilität und Verfügbarkeit gefordert werden, scheiden solche hochstandardisierten Dienste eher aus. Wo der Einfluss auf die SLAs von großer Bedeutung ist, kann es nach wie vor sinnvoll sein, auf „lokale“ Outsourcing-Partner zu setzen, mit denen die Vertragsinhalte noch verhandelt werden können. Somit könnte man eher von einer Renaissance der grundsätzlichen Make-or-buy-Strategie in einem Unternehmen sprechen, des grundsätzlichen Sourcingansatzes vor dem Hintergrund der Anforderungen an SLAs. Zumindest was IT-Dienste betrifft.

Herr Prof. Dr. Gadatsch, CIO, CEO und CDO: Wie sieht die neue Rollenverteilung im Kontext der „transformierten IT“ aus?
Die Rolle des CIO wurde über 20 Jahre lang diskutiert, trotzdem finden Sie in den Unternehmen immer noch sehr unterschiedliche Sichten. Die Rolle des CDO wird ja gerade erst langsam klarer, wenngleich die Diskussion noch im vollen Gang ist. Egal, wer die digitale Transformation treibt, ein klassischer IT-Leiter, ein CIO oder ein CDO: Sie bleibt im Kern Chefsache und damit ist der CEO immer involviert.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Prof. Dr. Andreas Gadatsch

Informationen zu Dipl. Kfm Stefan Brassel M.A.

Cloud-Computing

Dezentral, flexibel und günstig – Cloud-Computing erobert mit hoher Skalierbarkeit bei niedrigen Kosten immer mehr deutsche Unternehmen.

von Andreas Fuhrich

Unter Cloud Computing versteht man die Ausführung von Programmen, die nicht auf dem lokalen Rechner installiert sind, sondern auf einem anderen Rechner, der aus der Ferne aufgerufen wird. Technischer formuliert umschreibt das Cloud Computing den Ansatz, IT-Infrastrukturen (z. B. Rechenkapazität, Datenspeicher, Datensicherheit, Netzkapazitäten oder auch fertige Software) über ein Netz zur Verfügung zu stellen, ohne dass diese auf dem lokalen Rechner installiert sein müssen. Angebot und Nutzung dieser Dienstleistungen erfolgen dabei ausschließlich über technische Schnittstellen und Protokolle sowie über Browser. Die Spannweite der im Rahmen des Cloud-Computings angebotenen Dienstleistungen umfasst das gesamte Spektrum der Informationstechnik und beinhaltet unter anderem Plattformen, Software und Infrastruktur wie z. B. Rechenleistung oder Speicherplatz.  Die Möglichkeit online seine Mails abzurufen oder seine Urlaubsfotos in sozialen Netzwerken zur Schau zu stellen waren zwar schon erste Cloud-Angebote, doch der Begriff setzte sich erst durch die Möglichkeiten der Virtualisierung durch.

Die häufigste Virtualisierungsmethode nutzt sogenannte Hypervisoren, die den simultanen Betrieb mehrerer Gastsysteme auf einem Hostsystem erlauben. Der Hypervisor verwaltet die Ressourcenzuteilung für einzelne Gastsysteme. Er verteilt die Hardware-Ressourcen derart, dass für jedes einzelne Gastbetriebssystem alle Ressourcen bei Bedarf verfügbar sind, so, als ob nur ein Betriebssystem vorhanden wäre. Den einzelnen Gastsystemen wird dabei jeweils ein eigener kompletter Rechner mit allen Hardware-Elementen – Prozessor, Laufwerke, Arbeitsspeicher usw. – vorgespielt.

Durch den Einsatz der Virtualisierung, lässt sich die Ressourcen-Auslastung optimieren, zumal Server, die im Moment nicht benötigt werden, abgeschaltet werden können. Lokale Ressourcen und die damit verbundenen Kosten lassen sich so einsparen. Neben der Private-Cloud, deren Server sich innerhalb der eigenen Organisation befinden, kann man dabei auch auf die Services von Public-Cloud-Anbietern zurückgreifen. Diese erlauben ihren Kunden, IT-Infrastruktur auf einer flexiblen Basis des Bezahlens zu mieten, ausgerichtet am tatsächlichen Nutzungsgrad. Ein Vorteil: Auch extreme aber nur kurze Auslastungsspitzen, beispielsweise im E-Commerce-Weihnachtsgeschäft lassen sich selbst unvorhergesehen so noch besonders kostengünstig bewältigen.

Um die Wettbewerbsvorteile nutzen zu können, die durch die Inanspruchnahme dieser Dienste entstehen, ist eine schnelle Breitbandversorgung Grundvoraussetzung. Damit es keinen Unterschied mehr macht, ob Daten lokal auf einem PC oder auf entfernten Servern in einer Cloud gespeichert sind, muss der Netzausbau vorangetrieben werden.

Bedenken bzgl. der Public-Cloud-Anbieter bestehen allerdings bezüglich des Datenschutzes. So dürfen nach einem Urteil des Europäischen Gerichtshofs nur eingeschränkt Daten in die USA gelangen. Wenn personenbezogene Daten Dritter in die Cloud gegeben werden, müssen sich deutsche Auftraggeber vorab und anschließend regelmäßig nachvollziehbar davon überzeugen, dass die Vorgaben des Bundesdatenschutzgesetzes eingehalten werden. Der Patriot Act erschwert zusätzlich das Vertrauensverhältnis zur neuen Welt – Unternehmen mit Sitz in den USA sind dazu gezwungen, Daten an amerikanische Behörden auszuliefern, selbst wenn sich die Server im fremden Hoheitsbereich befinden.

Ein Kampf gegen Windmühlen?

Gut gerüstet mit Verschlüsselungstechnologien und einem zuverlässigen Key-Management werden Cloud-Risiken für Unternehmen beherrschbar.

von Thorsten Krüger

Geringe Kosten, hohe Flexibilität – Cloud-Computing ist längst kein Schlagwort mehr, sondern aus der Unternehmenswelt nicht mehr wegzudenken. Rund ein Drittel aller IT-Manager und Sicherheitsverantwortlichen nutzt IT heute schon ausschließlich aus der Cloud, mehr als zwei Drittel erachten cloudbasierte Services und Plattformen als wichtig für ihr Geschäft. Allerdings stehen viele vor der Herausforderung, in Umgebungen fernab ihres eigenen Rechenzentrums die Kontrolle über Daten zu behalten und alle Richtlinien zu erfüllen. Jeder Zweite hält die gewählte Cloud-Sicherheitsstrategie und die Einhaltung von Datenschutzrichtlinien im eigenen Unternehmen für unzureichend. Vor allem sensible Informationen werden zu sorglos mit Geschäftspartnern, Auftragnehmern oder Händlern geteilt.
Häufig kommen zudem unzureichende Kontroll- und Sicherheitsmaßnahmen zum Einsatz, um sensible Daten in der Wolke zu schützen. Der Fokus wird oft auf Intrusion-Prevention, Firewall, Content-Security oder Access-Point-Security gesetzt, um Infrastrukturen abzusichern. Solche klassischen Sicherheitsmaßnahmen greifen in Cloud-Umgebungen zu kurz.

Obendrein erschwert das Phänomen Schatten-IT die Sicherheitsvorkehrungen. Fast die Hälfte aller Cloud-Services wird nicht von den IT-Verantwortlichen selbst, sondern von anderen Abteilungen betrieben. IT-Sicherheitsexperten sind auch selten in die Entscheidung involviert, welche Cloud-Applikationen oder -Plattformen zum Einsatz kommen. Das Ergebnis: Fast die Hälfte aller Geschäftsdaten in der Cloud steht nicht unter der Kontrolle der IT-Abteilung. Dass vor diesem Hintergrund der Überblick über die eigenen Applikationen, Plattformen oder Infrastruktur-Services verloren geht, ist kaum verwunderlich. Gefährdet sind vor allem vertrauliche und sensible Daten wie Kundeninformationen, E-Mails, Personalakten und Zahlungsinformationen, die häufig in der Cloud gespeichert werden.

Der Versuch, immer neue Sicherheitslücken zu schließen, gleicht einem Kampf gegen Windmühlen, und auch der Ansatz, die Security-Compliance von Cloud-Providern untersuchen zu wollen, entpuppt sich oft als aussichtsloses Unterfangen. Um sensible Informationen effektiv zu schützen, müssen die Unternehmen die Kontrolle über ihre Daten behalten. Im Zentrum der Sicherheitsbemühungen sollte ein datenzentrierter Ansatz stehen, mit dem sich sowohl Kunden- als auch Geschäftsdaten über alle täglich verwendeten Cloud-Services hinweg schützen lassen. Technologien wie Authentifizierung in Verbindung mit Verschlüsselung, Tokenization und anderen kryptografischen Lösungen kommen dafür in Frage. Dreh- und Angelpunkt muss hierbei sein, dass Unternehmen ihre kryptografischen Schlüssel nicht aus der Hand geben.

Der Schlüssel zu mehr Sicherheit

Das Identitätsmanagement in der Cloud empfinden viele als schwieriger als in On-Premise-Umgebungen. Die meisten Unternehmen setzen noch immer auf Passwörter und Nutzernamen, um Identitäten zu verifizieren und Nutzerzugänge zu schützen. Die Erkenntnis, dass das für ein hohes Sicherheitsniveau nicht ausreichend ist, setzt sich jedoch immer mehr durch.
Erst eine Multifaktor-Authentifizierung sorgt dafür, dass sich Cloud-Zugänge von Mitarbeitern und Dritten zuverlässig überwachen lassen. Dabei werden mindestens zwei voneinander unabhängige Faktoren für die Authentifizierung von Kunden genutzt. Konkret können dies Dinge sein, die der Kunde weiß (Passwort, Sicherheitsfrage), die er besitzt (Mobiltelefon, Token) oder etwas, das ihn persönlich auszeichnet (Fingerabdruck, biometrische Gesichtserkennung).

Kernaussagen

  • Jeder zweite IT-Manager hält die Cloud-Sicherheitsstrategie im eigenen Unternehmen für unzureichend.
  • Klassische Sicherheitsmaßnahmen greifen in Cloud-Umgebungen nicht.
  • Fast die Hälfte aller Geschäftsdaten in der Cloud wird nicht von der IT-Abteilung kontrolliert.
    Durch Technologien wie Verschlüsselung, Tokenization und andere kryptografische Lösungen behalten Unternehmen die Kontrolle über ihre Daten in der Cloud
  • Mit Multifaktor-Authentifizierung lassen sich die Cloud-Zugänge von Mitarbeitern und Dritten zuverlässiger überwachen als mit Passwörtern.
  • Verschlüsselung gewährleistet „Vertraulichkeit, Integrität und Verfügbarkeit“, sowohl bei mobilen Geräten als auch in der Cloud.

Bis dato verschlüsselt nur rund ein Drittel der Unternehmen sensible oder vertrauliche Daten direkt in der cloudbasierten Applikation. Sauber und ohne Hintertüren implementiert trägt Verschlüsselung dazu bei, die drei Sicherheitsziele „Vertraulichkeit, Integrität und Verfügbarkeit“ zu erfüllen. Dabei kann die Technologie zwar nicht alle Aufgaben der Zugangs-, Zugriffs- und Weitergabekontrolle übernehmen, doch ohne sie sind diese Kontrollmaßnahmen kaum möglich.

Bei mobilen Endgeräten ist die Verschlüsselung nicht weniger wichtig als in der Cloud. Vor allem bei Smartphones und Tablets besteht ein hohes Verlust- und Diebstahlrisiko. Fehlt die mobile Datenverschlüsselung, können Gerätediebe und unehrliche Finder auf die vertraulichen Daten zugreifen.
Die deutschen Aufsichtsbehörden für den Datenschutz betonen: Verschlüsselung in der Cloud sollte so organisiert werden, dass die Schlüssel in der Hoheit der Nutzer verbleiben. Unternehmen sind deshalb einerseits in der Pflicht, nach Verschlüsselungslösungen Ausschau zu halten, die hinsichtlich Stärke und Algorithmus dem Stand der Technik entsprechen. Andererseits gilt es, ein zuverlässiges Key-Management zu etablieren. Das Thema Sicherheit in der Cloud wird für Unternehmen damit beherrschbar und diese können somit auch den Vorgaben bei Compliance und Governance gerecht werden. Sensible Daten sind überall und zu jederzeit geschützt.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Thorsten Krüger

Smart, jetzt wirklich?

Manch „smartes“ Gerät sieht schnell unsmart aus, wenn wichtige Regeln wie Datenschutz, Sicherheit und Nutzererwartungen nicht erfüllt werden.

von Oliver Sucker

Die fortschreitende Digitalisierung eröffnet neue Wege und Techniken in allen Bereichen des täglichen Lebens, birgt aber auch Herausforderungen, Tücken und unerwartete Fallstricke. Nicht immer bringt die Digitalisierung nur Positives, wenn sie nicht richtig angegangen wird.
Insbesondere der Datenschutz ist ein essentieller Kernaspekt, will man das Vertrauen seiner Kunden nicht auf einen Schlag verspielen. Noch wichtiger ist in diesem Zusammenhang das allübergreifende Thema IT-Sicherheit: Ohne System- und Datensicherheit ist auch kein Datenschutz möglich.

Neben all den rechtlichen und komplexen technischen Fragen darf man aber auch die Erwartungen und Wünsche des Endanwenders nicht vergessen. Wenn es nicht gelingt, Bekanntes und Bewährtes in entsprechenden Analogien aufzugreifen, stößt man – insbesondere bei älteren oder sehr tradierten Menschen – schnell auf ein Akzeptanzproblem. „Smarte“ Geräte wie Fitnesstracker, Fernseher, Überwachungskameras und Alarmanlagen oder gar Sprachassistenten sind mehrheitlich ein Graus. Öffentlich im Internet verfügbare Gesundheitsdaten, zweifelhafte Clouds in Fernost, zu denen sich IP-Kameras verbinden, die blinde Datensammelwut mancher Hersteller oder wanzenartige, permanente Raumüberwachung machen sie zu potenziellen Feinden in unseren Büros, Wohnzimmern oder gar an unserem Körper. Die „Sicherheitskamera“ wird da schnell zum Einbruchinformationssystem; die Alarmanlage, die sich per unverschlüsseltem Funk einfach abschalten lässt, gibt nur trügerische Sicherheit. Manch „smartes“ Produkt schaut da schnell dumm aus der Wäsche.

Manche Geräte sind aber auch einfach nur ärgerlich: Erst nötigen sie uns zur Anmeldung bei eigentlich überflüssigen Cloud-Diensten, über deren Sicherheit, Seriosität und Fortexistenz wir weder Kenntnis noch Kontrolle haben. Ohne die Cloud am anderen Ende wird das Gerät wertlos. Es ist zudem auch höchst fraglich, ob alles in der Cloud gespeichert werden muss, nur weil es gerade so hipp ist.
Fast alle modernen Geräte enthalten neben der Hardware auch entsprechende Software (Firmware und ggf. Betriebssystem). Diese enthält generell Fehler, linear abhängig von der Komplexität des Produkts, der Kompetenz, Sorgfalt und Kultur der Entwickler sowie dem Reifegrad des Produkts. Selbst in reifen Softwareprodukten tauchen regelmäßig Fehler auf, mitunter sicherheitsrelevante.

Sicherheitslücken müssen also durch regelmäßige Produktpflege beseitigt werden, anderenfalls wird das Produkt tendenziell immer anfälliger. Das tückische dabei ist, dass der Endanwender sicherheitsrelevante Fehler – im Gegensatz zu funktionalen Mängeln – nicht selbst erkennen kann; ein ansonsten wunderbar funktionierendes Produkt kann gespickt sein mit Sicherheitslücken.
Was ist also mit dem noch prima funktionierenden Smartphone, für das der Hersteller keine Sicherheitsupdates (mehr) liefert, wie es am PC selbstverständlich ist? Wegschmeißen oder einfach darauf hoffen, dass unsere privaten Daten schon nicht gestohlen werden, obwohl unsere Haustür sperrangelweit offen steht?

Dann ist da noch der Aspekt der Benutzerfreundlichkeit: „Smarte“ Telefone haben das Telefonieren in den Augen nicht weniger Menschen schwieriger, de facto zumindest aber umständlicher gemacht. Uhren sind gar so smart geworden, dass sie vor lauter Kraft nicht mal 24 Stunden ohne Nachladen durchhalten. Die elektronische Internetbriefmarke sieht nicht nur nicht mehr schön aus, der früher oftmals nützliche Poststempel mit dem Einlieferungsdatum fällt auch ersatzlos weg. Ein jahrzehntelang funktionierender Prozess ist so zumindest teilweise ruiniert.

All diese Probleme lassen sich durch solides Know-how und guten Willen lösen; dies wäre auch ein wesentlicher Beitrag, bestehende Akzeptanzprobleme abzubauen und die digitale Spaltung der Gesellschaft abzuwenden. Derzeit ist jedoch eher ein gegenteiliger Trend zu erkennen. Zum bekannten Abfallhaufen aus kaputten Zahlungssystemen, Zertifikatsinfrastrukturen, Mobilfunktechnologien, Routern und anderen Embedded-Geräten kommt nun u. a. noch Industrie 4.0 und das „Internet of Things“ (IoT), ob im Smart Home, vernetzten Fahrzeugen oder der Smart City.
Dass die Geräte immer stärker vernetzt sind, ist aus Anwendersicht Segen und Fluch zugleich: Die Geräte werden dadurch immer angreifbarer, ebenso kann zum Beispiel das Nutzungsverhalten ausgespäht werden. Es gilt also stets abzuwägen, ob weitere Vernetzung mehr Chancen oder mehr Risiken birgt. Gleichzeitig gilt es, Risiken zu minimieren und auch die Datenverarbeitung auf das zu beschränken, was für die Funktionalität tatsächlich nötig ist – auch wenn Unmengen an Statistiken über die eigenen Kunden manche Begehrlichkeiten wecken. Nur wenn der Anwender genau weiß, welche Daten erhoben werden und wofür, bleibt das böse Erwachen am Tag X aus.

Hersteller sollten Sicherheit und Datenschutz nicht als notwendiges Übel, sondern als solide Basis jeden digitalen Handelns verstehen. Patzer können ein Produkt oder gar ein ganzes Unternehmen in den Abgrund reißen; „Digitale Abgasskandale“ sind unter allen Umständen zu vermeiden. Diese Kernaspekte müssen dazu von Anfang an in Design und Entwicklung berücksichtigt und im Rahmen der Continous Delivery/Continous Integration oder in jedem Release permanent geprüft werden, auch die etwaigen Backend-Systeme. Penetrationstests und Audits sind hier auch in einem hohen Maße automatisierbar, sodass Aufwand und Kosten überschaubar bleiben.

Kernaussagen

  • Es muss nicht alles in der Cloud gespeichert werden. Es gilt, Risiken zu minimieren und die Datenverarbeitung auf das zu beschränken, was für die Funktionalität tatsächlich nötig ist.
  • Für den sicheren Umgang mit „smarten“ Produkten fehlt es den Endanwendern an Prüf- und Einflußmöglichkeiten. Hersteller, Importeure, Verbraucher- und Datenschutzorganisationen sind daher stärker als bisher gefordert, für sichere und datenschutzfreundliche Produkte zu sorgen.
  • Hersteller sollten Sicherheit und Datenschutz als solide Basis digitalen Handelns verstehen. Regelmäßige Sicherheitsupdates müssen garantiert beim Endanwender ankommen, im Ernstfall in wenigen Tagen oder sogar Stunden.

Eine ergänzende Möglichkeit, Ihr Vertrauen in die eigenen Produkte zu zeigen, ist das Ausschreiben von Kopfgeld-Zahlungen („Bug  Bounty“) an Sicherheitsforscher, die Probleme in Produkten finden und melden. Dies kann jedoch kein Ersatz für eine fachlich versierte Produktprüfung sein, da hier nicht sichergestellt ist, wie gut, wie tief und ob überhaupt jemand prüft. Ein mickriger Geldbetrag von wenigen Hundert Euro wird außer Kinderchen, die ihr Taschengeld aufbessern wollen, niemanden anlocken und auch keine detaillierte Produktprüfung ermöglichen.
Als Minimum sollte die Produkthomepage generell eine Kontaktmöglichkeit zum Melden von Sicherheitsproblemen bieten und konkrete Informationen zur Produktsicherheit und zu wichtigen Updates liefern. Dies setzt jedoch voraus, dass sich Anwender auch aktiv informieren, wovon mehrheitlich nicht ausgegangen werden kann.

Sicher sind die Produkte aber erst, wenn Updates auch beim Endanwender installiert sind. Dazu ist es also nötig, Updates entweder komplett automatisiert auszurollen oder zumindest einen Kanal zum Endanwender aufzubauen, über den wichtige Informationen kommuniziert werden können. Ein Informationsblatt zur Produktsicherheit mit nötigen Einstellungen, Empfehlungen und Informationsmöglichkeiten ist ebenfalls sehr nützlich.
Den Anwendern kann man nur anraten, obige Punkte in Bezug auf ihren Lieferanten zu prüfen bzw. prüfen zu lassen und die Produkte genauer zu hinterfragen. Ist zum Betrieb des Produkts eine Cloud erforderlich? Wie ist sie abgesichert und zertifiziert? In welcher Jurisdiktion werden die Daten gespeichert? Was passiert im Fall einer Insolvenz oder Übernahme?

Welche Daten erhebt ein Gerät und wozu? Gibt es ein unabhängiges Audit der Software? Ist der Quellcode einsehbar? Wie, wo, wie oft und wie lange gibt es Sicherheitsupdates? Monatlich automatisch sollte hier der Standard sein – bei akuten Problemen auch schneller – wie es große Firmen wie Microsoft oder Google vormachen.
Privatanwender können all dies natürlich nicht leisten: Hier sind Hersteller, Importeure und die Verbraucher- und Datenschutzorganisationen gleichermaßen mehr gefordert, den Bereich Software genauer ins Visier zu nehmen, ansonsten wird es die Politik tun müssen. So manches Produkt, das in deutsche Lande kommt, entspricht nicht den europäischen Datenschutzbestimmungen und ist in puncto Softwaresicherheit mangelhaft.

Denke digital. Denke analog. Dann agiere klug und balanciert, unter Abwägung von Nutzen, Risiken und traditionellen Erwartungen. Und immer daran denken: Nichts verschlimmbessern und vor allem nichts kaputt machen!

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Oliver Sucker

Cyber-Security

Komplexe IT-Bedrohungen der digitalen Ära können mit ganzheitlichen Cyber-Defense-Strategien abgewehrt werden.

von Kai Grunwitz

Prävention, Erkennung, Abwehr und Reaktion sind die Grundpfeiler einer zukunftsweisenden, ganzheitlichen Cyber-Defense-Strategie. Diese Strategie ist für alle Unternehmen essenziell, die sich erfolgreich gegen die immer raffinierter und komplexer werdenden Angriffe von Cyber-Kriminellen wehren wollen.

Die Cyber-Kriminalität übt großen Druck auf Unternehmen aus. Die Motivation der Angreifer, eine IT-Infrastruktur lahmzulegen, Daten zu stehlen oder ein Unternehmen zu sabotieren, ist dabei vielfältig. Sie reicht von der Erpressung durch professionelle Kriminelle über die Unzufriedenheit oder Rache von (Ex-)Mitarbeitern bis hin zu politischen Gründen, wenn etwa Systeme von Regierungen oder Interessenverbänden angegriffen werden. Mit einer Besserung ist nicht zu rechnen, da beispielsweise die Zahl der DDoS- oder Ransomware-Attacken seit Jahren kontinuierlich zunimmt.

Prävention, Erkennung, Abwehr und Reaktion sind die Grundpfeiler einer zukunftsweisenden, ganzheitlichen Cyber-Defense-Strategie.

Beim Schutz der eigenen IT und der Abwehr zielgerichteter Angriffe haben sich vor allem drei bisher etablierte Sicherheitsverfahren als unzureichend beziehungsweise ungeeignet herauskristallisiert: die Perimeter-Absicherung; die rein auf Zugriffsbeschränkungen ausgelegten IT-Lösungen sowie die signaturbasierte Malware-Abwehr bei Endpunkten. Probleme bereiten den etablierten Schutzmechanismen vor allem die zunehmende Vernetzung und Kommunikationsvielfalt durch n-zu-n-Beziehungen von Unternehmen mit Mitarbeitern, Lieferanten, externen Dienstleistern oder Kunden sowie die relative Trägheit der signaturbasierten Malware-Abwehr.

Paradigmenwechsel durch Cyber-Defense

In der IT-Sicherheit ist daher ein Umdenken nötig, denn nur ein ganzheitlicher Ansatz kann lückenlose Cyber-Sicherheit bieten. Zentrales Merkmal ist die Erweiterung herkömmlicher Sicherheitskonzepte, die auf dem Perimeter-Schutz basieren. Neben reaktiven Maßnahmen muss eine Full-Lifecycle-Sicherheitslösung heute auch einen aktiven Schutz umfassen. Der klassische Netzwerk-Schutzwall wird dabei um proaktive Sicherheitsmechanismen ergänzt, die sich auch auf Applikationen und Daten sowie die einzelnen Endpunkte erstrecken. Cyber-Defense steht dabei für mehr als nur die Summe einzelner Sicherheitsmaßnahmen und die Kombination punktueller Ansätze, die zum Beispiel nur eine spezifische Herausforderung wie die APT-Abwehr aufgreifen. Das bedeutet auch, dass es dabei um wesentlich mehr als das reine Infrastruktur- und Technologie-Management geht. Sie stellen in der Regel lediglich die Basis für höherwertige, weitreichendere Services dar.

Am Anfang einer Cyber-Defense-Strategie steht die Analyse des individuellen Risiko-Profils (Risk-Insight). Jedes Unternehmen weist ein solches Profil auf, das durch eine Klassifizierung und Risikobewertung der schützenswerten Daten und Prozesse ermittelt werden muss. Alle folgenden Maßnahmen bauen im Rahmen einer zukunftsweisenden Cyber-Abwehr darauf auf. Die vier zentralen Grundkomponenten der Strategie sind: Prävention, Erkennung, Abwehr und Reaktion.

Die vier Phasen des Security-Lifecycles im Überblick. Quelle: NTT

Prävention auf Applikationen, Daten und Clients ausdehnen

Der klassische Perimeter-Schutz mit E-Mail-Gateways inklusive Spam- und Malware-Filter, Next-Generation-Firewalls, VPN-Systemen oder dynamischen Sandboxing-Lösungen bietet keinen hinreichenden Schutz mehr, da er beispielsweise Business-Applikationen und Daten nicht ausreichend berücksichtigt. Lösungen wie Data-Loss-Protection oder Digital-Rights-Management schließen diese Lücken.

Für Eindringlinge sind Endpunkte wie Desktops, Tablets oder Smartphones ein immer wichtigeres Einfallstor, und deshalb ist es unabdingbar, diesen Geräten auch eine höhere Gewichtung zuzuweisen. Signaturbasierte Mechanismen können gezielte Angriffe durch Malware nur schwer erkennen und abwehren, sodass moderne, intelligente Endpunkt-Lösungen unverzichtbar sind. Das bedeutet, dass zum Beispiel mit einer stärkeren Nutzung von Micro-Hypervisor-Lösungen zu rechnen ist, die eine zuverlässige Endpunktsicherung durch Isolierung von Applikationen ermögli-chen, oder auch mit einer verstärkten Überwachung der Endpunkte, um Verhaltensauffälligkeiten und deren Verbreitung frühzeitig zu erkennen und zu bewerten. Im Hinblick auf die Prävention dürfen gerade auch aktuelle Trends und Themen wie die zunehmende Cloud-Nutzung, das Internet der Dinge oder die verstärkte Vernetzung von Produktionsanlagen, Industrial-Control-Systems oder SCADA-Systemen mit der IT nicht vernachlässigt werden.

Trotz aller Vorkehrungen: Die 100-prozentige Sicherheit bleibt eine Utopie!

Ein ganzheitliches Cyber-Defense-Konzept muss nicht zuletzt auch den Faktor Mensch berücksichtigen. Die Minimierung dieser potenziellen Schwachstelle durch die Förderung von Awareness und das Training von Mitarbeitern ist ebenfalls ein wichtiger Baustein einer präventiven Cyber-Defense-Strategie.

Früherkennung implementieren

Die zunehmende Vernetzung stellt auch neue Anforderungen an die gängige Monitoring-Praxis. Es reicht nicht mehr, sich auf Systemlogs und -warnungen zu verlassen. Die Überwachung muss vielmehr auch Verhaltensanalysen der IT-Umgebung in Echtzeit erlauben. Nur so lassen sich ungewöhnliche Aktivitäten aufdecken – etwa wenn Systeme, die nichts miteinander zu tun haben, Daten tauschen oder „stille“ interne Systeme plötzlich mit externen Systemen kommunizieren. Da Unternehmen in der Regel weder die finanziellen noch die personellen Ressourcen für solche Frühwarnsysteme aufbringen können, sollten sie die Unterstützung von Managed-Security-Services (MSS)-Anbietern anfordern, die mit ihren Security-Operations-Centern (SOC) Angriffe frühzeitig erkennen. Die Analysten in diesen SOCs analysieren mithilfe von intelligenten Tools permanent den Datenverkehr. Das versetzt sie in die Lage, aus den unterschiedlichen Informationen Korrelationen herzustellen und mit ihrer fachlichen Expertise zu bewerten.

Ein SOC sollte über eine valide globale Datenbasis für ein proaktives Sicherheits-Monitoring verfügen. Nur eine derartige globale Threat-Intelligence kann die zuverlässige Basis für die Realisierung eines umfassenden Schutzes vor akuten – auch gänzlich neuen – Bedrohungen sein. Dabei kann ein weltweit agierender Provider im Unterschied zu einem rein lokal vertretenen MSS-Anbieter Meldungen und Störungen unterschiedlichster IT-Infrastrukturen von Tausenden Kunden weltweit überwachen und analysieren – und auf dieser Datenbasis dann ein Echtzeitbild der Bedrohungslage erzeugen, das wiederum für die Erstellung effizienter Cyber-Abwehrlösungen genutzt wird. Ein international vertretener Service-Anbieter wie NTT Security beispielsweise betreibt weltweit 17 SOCs sowie Forschungs- und Entwicklungszentren und beschäftigt mehr als 1 500 Sicherheitsexperten, davon mehr als 250 allein in der DACH-Region. Zudem nutzt NTT weltweit verteilte proprietäre – auf eigener IP basierende – kommerzielle und Open-Source-Honeypots und kann damit seinen Kunden ein Höchstmaß an präventiver Sicherheit bieten.

Der Cyber-Defense-Ansatz von NTT Security basiert auf den vier Grundkomponenten Prävention, Erkennung, Abwehr und Reaktion. Quelle: NTT

Notfallplan entwerfen

Trotz aller Vorkehrungen bleibt die 100-prozentige Sicherheit eine Utopie. Unternehmen sollten deshalb immer für den Ernstfall gewappnet sein und einen Notfall-Plan in der Hinterhand haben, den sie bei einem Angriff oder Leck kurzfristig in Kraft setzen, um Schaden abzuwenden oder zu minimieren. Dass dies jedoch bei den meisten Unternehmen noch nicht der Fall ist, zeigt der aktuelle NTT Security Global Threat Intelligence Report, demzufolge gerade ein Viertel der Unternehmen ausreichend auf einen Incident vorbereitet ist. Bei der Entwicklung des Notfallplans bieten erfahrene Sicherheitsexperten eine entscheidende Unterstützung. Sie helfen auch, wenn es darum geht, Response-Teams bereitzustellen, die im Fall eines Falles einen ungewollten Datenabfluss unterbinden.

Der Text ist unter der Lizenz CC BY-SA 4.0 DE verfügbar.
Lizenzbestimmungen: https://handbuch-digitalisierung.de/cc-by-sa


Informationen zu Kai Grunwitz

Potemkinsches Dorf – oder: Risikokultur leben

von Frank Romeike und Christoph Schwager

Kultur isst die Strategie zum Frühstück“, so ein Zitat des ehemaligen US-amerikanischen Ökonomen Peter F. Drucker. Gemeint ist der Wert der Unternehmenskultur, der weit über die rein rationale und strategische Organisationswelt hinausgeht. Nach Definition des Dudens beschreibt der Begriff den „Grad“, das „Maß, in dem ein Unternehmen den Ansprüchen der Unternehmensidentität entspricht oder zu entsprechen in der Lage ist“. Eine dehnbare Erklärung, die viel Spielraum für Unternehmensdenker und -lenker zulässt.

Vor allem in den bunten Geschäftsberichten wird die Unternehmenskultur wie ein Heiliger Gral hochgehalten und strapaziert. Dort steht regelmäßig viel über den „Wandel“ einer „global gelebten“ und „geschäftsfeldübergreifenden“ Unternehmenskultur. Selbstverständlich von „gegenseitigem Respekt“ und „Offenheit“ gekennzeichnet. Dass diese Begriffe in vielen Fällen nicht mehr als Füllwörter sind, bewahrheitet sich spätestens bei auftretenden Unternehmenskrisen. Nicht selten entpuppt sich das Ganze dann als „Potemkinsches Dorf“: Hochglanzbroschüren versprechen viel, um den tatsächlichen, verheerenden Zustand zu verbergen. Im tiefen Inneren fehlt es an Substanz. Eine große Spielwiese, auf der Unternehmen und ihre Verantwortlichen herumtollen, stolpern und häufig nicht mehr aufstehen. Im Klartext heißt das: Treten Krisen auf, ist die vielfach vorgeschobene Unternehmenskultur schnell dahin – weil nie wirklich gelebt oder nur halbherzig umgesetzt. Und doch ist es nicht möglich, keine Kultur zu haben. Jedes Unternehmen hat eine – positiv oder negativ besetzt.

Letztere ist in zweierlei Hinsicht fatal, nämlich in puncto Reputationsrisiken sowie der immensen Kosten für betroffene Unternehmen. Ein Paradebeispiel bietet die Informationssicherheit in Organisationen. Um die ist es nicht zum Besten bestellt, wie der Digitalverband Bitkom jüngst prognostizierte. Den Gesamtschaden durch Hackerangriffe beziffern die Bitkom-Experten auf rund 51 Milliarden Euro pro Jahr – nur für die deutsche Wirtschaft und nach „konservativen Berechnungen“. Ein warnendes Signal, bei einem Blick auf den allerorts propagierten digitalen Wandel der Geschäftswelt. Ergo braucht es die notwendige Sensibilisierung und das Wissen in Organisationen, um den technologischen Quantensprung hin zur Transformation im Maßstab 4.0 und höher bewältigen zu können.

Vom Tal der Ahnungslosen …

„Das Lieblingswort deutscher Manager ist zurzeit digitale Transformation. Sie wollen ihre Geschäftsmodelle ‚an das digitale Zeitalter anpassen‘“, schrieb das Wirtschaftsmagazin brand eins 2015  in einem Beitrag zu „Die drei Zauberworte“. Und diese drei Begriffe werden gebetsmühlenartig in Publikationen, Präsentationen und Pressegesprächen benannt. Die Rede ist von „Disruption“, „Plattform“ und „Netzwerkeffekt“. Das klingt nach viel Management und leider nach viel heißer Luft. Denn laut der WirtschaftsWoche sei nur jeder zwölfte Manager in Deutschland fit für die digitale Transformation.
Ein Blick in die Realität zeigt, dass nur die wenigsten Unternehmen reif sind für die digitale Transformation und für die notwendigen Veränderungsprozesse im Unternehmen. Kurzum: Viele Unternehmen verharren eher im Tal der Ahnungslosen und trauen sich nicht vom „lahmen Gaul“ abzusteigen und auf ein neues Pferd zu wechseln. Im Umkehrschluss heißt das: Führungskräfte, die den Weg hin zur digitalen Wende in den Organisationen initiieren, vorantreiben und überwachen müssen, haben schlicht keine Ahnung von dem, was sie an digitalen Platzhaltern von sich geben. Mehr noch sind sie überfordert und können dementsprechend nicht die Weichen Richtung zukunftsweisender digitaler Strukturen stellen. Aber genau dies braucht es. Denn Unternehmen jeder Größe und in allen Branchen sind in unserer digital eng vernetzten Welt verwundbarer denn je, bieten offene Flanken. Und diese lassen sich nicht einfach mit einem „Firewall-Denken 1.0“ schließen. Nicht selten wird beispielsweise bei der Umsetzung von Informationssicherheitsstrukturen  vergessen, dass technologische Ansätze nur zu einem kleinen Anteil über den Erfolg entscheiden. Dreh- und Angelpunkt sind die eigenen Kollegen – von der Führungsebene bis zum normalen Mitarbeiter.

… zu mehr Awareness und einer gelebten Unternehmenskultur

Frank Romeike

Um aus digitalen Risiken Chancen reifen zu lassen, aus denen wiederum digitale Erfolgsgeschichten entstehen, muss eine „gelebte“ Unternehmenskultur in der Organisation Einzug halten. Die sollte von der Unternehmensspitze initiiert werden, durch alle Organisationsbereiche reichen, verstanden und mitgetragen von allen Mitarbeitern.
Hierzu braucht es klare Spielregeln – ein Defizit in vielen Führungsköpfen. Böse formuliert „stinkt der Fisch vom Kopf her“. Gemeint ist in diesem Kontext, dass sich Entscheider nicht an die Regeln im Unternehmen halten. So werden Maßnahmen für mehr Informationssicherheit ad absurdum geführt, wenn diese beim Verlassen des Firmengeländes über Bord geworfen werden. Ein offenes Ohr in der Bahn oder am Flughafen genügt, um Geschäftszahlen, Vertragsabschlüsse sowie sonstige Interna mitzubekommen.

Im Umkehrschluss heißt das, Informationssicherheit ist nur so gut, wie die Menschen, die sie leben. Gleiches zählt für Mitarbeiter, die mit dem eigenen Smartphone im Unternehmen hantieren, filmen, Daten kopieren oder unachtsam mit sensiblen Unternehmensinformationen umgehen. Social Engineering, Hackerangriffe oder Spionagefälle in Unternehmen beweisen, dass Angreifer diese Schwächen für sich zu nutzen wissen. Es zeigt sich: Gründe für mehr Awareness im Umgang mit dem Firmengut „Informationen“ gibt es genug. Leider werden diese zu wenig beherzigt und in konkrete Sensibilisierungsmaßnahmen in der Organisation umgesetzt. Wichtig ist in diesem Zusammenhang auch, dass Mitarbeiter den Wert ihrer Person erfahren und als wichtiger Teil der Gesamtorganisation verstanden werden und dies auch vermittelt wird. Wer in Präsentationen mit Vokabeln der Marke „Humankapital“ oder „Mitarbeiterressource“ zu punkten versucht, scheitert. Denn die Kollegen haben ein gutes Gespür dafür, wer es als Firmenchef ernst meint mit der Kultur und wer nicht. Und hierzu zählt vor allem das Prinzip des Vertrauens.

Die Reifegradtreppe hinauf bis zum Planspiel

Im Idealfall reift eine Kultur in der Organisation, in der alle an einem Strang ziehen und ihren Beitrag für den Erfolg des Unternehmens leisten. Doch Vorsicht: „Keep it simple, stupid“, so die alte Managerweisheit. Dahinter steckt viel Wahrheit, denn Leitplanken für ein qualitatives Mehr an Informationssicherheit zu setzen ist das eine. Mitarbeiter mit zu viel Regeln, Normen und Software zu überfordern ist das andere. Ein durchgängiges Informationssicherheitsmanagement muss in ein gelebtes Chancen- und Risikomanagement integriert werden. Und dieses muss reifen. Unterschiedliche Reifegrade in der Risk-Governance – also einer stakeholderorientierten Risikosteuerung aus strategischer Sicht – sind ein guter Indikator für die Messbarkeit des Erfolgs der eigenen Maßnahmen. Ausgehend von fünf Stufen im Risikomanagement ist das erklärte Ziel, von einer reinen „Risikodokumentation“ (Stufe eins) und einer Unternehmenssteuerung nach dem Prinzip „Zufall und Glück“ zu einer „Leading-Stufe“ zu gelangen. Die letzte Reifegrad-Stufe ist von einer gelebten Risikokultur auf allen Unternehmens-ebenen geprägt, mit einem starken Fokus auf Kreativitätsmethoden und Frühwarnsignalen, die in die Unternehmenssteuerung einfließen (vgl. Abbildung/Reifegradtreppe). Für Entscheider muss es das erklärte Ziel sein, einen möglichst hohen Reifegrad zu erlangen und als Teil der Unternehmenssteuerung zu verstehen. Damit lassen sich Chancen zukunftsgewandt erkennen und proaktiv steuern sowie die Resilienz (Widerstandsfähigkeit) des eigenen Unternehmens stärken – auch gegen Cyberattacken, Sabotage und Spionage im eigenen Haus.

Risiko- und Chancenmanagement wie im Flugsimulator lernen

Christoph Schwager

Stellt sich die Frage, wie Unternehmens- und Risikokultur gemessen und weiterentwickelt werden können. Hier hilft ein Blick in die Luftfahrt, bei der ein gelebtes Risiko- und Krisenmanagement auf eine lange Historie verweisen kann. In den Kindertagen der Luftfahrt bestand das Risikomanagement- und Frühwarnsystem des Piloten – neben dem Kompass – im Wesentlichen aus drei Instrumenten: Schal, Krawatte und Brille. An der Art wie der Schal flatterte, konnte der Pilot Geschwindigkeit und Seitenwind abschätzen. Hing die Krawatte schräg, musste die Kurvenlage korrigiert werden. Und beschlug die Brille, so zeigte dies baldigen Nebel oder Regen an – und die Notwendigkeit, schleunigst zu landen. Heute sieht die Welt in der Luftfahrt anders aus: Hochtechnische Navigations- und Frühwarnsysteme und ausgefeilte Risikomanagement-Systeme haben zu einer hoch entwickelten Risikokultur und einem exzellenten Sicherheitsniveau in der Luftfahrt geführt. Ein wesentliches Element hierbei spielen heute Simulationen.

Ein Blick in die Realität zeigt, dass nur die wenigsten Unternehmen reif sind für die digitale Transformation und für die notwendigen Veränderungsprozesse im Unternehmen.

Piloten üben im Flugsimulator den richtigen Einsatz von Risikomanagement-Methoden und die adäquate Reaktion in Krisen. Der Flugsimulator stellt eine realitätsnahe Trockenübung dar und vereint Elemente aus Kreativitäts-, Szenario- und Simulationstechniken. Die erweiterte Form der Szenario- und Simulationstechnik unter Zuhilfenahme spielerischer Elemente und Interaktionsmuster kann auch im Unternehmensalltag genutzt werden, um Unternehmens- und Risikokultur zu entwickeln.

Reifegradtreppe

Ein Risikomanagement-Planspiel bzw. sogenannte Business-Wargames (wie etwa RiskNET R & OM Simulation bzw. Project@RISK von RiskNET) schaffen ein tieferes Verständnis der Aktionen und Reaktionen der unterschiedlichen Stakeholder und explizieren kognitive Verhaltensmuster und Verzerrungen. Ein praktischer Nebeneffekt: Risikokultur kann – basierend auf den Verhaltensweisen der Stakeholder – gemessen werden. Kritische Risiken können identifiziert werden, die durch „klassische“ Analysemethoden nicht erkannt werden. So werden beispielsweise aufgrund sogenannter „kognitiver Heuristiken“ (Repräsentativität und Verfügbarkeit) die Wahrscheinlichkeiten für Ereignisse umso größer eingeschätzt, je repräsentativer das Ereignis für die zugrunde liegende Grundgesamtheit erscheint und je leichter bzw. schneller Menschen in der Lage sind, sich (plastische) Beispiele für das Ereignis vorzustellen bzw. in Erinnerung zu rufen (vgl. Gleißner/Romeike 2012, siehe Literaturkasten).

Weiterführende Literatur

Erben, Roland F. / Romeike, Frank (2016): Allein auf stürmischer See – Risikomanagement für Einsteiger, 3. komplett überarbeitete Auflage, Wiley Verlag, Weinheim 2016.
Gleißner, Werner / Romeike, Frank (2012): Psychologische Aspekte im Risikomanagement – Bauchmenschen, Herzmenschen und Kopfmenschen, in: Risk, Compliance & Audit (RC&A), 06/2012, S. 43-46.
Romeike, Frank / Spitzner, Jan (2013): Von Szenarioanalyse bis Wargaming – Betriebswirtschaftliche Simulationen im Praxiseinsatz, Wiley Verlag, Weinheim 2013.
Romeike, Frank (2014): Simulation mit Business Wargaming, in: FIRM Jahrbuch 2014, Frankfurt/Main 2014, S. 140-143.

Sich der eigenen Schwächen beim intuitiven Umgang mit Risiken bewusst zu sein, ist der erste Schritt für die Verbesserung der Potenziale im Risikomanagement. Hierbei können Planspiele einen erheblichen Mehrwert bieten. In diesem Kontext passt sehr gut ein Zitat des US-amerikanischen Ökonomen Thomas Crombie Schelling, Preisträger für Wirtschaftswissenschaften der schwedischen Reichsbank im Gedenken an Alfred Nobel: “The one thing you cannot do, no matter how rigorous your analysis or heroic your imagination, is to make a list of things you never thought of.”  Bei diesem kreativen Prozess kann ein Business-Wargame bzw. Planspiel Unterstützung bieten.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Frank Romeike

Informationen zu Christoph Schwager

Neue digitale Sicherheitskultur

Sicherheit für kritische Infrastrukturen und innovative Cyber-Abwehr sind für Unternehmen und den Public Sektor gefragter denn je.

Die  Digitalisierung und Vernetzung, das Internet der Dinge, Industrie 4.0 und die zunehmende Mobility bieten Cyber-Angreifern vielfältige Möglichkeiten, Informationen auszuspähen, Geschäftsprozesse zu sabotieren oder sich unter Einsatz von Malware und damit verbundener erpresserischer Datenverschlüsselung kriminell zu bereichern.

Täglich werden rund 380 000 neue Schadprogrammvarianten entdeckt, die Anzahl von Spam-Nachrichten mit Schadsoftware im Anhang ist explosionsartig um 1 270 Prozent angestiegen. Wie Frau Merkel bemerkte, werden Cyber-Angriffe zum Alltag gehören.

Klassische Abwehrmaßnahmen reichen nicht mehr aus

Unternehmen aller Branchen,  kritische Infrastrukturen, Forschungseinrichtungen, Ver­waltung und Bürger sind es, auf die sich Angreifer mit flexibel einsetzbaren Angriffsmitteln und -methoden fokussieren. Konsequenzen aus bereits erfolgten Angriffen sind teils verheerend und verdeutlichen, wie verwundbar eine digitalisierte Gesellschaft ist.  Dieser Thematik folgend entstehen neue Anforderungen an die bestehenden Sicherheitskonzepte. Hinzu kommen die gesetzlichen Vorgaben, wie das 2015 eingeführte IT-Sicherheitsgesetz, das um Sicherheitsanforderungen an sogenannte „Kritische Infrastrukturen“ noch ergänzt wurde. Es gilt der Ansatz, ein Unternehmen so zu führen und zu kontrollieren, dass die relevanten und möglichen Risiken abgedeckt sind. Das bedeutet, diese Risiken zu identifizieren, analysieren und bewerten. Um darauf aufbauend die Erstellung eines ganzheitlichen Sicherheitskonzeptes zu ermöglichen. Das beinhaltet nicht nur die eingesetzten Technologien, sondern auch organisatorische Maßnahmen, wie Zuständigkeiten, Berechtigungen, Kontrollinstanzen oder konzeptionelle Aspekte, wie etwa Mindestanforderungen für bestimmte Sicherheitsmerkmale zu definieren.

Kritische Infrastrukturen müssen branchenspezifische Mindeststandards erfüllen, wozu insbesondere die Einführung eines ISMS zählt. Hilfestellungen gewähren die kostenfreien IT-Grundschutz-Kataloge des BSI. Eine Sammlung von Dokumenten, welche die schrittweise Einführung und Umsetzung eines ISMS erläutern. Weiterhin müssen große Unternehmen und solche der „kritischen Infrastruktur“ relevante Vorfälle, die die IT-Sicherheit betreffen, an das BSI melden.

Durch das IT-Sicherheitsgesetz wurden außerdem weitere Gesetze wie z. B. das Energiewirtschaftsgesetz geändert. Durch die Änderung des Energiewirtschaftsgesetzes werden sämtliche Strom- und Gasnetzbetreiber verpflichtet, den IT-Sicherheitskatalog der Bundesnetzagentur umzusetzen und ein ISMS einzuführen.

ISO 27001

Als Standard für Managementsysteme der Informationssicherheit hat sich die ISO-Norm 27001 zur Umsetzung und Kontrolle von gesetzlichen Vorgaben hinsichtlich Informationssicherheit und Datenschutz etabliert. Bei der Verwendung von Informationssystemen müssen proaktiv Schutzmaßnahmen und Schutzmethoden ergriffen werden, um mögliche Bedrohungen und Schwachstellen bestenfalls vorab zu verhindern oder auf ein überschaubares Risiko zu minimieren.
Die Zukunft ist vernetzt und mobil, mit immer mehr Schnittstellen zwischen Mensch, System und Maschine, national und global. Das bedeutet, dass wir ein sicheres und vertrauenswürdiges Ökosystem vom kleinsten Sensor bis zum Benutzer benötigen. Eine Absicherung der Systeme kann nur unter Einbezug sämtlicher Beteiligter, also Hersteller, Systemintegrator, Betreiber der Anlagen sowie der Öffentlichkeit, gleichermaßen gewährleistet werden.
Der Einsatz aktueller Schutzmechanismen, die Verfügbarkeit, Verbindlichkeit und Authentizität gewährleisten, wird von zunehmender Bedeutung sein. Techniken zur Verschlüsselung, Authentifizierung und Autorisierung auf Basis biometrischer Verfahren und hochleistungsfähiger Kryptografie-Methoden werden zum Standard avancieren.

Weiterführende Reportage aus TREND REPORT zum Thema

Heft 3/2015 „Vernetzte Gesellschaft“
„IoT: Beginn der Vernetzung“, Autor Chris Löwer
https://trendreport.de/iot-beginn-der-vernetzung/

Heft 2/2016 „Deutschland digital“
„Orientierung gesucht“, Dr. Ralf Magagnoli
https://trendreport.de/orientierung-gesucht/

Heft 1/2016 „Creative Companies“
„360°: Risiken immer im Blick“, Frank Romeike
https://trendreport.de/360-risiken-immer-im-blick/

Wann ist Big Data sinnvoll?

Big-Data-Technologien sind nicht die einzige Lösung, wenn es um viele Daten geht. Es gibt mehrere Kriterien, die über die Art der Datenverarbeitung entscheiden.

von Peter Welker

Technisch gesehen geht es beim Trendbegriff „Big Data“ um Daten, die durch ihre schiere Menge (Volume), den benötigten Datendurchsatz und die maximale Verzögerung (Velocity) sowie durch Komplexität und Variabilität (Variety) besondere Techniken für die Datenverarbeitung und Speicherung benötigen.(1) Der Einsatz traditioneller Technologie, wie relationaler Datenbanken, stößt bei solchen Anforderungen architekturbedingt irgendwann an seine Grenzen. Dasselbe gilt für nicht konsequent auf Parallelisierung ausgelegte Programmierparadigmen zur Verarbeitung der Daten.

Zu Beginn der Big-Data-Ära um 2010 konnte man es auf vielen IT-Konferenzen und in zahlreichen Publikationen spüren: Die neuen Lösungen rund um Hadoop und NoSQL sollten vor allem die althergebrachten analytischen Applikationen (z. B. Data-Warehouse) revolutionieren und ersetzen.
Die Investitionen in klassische analytische Anwendungen haben aber keineswegs darunter gelitten. (2) Relationale Datenbanken und klassische Datenintegrationswerkzeuge sind auch nicht so limitiert, wie es die Verfechter neuer Technologie gerne proklamieren. Das Laden, Transformieren und die optimierte Aufbereitung mehrerer hundert Millionen Datensätze pro Tag ist heute auch mit kostengünstiger Hardware kein Problem. Dennoch: Auch wenn die größten relationalen DWH-Datenbanken im zweistelligen Petabyte-Bereich liegen,(3) ist in den meisten Fällen im zwei- bis dreistelligen Terabyte-Bereich Schluss. Häufig wegen Lizenz- und Supportkosten für benötigte kommerzielle Software, nicht etwa weil die Grenze der technischen Leistungsfähigkeit erreicht wäre.
Es sind vielmehr neue Anforderungen, die mit neuen Techniken implementiert werden. Zur Verdeutlichung der Entscheidungskriterien pro oder contra Big-Data-Technologie betrachten wir drei Anwendungsfälle.

Process-Data-Warehouse

Data Warehouses müssen keineswegs nur Finanzdaten aufbereiten. Ein Übertragungsnetzbetreiber aus der Energiebranche lädt täglich 60 Millionen Mess- und Applikationswerte in ein relationales DWH und speichert sie dort für zehn Jahre, um beispielsweise schadhafte Bauteile zu analysieren oder die Zuverlässigkeit von Verbrauchsprognosen zu prüfen. Dafür müssen die Daten spätestens 20 Minuten nach ihrer Erzeugung für Zeitreihen- und andere Analysen optimiert bereitstehen (Latenz). Die wichtigsten auf diesen Daten basierenden Auswertungen benötigen dann jeweils weniger als fünf Sekunden und sind somit interaktiv durchführbar.

Besonders im Energiesektor fallen bei Erzeugung und Verbrauch enorme Datenmengen an, doch nicht immer kommen Big-Data-Technologien zum Einsatz.

Es sprechen erste Kriterien für Big-Data-Technologie. Überraschenderweise ist es aber keineswegs die Datenmenge, denn trotz vieler Datensätze bewegt sich das Volumen noch im unteren Terabyte-Bereich. Allerdings sind Wide-Column-NoSQL-Datenbanken besser für Zeitreihenanalysen geeignet als ihre relationalen Pendants. Dennoch entschied sich der Betreiber aufgrund des traditionellen Know-hows seiner Mitarbeiter, der Stabilität und sicheren Verfügbarkeit relationaler Tools für die klassische Lösung mit hohem Investitionsschutz und vergleichsweise niedrigen Kosten. Und das funktioniert. Die Anwendung skaliert bei Bedarf und stärkerer Hardware auch noch um den Faktor zehn.

Messdatenlandschaft

Es wäre ein Fehler, rein fachliche Kriterien für einen Technologieentscheid zu nutzen. In einem zweiten, ganz ähnlich gelagerten Fall befüllt ein Autozulieferer zwecks Analyse der Produktionsprozesse Dutzende örtlich separierte, aber gleichartige relationale Datenbanken mit Messdaten. Inzwischen bewegt sich das Gesamtvolumen deutlich im dreistelligen Terabyte-Bereich. Alle Informationen sind innerhalb einer Stunde – ebenfalls vorwiegend für Zeitreihenanalysen – fertig aufbereitet.

Im Zuge einer Zusammenführung dieser Datenbanken und eines zunehmend operationalen Monitorings müssen nun sehr zeitnahe Analysen ermöglicht werden. Darum ist es erforderlich, die Latenz auf maximal fünf Minuten zu reduzieren. Jetzt stellen sich neue Fragen: Wie repliziert man Daten aus unterschiedlichen Orten so schnell wie möglich in ein zentrales System, wenn Hunderte von Transformationsprozessen nötig sind und ebenso viele Benutzer gleichzeitig die Daten analysieren?

Wann soll ich Big-Data-Technologien einsetzen?

Wichtige Indikatoren für den Einsatz von Big-Data-Technologien lassen sich also zum einen aus den drei „V“ ableiten: Volume, Velocity und Variety. Wenn man für ein Vorhaben also eine oder mehrere der folgenden Fragen mit Ja beantwortet, ist demnach zumindest eine genauere Technologiebetrachtung angesagt:

Verarbeitungslatenz
Wie lange nach der Entstehung von Daten müssen Muster erkannt und daraus Aktivitäten abgeleitet werden? Habe ich Anforderungen im Minuten- oder Sekundenbereich – oder sogar noch darunter?
Datenvolumen
Wie groß ist die Datenmenge, die insgesamt vorgehalten werden muss? Komme ich weit in den Terabyte-Bereich oder darüber hinaus?
Skalierbarkeit
Muss die Verarbeitung „elastisch“ sein? Also: Werden starke Schwankungen bei der Last erwartet und soll die gewählte Lösung auch noch um den Faktor 10, 100 oder 1 000 nach oben skalierbar sein? Hilft mir eventuell der Einsatz von Cloud-Diensten?
Flexibilität
Wie vielfältig ist mein verfügbares Datenmaterial? Weiß ich jetzt schon, was ich später damit machen möchte?

Andererseits spielen natürlich auch nicht-technische Kriterien eine wichtige Rolle: Das Know-how der Mitarbeiter oder die Bereitschaft einer Abteilung oder eines Unternehmens, sich für reale Fragestellungen auf neue Wege einzulassen zum Beispiel. Ein gutes Erwartungsmanagement und ausreichend Budget für Implementierungsaufwände können ebenfalls wichtige Kriterien sein: Bei ersten Fragestellungen sind nicht immer revolutionäre Antworten zu erwarten und Big-Data-Anwendungen sind nicht einfacher oder kürzer (und damit billiger) als herkömmliche Projekte.

Relationale Datenbanken und klassische Datenintegration alleine erweisen sich dabei aufgrund der nötigen Latenz irgendwann als Flaschenhals. Besser eignen sich Vorgehensweisen aus dem Internet of Things – einer Domäne für Big-Data-Anwendungen: An jedem Standort werden neue (Sensor-)Daten innerhalb von Sekunden vorbereitet und für erste Analysen eine Weile im Hauptspeicher lokaler Rechner – ähnlich einem Gateway – vorgehalten. Die Datenströme fließen gleichzeitig in einen Event-Hub in der Cloud. An diesem bedienen sich alle weiteren Transformationsprozesse, die ihre Ergebnisse in einem großen, ebenfalls cloudbasierten NoSQL-Datenbankcluster ablegen.
Hier kommen zahlreiche Big-Data-Techniken zum Einsatz: Stream-Analytics und Transformationslösungen wie Spark, Event-Hubs wie Kafka und NoSQL-Datenbanken wie Cassandra. Sie wurden ursprünglich von Facebook, LinkedIn und dem APMLab der University of California ins Leben gerufen:

  • Im Gegensatz zu traditionellen Tools sind sie konsequent auf Skalierbarkeit ausgelegt. Die meisten Lösungen laufen ohne nennenswerten Overhead auf Clustern mit Hunderten oder Tausenden Rechnern.
  • Viele Tools werden von großen Entwicklergemeinden als Open-Source-Programme weiterentwickelt.
  • Hinter den meisten Produkten stehen zudem Unternehmen, die Enterprise-Level-Support und kommerzielle Varianten mit erweitertem Funktionsumfang anbieten.
  • Sie wurden als Open-Source-Software entwickelt und an die Apache Software Foundation weitergereicht. Inzwischen gibt es dafür  auch rein kommerzielle Alternativen, beispielsweise in der Microsoft Azure Cloud (Event-Hubs, Stream-Analytics).

Bewegungsdaten

Ein weiteres Kriterium für den Einsatz neuer Technologien ist neben Datenmenge und Durchsatz bzw. Latenz auch die Datenvielfalt. Während in relationalen Datenbanken stark strukturierte Daten genutzt werden, gilt das nicht für Big-Data-Anwendungen. Auch Texte, Videos, Bilder, Geodaten oder XML- und JSON-Dateien aus Web-Click-Streams oder Applikationslogs sind relevant.
In unserem dritten Fall nutzt ein Mobilfunkbetreiber neben Geodaten und GSM-Daten aus dem Funknetz auch zahlreiche weitere Quellen für analytische Anwendungen. Da inzwischen fast jeder ein angeschaltetes Handy mit sich führt, kann der Netzbetreiber je nach Netzausbau und Art des Funkverkehrs den Aufenthaltsort eines Teilnehmers recht genau orten. Zudem können Endgeräte und zum Teil auch die Teilnehmer identifiziert werden. Die dabei anfallenden Datenmengen sind sehr groß und bedürfen umfangreicher Interpretation. Dann aber lassen sich detaillierte Bewegungsprofile erzeugen.

Natürlich dürfen aus Datenschutzgründen die Daten aller Teilnehmer nur anonymisiert verarbeitet werden, sodass keine Rückschlüsse auf Personen möglich sind. Dennoch bleiben die Möglichkeiten vielfältig. So kann man mit diesen Verfahren sehr einfach zuverlässige Aussagen über den gegenwärtigen Straßenverkehrsfluss machen, Pendlerströme visualisieren, um typische Einzugsgebiete zu erkennen, oder Transit- von regionalem Verkehr unterscheiden.

Die dabei anfallenden Datenmengen überschreiten schon in kurzer Zeit die PetabyteGrenze und sind durchaus vielfältig. Wichtig sind historische Daten, aber manche Anwendungsfälle, wie die Verkehrsbetrachtung, benötigen auch zeitnahe Werte. Zudem will man beim Speichern der Daten eine Unabhängigkeit von den Datenstrukturen sicherstellen (Variety). Während bei der Speicherung in relationalen Datenbanken im Allgemeinen die Datenstruktur vorab bekannt sein muss, ist das bei der Datenablage in File-Systemen wie Hadoop nicht der Fall. Hier genügt es, erst beim Lesen der Daten über deren Struktur Bescheid zu wissen. Das ermöglicht auch das vorausschauende Speichern von Daten, für die heute noch keine ausgearbeiteten Einsatzzwecke vorliegen, die aber mit hoher Wahrscheinlichkeit eines Tages von Bedeutung sein werden.

Alle Indikatoren zeigen also in Richtung der neuen Technologien. Und folgerichtig werden hier beispielsweise Hadoop für die langfristige Speicherung von strukturierten und unstrukturierten Daten und Spark für die Transformation und Analyse dieser Daten eingesetzt. Damit ist neben einer kostengünstigen Ablage von Massendaten auch die Skalierbarkeit für zukünftige Fachanforderungen gesichert.

Quellen:

(1) https://blogs.gartner.com/doug-laney/files/2012/01/ad949-3D-Data-Management-Controlling-Data-Volume-Velocity-and-Variety.pdf, abgerufen am 02.11.2016
(2) https://tdwi.org/Articles/2015/03/31/Dimensional-Data-Warehouses-Get-Job-Done.aspx, abgerufen am 02.11.2016
(3) https://www.guinnessworldrecords.com/world-records/largest-data-warehouse, abgerufen am 02.11.2016

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Peter Welker

Big – Smart – Fast

Unser Arbeitsalltag wird zunehmend von digitalen Daten beeinflusst. Big Data berührt alle Branchen und Märkte.

Werfen wir im Kontext der Digitalisierung einen  kurzen Blick zurück: Es wird angenommen, dass es der Menschheit im Jahr 2002 zum ersten Mal möglich war, mehr Informationen digital als analog zu speichern – der Beginn des „Digitalen Zeitalters“. Alles was heute an analogen Informationen in Bits und Bytes gewandelt werden kann, wird zu Daten. Im Zuge der Digitalisierung, die Unternehmen im Kontext betrieblicher Abläufe zu Effizienzsteigerung und damit einer verbesserten Wirtschaftlichkeit verhilft, wachsen die Daten dementsprechend exponentiell. Wir sprechen heute von Big Data. Der aus dem englischen Sprachraum stammende Begriff Big Data oder auf gut Deutsch Massendaten steht dabei grundsätzlich für große digitale Datenmengen, aber auch für deren Analyse, Nutzung, Sammlung, Verwertung und Vermarktung. In der Definition von Big Data bezieht sich das „Big“ auf die drei Dimensionen „volume“, für Umfang und Datenvolumen, „velocity“ für die Geschwindigkeit, mit der die Datenmengen generiert und transferiert werden, sowie „variety“ für die Bandbreite der Datentypen und -quellen. Erweitert wird diese Definition um die zwei V „value“ und „validity“, welche für einen unternehmerischen Mehrwert und die Sicherstellung der Datenqualität stehen.

Die gesammelten Daten können dabei aus verschiedensten Quellen stammen: Überwachungssysteme, Nutzung von Kunden- oder Bank- bzw. Bezahlkarten, jegliche elektronische Kommunikation, Navigationssysteme, GPS, Smartphones, Smart Homes, Fahrzeuge aller Art, von Behörden und Unternehmen erhobene und gesammelte Daten, Sensordaten im Kontext von IoT und Industrie.
Die Analyse, Erfassung und Verarbeitung von großen Datenmengen ist heute in vielen Bereichen alltäglich, aber verbesserungswürdig hinsichtlich Big Data.

TREND REPORT zum Thema

Unser Arbeitsalltag wird zunehmend von digitalen Daten beeinflusst. Business-Intelligence-Lösungen helfen, Geschäftsprozesse zu optimieren und Ordnung in das Big-Data-Chaos zu bringen, weiß Brian Gentile. https://trendreport.de/bi-daten-clever-nutzen/

Mit der TREND-REPORT-Redaktion sprach Tom Becker über die Herausforderungen und die Bedeutung der Datenanalyse für den Geschäftserfolg und welchen Vorteil Self-Service-Datenanalysetools bieten. https://trendreport.de/analyse-der-datenanalyse/

Datenmengen sind und werden zu groß, zu komplex, zu schnelllebig oder zu schwach strukturiert, um sie mit herkömmlichen Methoden der Datenverarbeitung auszuwerten. Aktuelle Entwicklungen von Software für die Verarbeitung von Big Data kommen neben klassischen prioritären Anbietern oft aus dem Open-Source-Bereich. Bekannt ist hier z. B. Apache Hadoop, ein freies Framework für skalierbare, verteilt arbeitende Software, die es ermöglicht, intensive Rechenprozesse mit großen Datenmengen auf Computerclustern durchzuführen. Big Data kann Geschäftsprozess-Verbesserungen in allen Funktionsbereichen von Unternehmen, vor allem aber im Bereich der Technologieentwicklung und Informationstechnik sowie des Marketings erzeugen. Die Erhebung und Verwertung der Datenmengen dient dabei im Allgemeinen der Umsetzung von Unternehmenszielen. Bisher haben vor allem große Branchen, Unternehmen und Anwendungsbereiche der Wirtschaft, Marktforschung, Vertriebs- und Servicesteuerung, Medizin, Verwaltung und Nachrichtendienste die entsprechenden digitalen Methoden für sich genutzt: Die erfassten Daten sollen weiterentwickelt und nutzbringend eingesetzt werden. Die Erhebung der Daten dient dabei meistens für konzernorientierte Geschäftsmodelle sowie Trendforschung in den sozialen Medien und Werbeanalysen, um zukunftsweisende und möglicherweise gewinnbringende Entwicklungen zu erkennen. Big Data kann die Triebfeder für innovative Geschäftsmodelle und Produkte werden. Welches Marktpotential tatsächlich in Big Data Lösungen steckt scheint nicht vorhersehbar: 2013 prognostizierte der US-Marktforscher IDC den weltweiten Umsatz für 2017 auf gut 32 Milliarden Dollar. Tatsächlich betrug er 2015 bereits 125 Milliarden.

Quellen:
Wikipedia – Data Scientist: https://de.wikipedia.org/wiki/Data_Science
Wikipedia – Big Data
Wikipedia – Business Intelligence
Martin Hilbert, Priscila López: The World’s Technological Capacity to Store, Communicate, and Compute Information. In: Science, 2011, 332(6025), S. 60-65; martinhilbert.net/WorldInfoCapacity.html (Kostenfreier Zugriff auf den Artikel). The World’s Technological Capacity to Store, Communicate, and Compute Information from 1986 to 2010. (Abgerufen am 15. April 2015 PDF).
Big Data: 32 Milliarden Dollar Umsatz bis 2017 erwartet – 125 Milliarden Dollar 2015 Realität, von: Michael Kroker. URL: https://blog.wiwo.de/look-at-it/2016/07/26/big-data-32-milliarden-dollar-umsatz-bis-2017-erwartet-125-milliarden-dollar-2015-realitaet/ (Abgerufen: 6. Dezember 2016)

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/

Location-based Services

Die Einsatzgebiete für Location-based Services sind vielfältig. Nicht nur im Bereich des Handels, sondern auch bspw. in Verwaltung und Kultur.

Die Redaktion im Gespräch mit Georgios Karachos, Gründer und Geschäftsführer der Qualigon GmbH, zu Trends im Rahmen der Indoor-Lokalisierung

Herr Karachos, für welche Anwendungsszenarien eignet sich Indoor-Lokalisierung?
Wir bekommen Lokalisierungsanfragen aus vielen unterschiedlichen Bereichen, wie Shoppingcentern, Krankenhäusern, Flughäfen, Messen, Museen, aus dem Büro- oder auch Facility-Management sowie der Industrie. Dabei haben die unterschiedlichen Szenarien individuelle Anforderungen an die Lokalisierung, einerseits bei der geforderten Genauigkeit, andererseits auch bei der Frage, ob Personen oder Güter lokalisiert werden sollen. Anhand dieser spezifischen Kriterien wählen wir die beste Lokalisierungs-Technologie aus und gewährleisten dem Kunden damit eine individuell angepasste Lösung und einen zuverlässigen Betrieb. Große Krankenhausanlagen haben zum Beispiel verzweigte und schwer zu findende Bereiche. Durch eine Lokalisierungslösung können Patienten gezielt zu den Behandlungsräumen geleitet werden. Dies ermöglicht einen reibungslosen Betrieb. Zusätzlich kann das Facility-Management unterstützt werden. Darüber hinaus ist es damit auch möglich, Objekte wie Defibrillatoren oder Krankenhausbetten zu lokalisieren. Auch in Shoppingcentern bietet die Nutzung eine Vielzahl von Vorteilen für den Betreiber und den Endkunden. Dies gilt natürlich auch für Filialketten. In beiden Szenarien gibt es vielfältige Anwendungen, dazu zählt primär die Navigation des Kunden zu diversen Zielen, wie zum Beispiel Shops, Stellplatz des eigenen Autos im Parkhaus oder Servicepoints. Im nächsten Schritt können die Kunden dann ebenfalls in den Shops zu bestimmten Bereichen geleitet werden. Lokalisierungstechnologien erleben aber auch durch Industrie 4.0 einen starken Aufschwung. Dabei unterscheiden wir den Bereich der Personenführung, wie zum Beispiel im Alleinarbeiterschutz, und den IoT-Bereich (Internet of Things), bei dem eine direkte Kommunikation zwischen den Maschinen (M2M) notwendig ist. Die Kenntnis der Position von Gütern und Geräten ist für einen optimierten Produktionsprozess ein immer wichtiger werdendes Kriterium. Ein weiterer Aspekt sind alle Messungen im Indoor-Bereich, die mit einer genauen Positionsinformation verknüpft werden müssen, zum Beispiel Analysen von Mobilfunk- oder WLAN-Netzen oder aber Umwelt-Analysen.

Wie könnten Shoppingcenter Lokalisierungstechnologien in ihre Wertschöpfungskette integrieren, um bestmögliche Kundenbindung zu erzeugen?
Center-Betreiber werden damit in die Lage versetzt, ihren Kunden ein neues Shopping-Erlebnis anzubieten. Der Kunde kann seinen Besuch zu Hause am PC vorplanen und sich über sein Smartphone vom Verlassen des eigenen Pkws bis zum Produkt durch das Center navigieren lassen. Das Center-Management sowie die jeweiligen Einzelhändler können anhand genauer Analysen der Kundenbewegungen eine vergleichsweise sichere Aussage über die Vorlieben und Verhaltensmuster des Kunden im Shoppingcenter treffen. Dies hilft, das Angebot besser auf den Kunden einzustellen, Stärken und insbesondere Schwachstellen zu identifizieren und die Effizienz von Marketingmaßnahmen einzuschätzen und zu optimieren. In Verbindung mit diversen Daten aus der geografischen und geschäftsspezifischen Umgebung des Objektes lässt sich deren Einfluss auf das Kaufverhalten, die Verweildauer des Kunden und die Umsätze der Retailer feststellen. Aus der Betrachtung mehrerer diesbezüglicher Zyklen lässt sich hier eine nützliche Prognose ableiten, die mittel- und langfristig eine Optimierung der Prozesse und Logistik des Retailers erlaubt. Darüber hinaus lässt sich in Verbindung mit einer entsprechenden Smartphone-Applikation, die die Navigations-Funktionalität enthält, die Kundenbindung erhöhen. Auch können Produkte und Dienstleistungen über dieses Medium personalisiert beworben werden. Shoppingcenter können ihre Besucher-Bereiche als virtuelle Marketing-Flächen anbieten. Ein zusätzlicher, nicht zu vernachlässigender Nebeneffekt für den Shoppingcenter-Betreiber ist hier die Möglichkeit, diese Marketingflächen an interne und externe Retailer und Dienstleister zu vermieten und somit die Investitionen in das System refinanzieren zu können.

Was für einen konkreten Nutzen hat der Endanwender – wie hilft ihm die Lösung?
Im Shoppingcenter kann der Endkunde zunächst auf einfache Art und Weise seine bevorzugten Shops und gewünschte Servicepoints im Shoppingcenter finden. Ganz besonders positiv wird der Kunde diese Funktionalität insbesondere in größeren und unübersichtlichen Shoppingcentern empfinden. Des Weiteren ist die Möglichkeit gegeben, in Parkhäusern, die größtenteils nur noch schwer zu unterscheidende Bereiche aufweisen, sein Auto schnell und unkompliziert wiederzufinden. Ein Vorteil, den jeder Kunde insbesondere nach der ersten Erfahrung einer längeren Suche nach seinem Fahrzeug in einem großen Parkhaus zu schätzen wissen wird. Im Krankenhaus können Patienten und Besucher geführt werden. Ein weiterer wichtiger Anwendungsfall ist das Auffinden von Gerätschaften, wie Defibrillatoren und Betten, sowie das Überwachen von Blutkonserven. Krankenhausbetreiber können auf skalierbare Lösungen zurückgreifen. Daneben ist auch die Navigation des Facility-Managements und von Maintenance-Mitarbeitern zu bestimmten Wartungspunkten ein wichtiges Anwendungsszenario, da so auch Externe schnell und eindeutig zu ihren Arbeitsstellen geführt werden können, ohne komplizierte Pläne oder Personal des Auftraggebers nutzen zu müssen. In der Industrie unterstützen Lokalisierungs-Systeme den Alleinarbeiter in kritischen Situationen. Auch bei der Lagerhaltung optimieren wir bereits vorhandene IT-Lösungen.

Wie verläuft die konkrete Implementierung vor Ort?
Im ersten Schritt nehmen wir die Anforderungen des Kunden auf und spezifizieren gemeinsam das komplette System. Basierend auf diesen Informationen stellen wir aus unserem Portfolio die passenden Technologien zusammen. Je nach Szenario können wir dabei die Anforderung des Kunden an die Genauigkeit bis hin zu zehn Zentimetern abdecken. Unter Umständen sind in dem Implementierungsprozess auch Anpassungen an bereits vorhandene IT-Systeme des Kunden notwendig. Anschließend planen wir die Infrastruktur für die Lokalisierung mit Funkplanungs-Software basierend auf den beschriebenen Genauigkeits-Anforderungen. Schließlich erfolgt die Installation der benötigten Infrastruktur. Parallel zu diesen Schritten wird eine eigene mobile App für den Kunden erstellt oder eine bereits bestehende erweitert. Nach einer Qualitäts-Überprüfung des kompletten Systems und natürlich auch der Genauigkeit kann der Kunde das System übernehmen. Zusätzlich bieten wir die vollständige Wartung oder auch den Betrieb des Systems an.

Kernaussagen

  • Durch die Indoor-Lokalisierung können in Gebäuden Personen geführt und Güter lokalisiert werden.
  • Indoor-Lokalisierungs-Lösungen sind dabei, in den Bereichen Industrie, Gesundheitswesen sowie Groß- und Einzelhandel zum Standard zu werden.
  • Indoor-Lokalisierung vereinfacht und optimiert in Verbindung mit Business-Intelligence die Prozessabläufe in unterschiedlichen Szenarien.
  • Indoor-Lokalisierungs-Systeme erhöhen die Arbeitssicherheit.
  • Durch Indoor-Lokalisierung können neue Dienste generiert und bereits bestehende Dienste erweitert werden.

Wie wird sich die Technologie weiterentwickeln?
Wir erwarten, dass die Lokalisierungs-Technologie immer stärker zu einem Standard ähnlich wie GPS wird. Die für die Lokalisierung verwendete Infrastruktur wird ein integraler Bestandteil der Gebäudetechnik wie zum Beispiel eine Brandmeldeanlage sein und wird mit anderen Komponenten, im Rahmen von Smart Buildings, interagieren. Hier erwarten wir nach wie vor energiesparende, kostengünstigere, noch leistungsfähigere Geräte und sich daraus ergebende neue Möglichkeiten. Wir erkennen, dass die unterschiedlichen Sparten ein starkes Interesse an den Diensten, die die Lokalisierung bietet, haben. Das sind neben den erwähnten Dienstleistungen für den Besucher oder dem Auffinden von Gütern und Waren ganz besonders die positionsbezogenen Analysen. Durch diese neuen Datenquellen ergeben sich moderne Dienste-Dimensionen, die von der Business-Intelligence über Marketing, Asset-Tracking bis hin zur Security und Arbeitssicherheit reichen. Wir beschäftigen uns schon lange mit Business-Intelligence in Verbindung mit Positionsdaten und bieten auch diese komplexen Prozesse und Analysen aus einer Hand. Die steigende Nachfrage zeigt, dass Lokalisierungs-Dienste, wie z. B. das Tracking von Assets, zu einem Standard werden. Durch die beständige Optimierung dieser Bereiche sind unsere Kunden für das Zeitalter der digitalen Transformation gerüstet.

Genauigkeit und Einsatzfeld typischer Ortungssysteme für Location-based Services (Quelle: Qualigon)

Wäre eine „Kopplung“ mit anderen Navigationslösungen denkbar?
Wir können die Indoor-Lokalisierungs-Technologien z. B. mit den bekannten GPS-Systemen verknüpfen. Damit ist ein nahtloser Übergang zwischen der Indoor- und Outdoor-Lokalisierung möglich. Dies erspart dem Kunden die Notwendigkeit, den Outdoor-Bereich, wie z. B. Lagerflächen, Parkanlagen oder Außenparkplätze, mit Infrastruktur auszustatten. Bei einer Integration der unterschiedlichen Dienste in schon bestehende Systeme ist es auch möglich, den Kunden, der mit dem Auto kommt, bis zum Parkhaus zu leiten. Von dort übernimmt sein Smartphone die Navigation durch die Fußgängerzone oder das Shoppingcenter bis zum Regal, in dem das Produkt zu finden ist. Mit entsprechenden Informationen ist die mobile App in der Lage, den Kunden zu einem freien Parkplatz zu führen, der den kürzesten Weg zum Shop mit dem ausgewählten Produkt aufweist.

Bieten Sie Schnittstellen für App-Entwickler, Ihre mit dem Fraunhofer IIS gemeinsam entwickelten Technologien und Dienste zu nutzen?

Das System bietet verschiedene Schnittstellen, die auch von externen App-Entwicklern genutzt werden können, um ihre Applikationen mit der Lokalisierungs-Technologie zu erweitern. Dies ist auch notwendig, da viele Kunden bereits eigene mobile Applikationen besitzen, die um die Lokalisierungsmöglichkeit angereichert werden sollen. Basierend auf den Anforderungen passen wir auch die Schnittstellen an bestimmte bereits im Unternehmen genutzte Systeme an.

Wie stellen Sie sicher, dass die Dienstequalität gewährleistet wird?
Lokalisierungs-Systeme bestehen in der Regel aus mehreren Modulen wie Infrastruktur, gegebenenfalls Apps für Smartphones, diversen Server-Komponenten und den bereits angesprochenen Schnittstellen zu anderen Systemen. Um die Qualität der zugehörigen Dienste gewährleisten zu können, müssen die einzelnen Module fehlerfrei zusammenwirken. Für den Kunden übernehmen wir die Installation, den Betrieb und die Wartung der Infrastruktur. Somit ist die Lokalisierungs-Genauigkeit, welche zum Beispiel für Business-Intelligence-Systeme maßgeblich ist, nicht nur einmalig nach der Installation, sondern auch für die Zukunft gewährleistet. Für die Sicherstellung der Netzqualität überprüfen wir die vorhandenen WiFi- und Mobilfunknetze durch eigene Messsysteme. Dabei ergibt sich in der Regel ein Optimierungsbedarf der Netze, um die Kundenanforderungen erfüllen zu können. Auch bei der Implementierung liefern wir unseren Beitrag zur Sicherstellung der Quality of Experience. Hier begleiten wir die Entwicklung der Applikationen und die damit verbundenen Dienste durch das automatisierte Testen auf einer Vielzahl von Smartphones und Tablets. Um eine fehlerfreie Kommunikation zwischen Applikation und Server-Komponente gewährleisten zu können, führen wir ein kontinuierliches Monitoring von Diensten durch. Damit stellen wir die vom Kunden gewünschte Qualität sicher. Natürlich sind bei den angesprochenen Komponenten die Security sowie der Datenschutz wichtige Aspekte, die berücksichtigt werden müssen. Wir arbeiten hier mit spezialisierten Partnern zusammen, die uns dabei unterstützen, den Kunden den bestmöglichen Service zu bieten.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Georgios Karachos

Smarte Lösungen für den Handel

Über die Chancen von Big Data und der Vernetzung

von Jens Lappoehn

Die Digitalisierung ist die größte technologische Revolution der letzten 200 Jahre. Sie erfasst die Wirtschaft genauso wie die Gesellschaft und verändert die Art und Weise, wie wir leben und arbeiten. Die Digitalisierung ist vor allem eines: Eine große Chance, denn viele zentrale Herausforderungen der Zukunft sind ohne digitale Technologien nicht lösbar. Telefónica Deutschland trägt als nach Kundenzahl größtes Mobilfunkunternehmen Deutschlands maßgeblich dazu bei, dass die digitale Zukunft Wirklichkeit wird. Denn wir bieten zwei zentrale Rohstoffe für die Digitalisierung: Konnektivität und Daten.
Diese Rohstoffe wollen wir nutzen. Wir sind überzeugt, dass in der Vernetzung von Dingen und der smarten Datenanalyse großes Potenzial für die Gesellschaft und die Wirtschaft steckt. Deshalb haben wir eine neue Gesellschaft, die Telefónica Germany NEXT GmbH, gegründet, die diese digitalen Wachstumsfelder vorantreibt. Auf Basis von Datenanalysen und der Vernetzung von Dingen bietet die Gesellschaft anderen Unternehmen Lösungen an, damit diese die Chancen der Digitalisierung besser nutzen können.

Milliarden Daten intelligent verknüpft

Mit über 44 Millionen Kundenanschlüssen liegt uns durch unsere normalen Geschäftsprozesse eine große Menge an Daten vor. Darunter sind vor allem solche, die ausschließlich bei uns als Netzbetreiber anfallen, beispielsweise Mobilitätsdaten. Diese entstehen, wenn Handys, z. B. beim Surfen, mit den Mobilfunkzellen kommunizieren. Täglich entstehen so mehr als vier Milliarden Datenpunkte.
Für Analysezwecke werden sie durch ein dreistufiges, TÜV-zertifiziertes Verfahren vollständig anonymisiert und im Anschluss statistisch ausgewertet. Trotz vollständiger Anonymisierung können Kunden der Verwendung ihrer Daten jederzeit wiedersprechen. Sie haben so die Möglichkeit, ihre persönlichen Präferenzen mit dem Nutzen abzuwägen, den ihre Daten für die Wirtschaft und Gesellschaft schaffen.
Intelligent verknüpft ergeben sich aus den Daten neue Erkenntnisse, die für Unternehmen unterschiedlichster Branchen ebenso wie für Kommunen, öffentliche Verkehrsbetriebe und die Gesellschaft insgesamt relevant sind. Die Erkenntnisse aus datenbasierten Analysen sind beispielsweise für Städte interessant, die unter hohem Verkehrsaufkommen leiden. Das Potenzial von Mobilfunkdaten als eine verlässliche Datenquelle für die Verkehrsplanung untersuchen wir aktuell in Stuttgart gemeinsam mit dem Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO. Zudem beteiligen wir uns an einem Pilotprojekt in Nürnberg, bei dem auf Basis von Mobilfunkdaten die Verkehrsströme und darüber die Luftverschmutzung analysiert werden.

Der Weg der Daten: vom Handy über die Anonymisierung zur Verkehrsmessung

Smarte Datenanalyse für den Handel

Präzise Daten sind nicht nur für die Verkehrsplanung hilfreich, sondern auch für den stationären Handel von großem Interesse. Online-Händler verstehen bereits sehr präzise, wie viele Kunden ihre Website besuchen, wie lange sie dort jeweils bei welchem Angebot verweilen und welche Art der Produktplatzierung für welche Zielgruppe vielversprechend ist. Auf der Grundlage dieser Kundeninformationen passen bereits viele Online-Händler ihre Angebote schnell und flexibel an die Kunden an. Wir arbeiten bei Telefónica NEXT daran, dass diese Möglichkeiten auch für den Offline-Handel, also den stationären Handel, funktionieren. Dies kommt nicht zuletzt auch den Innenstädten zugute. Unsere smarte Datenanalyse trägt dazu bei, dass der stationäre Handel Informationen über seine Zielgruppe erhält, die ihm bisher so nicht zur Verfügung standen. Wir analysieren beispielsweise mithilfe von Mobilfunkdaten Kundenströme im Umfeld einer Filiale.
Auf Basis von Daten kann der Händler seine Kunden besser verstehen und smarter mit ihnen interagieren – und nicht zuletzt seine eigenen Prozesse effizienter gestalten. Die Kunden wiederum profitieren von einem digitalen Einkaufserlebnis. Das stärkt die Position des Einzelhandels gegenüber dem Online-Handel. Händler, die online und offline Kanäle bedienen, erhalten wertvolle Informationen, wie sie diese noch besser vernetzen.

Bewegungen rund um den Store

Bislang waren Kaufhäuser und Einzelhändler auf Schätzungen angewiesen, um zu wissen, wie viele Kunden tatsächlich ihre Schaufenster passieren. Durch die smarte Datenanalyse können die Bewegungsströme vor Geschäften statistisch exakter berechnet werden, denn die Stichprobe aus anonymisierten Daten ist größer und aktueller – und nicht verzerrt durch Großereignisse oder z. B. das Wetter. Durch zusätzliche Analy­severfahren ermitteln wir beispielsweise auch, wie viele Menschen derselben Al­tersgruppe und desselben Geschlechts sich in der Nähe des Stores aufgehalten haben. Zudem können wir auf Basis der anonymisierten Daten beispielsweise typische Routen oder durchschnittliche Verweildauern bestimmter Zielgruppen berechnen. Über Roaming-Informationen ist auch die Identifikation der Zielgruppe der Touristen möglich.

Der Einzelhandel kann anhand dieser vielfältigen Informationen zum Beispiel Standorte viel besser bewerten, Öffnungszeiten optimieren, Werbung in Schaufenstern passend gestalten oder das Sortiment an die Zielgruppe anpassen. Auch Telefónica Deutschland stellte nach dem Zusammenschluss mit E-Plus mithilfe der Datenanalyse das eigene Filialnetz der Shops auf den Prüfstand. Von diesen relevanten Erfahrungen profitiert Telefónica NEXT.

Telefónica NEXT

Telefónica Deutschland hat die strategischen Wachstumsfelder „Advanced Data Analytics“ und „Internet of Things“ in einer eigenen Gesellschaft gebündelt, der Telefónica Germany NEXT GmbH mit Sitz in Berlin. Die Gesellschaft bietet anderen Unternehmen Lösungen an, damit diese die Wachstumschancen der Digitalisierung besser nutzen können. Mit „Advan­ced Data Analytics“ richtet Telefónica NEXT den Blick auf den gesellschaftlichen und wirtschaftlichen Nutzen, der sich aus der Analyse großer Datenmengen ziehen lässt. Zudem arbeitet das Unternehmen an Lösungen für das Internet der Dinge und wird mit der neuen Software-Plattform geeny.io Unternehmen dabei unterstützen, vernetzte Lösungen auch für Endverbraucher anzubieten.

In einem nächsten Schritt werden wir auch Analysen für das Innere der Stores ermöglichen. Damit erfahren Händler, wie viele und welche Kunden tatsächlich den Store betreten haben und wie lange und wo sie sich darin aufgehalten haben. So können Händler die Kundenströme viel besser verstehen und z. B. die Gestaltung ihrer Flächen optimieren oder auch den Erfolg einzelner Filialen miteinander vergleichen.
Durch die Verknüpfung von beidem – Analysen außerhalb des Stores und im Store – kann der Händler die sogenannte Customer-Journey nahezu vollständig abbilden und seine Verkaufskanäle optimieren.

Das digitale Erlebnis im vernetzten Store

Kunden erhalten datenbasiert passende Angebote von Partnern (Quelle: Quelle Telefónica Deutschland)

Wir unterstützen die Händler auch dabei, im Inneren ihrer Geschäfte digitale Technologien gewinnbringend einzusetzen – und das für beide: für Händler und Kunde. Mithilfe unserer Datenanalyse kann der Händler sein Geschäft smarter an die Bedürfnisse seiner Zielgruppe anpassen und mit seinen weiteren Verkaufskanälen vernetzen. Sei es durch stimmige Musik, passende Displays oder wertvolle digitale Zusatzinformationen. All das bietet den Kunden ein mehrere Sinne ansprechendes Erlebnis, das der Online-Handel alleine nicht ermöglicht. Dabei wird der Kontakt zu den echten Mitarbeitern nicht weniger, sondern effizienter und besser – und damit auch wirtschaftlicher für den Händler.
Für die Auswahl passender Produkte bauen wir auf einem umfangreichen internationalen Portfolio unseres spanischen Mutterkonzerns Telefónica S. A. auf. Ein Beispiel sind digitale Plakate. Sogenannte Digital Signage können mit verschiedenen relevanten und anonymisierten Daten, zum Beispiel Alter und Geschlecht der vorhandenen Kunden und Wetterdaten, verknüpft werden. So kann der Händler in Echtzeit jeweils passende Informationen oder Angebote auf den Displays präsentieren. Zusätzliche Interaktivität bieten smarte Umkleidekabinen. Der Kunde hat die Möglichkeit, Informationen über Größen- und Farbvarianten der Produkte auf einem Tablet abzurufen. Zudem kann er sich zu passenden Accessoires inspirieren und sich gewünschte Varianten von den Mitarbeitern bringen lassen.

Ein weiteres Beispiel für mehr Interaktion und gleichzeitige Effizienz sind digitale Preisschilder. Sie lassen sich vom Kunden über einen Touch-Screen bedienen und bieten ihm Zusatzinformationen zum Produkt an. Durch die zentrale Steuerung der Preisschilder kann der Händler die Fläche schneller umgestalten.

Kunden außerhalb des Stores gezielt ansprechen

Händler können von der Digitalisierung auch außerhalb ihrer Stores profitieren und mit ihrer Zielgruppe kommunizieren. Hierbei handelt es sich um spezifische Werbeangebote, die Kunden auf unterschiedlichen Wegen erreichen.

Datenschutz ist Grundvoraussetzung

Der Datenschatz ist ohne Datenschutz wertlos. Telefónica Deutschland nimmt den Datenschutz sehr ernst, denn er ist die Grundlage für die Akzeptanz von datenbasierten Geschäftsmodellen in der Gesellschaft. Deshalb ist das Herzstück der Datenanalyse ein vom TÜV zertifiziertes und von der Bundesbeauftragten für den Datenschutz und die Informationsfreiheit begleitetes Verfahren. Es sorgt dafür, dass Kundendaten über ein dreistufiges Verfahren komplett anonymisiert werden und sich auch nicht nachträglich bestimmten Personen zuordnen lassen. Trotz dieser vollständigen Anonymisierung hat jeder Kunde die freie Wahl und kann der Nutzung seiner anonymisierten Daten jederzeit widersprechen. So behält er stets die Hoheit über seine Daten.
https://analytics.telefonica.de/

Einerseits erlaubt die Plattform Axonix die datenbasierte, gezielte Ausspielung von Werbebannern beim mobilen Surfen. Andererseits können Händler mithilfe des Service O2 More Local ihre Zielgruppe per Nachricht auf dem Mobiltelefon erreichen. Mit der kostenlosen Buchung von O2 More Local erlaubt der Kunde, dass O2 seine Daten, wie Aufenthaltsort, Wetter, Tageszeit, Alter und Geschlecht, verwenden darf, um ihm Angebote von Marken per Mobile Messaging zu senden. Da die Angebote auf den individuellen Daten basieren, treffen sie mit höherer Wahrscheinlichkeit auf die Interessen des Kunden. Ihre Daten sind dabei vollständig geschützt.

Zur richtigen Zeit am richtigen Ort

Vor dem Store, im Store und in unmittelbarem Kontakt mit dem Produkt: Die Digitalisierung bietet Kunden und Händlern völlig neue Möglichkeiten der Interaktion. Wir bei Telefónica NEXT werden die Möglichkeiten der smarten Datenanalyse und der Vernetzung von Dingen weiter vorantreiben – für Angebote zur richtigen Zeit, am richtigen Ort für den richtigen Kunden.

Kernaussagen

Intelligent verknüpft ergeben sich aus den anonymisierten Daten neue Erkenntnisse, die für Unternehmen unterschiedlichster Branchen ebenso wie für Kommunen, öffentliche Verkehrsbetriebe und die Gesellschaft insgesamt relevant sind.
Mit Blick auf den Handel trägt die smarte Datenanalyse dazu bei, dass Händler Informationen über ihre Zielgruppe erhalten, die ihnen bisher so nicht zur Verfügung standen. Telefónica NEXT analysiert beispielsweise mithilfe von Mobilfunkdaten Kundenströme im Umfeld einer Filiale.
Auf Basis der Daten kann der Händler seine Kunden besser verstehen, smarter mit ihnen interagieren und der Kunde profitiert von einem digitalen Einkaufserlebnis. So kann der Einzelhandel seine Position gegenüber dem Online-Handel stärken bzw. seine Omnichannel besser miteinander vernetzen.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Jens Lappoehn

"Chess" (CC BY 2.0) by  Agianda 

Kommunikation – Herzstück erfolgreicher Digitalstrategien

von Klaus Stöckert

Die aktuelle Entwicklung digitaler Technologien teilt die Unternehmenswelt in zwei Gruppen: Die eine sind Firmen, die ihre digitale Transformation bereits angehen oder schon hinter sich haben. Und dann die zweite Gruppe, die Firmen, die den Wandel noch vor sich haben – oder ihr Business an disruptive, digitale Geschäfts­ideen verlieren. Unify, das Tochterunternehmen von Atos für Kommunikationssoftware und -services, gehört zur ersten Gruppe. Die digitale Transformation hat Unify zahlreiche Erkenntnisse gebracht, wie Unternehmen die Digitalisierung optimal angehen können. Ein wichtiger Lerneffekt: Soll die digitale Strategie Erfolg haben, darf sie sich nicht auf ein Produkt oder eine bestimmte Technologie fokussieren. Vielmehr müssen der Mensch und damit auch das Team im Mittelpunkt stehen. User-Experience wird zum wichtigen Stichwort.

Kulturwandel bereits im Gang

Klaus Stöckert

Eine Studie im Auftrag von Unify aus dem Jahr 2016 belegt, dass der Kulturwandel bereits in vollem Gange und auch bei den Arbeitnehmern angekommen ist. Die Studie „The Way We Work“, für die weltweit rund 9 000 Wissensarbeiter befragt wurden – davon 3 019 in Deutschland –, zeigt: Über die Hälfte (55 %) der befragten deutschen Wissensarbeiter gehen davon aus, dass sich ihre Rolle im Unternehmen in Zukunft ändern wird. Die Gründe dafür sind vielfältig: Die Arbeitswelt verändert sich rasant, die Wirtschaft entwickelt sich hin zu einer On-Demand-Economy. Die digitale Transformation spielt dabei ebenso eine wichtige Rolle.
Die Veränderungen für die Mitarbeiter sind bereits jetzt deutlich spürbar, wie die Umfrage zeigt. Eine wichtige Erkenntnis lautet nämlich, dass Virtualität für viele Teams die neue Realität ist. Global gaben bereits über die Hälfte (52 %), in Deutschland immerhin schon rund ein Drittel (34 %) der Wissensarbeiter an, dass sie jetzt stärker in virtuelle Teams eingebunden sind, als das früher der Fall war. Virtuell bedeutet in diesem Fall, dass die Teams über verschiedene Büros und Standorte, also über größere Entfernungen hinweg zusammenarbeiten. Generell steigt die Bedeutung von Technologie. Fast die Hälfte der Befragten weltweit (49 %) sowie in Deutschland (48 %) gaben an, dass ihr Unternehmen eher durch Technologie und Kommunikation funktioniert statt auf Basis von lokalen Büros und Standorten.

Schlüsselfaktor Kommunikation

Kommunikation ist dabei ein Faktor, der kaum hoch genug einzuschätzen ist. Um in virtuellen Teams genauso gut und produktiv zusammenzuarbeiten wie aus dem herkömmlichen Büro gewohnt, oder sogar noch besser, brauchen die Mitarbeiter das richtige Werkzeug. Lösungen für Kommunikation und Zusammenarbeit, die technisch hoch belastbar sind und nicht frühzeitig an ihre Grenzen kommen, sind hier unabdingbar. Solche Tools für „Unified Communications and Collaboration“ (UCC) integrieren idealerweise alle Kommunikationskanäle auf einer übersichtlichen, leicht bedienbaren Oberfläche – so, wie die Mitarbeiter das aus den privat genutzten Apps und Portalen gewohnt sind. Noch steht die Entwicklung in diesem Bereich am Anfang. Die klassische E-Mail ist nach wie vor des deutschen Wissensarbeiters liebstes Kommunikationsmittel. Rund die Hälfte (46 %) gaben das bei der Umfrage an. Trotzdem nutzt bereits ein Fünftel (20 %) von ihnen regelmäßig Videokonferenzen. Auch On-Demand-Werkzeuge stehen hoch im Kurs: 63 Prozent der Befragten nutzen diese internet- oder cloudbasierten Dienste regelmäßig oder zumindest gelegentlich.

Kernaussagen

Die digitale Transformation ist unausweichlich – Unify spricht aus Erfahrung. Allerdings müssen statt Produkten und Technologie Menschen und Teams im Mittelpunkt der digitalen Strategie stehen, um erfolgreich zu sein.
Der Kulturwandel hin zum Digital Workplace ist bereits im Gang, wie eine Studie von Unify zeigt: Der klassische Arbeitsplatz verändert sich rasant. Kommunikation spielt dabei eine zentrale Rolle.
Kommunikationsplattformen wie Circuit von Unify, die nahtlos in vorhandene UCC-Lösungen integriert und unabhängig vom eingesetzten Endgerät sind, bieten eine ideale Möglichkeit, virtuelle Teams und Remote Worker zu vernetzen.

Der digitale Arbeitstag – anders als gewohnt

Der Arbeitstag eines virtuellen Wissensarbeiters unterscheidet sich heute entsprechend von der herkömmlichen Routine. Der wohl größte Unterschied: Es spielt im virtuellen Team keine Rolle mehr, von wo aus die einzelnen Teammitglieder arbeiten, solange sie einen stabilen Internetzugang haben. Der Arbeitstag beginnt mit einem Blick in die Kommunikationsplattform – gibt es neue Informationen? Sind Dateien geändert worden und müssen überprüft werden? Idealerweise funktioniert das alles mit wenigen Klicks auf einer einzigen Oberfläche. Anschließend steht die Teambesprechung an. Ein weiterer Klick, schon nimmt der Mitarbeiter an einer Videokonferenz teil. Kein Wechsel des Arbeitsortes mehr, keine Suche nach einem freien Besprechungsraum, schon gar keine langwierigen Dienstreisen. Zuletzt ist ein Bericht fällig – die Daten und Fakten, die als Grundlage dienen, sind alle einfach erreichbar und im richtigen Kontext abgelegt. Damit geht die Bearbeitung schnell, die generierten Dateien lassen sich ebenso schnell und einfach wieder im richtigen Zusammenhang einbetten. Vor dem Feierabend noch ein schneller Blick auf die Kommunikationsplattform, diesmal nicht vom Laptop aus, sondern übers Smartphone. Die Oberfläche ist dieselbe, das erleichtert die Bedienung wesentlich.

Damit all das auch so funktioniert, müssen solche UCC-Lösungen nahtlos in bestehende Infrastrukturen eingebunden werden. Außerdem müssen sie flexibel skalieren können, damit neue Teammitglieder schnell und einfach eingebunden werden können. Dazu gehören sowohl neue und bestehende Mitarbeiter als auch Freelancer oder externe Partner und Zulieferer. Das wird künftig noch wichtiger werden, wenn Teams ganz im Sinne des On-Demand-Ansatzes kurzfristig und projektbezogen zusammengestellt, vergrößert und dann möglicherweise auch wieder aufgelöst werden.

In fünf Schritten zur optimalen Kommunikation

Damit die digitale Wandlung gelingt, sollten Unternehmen insbesondere die Infrastruktur für Kommunikation und Zusammenarbeit gründlich aufsetzen. Die folgenden fünf Schritte führen zum Erfolg:

1. Die Strategie ist das Fundament
Unternehmen brauchen eine umfassende Strategie, die alle Prozesse, Unternehmensbereiche und natürlich die Mitarbeiter mit einschließt. Sonst greift die Veränderung zu kurz. Es sollte selbstverständlich sein, dass ein so tief greifender Wandel Chefsache ist und nicht nur an einzelne Abteilungen delegiert werden kann.
2. Prozesse klar definieren
Steht die Strategie, müssen die verschiedenen digitalen Prozesse definiert werden und es muss eine Roadmap entstehen. Sie legt klar fest, was genau bis wann umgesetzt werden muss, wer dafür verantwortlich ist und wie der jeweilige Bereich in die Gesamtstrategie eingebunden ist.
3. Die vorhandene Infrastruktur unter die Lupe nehmen
Jedes Unternehmen verfügt bereits über Kommunikationsmittel, und seien es nur Tischtelefone. Soll die Kommunikation digitalisiert werden, muss jetzt genau geprüft werden, wie die bestehende Infrastruktur aussieht. Ist erst vor Kurzem viel investiert worden? Dann soll dieses Investment natürlich geschützt werden. Oder ist die vorhandene Telefonanlage beinahe schon antik? Dann stünde ein Austausch ohnehin über kurz oder lang auf der Agenda und kann jetzt angepackt werden.
4. Lösungen und Partner suchen
Im nächsten Schritt geht es dann an die Auswahl der passenden Lösung. Hier sollten die Verantwortlichen den eigenen Bedarf genau kennen: Ein kleines Unternehmen ist mit einem System für Großkonzerne schlecht beraten, sie bezahlen dabei für Ressourcen, die sie nicht nutzen. Im schlechtesten Fall sind sie mit der Instandhaltung überfordert. Große Unternehmen dagegen brauchen mög­licher­weise eine flexible Lösung, um möglichst schnell skalieren zu können. Ist ein eigenes IT-Team vorhanden, das Installation und Wartung übernehmen kann? Ansonsten ist es ausgesprochen wichtig, einen guten Service-Partner zu finden. Hier gilt es, die vereinbarten Service-Level-Agreements (SLAs) genau zu prüfen – je nach Branche können einige Stunden Downtime völlig unproblematisch sein oder aber das Geschäft gefährden.
5. Digitalisierung bedeutet Kulturwandel
Hier schließt sich der Kreis: Digitalisierung ist weit mehr als eine rein technische Angelegenheit. Sind erst einmal die technischen Fragen geklärt, muss sich auch die Kultur im Unternehmen ändern. Die Strategie für den „New Way to Work“ kann noch so ausgefeilt sein – wenn sie nur im Rechenzentrum ankommt, aber nicht in den Köpfen und Herzen der Mitarbeiter, dann sind die Aussichten auf Erfolg gering.

UCC-Plattformen: offen, flexibel, intuitiv

All diese Punkte sind in die Entwicklung von Circuit eingeflossen, der Collaboration-Plattform von Unify. Einer der wichtigsten Aspekte war der Bedienkomfort. Gemeinsam mit frog design entwickelte Unify eine einheitliche, intuitive Bedienoberfläche für sämtliche Endgeräte, vom PC über Tablets bis hin zu Smartphones. Alle nötigen Informationen sind in umfangreichen Kontext eingebettet und einfach über die Suchfunktion zu erreichen. Die Inhalte sind übersichtlich in Konversationen strukturiert, ganz so, wie Menschen normalerweise miteinander kommunizieren und zusammenarbeiten. Um die nötige Integrationsfähigkeit und Skalierbarkeit zu gewährleisten, sollte eine solche Plattform auf offenen Standards basieren und über gut dokumentierte Programmierschnittstellen (APIs) verfügen. Unify hat Circuit beispielsweise von Anfang an als „Collaborative Platform as a Service“ (cPaaS) konzipiert – also als Webservice mit möglichst offenem Zugang für Entwickler. Mehrere Hackathons haben bereits gezeigt, dass neue Entwicklungen einfach zu bewerkstelligen sind und die Lösung damit an die unterschiedlichsten Bedürfnisse angepasst werden kann. Was mindestens ebenso wichtig ist: Die Lösung muss ohne Komplikationen auf jedem Endgerät funktionieren. Unify setzt dafür auf WebRTC. Der Standard macht die Übertragung von Voice- und Videodaten in Echtzeit über den Browser möglich, ohne dass dafür Clients installiert oder Plug-ins heruntergeladen werden müssen. Damit wird der Browser zur Kommunikationszentrale.

Was ist WebRTC?

„Web-based Real-Time Communications“ ist aus einem Projekt entstanden, das Google 2010 initiiert hat. Ziel ist es, einen übergreifenden Standard für Protokolle und Programmierschnittstellen zu entwickeln, der für alle Browser gültig ist. Damit ist Echtzeitkommunikation über jeden beliebigen Browser möglich, indem Daten vom Browser des Gegenübers abgerufen werden. WebRTC ist quelloffen, so können Entwickler die Technologie in eigene Anwendungen integrieren. Seit Frühjahr 2011 ist WebRTC im Standardisierungsprozess des World Wide Web Consortium (W3C). Maßgebliche Unterstützer sind Google, Mozilla und Opera Software ASA. Unify macht seit Ende 2014 diese Technologie mit seinem Cloud-Service Circuit.com für Unternehmen nutzbar.

Diese Art von flexiblen, leicht integrierbaren und skalierbaren Plattformen macht die Zusammenarbeit in virtuellen Teams einfach und produktiv. Damit sind Unternehmen in der Lage, einerseits die eigenen Mitarbeiter in die digitale Zukunft zu bringen und die Strukturen und Abläufe an den digitalen Wandel anzupassen. Andererseits lassen sich damit auch Kunden leichter und direkter ansprechen, weil die Kommunikation intuitiv, nahtlos und im richtigen Kontext abläuft.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Klaus Stöckert

Handel mit Zukunft: Customer-Centricity

Dem Kunden mithilfe digitaler Technologien Einkaufserlebnisse zu bieten, die ihm im Gedächtnis bleiben, ist die heutige Herausforderung.

von Frank Zscheile

Der Kunde ist König, diese Weisheit gilt im Handel im Grunde schon immer (den real existierenden Sozialismus einmal außen vor gelassen). Seit einiger Zeit nun erfährt sie gleichsam eine Renaissance. „Customer-Centricity“ heißt es heute, wenn Unternehmen ihre gesamte Kultur, Strategie und damit Wertschöpfungskette an den Wünschen und Bedürfnissen des Kunden ausrichten.

Dass „Customer-Centricity“ über den bloßen Begriff des „König Kunde“ hinausführt, liegt an der digitalen Transformation. Deren neue Techniken versetzen Handelsunternehmen in die Lage, Customer-Journey und Customer-Experience positiv zu beeinflussen. Wenn sie etwa die ureigenen Vorteile des stationären Geschäfts geschickt mit den Möglichkeiten der Online-Welt verknüpfen. Oder durch digitale Technologien die „echten“ Bedürfnisse ihrer Kunden auf bisher nicht gekannte Weise erschließen. Entlang von Touchpoints im Laden oder durch Online-Befragungen lässt sich die Kundenhistorie sehr engmaschig erstellen.
Customer    -Centricity bedeutet also weit mehr als bloße Neugestaltung von Sortiment, Ladenfläche oder Werbemaßnahme. Es findet im Handel vielmehr ein Kulturwandel statt, der auf den neuen Möglichkeiten der Digitalisierung basiert. Sie stellt Unternehmen vor bislang ungekannte Herausforderungen: Märkte werden transparent und schnelllebig und was heute angesagt ist, kann schon morgen überholt sein. Touchpoints entlang der Customer-Journey wollen erschlossen und bedient werden. Lokale Händler müssen sich der Konkurrenz global agierender Internetkonzerne stellen. Neue Medien, moderne Kommunikationskanäle, Internet of Things und die Methoden für Echtzeitanalysen riesiger Datenbestände kommen als Technologien zum Einsatz. Sie setzen die Trends und schaffen gleichzeitig neue Geschäftsmodelle.

Der Handel der Zukunft, er entsteht in diesem Moment! Wer hier mithalten will, muss auf die digitale Transformation setzen. Denn wie selbstverständlich tragen die Kunden ihre gestiegenen Erwartungen aus dem privaten Umfeld an den Handel heran: Eine direkte und individualisierte Kommunikation, wie sie sie aus sozialen Medien kennen; Produkte und Services, die sie jederzeit, mobil und auf einfache Art und Weise einsehen, bestellen und bewerten können – dies möchten sie bitte auch von ihrem Händler geboten bekommen. Wer agil ist und mit den passenden Methoden den Kunden ins Zentrum rückt, hat dabei die entscheidenden Erfolgsfaktoren auf seiner Seite.

Weiterführende Reportagen aus TREND REPORT

Heft 3/2015 „Vernetzte Gesellschaft“
„Handel mit Zukunft“, Autor Chris Löwer
https://trendreport.de/handel-mit-zukunft/

 

 

Heft 1/2016 „Creative Companies“
Reportage „Future Store“, Autor Chris Löwer
https://trendreport.de/future-store-handel-mit-zukunft/

 

 

Heft 3/2016 „#DigitaleTransformation“
„Future Store 2.0 – Handel mit Zukunft“,
Autor Frank Zscheile
https://trendreport.de/future-store-2-0-handel-mit-zukunft/

 

 

 

Dem Kunden mithilfe digitaler Techniken neue Kundenerlebnisse zu verschaffen, ist also die heutige Herausforderung für Handelsunternehmen. Dass dafür Kundendaten benötigt werden – und zwar je mehr, desto besser–, darin sehen Fachleute derzeit allerdings noch einen Hemmschuh bei der digitalen Transformation. Zumindest bei deutschen Unternehmen, die der internationalen Konkurrenz an dieser Stelle noch hinterherlaufen. Zwar plaudern die Menschen auf Facebook & Co. Intimes in großer Menge heraus, gleichzeitig sorgen sie sich aber um die Sicherheit und Verwertung einmal preisgegebener Daten.
Flankiert wird diese Haltung durch eine in Deutschland starke Regulierung der Datenverwendung. Da fällt es schwer, mal eben ein digitales Profil des Kunden anzulegen, um ihn besser kennenzulernen und damit bedienen zu können. Die Unternehmen wissen dies und fordern von ihren Kunden folglich weniger Daten ein, als sie für den Aufbau neuer Geschäftsmodelle eigentlich bräuchten. Bis also Systeme zur Vorhersage des Kaufverhaltens („Predictive Marketing“) nicht nur im angelsächsischen und asiatischen Raum, sondern auch hierzulande im Sinne der digitalen Transformation eingesetzt werden, braucht es wohl noch einige Zeit.

Offene Logistikplattform erhöht die Transparenz

von Geert-Jan Gorter

Regelmäßig landet die Logistik in Studien, in denen der Reifegrad der digitalen Transformation in der Wirtschaft untersucht wird, auf den hinteren Plätzen. So zeigte die Befragung „Digitale Transformation der Supply-Chain – Stand heute und in fünf Jahren” von Capgemini Consulting, dass fast die Hälfte der Logistikunternehmen in der Kommunikation mit Partnern in der Lieferkette immer noch an erster Stelle auf „traditionelle Methoden“ – wie beispielsweise Telefon, Fax und E-Mail – vertrauen. Für 75 % der befragten Führungskräfte ist die digitale Transformation der Supply-Chain zwar „wichtig“ bis „sehr wichtig“, 70 % gaben zudem an, sich bereits mit dem Thema auseinanderzusetzen. Doch mit dem Ergebnis der Bemühungen ist ein Drittel der Befragten „unzufrieden“ – und lediglich 5 % sind bereits „sehr zufrieden“.

Hindernisse für Logistik 4.0

Komplexe Dienstleisterstrukturen – wie etwa im Kombinierten Verkehr mit Speditionen, Eisenbahnen, Reedereien, Terminalbetreibern, Instandhaltern und Verladern – erschweren Abstimmungen und damit das Management arbeitsteiliger Prozesse. Hinzu kommt, dass in die Supply-Chain eingebundene Unternehmen in der Regel über eigene, historisch gewachsene IT-Landschaften verfügen, die einen ungehinderten horizontalen und vertikalen Informationsfluss im Sinne einer Logistik 4.0 nach allgemeiner Auffassung nicht zulassen. Dabei ist gerade die Logistikbranche mit ihren vielen manuellen Prozessen prädestiniert für enorme Fortschritte durch digitale Innovationen.

Fallbeispiel DB Cargo BTT

Die Digitalisierung erfolgreich in Angriff genommen
Die DB Cargo BTT ist auf den Transport von Chemie-, Mineralöl- und Düngemitteltransporten im Kombinierten Verkehr und im Wagenladungsverkehr spezialisiert. Sie organisiert den Hauptlauf auf der Schiene, den Umschlag im Terminal und den Vor- und Nachlauf auf der Straße für alle europäischen Relationen. Mithilfe von catkin wurde innerhalb von nur vier Wochen für die internationalen Aluminiumverkehre des Unternehmens eine Vernetzung der beteiligten Partner in der Transportkette realisiert. Trotz des komplexen Verkehrskonzepts mit einer Vielzahl von Akteuren über unterschiedliche Transportmittel, Zeitzonen und Sprachen hinweg, gibt es nun die völlige Transparenz in Echtzeit. Etwa über den Auftragsstatus, die eingesetzten Transporteinheiten und schadhaftes Equipment.

Flexible Prozessplattform

Das cloudbasierte Logistikportal catkin vernetzt Kunden und Dienstleister über frei konfigurierbare Aufträge. Es ermöglicht so eine systemunabhängige, unternehmensübergreifende und zugleich standardisierte Kommunikation und unterstützt das Management von mobilen Ressourcen, wie etwa Personal, Loks und Waggons, aber auch Container, Lkw oder Auflieger.
So ist etwa das Tracking von Containern lückenlos von der Aufnahme bis zur Zustellung möglich. Als universelle Plattform für alle Auftragstypen erlaubt catkin die Vernetzung unterschiedlicher Assets. Mobiles Personal, Depots und Terminals sind leicht zu integrieren.

Flexible Beteiligungsmöglichkeiten

Jeder Teilnehmer kann sich über das Web und die mobile App beteiligen. Kleinunternehmen und Freiberufler verwenden Browser und App, Unternehmen mit einer etablierten IT integrieren ihre Systeme sukzessive über die offene Plattformspezifikation. Die Anbindung an vorhandene ERP-, Telematik- oder auch Speditionslösungen ist über die vorhandenen Anwendungsschnittstellen (APIs) recht einfach zu bewerkstelligen.

Fallbeispiel TX Logistik

Auftragsdurchlaufzeiten um 25 Prozent reduziert
Das Schienenlogistikunternehmen TX Logistik verbessert mithilfe des catkin-Portals das Management von Ganzzügen und des Kombinierten Verkehrs. Durch die Integration der zur Verfügung gestellten Funktionalitäten in das eigene Planungs- und Steuerungsprogramm halbierte sich bei den Vor- und Nachläufen per Spedition die Fehlerquote und der Arbeitsaufwand sank um 12 Prozent. Gleichzeitig konnten die Auftragsdurchlaufzeiten um 25 Prozent reduziert werden. Weitere Erfolge zeigen sich in Form einer verbesserten Abstimmung mit den Bahn-Dienstleistern und im operativen Personaleinsatz. Die erhöhte Transparenz führt hier zu einer deutlichen Reduzierung von Verspätungen und 50 % weniger Support-Anrufen im European Control Center der Güterbahn.

Sicherheit und Datenschutz

Auch die Integration neuer Akteure und Prozesse sowie eine zügige Implementierung neuer Standards sind jederzeit möglich. Die Konfiguration von neuen Auftragsstrukturen und Arbeitsabläufen geschieht ohne aufwändige Programmierung. Die Kombination von standardisierter Technik und flexiblen Strukturen ermöglicht so dynamische Prozesse.
Der sichere Austausch der Daten entlang der gesamten Data-Supply-Chain ist dabei eine wesentliche Voraussetzung. Disponenten etwa, die das catkin-Portal nutzen, können sicher sein, dass ihre Daten nicht in irgendeiner Cloud jenseits des großen Teichs unterwegs sind, sondern sich in einem modernen deutschen Rechenzentrum befinden –  unter Einhaltung aller Datenschutzbestimmungen. Zudem werden die im Zuge der Auftragsabwicklung erzeugten Daten nach Abschluss innerhalb eines gewissen Zeitfensters wieder aus dem System entfernt.

Nahtlose Kollaboration

Der Ansatz von catkin integriert die Beteiligten am Erbringen einer Logistikdienstleistung unmittelbar horizontal und stellt somit sofort für alle Teilnehmer gleichermaßen ein Kunden- als auch Dienstleisterportal dar. Zudem wird die Steuerung von mobilen Personalen und „rollendem Material“ automatisch unterstützt. Auftragsdaten und Lieferfortschritt lassen sich sicher, einfach und in Echtzeit kommunizieren, wodurch im Sinne von Logistik 4.0 eine nahtlose Kollaboration über Unternehmensgrenzen hinaus realisiert wird. Voraussetzung für Smart Services, innovative Leis­tungsangebote und automatisierte Geschäftsprozesse in der Logistik 4.0 sind der sichere Austausch und die einfache Kombination von Daten in Wertschöpfungsnetzwerken – ohne dass die Beteiligten in der Lieferkette die Souveränität über die eigenen Daten verlieren.

Fallbeispiel Kloiber Transporte

Optimierter Container-Transport
Die Spedition Kloiber aus Bayern, ein Familienunternehmen mit jährlich 85 000 transportierten Ladeeinheiten und einer Flotte von 150 Lastwagen, führte catkin als Kundenportal ein und koppelte es an das vorhandene Planungssystem. Die Vernetzung zwischen den Beteiligten – etwa Reeder, Zoll, Bahn, Operateur, Lkw-Spediteur, Fahrer und Kunde – kann ebenso auf Basis der Containernummer, die eine eindeutige Identifikation ermöglicht, erfolgen. Statt einer weiteren Insellösung verfügt Kloiber nun über eine offene Plattform, die eine einfache Anbindung von weiteren Kunden und beliebigen Subunternehmern ermöglicht.

„Industrial Data Space“

Die Initiative „Industrial Data Space“, an der mit Unterstützung des Bundesministeriums für Bildung und Forschung verschiedene Fraunhofer-Institute und Unternehmen unterschiedlichster Branchen und Größen – darunter auch catkin – beteiligt sind, schafft die Voraussetzungen für den dringend nötigen sicheren Datenraum. Zwischen allen Beteiligten am Datenaustausch wird ein standardisierter Vertrag geschlossen, der in Software „gegossen“ den Daten immer mitgegeben wird. Er beschreibt, was der Empfänger mit den Daten tun darf und was nicht. Der Sender bleibt Eigentümer, kann Bedingungen der Nutzung festlegen und auch den Zeitraum der Gültigkeit.

Mehr Informationen unter https://www.catkin.eu/HandbuchDigitalisierung

Kernaussagen

Fast die Hälfte der Logistikunternehmen vertrauen in der Kommunikation mit Partnern in der Lieferkette immer noch an erster Stelle auf „traditionelle Methoden“ – wie beispielsweise Telefon, Fax und E-Mail.
Komplexe Dienstleisterstrukturen – wie etwa im Kombinierten Verkehr – erschweren Abstimmungen und damit das Management arbeitsteiliger Prozesse. Trotzdem ist gerade die Logistikbranche mit ihren vielen manuellen Prozessen prädestiniert für enorme Fortschritte durch digitale Innovationen.
Mithilfe einer universellen Logistikplattform für eine vernetzte Auftragsabwicklung und Kommunikation wie zum Beispiel catkin kann bereits heute der Weg in eine Logistik 4.0 beschritten werden, bei der die Transparenz der Supply-Chain im Mittelpunkt steht.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Geert-Jan Gorter