Beiträge

Digital Finance

FinTechs gehen mit frischen Ideen auf den Markt und verändern diesen nachhaltig. Neue Technologien offenbaren ihr disruptives Potenzial.

von Andreas Fuhrich

Zwar begann die Digitalisierung der Banken mit dem Online-Banking schon im letzten Jahrtausend, doch weitere Innovationen blieben lange aus. Für den Knotenpunkt aller Geldgeschäfte galt der Bankkunde als Selbstverständlichkeit und musste nicht mit technischen Neuerungen gebunden werden. Selbst das Online-Banking diente mehr dem Stellenabbau und der damit verbundenen Gewinnoptimierung als dazu, einen wirklichen Service anzubieten. Heute noch beworbene Tagesgeldkonten wirken wie absurde Überbleibsel aus der Zeit, in der sie mit lukrativen Zinsen als Online-Banking-Marketingmaschine fungierten.
Seit einigen Jahren verändert nun die aufstrebende FinTech-Branche den Finanzmarkt. Dem Kundenwunsch nach mehr digitalen Lösungen, der vor allem durch die Entwicklungen der Mobile Devices mit ständigem Internetzugriff noch verstärkt wird, soll entsprochen werden. Vormals ineffiziente und unflexible Geschäftsfelder werden revolutioniert oder zumindest den neuen technologischen Möglichkeiten angepasst. Die Finanzkrise 2008, das zerstörte Vertrauensverhältnis zu den Großbanken, diente dabei als Katalysator für die junge Branche, die offen in Konkurrenz zu den alteingesessenen Instituten tritt.

Durch den Druck der FinTechs und der Digitalisierung der Finanzbranche haben mittlerweile auch traditionelle Bankhäuser erkannt, dass sie aktuelle Techniken einsetzen müssen, um den Bedürfnissen der Kunden zu entsprechen. Zwar arbeitet man jetzt verstärkt an der Modernisierung und Technologisierung der gesamten Dienstleistungskette, kann jedoch nicht mit der Innovationskraft eines agilen Start-ups mithalten. Verschärfte Regulierungen und neue BIZ-Eigenkapitalvorschriften erschweren  den Prozess zusätzlich. Wohl deshalb treten viele Banken seit einiger Zeit nicht mehr nur als Konkurrent, sondern als Partner von FinTechs auf. So erhalten sie die Möglichkeit, zeitnah ihren Kunden Innovationen anzubieten, ohne eigene Forschung betreiben zu müssen. Auch FinTechs haben erkannt, dass durch Partnerschaften Win-win-Situationen entstehen. Die vielen Regularien machen es für Start-ups fast unmöglich, die Bedingungen für eine Banklizenz zu erfüllen, die für manche Dienstleistungen, wie z. B. die Kreditvergabe, aber zwingend erforderlich ist. Anstatt sich selbst mit den hohen Anforderungen auseinanderzusetzen, übernimmt jetzt die lizensierte Partnerbank die endgültige Abwicklung.

Die Innovationen der Finanztechnologie beginnen dabei gerade erst, die Branche immer stärker und immer schneller umzukrempeln. Eine accenture-Studie belegt, dass die Investitionen in FinTechs von weltweiten 1,791 Milliarden Dollar im Jahr 2010 auf über 22 Milliarden 2015 anwuchsen.(1)
Allein in den letzten beiden Jahren machten zwei Schlagwörter auf sich aufmerksam, denen ein ungeheures disruptives Potenzial zugesprochen wird. 2015 wurden weltweit über 800 Millionen Dollar in InsurTech-Start-ups investiert,(2) also in Unternehmen, die neue Lösungen für die Versicherungsbranche liefern. Laut einer McKinsey-Studie könnte dadurch in den nächsten zehn Jahren jeder vierte Arbeitsplatz in der westeuropäischen Versicherungsbranche verloren gehen.(3) 2016 sorgte der Begriff „Blockchain“ für Aufsehen. Ob die Technologie hinter dem Bitcoin tatsächlich dem disruptiven Potenzial gerecht wird, welches ihr zugesprochen wird, bleibt abzuwarten.

Quellen:

(1)    accenture-Studie: „Fintech and  the evolving landscape: landing points for the industry“ von: Julian Skan, James Dickerson und  Luca Gagliardi, 2016. URL: https://www.fintechinnovationlablondon.co.uk/pdf/Fintech_Evolving_Landscape_2016.pdf (Abgerufen: 16. November 2016).
(2)    Seite „Versicherungstechnologie“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 26. August 2016, 13:13 UTC. URL: https://de.wikipedia.org/w/index.php?title=Versicherungstechnologie&oldid=157401432 (Abgerufen: 16. November 2016, 09:44 UTC).
(3)    McKinsey Studie: „Automating the insurance industry“ von: Sylvain Johansson und Ulrike Vogelgesang, 2016, URL: https://www.mckinsey.com/industries/financial-services/our-insights/automating-the-insurance-industry (Abgerufen: 16. November 2016).

Neues Lizenzmanagement

Die Lizenzmodelle der Softwareindustrie wandeln sich im Zuge des Cloud-Computings. Neue Abrechnungsmodelle müssen kalkuliert werden.

Die TREND-REPORT-Redaktion sprach mit Prof. Dr. Andreas Gadatsch, Hochschule Bonn-Rhein-Sieg, und Dipl.-Kfm. Stefan Brassel M. A., Bechtle AG, über zukünftige Lizenzpraktiken und die damit einhergehenden Folgen für Unternehmen.

Herr Prof. Dr. Gadatsch, wie werden cloudbasierte Software- und Infrastruktur-Services die heutige IT-Nutzungskultur in den Unternehmen verändern?
Die IT-Leistungen vermischen sich zunehmend mit Business-Leistungen. Der Unterschied zwischen IT und Business verschwindet immer mehr. Anwender werden Leistungen beziehen und nicht danach fragen, ob „die eigene IT das kann oder nicht“. Dies bedeutet, dass der CIO bzw. der CDO mehr in die Rolle des Moderators, Beschaffers und Koordinators wechselt und Innovationen ganzheitlich vorantreiben muss.

Und was ändert sich im Kontext der jetzigen Lizenzpraktiken?
In der Vergangenheit verbanden Kunden mit „Lizenzierung“ lediglich softwaretechnologische sowie lizenzrechtliche Fragestellungen. Software- und Businessstrategie wurden als getrennte Bereiche eingestuft und von verschiedenen Personen verantwortet. In diesem Zusammenhang tauchte die Frage nach dem eigenen IT-Betrieb bzw. internen Unternehmensprozessen – insb. die Fragestellung nach dem sogenannten „Wertbeitrag“ der IT zum Unternehmenszweck im Rahmen der Servicedienstleistung – auf, welche die IT den Fachabteilungen anzubieten hatte. Die Entscheider im Unternehmen hatten oftmals lediglich einen Fokus auf den finanziellen Aspekt. Zudem waren Kaufentscheidungen im Standardsoftwareumfeld oftmals durch die Compliance-Überprüfungen der Lizenzgeber „beeinflusst“ und weniger technologisch getrieben. Wenn Unternehmen sich mit Outsourcing befassten, passierte dies i. d. R. unabhängig von der Softwarebeschaffung, im Rahmen einer grundsätzlichen Strategiediskussion, oftmals vor dem Hintergrund von Kostensenkungsaspekten. Bedingt durch die „Verschmelzung von Software und Hardware sowie Serviceanteilen“ zu Cloud-Diensten, kann man im Rahmen von „Lizenzierung“ nun über Outsourcing durch die Hintertür sprechen. Der Eingriff in Unternehmensprozesse ist teilweise enorm (als Beispiel sei hier nur die technologische Abhängigkeit von Diensten wie Office 365 vom Design des „Active Directory“ eines Kunden genannt), die Anbieterauswahl stark eingeschränkt und SLAs und Haftungsfragen können i. d. R. nicht verhandelt werden. In diesem Zusammenhang gilt es zudem, die Grundsätze der „Principal Agent Theory“ und des Transaktionskostenansatzes im Auge zu behalten.

  • Durch Cloud-Dienste entsteht ein enormes Einsparpotenzial im IT-Betreib, jedoch sollte im Vorfeld eine ausführliche technische Evaluation und eine Analyse der zur Diskussion stehenden Vertragswerke stattfinden.
  • Wo der Einfluss auf die SLAs von großer Bedeutung ist, kann es sinnvoll sein, auf „lokale“ Outsourcing-Partner zu setzen, mit denen Vertragsinhalte noch verhandelt werden können.
  • Früher sorgte der IT-Controller einfach für möglichst niedrige Lizenzgebühren und Mengenvolumina, heute muss er er einen vollständigen Business-Case erstellen bzw. bewerten und ggf. nach Alternativen suchen.

Herr Brassel, wie reagieren Unternehmen am besten und schnell darauf?
Entscheidend ist im ersten Schritt, dass sich die IT-Abteilungen der Unternehmen der Auswirkungen dieser Entwicklung bewusst werden und der CIO in seiner Rolle als Schnittstelle zum Management das Thema „Softwarebeschaffung“ unter den neuen Gegebenheiten auf Managementebene strategisch diskutiert. Hieran schließt sich die Frage nach den Anforderungen an die interne IT an (Wertbeitrag der IT zum Unternehmenszweck). Es ist zu klären, welche der erbrachten Leistungen eher „Commodity“ ohne strategische Relevanz sind und welche Leistungen als erfolgskritisch für die Unternehmensstrategie angesehen werden können.

Was müssen Unternehmen jetzt konkret tun?

Dipl.-Kfm. Stefan Brassel M. A.

Zu empfehlen ist hier eine Analyse und Clusterung der Unternehmensdaten. Welche Daten sind für den Unternehmenserfolg so entscheidend, dass sie nicht herausgegeben werden können, selbst wenn sie verschlüsselt wurden, und welche Daten könnte man auslagern? Im Allgemeinen bietet es sich an, über die Auslagerung von Basis-IT-Services wie Mail, Collaboration, Communication und DataShare nachzudenken. Denn hier lassen sich neben Standardisierungsüberlegungen und Einsparpotenzialen im IT-Betrieb insb. auch Optimierungen im Bereich der Administration realisieren. Dies erfordert jedoch im Vorfeld neben einer ausführlichen technischen Evaluation auch eine Analyse der zur Diskussion stehenden Vertragswerke in Bezug auf „Service Level Agreements“ (SLA), Pönalen (Strafen für SLA-Verletzungen), Datenschutz, Laufzeiten und Kündigungsfristen. Auch gilt es, den „regulären“ Unternehmensbetrieb im Verhältnis zu extrem störempfindlichen Unternehmensbereichen, wie z. B. einem Produktionsbetrieb, zu analysieren und für den IT-Support jedes einzelnen Unternehmensbereiches eine gesonderte „Make or buy“-Entscheidung zu treffen.

 

 

 

Herr Prof. Dr. Gadatsch, wie wirkt sich der Wandel auf das IT-Controlling aus?

Dr. Andreas Gadatsch, Hochschule Bonn-Rhein-Sieg

Die Rolle des IT-Controllers besteht ja für viele immer noch im jährlichen Aufstellen von IT-Budgets und deren monatlicher Kontrolle. Diese Eingrenzung ist historisch bedingt nachvollziehbar, weil früher hohe IT-Kosten „verdächtig“ waren und die Unternehmensleitung bestrebt war, die IT-Kosten möglichst zu senken. Beim klassischen Lizenzcontrolling hat dieses Modell noch funktioniert. Der IT-Controller sorgt für möglichst niedrige Lizenzgebühren und Mengenvolumina in Kooperation mit dem IT-Einkauf. Heute wird eher danach gefragt, welche IT-Investitionen sinnvoll sind und wie sie sich auf die Geschäfte des Unternehmens auswirken. Im Rahmen der aktuellen Veränderungen müssen komplexe Prozesse bewertet werden. Dies macht die Aufgabe des IT-Controllers wesentlich schwieriger. Er muss nun einen vollständigen Business-Case erstellen bzw. bewerten und ggf. auch nach Alternativen suchen.
Müssen neue Attribute, Begriffe oder Rollen für das Risikomanagement gefunden werden?
Neue Begriffe sind immer gut für Berater, Journalisten und Wissenschaftler. Oft findet man aber den bekannten alten Wein in neuen Schläuchen. Es kommt aber immer auf die Inhalte an. Das Risikomanagement war bislang im IT-Controlling nur ein Thema von vielen. Es ist aufgrund der veränderten Rahmenbedingungen wahrscheinlich, dass die Aufgabengebiete IT-Controlling und IT-Risikomanagement enger zusammenwachsen. Vielleicht ist Risikomanagement in Zukunft eine Kernaufgabe des IT-Controllers.

Herr Brassel, quasi die Renaissance der SLA?
Eher eine ganz neue Wahrnehmung der Bedeutung von unternehmensinternen SLAs. Den Unternehmen muss bewusst sein, dass sie etwas „Outsourcen“ um Geld zu sparen, womit der beteiligte Dienstleister aber dennoch Geld verdienen möchte. So etwas funktioniert nur über Skalierung bzw. Standardisierung. Die SLAs im Rahmen von Diensten wie z. B. Office 365 der Firma Microsoft sind im Prinzip nicht verhandelbar. Der Dienst ist auch nur oberflächlich individuell „konfigurierbar“. Die Prozesse, Verfügbarkeit und Haftungsfragen sind weitestgehend vom Anbieter vorgegeben und weltweit standardisiert. Das wirft im Bezug auf SLAs ganz neue Fragen auf. Wo vom Nachfrager maximale Flexibilität und Verfügbarkeit gefordert werden, scheiden solche hochstandardisierten Dienste eher aus. Wo der Einfluss auf die SLAs von großer Bedeutung ist, kann es nach wie vor sinnvoll sein, auf „lokale“ Outsourcing-Partner zu setzen, mit denen die Vertragsinhalte noch verhandelt werden können. Somit könnte man eher von einer Renaissance der grundsätzlichen Make-or-buy-Strategie in einem Unternehmen sprechen, des grundsätzlichen Sourcingansatzes vor dem Hintergrund der Anforderungen an SLAs. Zumindest was IT-Dienste betrifft.

Herr Prof. Dr. Gadatsch, CIO, CEO und CDO: Wie sieht die neue Rollenverteilung im Kontext der „transformierten IT“ aus?
Die Rolle des CIO wurde über 20 Jahre lang diskutiert, trotzdem finden Sie in den Unternehmen immer noch sehr unterschiedliche Sichten. Die Rolle des CDO wird ja gerade erst langsam klarer, wenngleich die Diskussion noch im vollen Gang ist. Egal, wer die digitale Transformation treibt, ein klassischer IT-Leiter, ein CIO oder ein CDO: Sie bleibt im Kern Chefsache und damit ist der CEO immer involviert.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Prof. Dr. Andreas Gadatsch

Informationen zu Dipl. Kfm Stefan Brassel M.A.

Cloud-Computing

Dezentral, flexibel und günstig – Cloud-Computing erobert mit hoher Skalierbarkeit bei niedrigen Kosten immer mehr deutsche Unternehmen.

von Andreas Fuhrich

Unter Cloud Computing versteht man die Ausführung von Programmen, die nicht auf dem lokalen Rechner installiert sind, sondern auf einem anderen Rechner, der aus der Ferne aufgerufen wird. Technischer formuliert umschreibt das Cloud Computing den Ansatz, IT-Infrastrukturen (z. B. Rechenkapazität, Datenspeicher, Datensicherheit, Netzkapazitäten oder auch fertige Software) über ein Netz zur Verfügung zu stellen, ohne dass diese auf dem lokalen Rechner installiert sein müssen. Angebot und Nutzung dieser Dienstleistungen erfolgen dabei ausschließlich über technische Schnittstellen und Protokolle sowie über Browser. Die Spannweite der im Rahmen des Cloud-Computings angebotenen Dienstleistungen umfasst das gesamte Spektrum der Informationstechnik und beinhaltet unter anderem Plattformen, Software und Infrastruktur wie z. B. Rechenleistung oder Speicherplatz.  Die Möglichkeit online seine Mails abzurufen oder seine Urlaubsfotos in sozialen Netzwerken zur Schau zu stellen waren zwar schon erste Cloud-Angebote, doch der Begriff setzte sich erst durch die Möglichkeiten der Virtualisierung durch.

Die häufigste Virtualisierungsmethode nutzt sogenannte Hypervisoren, die den simultanen Betrieb mehrerer Gastsysteme auf einem Hostsystem erlauben. Der Hypervisor verwaltet die Ressourcenzuteilung für einzelne Gastsysteme. Er verteilt die Hardware-Ressourcen derart, dass für jedes einzelne Gastbetriebssystem alle Ressourcen bei Bedarf verfügbar sind, so, als ob nur ein Betriebssystem vorhanden wäre. Den einzelnen Gastsystemen wird dabei jeweils ein eigener kompletter Rechner mit allen Hardware-Elementen – Prozessor, Laufwerke, Arbeitsspeicher usw. – vorgespielt.

Durch den Einsatz der Virtualisierung, lässt sich die Ressourcen-Auslastung optimieren, zumal Server, die im Moment nicht benötigt werden, abgeschaltet werden können. Lokale Ressourcen und die damit verbundenen Kosten lassen sich so einsparen. Neben der Private-Cloud, deren Server sich innerhalb der eigenen Organisation befinden, kann man dabei auch auf die Services von Public-Cloud-Anbietern zurückgreifen. Diese erlauben ihren Kunden, IT-Infrastruktur auf einer flexiblen Basis des Bezahlens zu mieten, ausgerichtet am tatsächlichen Nutzungsgrad. Ein Vorteil: Auch extreme aber nur kurze Auslastungsspitzen, beispielsweise im E-Commerce-Weihnachtsgeschäft lassen sich selbst unvorhergesehen so noch besonders kostengünstig bewältigen.

Um die Wettbewerbsvorteile nutzen zu können, die durch die Inanspruchnahme dieser Dienste entstehen, ist eine schnelle Breitbandversorgung Grundvoraussetzung. Damit es keinen Unterschied mehr macht, ob Daten lokal auf einem PC oder auf entfernten Servern in einer Cloud gespeichert sind, muss der Netzausbau vorangetrieben werden.

Bedenken bzgl. der Public-Cloud-Anbieter bestehen allerdings bezüglich des Datenschutzes. So dürfen nach einem Urteil des Europäischen Gerichtshofs nur eingeschränkt Daten in die USA gelangen. Wenn personenbezogene Daten Dritter in die Cloud gegeben werden, müssen sich deutsche Auftraggeber vorab und anschließend regelmäßig nachvollziehbar davon überzeugen, dass die Vorgaben des Bundesdatenschutzgesetzes eingehalten werden. Der Patriot Act erschwert zusätzlich das Vertrauensverhältnis zur neuen Welt – Unternehmen mit Sitz in den USA sind dazu gezwungen, Daten an amerikanische Behörden auszuliefern, selbst wenn sich die Server im fremden Hoheitsbereich befinden.

Smart, jetzt wirklich?

Manch „smartes“ Gerät sieht schnell unsmart aus, wenn wichtige Regeln wie Datenschutz, Sicherheit und Nutzererwartungen nicht erfüllt werden.

von Oliver Sucker

Die fortschreitende Digitalisierung eröffnet neue Wege und Techniken in allen Bereichen des täglichen Lebens, birgt aber auch Herausforderungen, Tücken und unerwartete Fallstricke. Nicht immer bringt die Digitalisierung nur Positives, wenn sie nicht richtig angegangen wird.
Insbesondere der Datenschutz ist ein essentieller Kernaspekt, will man das Vertrauen seiner Kunden nicht auf einen Schlag verspielen. Noch wichtiger ist in diesem Zusammenhang das allübergreifende Thema IT-Sicherheit: Ohne System- und Datensicherheit ist auch kein Datenschutz möglich.

Neben all den rechtlichen und komplexen technischen Fragen darf man aber auch die Erwartungen und Wünsche des Endanwenders nicht vergessen. Wenn es nicht gelingt, Bekanntes und Bewährtes in entsprechenden Analogien aufzugreifen, stößt man – insbesondere bei älteren oder sehr tradierten Menschen – schnell auf ein Akzeptanzproblem. „Smarte“ Geräte wie Fitnesstracker, Fernseher, Überwachungskameras und Alarmanlagen oder gar Sprachassistenten sind mehrheitlich ein Graus. Öffentlich im Internet verfügbare Gesundheitsdaten, zweifelhafte Clouds in Fernost, zu denen sich IP-Kameras verbinden, die blinde Datensammelwut mancher Hersteller oder wanzenartige, permanente Raumüberwachung machen sie zu potenziellen Feinden in unseren Büros, Wohnzimmern oder gar an unserem Körper. Die „Sicherheitskamera“ wird da schnell zum Einbruchinformationssystem; die Alarmanlage, die sich per unverschlüsseltem Funk einfach abschalten lässt, gibt nur trügerische Sicherheit. Manch „smartes“ Produkt schaut da schnell dumm aus der Wäsche.

Manche Geräte sind aber auch einfach nur ärgerlich: Erst nötigen sie uns zur Anmeldung bei eigentlich überflüssigen Cloud-Diensten, über deren Sicherheit, Seriosität und Fortexistenz wir weder Kenntnis noch Kontrolle haben. Ohne die Cloud am anderen Ende wird das Gerät wertlos. Es ist zudem auch höchst fraglich, ob alles in der Cloud gespeichert werden muss, nur weil es gerade so hipp ist.
Fast alle modernen Geräte enthalten neben der Hardware auch entsprechende Software (Firmware und ggf. Betriebssystem). Diese enthält generell Fehler, linear abhängig von der Komplexität des Produkts, der Kompetenz, Sorgfalt und Kultur der Entwickler sowie dem Reifegrad des Produkts. Selbst in reifen Softwareprodukten tauchen regelmäßig Fehler auf, mitunter sicherheitsrelevante.

Sicherheitslücken müssen also durch regelmäßige Produktpflege beseitigt werden, anderenfalls wird das Produkt tendenziell immer anfälliger. Das tückische dabei ist, dass der Endanwender sicherheitsrelevante Fehler – im Gegensatz zu funktionalen Mängeln – nicht selbst erkennen kann; ein ansonsten wunderbar funktionierendes Produkt kann gespickt sein mit Sicherheitslücken.
Was ist also mit dem noch prima funktionierenden Smartphone, für das der Hersteller keine Sicherheitsupdates (mehr) liefert, wie es am PC selbstverständlich ist? Wegschmeißen oder einfach darauf hoffen, dass unsere privaten Daten schon nicht gestohlen werden, obwohl unsere Haustür sperrangelweit offen steht?

Dann ist da noch der Aspekt der Benutzerfreundlichkeit: „Smarte“ Telefone haben das Telefonieren in den Augen nicht weniger Menschen schwieriger, de facto zumindest aber umständlicher gemacht. Uhren sind gar so smart geworden, dass sie vor lauter Kraft nicht mal 24 Stunden ohne Nachladen durchhalten. Die elektronische Internetbriefmarke sieht nicht nur nicht mehr schön aus, der früher oftmals nützliche Poststempel mit dem Einlieferungsdatum fällt auch ersatzlos weg. Ein jahrzehntelang funktionierender Prozess ist so zumindest teilweise ruiniert.

All diese Probleme lassen sich durch solides Know-how und guten Willen lösen; dies wäre auch ein wesentlicher Beitrag, bestehende Akzeptanzprobleme abzubauen und die digitale Spaltung der Gesellschaft abzuwenden. Derzeit ist jedoch eher ein gegenteiliger Trend zu erkennen. Zum bekannten Abfallhaufen aus kaputten Zahlungssystemen, Zertifikatsinfrastrukturen, Mobilfunktechnologien, Routern und anderen Embedded-Geräten kommt nun u. a. noch Industrie 4.0 und das „Internet of Things“ (IoT), ob im Smart Home, vernetzten Fahrzeugen oder der Smart City.
Dass die Geräte immer stärker vernetzt sind, ist aus Anwendersicht Segen und Fluch zugleich: Die Geräte werden dadurch immer angreifbarer, ebenso kann zum Beispiel das Nutzungsverhalten ausgespäht werden. Es gilt also stets abzuwägen, ob weitere Vernetzung mehr Chancen oder mehr Risiken birgt. Gleichzeitig gilt es, Risiken zu minimieren und auch die Datenverarbeitung auf das zu beschränken, was für die Funktionalität tatsächlich nötig ist – auch wenn Unmengen an Statistiken über die eigenen Kunden manche Begehrlichkeiten wecken. Nur wenn der Anwender genau weiß, welche Daten erhoben werden und wofür, bleibt das böse Erwachen am Tag X aus.

Hersteller sollten Sicherheit und Datenschutz nicht als notwendiges Übel, sondern als solide Basis jeden digitalen Handelns verstehen. Patzer können ein Produkt oder gar ein ganzes Unternehmen in den Abgrund reißen; „Digitale Abgasskandale“ sind unter allen Umständen zu vermeiden. Diese Kernaspekte müssen dazu von Anfang an in Design und Entwicklung berücksichtigt und im Rahmen der Continous Delivery/Continous Integration oder in jedem Release permanent geprüft werden, auch die etwaigen Backend-Systeme. Penetrationstests und Audits sind hier auch in einem hohen Maße automatisierbar, sodass Aufwand und Kosten überschaubar bleiben.

Kernaussagen

  • Es muss nicht alles in der Cloud gespeichert werden. Es gilt, Risiken zu minimieren und die Datenverarbeitung auf das zu beschränken, was für die Funktionalität tatsächlich nötig ist.
  • Für den sicheren Umgang mit „smarten“ Produkten fehlt es den Endanwendern an Prüf- und Einflußmöglichkeiten. Hersteller, Importeure, Verbraucher- und Datenschutzorganisationen sind daher stärker als bisher gefordert, für sichere und datenschutzfreundliche Produkte zu sorgen.
  • Hersteller sollten Sicherheit und Datenschutz als solide Basis digitalen Handelns verstehen. Regelmäßige Sicherheitsupdates müssen garantiert beim Endanwender ankommen, im Ernstfall in wenigen Tagen oder sogar Stunden.

Eine ergänzende Möglichkeit, Ihr Vertrauen in die eigenen Produkte zu zeigen, ist das Ausschreiben von Kopfgeld-Zahlungen („Bug  Bounty“) an Sicherheitsforscher, die Probleme in Produkten finden und melden. Dies kann jedoch kein Ersatz für eine fachlich versierte Produktprüfung sein, da hier nicht sichergestellt ist, wie gut, wie tief und ob überhaupt jemand prüft. Ein mickriger Geldbetrag von wenigen Hundert Euro wird außer Kinderchen, die ihr Taschengeld aufbessern wollen, niemanden anlocken und auch keine detaillierte Produktprüfung ermöglichen.
Als Minimum sollte die Produkthomepage generell eine Kontaktmöglichkeit zum Melden von Sicherheitsproblemen bieten und konkrete Informationen zur Produktsicherheit und zu wichtigen Updates liefern. Dies setzt jedoch voraus, dass sich Anwender auch aktiv informieren, wovon mehrheitlich nicht ausgegangen werden kann.

Sicher sind die Produkte aber erst, wenn Updates auch beim Endanwender installiert sind. Dazu ist es also nötig, Updates entweder komplett automatisiert auszurollen oder zumindest einen Kanal zum Endanwender aufzubauen, über den wichtige Informationen kommuniziert werden können. Ein Informationsblatt zur Produktsicherheit mit nötigen Einstellungen, Empfehlungen und Informationsmöglichkeiten ist ebenfalls sehr nützlich.
Den Anwendern kann man nur anraten, obige Punkte in Bezug auf ihren Lieferanten zu prüfen bzw. prüfen zu lassen und die Produkte genauer zu hinterfragen. Ist zum Betrieb des Produkts eine Cloud erforderlich? Wie ist sie abgesichert und zertifiziert? In welcher Jurisdiktion werden die Daten gespeichert? Was passiert im Fall einer Insolvenz oder Übernahme?

Welche Daten erhebt ein Gerät und wozu? Gibt es ein unabhängiges Audit der Software? Ist der Quellcode einsehbar? Wie, wo, wie oft und wie lange gibt es Sicherheitsupdates? Monatlich automatisch sollte hier der Standard sein – bei akuten Problemen auch schneller – wie es große Firmen wie Microsoft oder Google vormachen.
Privatanwender können all dies natürlich nicht leisten: Hier sind Hersteller, Importeure und die Verbraucher- und Datenschutzorganisationen gleichermaßen mehr gefordert, den Bereich Software genauer ins Visier zu nehmen, ansonsten wird es die Politik tun müssen. So manches Produkt, das in deutsche Lande kommt, entspricht nicht den europäischen Datenschutzbestimmungen und ist in puncto Softwaresicherheit mangelhaft.

Denke digital. Denke analog. Dann agiere klug und balanciert, unter Abwägung von Nutzen, Risiken und traditionellen Erwartungen. Und immer daran denken: Nichts verschlimmbessern und vor allem nichts kaputt machen!

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Oliver Sucker

Cyber-Security

Komplexe IT-Bedrohungen der digitalen Ära können mit ganzheitlichen Cyber-Defense-Strategien abgewehrt werden.

von Kai Grunwitz

Prävention, Erkennung, Abwehr und Reaktion sind die Grundpfeiler einer zukunftsweisenden, ganzheitlichen Cyber-Defense-Strategie. Diese Strategie ist für alle Unternehmen essenziell, die sich erfolgreich gegen die immer raffinierter und komplexer werdenden Angriffe von Cyber-Kriminellen wehren wollen.

Die Cyber-Kriminalität übt großen Druck auf Unternehmen aus. Die Motivation der Angreifer, eine IT-Infrastruktur lahmzulegen, Daten zu stehlen oder ein Unternehmen zu sabotieren, ist dabei vielfältig. Sie reicht von der Erpressung durch professionelle Kriminelle über die Unzufriedenheit oder Rache von (Ex-)Mitarbeitern bis hin zu politischen Gründen, wenn etwa Systeme von Regierungen oder Interessenverbänden angegriffen werden. Mit einer Besserung ist nicht zu rechnen, da beispielsweise die Zahl der DDoS- oder Ransomware-Attacken seit Jahren kontinuierlich zunimmt.

Prävention, Erkennung, Abwehr und Reaktion sind die Grundpfeiler einer zukunftsweisenden, ganzheitlichen Cyber-Defense-Strategie.

Beim Schutz der eigenen IT und der Abwehr zielgerichteter Angriffe haben sich vor allem drei bisher etablierte Sicherheitsverfahren als unzureichend beziehungsweise ungeeignet herauskristallisiert: die Perimeter-Absicherung; die rein auf Zugriffsbeschränkungen ausgelegten IT-Lösungen sowie die signaturbasierte Malware-Abwehr bei Endpunkten. Probleme bereiten den etablierten Schutzmechanismen vor allem die zunehmende Vernetzung und Kommunikationsvielfalt durch n-zu-n-Beziehungen von Unternehmen mit Mitarbeitern, Lieferanten, externen Dienstleistern oder Kunden sowie die relative Trägheit der signaturbasierten Malware-Abwehr.

Paradigmenwechsel durch Cyber-Defense

In der IT-Sicherheit ist daher ein Umdenken nötig, denn nur ein ganzheitlicher Ansatz kann lückenlose Cyber-Sicherheit bieten. Zentrales Merkmal ist die Erweiterung herkömmlicher Sicherheitskonzepte, die auf dem Perimeter-Schutz basieren. Neben reaktiven Maßnahmen muss eine Full-Lifecycle-Sicherheitslösung heute auch einen aktiven Schutz umfassen. Der klassische Netzwerk-Schutzwall wird dabei um proaktive Sicherheitsmechanismen ergänzt, die sich auch auf Applikationen und Daten sowie die einzelnen Endpunkte erstrecken. Cyber-Defense steht dabei für mehr als nur die Summe einzelner Sicherheitsmaßnahmen und die Kombination punktueller Ansätze, die zum Beispiel nur eine spezifische Herausforderung wie die APT-Abwehr aufgreifen. Das bedeutet auch, dass es dabei um wesentlich mehr als das reine Infrastruktur- und Technologie-Management geht. Sie stellen in der Regel lediglich die Basis für höherwertige, weitreichendere Services dar.

Am Anfang einer Cyber-Defense-Strategie steht die Analyse des individuellen Risiko-Profils (Risk-Insight). Jedes Unternehmen weist ein solches Profil auf, das durch eine Klassifizierung und Risikobewertung der schützenswerten Daten und Prozesse ermittelt werden muss. Alle folgenden Maßnahmen bauen im Rahmen einer zukunftsweisenden Cyber-Abwehr darauf auf. Die vier zentralen Grundkomponenten der Strategie sind: Prävention, Erkennung, Abwehr und Reaktion.

Die vier Phasen des Security-Lifecycles im Überblick. Quelle: NTT

Prävention auf Applikationen, Daten und Clients ausdehnen

Der klassische Perimeter-Schutz mit E-Mail-Gateways inklusive Spam- und Malware-Filter, Next-Generation-Firewalls, VPN-Systemen oder dynamischen Sandboxing-Lösungen bietet keinen hinreichenden Schutz mehr, da er beispielsweise Business-Applikationen und Daten nicht ausreichend berücksichtigt. Lösungen wie Data-Loss-Protection oder Digital-Rights-Management schließen diese Lücken.

Für Eindringlinge sind Endpunkte wie Desktops, Tablets oder Smartphones ein immer wichtigeres Einfallstor, und deshalb ist es unabdingbar, diesen Geräten auch eine höhere Gewichtung zuzuweisen. Signaturbasierte Mechanismen können gezielte Angriffe durch Malware nur schwer erkennen und abwehren, sodass moderne, intelligente Endpunkt-Lösungen unverzichtbar sind. Das bedeutet, dass zum Beispiel mit einer stärkeren Nutzung von Micro-Hypervisor-Lösungen zu rechnen ist, die eine zuverlässige Endpunktsicherung durch Isolierung von Applikationen ermögli-chen, oder auch mit einer verstärkten Überwachung der Endpunkte, um Verhaltensauffälligkeiten und deren Verbreitung frühzeitig zu erkennen und zu bewerten. Im Hinblick auf die Prävention dürfen gerade auch aktuelle Trends und Themen wie die zunehmende Cloud-Nutzung, das Internet der Dinge oder die verstärkte Vernetzung von Produktionsanlagen, Industrial-Control-Systems oder SCADA-Systemen mit der IT nicht vernachlässigt werden.

Trotz aller Vorkehrungen: Die 100-prozentige Sicherheit bleibt eine Utopie!

Ein ganzheitliches Cyber-Defense-Konzept muss nicht zuletzt auch den Faktor Mensch berücksichtigen. Die Minimierung dieser potenziellen Schwachstelle durch die Förderung von Awareness und das Training von Mitarbeitern ist ebenfalls ein wichtiger Baustein einer präventiven Cyber-Defense-Strategie.

Früherkennung implementieren

Die zunehmende Vernetzung stellt auch neue Anforderungen an die gängige Monitoring-Praxis. Es reicht nicht mehr, sich auf Systemlogs und -warnungen zu verlassen. Die Überwachung muss vielmehr auch Verhaltensanalysen der IT-Umgebung in Echtzeit erlauben. Nur so lassen sich ungewöhnliche Aktivitäten aufdecken – etwa wenn Systeme, die nichts miteinander zu tun haben, Daten tauschen oder „stille“ interne Systeme plötzlich mit externen Systemen kommunizieren. Da Unternehmen in der Regel weder die finanziellen noch die personellen Ressourcen für solche Frühwarnsysteme aufbringen können, sollten sie die Unterstützung von Managed-Security-Services (MSS)-Anbietern anfordern, die mit ihren Security-Operations-Centern (SOC) Angriffe frühzeitig erkennen. Die Analysten in diesen SOCs analysieren mithilfe von intelligenten Tools permanent den Datenverkehr. Das versetzt sie in die Lage, aus den unterschiedlichen Informationen Korrelationen herzustellen und mit ihrer fachlichen Expertise zu bewerten.

Ein SOC sollte über eine valide globale Datenbasis für ein proaktives Sicherheits-Monitoring verfügen. Nur eine derartige globale Threat-Intelligence kann die zuverlässige Basis für die Realisierung eines umfassenden Schutzes vor akuten – auch gänzlich neuen – Bedrohungen sein. Dabei kann ein weltweit agierender Provider im Unterschied zu einem rein lokal vertretenen MSS-Anbieter Meldungen und Störungen unterschiedlichster IT-Infrastrukturen von Tausenden Kunden weltweit überwachen und analysieren – und auf dieser Datenbasis dann ein Echtzeitbild der Bedrohungslage erzeugen, das wiederum für die Erstellung effizienter Cyber-Abwehrlösungen genutzt wird. Ein international vertretener Service-Anbieter wie NTT Security beispielsweise betreibt weltweit 17 SOCs sowie Forschungs- und Entwicklungszentren und beschäftigt mehr als 1 500 Sicherheitsexperten, davon mehr als 250 allein in der DACH-Region. Zudem nutzt NTT weltweit verteilte proprietäre – auf eigener IP basierende – kommerzielle und Open-Source-Honeypots und kann damit seinen Kunden ein Höchstmaß an präventiver Sicherheit bieten.

Der Cyber-Defense-Ansatz von NTT Security basiert auf den vier Grundkomponenten Prävention, Erkennung, Abwehr und Reaktion. Quelle: NTT

Notfallplan entwerfen

Trotz aller Vorkehrungen bleibt die 100-prozentige Sicherheit eine Utopie. Unternehmen sollten deshalb immer für den Ernstfall gewappnet sein und einen Notfall-Plan in der Hinterhand haben, den sie bei einem Angriff oder Leck kurzfristig in Kraft setzen, um Schaden abzuwenden oder zu minimieren. Dass dies jedoch bei den meisten Unternehmen noch nicht der Fall ist, zeigt der aktuelle NTT Security Global Threat Intelligence Report, demzufolge gerade ein Viertel der Unternehmen ausreichend auf einen Incident vorbereitet ist. Bei der Entwicklung des Notfallplans bieten erfahrene Sicherheitsexperten eine entscheidende Unterstützung. Sie helfen auch, wenn es darum geht, Response-Teams bereitzustellen, die im Fall eines Falles einen ungewollten Datenabfluss unterbinden.

Der Text ist unter der Lizenz CC BY-SA 4.0 DE verfügbar.
Lizenzbestimmungen: https://handbuch-digitalisierung.de/cc-by-sa


Informationen zu Kai Grunwitz

Potemkinsches Dorf – oder: Risikokultur leben

von Frank Romeike und Christoph Schwager

Kultur isst die Strategie zum Frühstück“, so ein Zitat des ehemaligen US-amerikanischen Ökonomen Peter F. Drucker. Gemeint ist der Wert der Unternehmenskultur, der weit über die rein rationale und strategische Organisationswelt hinausgeht. Nach Definition des Dudens beschreibt der Begriff den „Grad“, das „Maß, in dem ein Unternehmen den Ansprüchen der Unternehmensidentität entspricht oder zu entsprechen in der Lage ist“. Eine dehnbare Erklärung, die viel Spielraum für Unternehmensdenker und -lenker zulässt.

Vor allem in den bunten Geschäftsberichten wird die Unternehmenskultur wie ein Heiliger Gral hochgehalten und strapaziert. Dort steht regelmäßig viel über den „Wandel“ einer „global gelebten“ und „geschäftsfeldübergreifenden“ Unternehmenskultur. Selbstverständlich von „gegenseitigem Respekt“ und „Offenheit“ gekennzeichnet. Dass diese Begriffe in vielen Fällen nicht mehr als Füllwörter sind, bewahrheitet sich spätestens bei auftretenden Unternehmenskrisen. Nicht selten entpuppt sich das Ganze dann als „Potemkinsches Dorf“: Hochglanzbroschüren versprechen viel, um den tatsächlichen, verheerenden Zustand zu verbergen. Im tiefen Inneren fehlt es an Substanz. Eine große Spielwiese, auf der Unternehmen und ihre Verantwortlichen herumtollen, stolpern und häufig nicht mehr aufstehen. Im Klartext heißt das: Treten Krisen auf, ist die vielfach vorgeschobene Unternehmenskultur schnell dahin – weil nie wirklich gelebt oder nur halbherzig umgesetzt. Und doch ist es nicht möglich, keine Kultur zu haben. Jedes Unternehmen hat eine – positiv oder negativ besetzt.

Letztere ist in zweierlei Hinsicht fatal, nämlich in puncto Reputationsrisiken sowie der immensen Kosten für betroffene Unternehmen. Ein Paradebeispiel bietet die Informationssicherheit in Organisationen. Um die ist es nicht zum Besten bestellt, wie der Digitalverband Bitkom jüngst prognostizierte. Den Gesamtschaden durch Hackerangriffe beziffern die Bitkom-Experten auf rund 51 Milliarden Euro pro Jahr – nur für die deutsche Wirtschaft und nach „konservativen Berechnungen“. Ein warnendes Signal, bei einem Blick auf den allerorts propagierten digitalen Wandel der Geschäftswelt. Ergo braucht es die notwendige Sensibilisierung und das Wissen in Organisationen, um den technologischen Quantensprung hin zur Transformation im Maßstab 4.0 und höher bewältigen zu können.

Vom Tal der Ahnungslosen …

„Das Lieblingswort deutscher Manager ist zurzeit digitale Transformation. Sie wollen ihre Geschäftsmodelle ‚an das digitale Zeitalter anpassen‘“, schrieb das Wirtschaftsmagazin brand eins 2015  in einem Beitrag zu „Die drei Zauberworte“. Und diese drei Begriffe werden gebetsmühlenartig in Publikationen, Präsentationen und Pressegesprächen benannt. Die Rede ist von „Disruption“, „Plattform“ und „Netzwerkeffekt“. Das klingt nach viel Management und leider nach viel heißer Luft. Denn laut der WirtschaftsWoche sei nur jeder zwölfte Manager in Deutschland fit für die digitale Transformation.
Ein Blick in die Realität zeigt, dass nur die wenigsten Unternehmen reif sind für die digitale Transformation und für die notwendigen Veränderungsprozesse im Unternehmen. Kurzum: Viele Unternehmen verharren eher im Tal der Ahnungslosen und trauen sich nicht vom „lahmen Gaul“ abzusteigen und auf ein neues Pferd zu wechseln. Im Umkehrschluss heißt das: Führungskräfte, die den Weg hin zur digitalen Wende in den Organisationen initiieren, vorantreiben und überwachen müssen, haben schlicht keine Ahnung von dem, was sie an digitalen Platzhaltern von sich geben. Mehr noch sind sie überfordert und können dementsprechend nicht die Weichen Richtung zukunftsweisender digitaler Strukturen stellen. Aber genau dies braucht es. Denn Unternehmen jeder Größe und in allen Branchen sind in unserer digital eng vernetzten Welt verwundbarer denn je, bieten offene Flanken. Und diese lassen sich nicht einfach mit einem „Firewall-Denken 1.0“ schließen. Nicht selten wird beispielsweise bei der Umsetzung von Informationssicherheitsstrukturen  vergessen, dass technologische Ansätze nur zu einem kleinen Anteil über den Erfolg entscheiden. Dreh- und Angelpunkt sind die eigenen Kollegen – von der Führungsebene bis zum normalen Mitarbeiter.

… zu mehr Awareness und einer gelebten Unternehmenskultur

Frank Romeike

Um aus digitalen Risiken Chancen reifen zu lassen, aus denen wiederum digitale Erfolgsgeschichten entstehen, muss eine „gelebte“ Unternehmenskultur in der Organisation Einzug halten. Die sollte von der Unternehmensspitze initiiert werden, durch alle Organisationsbereiche reichen, verstanden und mitgetragen von allen Mitarbeitern.
Hierzu braucht es klare Spielregeln – ein Defizit in vielen Führungsköpfen. Böse formuliert „stinkt der Fisch vom Kopf her“. Gemeint ist in diesem Kontext, dass sich Entscheider nicht an die Regeln im Unternehmen halten. So werden Maßnahmen für mehr Informationssicherheit ad absurdum geführt, wenn diese beim Verlassen des Firmengeländes über Bord geworfen werden. Ein offenes Ohr in der Bahn oder am Flughafen genügt, um Geschäftszahlen, Vertragsabschlüsse sowie sonstige Interna mitzubekommen.

Im Umkehrschluss heißt das, Informationssicherheit ist nur so gut, wie die Menschen, die sie leben. Gleiches zählt für Mitarbeiter, die mit dem eigenen Smartphone im Unternehmen hantieren, filmen, Daten kopieren oder unachtsam mit sensiblen Unternehmensinformationen umgehen. Social Engineering, Hackerangriffe oder Spionagefälle in Unternehmen beweisen, dass Angreifer diese Schwächen für sich zu nutzen wissen. Es zeigt sich: Gründe für mehr Awareness im Umgang mit dem Firmengut „Informationen“ gibt es genug. Leider werden diese zu wenig beherzigt und in konkrete Sensibilisierungsmaßnahmen in der Organisation umgesetzt. Wichtig ist in diesem Zusammenhang auch, dass Mitarbeiter den Wert ihrer Person erfahren und als wichtiger Teil der Gesamtorganisation verstanden werden und dies auch vermittelt wird. Wer in Präsentationen mit Vokabeln der Marke „Humankapital“ oder „Mitarbeiterressource“ zu punkten versucht, scheitert. Denn die Kollegen haben ein gutes Gespür dafür, wer es als Firmenchef ernst meint mit der Kultur und wer nicht. Und hierzu zählt vor allem das Prinzip des Vertrauens.

Die Reifegradtreppe hinauf bis zum Planspiel

Im Idealfall reift eine Kultur in der Organisation, in der alle an einem Strang ziehen und ihren Beitrag für den Erfolg des Unternehmens leisten. Doch Vorsicht: „Keep it simple, stupid“, so die alte Managerweisheit. Dahinter steckt viel Wahrheit, denn Leitplanken für ein qualitatives Mehr an Informationssicherheit zu setzen ist das eine. Mitarbeiter mit zu viel Regeln, Normen und Software zu überfordern ist das andere. Ein durchgängiges Informationssicherheitsmanagement muss in ein gelebtes Chancen- und Risikomanagement integriert werden. Und dieses muss reifen. Unterschiedliche Reifegrade in der Risk-Governance – also einer stakeholderorientierten Risikosteuerung aus strategischer Sicht – sind ein guter Indikator für die Messbarkeit des Erfolgs der eigenen Maßnahmen. Ausgehend von fünf Stufen im Risikomanagement ist das erklärte Ziel, von einer reinen „Risikodokumentation“ (Stufe eins) und einer Unternehmenssteuerung nach dem Prinzip „Zufall und Glück“ zu einer „Leading-Stufe“ zu gelangen. Die letzte Reifegrad-Stufe ist von einer gelebten Risikokultur auf allen Unternehmens-ebenen geprägt, mit einem starken Fokus auf Kreativitätsmethoden und Frühwarnsignalen, die in die Unternehmenssteuerung einfließen (vgl. Abbildung/Reifegradtreppe). Für Entscheider muss es das erklärte Ziel sein, einen möglichst hohen Reifegrad zu erlangen und als Teil der Unternehmenssteuerung zu verstehen. Damit lassen sich Chancen zukunftsgewandt erkennen und proaktiv steuern sowie die Resilienz (Widerstandsfähigkeit) des eigenen Unternehmens stärken – auch gegen Cyberattacken, Sabotage und Spionage im eigenen Haus.

Risiko- und Chancenmanagement wie im Flugsimulator lernen

Christoph Schwager

Stellt sich die Frage, wie Unternehmens- und Risikokultur gemessen und weiterentwickelt werden können. Hier hilft ein Blick in die Luftfahrt, bei der ein gelebtes Risiko- und Krisenmanagement auf eine lange Historie verweisen kann. In den Kindertagen der Luftfahrt bestand das Risikomanagement- und Frühwarnsystem des Piloten – neben dem Kompass – im Wesentlichen aus drei Instrumenten: Schal, Krawatte und Brille. An der Art wie der Schal flatterte, konnte der Pilot Geschwindigkeit und Seitenwind abschätzen. Hing die Krawatte schräg, musste die Kurvenlage korrigiert werden. Und beschlug die Brille, so zeigte dies baldigen Nebel oder Regen an – und die Notwendigkeit, schleunigst zu landen. Heute sieht die Welt in der Luftfahrt anders aus: Hochtechnische Navigations- und Frühwarnsysteme und ausgefeilte Risikomanagement-Systeme haben zu einer hoch entwickelten Risikokultur und einem exzellenten Sicherheitsniveau in der Luftfahrt geführt. Ein wesentliches Element hierbei spielen heute Simulationen.

Ein Blick in die Realität zeigt, dass nur die wenigsten Unternehmen reif sind für die digitale Transformation und für die notwendigen Veränderungsprozesse im Unternehmen.

Piloten üben im Flugsimulator den richtigen Einsatz von Risikomanagement-Methoden und die adäquate Reaktion in Krisen. Der Flugsimulator stellt eine realitätsnahe Trockenübung dar und vereint Elemente aus Kreativitäts-, Szenario- und Simulationstechniken. Die erweiterte Form der Szenario- und Simulationstechnik unter Zuhilfenahme spielerischer Elemente und Interaktionsmuster kann auch im Unternehmensalltag genutzt werden, um Unternehmens- und Risikokultur zu entwickeln.

Reifegradtreppe

Ein Risikomanagement-Planspiel bzw. sogenannte Business-Wargames (wie etwa RiskNET R & OM Simulation bzw. Project@RISK von RiskNET) schaffen ein tieferes Verständnis der Aktionen und Reaktionen der unterschiedlichen Stakeholder und explizieren kognitive Verhaltensmuster und Verzerrungen. Ein praktischer Nebeneffekt: Risikokultur kann – basierend auf den Verhaltensweisen der Stakeholder – gemessen werden. Kritische Risiken können identifiziert werden, die durch „klassische“ Analysemethoden nicht erkannt werden. So werden beispielsweise aufgrund sogenannter „kognitiver Heuristiken“ (Repräsentativität und Verfügbarkeit) die Wahrscheinlichkeiten für Ereignisse umso größer eingeschätzt, je repräsentativer das Ereignis für die zugrunde liegende Grundgesamtheit erscheint und je leichter bzw. schneller Menschen in der Lage sind, sich (plastische) Beispiele für das Ereignis vorzustellen bzw. in Erinnerung zu rufen (vgl. Gleißner/Romeike 2012, siehe Literaturkasten).

Weiterführende Literatur

Erben, Roland F. / Romeike, Frank (2016): Allein auf stürmischer See – Risikomanagement für Einsteiger, 3. komplett überarbeitete Auflage, Wiley Verlag, Weinheim 2016.
Gleißner, Werner / Romeike, Frank (2012): Psychologische Aspekte im Risikomanagement – Bauchmenschen, Herzmenschen und Kopfmenschen, in: Risk, Compliance & Audit (RC&A), 06/2012, S. 43-46.
Romeike, Frank / Spitzner, Jan (2013): Von Szenarioanalyse bis Wargaming – Betriebswirtschaftliche Simulationen im Praxiseinsatz, Wiley Verlag, Weinheim 2013.
Romeike, Frank (2014): Simulation mit Business Wargaming, in: FIRM Jahrbuch 2014, Frankfurt/Main 2014, S. 140-143.

Sich der eigenen Schwächen beim intuitiven Umgang mit Risiken bewusst zu sein, ist der erste Schritt für die Verbesserung der Potenziale im Risikomanagement. Hierbei können Planspiele einen erheblichen Mehrwert bieten. In diesem Kontext passt sehr gut ein Zitat des US-amerikanischen Ökonomen Thomas Crombie Schelling, Preisträger für Wirtschaftswissenschaften der schwedischen Reichsbank im Gedenken an Alfred Nobel: “The one thing you cannot do, no matter how rigorous your analysis or heroic your imagination, is to make a list of things you never thought of.”  Bei diesem kreativen Prozess kann ein Business-Wargame bzw. Planspiel Unterstützung bieten.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Frank Romeike

Informationen zu Christoph Schwager

Smarte Lösungen für den Handel

Über die Chancen von Big Data und der Vernetzung

von Jens Lappoehn

Die Digitalisierung ist die größte technologische Revolution der letzten 200 Jahre. Sie erfasst die Wirtschaft genauso wie die Gesellschaft und verändert die Art und Weise, wie wir leben und arbeiten. Die Digitalisierung ist vor allem eines: Eine große Chance, denn viele zentrale Herausforderungen der Zukunft sind ohne digitale Technologien nicht lösbar. Telefónica Deutschland trägt als nach Kundenzahl größtes Mobilfunkunternehmen Deutschlands maßgeblich dazu bei, dass die digitale Zukunft Wirklichkeit wird. Denn wir bieten zwei zentrale Rohstoffe für die Digitalisierung: Konnektivität und Daten.
Diese Rohstoffe wollen wir nutzen. Wir sind überzeugt, dass in der Vernetzung von Dingen und der smarten Datenanalyse großes Potenzial für die Gesellschaft und die Wirtschaft steckt. Deshalb haben wir eine neue Gesellschaft, die Telefónica Germany NEXT GmbH, gegründet, die diese digitalen Wachstumsfelder vorantreibt. Auf Basis von Datenanalysen und der Vernetzung von Dingen bietet die Gesellschaft anderen Unternehmen Lösungen an, damit diese die Chancen der Digitalisierung besser nutzen können.

Milliarden Daten intelligent verknüpft

Mit über 44 Millionen Kundenanschlüssen liegt uns durch unsere normalen Geschäftsprozesse eine große Menge an Daten vor. Darunter sind vor allem solche, die ausschließlich bei uns als Netzbetreiber anfallen, beispielsweise Mobilitätsdaten. Diese entstehen, wenn Handys, z. B. beim Surfen, mit den Mobilfunkzellen kommunizieren. Täglich entstehen so mehr als vier Milliarden Datenpunkte.
Für Analysezwecke werden sie durch ein dreistufiges, TÜV-zertifiziertes Verfahren vollständig anonymisiert und im Anschluss statistisch ausgewertet. Trotz vollständiger Anonymisierung können Kunden der Verwendung ihrer Daten jederzeit wiedersprechen. Sie haben so die Möglichkeit, ihre persönlichen Präferenzen mit dem Nutzen abzuwägen, den ihre Daten für die Wirtschaft und Gesellschaft schaffen.
Intelligent verknüpft ergeben sich aus den Daten neue Erkenntnisse, die für Unternehmen unterschiedlichster Branchen ebenso wie für Kommunen, öffentliche Verkehrsbetriebe und die Gesellschaft insgesamt relevant sind. Die Erkenntnisse aus datenbasierten Analysen sind beispielsweise für Städte interessant, die unter hohem Verkehrsaufkommen leiden. Das Potenzial von Mobilfunkdaten als eine verlässliche Datenquelle für die Verkehrsplanung untersuchen wir aktuell in Stuttgart gemeinsam mit dem Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO. Zudem beteiligen wir uns an einem Pilotprojekt in Nürnberg, bei dem auf Basis von Mobilfunkdaten die Verkehrsströme und darüber die Luftverschmutzung analysiert werden.

Der Weg der Daten: vom Handy über die Anonymisierung zur Verkehrsmessung

Smarte Datenanalyse für den Handel

Präzise Daten sind nicht nur für die Verkehrsplanung hilfreich, sondern auch für den stationären Handel von großem Interesse. Online-Händler verstehen bereits sehr präzise, wie viele Kunden ihre Website besuchen, wie lange sie dort jeweils bei welchem Angebot verweilen und welche Art der Produktplatzierung für welche Zielgruppe vielversprechend ist. Auf der Grundlage dieser Kundeninformationen passen bereits viele Online-Händler ihre Angebote schnell und flexibel an die Kunden an. Wir arbeiten bei Telefónica NEXT daran, dass diese Möglichkeiten auch für den Offline-Handel, also den stationären Handel, funktionieren. Dies kommt nicht zuletzt auch den Innenstädten zugute. Unsere smarte Datenanalyse trägt dazu bei, dass der stationäre Handel Informationen über seine Zielgruppe erhält, die ihm bisher so nicht zur Verfügung standen. Wir analysieren beispielsweise mithilfe von Mobilfunkdaten Kundenströme im Umfeld einer Filiale.
Auf Basis von Daten kann der Händler seine Kunden besser verstehen und smarter mit ihnen interagieren – und nicht zuletzt seine eigenen Prozesse effizienter gestalten. Die Kunden wiederum profitieren von einem digitalen Einkaufserlebnis. Das stärkt die Position des Einzelhandels gegenüber dem Online-Handel. Händler, die online und offline Kanäle bedienen, erhalten wertvolle Informationen, wie sie diese noch besser vernetzen.

Bewegungen rund um den Store

Bislang waren Kaufhäuser und Einzelhändler auf Schätzungen angewiesen, um zu wissen, wie viele Kunden tatsächlich ihre Schaufenster passieren. Durch die smarte Datenanalyse können die Bewegungsströme vor Geschäften statistisch exakter berechnet werden, denn die Stichprobe aus anonymisierten Daten ist größer und aktueller – und nicht verzerrt durch Großereignisse oder z. B. das Wetter. Durch zusätzliche Analy­severfahren ermitteln wir beispielsweise auch, wie viele Menschen derselben Al­tersgruppe und desselben Geschlechts sich in der Nähe des Stores aufgehalten haben. Zudem können wir auf Basis der anonymisierten Daten beispielsweise typische Routen oder durchschnittliche Verweildauern bestimmter Zielgruppen berechnen. Über Roaming-Informationen ist auch die Identifikation der Zielgruppe der Touristen möglich.

Der Einzelhandel kann anhand dieser vielfältigen Informationen zum Beispiel Standorte viel besser bewerten, Öffnungszeiten optimieren, Werbung in Schaufenstern passend gestalten oder das Sortiment an die Zielgruppe anpassen. Auch Telefónica Deutschland stellte nach dem Zusammenschluss mit E-Plus mithilfe der Datenanalyse das eigene Filialnetz der Shops auf den Prüfstand. Von diesen relevanten Erfahrungen profitiert Telefónica NEXT.

Telefónica NEXT

Telefónica Deutschland hat die strategischen Wachstumsfelder „Advanced Data Analytics“ und „Internet of Things“ in einer eigenen Gesellschaft gebündelt, der Telefónica Germany NEXT GmbH mit Sitz in Berlin. Die Gesellschaft bietet anderen Unternehmen Lösungen an, damit diese die Wachstumschancen der Digitalisierung besser nutzen können. Mit „Advan­ced Data Analytics“ richtet Telefónica NEXT den Blick auf den gesellschaftlichen und wirtschaftlichen Nutzen, der sich aus der Analyse großer Datenmengen ziehen lässt. Zudem arbeitet das Unternehmen an Lösungen für das Internet der Dinge und wird mit der neuen Software-Plattform geeny.io Unternehmen dabei unterstützen, vernetzte Lösungen auch für Endverbraucher anzubieten.

In einem nächsten Schritt werden wir auch Analysen für das Innere der Stores ermöglichen. Damit erfahren Händler, wie viele und welche Kunden tatsächlich den Store betreten haben und wie lange und wo sie sich darin aufgehalten haben. So können Händler die Kundenströme viel besser verstehen und z. B. die Gestaltung ihrer Flächen optimieren oder auch den Erfolg einzelner Filialen miteinander vergleichen.
Durch die Verknüpfung von beidem – Analysen außerhalb des Stores und im Store – kann der Händler die sogenannte Customer-Journey nahezu vollständig abbilden und seine Verkaufskanäle optimieren.

Das digitale Erlebnis im vernetzten Store

Kunden erhalten datenbasiert passende Angebote von Partnern (Quelle: Quelle Telefónica Deutschland)

Wir unterstützen die Händler auch dabei, im Inneren ihrer Geschäfte digitale Technologien gewinnbringend einzusetzen – und das für beide: für Händler und Kunde. Mithilfe unserer Datenanalyse kann der Händler sein Geschäft smarter an die Bedürfnisse seiner Zielgruppe anpassen und mit seinen weiteren Verkaufskanälen vernetzen. Sei es durch stimmige Musik, passende Displays oder wertvolle digitale Zusatzinformationen. All das bietet den Kunden ein mehrere Sinne ansprechendes Erlebnis, das der Online-Handel alleine nicht ermöglicht. Dabei wird der Kontakt zu den echten Mitarbeitern nicht weniger, sondern effizienter und besser – und damit auch wirtschaftlicher für den Händler.
Für die Auswahl passender Produkte bauen wir auf einem umfangreichen internationalen Portfolio unseres spanischen Mutterkonzerns Telefónica S. A. auf. Ein Beispiel sind digitale Plakate. Sogenannte Digital Signage können mit verschiedenen relevanten und anonymisierten Daten, zum Beispiel Alter und Geschlecht der vorhandenen Kunden und Wetterdaten, verknüpft werden. So kann der Händler in Echtzeit jeweils passende Informationen oder Angebote auf den Displays präsentieren. Zusätzliche Interaktivität bieten smarte Umkleidekabinen. Der Kunde hat die Möglichkeit, Informationen über Größen- und Farbvarianten der Produkte auf einem Tablet abzurufen. Zudem kann er sich zu passenden Accessoires inspirieren und sich gewünschte Varianten von den Mitarbeitern bringen lassen.

Ein weiteres Beispiel für mehr Interaktion und gleichzeitige Effizienz sind digitale Preisschilder. Sie lassen sich vom Kunden über einen Touch-Screen bedienen und bieten ihm Zusatzinformationen zum Produkt an. Durch die zentrale Steuerung der Preisschilder kann der Händler die Fläche schneller umgestalten.

Kunden außerhalb des Stores gezielt ansprechen

Händler können von der Digitalisierung auch außerhalb ihrer Stores profitieren und mit ihrer Zielgruppe kommunizieren. Hierbei handelt es sich um spezifische Werbeangebote, die Kunden auf unterschiedlichen Wegen erreichen.

Datenschutz ist Grundvoraussetzung

Der Datenschatz ist ohne Datenschutz wertlos. Telefónica Deutschland nimmt den Datenschutz sehr ernst, denn er ist die Grundlage für die Akzeptanz von datenbasierten Geschäftsmodellen in der Gesellschaft. Deshalb ist das Herzstück der Datenanalyse ein vom TÜV zertifiziertes und von der Bundesbeauftragten für den Datenschutz und die Informationsfreiheit begleitetes Verfahren. Es sorgt dafür, dass Kundendaten über ein dreistufiges Verfahren komplett anonymisiert werden und sich auch nicht nachträglich bestimmten Personen zuordnen lassen. Trotz dieser vollständigen Anonymisierung hat jeder Kunde die freie Wahl und kann der Nutzung seiner anonymisierten Daten jederzeit widersprechen. So behält er stets die Hoheit über seine Daten.
https://analytics.telefonica.de/

Einerseits erlaubt die Plattform Axonix die datenbasierte, gezielte Ausspielung von Werbebannern beim mobilen Surfen. Andererseits können Händler mithilfe des Service O2 More Local ihre Zielgruppe per Nachricht auf dem Mobiltelefon erreichen. Mit der kostenlosen Buchung von O2 More Local erlaubt der Kunde, dass O2 seine Daten, wie Aufenthaltsort, Wetter, Tageszeit, Alter und Geschlecht, verwenden darf, um ihm Angebote von Marken per Mobile Messaging zu senden. Da die Angebote auf den individuellen Daten basieren, treffen sie mit höherer Wahrscheinlichkeit auf die Interessen des Kunden. Ihre Daten sind dabei vollständig geschützt.

Zur richtigen Zeit am richtigen Ort

Vor dem Store, im Store und in unmittelbarem Kontakt mit dem Produkt: Die Digitalisierung bietet Kunden und Händlern völlig neue Möglichkeiten der Interaktion. Wir bei Telefónica NEXT werden die Möglichkeiten der smarten Datenanalyse und der Vernetzung von Dingen weiter vorantreiben – für Angebote zur richtigen Zeit, am richtigen Ort für den richtigen Kunden.

Kernaussagen

Intelligent verknüpft ergeben sich aus den anonymisierten Daten neue Erkenntnisse, die für Unternehmen unterschiedlichster Branchen ebenso wie für Kommunen, öffentliche Verkehrsbetriebe und die Gesellschaft insgesamt relevant sind.
Mit Blick auf den Handel trägt die smarte Datenanalyse dazu bei, dass Händler Informationen über ihre Zielgruppe erhalten, die ihnen bisher so nicht zur Verfügung standen. Telefónica NEXT analysiert beispielsweise mithilfe von Mobilfunkdaten Kundenströme im Umfeld einer Filiale.
Auf Basis der Daten kann der Händler seine Kunden besser verstehen, smarter mit ihnen interagieren und der Kunde profitiert von einem digitalen Einkaufserlebnis. So kann der Einzelhandel seine Position gegenüber dem Online-Handel stärken bzw. seine Omnichannel besser miteinander vernetzen.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Jens Lappoehn

Offene Logistikplattform erhöht die Transparenz

von Geert-Jan Gorter

Regelmäßig landet die Logistik in Studien, in denen der Reifegrad der digitalen Transformation in der Wirtschaft untersucht wird, auf den hinteren Plätzen. So zeigte die Befragung „Digitale Transformation der Supply-Chain – Stand heute und in fünf Jahren” von Capgemini Consulting, dass fast die Hälfte der Logistikunternehmen in der Kommunikation mit Partnern in der Lieferkette immer noch an erster Stelle auf „traditionelle Methoden“ – wie beispielsweise Telefon, Fax und E-Mail – vertrauen. Für 75 % der befragten Führungskräfte ist die digitale Transformation der Supply-Chain zwar „wichtig“ bis „sehr wichtig“, 70 % gaben zudem an, sich bereits mit dem Thema auseinanderzusetzen. Doch mit dem Ergebnis der Bemühungen ist ein Drittel der Befragten „unzufrieden“ – und lediglich 5 % sind bereits „sehr zufrieden“.

Hindernisse für Logistik 4.0

Komplexe Dienstleisterstrukturen – wie etwa im Kombinierten Verkehr mit Speditionen, Eisenbahnen, Reedereien, Terminalbetreibern, Instandhaltern und Verladern – erschweren Abstimmungen und damit das Management arbeitsteiliger Prozesse. Hinzu kommt, dass in die Supply-Chain eingebundene Unternehmen in der Regel über eigene, historisch gewachsene IT-Landschaften verfügen, die einen ungehinderten horizontalen und vertikalen Informationsfluss im Sinne einer Logistik 4.0 nach allgemeiner Auffassung nicht zulassen. Dabei ist gerade die Logistikbranche mit ihren vielen manuellen Prozessen prädestiniert für enorme Fortschritte durch digitale Innovationen.

Fallbeispiel DB Cargo BTT

Die Digitalisierung erfolgreich in Angriff genommen
Die DB Cargo BTT ist auf den Transport von Chemie-, Mineralöl- und Düngemitteltransporten im Kombinierten Verkehr und im Wagenladungsverkehr spezialisiert. Sie organisiert den Hauptlauf auf der Schiene, den Umschlag im Terminal und den Vor- und Nachlauf auf der Straße für alle europäischen Relationen. Mithilfe von catkin wurde innerhalb von nur vier Wochen für die internationalen Aluminiumverkehre des Unternehmens eine Vernetzung der beteiligten Partner in der Transportkette realisiert. Trotz des komplexen Verkehrskonzepts mit einer Vielzahl von Akteuren über unterschiedliche Transportmittel, Zeitzonen und Sprachen hinweg, gibt es nun die völlige Transparenz in Echtzeit. Etwa über den Auftragsstatus, die eingesetzten Transporteinheiten und schadhaftes Equipment.

Flexible Prozessplattform

Das cloudbasierte Logistikportal catkin vernetzt Kunden und Dienstleister über frei konfigurierbare Aufträge. Es ermöglicht so eine systemunabhängige, unternehmensübergreifende und zugleich standardisierte Kommunikation und unterstützt das Management von mobilen Ressourcen, wie etwa Personal, Loks und Waggons, aber auch Container, Lkw oder Auflieger.
So ist etwa das Tracking von Containern lückenlos von der Aufnahme bis zur Zustellung möglich. Als universelle Plattform für alle Auftragstypen erlaubt catkin die Vernetzung unterschiedlicher Assets. Mobiles Personal, Depots und Terminals sind leicht zu integrieren.

Flexible Beteiligungsmöglichkeiten

Jeder Teilnehmer kann sich über das Web und die mobile App beteiligen. Kleinunternehmen und Freiberufler verwenden Browser und App, Unternehmen mit einer etablierten IT integrieren ihre Systeme sukzessive über die offene Plattformspezifikation. Die Anbindung an vorhandene ERP-, Telematik- oder auch Speditionslösungen ist über die vorhandenen Anwendungsschnittstellen (APIs) recht einfach zu bewerkstelligen.

Fallbeispiel TX Logistik

Auftragsdurchlaufzeiten um 25 Prozent reduziert
Das Schienenlogistikunternehmen TX Logistik verbessert mithilfe des catkin-Portals das Management von Ganzzügen und des Kombinierten Verkehrs. Durch die Integration der zur Verfügung gestellten Funktionalitäten in das eigene Planungs- und Steuerungsprogramm halbierte sich bei den Vor- und Nachläufen per Spedition die Fehlerquote und der Arbeitsaufwand sank um 12 Prozent. Gleichzeitig konnten die Auftragsdurchlaufzeiten um 25 Prozent reduziert werden. Weitere Erfolge zeigen sich in Form einer verbesserten Abstimmung mit den Bahn-Dienstleistern und im operativen Personaleinsatz. Die erhöhte Transparenz führt hier zu einer deutlichen Reduzierung von Verspätungen und 50 % weniger Support-Anrufen im European Control Center der Güterbahn.

Sicherheit und Datenschutz

Auch die Integration neuer Akteure und Prozesse sowie eine zügige Implementierung neuer Standards sind jederzeit möglich. Die Konfiguration von neuen Auftragsstrukturen und Arbeitsabläufen geschieht ohne aufwändige Programmierung. Die Kombination von standardisierter Technik und flexiblen Strukturen ermöglicht so dynamische Prozesse.
Der sichere Austausch der Daten entlang der gesamten Data-Supply-Chain ist dabei eine wesentliche Voraussetzung. Disponenten etwa, die das catkin-Portal nutzen, können sicher sein, dass ihre Daten nicht in irgendeiner Cloud jenseits des großen Teichs unterwegs sind, sondern sich in einem modernen deutschen Rechenzentrum befinden –  unter Einhaltung aller Datenschutzbestimmungen. Zudem werden die im Zuge der Auftragsabwicklung erzeugten Daten nach Abschluss innerhalb eines gewissen Zeitfensters wieder aus dem System entfernt.

Nahtlose Kollaboration

Der Ansatz von catkin integriert die Beteiligten am Erbringen einer Logistikdienstleistung unmittelbar horizontal und stellt somit sofort für alle Teilnehmer gleichermaßen ein Kunden- als auch Dienstleisterportal dar. Zudem wird die Steuerung von mobilen Personalen und „rollendem Material“ automatisch unterstützt. Auftragsdaten und Lieferfortschritt lassen sich sicher, einfach und in Echtzeit kommunizieren, wodurch im Sinne von Logistik 4.0 eine nahtlose Kollaboration über Unternehmensgrenzen hinaus realisiert wird. Voraussetzung für Smart Services, innovative Leis­tungsangebote und automatisierte Geschäftsprozesse in der Logistik 4.0 sind der sichere Austausch und die einfache Kombination von Daten in Wertschöpfungsnetzwerken – ohne dass die Beteiligten in der Lieferkette die Souveränität über die eigenen Daten verlieren.

Fallbeispiel Kloiber Transporte

Optimierter Container-Transport
Die Spedition Kloiber aus Bayern, ein Familienunternehmen mit jährlich 85 000 transportierten Ladeeinheiten und einer Flotte von 150 Lastwagen, führte catkin als Kundenportal ein und koppelte es an das vorhandene Planungssystem. Die Vernetzung zwischen den Beteiligten – etwa Reeder, Zoll, Bahn, Operateur, Lkw-Spediteur, Fahrer und Kunde – kann ebenso auf Basis der Containernummer, die eine eindeutige Identifikation ermöglicht, erfolgen. Statt einer weiteren Insellösung verfügt Kloiber nun über eine offene Plattform, die eine einfache Anbindung von weiteren Kunden und beliebigen Subunternehmern ermöglicht.

„Industrial Data Space“

Die Initiative „Industrial Data Space“, an der mit Unterstützung des Bundesministeriums für Bildung und Forschung verschiedene Fraunhofer-Institute und Unternehmen unterschiedlichster Branchen und Größen – darunter auch catkin – beteiligt sind, schafft die Voraussetzungen für den dringend nötigen sicheren Datenraum. Zwischen allen Beteiligten am Datenaustausch wird ein standardisierter Vertrag geschlossen, der in Software „gegossen“ den Daten immer mitgegeben wird. Er beschreibt, was der Empfänger mit den Daten tun darf und was nicht. Der Sender bleibt Eigentümer, kann Bedingungen der Nutzung festlegen und auch den Zeitraum der Gültigkeit.

Mehr Informationen unter https://www.catkin.eu/HandbuchDigitalisierung

Kernaussagen

Fast die Hälfte der Logistikunternehmen vertrauen in der Kommunikation mit Partnern in der Lieferkette immer noch an erster Stelle auf „traditionelle Methoden“ – wie beispielsweise Telefon, Fax und E-Mail.
Komplexe Dienstleisterstrukturen – wie etwa im Kombinierten Verkehr – erschweren Abstimmungen und damit das Management arbeitsteiliger Prozesse. Trotzdem ist gerade die Logistikbranche mit ihren vielen manuellen Prozessen prädestiniert für enorme Fortschritte durch digitale Innovationen.
Mithilfe einer universellen Logistikplattform für eine vernetzte Auftragsabwicklung und Kommunikation wie zum Beispiel catkin kann bereits heute der Weg in eine Logistik 4.0 beschritten werden, bei der die Transparenz der Supply-Chain im Mittelpunkt steht.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Geert-Jan Gorter

Die digitale Revolution: einfach machen!

von Anette Bronder

Viel Lärm um nichts oder entscheidender Wettbewerbsvorteil? Bei den meisten Unternehmen ist mittlerweile angekommen, dass sie sich mit dem Thema „Digitalisierung“ beschäftigen müssen, um zukunftsfähig zu sein. Fachkräftemangel, ein schärferer Wettbewerb, Start-ups, die mit einer cleveren Idee ganze Branchen umkrempeln, neue technische Möglichkeiten – das sind die großen Herausforderungen, die die heutigen Unternehmen jetzt aktiv angehen müssen. Der Treiber für nachhaltiges Wachstum? Digitaler Fortschritt!

Fast alle Branchen werden mit Chancen und Risiken der Digitalisierung konfrontiert, auch wenn unterschiedliche Bereiche und Prozesse betroffen sind. Unternehmen können im Internet der Dinge einzelne Produkte, Herstellungsprozesse, ganze Wertschöpfungsketten oder auch komplette Geschäftsmodelle vernetzen. Und das müssen sie auch: Kunden erwarten im sogenannten „Age of the Customer“ individuelle, preisgünstige Konsumgüter und schnellen Service. Hier haben deutsche Firmen Nachholbedarf, denn das Potenzial von IoT ist laut einer Studie von PAC erst zu fünf Prozent ausgeschöpft. Es gilt: Wer die erste Halbzeit der Digitalisierung verschlafen hat, muss in der zweiten erst recht Gas geben.

Was hindert Unternehmen daran? Häufig fehlt es an Digitalisierungs-Know-how. Eine aktuelle Studie von Crisp Research ermittelte anhand eines Reifegradmodells die Fähigkeit von Führungskräften, die digitale Transformation ihrer Unternehmen voranzutreiben. Und fand heraus, dass 71 Prozent nur wenig Wissen rund um neue digitale Technologien und auch kein ausgeprägtes „Digital-First“-Denken aufweisen. Viele dieser Entscheider können durchaus konkret die Eigenschaften und Funktionen nennen, die einen „Digital Leader“ ausmachen. Dennoch fehlt ihnen an der ein oder anderen Stelle der Digitalisierungswille und auch das Wissen, es gewinnbringend umzusetzen.

Um den nötigen Sprung in die digitale Welt zu schaffen, sind Dienstleister und Produktanbieter umso mehr gefordert. Besonders branchenspezifische Anwendungen und standardisierte Plattformansätze für den einfachen Einstieg in das IoT werden dringend benötigt. Wir müssen Anwendern Schützenhilfe leisten und Lösungen anbieten, die sich schnell und einfach implementieren lassen. So nehmen wir Unternehmen die großen Ängste vor der digitalen Angriffsfläche und der Komplexität der vernetzten Welt. Eine häufig gestellte Frage: Wie viel muss ich in meinem Unternehmen digitalisieren? Ich rate immer klein anzufangen und den Digitalisierungsgrad langsam auszubauen. Auf einzelne Geräte oder Bereiche begrenzte Lösungen bieten Unternehmern die Möglichkeit, eine Vernetzung auszuprobieren und auf Potenziale für ihr gesamtes Geschäftsmodell abzuklopfen. Besonders für kleine und mittelständische Firmen, die große und riskante Investitionen scheuen, ist dies ein unkomplizierter Weg ins IoT.

Welche Strategie hin zum digitalen Unternehmen ist die richtige? Zunächst sollte man das Potenzial der Digitalisierung für sich erkennen. Maschinenbauer wie Pfannenberg, der Klimatisierungslösungen für Schaltschränke baut, oder der Küchengerätehersteller Rieber vernetzen ihre Geräte, um sie aus der Ferne zu überwachen und zu steuern. Dampfkesselproduzent Certuss geht sogar noch einen Schritt weiter: Er verbindet seine Maschinen mit der Cloud, um die gewonnenen Daten zur vorbeugenden Wartung, der sogenannten „Predictive Maintenance“, zu nutzen. Thomas Hamacher, Chief Technical Officer bei Certuss, sagt, er gehe damit auf „Spurensuche“, um anhand der interpretierten Daten die Geräte vorausschauend zu warten und die Zufriedenheit der Kunden zu erhöhen. Diese Unternehmen haben herausgefunden, wie sie digitale Lösungen für sich nutzen können, und sie haben diese Erkenntnis mithilfe einfach anwendbarer Lösungen in die Tat umgesetzt.

Um Fahrstühle, Kühlschränke oder Werksmaschinen ins Internet zu bringen, sind drei Komponenten vonnöten: Netz, Sensoren, die Daten übertragen, und die Cloud, wo die Daten intelligent ausgewertet werden.

Und von solchen Optimierungen bestehender Produkte und Dienstleistungen sowie effizienteren Strukturen und besseren Kostenstrukturen profitieren bereits viele Unternehmen. Noch aber zögern Firmen, neue Wege einzuschlagen und in das Ungewisse zu investieren. Digitale Transformation erfordert durchaus Mut und vor allem Offenheit. Das ist eine der Herausforderungen. Die andere besteht darin, richtig zu digitalisieren – mit Strategie, den richtigen Partnern und optimalen IT-Lösungen.

Auch wir Dienstleister sind in der Pflicht, denn kein Anbieter kann das Internet der Dinge alleine beherrschen. Starke Kooperationen mit Partnern und ein eng verknüpftes Ökosystem aus Infrastruktur, Plattformen und Produkten, die sich stets branchenübergreifend einsetzen lassen, ist die Voraussetzung für eine umfassende Vernetzung. So lässt sich etwa ein intelligenter Kühlschrank mit anderen Geräten zu einem Smart Home, mehrere Smart Homes mit weiteren Lösungen wie Smart Parking lassen sich zu einer Smart City vernetzen. Doch solche Möglichkeiten sind zugleich sehr komplex. Zudem wächst die Zahl der Anbieter rasant. Dies erschwert Unternehmen die Investitionsentscheidung. Know-how und Vertrauen auf allen Seiten aufzubauen ist ein Muss für IT-Anbieter. Denn wir verkaufen ja keine schnell konsumierbaren Produkte wie Milch oder Kaffee. Vielmehr geht es in der IT-Branche um langfristige, vertrauensvolle Beziehungen mit Kunden und darum, neben dem Verkäufer auch zum Berater und Partner für die Digitalisierung zu werden.

Drei Dinge sind das Grundgerüst einer erfolgreichen digitalen Transformation: Digitalisierte interne Prozesse, ein technologischer Unterbau, der die gesamte IT-Landschaft beheimatet und vernetzt, und nicht zuletzt die digitalen Geschäftsmodelle, die nah am Kunden ausgerichtet sein müssen. Diese Komponenten müssen Unternehmen mit unserer Hilfe in Angriff nehmen; nicht morgen, sondern heute. Sonst setzen sie in der digitalen Welt die Zukunft ihrer Firma aufs Spiel.

Kernaussagen

  • Wer am Markt eine Chance haben will, muss Mut zum Wandel haben und die Digitalisierung sowie die Cloud in den Mittelpunkt der eigenen Strategie stellen.
  • Häufig fühlen sich Unternehmen von der Komplexität der digitalen Welt überfordert. Digitalisierung einfach machen ist Aufgabe der Dienstleister – einen einfachen Einstieg bieten branchenspezifische Anwendungen und standardisierte Plattformen.
  • Keiner kann das IoT allein beherrschen, denn die eine Lösung für alle Zwecke gibt es nicht. Nur mit Partner-Ökosystemen lassen sich die digitalen Kundenwünsche von morgen beantworten.
  • In Zukunft dreht sich alles um die Echtzeitverarbeitung immer dichterer Datenströme aus verschiedenen Quellen; schnelle Netze, intelligente Datenanalyse-Tools und sichere Cloud-Plattformen sind der Schlüssel dazu.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Anette Bronder

Internet of Things

Smart Things kommunizieren über das Internet der Dinge miteinander, wodurch neue Möglichkeiten automatischer Prozesse entstehen.

von Andreas Fuhrich

Statt selbst Gegenstand der menschlichen Aufmerksamkeit zu sein, soll das „Internet der Dinge“ den Menschen bei seinen Tätigkeiten unmerklich unterstützen. Dabei bezeichnet das Internet of Things (IoT) die Verknüpfung eindeutig identifizierbarer physischer Objekte mit einer virtuellen Repräsentation in einer internetähnlichen Struktur.

Die automatische Identifikation mittels RFID wird oft als Grundlage für das Internet der Dinge angesehen. Allerdings kann eine eindeutige Identifikation von Objekten auch mittels anderer Identifikationsverfahren, wie Strichcode oder 2D-Code, erfolgen. Bauteile wie Sensoren und Aktoren erweitern die Funktionalität um die Erfassung von Zuständen bzw. die Ausführung von Aktionen.

Ziel des IoT ist die automatische Übertragung von Zustandsdaten realer Dinge in die virtuelle Welt, um dort weiterverarbeitet werden zu können. Solche Daten können beispielsweise Informationen über die aktuelle Nutzung, den Verbrauch, aber auch über besondere Umweltbedingungen am Ort des „Things“ sein. In einem IoT-Netzwerk kommunizieren auf diese Weise mehrere Dinge miteinander und sind in der Lage, sich gegenseitig Aufgaben zuzuweisen.

Wearables sind ein typisches Einsatzgebiet des IoT. Eine Smartwatch kann beispielsweise ihren Träger genau lokalisieren und diese Daten an die Heizung im Smart Home übermitteln. So kann sich diese automatisch ausschalten, falls das Haus verlassen wird, und sich einschalten, wenn man sich nähert.
In der Wirtschaft spielt das IoT vor allem im Zusammenhang mit der Industrie 4.0 eine wichtige Rolle. Dabei soll, nach Plänen der Bundesregierung, eine weitestgehend selbst­organisierte Produktion möglich werden: Menschen, Maschinen, Anlagen und Produkte kommunizieren und kooperieren direkt miteinander. Durch die Vernetzung soll es möglich werden, nicht mehr nur einen Produktionsschritt, sondern eine ganze Wertschöpfungskette zu optimieren. Das Netz soll zudem alle Phasen des Lebenszyklus des Produktes einschließen – von der Idee eines Produkts über die Entwicklung, Fertigung, Nutzung und Wartung bis hin zum Recycling. Durch die Aktionen, die auf Basis der Daten des eigenständigen Informationsaustauschs zwischen Produktionsmaschinen, Lagersystemen und Betriebsmitteln entstehen, ergeben sich diverse Vorteile: Produkte können effizienter hergestellt werden und die Produktqualität kann verbessert. Der Energieverbrauch kann optimiert werden, da die einzelnen Teilnehmer eines IoT-Netzwerks nur dann aktiv sind, wenn sie wirklich benötigt werden. Durch die Nutzung moderner Technologien wird der Arbeitsplatz auch für die Mitarbeiter attraktiver. Zudem können Produkte kundenindividueller hergestellt werden, wodurch die Kundenbindung verbessert wird.

Von entscheidender Bedeutung beim IoT ist das Thema Sicherheit. Schließlich können Hacker nicht nur Daten stehlen oder verändern, sondern auch die Steuerung der Dinge übernehmen. Das Gefahrenpotenzial etwa im E-Health-Bereich oder bei Steuerungssystemen eines Kraftwerks ist daher außerordentlich.

Abteilung Produktion & Fertigung

Einfluss der Digitalisierung auf Produktion & Fertigung

von Andreas Fuhrich

Unter dem Begriff Industrie 4.0 subsumiert die Bundesregierung diverse technologische Trends wie Maschine-zu-Maschine-Kommunikation und das Internet der Dinge. Sie erwartet, dass die Organisation und Steuerung der gesamten Wertschöpfungskette über den kompletten Lebenszyklus hinweg sich durch den Einzug neuer Technologien verändern wird. Grundlage bildet dabei die  Verfügbarkeit aller notwendigen Informationen in Echtzeit, durch die Vernetzung aller beteiligten Instanzen. (1)

Der Trend geht dabei weg von standardisierten, hin zu individuellen, auf den Kunden zugeschnittenen, Produkten. Durch die Möglichkeiten des 3D-Drucks und sogenannter Smart Factories  kann der Endkunde jetzt selbst unmittelbar Einfluss auf die Fertigung des Produkts nehmen, etwa über eine einfach zu nutzende CAD-Software, welche ihm kostenlos zum download bereitgestellt wird.

Cyber-physische-Fertigungseinheiten kommunizieren über das Internet der Dinge in Echtzeit sowohl miteinander als auch mit der Fertigungsanlage. Auf diese Weise werden die miteinander vernetzten Produktionsbestandteile in die Lage versetzt jederzeit auf Veränderungen zu reagieren, ohne dass die Produktionskette hierfür unterbrochen werden muss. Individuelle Kundenwünsche können auf diese Weise kosteneffizient umgesetzt werden.

Die Struktur der Vernetzung kann jedoch auch über einzelne Fertigungsanlage hinaus erweitert werden, so dass ganze selbst organisierende, unternehmensübergreifende Wertschöpfungsnetzwerke entstehen. Diese Netzwerke lassen sich beispielsweise nach Kriterien wie Kosten, Verfügbarkeit oder Ressourcenverbrauch optimieren. Die Fähigkeit, die Datenmenge der Cyber-physischen-Systeme (BigData) effektiv zu analysieren und daraus Optimierungsschritte abzuleiten wird in diesem Zusammenhang immer wichtiger.  Aufgabenbereiche von traditionellen Produktionsmitarbeitern und Wissensarbeiter, wie z.B. Datenanalysten, werden weiter zusammen wachsen. Die Erfahrung der Produktionsmitarbeiter kann in Kombination mit Big Data dazu genutzt werden Produkte weiter zu entwickeln oder neue Produkte zu fertigen. Zusätzlich können selbstlernende Systeme die in der Wertschöpfungskette entstehenden Daten laufend analysieren und darauf aufbauend die Prozesse optimieren. Unwirtschaftliche Fertigungsschritte werden durch die Analysemöglichkeiten besser erkannt und immer häufiger aufgelöst bzw. durch externe Zulieferer ersetzt. Der Komplexitätsgrad eines Unternehmens wird weiter steigen und die Vernetzung von Unternehmen nimmt immer weiter zu. Auf Plattformen entstehen bereits branchenspezifische Eco-Systems mit sich ergänzenden Dienstleistungen unterschiedlicher Unternehmen. Die Fertigungstiefe innerhalb des Unternehmens nimmt ab, dafür steigt der Aufwand die Zulieferer zu steuern und zu kontrollieren.

Entscheidend  wird daher in Zukunft der Umgang  mit kurzzyklischen Schwankungen der Märkte sein,  die zum einen aus der steigenden internationalen Vernetzung  resultieren, aber auch aus der Anforderung immer nach Kundenauftrag zu arbeiten. Der wichtigste Erfolgsfaktor für Produktionsunternehmen wird durch Vernetzung und Echtzeitanalyse der Produktion die schnelle Reaktion auf Kundenanforderungen sein. (2)

Die zunehmende Automatisierung von Produktion und Fertigung sowie das Internet der Dinge bietet auch in puncto Nachhaltigkeit ein enormes Potential. Maschinen laufen nur dann, wenn sie wirklich benötigt werden, intelligente Heiz- und Kühlsysteme regulieren die Temperatur bei höchster Ressourcenseffizienz und mittels Bodensensoren kann jeder einzelne Fleck eines Feldes optimal gedüngt und bewässert werden, um nur einige Beispiele zu nennen.
Tipp: Durch die Ersparnis an Rohstoffen und Energiekosten können sich Ausgaben in solche Technologien schon nach kurzer Zeit amortisieren.

Trends

1. Predictive Maintenance
Hersteller von Fertigungsmaschine sind durch das Internet der Dinge in der Lage Predictive Maintenance (vorausschauende Instandhaltung) anzubieten.  Über Sensoren erfassen die Maschinen kontinuierlich eigene  Zustandsdaten und übertragen diese anschließend in die Cloud des Herstellers. Dort werden die verschiedenen Daten stetig analysiert um rechtzeitig Verschleißteile auszutauschen oder bei Auffälligkeiten und auf Störung hindeutenden Mustern entsprechende Maßnahmen zu ergreifen. Produktionsausfälle durch plötzliche Standzeiten und unvorhergesehene Ausfälle werden dadurch vermieden.

2. Farming 4.0
Durch die Digitalisierung, dem Internet der Dinge und dem Einsatz cyber-physischer Systeme, entstehen auch in der Landwirtschaft Möglichkeiten nahezu sämtliche Produktionsprozesse neu zu gestalten. IoT –Sensoren erfassen beispielsweise die Menge der gegebenen Milch so wie Daten über den Stoffwechsel. Aufbauend auf diesen Daten lässt sich der optimale Melkzeitpunkt für jedes Tier ermitteln. Außerdem werden dadurch auch Krankheiten früh erkannt.

3. Augmented Reality (AR)
Unter Augmented Reality versteht man die computergestützte Erweiterung der Realitätswahrnehmung. Vor allem visuelle AR-Devices werden immer häufiger in der Produktion eingesetzt.  Hier können beispielsweise AR-Brillen dem Träger wichtige Informationen zur Verfügung stellen, wie etwa millimetergenaue Positionsdaten für das nächste Einbauteil, oder auch eine Schritt-für-Schritt-Anleitung.

4. Individualisierung
Während früher Ingenieure aufwendig die Maschinensteuerung für unterschiedliche Produkte anpassen mussten, genügt mittlerweile eine einfachere Benutzeroberfläche. Ausgeklügelte Automatismen intelligenter Maschinen übernehmen dann autonom die Fertigung. Durch Smart Factories und 3D-Druck wird so sogar der Endkunde in die Lage versetzt selbst zum Produzenten zu werden. Kleinserien und Einzelstücke lassen sich kostengünstig herstellen. Individuelle Wünsche, z.B. im Oberflächendesign, lassen sich selbst kurzfristig noch ändern und realisieren, ohne dass dafür die Produktion heruntergefahren werden müsste.

5. Kollaborierende Roboter (Cobots)
Kollaborierende Industrieroboter entlasten in einem gemeinsamen Arbeitsprozess den Menschen und unterstützen ihn bei seiner Tätigkeit. Durch kognitive Systeme werden sie zudem in die Lage versetzt die Bedürfnisse der Mitarbeiter selbst zu erkennen und dementsprechend zu reagieren. So können sie beispielsweise schwere Gegenstände heben um die Montage zu erleichtern oder auch benötigte Ersatzteile und Werkzeuge beschaffen.

Quellen und Textlizenz:
(1) Platform Industrie 4.0: Umsetzungsstrategie Industrie 4.0 April 2015, Seite 8. URL https://www.bmwi.de/BMWi/Redaktion/PDF/I/industrie-40-verbaendeplattform-bericht,property=pdf,bereich=bmwi2012,sprache=de,rwb=true.pdf (Abgerufen 5. Dezember)
(2) Fallstudienarbeit „Einsatz von Big Data im Bereich Produktion“ von Stefan Schulte, Nicolai Schütte, 2015. URL https://winfwiki.wi-fom.de/index.php/Einsatz_von_Big_Data_im_Bereich_Produktion (Abgerufen: 5. Dezember 2016);

Lizenz: https://www.gnu.org/licenses/fdl-1.2

Optimierte Infrastruktur treibt die digitale Transformation an

Unternehmen aller Größen müssen eine Antwort darauf finden, wie sie die digitale Transformation umsetzen, um zukunftsfähig zu werden. TREND REPORT sprach dazu mit Jürgen Metko, Regional Vice President Web Sales & Managing Director Central Europe bei Akamai, und Sven Klindworth, bei BT für das IT-Lösungsgeschäft in Deutschland und Österreich verantwortlich.

Die digitale Transformation ist ein schillernder Begriff. Was verstehen Sie darunter?

Jürgen Metko

Jürgen Metko: Die digitale Transformation ist ein zentraler Faktor für die Differenzierung und Wettbewerbsfähigkeit der Unternehmen. Sie hat Auswirkungen auf das Geschäftsmodell, die Prozess- und die gesamte Wertschöpfungskette. Im Kern geht es um die Entwicklung einer digitalen Unternehmensstrategie. Geschäftsmodell und Prozesse beschreiben die digitale Transformation, bei der die Wertschöpfung ausschließlich im Internet stattfindet. Das lässt sich am Beispiel der sogenannten Cloud-born-Unternehmen wie Airbnb und Uber illustrieren. Sie haben ihre gesamte Wertschöpfungskette im Internet aufgebaut. Aber auch bei den traditionellen Unternehmen zeigt sich ein klarer Trend, dass immer mehr Geschäftsprozesse – und das gilt insbesondere für die Services mit Kunden, Lieferanten und Geschäftspartnern – über das Internet erfolgen.
Sven Klindworth: Ich möchte das um zwei Aspekte ergänzen. Vor allem im B2C-Markt haben es die etablierten Unternehmen mit neuen Wettbewerbern zu tun. Die Cloud-born-Anbieter drängen sich zwischen die Hersteller von Produkten und den Endkunden. Sie brechen die bisherigen Beziehungen zwischen Herstellern und Kunden auf und schaffen Plattformen, auf denen dann der gesamte Mehrwert entsteht, etwa im Buchhandel, in der Musik- und Filmbranche oder im Reisegeschäft. Im B2B-Markt haben auch etablierte Anbieter die Initiative ergriffen. Unternehmen aus dem produzierenden Gewerbe statten ihre Produkte mit Funkchips aus und verkaufen keine Produkte mehr, sondern Services wie Predictive Maintenance oder Echtzeit-Support. Der Hersteller einer Schlagbohrmaschine verkauft keine Ersatzteile mehr, sondern Löcher; und Anlagen, die früher auf eine fünfjährige Nutzungsdauer ausgelegt waren, können per Online-Softwareupdate neue Funktionen erhalten, die vielleicht zehn oder mehr Jahre Investitionsschutz bieten.

Welche Rolle spielt die Cloud bei der digitalen Transformation?
Jürgen Metko: Die digitale Transformation beschreibt den fundamentalen Wandel von Unternehmen hin zu einer mit Kunden, Lieferanten und Geschäftspartnern vollständig vernetzten Organisation. Sowohl im B2C- als auch im B2B-Umfeld sind Anwendungen und Services über das Web zugänglich. Cloud-Technologien bilden daher das Herzstück der digitalen Transformation.
Sven Klindworth: Die digitale Transformation ist ohne die Cloud nicht möglich; vor allem auch deshalb, weil die digitale Transformation nicht auf einen Ort oder einen lokalen Markt beschränkt ist. Wenn Unternehmen neue Marktsegmente und Regionen erschließen wollen, stellt die Cloud die dafür benötigte Daten- und Kommunikationsinfrastruktur bereit. Die GPS-Daten, die die Laufschuhe des Privatkunden, oder die Daten des Reifendrucks, die die Lkws der Logistikunternehmen senden, können nur in der Cloud orts- und zeitnah verarbeitet und ausgewertet werden.

Sven Klindworth

Wie können Sie Unternehmen bei der digitalen Transformation unterstützen?
Jürgen Metko: Unternehmen müssen ihre IT – und das betrifft sowohl das eigene Rechenzentrum als auch die Integration und Nutzung von Cloud-Services – so aufstellen, dass sie zu einem reibungslosen „Enabler“ der digitalen Transformation wird. Durch die Einbeziehung von Cloud-Architekturen zur Bereitstellung von Applikationen, Daten und Services auf beliebigen Endgeräten, und oft weltweit, stellen sich für Unternehmen neue Herausforderungen bezüglich Performance, Verfügbarkeit und Sicherheit. Diese können sie allein meist nicht bewältigen. Wer Webapplikationen oder Cloud-Services für Kunden und Lieferanten anbietet, sollte über die Nutzung eines weltweit verteilten „Content Delivery Networks“ (CDN), wie der Akamai Intelligent Platform, sicherstellen, dass die benötigten Kapazitäten auch in Spitzenzeiten flexibel und zuverlässig bereitstehen.
Sven Klindworth: Zuerst einmal bieten wir unseren Kunden im Regelfall dringend benötigte Beratung bei der Entwicklung und Implementierung ihrer Digital-Transformation- und Cloud-Strategie. Darüber hinaus verfügt BT in Deutschland wie auch weltweit über eine eigene Netzinfrastruktur und Rechenzentren, aus denen IT-Services für Unternehmen erbracht werden. Über ein weltweites IP-Netzwerk erhalten Kunden in über 190 Ländern Zugriff auf Data-Center-Services und IT-Lösungen aus einer Hand. In Gemeinschaftsprojekten ergänzen wir uns mit Akamai. Unsere Kunden bringen ihr fachliches und Branchen-Know-how in Digitalisierungsprojekte ein. BT berät und stellt die Rechenzentren, Cloud-Services und Netzwerkkapazitäten bereit und Akamai sorgt mit seinen Web-Performance- und Security-Lösungen für die verlässliche Auslieferung von Daten und Services über das Internet. Zusammen mit Akamai bieten wir Komplettlösungen, die es Unternehmen ermöglichen, ihre Geschäftsmodelle im Internet erfolgreich umzusetzen.

Kernaussagen

  • Digitale Transformation ist ein entscheidender Faktor zur Stärkung der Wettbewerbsfähigkeit. Bei der Umsetzung neuer Geschäftsmodelle und -prozesse stellt die Cloud die benötigte Kommunikationsinfrastruktur bereit. Cloud-Technologien bilden so das Herz­stück der digitalen Transformation.
  • Mit einem verlässlichen Partner an der Seite sollten Unternehmen jetzt einen Proof of Concept starten, erste Erfahrungen sammeln und das Wissen möglichst rasch in weiteren Projekten umsetzen.
  • In vielen Branchen gibt es bereits einen Chief Digital Officer, der die digitale Transformation vorantreibt. Er sollte über ein fundiertes technisches und betriebswirtschaftliches Know-how verfügen sowie ein Gespür für innovative Ideen mitbringen.

Welche Herausforderungen gibt es für Unternehmen bei der digitalen Transformation?
Sven Klindworth: Bei der Umsetzung der digitalen Transformation lassen sich drei Gruppen unterscheiden: Erstens die allgemein bekannten Cloud-born-Vorbilder und zweitens die Vorreiter unter den etablierten Unternehmen wie Bosch. Der Automobilzulieferer betreibt eine eigene Cloud für internetbasierte Services und stellt dort Anwendungen aus den Bereichen vernetzte Mobilität, vernetzte Industrie und vernetzte Gebäude bereit. Die dritte Gruppe, sehr viele andere Unternehmen, warten ab und wissen nicht, wie sie anfangen sollen. Das betrifft vor allem die Hidden Champions unter den mittelständischen Unternehmen. Sie sind ingenieursmäßig hervorragend aufgestellt, erkennen aber nicht die Chancen, die sich für ihr Unternehmen aus der digitalen Transformation ergeben. Auch sind Ingenieure im Maschinenbau im Regelfall keine Softwareentwickler.
Jürgen Metko: Wir haben in Deutschland eine bedeutende Fertigungsindustrie mit sehr viel Know-how. Eine der Herausforderungen besteht darin, Schritt zu halten mit der Geschwindigkeit, mit der sich Businessmodelle und Geschäftsprozesse ändern. Hier tun sich viele schwer. Andere Branchen, vor allem aus dem B2C-Bereich, haben einen „Chief Digital Officer“ (CDO) ernannt, der die Digitalisierung vorantreiben soll.

Brauchen Unternehmen einen CDO oder kann die IT den digitalen Wandel alleine vorantreiben?
Jürgen Metko: Die meisten Unternehmen haben erkannt, dass sie sich mit der digitalen Transformation befassen müssen, aber es mangelt an einem Plan, wie sie die weitere Digitalisierung anpacken sollen. Der CDO sollte ein Gespür für innovative Geschäftsideen mitbringen, aber auch über ein fundiertes technisches und betriebswirtschaftliches Know-how verfügen.
Sven Klindworth: Dem kann ich mich nur anschließen. Die digitale Transformation ist nicht allein die Sache eines CIO, auch wenn sich dessen Rolle hin zu einer viel stärkeren proaktiven Unterstützung der Fachbereiche entwickelt. Er ist mit Datacentern, Applikationen und Netzen oft schon ausgelastet. Stärkeres unternehmerisches Denken und Querdenken, um beispielsweise das Potenzial von Industrie 4.0 und dem Internet of Things zu erkennen und mit branchenspezifischem Know-how zu kombinieren, erfordert die zusätzliche Rolle des CDO. Diesem kommt zusätzlich der Aufbau einer Partnerlandschaft zu, die man gegebenenfalls braucht, um eine Plattform für Kunden, Lieferanten und Geschäftspartner aufzubauen.

Definition „Content Delivery Network“

Ein „Content Delivery Network“ (CDN) ist ein geografisch verteiltes, aus einer Vielzahl spezieller Server bestehendes Netzwerk. Unternehmen nutzen es für eine schnelle, zuverlässige und sichere Auslieferung von Websites, Web-Applikationen und Unterhaltungsangeboten für Privat- und Geschäftskunden. Akamai betreibt das weltweit größte CDN mit mehr als 220 000 Servern in über 120 Ländern. Um Webinhalte möglichst zügig an die Endbenutzer ausliefern zu können, nutzt das CDN das Edge-Caching. In einem Zwischenspeicher werden auf den Edge-Servern Kopien von Texten, Bildern, Audio­dateien und Videos vorgehalten. Nutzeranfragen können so von einem nahe gelegenen Edge-Server anstatt von einem geografisch entfernten Ursprungs-Server beantwortet werden. Zur schnellen Bereitstellung von Inhalten kommen darüber hinaus Techniken wie Routenoptimierung und TCP-Verbindungsoptimierung zum Einsatz.

Welche Handlungsempfehlungen können Sie Unternehmen geben?
Sven Klindworth: Nach einer Phase der Information und Diskussion ist es jetzt Zeit zu handeln. Unternehmen sollten mit einem verlässlichen Partner an ihrer Seite einen Proof of Concept starten und Erfahrungen sammeln. Sie werden sicherlich im ersten Anlauf nicht alles richtig machen, aber wertvolle Erkenntnisse erwerben, um dann die nächsten Stufen zu starten. Unternehmen eröffnen sich damit Möglichkeiten, ihre Geschäftsmodelle und Services in Richtung Kunden weit attraktiver und damit profitabler zu gestalten und können agiler auf neue Anforderungen in ihren Märkten reagieren. Wer hingegen jetzt zögert, könnte in wenigen Jahren vom Markt verschwunden sein.
Jürgen Metko: Unternehmen sollten durch einen effizienten Einsatz der Cloud die notwendigen Rahmenbedingungen schaffen. Dazu gehört, dass die Applikationen und Services stets performant und ohne Unterbrechungen zur Verfügung stehen – unabhängig vom Standort und dem verwendeten Endgerät. Möglichst viele Daten und Services sollten daher auf den Servern eines verteilten CDNs dezentral und regional bereitstehen, um von dort an Unternehmens- und Privatkunden ausgeliefert zu werden. Zudem sollten die „digitalen Assets“ wie Webseiten, Applikationen und Infrastrukturen vor Ausfallzeiten und Datendiebstahl geschützt werden. Eine mehrstufige Sicherheitsstrategie bietet dabei einen hohen Schutz. Sie reicht vom eigenen Rechenzentrum oder dem eines IT-Dienstleisters bis in die Cloud. Eine cloudbasierte Lösung wirkt dort, wo die Angriffe entstehen, und wehrt beispielsweise DDoS-Angriffe ab, bevor sie die IT-Infrastruktur und die darauf laufenden Applikationen und Services aus dem Bereich der digitalen Transformation erreichen.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Sven Klindworth

Informationen zu Jürgen Metko