Schlagwortarchiv für: Geschäftsmodelle im Fokus

Abteilung IT

Die Zukunft der IT-Abteilung liegt in der Automatisierung.

von Dr. Ralf Magagnoli

Die Prophezeiungen der Auguren waren teils düster: „Die IT-Abteilung vor dem Aus retten“, titelte etwa die Computerwoche im Oktober 2018. Sicher ist nur, die IT-Abteilung wird sich wandeln, sie wird neue Aufgaben übernehmen und alte delegieren müssen. Welche Trends sind gegenwärtig erkennbar, die auf die IT-Abteilungen einwirken und mit denen sich die IT-Abteilungen befassen müssen? Wie wirken sich vor allem Automatisierung und Digitalisierung auf die Arbeit der IT-Abteilungen aus?

Der „Chief Digital Officer“ (CDO)

In vielen Unternehmen gibt es ihn bereits als Hauptverantwortlichen der Digitalisierungsstrategie im Unternehmen. Der CDO gehört der obersten Hierarchieebene an. Zu seinen Aufgaben gehören die Analyse der Ist-Situation in den Unternehmen, die Entwicklung einer digitalen Strategie, die Bereitstellung der notwendigen Ressourcen für die digitale Transformation, die Beaufsichtigung des Wandels, die Beobachtung neuer Entwicklungen und die etwaige Übernahme in das bestehende digitale System. Kritisiert wird eine oftmals unklare Rollenverteilung in vielen Unternehmen. Hier gilt es, klare Regeln und Verantwortlichkeiten zu definieren und dem CDO die Möglichkeit zu geben, die digitale Transformation umzusetzen.

Strukturveränderung

Möglicherweise wird sich die Struktur der IT-Abteilung selbst drastisch verändern. Zwei Möglichkeiten stehen hier zur Disposition: Der Analyst Forrester Research schreibt, dass sie möglicherweise in einen Frontend- und einen Backend-Teil, welcher dann an eine Shared-Services-Abteilung berichtet, zerfallen werde. Eine weitere Möglichkeit besteht darin, dass die IT als eigenständige Einheit auf die verschiedenen Abteilungen im Unternehmen aufgeteilt wird. Gut möglich aber auch, dass die IT-Abteilung weitgehend in der bisherigen Form erhalten bleibt. Sicher ist nur, dass, wie auch in anderen Abteilungen, die Anforderungen an die Mitarbeiter in puncto Agilität, Fähigkeit, über den eigenen Tellerrand zu schauen, und Bereitschaft zum Kulturwandel wachsen werden. Anders ausgedrückt: Nerds und „Das haben wir schon immer so gemacht“-Typen werden immer weniger gefragt sein.

Modernisierung der Legacy-Systeme

Unter Legacy-Systemen werden die über Jahre, teilweise über Jahrzehnte gewachsenen IT-Infrastrukturen verstanden, die oft als Altlasten ein Hindernis für die Zukunftsfähigkeit der Unternehmen sind. Dies in zweifacher Hinsicht: Zum einen im Hinblick auf die Geschäftsprozesse, zum anderen auch in finanzieller Hinsicht, denn die Versuche, die IT-Kosten zu senken, führen zu einem Investitionsstau, dessen Folge archaische Systeme sind, deren Wartungskosten steigen, womit wiederum weniger Gelder für Investitionen zur Verfügung stehen. Ein Teufelskreis, den es zu durchbrechen gilt. Hier bietet sich die Verlagerung von Software und Infrastruktur in die Cloud an, die von spezialisierten Dienstleistern auch vorgenommen wird.


Für die IT-Abteilung wie für die Unternehmen wird es darauf ankommen, den Spagat zwischen inkrementeller und disruptiver Methode zu meistern

Ralf Magagnoli

Microservices

Hier kommen oft Standardsysteme mit adaptiven Architekturen zum Einsatz. Diese Dienste sind so konzipiert, dass sie mit den Anforderungen wachsen und zudem einen modularen Aufbau ermöglichen, was wiederum ein „Plug and play“ mit selbst entwickelten, meist allerdings zugekauften Komponenten erlaubt. Über Continuous Integration / Continuous-Deployment-Pipelines sind zudem agilere, produktzentrierte Betriebsmodelle möglich. Zugleich sollten Unternehmen die Risiken im Auge behalten, die sich über eine zu schnelle Übernahme von Standardsystemen ergeben – nämlich, dass der USP unter Umständen verloren gehen kann. Auch hier ist eine „smarte“ Kombination von Standardisierung und Customizing gefordert.

„Software as a Service“ und „Infrastructure as a Service“

Auch dieser Punkt hängt mit den beiden vorangehenden Punkten zusammen. Nicht nur die Software, sondern die gesamte Infrastruktur wird in die Cloud verlagert und, meist von einem spezialisierten Dienstleister, zur Verfügung gestellt. Die Unternehmen brauchen also weder Software zu entwickeln oder einzukaufen noch Rechnerinfrastrukturen aufzubauen, sondern mieten diese. Betrieb und Wartung liegen beim Dienstleister. Tendenziell bestehen die Rechner in den Unternehmen dann aus Thin Clients: Die Anwender greifen dann per Webbrowser auf die Anwendungen in der Cloud zu. Die Vorzüge: Kalkulierbare Kosten (Miete) und Konzentration aufs Kerngeschäft. Dennoch haben immer noch viele Unternehmen Hemmungen, unternehmenskritische Anwendungen Dritten zu überlassen.

Internet of Things (IoT)

Hier besteht ein Unterschied zwischen der Erwartungshaltung – wie bedeutsam ist IoT für das Unternehmen, wie bedeutsam wird IoT für das Unternehmen werden? – und der Umsetzung. Während laut einer aktuellen IDC-Studie rund 43 Prozent der Befragten in Unternehmen IoT für sehr wichtig bzw. wichtig halten und über 63 Prozent glauben, dass die Bedeutung in Zukunft sehr hoch bzw. hoch sein wird, haben nur rund 20 Prozent der Unternehmen IoT-Projekte umgesetzt. Ziel des IoT ist es, die Lücke zwischen der realen und der virtuellen Informationswelt zu schließen, die dadurch entsteht, dass die in der realen Welt verfügbaren Informationen im Internet nicht abrufbar sind. Das hat Auswirkungen zum Beispiel auf den Kundendialog, der mittels IoT über sogenannte Connected Products verbessert wird, was wiederum die Optimierung bestehender und die Kreierung neuer Produkte zur Folge hat. Beispiel: Der Sportartikelhersteller, dessen Turnschuh sich je nach Laufgeschwindigkeit aufpumpt bzw. fester schnürt. Wichtige Daten werden über Sensoren nicht nur an den Kunden, sondern auch an den Hersteller weitergeleitet. Tritt ein Problem auf, kann der Hersteller schnell reagieren und Verbesserungen an dem Produkt vornehmen.

Industrial Internet of Things (IIoT)

Es geht um den Einsatz von IoT im industriellen Bereich, bspw. im produzierenden Gewerbe, im Gesundheitswesen, in der Energiewirtschaft oder im Agrarwesen. Hierbei gilt es, Daten über den gesamten Informationsprozess zu erfassen und zu kontrollieren. Beispiel Produktion. Das Stichwort hier lautet etwa Predictive Maintenance: Die Maschinen geben Zustandsdaten, die eine proaktive Wartung ermöglichen. So etwa, im kostengünstigen Fall, der Tintenstrahldrucker, der vorab informiert, wann der Füllstand unterschritten wird. Bedenkt man, dass bei komplexeren Maschinen ein Ausfall auch nur von zwei oder drei Stunden teuer werden kann, rechnet sich die Predictive Maintenance. Das IIoT umfasst aber auch die Verbesserung und Kontrolle der Supply Chain, die Sicherstellung der Energiezufuhr über Smart Grids, intelligente, dezentrale Verteilnetze oder Werte bzgl. Raumtemperatur, Luftqualität und Ozongehalt in Produktionsstätten.

Data Science

Als Data Science wird die Extraktion von Wissen aus Daten bezeichnet. Angesichts der auch durch IoT und IIoT dramatisch erhöhten Datenmenge kommt dieser Extraktion eine besondere Bedeutung zu, sodass Spezialisten – meist Absolventen der einschlägigen Studiengänge – sehr gefragt sind. Data Scientists benötigen im Prinzip Kenntnisse in fünf Bereichen: Diese reichen von der ersten Schicht, der „Database Technology“, über die zweite Schicht, die „Data Access & Transformation“, die dritte Schicht, die „Programming Language“, die vierte Schicht, die „Data Science Tool & Library“, die fünfte Schicht, die „Data Science Method“, bis zur Fachexpertise im jeweiligen Fachbereich – also etwa der Ingenieurswissenschaft oder der Betriebswirtschaft. Erst wenn ein Mindestmaß an Fachwissen vorhanden ist, kann der Data Scientist die Fachspezialisten gezielt unterstützen. In kleineren Unternehmen wird im Allgemeinen der Data-Science-Allrounder gesucht, der imstande ist, das gesamte Aufgabenspektrum zu übernehmen, das in größeren Unternehmen von den jeweiligen Spezialisten im jeweiligen Bereich übernommen wird.

Digitale Ökosysteme

Oikos im Altgriechischen bedeutet Haus, sýstema das Verbundene. Auch wenn die Abgrenzung digitaler Ökosysteme nicht ganz einfach ist, kann als ihr Ziel das Überwinden komplexer Herausforderungen durch Imitation biologisch-komplexer Systeme genannt werden. Ein digitales Ökosystem, das sich prinzipiell durch Offenheit auszeichnet, setzt sich aus heterogenen Akteuren unterschiedlicher Branchen und Disziplinen zusammen. Hier wird die Aufgabe der IT-Abteilung darin bestehen, die Einbindung des Unternehmens in ein solches digitales Ökosystem zu gewährleisten und die Stabilität dieses heterogenen Netzwerks bei gleichzeitiger Offenheit zu ermöglichen.


Quelle: Computerfutures
https://www.computerfutures.com/de/blog/2018/02/die-zukunft-der-it-abteilung

Automatisierung / „Robotic Process Automation“ (RPA)

Darunter werden virtuelle Mitarbeiter verstanden, die ähnlich den physisch existenten Robotern der klassischen Prozessautomatisierung bestimmte Aufgaben erfüllen. Es handelt sich dabei um Software-Agenten, die menschliches Handeln nachahmen. Dabei kann der Aufgabenbereich der jeweiligen Software-Agenten eher einfache Aufgaben wie das Versenden von Sammelmails, aber auch komplexere Aufgaben erfüllen. Der Vorteil von RPA liegt u. a. darin, dass über Kostenreduktionen Insourcing bestimmter Aufgaben wieder interessant werden kann. Problematisch kann RPA dort werden, wo keine klaren Verantwortlichkeiten benannt sind – für Wartung, Upgrades – oder wo Mitarbeiter an der Konfiguration mitarbeiten sollen, die durch die Anwendungen ersetzt werden sollen. Wichtig ist es, den richtigen Anbieter auszuwählen, der entsprechende Erfahrungen mit RPA-Projekten vorweisen kann, die in der Regel in verschiedenen Schritten vorgenommen werden: Analyse der Arbeitsprozesse (oft über Filmaufnahmen), Definition der Automatisierung, Umsetzung, Erfolgskontrolle.

Künstliche Intelligenz / Machine Learning

Machine Learning ist ein Aspekt künstlicher Intelligenz, wenngleich ein zentraler. Über maschinelles Lernen wird ein Computer in die Lage versetzt, ein selbstlernendes System zu werden, ohne ihn entsprechend zu programmieren. Auch hier wird, ähnlich dem digitalen Ökosystem, die Natur zum Vorbild genommen, etwa über „Rückmeldungen“ Objekte zu identifizieren. Dies geschieht mittels selbstlernender Algorithmen, die in Daten bestimmte Muster und Gesetzmäßigkeiten erkennen. Die Intelligenz besteht darin, ähnlich der menschlichen Intelligenz, Dinge miteinander zu verknüpfen, Zusammenhänge zu erkennen und Rückschlüsse zu ziehen. Entsprechende Programme tragen dazu bei, dass aufwendige und langweilige Arbeiten vom Rechner erledigt werden – dies gilt etwa für die Papierdokumentation.

Digital Workplace

Die Arbeitswelt verändert sich stetig. Vorbei die Zeiten, als der Beschäftigte um acht Uhr das Büro betrat und um siebzehn Uhr das Büro verließ (eine Stunde Mittagspause), wobei die Stempeluhr die Arbeitszeit dokumentierte. Heutzutage verschwimmen tendenziell die Grenzen zwischen Arbeitszeit und Freizeit. Über den Digital Workplace können Mitarbeiter von jedem Ort und zu jeder Zeit auf die Unternehmensanwendungen zugreifen, egal ob vom Rechner im Homeoffice, vom Tablet im Zug oder vom Smartphone am Strand. Das Zauberwort heißt selbstbestimmtes (und damit effektiveres) Arbeiten.

Endpoint-Security / Endpoint-Protection

Dass sich durch Homeoffice-Arbeitsplätze angesichts immer anspruchsvollerer Vorgaben des Gesetzgebers – hier sei etwa die Datenschutzgrundverordnung (DGSVO) genannt – die Anforderungen an die Compliance erhöhen, versteht sich von selbst. Ein Ansatz ist die sogenannte Endpoint-Security oder Endpoint-Protection, über die Netzwerke von Laptops, Tablets, Handys und anderen Geräten gesichert werden sollen. Die Rechtevergabe obliegt dem Systemadministrator, der auch deren Einhaltung überprüft. Dabei können Vergehen gegen die Datensicherheit – etwa unbefugte Zugriffe auf sensible Daten – sofort verfolgt und geahndet werden – wichtig gerade im Hinblick auf die Wirtschaftsspionage. Es bestehen Verbindungen zum Cloud-Computing (Software as a Service, Infrastructure as a Service) und den Thin Clients im Unternehmen.

Self-Service (Low Code)

Low-Code-Plattformen sind grafische Entwicklungsinstrumente für Geschäftsapplikationen. Sie ermöglichen es, Softwareprogramme schnell und leicht zu erstellen und anzupassen. Dazu sind weder spezielle Programmierkenntnisse noch größere Erfahrungen nötig. Über offene Schnittstellen lassen sich bestehende Technologien und Anwendungen meist problemlos nutzen. Die Vorteile liegen auf der Hand: Die Unternehmen sind weniger abhängig von externen Dienstleistern, die Programme werden bis zu zehn Mal schneller erstellt, sie können auch von Mitarbeitern der Fachabteilungen geschrieben werden, wodurch sich der Graben zwischen IT-Abteilung und Fachabteilung verringert, die internen Entwickler können sich um die komplexeren Aufgaben kümmern.

Inkrementelle vs. disruptive Innovation / Bimodale IT

Während es beim inkrementellen Ansatz um schrittweise Optimierungen und Kostensenkungen geht (Beispiele Digital Workplace, Software as a Service, RPA), setzt der disruptive Ansatz auf dramatische Änderungen meist ganzer Geschäftsmodelle. Dementsprechend liegt im IT-Bereich die inkrementelle Innovation tendenziell beim CIO und der IT-Abteilung, während die disruptive Innovation eher Sache des Vorstands (und ggf. des CDO) ist. In den meisten Fällen geht es aber nicht um ein Entweder-oder, sondern um ein Sowohl-als-auch, da beide Ansätze ihre Vor- und Nachteile haben. Stichwort: Bimodale IT. Diese umfasst ein vorhersagbares Kernsystem einerseits und eine experimentelle, agile Form andererseits, die es erlaubt, mit den schnellen Veränderungen in der Geschäftswelt Schritt zu halten. Für die IT-Abteilung wie für die Unternehmen wird es darauf ankommen, den Spagat zwischen inkrementeller und disruptiver Methode zu meistern. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Künstliche Intelligenz ohne Vorurteile

Die Datenqualität bestimmt die Leistungsfähigkeit selbstlernender Systeme.

von Andrea Martin

Künstliche Intelligenz (KI) kreiert Tausende neue Möglichkeiten und stößt Türen in digitale Welten auf, die vorher unerreichbar waren. Um bei diesem Fortschritt nicht den Anschluss zu verpassen, investieren viele Unternehmen derzeit kräftig in Funktionalitäten, die die neue Technologie mit sich bringt. Von Chatbots, die Unternehmen helfen, Gespräche mit ihren Kunden zu personalisieren, bis hin zu Systemen, die jahrzehntelanges institutionelles Wissen für einen Fachexperten sofort zugänglich machen. Die Wunderwaffe von intelligenten KI-Systemen: Dort Muster zu erkennen und intelligente Vorhersagen aus erhobenen Daten zu treffen, wo die kognitiven Fähigkeiten des Menschen nicht mehr ausreichen.

Laut einer aktuellen Studie von IDC haben gut ein Viertel der befragten Unternehmen in Deutschland bereits KI-Projekte umgesetzt. 69 Prozent wollen in den nächsten zwölf Monaten neue KI-Initiativen anstoßen. Gebremst wird diese Entwicklung allerdings von einem mangelnden Vertrauen in die „denkenden Maschinen“. Viele machen sich Gedanken, ob sie den Ergebnissen einer KI-Lösung vertrauen können und ob die neue Technologie auch allen rechtlichen Vorschriften entspricht. Im Zentrum steht dabei die Frage, ob und wie sich die Entscheidungen von selbstlernenden Maschinen nachvollziehen und überprüfen lassen.

Unfaire Verzerrungen in den Daten identifizieren

Die Vision ist simpel: Statt sich auf menschliche Annahmen zu stützen, beispielsweise bei der Kreditvergabe oder bei der Vorauswahl im Bewerbungsprozess, beziehen sich die lernenden Maschinen auf statistische Modelle aus einer Vielzahl von Datenquellen und Parametern. Das Problem dabei: Enthalten die Daten unbewusste Vorurteile, Stereotype und altmodische Rollenbilder, werden diese von den lernenden Algorithmen nicht nur übernommen, sondern noch zusätzlich verstärkt.

Vertrauens- und Transparenzprinzipien

  • Der Zweck einer KI ist es, die menschliche Intelligenz zu erweitern und zu unterstützen.
  • KI-Systeme müssen transparent und erklärbar sein.

  • Daten und Erkenntnisse gehören ihren Schöpfern bzw. den jeweiligen Unternehmen, die das KI-System nutzen.

Wenn Fotos und deren Beschriftungen Kochen überwiegend mit Frauen in Verbindung bringen, dann lernt die Software Kochen immer als Frauentätigkeit zu erkennen. Die Maschinen denken dann genauso in Rollenklischees wie wir Menschen. Mitarbeiter müssen KI-Lösungen und die resultierenden Ergebnisse während der Entwicklung, der Trainingsphase und im Betrieb genau beobachten. Ziel ist, statistische und systematische Fehler zu erkennen, ggf. Gegenmaßnahmen zu ergreifen und deren Effekt zu überwachen.

Vielfalt menschlicher Gesichter stellt KI auf die Probe

Die Herausforderungen beim Training von künstlicher Intelligenz zeigen sich besonders bei der Gesichtserkennung. Es ist nicht einfach, Gesichtserkennungssysteme zu entwickeln, die in puncto Fairness unseren Erwartungen entsprechen. Der Kern des Problems liegt dabei nicht in der KI-Technologie selbst, sondern in der Art und Weise, wie die KI-gestützten Gesichtserkennungssysteme optimiert und trainiert werden.

Wie funktionieren neuronale Netze? 

Neuronale Netzwerke sind Rechenmodelle für das maschinelle Lernen, die von der Struktur des menschlichen Gehirns inspiriert sind. Im Gehirn sind Neuronen hochgradig vernetzt und kommunizieren chemische Signale über Synapsen in den Nervenzellen.

Künstliche neuronale Netze kommunizieren Signale (Zahlen) über Gewichte und Aktivierungsfunktionen (z. B. Sigmoide), die Neuronen aktivieren. Sie werden anhand von Beispielen trainiert und nicht explizit programmiert: Mithilfe eines Trainingsalgorithmus passen die Netzwerke in jeder „Trainingsrunde“ diese Gewichte an, um ein bestimmtes Problem immer besser zu lösen – das Netz „lernt“.

Um die gewünschten, immer exakteren Resultate zu erzielen, müssen die Trainingsdaten vielfältig sein und eine enorme Bandbreite an Informationen abdecken. Nur so kann die KI die Nuancen erkennen, durch die sich Gesichter in verschiedenen Situationen voneinander unterscheiden. Die Trainingsbilder müssen diese unterschiedlichen Gesichtsmerkmale der Gesichter widerspiegeln.

Ein Großteil der Leistungsfähigkeit von KI kommt heute durch den Einsatz von immer präziseren datengetriebenen Deep-Learning-Optimierungseinheiten, die immer größere Datenmengen nutzen können, um KI-Systeme zu trainieren. Die Stärke dieser Methode kann aber wie in den Beispielen dargestellt gleichzeitig auch eine Schwäche sein. Denn KI-Systeme lernen, was ihnen beigebracht wird. Werden sie nicht mit soliden und vielfältigen Datensätzen optimiert, können die Ergebnisse verzerrt werden, damit die Fairness leiden und letztlich auch die Genauigkeit.

Andrea Martin, CTO IBM

Anhand dieser Trainings-Datensätze weiß man jedoch, auf welcher Datengrundlage die KI-Systeme lernen und Entscheidungen treffen. Wie genau die neuronalen Netze aber zu ihren Schlussfolgerungen kommen, lässt sich im Moment noch kaum nachvollziehen. Für Nutzer sind sie oftmals eine Blackbox – undurchsichtig und schwer zu erschließen.

Zu einer transparenten Offenlegung der Entscheidungswege von KI gehört, dass jede Vorhersage, jede Modellversion und jegliche Trainingsdaten dokumentiert und gespeichert werden – und damit Unternehmen bei der auditsicheren Einhaltung von Compliance-Richtlinien und der DSGVO unterstützt.

Andrea Martin

KI-Empfehlungen transparent nachvollziehen

Zu einer transparenten Offenlegung der Entscheidungswege von KI gehört, dass jede Vorhersage, jede Modellversion und jegliche Trainingsdaten dokumentiert und gespeichert werden – und damit Unternehmen bei der auditsicheren Einhaltung von Compliance-Richtlinien und der DSGVO unterstützt.

Das ist besonders in stark regulierten Branchen wie dem Finanz- und Gesundheitswesen oder auch in datenintensiven und -sensiblen Branchen wie der Automobil- oder der Pharmaindustrie relevant, in denen die Einhaltung der DSGVO und anderer umfassender Vorschriften erhebliche Hindernisse für eine breite Anwendung von KI darstellt.

Ohne Ethik gibt es kein Vertrauen

Die Debatte um eine verantwortungsvolle Entwicklung und Nutzung von KI in Deutschland wird inzwischen auch auf höchster politischer Ebene adressiert. Die Bundesregierung begreift künstliche Intelligenz als Schlüsseltechnologie, ist sich jedoch ebenfalls über die gesellschaftlichen und ethischen Implikationen bewusst. Die „Strategie Künstliche Intelligenz“ greift daher die zentralen Fragestellungen auf und wird auch in der Enquete-Kommission „Künstliche Intelligenz“ des Bundestages diskutiert. Sie soll einen Rahmen bilden, wie sich KI gemeinwohlorientiert entwickeln und einsetzen lässt.

Enquete-Kommission

  • Setzt sich aus 19 Mitgliedern des Deutschen Bundestages und 19 sachverständigen externen Expertinnen und Experten zusammen

  • Untersucht die Potenziale und den zukünftigen Einfluss von KI auf unser (Zusammen-)Leben, die deutsche Wirtschaft und die zukünftige Arbeitswelt

  • Erörtert sowohl die Chancen als auch die Herausforderungen von KI für Gesellschaft, Staat und Wirtschaft

  • In öffentlichen Kurzvorträgen umreißen Sachverständige theoretische und praktische Aspekte rund um KI

  • Sitzungen werden im Internet auf www.bundestag.de live (zeitversetzt) übertragen

Um KI-Systemen vertrauen zu können, müssen wir verstehen, warum sie die Entscheidungen treffen, die sie treffen. Die Entwicklung von KI darf kein Selbstzweck sein, sondern muss dem Menschen dienen. Hier bedarf es Leitlinien, Prinzipien und Werte, die eine KI einhalten muss – ähnlich dem Grundgesetz. Denn Vertrauen und Akzeptanz kann nur durch einen vertrauensvollen Umgang mit KI aufgebaut werden. //

Kontakt zur Autorin

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Trends im digitalen Marketing

Vom Smart Speaker bis zum Influencer

von Matthias Wahl

Als Bundesverband Digitale Wirtschaft (BVDW) e. V. konnten wir 2018 weiterhin eine rasante Digitalisierung der gesamten Wirtschaft beobachten, beispielsweise auch der klassischen Industrie. Die digitale Transformation ist im Vergleich zum Vorjahr nochmals stark vorangeschritten, das sehen wir auch in der lebendigen Entwicklung unserer Mitgliederlandschaft. Player aus immer neuen Branchen stoßen zum BVDW und treiben die digitale Wirtschaft gemeinsam mit den Digital Natives voran. Themen wie künstliche Intelligenz und Blockchain haben ihre Nische längst verlassen und sind zu gesellschaftsrelevanten Themen geworden. Vor allem der Politik fällt es aber schwer, mit diesen Entwicklungen Schritt zu halten. Wir müssen leider feststellen, dass selbst der Breitbandausbau noch immer viel zu langsam vorangeht und dass digitale Bildung in Schulen noch zu selten umfassend stattfindet.

Digitales Marketing

Das digitale Marketing im Speziellen erhält derweil immer neue Möglichkeiten und wird gleichzeitig professioneller. Beispielsweise wurde 2018 ein neuer Code of Conduct Programmatic Advertising entwickelt, der für noch mehr Qualität und Transparenz im Markt sorgt. Mittlerweile haben ihn bereits Großunternehmen wie Google unterschrieben und auch Werbungtreibende sind dabei, ihre Arbeit danach auszurichten.

Im Bereich Markensicherheit haben 2018 die großen deutschen Verbände OWM (Online-Werbungtreibende im Markenverband) und der BVDW erstmals zusammen ein Brand-Safety-Whitepaper entwickelt, das gemeinsame Richtlinien für den Markt definiert hat. Eine solch übergreifende Zusammenarbeit hat es zu Brand-Safety bis dahin nicht gegeben.

Matthias Wahl, Präsident des BVDW

2018 war auch das Jahr der Smart Speaker um Amazon Alexa, Google Home, Telekom Magenta und Co. Immer mehr Deutsche nutzen digitale Sprachassistenten oder haben bereits Smart Speaker in ihren Häusern und Wohnungen stehen. Dadurch erhält Audio-Content einen deutlichen Schub, den Unternehmen für sich nutzen müssen. Das zeigen auch die Zahlen des neuen Online-Audio-Monitors. Einige Ergebnisse:

Trend 1: 6,6 Millionen neue Webradio- und Online-Audio-Hörer

Laut Online-Audio-Monitor(1) wächst Online-Audio weiter dynamisch: Von den aktuell 40,8 Millionen Nutzerinnen und Nutzern in Deutschland haben 16,3 Prozent Online-Audio erst in den letzten zwei Jahren für sich entdeckt. Das entspricht 6,6 Millionen Neunutzern bzw. Personen, die seit 2016 erstmals mindestens eines der vielfältigen Online-Audio-Angebote gehört haben. Unter den neuen Nutzern sind besonders viele Frauen (62 Prozent) und 30- bis 49-Jährige (44 Prozent). Damit nähert sich die Nutzerschaft von Online-Audio weiter dem Bevölkerungsdurchschnitt an.

Viele der Nutzer widmen sich intensiv den vielfältigen Online-Audio-Angeboten. Fast jeder Zweite von ihnen (44 Prozent) verbringt die Hälfte seiner Audio-Zeit mit Angeboten wie Webradio, Podcast bzw. Radiosendungen auf Abruf und Musikstreaming. Außerdem treibt Online-Audio die generelle Audio-Nutzungszeit: 23 Prozent der Online-Audio-Nutzer geben an, im Laufe des letzten Jahres mehr Audio genutzt zu haben im Vergleich zu 16 Prozent bei den Nichtnutzern von Online-Audio.

Zur Bedeutung von künstlicher Intelligenz befragte der BVDW 2018 seine Mitglieder.

Smart Speaker werden vor allem zum Abspielen von Radio- und Audio-Inhalten genutzt

Obwohl viele Anwendungen und Audio-Inhalte auch ohne die Installation spezieller Skills bzw. Actions über die Smart Speaker ansprechbar sind, haben 26,6 Prozent der Nutzer solche Programme eingerichtet – 85 Prozent davon für die Audionutzung. Anwendungen von Musikstreaming-Diensten und Radioplattformen liegen dabei mit 60 Prozent bzw. 59 Prozent vorn. Ob vorinstalliert oder nicht, überzeugt die Audio-Nutzung über Smart Speaker: 92,7 Prozent der Nutzer sind zumindest meistens mit der Audio-Nutzung über die Smart Speaker zufrieden. Das kann ein Grund dafür sein, weshalb mit hoher Regelmäßigkeit auf diese Inhalte zugegriffen wird. So hört jeder Zweite (49,2 Prozent) täglich oder fast täglich Audio-Inhalte über Smart Speaker, bei den unter 30-Jährigen sind es 58,3 Prozent.

Für Unternehmen ist also jetzt die beste Zeit, um eine Audio-Strategie zu erarbeiten. Ein lesenswerter Beitrag, was dabei für Unternehmen zu beachten ist, ist auf der BVDW-Website zu finden(2).

Trend 2: Qualitätsoffensive der digitalen Werbung

Mit dem Ziel, ein einheitlich hohes Qualitätsniveau im digitalen Marketing zu etablieren, startete die Fokusgruppe „Digital Marketing Quality“ (DMQ) im BVDW Ende 2018 mit der „Digital Trust Initiative“. Im digitalen Marketing existieren sowohl national als auch international bereits zahlreiche Zertifikate, Qualitätsstandards und Initiativen, die sich teilweise ergänzen und aufeinander aufbauen, mitunter aber auch die gleichen Ziele verfolgen. Mit der Digital Trust Initiative schaffte der BVDW unter Einbeziehung von Vermarktern, (Media-)Agenturen und Systemanbietern wie z. B. Messdienstleistern die Grundlage, um einen einheitlich hohen Qualitätslevel zu etablieren.

Besonders wichtig ist es, fortlaufend die Marktentwicklungen und spezifischen Anforderungen der Werbungtreibenden zu erfassen, zu bewerten und in die Kriterien der Digital Trust Initiative zu integrieren. Das zentrale Element der DTI ist der drei Säulen enthaltende Kriterienkatalog, auf dessen Grundlage sowohl Vermarkter und Agenturen als auch Systemanbieter bewertet werden: Die erste dieser Säulen „User Experience“ beinhaltet die Verpflichtung auf die Kriterien des „Better Ad Experience Programms“ (Produktportfolio) sowie auf die LEAN-Principles (technische Produktspezifikationen). Bei der zweiten Säule „Verification“ stehen Viewability, Invalid Traffic und Brand-Safety im Fokus. „Transparency“, die dritte Säule, stützt sich auf den Code of Conduct Programmatic Advertising (Unterzeichnung obligatorisch) sowie die verpflichtende Teilnahme an Media-Analysen. Die Kriterien werden unterschiedlich stark gewichtet – für eine erfolgreiche Zertifizierung müssen mindestens 80 Prozent der Anforderungen erfüllt sein.

Quelle: BVDW-Befragung unter 140 Social-Media- und Influencer-Marketing-Experten

Trend 3: Influencer-Marketing

Neben dem Audio-Boom war 2018 auch das Jahr der Influencer. Influencer-Marketing hat einen weiteren Evolutionsschub unternommen, kaum ein Großunternehmen verzichtet heutzutage auf die Zusammenarbeit mit Youtubern, Instagramern und Bloggern. Besonders bei jungen Zielgruppen hat Influencer-Marketing eindeutigen Einfluss auf Verkaufszahlen. Jeder Sechste kauft ein Produkt, das er zuvor bei einem Influencer sah(3). Die Unternehmen reagieren und erhöhen ihre Budgets für Influencer-Marketing. Laut einer neuen Befragung des BVDW (November 2018) unter werbungtreibenden Unternehmen sind bei 61 Prozent der deutschen Social-Media- und Influencer-Marketing-Manager 2019 steigende Budgets für Influencer-Marketing geplant. Die Ausgaben für Instagramer wie Bibi, Caro Daur oder Lisa & Lena belaufen sich bei rund einem Viertel der befragten Unternehmen auf jeweils 10 000 bis 50 000 Euro pro Jahr. Weitere 25 Prozent investieren zwischen 50 000 und 250 000 Euro pro Jahr. Die Unternehmen professionalisieren Influencer-Marketing. Die bevorzugten Partner sind meist Nischen-Influencer, nicht die großen Stars.

In den Medien war Influencer-Marketing vor allem wegen einer neuen Abmahnwelle sehr präsent. Verschiedene Urteile zwangen Influencer dazu, ihre Postings mit dem Hashtag #werbung zu kennzeichnen, obwohl für das Posting kein Geld bezahlt wurde. Mittlerweile gibt es auch Urteile, die solch pauschale Verpflichtungen wieder zurückgenommen haben. Die Diskussion ist nicht abgeschlossen. //


Kontakt zum Autor

Quellen:(1) https://www.online-audio-monitor.de/
(2) https://www.bvdw.org/der-bvdw/news/detail/artikel/google-home-amazon-alexa-co-so-wirds-gemacht/
(3) https://www.bvdw.org/presse/detail/artikel/jeder-sechste-kauft-ein-produkt-das-er-zuvor-bei-einem-influencer-sah-1/

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Agil arbeiten – aber wie?

Erfolg in einem dynamischen und digitalisierten Marktumfeld: Zwölf Regeln für Schnelligkeit, Kreativität und Innovationsstärke

von Dr. Ralf Magagnoli

Der Agile Performer Index, eine Studie der Neoma Business School und des Analysten Goetz­partners, will es auf den Punkt bringen: „Die agilsten Unternehmen einer Branche sind durchschnittlich 2,7 Mal erfolgreicher als ihre Peergroup. Dies bestätigt: Agilität verschafft Unternehmen einen erheblichen Wettbewerbsvorteil und ist ein entscheidender Faktor, um in einem dynamischen und digitalisierten Marktumfeld erfolgreich zu sein.“ Agilität steht für Schnelligkeit, Kreativität und Innovationsstärke. Wie aber Agilität implementieren? Nicht selten scheitern entsprechende Projekte – und die Gründe dafür sind vielfältiger Natur.

Wenn man einige Regeln beherzigt, ist es wahrscheinlicher, dass agile Projekte gelingen: Zwölf Regeln sind hier zusammengestellt.

Regel eins: Agilität ist eine Frage der Unternehmenskultur. Einfach ein agiles Team zusammenzustellen, einen Scrum-Master zu ordern und im Übrigen zu hoffen, dass alles klappt, ist zu wenig. Vor allem in Unternehmen, in denen es keine Fehlerkultur gibt und in denen die Bereitschaft, neue Wege zu denken und zu gehen, gering ausgeprägt ist. Unternehmen, deren Kultur durch Fehlertoleranz, Offenheit und Transparenz gekennzeichnet ist, haben hier eindeutig einen Vorteil.

Regel zwei: Agilität bedeutet nicht weniger, sondern mehr Führung. Vor allem eine andere Führung. Eine Führung, die sich stärker auf das Impulsgeben verlegt und Mitarbeitern Freiräume verschafft. Der Impuls selbst, agile Projekte umzusetzen, sollte nicht, wie fälschlich angenommen, von der mittleren, sondern von der obersten Ebene im Unternehmen kommen, die dann aber die Mitarbeiter an der langen Leine laufen lassen sollte.

Regel drei: Agilität eignet sich zwar für alle Branchen, zumal für die mit einem hohen Innovationsdruck, aber nicht für alle Bereiche im Unternehmen. Eine agile Produktion ist ein Unding. Hier sind nicht Kreativität und Ideenfindung gefragt, sondern die Umsetzung von Vorgaben. Hingegen eignen sich agile Projekte besonders für die Bereiche Forschung & Entwicklung, IT, Marketing oder HR-Management.

Regel vier: Agilität lebt von den beteiligten Personen. Natürlich sollten sich alle Mitarbeiter in den betreffenden Abteilungen durch Tatkraft, Neugierde, Ideenreichtum und die Bereitschaft zum Querdenken auszeichnen. Realiter tun sie dies nicht. Beginnen Sie mit den Personen, die sie für besonders geeignet halten. Wählen Sie keine ängstlichen, vorsichtigen oder strukturkonservativen Mitarbeiter.

Regel fünf: Agilität bedeutet Umdenken auch in personeller Hinsicht. Das betrifft die Einstellungskriterien, aber auch bestimmte Regularien, so die Flexibilisierung der Arbeitszeit – Achtung, das heißt nicht mehr Arbeitszeit und eine Dauerabrufbereitschaft – und die Überwindung allzu restriktiver Projektvorgaben bzgl. „in time“ oder „in budget“.

Regel sechs: Agilität heißt auch, Fragen zuzulassen. Wer Fragen, auch hartnäckiges Nachbohren, als Widerstand, gar als Angriff auf die eigene Person, versteht, hat nicht verstanden, worum es geht. Manchmal dienen Fragen dazu, auf noch ungelöste Probleme hinzuweisen oder Sachverhalte zu klären.


Agilität verschafft Unternehmen einen erheblichen Wettbewerbsvorteil und ist ein entscheidender Faktor, um in einem dynamischen und digitalisierten Marktumfeld erfolgreich zu sein


Regel sieben: Agilität verlangt, wie eingangs erwähnt, Fehlerkultur. Wenn es in einem agilen Projekt hakt – und das tut es in vielen Fällen –, nicht gleich aufgeben und das Projekt abbrechen. Lieber nachfassen, prüfen, wo die Fehlerquellen liegen könnten, und diese dann abstellen. Und wenn ein agiles Projekt in Gänze scheitert, auch nicht gleich die Idee der Agilität in Gänze in Frage stellen oder verdammen. Zur Fehlerkultur gehört auch, über das Scheitern von Projekten zu berichten, was natürlich nur in einem Unternehmen möglich ist, das entsprechend tolerant ist.

Viele Unternehmen im Silicon Valley oder in der Luftfahrtindustrie, in der sich Fehler besonders verhängnisvoll auswirken können, haben eine solche Kultur entwickelt. Dort wird auf speziellen Treffen, sogenannten Communities of Practice, über gescheiterte Projekte berichtet, aus denen man mehr lernen kann als aus erfolgreichen Projekten.

Regel acht: Agilität muss auch nicht in einer Abteilung gleich vollumfänglich entwickelt werden. Beginnen Sie mit einer Zelle, bestehend aus fünf bis sieben Personen. In der IT ist Kritik geübt worden an der von McKinsey entwickelten Two-Speed-IT, also einem agilen, kreativen Team und einer eher konventionell arbeitenden Mannschaft. Dennoch ist nichts dagegen zu sagen, innerhalb einer Abteilung mit einigen Personen zu beginnen und die Agilität, bei Erfolg, auf die ganze Abteilung auszuweiten.

Regel neun: Agilität erfordert gemischte Teams, am besten interdisziplinäre Teams. Beispiel IT: Hier sollen neue Anwendungen geschaffen werden. Nichts einfacher, als fünf bis sieben dreißigjährige männliche Informatiker daranzusetzen, die am besten alle an derselben Hochschule studiert haben. Hingegen zeigt sich der Nutzen „gemischter“ Teams, was Ausbildung, Geschlecht und Alter angeht. So könnten Anwender aus den Abteilungen, die die Applikationen nutzen, wertvolle Anregungen geben und vermeiden, dass aus der Entwicklung eine technische Spielerei wird, die an den Bedürfnissen der Nutzer vorbeigeht.

Regel zehn: Agilität beruht auf Barrierefreiheit. Die agilen Teams müssen sich nicht nur regelmäßig treffen, die Räume sollten so gestaltet sein, dass ein Austausch leicht möglich ist. Hilfsmittel wie Flipcharts und Stellwände sollten bereitstehen. Nötig ist auch die physische Präsenz: Nur in Ausnahmefällen sollte es eine virtuelle Präsenz geben, bspw. wenn ein Teammitglied auf Geschäftsreise ist und das Treffen nicht abgesagt werden sollte. Unter Umständen, insbesondere in der IT, kann die Offshore-Verlagerung von Jobs hier zum Problem werden.

Regel elf: Agilität lässt sich besser erzielen, indem man Expertise von außen einholt. Dies betrifft vor allem Externe, die als Moderatoren und Impulsgeber fungieren sollen. Ein Blick von außen erleichtert manchmal das Querdenken, besonders, indem Scheuklappen und die „Das war hier schon immer so“-Denke abgelegt werden. Die Expertise betrifft vor allem die Methoden, auf die noch einzugehen ist, und hierin den Scrum-Master, falls Sie die beliebte Scrum-Methode einsetzen. Wenn Sie auf z. B. einen solchen externen Scrum-Master zurückgreifen, gehen Sie sorgfältig bei der Auswahl vor. Fragen Sie nach Projekten, die dieser initiiert hat, fragen Sie nach Erfolgen, aber fragen Sie auch nach Rückschlägen, insbesondere danach, wodurch es zu diesen Rückschlägen gekommen ist.

Sie entnehmen damit zweierlei: Erstens den souveränen Umgang auch mit ggf. eigenen Fehlern und zweitens die Analysefähigkeit des externen Beraters. Verneint er Rückschläge oder führt er diese Rückschläge auf den Unwillen und die Unfähigkeit der Teammitglieder zurück, ist er wohl kaum der richtige Mann für Sie. Verlassen Sie sich zudem auf Ihr Bauchgefühl, denn das Bauchgefühl ist, wie Professor Gerd Gigerenzer vom Max-Planck-Institut für Bildungsforschung in München betont, nicht einfache Emotion, sondern gesammeltes Erfahrungswissen – und oft anderen Methoden der Entscheidungsfindung überlegen.

Regel zwölf: Agilität wäre missverstanden, wollte man das Rad neu erfinden. Es existiert eine Hülle und Fülle an Methoden – Kritiker sprechen sogar von einer „Kakophonie“ – vom Scrum über Design Thinking bis zur Holokratie, die eingesetzt werden können. Informieren Sie sich über diese Methoden, zu denen es viele Publikationen gibt, und wählen Sie die Methode aus, die ihrer Ansicht nach am zielführendsten ist. Ein Schaukasten gibt einen kurzen Überblick über drei hilfreiche Management-Methoden sowie einen Aufriss weiterer Methoden. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Bild von Gerd Altmann auf Pixabay