Beiträge

Abteilung IT

Die Zukunft der IT-Abteilung liegt in der Automatisierung.

von Dr. Ralf Magagnoli

Die Prophezeiungen der Auguren waren teils düster: „Die IT-Abteilung vor dem Aus retten“, titelte etwa die Computerwoche im Oktober 2018. Sicher ist nur, die IT-Abteilung wird sich wandeln, sie wird neue Aufgaben übernehmen und alte delegieren müssen. Welche Trends sind gegenwärtig erkennbar, die auf die IT-Abteilungen einwirken und mit denen sich die IT-Abteilungen befassen müssen? Wie wirken sich vor allem Automatisierung und Digitalisierung auf die Arbeit der IT-Abteilungen aus?

Der „Chief Digital Officer“ (CDO)

In vielen Unternehmen gibt es ihn bereits als Hauptverantwortlichen der Digitalisierungsstrategie im Unternehmen. Der CDO gehört der obersten Hierarchieebene an. Zu seinen Aufgaben gehören die Analyse der Ist-Situation in den Unternehmen, die Entwicklung einer digitalen Strategie, die Bereitstellung der notwendigen Ressourcen für die digitale Transformation, die Beaufsichtigung des Wandels, die Beobachtung neuer Entwicklungen und die etwaige Übernahme in das bestehende digitale System. Kritisiert wird eine oftmals unklare Rollenverteilung in vielen Unternehmen. Hier gilt es, klare Regeln und Verantwortlichkeiten zu definieren und dem CDO die Möglichkeit zu geben, die digitale Transformation umzusetzen.

Strukturveränderung

Möglicherweise wird sich die Struktur der IT-Abteilung selbst drastisch verändern. Zwei Möglichkeiten stehen hier zur Disposition: Der Analyst Forrester Research schreibt, dass sie möglicherweise in einen Frontend- und einen Backend-Teil, welcher dann an eine Shared-Services-Abteilung berichtet, zerfallen werde. Eine weitere Möglichkeit besteht darin, dass die IT als eigenständige Einheit auf die verschiedenen Abteilungen im Unternehmen aufgeteilt wird. Gut möglich aber auch, dass die IT-Abteilung weitgehend in der bisherigen Form erhalten bleibt. Sicher ist nur, dass, wie auch in anderen Abteilungen, die Anforderungen an die Mitarbeiter in puncto Agilität, Fähigkeit, über den eigenen Tellerrand zu schauen, und Bereitschaft zum Kulturwandel wachsen werden. Anders ausgedrückt: Nerds und „Das haben wir schon immer so gemacht“-Typen werden immer weniger gefragt sein.

Modernisierung der Legacy-Systeme

Unter Legacy-Systemen werden die über Jahre, teilweise über Jahrzehnte gewachsenen IT-Infrastrukturen verstanden, die oft als Altlasten ein Hindernis für die Zukunftsfähigkeit der Unternehmen sind. Dies in zweifacher Hinsicht: Zum einen im Hinblick auf die Geschäftsprozesse, zum anderen auch in finanzieller Hinsicht, denn die Versuche, die IT-Kosten zu senken, führen zu einem Investitionsstau, dessen Folge archaische Systeme sind, deren Wartungskosten steigen, womit wiederum weniger Gelder für Investitionen zur Verfügung stehen. Ein Teufelskreis, den es zu durchbrechen gilt. Hier bietet sich die Verlagerung von Software und Infrastruktur in die Cloud an, die von spezialisierten Dienstleistern auch vorgenommen wird.


Für die IT-Abteilung wie für die Unternehmen wird es darauf ankommen, den Spagat zwischen inkrementeller und disruptiver Methode zu meistern

Ralf Magagnoli

Microservices

Hier kommen oft Standardsysteme mit adaptiven Architekturen zum Einsatz. Diese Dienste sind so konzipiert, dass sie mit den Anforderungen wachsen und zudem einen modularen Aufbau ermöglichen, was wiederum ein „Plug and play“ mit selbst entwickelten, meist allerdings zugekauften Komponenten erlaubt. Über Continuous Integration / Continuous-Deployment-Pipelines sind zudem agilere, produktzentrierte Betriebsmodelle möglich. Zugleich sollten Unternehmen die Risiken im Auge behalten, die sich über eine zu schnelle Übernahme von Standardsystemen ergeben – nämlich, dass der USP unter Umständen verloren gehen kann. Auch hier ist eine „smarte“ Kombination von Standardisierung und Customizing gefordert.

„Software as a Service“ und „Infrastructure as a Service“

Auch dieser Punkt hängt mit den beiden vorangehenden Punkten zusammen. Nicht nur die Software, sondern die gesamte Infrastruktur wird in die Cloud verlagert und, meist von einem spezialisierten Dienstleister, zur Verfügung gestellt. Die Unternehmen brauchen also weder Software zu entwickeln oder einzukaufen noch Rechnerinfrastrukturen aufzubauen, sondern mieten diese. Betrieb und Wartung liegen beim Dienstleister. Tendenziell bestehen die Rechner in den Unternehmen dann aus Thin Clients: Die Anwender greifen dann per Webbrowser auf die Anwendungen in der Cloud zu. Die Vorzüge: Kalkulierbare Kosten (Miete) und Konzentration aufs Kerngeschäft. Dennoch haben immer noch viele Unternehmen Hemmungen, unternehmenskritische Anwendungen Dritten zu überlassen.

Internet of Things (IoT)

Hier besteht ein Unterschied zwischen der Erwartungshaltung – wie bedeutsam ist IoT für das Unternehmen, wie bedeutsam wird IoT für das Unternehmen werden? – und der Umsetzung. Während laut einer aktuellen IDC-Studie rund 43 Prozent der Befragten in Unternehmen IoT für sehr wichtig bzw. wichtig halten und über 63 Prozent glauben, dass die Bedeutung in Zukunft sehr hoch bzw. hoch sein wird, haben nur rund 20 Prozent der Unternehmen IoT-Projekte umgesetzt. Ziel des IoT ist es, die Lücke zwischen der realen und der virtuellen Informationswelt zu schließen, die dadurch entsteht, dass die in der realen Welt verfügbaren Informationen im Internet nicht abrufbar sind. Das hat Auswirkungen zum Beispiel auf den Kundendialog, der mittels IoT über sogenannte Connected Products verbessert wird, was wiederum die Optimierung bestehender und die Kreierung neuer Produkte zur Folge hat. Beispiel: Der Sportartikelhersteller, dessen Turnschuh sich je nach Laufgeschwindigkeit aufpumpt bzw. fester schnürt. Wichtige Daten werden über Sensoren nicht nur an den Kunden, sondern auch an den Hersteller weitergeleitet. Tritt ein Problem auf, kann der Hersteller schnell reagieren und Verbesserungen an dem Produkt vornehmen.

Industrial Internet of Things (IIoT)

Es geht um den Einsatz von IoT im industriellen Bereich, bspw. im produzierenden Gewerbe, im Gesundheitswesen, in der Energiewirtschaft oder im Agrarwesen. Hierbei gilt es, Daten über den gesamten Informationsprozess zu erfassen und zu kontrollieren. Beispiel Produktion. Das Stichwort hier lautet etwa Predictive Maintenance: Die Maschinen geben Zustandsdaten, die eine proaktive Wartung ermöglichen. So etwa, im kostengünstigen Fall, der Tintenstrahldrucker, der vorab informiert, wann der Füllstand unterschritten wird. Bedenkt man, dass bei komplexeren Maschinen ein Ausfall auch nur von zwei oder drei Stunden teuer werden kann, rechnet sich die Predictive Maintenance. Das IIoT umfasst aber auch die Verbesserung und Kontrolle der Supply Chain, die Sicherstellung der Energiezufuhr über Smart Grids, intelligente, dezentrale Verteilnetze oder Werte bzgl. Raumtemperatur, Luftqualität und Ozongehalt in Produktionsstätten.

Data Science

Als Data Science wird die Extraktion von Wissen aus Daten bezeichnet. Angesichts der auch durch IoT und IIoT dramatisch erhöhten Datenmenge kommt dieser Extraktion eine besondere Bedeutung zu, sodass Spezialisten – meist Absolventen der einschlägigen Studiengänge – sehr gefragt sind. Data Scientists benötigen im Prinzip Kenntnisse in fünf Bereichen: Diese reichen von der ersten Schicht, der „Database Technology“, über die zweite Schicht, die „Data Access & Transformation“, die dritte Schicht, die „Programming Language“, die vierte Schicht, die „Data Science Tool & Library“, die fünfte Schicht, die „Data Science Method“, bis zur Fachexpertise im jeweiligen Fachbereich – also etwa der Ingenieurswissenschaft oder der Betriebswirtschaft. Erst wenn ein Mindestmaß an Fachwissen vorhanden ist, kann der Data Scientist die Fachspezialisten gezielt unterstützen. In kleineren Unternehmen wird im Allgemeinen der Data-Science-Allrounder gesucht, der imstande ist, das gesamte Aufgabenspektrum zu übernehmen, das in größeren Unternehmen von den jeweiligen Spezialisten im jeweiligen Bereich übernommen wird.

Digitale Ökosysteme

Oikos im Altgriechischen bedeutet Haus, sýstema das Verbundene. Auch wenn die Abgrenzung digitaler Ökosysteme nicht ganz einfach ist, kann als ihr Ziel das Überwinden komplexer Herausforderungen durch Imitation biologisch-komplexer Systeme genannt werden. Ein digitales Ökosystem, das sich prinzipiell durch Offenheit auszeichnet, setzt sich aus heterogenen Akteuren unterschiedlicher Branchen und Disziplinen zusammen. Hier wird die Aufgabe der IT-Abteilung darin bestehen, die Einbindung des Unternehmens in ein solches digitales Ökosystem zu gewährleisten und die Stabilität dieses heterogenen Netzwerks bei gleichzeitiger Offenheit zu ermöglichen.


Quelle: Computerfutures
https://www.computerfutures.com/de/blog/2018/02/die-zukunft-der-it-abteilung

Automatisierung / „Robotic Process Automation“ (RPA)

Darunter werden virtuelle Mitarbeiter verstanden, die ähnlich den physisch existenten Robotern der klassischen Prozessautomatisierung bestimmte Aufgaben erfüllen. Es handelt sich dabei um Software-Agenten, die menschliches Handeln nachahmen. Dabei kann der Aufgabenbereich der jeweiligen Software-Agenten eher einfache Aufgaben wie das Versenden von Sammelmails, aber auch komplexere Aufgaben erfüllen. Der Vorteil von RPA liegt u. a. darin, dass über Kostenreduktionen Insourcing bestimmter Aufgaben wieder interessant werden kann. Problematisch kann RPA dort werden, wo keine klaren Verantwortlichkeiten benannt sind – für Wartung, Upgrades – oder wo Mitarbeiter an der Konfiguration mitarbeiten sollen, die durch die Anwendungen ersetzt werden sollen. Wichtig ist es, den richtigen Anbieter auszuwählen, der entsprechende Erfahrungen mit RPA-Projekten vorweisen kann, die in der Regel in verschiedenen Schritten vorgenommen werden: Analyse der Arbeitsprozesse (oft über Filmaufnahmen), Definition der Automatisierung, Umsetzung, Erfolgskontrolle.

Künstliche Intelligenz / Machine Learning

Machine Learning ist ein Aspekt künstlicher Intelligenz, wenngleich ein zentraler. Über maschinelles Lernen wird ein Computer in die Lage versetzt, ein selbstlernendes System zu werden, ohne ihn entsprechend zu programmieren. Auch hier wird, ähnlich dem digitalen Ökosystem, die Natur zum Vorbild genommen, etwa über „Rückmeldungen“ Objekte zu identifizieren. Dies geschieht mittels selbstlernender Algorithmen, die in Daten bestimmte Muster und Gesetzmäßigkeiten erkennen. Die Intelligenz besteht darin, ähnlich der menschlichen Intelligenz, Dinge miteinander zu verknüpfen, Zusammenhänge zu erkennen und Rückschlüsse zu ziehen. Entsprechende Programme tragen dazu bei, dass aufwendige und langweilige Arbeiten vom Rechner erledigt werden – dies gilt etwa für die Papierdokumentation.

Digital Workplace

Die Arbeitswelt verändert sich stetig. Vorbei die Zeiten, als der Beschäftigte um acht Uhr das Büro betrat und um siebzehn Uhr das Büro verließ (eine Stunde Mittagspause), wobei die Stempeluhr die Arbeitszeit dokumentierte. Heutzutage verschwimmen tendenziell die Grenzen zwischen Arbeitszeit und Freizeit. Über den Digital Workplace können Mitarbeiter von jedem Ort und zu jeder Zeit auf die Unternehmensanwendungen zugreifen, egal ob vom Rechner im Homeoffice, vom Tablet im Zug oder vom Smartphone am Strand. Das Zauberwort heißt selbstbestimmtes (und damit effektiveres) Arbeiten.

Endpoint-Security / Endpoint-Protection

Dass sich durch Homeoffice-Arbeitsplätze angesichts immer anspruchsvollerer Vorgaben des Gesetzgebers – hier sei etwa die Datenschutzgrundverordnung (DGSVO) genannt – die Anforderungen an die Compliance erhöhen, versteht sich von selbst. Ein Ansatz ist die sogenannte Endpoint-Security oder Endpoint-Protection, über die Netzwerke von Laptops, Tablets, Handys und anderen Geräten gesichert werden sollen. Die Rechtevergabe obliegt dem Systemadministrator, der auch deren Einhaltung überprüft. Dabei können Vergehen gegen die Datensicherheit – etwa unbefugte Zugriffe auf sensible Daten – sofort verfolgt und geahndet werden – wichtig gerade im Hinblick auf die Wirtschaftsspionage. Es bestehen Verbindungen zum Cloud-Computing (Software as a Service, Infrastructure as a Service) und den Thin Clients im Unternehmen.

Self-Service (Low Code)

Low-Code-Plattformen sind grafische Entwicklungsinstrumente für Geschäftsapplikationen. Sie ermöglichen es, Softwareprogramme schnell und leicht zu erstellen und anzupassen. Dazu sind weder spezielle Programmierkenntnisse noch größere Erfahrungen nötig. Über offene Schnittstellen lassen sich bestehende Technologien und Anwendungen meist problemlos nutzen. Die Vorteile liegen auf der Hand: Die Unternehmen sind weniger abhängig von externen Dienstleistern, die Programme werden bis zu zehn Mal schneller erstellt, sie können auch von Mitarbeitern der Fachabteilungen geschrieben werden, wodurch sich der Graben zwischen IT-Abteilung und Fachabteilung verringert, die internen Entwickler können sich um die komplexeren Aufgaben kümmern.

Inkrementelle vs. disruptive Innovation / Bimodale IT

Während es beim inkrementellen Ansatz um schrittweise Optimierungen und Kostensenkungen geht (Beispiele Digital Workplace, Software as a Service, RPA), setzt der disruptive Ansatz auf dramatische Änderungen meist ganzer Geschäftsmodelle. Dementsprechend liegt im IT-Bereich die inkrementelle Innovation tendenziell beim CIO und der IT-Abteilung, während die disruptive Innovation eher Sache des Vorstands (und ggf. des CDO) ist. In den meisten Fällen geht es aber nicht um ein Entweder-oder, sondern um ein Sowohl-als-auch, da beide Ansätze ihre Vor- und Nachteile haben. Stichwort: Bimodale IT. Diese umfasst ein vorhersagbares Kernsystem einerseits und eine experimentelle, agile Form andererseits, die es erlaubt, mit den schnellen Veränderungen in der Geschäftswelt Schritt zu halten. Für die IT-Abteilung wie für die Unternehmen wird es darauf ankommen, den Spagat zwischen inkrementeller und disruptiver Methode zu meistern. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Künstliche Intelligenz ohne Vorurteile

Die Datenqualität bestimmt die Leistungsfähigkeit selbstlernender Systeme.

von Andrea Martin

Künstliche Intelligenz (KI) kreiert Tausende neue Möglichkeiten und stößt Türen in digitale Welten auf, die vorher unerreichbar waren. Um bei diesem Fortschritt nicht den Anschluss zu verpassen, investieren viele Unternehmen derzeit kräftig in Funktionalitäten, die die neue Technologie mit sich bringt. Von Chatbots, die Unternehmen helfen, Gespräche mit ihren Kunden zu personalisieren, bis hin zu Systemen, die jahrzehntelanges institutionelles Wissen für einen Fachexperten sofort zugänglich machen. Die Wunderwaffe von intelligenten KI-Systemen: Dort Muster zu erkennen und intelligente Vorhersagen aus erhobenen Daten zu treffen, wo die kognitiven Fähigkeiten des Menschen nicht mehr ausreichen.

Laut einer aktuellen Studie von IDC haben gut ein Viertel der befragten Unternehmen in Deutschland bereits KI-Projekte umgesetzt. 69 Prozent wollen in den nächsten zwölf Monaten neue KI-Initiativen anstoßen. Gebremst wird diese Entwicklung allerdings von einem mangelnden Vertrauen in die „denkenden Maschinen“. Viele machen sich Gedanken, ob sie den Ergebnissen einer KI-Lösung vertrauen können und ob die neue Technologie auch allen rechtlichen Vorschriften entspricht. Im Zentrum steht dabei die Frage, ob und wie sich die Entscheidungen von selbstlernenden Maschinen nachvollziehen und überprüfen lassen.

Unfaire Verzerrungen in den Daten identifizieren

Die Vision ist simpel: Statt sich auf menschliche Annahmen zu stützen, beispielsweise bei der Kreditvergabe oder bei der Vorauswahl im Bewerbungsprozess, beziehen sich die lernenden Maschinen auf statistische Modelle aus einer Vielzahl von Datenquellen und Parametern. Das Problem dabei: Enthalten die Daten unbewusste Vorurteile, Stereotype und altmodische Rollenbilder, werden diese von den lernenden Algorithmen nicht nur übernommen, sondern noch zusätzlich verstärkt.

Vertrauens- und Transparenzprinzipien

  • Der Zweck einer KI ist es, die menschliche Intelligenz zu erweitern und zu unterstützen.
  • KI-Systeme müssen transparent und erklärbar sein.

  • Daten und Erkenntnisse gehören ihren Schöpfern bzw. den jeweiligen Unternehmen, die das KI-System nutzen.

Wenn Fotos und deren Beschriftungen Kochen überwiegend mit Frauen in Verbindung bringen, dann lernt die Software Kochen immer als Frauentätigkeit zu erkennen. Die Maschinen denken dann genauso in Rollenklischees wie wir Menschen. Mitarbeiter müssen KI-Lösungen und die resultierenden Ergebnisse während der Entwicklung, der Trainingsphase und im Betrieb genau beobachten. Ziel ist, statistische und systematische Fehler zu erkennen, ggf. Gegenmaßnahmen zu ergreifen und deren Effekt zu überwachen.

Vielfalt menschlicher Gesichter stellt KI auf die Probe

Die Herausforderungen beim Training von künstlicher Intelligenz zeigen sich besonders bei der Gesichtserkennung. Es ist nicht einfach, Gesichtserkennungssysteme zu entwickeln, die in puncto Fairness unseren Erwartungen entsprechen. Der Kern des Problems liegt dabei nicht in der KI-Technologie selbst, sondern in der Art und Weise, wie die KI-gestützten Gesichtserkennungssysteme optimiert und trainiert werden.

Wie funktionieren neuronale Netze? 

Neuronale Netzwerke sind Rechenmodelle für das maschinelle Lernen, die von der Struktur des menschlichen Gehirns inspiriert sind. Im Gehirn sind Neuronen hochgradig vernetzt und kommunizieren chemische Signale über Synapsen in den Nervenzellen.

Künstliche neuronale Netze kommunizieren Signale (Zahlen) über Gewichte und Aktivierungsfunktionen (z. B. Sigmoide), die Neuronen aktivieren. Sie werden anhand von Beispielen trainiert und nicht explizit programmiert: Mithilfe eines Trainingsalgorithmus passen die Netzwerke in jeder „Trainingsrunde“ diese Gewichte an, um ein bestimmtes Problem immer besser zu lösen – das Netz „lernt“.

Um die gewünschten, immer exakteren Resultate zu erzielen, müssen die Trainingsdaten vielfältig sein und eine enorme Bandbreite an Informationen abdecken. Nur so kann die KI die Nuancen erkennen, durch die sich Gesichter in verschiedenen Situationen voneinander unterscheiden. Die Trainingsbilder müssen diese unterschiedlichen Gesichtsmerkmale der Gesichter widerspiegeln.

Ein Großteil der Leistungsfähigkeit von KI kommt heute durch den Einsatz von immer präziseren datengetriebenen Deep-Learning-Optimierungseinheiten, die immer größere Datenmengen nutzen können, um KI-Systeme zu trainieren. Die Stärke dieser Methode kann aber wie in den Beispielen dargestellt gleichzeitig auch eine Schwäche sein. Denn KI-Systeme lernen, was ihnen beigebracht wird. Werden sie nicht mit soliden und vielfältigen Datensätzen optimiert, können die Ergebnisse verzerrt werden, damit die Fairness leiden und letztlich auch die Genauigkeit.

Andrea Martin, CTO IBM

Anhand dieser Trainings-Datensätze weiß man jedoch, auf welcher Datengrundlage die KI-Systeme lernen und Entscheidungen treffen. Wie genau die neuronalen Netze aber zu ihren Schlussfolgerungen kommen, lässt sich im Moment noch kaum nachvollziehen. Für Nutzer sind sie oftmals eine Blackbox – undurchsichtig und schwer zu erschließen.

Zu einer transparenten Offenlegung der Entscheidungswege von KI gehört, dass jede Vorhersage, jede Modellversion und jegliche Trainingsdaten dokumentiert und gespeichert werden – und damit Unternehmen bei der auditsicheren Einhaltung von Compliance-Richtlinien und der DSGVO unterstützt.

Andrea Martin

KI-Empfehlungen transparent nachvollziehen

Zu einer transparenten Offenlegung der Entscheidungswege von KI gehört, dass jede Vorhersage, jede Modellversion und jegliche Trainingsdaten dokumentiert und gespeichert werden – und damit Unternehmen bei der auditsicheren Einhaltung von Compliance-Richtlinien und der DSGVO unterstützt.

Das ist besonders in stark regulierten Branchen wie dem Finanz- und Gesundheitswesen oder auch in datenintensiven und -sensiblen Branchen wie der Automobil- oder der Pharmaindustrie relevant, in denen die Einhaltung der DSGVO und anderer umfassender Vorschriften erhebliche Hindernisse für eine breite Anwendung von KI darstellt.

Ohne Ethik gibt es kein Vertrauen

Die Debatte um eine verantwortungsvolle Entwicklung und Nutzung von KI in Deutschland wird inzwischen auch auf höchster politischer Ebene adressiert. Die Bundesregierung begreift künstliche Intelligenz als Schlüsseltechnologie, ist sich jedoch ebenfalls über die gesellschaftlichen und ethischen Implikationen bewusst. Die „Strategie Künstliche Intelligenz“ greift daher die zentralen Fragestellungen auf und wird auch in der Enquete-Kommission „Künstliche Intelligenz“ des Bundestages diskutiert. Sie soll einen Rahmen bilden, wie sich KI gemeinwohlorientiert entwickeln und einsetzen lässt.

Enquete-Kommission

  • Setzt sich aus 19 Mitgliedern des Deutschen Bundestages und 19 sachverständigen externen Expertinnen und Experten zusammen

  • Untersucht die Potenziale und den zukünftigen Einfluss von KI auf unser (Zusammen-)Leben, die deutsche Wirtschaft und die zukünftige Arbeitswelt

  • Erörtert sowohl die Chancen als auch die Herausforderungen von KI für Gesellschaft, Staat und Wirtschaft

  • In öffentlichen Kurzvorträgen umreißen Sachverständige theoretische und praktische Aspekte rund um KI

  • Sitzungen werden im Internet auf www.bundestag.de live (zeitversetzt) übertragen

Um KI-Systemen vertrauen zu können, müssen wir verstehen, warum sie die Entscheidungen treffen, die sie treffen. Die Entwicklung von KI darf kein Selbstzweck sein, sondern muss dem Menschen dienen. Hier bedarf es Leitlinien, Prinzipien und Werte, die eine KI einhalten muss – ähnlich dem Grundgesetz. Denn Vertrauen und Akzeptanz kann nur durch einen vertrauensvollen Umgang mit KI aufgebaut werden. //

Kontakt zur Autorin

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Auf Unbekanntes vorbereiten

Im Kontext von Datensicherheit bedeuten KI-Systeme zwangsläufig, dass Organisationen sich auf neuartige Bedrohungen einstellen müssen.

Prof. Dr. Jörn Müller-Quade erläuterte der TREND-REPORT-Redaktion das Forschungs­feld „Kryptographie und Sicher­­heit“ am KIT und mögliche künftige Bedrohungsszenarien im Kontext von KI.

Herr Prof. Müller-Quade, mit welchen Themen und Aufgaben beschäftigt sich Ihr Forschungsbereich?

Ich erforsche kryptographische Protokolle, etwa für Online-Banking oder Online-Wahlen. Für mich sind diese Verfahren wie kleine Wunder, weil scheinbar Unmögliches erreicht wird, so kann etwa die Korrektheit der Auszählung einer Online-Wahl nachgewiesen werden, ohne dass das Wahlgeheimnis verletzt wird. Neben dem Nutzen, den solche Verfahren in der IT-Sicherheit haben, finde ich sie auch für sich genommen faszinierend. Sogenannte Zero-Knowledge-Beweise können einen von einer Aussage überzeugen, ohne dabei aber mehr zu verraten als die Gültigkeit eben jener Aussage. Sichere Mehrparteienberechnungen erlauben es mehreren Teilnehmern gemeinsam, auf geheimen Eingaben der einzelnen Teilnehmer basierend ein Ergebnis verteilt zu berechnen – ohne dass ein Teil der Teilnehmer das Ergebnis manipulieren oder mehr erfahren kann als eben das Ergebnis. Wie man so etwas hinbekommt und wie man aus solchen mächtigen Bausteinen größere Anwendungen bauen kann, sind Grundfragen der kryptographischen Forschung.

Auf welche Gefahren und Szenarien im Kontext von KI-Technologien müssen wir uns einstellen?

KI-Systeme können Angreifer unterstützen, damit können beispielsweise Angriffe, die bisher mühsam von Menschen gemacht werden müssen, automatisiert werden, was zu einer enormen Zunahme solcher Angriffe führen wird. Konkret denke ich an „Spear Phishing“, also maßgeschneiderte Betrugs-E-Mails, die eine Schadsoftware enthalten, die aktiv wird, wenn man den Empfänger dazu verleitet, eine Datei oder einen Link anzuklicken. KI-Systeme entwickeln in manchen Bereichen übermenschliche Leistungen und könnten somit auch völlig neue Angriffe finden. KI-Systeme, wie sie in Zukunft in vielen Anwendungen stecken werden, können auch selbst angegriffen werden. Wenn man das Verhalten einer KI analysiert, kann man diese KI leicht täuschen, oder wenn man Trainingsdaten verfälscht, kann ein sehr unerwünschtes Verhalten der KI bewirkt werden. Ein Problem ist, dass wir KI-Systeme nicht gut verstehen, daher müssen wir KI-Systeme geschickt mit klassischen Systemen kombinieren, wir benötigen ein „KI-Engineering“.

Wie können schlaue Algorithmen und KI im Kontext der Cybersecurity zum Einsatz gebracht werden?

Angriffe lassen sich nicht 100-prozentig verhindern, daher ist auch die Angriffserkennung extrem wichtig. Insbesondere hier werden KI-Systeme enorm nützlich sein. Auch werden KI-Systeme bei Sicherheitstests helfen, etwa Systeme testweise angreifen, um die Systeme weiter zu härten. Dies ist beispielsweise denkbar für sogenannte Seitenkanalangriffe auf Hardware. Ist etwa der Stromverbrauch einer Berechnung korreliert mit geheimen Eingaben der Berechnung, könnten KI-Systeme dies in Zukunft besser erkennen als Menschen. Leider haben solche Ansätze einen Dual-Use-Charakter und könnten auch von Angreifern missbraucht werden, hier erwarte ich ein Hase-und-Igel-Wettrennen. KI-Systeme könnten den Datenschutz verbessern, ein Beispiel ist das NurseEYE-System, bei dem ein schlauer Algorithmus aus Video­daten Stürze von Patienten in einem Krankenhaus erkennt. Erst wenn ein Sturz erkannt wird, werden die hochaufgelösten Videodaten an das Klinikpersonal weitergegeben.

Was meinen Sie mit dem „systemischen Ansatz zur wirksameren Vorbeugung von Cyberangriffen“?

Wenn wir in Zukunft befürchten müssen, dass KI-Systeme oder Mensch-Maschine-Teams völlig neue Angriffe finden, wird es nicht genug sein, unsere IT-Systeme gegen bekannte Angriffe zu patchen. Wir müssen uns auf unbekannte Angriffe vorbereiten. Hier könnte die Kryptographie ein Vorbild sein. Dort gibt es die sogenannte beweisbare Sicherheit, dies ist leider eine sehr missverständliche Bezeichnung, denn die Sicherheit realer Systeme lässt sich nicht beweisen. Dennoch wird in einem mathematischen Modell nachgewiesen, dass jeder erfolgreiche Angriff vorher explizit angegebene Sicherheitsannahmen verletzt. Dieser Zugang berücksichtigt alle Angriffe, auch bisher unbekannte Angriffe, die sich im Modell darstellen lassen. Wird nun ein beweisbar sicheres Verfahren dennoch gebrochen, so ist entweder das Modell noch nicht nahe genug an der Realität oder eine Sicherheitsannahme ist falsch. Durch jeden erfolgreichen Angriff hat man einen Erkenntnisgewinn.

Inwieweit können die Blockchain-Technologien helfen, die IT sicherer zu machen, und welche Rolle spielt dabei die Kryptographie?

Die Blockchain ist ein gutes Beispiel dafür, wie kryptographische Verfahren scheinbar Unmögliches schaffen. So kann eine Blockchain die Basis für eine Währung sein, die ein gewisses Maß an Anonymität hat und obwohl sie überhaupt nicht mehr an stoffliche Artefakte gebunden ist, dennoch einen Wert hat. Neben der Blockchain gibt es aber noch viele andere kryptographische Verfahren, die manchmal sogar viel geeigneter sind, all die Probleme zu lösen, für die zurzeit die Blockchain vorgeschlagen wird. Prinzipiell kann man sich vorstellen, dass all die Aufgaben, für die zur Zeit ein vertrauenswürdiger Vermittler nötig ist, etwa ein Auktionator, ein Notar oder eine Bank, auch von verteilten kryptographischen Verfahren gelöst werden können.

Sichere Verschlüssungsverfahren? Was raten Sie an?

Bei Verschlüsselungsverfahren wird der Erfolg der Kryptographie besonders deutlich. Die Snowden-Enthüllungen haben gezeigt, dass selbst die NSA moderne Verschlüsselungsverfahren nicht brechen konnte und Hintertürchen benutzen musste. Wie KI-Systeme die IT-Sicherheit in Zukunft verändern werden, ist eine der Fragen, der die nationale Plattform Lernende Systeme nachgeht. Bei Verschlüsselungsverfahren bin ich aber optimistisch, dass keine Gefahr besteht. Trotzdem gibt es selbst hier noch Forschungsbedarf, etwa an Verfahren, die auch langfristig sicher bleiben, etwa, wenn Quantencomputer möglich werden. Die eigentliche Schwachstelle bei der sicheren Kommunikation sind die Endgeräte, mein Rat wäre also, verstärkt auch Endgerätesicherheit systematisch zu erforschen.

Kryptographie: Welche Chancen und Möglichkeiten bringt in diesem Kontext das Forschungsgebiet der „sicheren Mehrparteienberechnung“?

Sichere Mehrparteienberechnungen erlauben es mehreren sich gegenseitig misstrauenden Teilnehmern, gemeinsam etwas auszurechnen. Die geheimen Eingaben der Teilnehmer bleiben geschützt und das Ergebnis kann nicht manipuliert werden, selbst wenn einige der Teilnehmer beliebig vom Protokoll abweichen. Anwendungen hierfür wären etwa Berechnungen auf Medizindaten, die in verschiedenen Kliniken vorliegen, aber die Klinik nicht verlassen dürfen, oder automatisierte Verhandlungen, bei denen nichts bekannt wird, außer dem Geschäftsabschluss, wenn er zustande kommt. Auch denkbar ist, dass man mit diesem Paradigma sichere Systeme aus nicht vertrauenswürdigen Komponenten aufbaut und so digitale Souveränität erreichen könnte, ohne alles selber machen zu müssen. //


Kontakt zum Interviewpartner

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Aufmacherbild von Hebi B. auf Pixabay

Investieren in Datenkompetenz

Daten werden immer mehr zur universellen Sprache – und Unternehmen, die sie beherrschen, werden erfolgreich sein.

von Bernhard Haselbauer

Der Job eines Data Scientists ist es, aus großen Datenmengen Informationen zu generieren und Handlungsempfehlungen abzuleiten, die das Unternehmen befähigen, effizienter zu arbeiten.

Doch was muss ein Data Scientist können und welche Skills sollte er mitbringen? Zum Beispiel muss er mit den unterschiedlichsten Datenbanksystemen zurechtkommen, doch meistens liegen die Daten nur unstrukturiert vor. Unternehmen arbeiten heute mit CRM-und ERP-Lösungen von Microsoft, SAP, Oracle und Co. Standardmäßig kommen in diesen Fällen relationale Datenbanken zum Einsatz. Demnach sollte ein Data Scientist SQL, „Structured Query Language“, in allen Abwandlungen beherrschen. Werden dann die Daten für die Analyse exportiert, fangen die ersten Schwierigkeiten schon an. Zusätzlich müssen immer mehr unstrukturierte Daten aus Social-Media-Kanälen und anderen Internetquellen analysiert werden.

Diverse Schnittstellen müssen in diesem Kontext bedient werden, um neue Erkenntnisse zu gewinnen. Und so geht es weiter mit Know-how über Verschlüsselungsverfahren, Datenbankanbindungen und das Echtzeitmanagement von Datenströmen. Data-Scientisten sind gefragter denn je, um die digitale Transformation im Unternehmen voranzutreiben. Doch der Markt für Spezialisten ist wie leergefegt.

Bildquelle Lizenz: Designed by macrovector / Freepik

Sich selbst zu helfen, scheint das Gebot der Stunde zu sein. Doch welche Möglichkeiten gibt es, die Datenflut zu meistern? Zum Beispiel muss die Datenanalyse nicht mehr zentral erfolgen, so kann der Self-Service-BI-Ansatz mehr Fachanwendern ermöglichen, selbst Berichte und Analysen zu erstellen. Die IT-Abteilung spart sich dadurch aufwendige Entwicklungsarbeiten für nur einmalig benötigte Auswertungen. Eine dezentrale BI legt die Analysen zur Entscheidungsfindung direkt in die Geschäftsbereiche. Daten und Analysefähigkeiten werden so in die Hände der Abteilungen und Führungskräfte übergeben, um mehr Agilität an den Tag zu legen.

Entscheider die sich zukunfts­fähig im Markt aufstellen wollen, sollten einen Blick auf ihre Daten werfen.

Die Lösungen haben inzwischen einen übersichtlichen und funktionalen Aufbau und sind in der Lage, Quelldaten aus diversen Datenbanken und Beständen einzubinden, auch über diverse Cloud-Infrastrukturen hinweg. Der Bezug von IT-Diensten im Self-Service für diverse BI-Tools hat sich als ausgesprochen produktiv und kostensparend erwiesen.

Fest steht, dass Unternehmen neue Erkenntnisse aus ihren verschiedenen Datenquellen und Datenbanken generieren können. Die Technologie dazu ist da. Moderne Data-Analytics-Lösungen ermöglichen es, Daten aus unterschiedlichsten Quellen miteinander in Beziehung zu setzen und zu erforschen. Dazu muss jedoch aus den verschiedenen Datenbanken eine Datenbank gemacht werden. Jetzt wird es möglich, Finanzdaten mit z. B. operativen Daten zu verknüpfen und daraus neue Entscheidungsgrundlagen zu ziehen. Ziel ist, Menschen durch assoziative Datenanalysen bessere Entscheidungsgrundlagen zur Verfügung zu stellen.

Das Wissen im Umgang mit Daten und Datenbanken muss mehr Verbreitung finden. Diesem Leitgedanken nimmt sich der „Data Literacy Index“ an. Der souveräne Umgang mit Daten ist für Organisationen aller Art und Größe bares Geld wert. Das geht aus einer neuen, weltweiten Studie des Data-Analytics-Spezialisten Qlik hervor. Erstellt wurde der Data Literacy Index durch die amerikanische Wharton School und das Institut IHS Markit.

Laut dem Index können große Organisationen ihren Wert um bis zu 500 Millionen Dollar steigern, wenn sie unternehmensweit und konsequent auf eine datenversierte Kultur setzen. „Es ist das erste Mal, dass die Datenkompetenz auf Unternehmensebene gemessen wird, was nicht nur die Datenkompetenz der Mitarbeiter des Unternehmens umfasst, sondern auch die Nutzung von Daten für Entscheidungen im gesamten Unternehmen“, so Lorin Hitt, Professor an der Wharton School der University of Pennsylvania. „Die Forschung deutet darauf hin, dass Datenkompetenz in Unternehmen eine Reihe von Aspekten umfasst, die sich gegenseitig verstärken und mit finanzieller Leistung verbunden sind.“

Europa hat laut der neuen Untersuchung den höchsten „Data Literacy Score“ aller Regionen, wobei Großbritannien, Deutschland und Frankreich zu den am weitesten fortgeschrittenen Nationen für „Corporate Data Literacy“ gehören. Zwar ist Singapur die datenkundigste Nation weltweit, regional betrachtet liegen die USA und APAC jedoch gleichauf mit einem geringeren Wert als Europa. Dies spiegelt eine größere Anerkennung wider, die europäische Entscheidungsträger offenbar für den Wert von Daten haben.

Denn 72 Prozent von ihnen bestätigen, dass diese „sehr wichtig“ sind – verglichen mit nur 60 Prozent in Asien und 52 Prozent in den USA. Das Maß für die Datenkompetenz von Unternehmen wurde von IHS Markit und einem Professor der Wharton School festgelegt. Es liegt auf einem Kontinuum, das auf den Datenkompetenzen der Mitarbeiter, datengetriebener Entscheidungsfindung und Datenqualitätsstreuung basiert. Eine Umfrage wurde entwickelt, um die drei Dimensionen der Datenkompetenz von Unternehmen zu messen. Antworten wurden mit passenden Skalen und Scores über alle Indikatoren hinweg standardisiert und aggregiert.

Megatrends wie Automatisierung, Robotik und künstliche Intelligenz bedeuten die vierte industrielle Revolution. Daten werden immer mehr zur universellen Sprache – und Unternehmen, die sie beherrschen, werden erfolgreich sein. Entscheider, die sich zukunftsfähig im Markt aufstellen wollen, sollten einen Blick auf ihre Daten werfen.

Übrigens bieten sich viele Weiterbildungsmöglichkeiten für Unternehmen und Mitarbeitende. Das Fraunhofer-Institut IAO zum Beispiel bietet für Führungs- und Fachkräfte sowie IT-Expertinnen und -Experten, die künstliche Intelligenz, maschinelles Lernen und Data Science verstehen möchten, Seminare an. Die Kurse geben einen Überblick über die nötigen Schritte bei der Durchführung von Datenanalysen mittels Methoden der künstlichen Intelligenz im Zeitalter von Big Data sowie die damit verbundenen Herausforderungen. Die Teilnehmenden erhalten eine Einführung in verschiedene Formen und Algorithmen des maschinellen Lernens und erhalten einen Überblick über deren Unterschiede sowie die jeweiligen Stärken und Schwächen. Praxisbeispiele und Tooldemonstrationen machen die vorgestellten Konzepte verständlich und nachvollziehbar. //


Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Trends im digitalen Marketing

Vom Smart Speaker bis zum Influencer

von Matthias Wahl

Als Bundesverband Digitale Wirtschaft (BVDW) e. V. konnten wir 2018 weiterhin eine rasante Digitalisierung der gesamten Wirtschaft beobachten, beispielsweise auch der klassischen Industrie. Die digitale Transformation ist im Vergleich zum Vorjahr nochmals stark vorangeschritten, das sehen wir auch in der lebendigen Entwicklung unserer Mitgliederlandschaft. Player aus immer neuen Branchen stoßen zum BVDW und treiben die digitale Wirtschaft gemeinsam mit den Digital Natives voran. Themen wie künstliche Intelligenz und Blockchain haben ihre Nische längst verlassen und sind zu gesellschaftsrelevanten Themen geworden. Vor allem der Politik fällt es aber schwer, mit diesen Entwicklungen Schritt zu halten. Wir müssen leider feststellen, dass selbst der Breitbandausbau noch immer viel zu langsam vorangeht und dass digitale Bildung in Schulen noch zu selten umfassend stattfindet.

Digitales Marketing

Das digitale Marketing im Speziellen erhält derweil immer neue Möglichkeiten und wird gleichzeitig professioneller. Beispielsweise wurde 2018 ein neuer Code of Conduct Programmatic Advertising entwickelt, der für noch mehr Qualität und Transparenz im Markt sorgt. Mittlerweile haben ihn bereits Großunternehmen wie Google unterschrieben und auch Werbungtreibende sind dabei, ihre Arbeit danach auszurichten.

Im Bereich Markensicherheit haben 2018 die großen deutschen Verbände OWM (Online-Werbungtreibende im Markenverband) und der BVDW erstmals zusammen ein Brand-Safety-Whitepaper entwickelt, das gemeinsame Richtlinien für den Markt definiert hat. Eine solch übergreifende Zusammenarbeit hat es zu Brand-Safety bis dahin nicht gegeben.

Matthias Wahl, Präsident des BVDW

2018 war auch das Jahr der Smart Speaker um Amazon Alexa, Google Home, Telekom Magenta und Co. Immer mehr Deutsche nutzen digitale Sprachassistenten oder haben bereits Smart Speaker in ihren Häusern und Wohnungen stehen. Dadurch erhält Audio-Content einen deutlichen Schub, den Unternehmen für sich nutzen müssen. Das zeigen auch die Zahlen des neuen Online-Audio-Monitors. Einige Ergebnisse:

Trend 1: 6,6 Millionen neue Webradio- und Online-Audio-Hörer

Laut Online-Audio-Monitor(1) wächst Online-Audio weiter dynamisch: Von den aktuell 40,8 Millionen Nutzerinnen und Nutzern in Deutschland haben 16,3 Prozent Online-Audio erst in den letzten zwei Jahren für sich entdeckt. Das entspricht 6,6 Millionen Neunutzern bzw. Personen, die seit 2016 erstmals mindestens eines der vielfältigen Online-Audio-Angebote gehört haben. Unter den neuen Nutzern sind besonders viele Frauen (62 Prozent) und 30- bis 49-Jährige (44 Prozent). Damit nähert sich die Nutzerschaft von Online-Audio weiter dem Bevölkerungsdurchschnitt an.

Viele der Nutzer widmen sich intensiv den vielfältigen Online-Audio-Angeboten. Fast jeder Zweite von ihnen (44 Prozent) verbringt die Hälfte seiner Audio-Zeit mit Angeboten wie Webradio, Podcast bzw. Radiosendungen auf Abruf und Musikstreaming. Außerdem treibt Online-Audio die generelle Audio-Nutzungszeit: 23 Prozent der Online-Audio-Nutzer geben an, im Laufe des letzten Jahres mehr Audio genutzt zu haben im Vergleich zu 16 Prozent bei den Nichtnutzern von Online-Audio.

Zur Bedeutung von künstlicher Intelligenz befragte der BVDW 2018 seine Mitglieder.

Smart Speaker werden vor allem zum Abspielen von Radio- und Audio-Inhalten genutzt

Obwohl viele Anwendungen und Audio-Inhalte auch ohne die Installation spezieller Skills bzw. Actions über die Smart Speaker ansprechbar sind, haben 26,6 Prozent der Nutzer solche Programme eingerichtet – 85 Prozent davon für die Audionutzung. Anwendungen von Musikstreaming-Diensten und Radioplattformen liegen dabei mit 60 Prozent bzw. 59 Prozent vorn. Ob vorinstalliert oder nicht, überzeugt die Audio-Nutzung über Smart Speaker: 92,7 Prozent der Nutzer sind zumindest meistens mit der Audio-Nutzung über die Smart Speaker zufrieden. Das kann ein Grund dafür sein, weshalb mit hoher Regelmäßigkeit auf diese Inhalte zugegriffen wird. So hört jeder Zweite (49,2 Prozent) täglich oder fast täglich Audio-Inhalte über Smart Speaker, bei den unter 30-Jährigen sind es 58,3 Prozent.

Für Unternehmen ist also jetzt die beste Zeit, um eine Audio-Strategie zu erarbeiten. Ein lesenswerter Beitrag, was dabei für Unternehmen zu beachten ist, ist auf der BVDW-Website zu finden(2).

Trend 2: Qualitätsoffensive der digitalen Werbung

Mit dem Ziel, ein einheitlich hohes Qualitätsniveau im digitalen Marketing zu etablieren, startete die Fokusgruppe „Digital Marketing Quality“ (DMQ) im BVDW Ende 2018 mit der „Digital Trust Initiative“. Im digitalen Marketing existieren sowohl national als auch international bereits zahlreiche Zertifikate, Qualitätsstandards und Initiativen, die sich teilweise ergänzen und aufeinander aufbauen, mitunter aber auch die gleichen Ziele verfolgen. Mit der Digital Trust Initiative schaffte der BVDW unter Einbeziehung von Vermarktern, (Media-)Agenturen und Systemanbietern wie z. B. Messdienstleistern die Grundlage, um einen einheitlich hohen Qualitätslevel zu etablieren.

Besonders wichtig ist es, fortlaufend die Marktentwicklungen und spezifischen Anforderungen der Werbungtreibenden zu erfassen, zu bewerten und in die Kriterien der Digital Trust Initiative zu integrieren. Das zentrale Element der DTI ist der drei Säulen enthaltende Kriterienkatalog, auf dessen Grundlage sowohl Vermarkter und Agenturen als auch Systemanbieter bewertet werden: Die erste dieser Säulen „User Experience“ beinhaltet die Verpflichtung auf die Kriterien des „Better Ad Experience Programms“ (Produktportfolio) sowie auf die LEAN-Principles (technische Produktspezifikationen). Bei der zweiten Säule „Verification“ stehen Viewability, Invalid Traffic und Brand-Safety im Fokus. „Transparency“, die dritte Säule, stützt sich auf den Code of Conduct Programmatic Advertising (Unterzeichnung obligatorisch) sowie die verpflichtende Teilnahme an Media-Analysen. Die Kriterien werden unterschiedlich stark gewichtet – für eine erfolgreiche Zertifizierung müssen mindestens 80 Prozent der Anforderungen erfüllt sein.

Quelle: BVDW-Befragung unter 140 Social-Media- und Influencer-Marketing-Experten

Trend 3: Influencer-Marketing

Neben dem Audio-Boom war 2018 auch das Jahr der Influencer. Influencer-Marketing hat einen weiteren Evolutionsschub unternommen, kaum ein Großunternehmen verzichtet heutzutage auf die Zusammenarbeit mit Youtubern, Instagramern und Bloggern. Besonders bei jungen Zielgruppen hat Influencer-Marketing eindeutigen Einfluss auf Verkaufszahlen. Jeder Sechste kauft ein Produkt, das er zuvor bei einem Influencer sah(3). Die Unternehmen reagieren und erhöhen ihre Budgets für Influencer-Marketing. Laut einer neuen Befragung des BVDW (November 2018) unter werbungtreibenden Unternehmen sind bei 61 Prozent der deutschen Social-Media- und Influencer-Marketing-Manager 2019 steigende Budgets für Influencer-Marketing geplant. Die Ausgaben für Instagramer wie Bibi, Caro Daur oder Lisa & Lena belaufen sich bei rund einem Viertel der befragten Unternehmen auf jeweils 10 000 bis 50 000 Euro pro Jahr. Weitere 25 Prozent investieren zwischen 50 000 und 250 000 Euro pro Jahr. Die Unternehmen professionalisieren Influencer-Marketing. Die bevorzugten Partner sind meist Nischen-Influencer, nicht die großen Stars.

In den Medien war Influencer-Marketing vor allem wegen einer neuen Abmahnwelle sehr präsent. Verschiedene Urteile zwangen Influencer dazu, ihre Postings mit dem Hashtag #werbung zu kennzeichnen, obwohl für das Posting kein Geld bezahlt wurde. Mittlerweile gibt es auch Urteile, die solch pauschale Verpflichtungen wieder zurückgenommen haben. Die Diskussion ist nicht abgeschlossen. //


Kontakt zum Autor

Quellen:(1) https://www.online-audio-monitor.de/
(2) https://www.bvdw.org/der-bvdw/news/detail/artikel/google-home-amazon-alexa-co-so-wirds-gemacht/
(3) https://www.bvdw.org/presse/detail/artikel/jeder-sechste-kauft-ein-produkt-das-er-zuvor-bei-einem-influencer-sah-1/

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Künstliche Intelligenz mit Mehrwert für den Menschen

KI braucht einen klaren Werterahmen, damit die Technologie für die Menschen nutzbringend eingesetzt werden kann.

von Markus Heimann

Ist in Ihr Wohnzimmer auch schon ein Sprachassistent eingezogen? Oder träumen Sie davon, im autonom fahrenden Auto entspannt Zeitung zu lesen? Das sind nur die offensichtlichen Bereiche, bei denen künstliche Intelligenz (KI) zum Einsatz kommt.

Es gibt eine Vielzahl an Beispielen, wie wir KI zur Verbesserung im Alltag sowie in Wirtschaft und Gesellschaft einsetzen können. Dazu gehören eine verbesserte medizinische Diagnose, eine Optimierung von Lieferketten oder das Bewältigen humanitärer Katastrophen. KI ist mittlerweile zu einem wichtigen Bestandteil der Digitalisierung in Deutschland geworden. Das hat nicht zuletzt die KI-Strategie der Bundesregierung unterstrichen.

Potenzial von KI

Dank KI und komplexer Algorithmen gewinnen Unternehmen neue Erkenntnisse, die aufgrund der schieren Menge und Komplexität der vorhandenen Daten vorher nicht möglich gewesen wären. Das Marktforschungsunternehmen Gartner prognostiziert einen Geschäftswert durch KI von 1,2 Billionen Dollar für 2018. Gleichzeitig zeigt eine Umfrage von YouGov, dass die Deutschen gegenüber KI durchaus kritisch sind.

Vertrauen in KI gelingt nur, wenn ein verbindlicher Werterahmen geschaffen wird.

Unternehmen haben besondere Verantwortung

Dies verdeutlicht, welche wichtige Rolle und Verantwortung Unternehmen wie wir als Wegbereiter der Digitalisierung innehaben: Telefónica Deutschland will Chancen von KI nutzen und dabei verantwortungsbewusst handeln. Deshalb zeigen wir, welchen konkreten Nutzen KI bringen kann, haben uns einen klaren Werterahmen zum Einsatz von KI gesteckt und fördern den gesellschaftlichen Diskurs u. a. bei Veranstaltungen im „Telefónica Basecamp“ in Berlin.

Neben dem konkreten Nutzen von KI ist für die Akzeptanz in der Gesellschaft ein ethischer Werterahmen wichtig.

Markus Heimann

Wir verfügen über jede Menge Daten, die täglich milliardenfach durch unsere normalen Geschäftsprozesse entstehen. Sie stammen z. B. aus unserem Netz und unseren IT-Systemen, aber auch aus externen Quellen wie der Marktforschung. Die Analyse dieser Daten und der Einsatz von KI bringt dabei einen erheblichen Mehrwert für unsere Kunden, unsere Mitarbeiter und unser Umfeld.

Konkrete Beispiele schaffen Vertrauen

Mittels KI erkennen wir beispielsweise frühzeitig Unregelmäßigkeiten in unserem Mobilfunknetz. Das erleichtert die Wartung und Optimierung des Netzes für ein besseres Kundenerlebnis. Noch offensichtlicher für unsere Kunden ist der Einsatz von KI im Kundenservice: Anfang 2018 hat die Telefónica Gruppe „Aura“ eingeführt, einen Sprachassistenten auf Basis von KI, der die Interaktion unserer Kunden mit uns vereinfacht. Aura lernt die Bedürfnisse der Kunden kennen und ermöglicht somit maßgeschneiderte Lösungen.

Mit KI können wir auch große gesellschaftliche Probleme angehen. Mein Kollege Enrique Frías aus Madrid und sein Team führen aktuell eine Studie in Kolumbien durch. Sie wollen mithilfe von Mobilfunkdaten Erkenntnisse über die Bewegungsströme von Bevölkerungsgruppen erhalten, die aufgrund von klimawandelbedingten Problemen gezwungen sind zu migrieren.

Das sind nur einige Beispiele, wie KI einen echten Mehrwert bringen kann. Uns ist es wichtig, dass die Menschen solche und weitere Anwendungsfelder kennen, um den Einsatz von KI besser bewerten zu können.

Klarer Werterahmen für Einsatz von KI

Neben dem konkreten Nutzen von KI ist für die Akzeptanz in der Gesellschaft ein ethischer Werterahmen wichtig. Das ist die europäische Stärke gegenüber den aktuellen Ansätzen von KI in den USA oder in China. Die Telefónica Gruppe hat sich weltweit dazu bekannt, künstliche Intelligenz nur nach konkreten Prinzipien der Ethik einzusetzen und somit einen positiven Einfluss der Technologie auf die Gesellschaft zu unterstützen. Wir stellen bei der Anwendung von KI den Menschen in den Mittelpunkt. Dazu gehört auch, dass die Verwendung von Daten transparent sein muss und die Daten geschützt. Und: Ethische Entscheidungen bleiben bei uns dem Menschen vorbehalten. Nur so schaffen wir das Vertrauen in diese neue Technologie. //

FAZIT

Künstliche Intelligenz ist ein zentraler Aspekt der Digitalisierung in Deutschland. Gerade deshalb tragen Unternehmen beim Einsatz von KI eine besondere Verantwortung – denn ohne das Vertrauen der Menschen geht es nicht. Es ist wichtig, Beispiele für den Einsatz von KI verständlich darzustellen, und es braucht in Deutschland einen klaren Werterahmen für den Einsatz der Technologie.


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.