Schlagwortarchiv für: Abteilung IT

Digitale Souveränität wahren

Soll sich KI auf breiter Basis durchsetzen, ist es notwendig, dass die Industrie und auch die Verbraucher Vertrauen in die Technologie gewinnen.

Die TREND-REPORT-Redaktion sprach mit Professor Holger Hanselka, Präsident des Karlsruher Instituts für Technologie (KIT) und Mitglied im Lenkungskreis der Plattform Lernende Systeme.

Herr Prof. Hanselka, welche Chancen bieten sich für den Standort Deutschland im Kontext neuer KI-Technologien?

Lernende Systeme, die auf Methoden und Technologien der künstlichen Intelligenz basieren, werden zunehmend zum Treiber der Digitalisierung in Wirtschaft und Gesellschaft. Man denke nur an Industrie 4.0, medizinische Diagnostik, autonomes Fahren sowie die Unterstützung von Rettungskräften in Katastrophengebieten. Das wirtschaftliche Potenzial dieser Systeme für Deutschland ist enorm: Bereits heute entstehen völlig neue Geschäftsmodelle, welche die traditionellen Wertschöpfungsketten drastisch verändern.

Aktuell ist die Herausforderung im Zusammenspiel von Wissenschaft und Wirtschaft, dass wir unser Wissen rasch für neue KI-Anwendungen und Geschäftsmodelle nutzen, denn lernende Systeme sind ein zentraler Wettbewerbsfaktor für die Zukunftsfähigkeit des Innovationsstandortes Deutschland.

Dies bietet Chancen für neue Unternehmen, kann aber auch zur Bedrohung für etablierte Marktführer werden, wenn diese nicht rechtzeitig reagieren. In Deutschland ist es unser erklärtes Ziel, dass künstliche Intelligenz dem Menschen dienen soll, nicht umgekehrt. So steht es auch in der KI-Strategie der Bundesregierung. Dies ist auch der Kerngedanke der Plattform Lernende Systeme, in der Politik, Wirtschaft und Wissenschaft zusammenarbeiten, um die Chancen, die KI bietet, bestmöglich für Deutschland zu nutzen.

Die deutschen Investitionen in KI-Technologien, im Vergleich zu den USA und China, fallen eher nüchtern aus. Wie können wir mit der Forschung am Ball bleiben?

In unserer Forschung zu Industrie 4.0, beim autonomen Fahren oder auch im Bereich der Entwicklung von lernenden Systemen für lebensfeindliche Umgebungen nehmen wir in Deutschland bereits einen Spitzenplatz ein. So halten deutsche Unternehmen weltweit die meisten Patente zum autonomen Fahren. Auch in der IT-Sicherheit, einer wichtigen Voraussetzung für Industrie 4.0, sind wir wissenschaftlich weit vorne. Beispielsweise erforschen wir am Karlsruher Institut für Technologie in unserem Kompetenzzentrum für IT-Sicherheit KASTEL, wie sich KI nutzen lässt, um gegen Angreifer gewappnet zu sein, und wie man sich gegen menschlich und künstlich intelligente Angreifer-Systeme wehrt.

Mit der zunehmenden Vernetzung von Unternehmen und öffentlichen Einrichtungen wächst auch deren potenzielle Verwundbarkeit durch Cyber-Angriffe.

Damit die Industrie Vertrauen in KI gewinnt, ist es erforderlich, dass wir die digitale Souveränität wahren können. Die Herausforderung im Zusammenspiel von Wissenschaft und Wirtschaft ist aktuell, dass wir unser Wissen rasch für neue KI-Anwendungen und Geschäftsmodelle nutzen, denn lernende Systeme sind ein zentraler Wettbewerbsfaktor für die Zukunftsfähigkeit des Innovations­standortes Deutschland.

Wie können wir mehr Start-ups im Kontext der neuen Technologien an den Start bringen und fördern?

Wichtig ist eine Gründerförderung auf allen Ebenen. Daher sieht die KI-Strategie der Bundesregierung konkrete Maßnahmen vor, um die Zahl der Gründungen im Bereich der KI zu erhöhen, von Beratungsangeboten bis hin zur Bereitstellung von Wagniskapital. Klar ist: Das Wissen, das wir aktuell in Deutschland haben, müssen wir in den Markt bringen, sodass es der Gesellschaft und Wirtschaft nutzt. Auch am KIT fördern wir massiv Ausgründungen.

Zwei Beispiele: Das 2016 gegründete Unternehmen „Understand ai“ mit Wurzeln am KIT kombiniert Machine Learning mit menschlicher Sorgfalt und bereitet mithilfe selbstlernender Algorithmen Daten für das autonome Fahren auf. „Things Thinking“ setzt KI ein, um große Textmengen in kurzer Zeit zu analysieren, was beispielsweise Wirtschaftsprüfern, Steuerberatern und Kanzleien weiterhilft. Wichtig ist, dass wir Gründern in jedem Schritt des Unternehmensaufbaus systematisch Beratungsangebote an die Hand geben. Dies bedeutet auch, dass wir im Sinne einer Kultur des Scheiterns gesellschaftlich anerkennen, dass junge Unternehmen auch von negativen Erfahrungen lernen und dadurch immer besser werden.

Wo befinden wir uns ungefähr im Entwicklungsprozess der „wirklichen KI“?

Wenn Sie mit „wirklicher KI“ die Unterscheidung von starker und schwacher KI meinen, dann bin ich der falsche Ansprechpartner, denn ich bin kein Informatiker und auch kein Philosoph. Aber als Ingenieur interessiert mich sehr, wie KI in unterschiedliche technische Entwicklungsprozesse einfließt und dort zu großen Veränderungen führt. Denn letztendlich ist es ja nicht die KI, die gesellschaftliche Veränderungen mit sich bringt, sondern die technischen Veränderungen in unterschiedlichen Anwendungsbereichen, die durch KI erreicht werden können. Und da sind die Veränderungen, die man heute schon durch den Einsatz von KI erreichen kann, durchaus schon beträchtlich.

Diesen Ansatz verfolgen wir ja auch in der Plattform Lernende Systeme, wo drei Arbeitsgruppen sich konkreten Anwendungsszenarien widmen, zu intelligenten Verkehrssystemen, zur Gesundheit und zu lebensfeindlichen Umgebungen.

Teilweise autonom fahrende Fahrzeuge sind bereits Realität.

Was wird in naher Zukunft zu erwarten sein?

Im autonomen Fahren werden wir gewaltige Fortschritte machen. Autos, die selbstständig einparken und die uns von A nach B bringen werden, sind ja bereits heute Realität. Fahrerlose Autos werden mehr und mehr unsere Mobilität prägen, die multimodal sein wird und verschiedene Verkehrsmittel kombiniert, idealerweise geplant mit einer App. Dies wird auch die Stadt- und Regionalentwicklung positiv beeinflussen, weil gerade auch ältere Menschen durch das fahrerlose Auto mobiler sind und nicht mehr zwingend in die Stadt ziehen müssen.

Genauso ist die intelligente integrierte Vernetzung der Produktion ein Prozess, der längst begonnen hat und sich in der globalisierten Welt mehr und mehr durchsetzen wird. Dies hat zur Folge, dass wir nicht in Ländergrenzen denken dürfen, sondern europaweit Strategien entwickeln müssen. Die jüngst verkündete Zusammenarbeit von Daimler und BMW beim autonomen Fahren ist ein wichtiges Zeichen, denn es geht darum, in Europa die Kräfte zu bündeln.

Wir müssen KI fest in die in­ge­nieurwissenschaftliche Ausbildung integrieren.

Auch werden sich Berufsbilder verändern. Das Weltwirtschaftsforum rechnet damit, dass schon bis zum Jahr 2022 weltweit rund 75 Millionen Arbeitsplätze durch Maschinen ersetzt werden. Gleichzeitig werden der Studie zufolge in den kommenden fünf Jahren 133 Millionen neue Stellen geschaffen, für die teilweise ganz neue Fachkenntnisse nötig sein werden, wie Datenanalysten, E-Commerce- und Social-Media-Spezialisten.

Dies bedeutet, dass bereits Schülerinnen und Schüler programmieren lernen und wir KI fest in die ingenieurwissenschaftliche Ausbildung integrieren müssen. Denn künftig werden wir KI in jedem Schritt der Entwicklung von neuen Produkten mitdenken müssen.

Wie könnten in Zukunft die neuen KI-Technologien unsere Netze und Anwendungen sicherer machen und welche Herausforderungen sind noch zu meistern?

Der Hackerangriff auf den Bundestag Ende des letzten Jahres und die Cyberattacke „Wanna Cry“ auf die Deutsche Bahn im Mai 2017 sind nur zwei Beispiele für Angriffe auf IT-Systeme des Staates und der Wirtschaft. Mit der zunehmenden Vernetzung von Unternehmen und öffentlichen Einrichtungen wächst auch deren potenzielle Verwundbarkeit durch Cyber-Angriffe.

KI kann die Sicherheit von IT-Systemen verbessern. Wir sollten aber darauf achten, nicht nur die Außengrenzen eines komplexen IT-Systems zu schützen, das reicht nicht aus. Denn wir müssen auch reagieren können, wenn ein Teil des IT-Systems von einem Angreifer übernommen wurde.

KI-Systeme können ihr Potenzial ausspielen, wenn es um die verlässliche Angriffserkennung geht. Eine Herausforderung besteht darin zu verstehen, warum eine KI dies oder jenes tut. Daher brauchen wir dringend weitere Forschung und Einblicke in die „Blackbox“ der KI, damit wir uns auf die Entscheidungen von KI-Systemen in kritischen Situationen verlassen können. //

Kontakt zum Interviewpartner

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

5G: Steuerung ohne Latenz

Der 5G-Standard: Grundvoraussetzung für das Industrial IoT

von Kristina Kastner

Immer mehr, immer schneller: Jahrzehntelang wurden mit jedem neuen Mobilfunkstandard die Datenraten massiv erhöht. So auch diesmal, beim Wechsel von 4G zu 5G. Und doch ist diesmal etwas fundamental anders: Für das IoT sind exorbitante Geschwindigkeiten beim Up- und Download zwar interessant, wichtiger aber sind Zuverlässigkeit, niedrige Latenzen und eine gute Festkörperdurchdringung. Im Mittelpunkt der Standardisierungsbemühungen stehen bei 5G mehrere Milliarden Maschinen, Autos, Dinge, die in Echtzeit miteinander kommunizieren wollen.

Mobilfunknetze haben seit den 1980er-Jahren vor allem einen Zweck: Menschen zu verbinden. Zunächst diente das Netz ausschließlich zum Telefonieren, also der Sprachübertragung. Danach gab es ungefähr alle zehn Jahre einen Entwicklungssprung durch die Einführung eines neuen Mobilfunkstandards.

In den 1990er-Jahren kam mit der zweiten Generation (2G) die Textübertragung in Form der SMS hinzu. Internetfähig war kaum ein Mobilgerät. Und wenn doch, wurden mobile Daten über GPRS oder per Edge (E) mit maximal 220 kbit / s übertragen. Das reicht kaum für den Aufbau einer modernen Website.

Mit der dritten Generation (3G oder auch UMTS) begann der Siegeszug der Smartphones und das Internet wurde mobil – um mit der vierten Generation (4G oder auch LTE-Advanced) seine heutige Geschwindigkeit zu erreichen. In der Theorie sind heute Downloadgeschwindigkeiten von 1 000 Mbit / s möglich, in der Praxis sind es allerdings eher 50 Mbit / s. Das liegt zum Beispiel daran, dass zu viele Nutzer in einer Zelle eingewählt sind, oder daran, dass sich der Nutzer in einem geschlossenen Raum befindet und sich der Empfang dadurch deutlich verschlechtert.

Seit 1998 federführend bei der Standardisierungsarbeit ist 3GPP („3rd Generation Partnership Project“), eine weltweite Kooperation von Standardisierungsgremien. Ein Großteil aller Mobilfunknetzbetreiber, -hersteller und -regulierungsbehörden ist hier organisiert und erarbeitet technische Spezifikationen, die alle Aspekte der Mobilfunktechnik möglichst präzise beschreiben. So soll sichergestellt werden, dass die Mobilgeräte der Hersteller in den Mobilfunknetzen weltweit kompatibel sind.

„In der Fabrik der Gegenwart sind zahlreiche Prozesse automatisiert. Zudem werden heute bereits Maschinendaten gesammelt, analysiert und zur Optimierung von Abläufen genutzt.“

Soweit zur Geschichte der Mobilfunkstandards. Die Zukunft heißt 5G und wird für das Jahr 2020 erwartet. 5G verspricht nicht weniger als eine Revolution: Zum ersten Mal steht nicht die Kommunikation zwischen Menschen im Mittelpunkt der Weiterentwicklung, sondern die zwischen Dingen – das Internet of Things. Selbstverständlich wird auch in diesem Entwicklungsschritt das Mobilfunknetz bzw. das mobile Internet noch komfortabler für die menschlichen Anwender. Bis zu 10 Gb / s Downloadgeschwindigkeit und sogar 20 Gb / s im Upload sollen zukünftig laut 3GPP-Spezifikationen – in der Spitze – möglich sein. 5G richtet sich (zumindest in Europa) aber weniger an die Endverbraucher als vielmehr an die Industrie und die hat, über die hohen Bandbreiten hinaus, ganz andere Bedürfnisse.

Vernetzung in der Smart Factory

In der Fabrik der Gegenwart sind zahlreiche Prozesse automatisiert. Zudem werden heute bereits Maschinendaten gesammelt, analysiert und zur Optimierung von Abläufen genutzt. So kann mancherorts der Wartungsbedarf prognostiziert und vorausschauend eingeplant werden – Stillstände werden so vermieden. Um die dafür benötigten Daten zu sammeln, werden die Maschinen mit Sensoren ausgestattet, die in einem lokalen Netzwerk vernetzt sind und die Daten zu einer Plattform in einer Cloud schicken.

Die Fabrik der Zukunft, die Smart Factory, basiert auf solchen intelligenten Einheiten. Das bedeutet, die Zahl der vernetzten Dinge steigt: Dazu gehören etwa fahrerlose Transportfahrzeuge in der Logistik oder Transportbehälter, die ihre aktuelle Position und ihren Füllstand melden, aber auch Augmented-Reality-Brillen, die die Fabrikarbeiter durch komplexe Anwendungen und Arbeitsschritte führen.

Der große Unterschied zwischen heute und morgen: Heutige Vernetzungstechnologien sind größtenteils noch kabelgebunden. Hier kommen vor allem Ethernet- und Feldbus-Technologien zum Einsatz. Die Smart Factory aber muss kabellos funktionieren, denn nur so wird die benötigte Mobilität und Flexibilität möglich – also etwa das Tracken einer Lieferung in einer komplexen Logistikkette. Heutige Funkverbindungen genügen jedoch kaum den Ansprüchen der Smart Factory, insbesondere in Hinblick auf Zuverlässigkeit, Latenzen und die Möglichkeit, eine große Masse an Dingen miteinander – in Echtzeit – zu vernetzen.

Erste Schritte auf dem Weg zur Smart Factory sind heute schon möglich: So existieren bereits jetzt mit Narrowband-IoT und M2M-Kommunikation Technologien und Konzepte, die die Vernetzung zwischen Dingen bzw. Maschinen möglich machen. Narrowband-IoT ist als 3GPP-Standard Teil von „Long Term Evolution“ (LTE). Er funktioniert über simple Funkmodule, die per Plug & Play installiert werden und günstig in der Anschaffung und im Betrieb sind – und somit ideal für IoT-Anwendungen, die nur ab und zu kleine Datenmengen versenden. An Narrowband-IoT lässt sich bereits ablesen, was den 5G-Standard gegenüber seinen Vorgängern so besonders macht: Bei Industrieanwendungen wie dem IoT geht es nur selten um große Bandbreite und hohe Geschwindigkeiten. Vielmehr müssen kleine Datenmengen zuverlässig übertragen werden – auch in schwierigen Umgebungen und über große Distanzen.

Das Netzwerk in Scheiben schneiden

Die Herausforderung, die der 5G-Standard meistern muss, liegt auch und besonders in der Zahl der Geräte, die sich im mobilen Netz befinden. Laut einer Prognose des US-amerikanischen Marktforschungsunternehmens IDC werden im Jahr 2020 etwa 1,8 Milliarden Smartphones weltweit mobiles Internet nutzen – hinzu kommen bis zu 50 Milliarden vernetzte Fahrzeuge, Maschinen und sonstige Geräte, die miteinander, mit der Cloud und mit den Nutzern kommunizieren. Die Lösung liegt darin, das Netz zu entzerren, je nach Anforderung. Das geschieht durch das sogenannte Network-Slicing. Dabei bekommt jede Anwendung das Netz, das sie benötigt, indem das Netz virtuell in Abschnitte oder Sub-Netze mit eigens definierten Ressourcen- und Verfügbarkeits-Garantien unterteilt wird.

Im 5G-Netz werden neue Frequenzbereiche hinzugezogen, die bisher nicht genutzt wurden. Bisher findet der gesamte Mobilfunk im Bereich bis 6 GHz statt. Die Frequenzen darüber hinaus waren nicht nutzbar, da bislang die notwendigen Technologien fehlten. Die neuen, großen Übertragungsraten finden alle oberhalb von 6 GHz statt. Das bedeutet unter anderem, dass das Netz deutlich engmaschiger werden muss, als das bisher der Fall war. Hier werden die Mobilfunkbetreiber investieren müssen, in neue – und vor allem mehr – Antennen. Das Signal der IoT-Endgeräte dagegen muss Wände und andere Festkörper durchdringen können, da es in Gebäuden auch vom Kellergeschoss ins Erdgeschoss gelangen muss. Diese Festkörperdurchdringung ist besonders bei den niedrigen Frequenzen gegeben, außerdem wird in diesem Spektrum eine hohe Zuverlässigkeit erreicht. Für eine flächendeckende Abdeckung ist das 2,6-GHz-Spektrum prädestiniert.

Pro Quadratkilometer eine Million vernetzter Geräte

Das IoT stellt fünf große Anforderungen an das mobile Netz: Größtmögliche Netzabdeckung, robuste Übertragungen, maximale IT-Sicherheit, geringstmöglicher Stromverbrauch und minimale Kosten. IoT-Endgeräte verbrauchen durch die Einschränkungen bei der Datenrate und der Sendefrequenz sehr wenig Strom, sodass ein Batteriesatz zehn Jahre oder länger halten kann. Aufgrund der geringen benötigten Bandbreite lassen sich mehrere 10 000 IoT-Endpunkte (an denen die gesendeten Daten der vernetzten Geräte zusammenlaufen) mit einer Funkzelle versorgen. Das 5G-Netz wird für die Vernetzung von einer Million Geräte / Dinge pro Quadratkilometer ausgelegt sein.

„Die Herausforderung, die der 5G-Standard meistern muss, liegt auch und besonders in der Zahl der Geräte, die sich im mobilen Netz befinden.“

Ein weiterer Faktor, der für das IoT elementar ist, ist die niedrige Latenz. Der Zeitraum zwischen dem Auftreten eines Signals beim Sender und dem Eintreffen desselben beim Empfänger muss für Industrieanwendungen so kurz wie möglich sein, sodass etwa im Falle einer Störung im Produktionsablauf kein Domino-Effekt einsetzt und weitere Schäden nach sich zieht. Gleichzeitig dürfen die betreffenden Anwendungen praktisch keinerlei Ausfall verzeichnen. Im 4G-Netz liegt die Latenz bei 10 ms, sie soll auf 1 ms in 5G sinken.


Quelle: Begleitforschung Technologieprogramm PAiCE

Mitreden bei der Standardisierung

Die Arbeit am 5G-Mobilfunkstandard soll im Rahmen der 3GPP bis Ende 2019 abgeschlossen werden, sodass 2020 mit der Einführung begonnen werden kann. In den einzelnen Arbeitsgruppen sind auch Vertreter aus Forschung und Wirtschaft vertreten, unter anderem auch aus Deutschland. So auch mehrere Projektpartner des Forschungsprojektes IC4F aus dem Technologieprogramm PAiCE des Bundesministeriums für Wirtschaft und Energie (BMWi), das an robusten und echtzeitfähigen Kommunikationslösungen für die verarbeitende Industrie arbeitet. Sie konnten einige relevante Anwendungsfälle und Anforderungen an 5G im Kontext der Smart Factory in die 5G-Standardisierung einbringen. Diese wurden im Technical Report „Study on Communication for Automation in Vertical domains” berücksichtigt. Auf diese Weise können einzelne Branchen Einfluss darauf nehmen, dass ihre Interessen bei der Formulierung des 5G-Standards berücksichtigt werden.

„Die Arbeit am 5G-Mobilfunkstandard soll im Rahmen der 3GPP bis Ende 2019 abgeschlossen werden, sodass 2020 mit der Einführung begonnen werden kann.“

Der betreffende Technical Report deckt Anwendungsfälle aus wichtigen Bereichen wie Service-Robotik, Augmented Reality, Virtual Reality, Fertigungsautomatisierung, Prozesssteuerung und -überwachung, mobile Fernsteuerung und Fernwartung mit Sicherheitsfunktionen sowie massive funkbasierte Sensornetze ab. So konnte etwa festgelegt werden, dass mobile Robotiksysteme, die über ein 5G-Netz kommunizieren, in der Lage sein müssen, in Echtzeit miteinander zu kommunizieren und Kontrolldaten auszutauschen. Dies ist elementar für die kollisionsfreie Zusammenarbeit, da in der Fabrik der Zukunft bis zu hundert (potenziell bis zu 1 000) autonome mobile Robotiksysteme gleichzeitig zusammenarbeiten werden. Einer von vielen Schritten hin zu einem Industrial IoT. //


Autorenvita Kristina Kastner

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Auf Unbekanntes vorbereiten

Im Kontext von Datensicherheit bedeuten KI-Systeme zwangsläufig, dass Organisationen sich auf neuartige Bedrohungen einstellen müssen.

Prof. Dr. Jörn Müller-Quade erläuterte der TREND-REPORT-Redaktion das Forschungs­feld „Kryptographie und Sicher­­heit“ am KIT und mögliche künftige Bedrohungsszenarien im Kontext von KI.

Herr Prof. Müller-Quade, mit welchen Themen und Aufgaben beschäftigt sich Ihr Forschungsbereich?

Ich erforsche kryptographische Protokolle, etwa für Online-Banking oder Online-Wahlen. Für mich sind diese Verfahren wie kleine Wunder, weil scheinbar Unmögliches erreicht wird, so kann etwa die Korrektheit der Auszählung einer Online-Wahl nachgewiesen werden, ohne dass das Wahlgeheimnis verletzt wird. Neben dem Nutzen, den solche Verfahren in der IT-Sicherheit haben, finde ich sie auch für sich genommen faszinierend. Sogenannte Zero-Knowledge-Beweise können einen von einer Aussage überzeugen, ohne dabei aber mehr zu verraten als die Gültigkeit eben jener Aussage. Sichere Mehrparteienberechnungen erlauben es mehreren Teilnehmern gemeinsam, auf geheimen Eingaben der einzelnen Teilnehmer basierend ein Ergebnis verteilt zu berechnen – ohne dass ein Teil der Teilnehmer das Ergebnis manipulieren oder mehr erfahren kann als eben das Ergebnis. Wie man so etwas hinbekommt und wie man aus solchen mächtigen Bausteinen größere Anwendungen bauen kann, sind Grundfragen der kryptographischen Forschung.

Auf welche Gefahren und Szenarien im Kontext von KI-Technologien müssen wir uns einstellen?

KI-Systeme können Angreifer unterstützen, damit können beispielsweise Angriffe, die bisher mühsam von Menschen gemacht werden müssen, automatisiert werden, was zu einer enormen Zunahme solcher Angriffe führen wird. Konkret denke ich an „Spear Phishing“, also maßgeschneiderte Betrugs-E-Mails, die eine Schadsoftware enthalten, die aktiv wird, wenn man den Empfänger dazu verleitet, eine Datei oder einen Link anzuklicken. KI-Systeme entwickeln in manchen Bereichen übermenschliche Leistungen und könnten somit auch völlig neue Angriffe finden. KI-Systeme, wie sie in Zukunft in vielen Anwendungen stecken werden, können auch selbst angegriffen werden. Wenn man das Verhalten einer KI analysiert, kann man diese KI leicht täuschen, oder wenn man Trainingsdaten verfälscht, kann ein sehr unerwünschtes Verhalten der KI bewirkt werden. Ein Problem ist, dass wir KI-Systeme nicht gut verstehen, daher müssen wir KI-Systeme geschickt mit klassischen Systemen kombinieren, wir benötigen ein „KI-Engineering“.

Wie können schlaue Algorithmen und KI im Kontext der Cybersecurity zum Einsatz gebracht werden?

Angriffe lassen sich nicht 100-prozentig verhindern, daher ist auch die Angriffserkennung extrem wichtig. Insbesondere hier werden KI-Systeme enorm nützlich sein. Auch werden KI-Systeme bei Sicherheitstests helfen, etwa Systeme testweise angreifen, um die Systeme weiter zu härten. Dies ist beispielsweise denkbar für sogenannte Seitenkanalangriffe auf Hardware. Ist etwa der Stromverbrauch einer Berechnung korreliert mit geheimen Eingaben der Berechnung, könnten KI-Systeme dies in Zukunft besser erkennen als Menschen. Leider haben solche Ansätze einen Dual-Use-Charakter und könnten auch von Angreifern missbraucht werden, hier erwarte ich ein Hase-und-Igel-Wettrennen. KI-Systeme könnten den Datenschutz verbessern, ein Beispiel ist das NurseEYE-System, bei dem ein schlauer Algorithmus aus Video­daten Stürze von Patienten in einem Krankenhaus erkennt. Erst wenn ein Sturz erkannt wird, werden die hochaufgelösten Videodaten an das Klinikpersonal weitergegeben.

Was meinen Sie mit dem „systemischen Ansatz zur wirksameren Vorbeugung von Cyberangriffen“?

Wenn wir in Zukunft befürchten müssen, dass KI-Systeme oder Mensch-Maschine-Teams völlig neue Angriffe finden, wird es nicht genug sein, unsere IT-Systeme gegen bekannte Angriffe zu patchen. Wir müssen uns auf unbekannte Angriffe vorbereiten. Hier könnte die Kryptographie ein Vorbild sein. Dort gibt es die sogenannte beweisbare Sicherheit, dies ist leider eine sehr missverständliche Bezeichnung, denn die Sicherheit realer Systeme lässt sich nicht beweisen. Dennoch wird in einem mathematischen Modell nachgewiesen, dass jeder erfolgreiche Angriff vorher explizit angegebene Sicherheitsannahmen verletzt. Dieser Zugang berücksichtigt alle Angriffe, auch bisher unbekannte Angriffe, die sich im Modell darstellen lassen. Wird nun ein beweisbar sicheres Verfahren dennoch gebrochen, so ist entweder das Modell noch nicht nahe genug an der Realität oder eine Sicherheitsannahme ist falsch. Durch jeden erfolgreichen Angriff hat man einen Erkenntnisgewinn.

Inwieweit können die Blockchain-Technologien helfen, die IT sicherer zu machen, und welche Rolle spielt dabei die Kryptographie?

Die Blockchain ist ein gutes Beispiel dafür, wie kryptographische Verfahren scheinbar Unmögliches schaffen. So kann eine Blockchain die Basis für eine Währung sein, die ein gewisses Maß an Anonymität hat und obwohl sie überhaupt nicht mehr an stoffliche Artefakte gebunden ist, dennoch einen Wert hat. Neben der Blockchain gibt es aber noch viele andere kryptographische Verfahren, die manchmal sogar viel geeigneter sind, all die Probleme zu lösen, für die zurzeit die Blockchain vorgeschlagen wird. Prinzipiell kann man sich vorstellen, dass all die Aufgaben, für die zur Zeit ein vertrauenswürdiger Vermittler nötig ist, etwa ein Auktionator, ein Notar oder eine Bank, auch von verteilten kryptographischen Verfahren gelöst werden können.

Sichere Verschlüssungsverfahren? Was raten Sie an?

Bei Verschlüsselungsverfahren wird der Erfolg der Kryptographie besonders deutlich. Die Snowden-Enthüllungen haben gezeigt, dass selbst die NSA moderne Verschlüsselungsverfahren nicht brechen konnte und Hintertürchen benutzen musste. Wie KI-Systeme die IT-Sicherheit in Zukunft verändern werden, ist eine der Fragen, der die nationale Plattform Lernende Systeme nachgeht. Bei Verschlüsselungsverfahren bin ich aber optimistisch, dass keine Gefahr besteht. Trotzdem gibt es selbst hier noch Forschungsbedarf, etwa an Verfahren, die auch langfristig sicher bleiben, etwa, wenn Quantencomputer möglich werden. Die eigentliche Schwachstelle bei der sicheren Kommunikation sind die Endgeräte, mein Rat wäre also, verstärkt auch Endgerätesicherheit systematisch zu erforschen.

Kryptographie: Welche Chancen und Möglichkeiten bringt in diesem Kontext das Forschungsgebiet der „sicheren Mehrparteienberechnung“?

Sichere Mehrparteienberechnungen erlauben es mehreren sich gegenseitig misstrauenden Teilnehmern, gemeinsam etwas auszurechnen. Die geheimen Eingaben der Teilnehmer bleiben geschützt und das Ergebnis kann nicht manipuliert werden, selbst wenn einige der Teilnehmer beliebig vom Protokoll abweichen. Anwendungen hierfür wären etwa Berechnungen auf Medizindaten, die in verschiedenen Kliniken vorliegen, aber die Klinik nicht verlassen dürfen, oder automatisierte Verhandlungen, bei denen nichts bekannt wird, außer dem Geschäftsabschluss, wenn er zustande kommt. Auch denkbar ist, dass man mit diesem Paradigma sichere Systeme aus nicht vertrauenswürdigen Komponenten aufbaut und so digitale Souveränität erreichen könnte, ohne alles selber machen zu müssen. //


Kontakt zum Interviewpartner

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Aufmacherbild von Hebi B. auf Pixabay

IT-Sicherheit ist nicht nur eine Frage der Technik

Ein wichtiger Faktor für IT-Sicherheit sind Mitarbeiter und Manager, die Gefahren und Risiken richtig einordnen können.

Auch Führungskräfte, die wenig IT-Know-how haben, müssen beim Thema Cybersecurity mitreden können, um die richtigen Entscheidungen zu treffen.

Mangelnde IT-Sicherheit kann die Entwicklung der digitalen Wirtschaft deutlich verlangsamen und damit künftiges Wachstum hemmen – ein Problem, das kein Unternehmen allein lösen kann. Wenn Anwender nicht darauf vertrauen können, dass digitale Technologien sicher sind, dann bleiben wirtschaftliche Chancen ungenutzt und neue Technologien scheitern an Akzeptanzproblemen. Ein Gespräch mit Andy Schweiger, Managing Director Cyber Security Services TÜV SÜD Sec-IT GmbH, und Jörg Schemat, Sprecher der Geschäftsführung TÜV SÜD Akademie.

Cyberangriffe sind heute an der Tagesordnung und können beträchtlichen Schaden anrichten. Worauf kommt es wirklich an, wenn Unternehmen sich effektiv schützen möchten?
Schweiger: Die Zahl der vernetzten Geräte und damit auch die Angriffsfläche steigt in den kommenden Jahren rapide an. Experten prognostizieren 20 Milliarden Geräte im Internet of Things bis 2020. Angesichts der Schnelligkeit, mit der Cyberkriminelle heute weltweit agieren und mit der sich die Werkzeuge für Cyberattacken verändern, genügen punktuelle Sicherheits-Updates heute nicht mehr. Unternehmen müssen verstehen, dass Cybersecurity eine permanente Aufgabe ist, die die gesamte Organisation betrifft. Das fängt an bei „Security by Design“, also Integration von IT-Sicherheit bereits beim Gestalten von Prozessen und Produkten. Und es geht weiter bei „Security as a Service“, um relevante Sicherheits-Updates kontinuierlich verfügbar zu haben. Das ist ähnlich wie beim menschlichen Körper: Wer regelmäßig etwas für seine Gesundheit tut, ist fitter und widerstandsfähiger als jemand, der nur einmal jährlich zur Vorsorge geht.
Schemat: Wenn Unternehmen ihre IT-Sicherheit wirklich ernst nehmen, dann betrachten sie nicht nur die technische Dimension, sondern auch ihre Prozesse und Mitarbeiter. Während ausgefeilte technische Methoden zur Erkennung von Schwachstellen heute in vielen Unternehmen bereits genutzt werden, spielt die Schulung der eigenen Mitarbeiter zum Thema IT-Sicherheit häufig noch eine eher untergeordnete Rolle. Dabei gehört „Social Engineering“ längst zum Standardrepertoire von Cyberkriminellen. Zum Beispiel werden über täuschend echt wirkende Phishing-E-Mails sensible Informationen abgeschöpft oder über E-Mail-Anhänge Schadsoftware eingeschleust. Angriffe dieser Art werden weiter zunehmen, zumal auch Cyberkriminelle inzwischen künstliche Intelligenz nutzen. Durch gezielte Aufklärung und regelmäßige Schulungen können Arbeitgeber diese Gefahr zumindest reduzieren.

IT-Security ist heute also kein reines Technikthema mehr, sondern eine Frage der Kultur?
Schemat: Entscheidend ist, dass ein Unternehmen das richtige Verständnis für IT-Sicherheit hat und dies auch tatsächlich in der Organisation gelebt wird. Prozesse, Betriebsabläufe und die Unternehmenskultur, wie zum Beispiel der Umgang mit Fehlern und HR-Maßnahmen wie Schulungen, spielen eine wichtige Rolle. Unternehmen, die das beachten, verfügen über einen klaren Wettbewerbsvorteil. Dazu kommt: IT-Sicherheit ist inzwischen ein Thema für das C-Level und das operative Management. Denn durch das Internet of Things verschwimmen die Grenzen zwischen IT- und OT-Systemen. Auch Führungskräfte, die wenig IT-Know-how haben, müssen beim Thema Cybersecurity mitreden können, um die richtigen Entscheidungen zu treffen.

Welche Rolle spielen technische Standards, wenn es um Cybersecurity geht, und was können Unternehmen dabei von TÜV SÜD erwarten?
Schweiger: Standards spielen eine große Rolle, denn sie stärken das Vertrauen in technische Lösungen. Seit jeher müssen sich Sicherheitsstandards dabei dem technologischen Fortschritt anpassen und gegebenenfalls neu definiert werden. Das gilt in der physischen wie in der digitalen Welt. Unternehmen stehen heute vor der Herausforderung, das „angemessene Niveau“ der digitalen Sicherheit ihrer Produkte und Dienstleistungen objektiv nachzuweisen. Nur so können Anwender auf die Sicherheit der digitalen Technologien vertrauen – nur so bleibt die Dynamik der Digitalisierung ungebremst. Wir bei TÜV SÜD haben das erkannt und prüfen bei unseren Analysen und Assessments immer den gesamten Cyber­security-Lifecycle eines Unternehmens. In unseren Kompetenzzentren in Singapur, Mumbai und München arbeiten wir an technischen Antworten auf die Security-Fragen der Zukunft. Das Besondere: Als neutraler Partner analysiert TÜV SÜD hersteller­unabhängig die Sicherheit der technischen Infrastruktur. Wir empfehlen keine speziellen Produkte, Lösungen oder Dienstleister, noch sind wir von solchen abhängig. //

Zu den Interviewpartnern:
Jörg Schemat
Andy Schweiger


Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Ganzheitliches Zertifikatemanagement

Der Umgang mit Zertifikaten ist nicht alltäglich und erfordert spezielles Know-how.

von Werner Zügel &
Adrian Müller


Die Digitalisierung und Informationstechnologie durchdringt die Geschäftsprozesse aller Branchen und Industrien und gestaltet sie völlig neu. Vom privaten Bereich bis hin zur Medizintechnik schreitet die Digitalisierung voran. In dem Maße, in dem die Abhängigkeit von der IT steigt, werden auch die Anforderungen an Sicherheit und Vertrauen in der IT höher. Ein gehackter Gameboy war damals kaum der Rede wert, deutlich anders ist es, wenn heute Kennwort und TAN für Online-Banking abgegriffen werden.

Digitalisierung begegnet uns an vielen Stellen:

  • Eine Abfüllmaschine zeigt an, welche War­tungsarbeiten durchgeführt werden müssen, bestellt Ersatzteile und leitet Mitarbeiter an, die Wartung auszuführen.

  • Kraftfahrzeuge bremsen und steuern selbstständig und halten den richtigen Abstand zum Vordermann.
  • Digitale Unterschriften auf Verträgen ersetzen Papier und Postweg.

  • Diagnosegeräte schreiben Ergebnisse direkt in die Patientenakte.

  • Die Wartungshistorie von Fahrzeugen oder Maschinen wird dokumentiert.

Nachholbedarf bei der IT-Sicherheit

Die Digitalisierung bringt jedoch auch neue Herausforderungen mit sich. Denn das IT-Sicherheitsniveau erfüllt in vielen Bereichen die Ansprüche europäischer Industrieländer nur ungenügend. „Die Gefährdungslage ist weiterhin hoch“, konstatierte das Bundesamt für Sicherheit in der Informationstechnik (BSI) 2018. Einer BSI-Studie zufolge wurden 70 Prozent der befragten Firmen Opfer von Cyberangriffen. In knapp der Hälfte der Fälle waren die Angreifer erfolgreich und die betroffenen Unternehmen hatten Produktions- oder Betriebsausfälle. Meist ziehen die Attacken wirtschaftliche Schädigung oder Imageverlust nach sich.

Beispiele aus der jüngeren Vergangenheit:

  • Ein 20-Jähriger greift Daten von über 1 000 Prominenten ab und veröffentlicht sie im Internet.
  • Eine Attacke auf das IT-Netz des Auswärtigen Amtes gelingt Ende 2017.
  • Verschlüsselungstrojaner wie bspw. Locky mit erpresserischen Geldforderungen machen die Runde.
  • Mithilfe von Phishing-Mails oder -Webseiten können Login-Daten und Kennwörter für Accounts von Online-Shops oder -Banking ausgespäht werden. Dem Kunden einer Smartphone-Bank wurden so in jüngster Vergangenheit 80 000 Euro gestohlen.

IT-Gefährdung, Angriffe und Attacken nehmen weiter zu

Schadprogramme werden ständig intelligenter und sind kaum als solche auszumachen. Eine Studie des Branchenverbands Bitkom schätzt den wirtschaftlichen Schaden in Deutschland auf über 60 Milliarden Euro pro Jahr. Immer neue Angriffsmethoden erfordern eine von Anfang an durchdachte Sicherheitsarchitektur und sich ständig weiterentwickelnde Mechanismen für deren Abwehr. Die bisher üblichen Firewalls und Virenschutzprogramme greifen zu kurz.

Abb. 1: Situation IT-Sicherheit

Verschiedene Quellen, u. a. das BSI, prognostizieren eine starke Ausbreitung von Cyberangriffen:

  • Phishing über verschlüsselte Webseiten oder Fake-E-Mails wird 2019 zunehmen. Phishing betrifft meist Angriffe auf Login-Daten, Passwörter, Kreditkartendaten und Adressbücher (erleichtert durch anonyme domainvalidierte Zertifikate in Mail und Webseiten).
  • Einschleusen von Schadsoftware (Trojaner) in Computer und Netze durch anonymes Code-Signin

Sicherheitskonzepte für Vertrauensbildung, Integrität und Zertifikatemanagement

Die gute Nachricht: Für IT-Sicherheit gibt es Lösungen. Die Prävention gegen Cyberangriffe erfordert jedoch ständige Beobachtung und Weiterentwicklung der IT-Sicherheitsarchitektur an den aktuellen Stand der Technik, was Investitionen bedeutet. Betriebswirtschaftlich betrachtet, ist die Prävention günstiger als der potenzielle Schaden und die Reparatur.

Abb. 2: SwissSign und essendi bieten gemeinsam Zertifikate und PKI-Lösungen, die höchsten Anforderungen gerecht werden. Mit SwissSign in Kombination mit dem essendi xc sind Unternehmen in der Lage, die steigende Anzahl der Zertifikate und der verschiedenen Einsatzzwecke zu beherrschen und gleichzeitig Abläufe zu vereinfachen und sicherer zu gestalten.

Rahmenbedingungen schaffen
Vor allen technischen Vorkehrungen steht die Organisation der IT-Sicherheit. Dazu gehört die Benennung von Teams und Verantwortlichen. Der „Chief Information Security Officer“ (CISO) ist der IT-Sicherheitsbeauftragte im Unternehmen. Die ISO-Norm 27001 sowie eine Zertifizierung nach BSI-Grundschutz erfordern die Einsetzung eines CISO.

Software und Betriebssysteme aktuell halten
Bei Hackern ist die Ausnutzung von Sicherheitslücken verbreitet. Daher müssen Programme und Infrastrukturkomponenten laufend auf dem neuesten Stand gehalten und Sicherheits-Updates zeitnah eingespielt werden.

Strategien für Cyberabwehr
Unternehmen benötigen eine Strategie zur systematischen Erkennung und Abwehr von Cyberattacken. Für Interessierte: Im Mitre-Attack-Framework (https://attack.mitre.org/) sind über 200 potenzielle Cyberangriffssze­narien beschrieben.

Grundkonstrukte der Sicherheit im E-Commerce
Auch in der Online-Welt bildet Vertrauen die Grundlage des Geschäftsverkehrs. Authentifizierung, also die elektronische Identifizierung der Teilnehmer, ist dafür unabdingbar. Sie wird z. B. über Zertifikate anerkannter Anbieter bewerkstelligt.
Autorisierung ist die sichere Prüfung der Be­rechtigung, eine bestimmte Transaktion durch­zuführen. Die Verschlüsselung stellt sicher, dass die Korrespondenz vertraulich bleibt.

Gesetzgeber und Branchen haben die Anforderungen erhöht
Der Gesetzgeber und regulatorische Stellen (bspw. CA/Browser Forum) fordern daher strengere Regeln und Normen. Mit der im Mai 2018 in Kraft getretenen Datenschutzgrundverordnung (DSGVO) der EU gelten striktere Vorschriften für den Schutz persönlicher Daten. Systeme, die personenbezogene Daten verarbeiten, müssen den aktuellen Anforderungen des Datenschutzes genügen. Verstöße sind kein Kavaliersdelikt mehr. Entsprechende Software, Webseiten oder Server müssen deshalb dem Stand der Technik entsprechen.

Empfehlungen und Handlungsfelder

  • Interne Regeln für den Umgang mit Kryptographie und Schlüsselmaterial aufstellen
  • Vorgaben für den Aufbau und Betrieb einer internen PKI (siehe Abbildung 2)
  • Vorgaben für die Zusammenarbeit mit öffentlichen Zertifizierungsstellen (CA) mit hohem Vertrauenslevel (z. B. EV-SSL)
  • Hohe Anforderungen an den Vertrauenslevel von Zertifikaten; organisationsvalidierte Zertifikate im freien Internetverkehr bieten mehr Schutz gegen Phishing
  • Werkzeuge für das Management des gesamten Lebenszyklus von Zertifikaten einsetzen
  • Festlegung, in welchen Anwendungsbereichen, welche Zertifikate eingesetzt werden
  • Vorgaben für die Auslegung von Zertifikaten (Attribute, Validierungslevel etc.)
  • Regeln für die Ausgabe und Verwaltung von Zertifikaten
  • Einsatz von Hardware-Sicherheitsmodulen (HSM) für Schlüsselmaterial und Zertifikate

Des Weiteren werden mit dem IT-Sicherheitsgesetz Betreiber kritischer Infrastrukturen verpflichtet, ihre IT nach dem Stand der Technik abzusichern (KRITIS). Das schweizerische Bundesgesetz über die elektronische Signatur (ZertES) und die europäische Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen (eIDAS) stellen hohe Anforderungen an digitale Identitäten im Kontext elektronischer Transaktionen (E-Business, E-Government etc.).

Damit der elektronische Geschäftsverkehr außerdem zuverlässig und sicher funktioniert, bedarf es mehrerer Bausteine:

Standards und Vorgaben für Kryptographie und Schlüsselmaterial
Die ISO-Norm 27001 verlangt interne Richtlinien für Kryptographie und die Verwaltung von Schlüsselmaterial. Zertifikate und private Schlüssel sind elementare Bausteine der IT-Sicherheit und Vertrauensbildung.

Die Einsatzbereiche von Zertifikaten sind vielfältig, z. B. Verschlüsselung und Signatur von E-Mails, digitale Unterschriften, Multifaktor-Authentifikation oder die Absicherung von offenen APIs (B2B-Webservices). Allgemein bekannt ist das Verschlüsselungsprotokoll „Transport Layer Security“ (TLS) / „Secure Socket Layer“ (SSL). TLS bietet Sicherheit im Internet und ist an einem Schloss oder der Zeichenfolge „https“ zu Beginn der Internet-Adresse zu erkennen. Etwa 80 Prozent des Web-Verkehrs sind heute durch TLS abgesichert, Tendenz steigend.

Zertifikate in hoher Qualität
In den letzten Jahren hat sich eine fast schon durchgehende Verschlüsselung des Internet-Datenverkehrs durchgesetzt, nicht zuletzt wegen gratis verfügbarer Zertifikate wie z. B. von Let‘s Encrypt, bei denen (nur) der Domain-Name überprüft wird. Die Schattenseite ist, dass domainvalidierte Zertifikate aufgrund ihrer einfachen Verfügbarkeit potenziell auch von Phishing-Sites verwendet werden. Ein auf Sicherheit und Datenschutz bedachter Benutzer sollte deshalb darauf achten, relevante Daten nur auf Websites einzugeben, die vertrauenswürdig abgesichert sind.

Zertifikate und private Schlüssel sind elementare Bausteine der IT-Sicherheit und Vertrauensbildung.

Wie wird dieses Vertrauen erzeugt? Bei TLS-Zertifikaten vertraut man als normaler Benutzer üblicherweise den CA-Zertifikaten, welche vom Browser (oder Betriebssystem) mitgeliefert werden. Auch wenn es im Detail Unterschiede gibt, folgen die Hersteller dabei den Vorgaben des CA/Browser (CAB) Forums (http://www.cabforum.org, das Gremium der Browser-Hersteller und Zertifizierungsstellen).

Das CAB Forum definiert verschiedene Vertrauensstufen für TLS-Zertifikate:

  • Die Basisvariante nennt sich „Domain Validated“ (DV). Bei den oben erwähnten einfach erhältlichen Zertifikaten handelt es sich um DV-Zertifikate: Über technische Mittel wird sichergestellt, dass der Antragssteller der Besitzer der Domain ist.
  • Bei Zertifikaten der Vertrauensstufe „Organizational Validation“ (OV) werden zusätzliche Abklärungen getroffen, es wird der (Organisations-)Name des Antragstellers geprüft. Erst ab dieser Stufe weiß man, mit wem man es wirklich zu tun hat. Eine Website, auf der man Bestellungen aufgibt oder persönliche Daten eingibt, sollte mindestens über ein solches Zertifikat abgesichert sein.

  • Noch weitergehende Prüfungen werden auf der Stufe „Extended Validation“ (EV) durchgeführt, welche in diesem System die höchste Vertrauensstufe darstellt.

SwissSign stellt Zertifikate gemäß den drei oben erwähnten Vertrauensstufen bzw. Certificate Policies des CAB Forums aus, ist konform zu den vom ETSI (Europäisches Institut für Telekommunikationsnormen) definierten Policies und ist anerkannter Anbieter zur Ausstellung von Zertifikaten gemäß schweizerischem ZertES. Über eine Tochterfirma ist SwissSign in der eIDAS-Anbieterliste enthalten und wird direkt auf der „Adobe Approved Trust List“ (AATL) aufgeführt. Die Entwicklung der SwissSign-Software und die Datenhaltung erfolgen zu 100 Prozent in der Schweiz. SwissSign bietet bei allen Produkten absolute Diskretion, Zuverlässigkeit, Sicherheit und Stabilität. //


Kontakt zu den Autoren

Werner Zügel

Adrian Müller


Namensnennung-Keine Bearbeitung 3.0 Deutschland (CC BY-ND 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Wie Versicherer ihr Geschäft digitalisieren

Microservices sind die entscheidende Basis für Agilität.

von Jakob Freund

Mehr als die Hälfte der Verbraucher in Deutschland kann sich vorstellen, vollständig digital eine Versicherung abzuschließen. Viele Kunden versprechen sich davon schneller bearbeitete Anliegen und mehr persönliche Freiräume bei der Absicherung. Das Problem: Veraltete IT-Systeme bremsen die digitale Transformation aus, die dafür notwendig wäre.

Sieben von zehn Unternehmen betreiben Mainframes in der IT und in den Rechenzentren, um die geschäftskritischen Abläufe zu verarbeiten. Diese Systeme ähneln sich darin, dass sie eingehende Anforderungen nacheinander beantworten – first in, first out. Bleibt ein Vorgang dabei hängen, sind davon auch alle anderen betroffen. Gerade im sogenannten „Herbststurm“, wenn sich Abertausende Kunden nach preiswerteren KFZ-Versicherungen umschauen und dafür Tarifrechner auf der Webseite, beim Vermittler oder auf einem Vergleichsportal nutzen, gehen die etablierten IT-Systeme nahezu zwangsläufig in die Knie.

Antragsstrecken digitalisieren

Fast alle Unternehmen haben diese Schwachstelle inzwischen erkannt. Drei Viertel sind sich bewusst, dass sie ihre Legacy-Systeme modernisieren müssen, um mit der digitalen Entwicklung künftig mithalten zu können. Als State of the Art gelten verteilte IT-Systeme, die in der Lage sind, Geschäftsvorfälle parallel und weitgehend automatisch abzuarbeiten. Solche Architekturen lösen zunehmend Großsysteme ab, die von den Versicherern bislang als Alleskönner eingesetzt worden sind. Die IT der Zukunft setzt sich aus einzelnen Minidiensten (Microservices) zusammen, die jeweils nur eine einzige Aufgabe erfüllen und von einem Workflow-System gesteuert werden.

Abb.1: Vereinfachtes BPMN-Schema einer digitalen Antragsstrecke

Dahinter steckt die Idee, möglichst viele oder sogar alle Abläufe innerhalb eines Geschäftsvorfalls komplett dunkel zu verarbeiten. Beispielsweise möchte ein Kunde online eine neue Versicherung für sein Auto abschließen. Nachdem der Kunde seine persönlichen Daten und die des Fahrzeugs eingegeben hat und das Webformular schließlich abschickt, starten mehrere Microservices, die das individuelle Risiko prüfen und automatisch die Police anlegen. Wenn nichts Unerwartetes passiert, bekommt der Kunde seine digital abgeschlossene Versicherung ausgehändigt, ohne dass sich ein Sachbearbeiter den Vorgang überhaupt anschauen musste (vgl. Abb. 1).

Moderne Workflow-Systeme ermöglichen den Unternehmen, einfache Entscheidungs­tabellen über eine Decision-Engine einzubinden. Solche Werkzeuge helfen dabei, Ausnahmen festzulegen, falls ein Vorgang nicht automatisch abgeschlossen werden kann. Ein Ampelsystem kann beispielsweise Fälle aussteuern, die nur ein Sachbearbeiter entscheiden darf oder gleich zu einer Ablehnung führen sollen. Microservices lassen sich zudem dafür einsetzen, für Kunden automatisch einen Webzugang einzurichten, Vertragsunterlagen per Post zu versenden oder geänderte Kundendaten wie eine neue Adresse ins Bestandssystem zu übertragen.

Schäden digital regulieren

Die Vorteile einer solchen IT-Architektur liegen auf der Hand: Keine Datenstaus mehr und falls einzelne Microservices verbessert werden sollen, betreffen die damit verbundenen Anpassungen nicht gleich das gesamte System. Zudem erleichtern Microservices den Anbietern, externe Partner einzubinden wie die für die Bonitätsprüfung häufig angefragte Schufa. Gleiches gilt aber auch für Kooperationspartner, die Versicherungen zusätzlich zu einem eigenen Angebot anbieten wollen und sich dafür eine einfache Möglichkeit zum Abschluss wünschen. Dazu gehören beispielsweise Reiseportale oder Fluggesellschaften, die während der Buchung eine Reiserücktrittsversicherung mitverkaufen möchten und dafür Provisionen erhalten.

Auch im Ernstfall bieten Microservices die Chance, ein digitales Kundenerlebnis zu schaffen, das weitgehend ohne manuelle Zuarbeit durch den Versicherer auskommt.

Jakob Freund

Doch auch im Ernstfall bieten Microservices die Chance, ein digitales Kundenerlebnis zu schaffen, das weitgehend ohne manuelle Zuarbeit durch den Versicherer auskommt. Leicht zu beziffernde Schäden, wie sie etwa bei Glasbruch oder in der privaten Haftpflicht häufig auftreten, lassen sich von der Erfassung bis zur Auszahlung automatisch und fallabschließend bearbeiten. Microservices prüfen dafür, ob eine Versicherung besteht und ob alle Prämien bezahlt worden sind. Die nötigen Angaben wie Tathergang oder sogar Beweisfotos können die Versicherungsnehmer online oder via App an den Versicherer übermitteln. Ist alles in Ordnung, weist ein weiterer Microservice die Zahlung an und trägt die notwendigen Informationen in die bestandsführenden Systeme ein.

In diesem Bereich beginnen immer mehr Versicherer inzwischen damit, künstliche Intelligenz (KI) einzusetzen, um Betrugsversuche zu erkennen. Schon heute kann eine entsprechend trainierte KI erkennen, ob per Foto gemeldete Autoschäden plausibel sind. Das ist deshalb so wichtig, weil die unpersönliche Schadenmeldung Betrüger dazu einlädt, mit nachträglich bearbeiteten oder gleich komplett gefälschten Fotos überhöhte Schäden geltend zu machen. Damit das Geld nicht in falsche Hände gerät, müssen die Versicherer geeignete Kontrollen entwickeln und in die IT-Systeme integrieren.

Interne Abläufe visualisieren

Damit der Schritt in die digitale Zukunft gelingt, müssen Versicherungsunternehmen ein neues Selbstverständnis als Softwareunternehmen entwickeln. Künftig entscheidet nicht mehr allein das beste Angebot, sondern das Kundenerlebnis darüber, ob ein Produkt gekauft wird oder nicht. Und diesen Unterschied können Unternehmen zunehmend nur noch durch die Qualität ihrer IT-Systeme herausarbeiten. Digitalpioniere wie der US-amerikanische Streamingdienst Netflix beispielsweise haben von vornherein auf Microservices gesetzt, um das beste Nutzererlebnis zu bieten. Damit hängen Technologieriesen auch für andere Branchen die Messlatte beständig höher.

Abb. 2: Heatmaps legen Engpässe im Prozessmodell offen.

Zwei Drittel der Deutschen kritisieren heute schon, dass Versicherer weniger schnell, weniger verständlich und weniger gut erreichbar sind als die Angebote von Digitalunternehmen. Digital Natives, die mit solchen Diensten aufgewachsen sind, erwarten zudem, dass sich die Angebote permanent neuen Gegebenheiten anpassen und sich ständig weiterentwickeln. Sie wollen vor allem in ihrer Eigenständigkeit ernst genommen werden und bestehen darauf, möglichst viel allein regeln zu können. Gleichzeitig wollen sie sich nicht mehr um die vielen Details kümmern. Versicherer sollen von selbst aktiv werden, wenn sie etwa einen Umzug melden oder etwas nicht sofort klappt.

Diese neue Anspruchshaltung bedeutet für die Anbieter, dass sie ihre Prozesse laufend überwachen und zügig anpassen müssen, um mit den Kundenerwartungen mithalten zu können. Am einfachsten gelingt das, wenn die Abläufe nicht nur schriftlich erfasst werden, sondern visuell dargestellt. Ideal sind Heatmaps, die während der Laufzeit erfassen, wie häufig einzelne Prozesszweige durchlaufen werden und ob dadurch möglicherweise ein Engpass zu entstehen droht (vgl. Abb. 2). Selbst die Prozessqualität lässt sich messen, wenn das Workflow-System protokolliert, wie häufig und an welchen Stellen manuell eingegriffen werden musste oder wie lange ein Prozess stillstand.

Fazit

Jetzt sind die Versicherer gefordert, technische Schulden abzubauen, die über die Jahre entstanden sind. Drei von vier Euro aus dem IT-Budget wendet die Branche inzwischen dafür auf, Altlasten zu pflegen. Das rächt sich in einem Marktumfeld, das zunehmend kompetitiver wird. Wie schnell sich das Blatt wenden kann, zeigt ein Blick in die Schwesterbranche Banken, in die immer mehr Technologieunternehmen mit praktischen Digitalangeboten einbrechen. Davor schützen nur eine wettbewerbsfähige IT-Infrastruktur und eigenes IT-Know-how, das die Versicherer zügig weiter ausbauen sollten. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Agil arbeiten – aber wie?

Erfolg in einem dynamischen und digitalisierten Marktumfeld: Zwölf Regeln für Schnelligkeit, Kreativität und Innovationsstärke

von Dr. Ralf Magagnoli

Der Agile Performer Index, eine Studie der Neoma Business School und des Analysten Goetz­partners, will es auf den Punkt bringen: „Die agilsten Unternehmen einer Branche sind durchschnittlich 2,7 Mal erfolgreicher als ihre Peergroup. Dies bestätigt: Agilität verschafft Unternehmen einen erheblichen Wettbewerbsvorteil und ist ein entscheidender Faktor, um in einem dynamischen und digitalisierten Marktumfeld erfolgreich zu sein.“ Agilität steht für Schnelligkeit, Kreativität und Innovationsstärke. Wie aber Agilität implementieren? Nicht selten scheitern entsprechende Projekte – und die Gründe dafür sind vielfältiger Natur.

Wenn man einige Regeln beherzigt, ist es wahrscheinlicher, dass agile Projekte gelingen: Zwölf Regeln sind hier zusammengestellt.

Regel eins: Agilität ist eine Frage der Unternehmenskultur. Einfach ein agiles Team zusammenzustellen, einen Scrum-Master zu ordern und im Übrigen zu hoffen, dass alles klappt, ist zu wenig. Vor allem in Unternehmen, in denen es keine Fehlerkultur gibt und in denen die Bereitschaft, neue Wege zu denken und zu gehen, gering ausgeprägt ist. Unternehmen, deren Kultur durch Fehlertoleranz, Offenheit und Transparenz gekennzeichnet ist, haben hier eindeutig einen Vorteil.

Regel zwei: Agilität bedeutet nicht weniger, sondern mehr Führung. Vor allem eine andere Führung. Eine Führung, die sich stärker auf das Impulsgeben verlegt und Mitarbeitern Freiräume verschafft. Der Impuls selbst, agile Projekte umzusetzen, sollte nicht, wie fälschlich angenommen, von der mittleren, sondern von der obersten Ebene im Unternehmen kommen, die dann aber die Mitarbeiter an der langen Leine laufen lassen sollte.

Regel drei: Agilität eignet sich zwar für alle Branchen, zumal für die mit einem hohen Innovationsdruck, aber nicht für alle Bereiche im Unternehmen. Eine agile Produktion ist ein Unding. Hier sind nicht Kreativität und Ideenfindung gefragt, sondern die Umsetzung von Vorgaben. Hingegen eignen sich agile Projekte besonders für die Bereiche Forschung & Entwicklung, IT, Marketing oder HR-Management.

Regel vier: Agilität lebt von den beteiligten Personen. Natürlich sollten sich alle Mitarbeiter in den betreffenden Abteilungen durch Tatkraft, Neugierde, Ideenreichtum und die Bereitschaft zum Querdenken auszeichnen. Realiter tun sie dies nicht. Beginnen Sie mit den Personen, die sie für besonders geeignet halten. Wählen Sie keine ängstlichen, vorsichtigen oder strukturkonservativen Mitarbeiter.

Regel fünf: Agilität bedeutet Umdenken auch in personeller Hinsicht. Das betrifft die Einstellungskriterien, aber auch bestimmte Regularien, so die Flexibilisierung der Arbeitszeit – Achtung, das heißt nicht mehr Arbeitszeit und eine Dauerabrufbereitschaft – und die Überwindung allzu restriktiver Projektvorgaben bzgl. „in time“ oder „in budget“.

Regel sechs: Agilität heißt auch, Fragen zuzulassen. Wer Fragen, auch hartnäckiges Nachbohren, als Widerstand, gar als Angriff auf die eigene Person, versteht, hat nicht verstanden, worum es geht. Manchmal dienen Fragen dazu, auf noch ungelöste Probleme hinzuweisen oder Sachverhalte zu klären.


Agilität verschafft Unternehmen einen erheblichen Wettbewerbsvorteil und ist ein entscheidender Faktor, um in einem dynamischen und digitalisierten Marktumfeld erfolgreich zu sein


Regel sieben: Agilität verlangt, wie eingangs erwähnt, Fehlerkultur. Wenn es in einem agilen Projekt hakt – und das tut es in vielen Fällen –, nicht gleich aufgeben und das Projekt abbrechen. Lieber nachfassen, prüfen, wo die Fehlerquellen liegen könnten, und diese dann abstellen. Und wenn ein agiles Projekt in Gänze scheitert, auch nicht gleich die Idee der Agilität in Gänze in Frage stellen oder verdammen. Zur Fehlerkultur gehört auch, über das Scheitern von Projekten zu berichten, was natürlich nur in einem Unternehmen möglich ist, das entsprechend tolerant ist.

Viele Unternehmen im Silicon Valley oder in der Luftfahrtindustrie, in der sich Fehler besonders verhängnisvoll auswirken können, haben eine solche Kultur entwickelt. Dort wird auf speziellen Treffen, sogenannten Communities of Practice, über gescheiterte Projekte berichtet, aus denen man mehr lernen kann als aus erfolgreichen Projekten.

Regel acht: Agilität muss auch nicht in einer Abteilung gleich vollumfänglich entwickelt werden. Beginnen Sie mit einer Zelle, bestehend aus fünf bis sieben Personen. In der IT ist Kritik geübt worden an der von McKinsey entwickelten Two-Speed-IT, also einem agilen, kreativen Team und einer eher konventionell arbeitenden Mannschaft. Dennoch ist nichts dagegen zu sagen, innerhalb einer Abteilung mit einigen Personen zu beginnen und die Agilität, bei Erfolg, auf die ganze Abteilung auszuweiten.

Regel neun: Agilität erfordert gemischte Teams, am besten interdisziplinäre Teams. Beispiel IT: Hier sollen neue Anwendungen geschaffen werden. Nichts einfacher, als fünf bis sieben dreißigjährige männliche Informatiker daranzusetzen, die am besten alle an derselben Hochschule studiert haben. Hingegen zeigt sich der Nutzen „gemischter“ Teams, was Ausbildung, Geschlecht und Alter angeht. So könnten Anwender aus den Abteilungen, die die Applikationen nutzen, wertvolle Anregungen geben und vermeiden, dass aus der Entwicklung eine technische Spielerei wird, die an den Bedürfnissen der Nutzer vorbeigeht.

Regel zehn: Agilität beruht auf Barrierefreiheit. Die agilen Teams müssen sich nicht nur regelmäßig treffen, die Räume sollten so gestaltet sein, dass ein Austausch leicht möglich ist. Hilfsmittel wie Flipcharts und Stellwände sollten bereitstehen. Nötig ist auch die physische Präsenz: Nur in Ausnahmefällen sollte es eine virtuelle Präsenz geben, bspw. wenn ein Teammitglied auf Geschäftsreise ist und das Treffen nicht abgesagt werden sollte. Unter Umständen, insbesondere in der IT, kann die Offshore-Verlagerung von Jobs hier zum Problem werden.

Regel elf: Agilität lässt sich besser erzielen, indem man Expertise von außen einholt. Dies betrifft vor allem Externe, die als Moderatoren und Impulsgeber fungieren sollen. Ein Blick von außen erleichtert manchmal das Querdenken, besonders, indem Scheuklappen und die „Das war hier schon immer so“-Denke abgelegt werden. Die Expertise betrifft vor allem die Methoden, auf die noch einzugehen ist, und hierin den Scrum-Master, falls Sie die beliebte Scrum-Methode einsetzen. Wenn Sie auf z. B. einen solchen externen Scrum-Master zurückgreifen, gehen Sie sorgfältig bei der Auswahl vor. Fragen Sie nach Projekten, die dieser initiiert hat, fragen Sie nach Erfolgen, aber fragen Sie auch nach Rückschlägen, insbesondere danach, wodurch es zu diesen Rückschlägen gekommen ist.

Sie entnehmen damit zweierlei: Erstens den souveränen Umgang auch mit ggf. eigenen Fehlern und zweitens die Analysefähigkeit des externen Beraters. Verneint er Rückschläge oder führt er diese Rückschläge auf den Unwillen und die Unfähigkeit der Teammitglieder zurück, ist er wohl kaum der richtige Mann für Sie. Verlassen Sie sich zudem auf Ihr Bauchgefühl, denn das Bauchgefühl ist, wie Professor Gerd Gigerenzer vom Max-Planck-Institut für Bildungsforschung in München betont, nicht einfache Emotion, sondern gesammeltes Erfahrungswissen – und oft anderen Methoden der Entscheidungsfindung überlegen.

Regel zwölf: Agilität wäre missverstanden, wollte man das Rad neu erfinden. Es existiert eine Hülle und Fülle an Methoden – Kritiker sprechen sogar von einer „Kakophonie“ – vom Scrum über Design Thinking bis zur Holokratie, die eingesetzt werden können. Informieren Sie sich über diese Methoden, zu denen es viele Publikationen gibt, und wählen Sie die Methode aus, die ihrer Ansicht nach am zielführendsten ist. Ein Schaukasten gibt einen kurzen Überblick über drei hilfreiche Management-Methoden sowie einen Aufriss weiterer Methoden. //


Kontakt zum Autor

Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Bild von Gerd Altmann auf Pixabay