Beiträge

Solides Fundament für die Digitalisierung

PDF – der Enabler für eine gelungene digitale Transformation

von Thomas Zellmann

Zweifelsohne ist das Thema Digitalisierung in den Unternehmen angekommen. Doch wie können unterschiedliche Dokumentarten so digitalisiert abgelegt werden, dass sie auch gefunden werden? Welche Maßnahmen müssen Unternehmen ergreifen, damit Dokumenteninhalte automatisiert Prozessen zugeführt werden können? Welche Vorkehrungen müssen getroffen werden, damit digitale Dokumente über Jahre hinweg lesbar bleiben? Diese und andere Fragen zeigen, dass die digitale Transformation nur auf einer soliden Dokumentenbasis gelingt.

Die Vorteile digitaler Dokumente, wie schnellerer und ortsunabhängiger Zugriff auf Informationen, smarte Prozesse ohne Medienbrüche, sind nicht von der Hand zu weisen. Außerdem, so ein Ergebnis der repräsentativen Studie „Digitalisierungsindex Mittelstand 2018“ von techconsult im Auftrag der Deutschen Telekom, erzielten 35 Prozent der befragten Unternehmen durch Digitalisierungsmaßnahmen eine Umsatzsteigerung. Statt in Papierarchiven zu suchen, können sich nämlich Mitarbeiter beispielsweise intensiver um ihre Kunden kümmern, was sich in barer Münze, sprich: mehr Umsatz, auszahlt. Papier­archive scheinen aber immer noch in Unternehmen „State of the Art“ zu sein. So ergab eine Umfrage des Digitalverbands Bitkom, dass jedes vierte Unternehmen in Deutschland immer noch keine einzige Papierakte digitalisiert hat. So lange Unternehmen ihre Bestandsakten allerdings analog in Ordnern oder Hängeregistern aufbewahren, sind Gedanken über digitale Prozesse absurd.

So lange Unternehmen ihre Bestandsakten allerdings analog in Ordnern oder Hängeregistern aufbewahren, sind Gedanken über digitale Prozesse absurd.

Thomas Zellmann

Bei der Digitalisierung geht es nicht nur darum, Aktenordner verschwinden zu lassen und die darin enthaltenen Dokumente platzsparend auf dem Server oder in der Cloud zur Verfügung zu stellen. Der viel größere Nutzen entsteht, wenn die Dokumenteninhalte für Mensch und Software direkt zugänglich sind. Für den Menschen, damit er auf Knopfdruck von seinem Arbeitsplatz darauf zugreifen kann, und für Software-Lösungen, damit sie die enthaltenen Informationen verarbeiten und damit Prozesse automatisiert werden können. Veraltete IT-Systeme, die proprietäre Dateien ausgeben, sind dabei ebenso hinderlich wie JPG- oder TIFF-Dateien.

Vom elektronischen Papier zum „Business Document Solution“-Ecosystem

Hier kommt das PDF-Format ins Spiel, das zunächst lediglich dazu diente, Dokumente auf unterschiedlichen Plattformen einheitlich darzustellen. Im Laufe der Zeit ist jedoch die Funktionsvielfalt mit und um PDF-Dateien stark gewachsen, sodass es mittlerweile als das „Business Document Solution“-Ecosystem allgemein anerkannt ist. Jeder dokumentengesteuerte Prozess lässt sich mit PDF-Dateien transparent abwickeln. Unternehmen, die auf das PDF-Format setzen, schaffen eine gute Voraussetzung für die Reise in eine vollständig digitale Welt. Sie ebnen so den Weg für eine breite, konsistente Datenbasis, mit der Prozesse automatisierbar und KI-Anwendungen leichter umsetzbar sind.

Denn PDF-Dateien haben den Vorteil, dass sie nicht nur vollständig durchsuchbar sind, sondern dass sie Inhalte im Kontext zur Verfügung stellen. Dies erfolgt über Strukturinformationen, auch als Tagging bezeichnet. Intelligente Softwarelösungen, die eine Mustererkennung beinhalten, können aus diesen getaggten PDF-Dateien relevante Informationen extrahieren und zur weiteren Verarbeitung an weitere Systeme übergeben. Die so gewonnenen Daten können damit auch die Grundlage für KI-Anwendungen bilden.

Kernaussagen

  • Unternehmen profitieren von den Vorteilen der digitalen Transformation vor allem dann, wenn ihr Dokumenten-Archiv vollständig aus hochwertigen, auslesbaren PDF-Dateien besteht.
  • PDF-Dateien unterstützen bei der Einhaltung der DSGVO und anderen gesetzlichen Vorgaben.
  • Dokumentengesteuerte Prozesse lassen sich mit PDF-Dateien transparent abwickeln.
  • PDF-Dateien liefern Inhalte im Kontext und damit eine gute Basis für intelligente Anwendungen.

PDF-Applikationen für jeden Anwendungsfall

Die Realisierung ist kein Hexenwerk, denn dazu gibt es mittlerweile zahlreiche PDF-Anwendungen für unterschiedliche Einsatzgebiete. Beispielsweise, wenn es um die Digitalisierung vorhandener Akten geht. Gescannte Dokumente lassen sich problemlos in volltextdurchsuchbare PDF-Dateien konvertieren. Dies betrifft nicht nur die Bestandsakten, sondern auch die eingehende Post. Neben dem klassischen Posteingang müssen auch die eintreffenden E-Mails im Rahmen einer Digitalisierungsstrategie beachtet werden. E-Mails liegen zwar, genauso wie die Attachments, bereits elektronisch vor, allerdings in unterschiedlichen Formaten. Damit kein „Format-Zoo“ entsteht, übernehmen entsprechende Lösungen die Konvertierung nach PDF. Dies ist auch bei den selbst erzeugten – „born digital“ – Dokumenten der Fall.

Damit kein „Format-Zoo“ entsteht, übernehmen entsprechende Lösungen die Konvertierung nach PDF. Dies ist auch bei den selbst erzeugten – „born digital“ – Dokumenten der Fall.

Thomas Zellmann

Compliance-Vorgaben einhalten

Darüber hinaus können PDFs auch bei der Umsetzung gesetzlicher Vorgaben helfen. Ein Beispiel ist das in der DSGVO verankerte Auskunftsrecht. Da PDF-Dateien nach Personennamen durchsucht werden können, sind Unternehmen jederzeit in der Lage, Auskunft darüber zu erteilen, wo und in welchem Zusammenhang persönliche Daten gespeichert sind. Ein weiteres Beispiel ist die langfristige Aufbewahrung von Handels- und Geschäftsbriefen mit steuerrelevanten Inhalten. Hier ist der Einsatz des PDF/A-For­mats, des ISO-Standards zur Langzeitarchivie­rung von PDF-Dateien, zu empfehlen. Dieser stellt eine eingegrenzte Variante von PDF dar und schreibt detailliert vor, welche Inhalte erlaubt sind, sodass eine Reproduzierbarkeit über Jahrzehnte gewährleistet ist.

Mit der digitalen Transformation sind zahlreiche Vorteile verbunden. Dies ist insbesondere dann der Fall, wenn das Dokumenten-Archiv vollständig aus hochwertigen, auslesbaren PDF-Dateien besteht. Informationen stehen sowohl Mitarbeitern als auch Softwarelösungen unmittelbar zur Verfügung. Anders herum gesagt: Unternehmen, die Dateien in nicht auswertbaren Formaten wie gescannte Dokumente in einer Pixelwolke oder als Bild ablegen, können den Nutzen der Digitalisierung gleich mit auf ihrem Datenfriedhof begraben. //

Kontakt zum Autor


Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE)

Dies ist eine allgemeinverständliche Zusammenfassung der Lizenz (die diese nicht ersetzt).

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten

Bearbeiten — das Material remixen, verändern und darauf aufbauen
und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.

Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

Finanzierung der Digitalisierung

von Udo Rettberg

Die sichere und nachhaltige Finanzierung der Digitalisierung gilt als eine ganz wesentliche Voraussetzung dafür, dass dieser Megatrend auch in Zukunft nachhaltig alle seine Stärken und Vorteile wird ausspielen können.

Als Geldgeber für Finanzierungen haben sich in der Vergangenheit nicht zuletzt ältere und über die Dekaden hinweg finanziell bestens bestückte Generationen gezeigt. Diese „German Entrepreneurs“ hatten sich durch harte Arbeit während ihres Berufslebens eine Menge Erspartes beiseitegelegt. Heute tun sich diese Kapitalgeber, die durch ihre Risikobereitschaft einst als Rückgrat zum „deutschen Wirtschaftswunder“ beigetragen haben, schwer. Früher hatten sie ihr Risikokapital in sichtbare und ertastbare Produkte, Technologien und auch in bekannte Dienstleistungen investiert. Sie konnten also die von ihnen finanzierten Produkte sehen, spüren, fühlen, ertasten, riechen und vor allem in physischer Form auch im Alltag nutzen. Doch die Zeiten haben sich geändert. Und so ist festzustellen, dass aus dieser Betrachtungsweise eine Art Generationenkonflikt resultiert. Die in der Regel noch sehr jungen Unternehmen der Digitalisisierungsbranche beklagen nämlich, dass potenziellen potenten Geldgebern das Verständnis für die Situation fehlt. Die Digitalisierung spielt sich in der Regel in der weitgehend anonymen Datenwelt in der sogenannten „Cloud“ ab. Sie ist daher nichts, was tastbar oder anfassbar wäre.

Diese zwischen 1980 und 1999 geborenen Menschen, die im Angelsächsischen als „Millennials“ bezeichnet werden, sind quasi in das Digitalisierungs-Zeitalter hineingeboren und hineingewachsen. Die Mehrheit dieser Digitalisierungs-Ureinwohner verfügt (von Ausnahmen abgesehen) jedoch nicht unbedingt über größere Kapitalmengen. Diese Generation nutzt praktisch ihre Erfahrungen in der digitalisierten Welt zur Entwicklung neuer Finanzierungsformen und -plattformen. Dabei werden von den Gründungsvätern der Digitalisierung alle Register gezogen und auch eher im Verborgenen blühende Möglichkeiten in der VC-Finanzierung, der Fusions-Finanzierung (per LBO und MBO) und Sanierungsfinanzierung genutzt.
Auch die öffentliche Hand sieht sich in der Pflicht, für Start-ups und Neulinge spezielle staatliche Finanzierungen zu kreieren und z. B. über Förderbanken dann für Wachstumszwecke zur Verfügung zu stellen.  Die zahlreichen Ideen der Digitalisierung sollen auf eine breite Finanzierungsbasis stoßen, um nicht zuletzt auch eine zu starke Konzentration der Marktmacht zu verhindern.

Und so könnten Unternehmen der Datenökonomie bei ihren Finanzierungs-Anstrengungen während der verschiedenen Stufen ihrer Geschichte und Entwicklung inzwischen sowohl mehr Finanzierungsformen als auch anderen bislang weitgehend verschlossenen Kapitalquellen vertrauen als das bei den Firmengründern der „old economy“ der Fall war. Angefangen bei der Gründungsfinanzierung  per Bankkredite und Gründungsdarlehen über staatliche Förderprogramme (z. B. über die Kreditanstalt für Wiederaufbau oder andere Entwicklungsbanken) und der dann im weiteren Verlauf anstehenden Kapitalbeschaffung über Venture-Capital (Risikokapital) bieten sich im weiteren Verlauf der Historie zahlreiche andere Formen an.
Disziplin beim Umgang mit Kapital ist eine der wesentlichen Voraussetzungen,  damit Technologiefirmen auch einige Jahre nach der Gründung noch beständig wachsen können. Dabei geht es bei der Finanzierung dann im Prinzip vor allem um die Beschaffung von Eigenkapital (in der Regel über Aktien) auf der einen sowie von Fremdkapital (meist über Kredite, Anleihen, Schuldverschreibungen etc.) auf der anderen Seite.

Neurofinance

Ein neuer Ansatz sorgt für Furore an den Kapitalmärkten: Roland Ullrich und Bernd Weber gewähren Einblicke in ein vielversprechendes Forschungsgebiet.

Herr Prof. Weber, noch ist die Beratung in Banken eine Bastion der menschlichen Intelligenz. Wann werden selbstlernende Computersysteme mit Siri-Stimme und Avatar-Gesicht den klassischen Kundenberater ersetzen?
Man sieht derzeit in vielen Bereichen der Kundeninteraktion die Nutzung von Avataren. Dies stößt bei vielen Verbrauchern auf dem jetzigen Stand der Technik aber auch auf große Skepsis bis Ablehnung. Menschen reagieren sehr sensibel auf ihr Gegenüber und Nuancen in sozialen Interaktionen. Bei den aktuellen Systemen der „künstlichen Berater“ ist dies sehr weit von natürlichen Interaktionen entfernt und führt eher zur Ablehnung durch die Kunden. Selbstlernende Algorithmen, die auf die individuellen und eben auch schwankenden emotionalen Bedürfnisse der Kunden eingehen, wird es auf absehbare Zeit nicht geben.

Herr Ullrich, Sie schreiben, der Schwerpunkt Ihrer Konferenz ist der Transfer von Forschungsergebnissen in die Praxis der Finanzindustrie, welche Trends machen Sie aus?

Roland Ullrich

Die spannenden Erkenntnisse der modernen Hirnforschung sind mittlerweile in den Management- und Finanzkreisen der deutschen Wirtschaft angekommen. Neurofinance macht sich die neuesten neurowissenschaftlichen Methoden und Technologien zunutze, um das Verhalten der Menschen an den Finanzmärkten zu analysieren. Dabei hat sich herausgestellt, dass wir trotz all dem Wissen und der Informationen, die wir „real time“ zur Verfügung haben, nicht in der Lage sind, vernünftig mit Geld umzugehen. Aus der Evolution stammende, unbewusste Verhaltensmuster spielen uns allzu oft einen Streich.  Denn unsere uralten Gehirnsysteme sind das Ergebnis eines evolutionären Selektionsprozesses. Sie sind uns zum Überleben gegeben und einfach nicht dafür geeignet, rationale Entscheidungen an komplexen Finanzmärkten zu treffen. Finanzmärkte folgen völlig anderen Gesetzen. Die gute Nachricht ist, dass unser Gehirn vollkommen plastisch ist, d. h. lebenslang wandelbar. Wir können lernen, die Kontrolle über unsere automatischen Gehirnaktivitäten zu erlangen. Hirnforscher sind heute in der Lage, Anlegerverhalten vorherzusagen und zu beeinflussen. Mit dem Bewusstsein, wie unser Gehirn finanzielle Entscheidungen trifft, können wir Methoden erlernen, die uns helfen, im ökonomischen Sinn rationaler, d. h. besser mit Geld umzugehen. Hierzu zählen zum Beispiel Mindfulness-Training, Neurofeedback und Neurocoaching. Bei vielen angelsächsischen Investoren sind diese Methoden populär. Zusammen mit der DFVA wollen wir die Ergebnisse der Neurofinance Forschung in Deutschland bekannter machen und eine Plattform für die verschiedenen Anwendungsmöglichkeiten bieten. Gleichzeitig zeigt der Trend zur Digitalisierung der Finanzbranche, wie irrationales Anlegerverhalten mithilfe kognitiver Technologien ausgeschaltet werden kann. Algorithmen-basierte Anlageprodukte und digitales Asset-Management können dazu beitragen, dass Anleger und Investoren ihre Emotionen besser in den Griff bekommen.

Herr Ullrich, welche Schwerpunkte und Themen haben Sie für die erste „Neurofinance-Konferenz“ gewählt?
Gemeinsam mit der DVFA haben wir ein Konferenzkonzept entwickelt, welches aus zwei Bausteinen besteht. Zu Beginn geht es darum, die spannenden Erkenntnisse der Neurofinance-Forschung den Teilnehmern verständlich zu machen. Mit dem Bewusstsein, wie emotional und oftmals irrational wir finanzielle Entscheidungen treffen, geht es im zweiten Baustein darum, dieses Wissen in die Praxis zu übertragen und Anwendungsmöglichkeiten vorzustellen. Liegt die Zukunft in kognitiven Trainingsmethoden zur Verbesserung finanzieller Entscheidungsprozesse oder werden uns bald selbstlernende Algorithmen und Künstliche Intelligenz steuern? Mensch oder Maschine? Oder lässt sich menschliche Intelligenz mit kognitiven Technologien verbinden?
Herr Prof. Weber, können Sie uns kurz und bündig erklären, was wir unter den Begriffen „Neurofeedback“ oder „Mindfulness“ verstehen dürfen?
Diese verschiedenen „Interventionen“ stellen Verfahren dar, die dazu dienen sollen, die Prozesse von Entscheidungen zu verbessern. Bei Neurofeedbackmethoden werden direkt biologische Signale visualisiert und den Nutzern zurückgespielt. Diese sollen dann lernen, bestimmte neuronale Muster zu verstärken oder abzuschwächen. Hier existieren eine Reihe von Studien, v.  a. im medizinischen Kontext, dass diese Feedbackmethoden in der Lage sind, z. B. die Symptome bei Angst- oder Suchterkrankungen zu verbessern. Mindfulness – oder ähnliche Traingsverfahren – sollen dazu dienen, sich seiner emotionalen Zustände bewusster zu werden und damit in der Lage zu sein, diese besser in Entscheidungen zu nutzen. Auch diese Verfahren sind im Bereich der Psychotherapie stark etabliert und zeigen auch positive Effekte für ökonomisches Entscheidungsverhalten.

Herr Prof. Weber, wo sehen Sie wichtige Aspekte für die Zukunft der Forschung im Bereich der Neurofinance?

Prof. Bernd Weber

In den letzten Jahren haben wir extrem viel über basale Mechanismen von Entscheidungen gelernt. Wir stehen trotzdem noch am Anfang. Obwohl sich viele Studien mit Themen wie „nudging“ von Finanzentscheidungen beschäftigt haben, existieren noch eine Reihe spannender Fragen, welche helfen könnten, Interventionen oder Unterstützungen von Entscheidern zu verbessern. Ein wichtiger Aspekt dabei wäre z. B., die riesige Anzahl von Entscheidungsverzerrungen, die bisher beschrieben sind, auf eine geringe Anzahl von Prinzipien zu reduzieren, welche es ermöglichen würde, bessere Modelle von Entscheidungen zu entwickeln. Aber auch ganz konkrete Fragen wie: Welche Rolle spielen soziale Medien oder genereller soziale Interaktionen in Finanzentscheidungen? Wieso sind viele Privatinvestoren bereit, größere Gebühren für aktiv gemanagte Fonds zu bezahlen, wobei ein Großteil der Daten zeigt, dass günstigere z. B. Indexfonds eigentlich die gewinnbringendere Wahl für sie wären?

 

 

 

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Prof. Bernd Weber

Informationen zu Roland Ullrich

Mobile Economy

Ortsungebunden und immer erreichbar. Smartphones und Tablets stellen den „Arbeitsplatz“ in Frage und ermöglichen neue flexible Arbeitsweisen.

von Brigitte Kasper

Die Initialzündung für „Mobile“ kam sicherlich durch die Einführung von iPhone und iPad. Mit einem Mal genügte es nicht mehr, mit dem Handy nur zu telefonieren und ein paar SMS zu versenden. Zwar konnte man mit den damaligen mobilen Geräten auch schon z. B. Musik hören, fotografieren und E-Mails empfangen und versenden, jedoch geschah das noch mehr oder weniger halbherzig bzw. war auf nicht allzu viele geschäftliche Nutzer begrenzt. Mit den neuen Prestigeobjekten, die zudem durch eine neuartige Bedienung glänzten, eröffnete sich ihren Nutzern so nach und nach die Welt der Applikationen (Apps), d. h., von kleinen, auf dem Gerät gespeicherten oder ladbaren Programmen, über die man sich – zum Teil spielerisch – immer neue Anwendungen, Nutzen und Mehrwerte erschloss. Andere Hersteller zogen mit den sogenannten Smartphones und Tablet-PCs nach, für die nun ihrerseits ein kaum noch zu überblickendes App-Universum entstand.

Mittlerweile geht es nicht mehr ohne. Mobile ist zu einem gesamtgesellschaftlichen Phänomen geworden – sowohl privat als auch im Business. Mancherorts heißt es nicht mehr „Mobile First“, sondern „Mobile Only“. Es wird mobil gelebt, gespielt, gearbeitet, gelernt, eingekauft, bezahlt und Geld überwiesen. Kaum ein Unternehmensbereich oder eine Branche kommt noch ohne mobile Arbeitsmittel aus, sei es im Vertrieb, in der Kundenberatung oder im Außendienst, in der Logistik oder im Handwerk. Moderne Apps machen es möglich, von überall her z. B. auf weiterführende Informationen oder Unternehmens- und Kundendaten zuzugreifen, um so die Kundengespräche oder auch Finanzberatungen durch aktuelle Fakten untermauern zu können. Oder vor Ort gewonnene Messdaten via App und Mobilfunk in den Unternehmensserver zu senden, um sie dort zu speichern und auszuwerten.

Die Zahlen sprechen für sich: Laut dem aktuellen Ericsson-Mobility-Report wird die Anzahl der Smartphone-Verträge 2016 weltweit auf 3,9 Mrd. steigen. Nahezu 90 % der Kunden werden dann die schnellen WCDMS/HSPA- und LTE-Netze nutzen. In Deutschland werden insgesamt voraussichtlich 27,9 Mio. Geräte über den Ladentisch gehen, so die Prognose des Digitalverbands Bitkom. 76 % aller Bundesbürger ab 14 und bis 69 Jahre nutzen bereits ein Smartphone und mit ihm auch das mobile Internet. Das Tablet hingegen läuft langsam Laptop und Notebook den Rang ab.

Nach ihrem Siegeszug im Privaten krempeln Smartphone und Tablet nun die Arbeitswelt um und ermöglichen neue Arbeitsweisen – losgelöst von Raum und Zeit. Wie aus dem aktuellen „Adobe Enterprise Mobile Survey“ hervorgeht, setzen 75 % der hiesigen Firmen inzwischen Enterprise-Mobile-Apps für tägliche Arbeiten ein, beispielsweise für eine verbesserte Kommunikation der Mitarbeiter untereinander, mit Kunden oder auch in Sales-Prozessen – auch von unterwegs und außerhalb der „normalen“ Arbeitszeiten. Vertrieb, Marketing, Kundenberatung usw. werden sich in einem Maß den mobilen Möglichkeiten anpassen müssen, das heute noch gar nicht abzuschätzen ist. So wie die Kunden jederzeit, überall und flexibel erreichbar sind, erwarten sie es auch von ihren Geschäftspartnern. Starre und archaische Hierarchien, bislang erfolgreiche Geschäftsmodelle und Märkte sowie bestehende Wertschöpfungsketten müssen hinterfragt und gegebenenfalls aufgebrochen werden. Neue Denkweisen und Geschäftsmodelle müssen her. Nicht umsonst fordert der VDE mehr „Californian Spirit“ statt „German Angst“. Er sieht die Digitalisierung als Feuerprobe für Deutschland 4.0. Kaum auszudenken, würde man hier den Anschluss an die USA und Asien verlieren.

Potemkinsches Dorf – oder: Risikokultur leben

von Frank Romeike und Christoph Schwager

Kultur isst die Strategie zum Frühstück“, so ein Zitat des ehemaligen US-amerikanischen Ökonomen Peter F. Drucker. Gemeint ist der Wert der Unternehmenskultur, der weit über die rein rationale und strategische Organisationswelt hinausgeht. Nach Definition des Dudens beschreibt der Begriff den „Grad“, das „Maß, in dem ein Unternehmen den Ansprüchen der Unternehmensidentität entspricht oder zu entsprechen in der Lage ist“. Eine dehnbare Erklärung, die viel Spielraum für Unternehmensdenker und -lenker zulässt.

Vor allem in den bunten Geschäftsberichten wird die Unternehmenskultur wie ein Heiliger Gral hochgehalten und strapaziert. Dort steht regelmäßig viel über den „Wandel“ einer „global gelebten“ und „geschäftsfeldübergreifenden“ Unternehmenskultur. Selbstverständlich von „gegenseitigem Respekt“ und „Offenheit“ gekennzeichnet. Dass diese Begriffe in vielen Fällen nicht mehr als Füllwörter sind, bewahrheitet sich spätestens bei auftretenden Unternehmenskrisen. Nicht selten entpuppt sich das Ganze dann als „Potemkinsches Dorf“: Hochglanzbroschüren versprechen viel, um den tatsächlichen, verheerenden Zustand zu verbergen. Im tiefen Inneren fehlt es an Substanz. Eine große Spielwiese, auf der Unternehmen und ihre Verantwortlichen herumtollen, stolpern und häufig nicht mehr aufstehen. Im Klartext heißt das: Treten Krisen auf, ist die vielfach vorgeschobene Unternehmenskultur schnell dahin – weil nie wirklich gelebt oder nur halbherzig umgesetzt. Und doch ist es nicht möglich, keine Kultur zu haben. Jedes Unternehmen hat eine – positiv oder negativ besetzt.

Letztere ist in zweierlei Hinsicht fatal, nämlich in puncto Reputationsrisiken sowie der immensen Kosten für betroffene Unternehmen. Ein Paradebeispiel bietet die Informationssicherheit in Organisationen. Um die ist es nicht zum Besten bestellt, wie der Digitalverband Bitkom jüngst prognostizierte. Den Gesamtschaden durch Hackerangriffe beziffern die Bitkom-Experten auf rund 51 Milliarden Euro pro Jahr – nur für die deutsche Wirtschaft und nach „konservativen Berechnungen“. Ein warnendes Signal, bei einem Blick auf den allerorts propagierten digitalen Wandel der Geschäftswelt. Ergo braucht es die notwendige Sensibilisierung und das Wissen in Organisationen, um den technologischen Quantensprung hin zur Transformation im Maßstab 4.0 und höher bewältigen zu können.

Vom Tal der Ahnungslosen …

„Das Lieblingswort deutscher Manager ist zurzeit digitale Transformation. Sie wollen ihre Geschäftsmodelle ‚an das digitale Zeitalter anpassen‘“, schrieb das Wirtschaftsmagazin brand eins 2015  in einem Beitrag zu „Die drei Zauberworte“. Und diese drei Begriffe werden gebetsmühlenartig in Publikationen, Präsentationen und Pressegesprächen benannt. Die Rede ist von „Disruption“, „Plattform“ und „Netzwerkeffekt“. Das klingt nach viel Management und leider nach viel heißer Luft. Denn laut der WirtschaftsWoche sei nur jeder zwölfte Manager in Deutschland fit für die digitale Transformation.
Ein Blick in die Realität zeigt, dass nur die wenigsten Unternehmen reif sind für die digitale Transformation und für die notwendigen Veränderungsprozesse im Unternehmen. Kurzum: Viele Unternehmen verharren eher im Tal der Ahnungslosen und trauen sich nicht vom „lahmen Gaul“ abzusteigen und auf ein neues Pferd zu wechseln. Im Umkehrschluss heißt das: Führungskräfte, die den Weg hin zur digitalen Wende in den Organisationen initiieren, vorantreiben und überwachen müssen, haben schlicht keine Ahnung von dem, was sie an digitalen Platzhaltern von sich geben. Mehr noch sind sie überfordert und können dementsprechend nicht die Weichen Richtung zukunftsweisender digitaler Strukturen stellen. Aber genau dies braucht es. Denn Unternehmen jeder Größe und in allen Branchen sind in unserer digital eng vernetzten Welt verwundbarer denn je, bieten offene Flanken. Und diese lassen sich nicht einfach mit einem „Firewall-Denken 1.0“ schließen. Nicht selten wird beispielsweise bei der Umsetzung von Informationssicherheitsstrukturen  vergessen, dass technologische Ansätze nur zu einem kleinen Anteil über den Erfolg entscheiden. Dreh- und Angelpunkt sind die eigenen Kollegen – von der Führungsebene bis zum normalen Mitarbeiter.

… zu mehr Awareness und einer gelebten Unternehmenskultur

Frank Romeike

Um aus digitalen Risiken Chancen reifen zu lassen, aus denen wiederum digitale Erfolgsgeschichten entstehen, muss eine „gelebte“ Unternehmenskultur in der Organisation Einzug halten. Die sollte von der Unternehmensspitze initiiert werden, durch alle Organisationsbereiche reichen, verstanden und mitgetragen von allen Mitarbeitern.
Hierzu braucht es klare Spielregeln – ein Defizit in vielen Führungsköpfen. Böse formuliert „stinkt der Fisch vom Kopf her“. Gemeint ist in diesem Kontext, dass sich Entscheider nicht an die Regeln im Unternehmen halten. So werden Maßnahmen für mehr Informationssicherheit ad absurdum geführt, wenn diese beim Verlassen des Firmengeländes über Bord geworfen werden. Ein offenes Ohr in der Bahn oder am Flughafen genügt, um Geschäftszahlen, Vertragsabschlüsse sowie sonstige Interna mitzubekommen.

Im Umkehrschluss heißt das, Informationssicherheit ist nur so gut, wie die Menschen, die sie leben. Gleiches zählt für Mitarbeiter, die mit dem eigenen Smartphone im Unternehmen hantieren, filmen, Daten kopieren oder unachtsam mit sensiblen Unternehmensinformationen umgehen. Social Engineering, Hackerangriffe oder Spionagefälle in Unternehmen beweisen, dass Angreifer diese Schwächen für sich zu nutzen wissen. Es zeigt sich: Gründe für mehr Awareness im Umgang mit dem Firmengut „Informationen“ gibt es genug. Leider werden diese zu wenig beherzigt und in konkrete Sensibilisierungsmaßnahmen in der Organisation umgesetzt. Wichtig ist in diesem Zusammenhang auch, dass Mitarbeiter den Wert ihrer Person erfahren und als wichtiger Teil der Gesamtorganisation verstanden werden und dies auch vermittelt wird. Wer in Präsentationen mit Vokabeln der Marke „Humankapital“ oder „Mitarbeiterressource“ zu punkten versucht, scheitert. Denn die Kollegen haben ein gutes Gespür dafür, wer es als Firmenchef ernst meint mit der Kultur und wer nicht. Und hierzu zählt vor allem das Prinzip des Vertrauens.

Die Reifegradtreppe hinauf bis zum Planspiel

Im Idealfall reift eine Kultur in der Organisation, in der alle an einem Strang ziehen und ihren Beitrag für den Erfolg des Unternehmens leisten. Doch Vorsicht: „Keep it simple, stupid“, so die alte Managerweisheit. Dahinter steckt viel Wahrheit, denn Leitplanken für ein qualitatives Mehr an Informationssicherheit zu setzen ist das eine. Mitarbeiter mit zu viel Regeln, Normen und Software zu überfordern ist das andere. Ein durchgängiges Informationssicherheitsmanagement muss in ein gelebtes Chancen- und Risikomanagement integriert werden. Und dieses muss reifen. Unterschiedliche Reifegrade in der Risk-Governance – also einer stakeholderorientierten Risikosteuerung aus strategischer Sicht – sind ein guter Indikator für die Messbarkeit des Erfolgs der eigenen Maßnahmen. Ausgehend von fünf Stufen im Risikomanagement ist das erklärte Ziel, von einer reinen „Risikodokumentation“ (Stufe eins) und einer Unternehmenssteuerung nach dem Prinzip „Zufall und Glück“ zu einer „Leading-Stufe“ zu gelangen. Die letzte Reifegrad-Stufe ist von einer gelebten Risikokultur auf allen Unternehmens-ebenen geprägt, mit einem starken Fokus auf Kreativitätsmethoden und Frühwarnsignalen, die in die Unternehmenssteuerung einfließen (vgl. Abbildung/Reifegradtreppe). Für Entscheider muss es das erklärte Ziel sein, einen möglichst hohen Reifegrad zu erlangen und als Teil der Unternehmenssteuerung zu verstehen. Damit lassen sich Chancen zukunftsgewandt erkennen und proaktiv steuern sowie die Resilienz (Widerstandsfähigkeit) des eigenen Unternehmens stärken – auch gegen Cyberattacken, Sabotage und Spionage im eigenen Haus.

Risiko- und Chancenmanagement wie im Flugsimulator lernen

Christoph Schwager

Stellt sich die Frage, wie Unternehmens- und Risikokultur gemessen und weiterentwickelt werden können. Hier hilft ein Blick in die Luftfahrt, bei der ein gelebtes Risiko- und Krisenmanagement auf eine lange Historie verweisen kann. In den Kindertagen der Luftfahrt bestand das Risikomanagement- und Frühwarnsystem des Piloten – neben dem Kompass – im Wesentlichen aus drei Instrumenten: Schal, Krawatte und Brille. An der Art wie der Schal flatterte, konnte der Pilot Geschwindigkeit und Seitenwind abschätzen. Hing die Krawatte schräg, musste die Kurvenlage korrigiert werden. Und beschlug die Brille, so zeigte dies baldigen Nebel oder Regen an – und die Notwendigkeit, schleunigst zu landen. Heute sieht die Welt in der Luftfahrt anders aus: Hochtechnische Navigations- und Frühwarnsysteme und ausgefeilte Risikomanagement-Systeme haben zu einer hoch entwickelten Risikokultur und einem exzellenten Sicherheitsniveau in der Luftfahrt geführt. Ein wesentliches Element hierbei spielen heute Simulationen.

Ein Blick in die Realität zeigt, dass nur die wenigsten Unternehmen reif sind für die digitale Transformation und für die notwendigen Veränderungsprozesse im Unternehmen.

Piloten üben im Flugsimulator den richtigen Einsatz von Risikomanagement-Methoden und die adäquate Reaktion in Krisen. Der Flugsimulator stellt eine realitätsnahe Trockenübung dar und vereint Elemente aus Kreativitäts-, Szenario- und Simulationstechniken. Die erweiterte Form der Szenario- und Simulationstechnik unter Zuhilfenahme spielerischer Elemente und Interaktionsmuster kann auch im Unternehmensalltag genutzt werden, um Unternehmens- und Risikokultur zu entwickeln.

Reifegradtreppe

Ein Risikomanagement-Planspiel bzw. sogenannte Business-Wargames (wie etwa RiskNET R & OM Simulation bzw. Project@RISK von RiskNET) schaffen ein tieferes Verständnis der Aktionen und Reaktionen der unterschiedlichen Stakeholder und explizieren kognitive Verhaltensmuster und Verzerrungen. Ein praktischer Nebeneffekt: Risikokultur kann – basierend auf den Verhaltensweisen der Stakeholder – gemessen werden. Kritische Risiken können identifiziert werden, die durch „klassische“ Analysemethoden nicht erkannt werden. So werden beispielsweise aufgrund sogenannter „kognitiver Heuristiken“ (Repräsentativität und Verfügbarkeit) die Wahrscheinlichkeiten für Ereignisse umso größer eingeschätzt, je repräsentativer das Ereignis für die zugrunde liegende Grundgesamtheit erscheint und je leichter bzw. schneller Menschen in der Lage sind, sich (plastische) Beispiele für das Ereignis vorzustellen bzw. in Erinnerung zu rufen (vgl. Gleißner/Romeike 2012, siehe Literaturkasten).

Weiterführende Literatur

Erben, Roland F. / Romeike, Frank (2016): Allein auf stürmischer See – Risikomanagement für Einsteiger, 3. komplett überarbeitete Auflage, Wiley Verlag, Weinheim 2016.
Gleißner, Werner / Romeike, Frank (2012): Psychologische Aspekte im Risikomanagement – Bauchmenschen, Herzmenschen und Kopfmenschen, in: Risk, Compliance & Audit (RC&A), 06/2012, S. 43-46.
Romeike, Frank / Spitzner, Jan (2013): Von Szenarioanalyse bis Wargaming – Betriebswirtschaftliche Simulationen im Praxiseinsatz, Wiley Verlag, Weinheim 2013.
Romeike, Frank (2014): Simulation mit Business Wargaming, in: FIRM Jahrbuch 2014, Frankfurt/Main 2014, S. 140-143.

Sich der eigenen Schwächen beim intuitiven Umgang mit Risiken bewusst zu sein, ist der erste Schritt für die Verbesserung der Potenziale im Risikomanagement. Hierbei können Planspiele einen erheblichen Mehrwert bieten. In diesem Kontext passt sehr gut ein Zitat des US-amerikanischen Ökonomen Thomas Crombie Schelling, Preisträger für Wirtschaftswissenschaften der schwedischen Reichsbank im Gedenken an Alfred Nobel: “The one thing you cannot do, no matter how rigorous your analysis or heroic your imagination, is to make a list of things you never thought of.”  Bei diesem kreativen Prozess kann ein Business-Wargame bzw. Planspiel Unterstützung bieten.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Frank Romeike

Informationen zu Christoph Schwager

Wann ist Big Data sinnvoll?

Big-Data-Technologien sind nicht die einzige Lösung, wenn es um viele Daten geht. Es gibt mehrere Kriterien, die über die Art der Datenverarbeitung entscheiden.

von Peter Welker

Technisch gesehen geht es beim Trendbegriff „Big Data“ um Daten, die durch ihre schiere Menge (Volume), den benötigten Datendurchsatz und die maximale Verzögerung (Velocity) sowie durch Komplexität und Variabilität (Variety) besondere Techniken für die Datenverarbeitung und Speicherung benötigen.(1) Der Einsatz traditioneller Technologie, wie relationaler Datenbanken, stößt bei solchen Anforderungen architekturbedingt irgendwann an seine Grenzen. Dasselbe gilt für nicht konsequent auf Parallelisierung ausgelegte Programmierparadigmen zur Verarbeitung der Daten.

Zu Beginn der Big-Data-Ära um 2010 konnte man es auf vielen IT-Konferenzen und in zahlreichen Publikationen spüren: Die neuen Lösungen rund um Hadoop und NoSQL sollten vor allem die althergebrachten analytischen Applikationen (z. B. Data-Warehouse) revolutionieren und ersetzen.
Die Investitionen in klassische analytische Anwendungen haben aber keineswegs darunter gelitten. (2) Relationale Datenbanken und klassische Datenintegrationswerkzeuge sind auch nicht so limitiert, wie es die Verfechter neuer Technologie gerne proklamieren. Das Laden, Transformieren und die optimierte Aufbereitung mehrerer hundert Millionen Datensätze pro Tag ist heute auch mit kostengünstiger Hardware kein Problem. Dennoch: Auch wenn die größten relationalen DWH-Datenbanken im zweistelligen Petabyte-Bereich liegen,(3) ist in den meisten Fällen im zwei- bis dreistelligen Terabyte-Bereich Schluss. Häufig wegen Lizenz- und Supportkosten für benötigte kommerzielle Software, nicht etwa weil die Grenze der technischen Leistungsfähigkeit erreicht wäre.
Es sind vielmehr neue Anforderungen, die mit neuen Techniken implementiert werden. Zur Verdeutlichung der Entscheidungskriterien pro oder contra Big-Data-Technologie betrachten wir drei Anwendungsfälle.

Process-Data-Warehouse

Data Warehouses müssen keineswegs nur Finanzdaten aufbereiten. Ein Übertragungsnetzbetreiber aus der Energiebranche lädt täglich 60 Millionen Mess- und Applikationswerte in ein relationales DWH und speichert sie dort für zehn Jahre, um beispielsweise schadhafte Bauteile zu analysieren oder die Zuverlässigkeit von Verbrauchsprognosen zu prüfen. Dafür müssen die Daten spätestens 20 Minuten nach ihrer Erzeugung für Zeitreihen- und andere Analysen optimiert bereitstehen (Latenz). Die wichtigsten auf diesen Daten basierenden Auswertungen benötigen dann jeweils weniger als fünf Sekunden und sind somit interaktiv durchführbar.

Besonders im Energiesektor fallen bei Erzeugung und Verbrauch enorme Datenmengen an, doch nicht immer kommen Big-Data-Technologien zum Einsatz.

Es sprechen erste Kriterien für Big-Data-Technologie. Überraschenderweise ist es aber keineswegs die Datenmenge, denn trotz vieler Datensätze bewegt sich das Volumen noch im unteren Terabyte-Bereich. Allerdings sind Wide-Column-NoSQL-Datenbanken besser für Zeitreihenanalysen geeignet als ihre relationalen Pendants. Dennoch entschied sich der Betreiber aufgrund des traditionellen Know-hows seiner Mitarbeiter, der Stabilität und sicheren Verfügbarkeit relationaler Tools für die klassische Lösung mit hohem Investitionsschutz und vergleichsweise niedrigen Kosten. Und das funktioniert. Die Anwendung skaliert bei Bedarf und stärkerer Hardware auch noch um den Faktor zehn.

Messdatenlandschaft

Es wäre ein Fehler, rein fachliche Kriterien für einen Technologieentscheid zu nutzen. In einem zweiten, ganz ähnlich gelagerten Fall befüllt ein Autozulieferer zwecks Analyse der Produktionsprozesse Dutzende örtlich separierte, aber gleichartige relationale Datenbanken mit Messdaten. Inzwischen bewegt sich das Gesamtvolumen deutlich im dreistelligen Terabyte-Bereich. Alle Informationen sind innerhalb einer Stunde – ebenfalls vorwiegend für Zeitreihenanalysen – fertig aufbereitet.

Im Zuge einer Zusammenführung dieser Datenbanken und eines zunehmend operationalen Monitorings müssen nun sehr zeitnahe Analysen ermöglicht werden. Darum ist es erforderlich, die Latenz auf maximal fünf Minuten zu reduzieren. Jetzt stellen sich neue Fragen: Wie repliziert man Daten aus unterschiedlichen Orten so schnell wie möglich in ein zentrales System, wenn Hunderte von Transformationsprozessen nötig sind und ebenso viele Benutzer gleichzeitig die Daten analysieren?

Wann soll ich Big-Data-Technologien einsetzen?

Wichtige Indikatoren für den Einsatz von Big-Data-Technologien lassen sich also zum einen aus den drei „V“ ableiten: Volume, Velocity und Variety. Wenn man für ein Vorhaben also eine oder mehrere der folgenden Fragen mit Ja beantwortet, ist demnach zumindest eine genauere Technologiebetrachtung angesagt:

Verarbeitungslatenz
Wie lange nach der Entstehung von Daten müssen Muster erkannt und daraus Aktivitäten abgeleitet werden? Habe ich Anforderungen im Minuten- oder Sekundenbereich – oder sogar noch darunter?
Datenvolumen
Wie groß ist die Datenmenge, die insgesamt vorgehalten werden muss? Komme ich weit in den Terabyte-Bereich oder darüber hinaus?
Skalierbarkeit
Muss die Verarbeitung „elastisch“ sein? Also: Werden starke Schwankungen bei der Last erwartet und soll die gewählte Lösung auch noch um den Faktor 10, 100 oder 1 000 nach oben skalierbar sein? Hilft mir eventuell der Einsatz von Cloud-Diensten?
Flexibilität
Wie vielfältig ist mein verfügbares Datenmaterial? Weiß ich jetzt schon, was ich später damit machen möchte?

Andererseits spielen natürlich auch nicht-technische Kriterien eine wichtige Rolle: Das Know-how der Mitarbeiter oder die Bereitschaft einer Abteilung oder eines Unternehmens, sich für reale Fragestellungen auf neue Wege einzulassen zum Beispiel. Ein gutes Erwartungsmanagement und ausreichend Budget für Implementierungsaufwände können ebenfalls wichtige Kriterien sein: Bei ersten Fragestellungen sind nicht immer revolutionäre Antworten zu erwarten und Big-Data-Anwendungen sind nicht einfacher oder kürzer (und damit billiger) als herkömmliche Projekte.

Relationale Datenbanken und klassische Datenintegration alleine erweisen sich dabei aufgrund der nötigen Latenz irgendwann als Flaschenhals. Besser eignen sich Vorgehensweisen aus dem Internet of Things – einer Domäne für Big-Data-Anwendungen: An jedem Standort werden neue (Sensor-)Daten innerhalb von Sekunden vorbereitet und für erste Analysen eine Weile im Hauptspeicher lokaler Rechner – ähnlich einem Gateway – vorgehalten. Die Datenströme fließen gleichzeitig in einen Event-Hub in der Cloud. An diesem bedienen sich alle weiteren Transformationsprozesse, die ihre Ergebnisse in einem großen, ebenfalls cloudbasierten NoSQL-Datenbankcluster ablegen.
Hier kommen zahlreiche Big-Data-Techniken zum Einsatz: Stream-Analytics und Transformationslösungen wie Spark, Event-Hubs wie Kafka und NoSQL-Datenbanken wie Cassandra. Sie wurden ursprünglich von Facebook, LinkedIn und dem APMLab der University of California ins Leben gerufen:

  • Im Gegensatz zu traditionellen Tools sind sie konsequent auf Skalierbarkeit ausgelegt. Die meisten Lösungen laufen ohne nennenswerten Overhead auf Clustern mit Hunderten oder Tausenden Rechnern.
  • Viele Tools werden von großen Entwicklergemeinden als Open-Source-Programme weiterentwickelt.
  • Hinter den meisten Produkten stehen zudem Unternehmen, die Enterprise-Level-Support und kommerzielle Varianten mit erweitertem Funktionsumfang anbieten.
  • Sie wurden als Open-Source-Software entwickelt und an die Apache Software Foundation weitergereicht. Inzwischen gibt es dafür  auch rein kommerzielle Alternativen, beispielsweise in der Microsoft Azure Cloud (Event-Hubs, Stream-Analytics).

Bewegungsdaten

Ein weiteres Kriterium für den Einsatz neuer Technologien ist neben Datenmenge und Durchsatz bzw. Latenz auch die Datenvielfalt. Während in relationalen Datenbanken stark strukturierte Daten genutzt werden, gilt das nicht für Big-Data-Anwendungen. Auch Texte, Videos, Bilder, Geodaten oder XML- und JSON-Dateien aus Web-Click-Streams oder Applikationslogs sind relevant.
In unserem dritten Fall nutzt ein Mobilfunkbetreiber neben Geodaten und GSM-Daten aus dem Funknetz auch zahlreiche weitere Quellen für analytische Anwendungen. Da inzwischen fast jeder ein angeschaltetes Handy mit sich führt, kann der Netzbetreiber je nach Netzausbau und Art des Funkverkehrs den Aufenthaltsort eines Teilnehmers recht genau orten. Zudem können Endgeräte und zum Teil auch die Teilnehmer identifiziert werden. Die dabei anfallenden Datenmengen sind sehr groß und bedürfen umfangreicher Interpretation. Dann aber lassen sich detaillierte Bewegungsprofile erzeugen.

Natürlich dürfen aus Datenschutzgründen die Daten aller Teilnehmer nur anonymisiert verarbeitet werden, sodass keine Rückschlüsse auf Personen möglich sind. Dennoch bleiben die Möglichkeiten vielfältig. So kann man mit diesen Verfahren sehr einfach zuverlässige Aussagen über den gegenwärtigen Straßenverkehrsfluss machen, Pendlerströme visualisieren, um typische Einzugsgebiete zu erkennen, oder Transit- von regionalem Verkehr unterscheiden.

Die dabei anfallenden Datenmengen überschreiten schon in kurzer Zeit die PetabyteGrenze und sind durchaus vielfältig. Wichtig sind historische Daten, aber manche Anwendungsfälle, wie die Verkehrsbetrachtung, benötigen auch zeitnahe Werte. Zudem will man beim Speichern der Daten eine Unabhängigkeit von den Datenstrukturen sicherstellen (Variety). Während bei der Speicherung in relationalen Datenbanken im Allgemeinen die Datenstruktur vorab bekannt sein muss, ist das bei der Datenablage in File-Systemen wie Hadoop nicht der Fall. Hier genügt es, erst beim Lesen der Daten über deren Struktur Bescheid zu wissen. Das ermöglicht auch das vorausschauende Speichern von Daten, für die heute noch keine ausgearbeiteten Einsatzzwecke vorliegen, die aber mit hoher Wahrscheinlichkeit eines Tages von Bedeutung sein werden.

Alle Indikatoren zeigen also in Richtung der neuen Technologien. Und folgerichtig werden hier beispielsweise Hadoop für die langfristige Speicherung von strukturierten und unstrukturierten Daten und Spark für die Transformation und Analyse dieser Daten eingesetzt. Damit ist neben einer kostengünstigen Ablage von Massendaten auch die Skalierbarkeit für zukünftige Fachanforderungen gesichert.

Quellen:

(1) https://blogs.gartner.com/doug-laney/files/2012/01/ad949-3D-Data-Management-Controlling-Data-Volume-Velocity-and-Variety.pdf, abgerufen am 02.11.2016
(2) https://tdwi.org/Articles/2015/03/31/Dimensional-Data-Warehouses-Get-Job-Done.aspx, abgerufen am 02.11.2016
(3) https://www.guinnessworldrecords.com/world-records/largest-data-warehouse, abgerufen am 02.11.2016

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Peter Welker

Internet of Things

Smart Things kommunizieren über das Internet der Dinge miteinander, wodurch neue Möglichkeiten automatischer Prozesse entstehen.

von Andreas Fuhrich

Statt selbst Gegenstand der menschlichen Aufmerksamkeit zu sein, soll das „Internet der Dinge“ den Menschen bei seinen Tätigkeiten unmerklich unterstützen. Dabei bezeichnet das Internet of Things (IoT) die Verknüpfung eindeutig identifizierbarer physischer Objekte mit einer virtuellen Repräsentation in einer internetähnlichen Struktur.

Die automatische Identifikation mittels RFID wird oft als Grundlage für das Internet der Dinge angesehen. Allerdings kann eine eindeutige Identifikation von Objekten auch mittels anderer Identifikationsverfahren, wie Strichcode oder 2D-Code, erfolgen. Bauteile wie Sensoren und Aktoren erweitern die Funktionalität um die Erfassung von Zuständen bzw. die Ausführung von Aktionen.

Ziel des IoT ist die automatische Übertragung von Zustandsdaten realer Dinge in die virtuelle Welt, um dort weiterverarbeitet werden zu können. Solche Daten können beispielsweise Informationen über die aktuelle Nutzung, den Verbrauch, aber auch über besondere Umweltbedingungen am Ort des „Things“ sein. In einem IoT-Netzwerk kommunizieren auf diese Weise mehrere Dinge miteinander und sind in der Lage, sich gegenseitig Aufgaben zuzuweisen.

Wearables sind ein typisches Einsatzgebiet des IoT. Eine Smartwatch kann beispielsweise ihren Träger genau lokalisieren und diese Daten an die Heizung im Smart Home übermitteln. So kann sich diese automatisch ausschalten, falls das Haus verlassen wird, und sich einschalten, wenn man sich nähert.
In der Wirtschaft spielt das IoT vor allem im Zusammenhang mit der Industrie 4.0 eine wichtige Rolle. Dabei soll, nach Plänen der Bundesregierung, eine weitestgehend selbst­organisierte Produktion möglich werden: Menschen, Maschinen, Anlagen und Produkte kommunizieren und kooperieren direkt miteinander. Durch die Vernetzung soll es möglich werden, nicht mehr nur einen Produktionsschritt, sondern eine ganze Wertschöpfungskette zu optimieren. Das Netz soll zudem alle Phasen des Lebenszyklus des Produktes einschließen – von der Idee eines Produkts über die Entwicklung, Fertigung, Nutzung und Wartung bis hin zum Recycling. Durch die Aktionen, die auf Basis der Daten des eigenständigen Informationsaustauschs zwischen Produktionsmaschinen, Lagersystemen und Betriebsmitteln entstehen, ergeben sich diverse Vorteile: Produkte können effizienter hergestellt werden und die Produktqualität kann verbessert. Der Energieverbrauch kann optimiert werden, da die einzelnen Teilnehmer eines IoT-Netzwerks nur dann aktiv sind, wenn sie wirklich benötigt werden. Durch die Nutzung moderner Technologien wird der Arbeitsplatz auch für die Mitarbeiter attraktiver. Zudem können Produkte kundenindividueller hergestellt werden, wodurch die Kundenbindung verbessert wird.

Von entscheidender Bedeutung beim IoT ist das Thema Sicherheit. Schließlich können Hacker nicht nur Daten stehlen oder verändern, sondern auch die Steuerung der Dinge übernehmen. Das Gefahrenpotenzial etwa im E-Health-Bereich oder bei Steuerungssystemen eines Kraftwerks ist daher außerordentlich.

Künstliche Intelligenz

Selbstlernende Maschinen nutzen Big Data und Cloud-Computing, um laufend die abhängigen Prozesse zu optimieren.

von Andreas Fuhrich

Eine eindeutige Definition des Begriffs Künstliche Intelligenz (KI) sucht man zwar vergebens, aber zumindest für den aktuellen, die Wirtschaft betreffenden Diskurs lässt er sich relativ klar skizzieren. Im Wesentlichen lässt sich er sich dabei in die Bereiche des maschinellen Lernens und des Cognitive Computings aufteilen:
Unter maschinellem Lernen versteht man die Fähigkeit eines künstlichen Systems, aus Erfahrung Wissen zu generieren. Dabei werden nicht nur Beispiele auswendig gelernt, sondern Muster und Gesetzmäßigkeiten erkannt, wodurch es in die Lage versetzt wird, auch unbekannte Daten beurteilen zu können. Kognitive Systeme gehen bei der Humanisierung der Maschine noch einen Schritt weiter. Neben der Fähigkeit des Lernens sind sie auch in der Lage, mit Ambiguitäten und Unschärfen umzugehen. Wichtige Voraussetzungen für eine KI beim „natürlichen“ Umgang mit menschlicher Sprache oder dem Deuten von Emotionen aus einer Gesichtsmimik.

Durch die Entwicklung der Informationstechnologie sind immer größere Datenmengen (Big Data) verfügbar. Diese enthalten oft implizites Wissen, das, wenn es bekannt wäre, große wirtschaftliche oder wissenschaftliche Bedeutung hätte. Unter Data-Mining versteht man die Suche nach potenziell nützlichem Wissen in großen Datenmengen – maschinelle Lernverfahren gehören zu den Schlüsseltechnologien innerhalb dieses Gebiets. Sie unterstützen den Data-Mining-Prozess vor allem beim Aufspüren neuer Muster und Gesetzmäßigkeiten. Andererseits unterstützt der Data-Mining-Prozess aber auch das maschinelle Lernen, indem dadurch neue Lerndaten zur Verfügung gestellt werden.

Zusätzlich profitiert das maschinelle Lernen von den Entwicklungen der Cloud-Technologie, denn flexible Rechenkapazitäten und Managed Services machen den Einsatz von Machine-Learning einfacher. Die großen Cloud-Anbieter wie Amazon, Google und Microsoft bieten Machine-Learning bereits als Schnittstelle (API) an. Durch Open-Source-Projekte wie Prediction.io oder TensorFlow steht zudem Technologie frei zur Verfügung, auf der man aufsetzen kann.

Nach aktuellen Prognosen von Crisp Research werden sich die Ausgaben für Infrastruktur, Software und Plattformen, Algorithmen-Design und verbundene Dienstleistungen von rund  1,96 Mrd. Euro in 2015 auf rund 15 Mrd. Euro im Jahr 2020 nahezu verzehnfachen.(1)

Einsatzmöglichkeiten für künstliche Intelligenz entstehen dabei für nahezu alle Branchen, weshalb sich CIOs und Digitalisierungsverantwortliche darauf gefasst machen sollten, dass nicht nur unternehmensintern diese Art von Skills nachgefragt werden. Die Anzahl an Machine-Learning-Spezialisten ist begrenzt und die Schnittmenge derjenigen, die auch noch Business-Verständnis mitbringen, umso kleiner. Für Unternehmen ist es daher umso wichtiger, sich rechtzeitig um Experten für den eigenen Betreib zu bemühen, z. B. durch Kooperationen mit Universitäten, um unmittelbar die Nachwuchskräfte zu binden, die auf dem freien Arbeitsmarkt kaum zur Verfügung stehen werden.

(1) „Künstliche Intelligenz und echte Profite – Machine Learning auf dem Weg in den Mainstream“, von: Carlo Velten, 2016, URL: https://www.crisp-research.com/kunstliche-intelligenz-und-echte-profite-machine-learning-auf-dem-weg-den-mainstream/ (Abgerufen: 24.November 2016).

Elektronische Rechnungsbearbeitung

von Dr. Martin Bartonitz

Papier ist geduldig, aber auch teuer. Dieser kurze Satz verweist indirekt auf die Vorteile einer papierlosen, elektronischen Rechnungsbearbeitung. Dabei geht es beim Thema E-Invoicing nicht zwingend um Materialkosten oder Umweltschutzaspekte, sondern um Einsparungen auf der Prozesskostenseite. Zu Beginn der elektronischen Datenverarbeitung mussten Papierrechnungen ausgedruckt oder händisch ausgefüllt, kuvertiert, frankiert und per Post verschickt werden (vgl. Abb. 1). Das Fax beschleunigte den Übertragungsprozess, allerdings blieb der Papierverbrauch fast unverändert. Der Empfänger musste die Rechnung prüfen und bei Beanstandungen auf dem gleichen Weg zurücksenden. Kopien der Rechnung mussten anschließend bei dem Versender und dem Empfänger liegen, um der zehnjährigen gesetzlichen Aufbewahrungspflicht gerecht zu werden (u. a. zur Absetzung der USt., vgl. Box 1). Der Platzbedarf für Archive stieg stetig an, mehrere Kilometer Aktenschränke waren (und sind!) bei Großunternehmen mit Hunderttausenden Papierdokumenten nicht ungewöhnlich.

Abb. 1: Kostentreiber in der Rechnungsbearbeitung

Rechnungen im unternehmerischen Umfeld

Die Papierrechnung wird das 21. Jahrhundert vielleicht nicht überleben, doch wer sie schon abschreibt, ist auf dem Holzweg. Denn auch wenn z. B. Mobilfunkanbieter für ihre Privatkunden bereits auf papierlose Rechnungen setzen, ist die Situation im unternehmerischen Bereich grundverschieden. Rund 75 % aller deutschen Unternehmen empfangen ihre Rechnungen noch in Papierform, Digitalisierung hin oder her. Da Papierrechnungen erst händisch geprüft, dann ggf. weitergeleitet und freigegeben werden müssen, verstreicht viel Zeit. Dies ist besonders dann der Fall, wenn Rechnungen in den Zwischenschritten „hängenbleiben“, sei es krankheitsbedingt oder weil Details unklar sind. Vielen Firmen entgeht dadurch nicht nur der Schnellzahler-Rabatt (Skonto, vgl. Box 2), sie laufen zudem Gefahr, Mahnungen zu erhalten. Bei einer elektronischen Bearbeitung (bestenfalls in einem Enterprise-Content-Management-System) kön­nen Fragen schneller geklärt, Freigaben in Sekunden erteilt und Stellvertreter im Workflow festgelegt werden, selbst wenn der Freigebende außer Haus ist, was den Prozess bis zur Bezahlung deutlich beschleunigt.
Achtung: Eine gescannte Rechnung im PDF-Format ist nicht automatisch eine elektronische Rechnung, denn letztere müssen sowohl elektronisch versendet als auch elektronisch empfangen werden (vgl. Box 3).

Box 1: Erfolgsneutralität der Umsatzsteuer

  • Unternehmensumsätze unterliegen der Umsatzsteuer (derzeit 19 %, bisweilen sieben Prozent)
  • Der Leistungserbringer berechnet seinen Umsatz (100 %) und fügt die Steuer hinzu. Der Leistungsempfänger muss folglich 119 % der Leistung bezahlen.
  • Die 19 % des Leistungserbringers gehen an das Finanzamt. Die verbleibenden 100 % werden als umsatzsteuerliches Entgelt des Leistenden bezeichnet.
    Sofern der Leistungsempfänger ebenfalls unternehmerisch tätig ist, können die 19 % Umsatzsteuer vor dem Finanzamt als Vorsteuer geltend gemacht werden. Es verbleibt eine betriebswirtschaftliche Belastung des Empfängers von 100 %.

Kostentreiber in der Rechnungsbearbeitung

Die manuelle Rechnungsverarbeitung kostet versendende Unternehmen zwischen 0,70 und 4,00 €, bisweilen sogar 13,00 € pro Rechnung und den Empfänger zwischen 2,00 und 30,00 € (je nach Unternehmensgröße und Personalkosten, verfügbare Studien variieren hier; vgl. Abb. 1). Mit elektronischer Rechnungsbearbeitung könnten diese Kosten, laut einer Studie von Capgemini, um bis zu 75 % gesenkt werden. Am meisten Geld sparen Unternehmen aber bei der Strafvermeidung: Fehlerhafte Rechnungen schlagen – aufgrund von Strafzahlungen bei Audits oder Problemen zwischen Lieferant und Empfänger – mit bis zu 50 € pro Rechnung zu Buche. Insgesamt könnten auf EU-Ebene laut Berechnungen der Deutschen Bank durch eine Umstellung auf E-Invoicing Einsparungen zwischen 80 und 250 Milliarden € erzielt werden – und 12 Millionen Bäume müssten nicht gefällt werden.

Box 2: Einsparpotenziale elektronischer Rechnungen

  • Minimale Versandkosten – Versender
  • Schnellzahler-Rabatt (Skonto) – Empfänger
  • Automatisierte Prüfung – Empfänger und Versender
  • Geringe Archivierungskosten – Empfänger und Versender

Verfahrensarten und Extraktion

Doch keine Prozessoptimierung und Automatisierung ohne eine Standardisierung der Datensätze. Weit verbreitet ist z. B. der internationale, branchenübergreifende Standard EDIFACT (Electronic Data Interchange for Administration, Commerce and Transport), der bereits seit über 20 Jahren existiert. EDIFACT ist bei der UN-Wirtschaftskommission für Europa (UNECE) angesiedelt und galt als großer Hoffnungsträger des elektronischen Datenaustauschs. Allerdings wurden die Formate mittlerweile branchenspezifisch so stark ausdifferenziert und zwischen Lieferanten und Kunden so individuell angepasst, dass EDIFACT kaum noch als Standard-Austauschformat bezeichnet werden kann.
Ein „klassisches“ PDF wiederum lässt sich zwar problemlos erstellen und versenden, doch ist es auch fehleranfällig, nicht zuletzt aufgrund der sog. Medienbrüche. Ein Beispiel: Die ursprüngliche Rechnungsdatei liegt beim Aussteller in strukturierter Form, also z. B. als Exceldatei, vor. Wird ein PDF erstellt, werden diese strukturierten Daten in ein Bild (= unstrukturierte Daten) umgewandelt (erster Medienbruch), nur um auf der Empfängerseite wieder als strukturierte Daten extrahiert zu werden (zweiter Medienbruch). Bei jedem dieser Schritte kann es zu Fehlern kommen, welche die Rechnung korrumpieren. Dazu kommen mögliche Tippfehler, Unschärfen aus dem Scanprozess und die Manipulierbarkeit von Bildern generell: Der Teufel lauert im Detail und Fehler können, wie erwähnt, sehr teuer werden.

Box 3: Was ist eine elektronische Rechnung?

  • Eine „elektronische Rechnung“ muss sowohl elektronisch erstellt als auch elektronisch ausgeliefert werden. Nicht jeder Scan ist also eine elektronische Rechnung!
  • Der Vorsteuerabzug bei elektronischen Rechnungen geht verloren, wenn der Nachweis und die Kontrolle der Echtheit, Herkunft und Unversehrtheit des Inhalts fehlen und die Rechnung nicht alle Angaben enthält.

Abb. 2: Digitale Erfassung von Papierdokumenten (Beispiel)

Reformen und Standardisierung

Das Europäische Parlament und der Rat der Europäischen Union brachten Bewegung in die wenig zufriedenstellende Situation. Im Rahmen einer EU-weiten Reform für das E-Government wurden ab 2011 einheitliche Richtlinien und Gesetze für die Rechnungsstellung erarbeitet und initiiert. Veränderungen im Bereich der Rechnungsstellung, die in Deutschland ebenfalls 2011 durch das Steuervereinfachungsgesetz angestoßen wurden (Abschaffung der verpflichtenden Verwendung digitaler Signaturen), mündeten 2013 im E-Government-Gesetz des BMI und 2014 in der Richtlinie 2014/55/EU des Europäischen Parlaments und des Rates über die elektronische Rechnungsstellung bei öffentlichen Aufträgen. Verwaltungen in den Mitgliedstaaten wurden angehalten, ihre Prozesse zu digitalisieren und vollständig auf elektronische Rechnungsbearbeitung umzustellen. Die Öffentliche Verwaltung in Deutschland ist gemäß RL 2014/55/EU ab 2018 zum elektronischen Rechnungsaustausch verpflichtet.

ZUGFeRD als zukunftsfähiger Standard?

Da EDIFACT mittlerweile zu ausdifferenziert und reine PDF-Dateien zu fehleranfällig waren, musste ein neuer Standard her, der ohne Medienbrüche auskommt, aber gleichzeitig Sicherheit und Verlässlichkeit gewährleistet. In Anlehnung an die Richtlinien der EU entstand der Zentrale User Guide des Forums elektronische Rechnung Deutschland (ZUGFeRD). Der Guide kombiniert maschinenlesbare, standardisierte Daten mit dem menschenlesbaren Beleg auf Grundlage des PDF/A-3-Standards. Der PDF-Datei wird eine XML-Datei inkludiert, die dem Format ZUGFeRD genügt und sämtliche relevanten Daten einer erstellten Rechnung enthält.

Box 5: Hashwert-Prüfverfahren im Dokumentversand

  • Vor dem Versand wird mit einem Algorithmus eine Quersumme über den Inhalt des Dokumentes gebildet.
  • Nach dem Empfang erfolgt die Gegenprüfung, ob die Quersumme noch stimmt.
  • Bei Unregelmäßigkeiten kann sofort interveniert und eine manuelle, inhaltliche Dokumentprüfung vorgenommen werden.

In der Regel wird eine solche ZUGFeRD-konforme Rechnung in einem Enterprise-Resource-Planning-System erstellt. Sollte der Rechnungsempfänger kein ERP-System nutzen, kann das Auslesen auch über ein Dokumentenmanagement-System erfolgen. Diese Art der Rechnungsablage erfordert dennoch einen manuellen, menschlichen Zwischenschritt. Soll der Prozess automatisiert werden, kommt eine Klassifizierungssoftware (vgl. Abb. 2) zum Einsatz, die das ZUGFeRD-Format automatisch ausliest, die Daten vom Dokument trennt, strukturiert im System ablegt und für die Weiterverarbeitung bereitstellt. Diese Vorgehensweise lohnt sich aber erst bei einer sehr hohen Zahl an Eingangsrechnungen pro Tag, denn es müssen große Trainingsmengen gebildet werden, um der Software beizubringen, jede Rechnung richtig zu klassifizieren und zu extrahieren. Die Schwierigkeit ergibt sich aus dem nicht einheitlichen Layout von Rechnungen, da jeder Rechnungssteller anders tabelliert – ZUGFeRD ist also nur ein Datenformatstandard und hat nichts mit dem Layout von Rechnungen zu tun.

Box 4: Rechnungsprüfung

  • Echtheit der Herkunft
  • Übereinstimmung der Rechnung mit Bestellung
  • Unversehrtheit des Rechnungsinhalts
  • Lesbarkeit der Rechnung
  • Erfüllung sämtlicher gesetzlicher Voraussetzungen für eine Rechnung im umsatzsteuerlichen Sinne

Ob automatisierte oder manuelle Extraktion: In jedem Fall müssen interne, inhaltliche Prüfverfahren festgelegt werden (vgl. Box 4). Automatisierte Kontrollen, wie das Hashwert-Prüfverfahren (vgl. Box 5), können nur auf Unregelmäßigkeiten hinweisen, aber die inhaltliche Prüfung nicht ersetzen.

Ausblick

Bisher ist ZUGFeRD vor allem in der Öffentlichen Verwaltung im Einsatz, hat aber aufgrund der großen Einsparmöglichkeiten auf Empfängerseite auch Zukunftspotenzial in der Privatwirtschaft. ZUGFeRD basiert auf den Standards „Cross Industry Invoice“ (CII) und Message User Guides (MUG), die vom Europäischen Standardisierungsgremium CEN entwickelt wurden und eignet sich daher als Grundstein zur Etablierung eines einheitlichen europäischen Formates. Im European Multi Stakeholder Forum on Electronic Invoicing wird derzeit an einer Empfehlung für den europaweiten Einsatz gearbeitet.

Kernaussagen

Elektronische Rechnungen bergen jede Menge Vorteile, wie bspw. minimale Versand- oder Archivierungskosten.Durch digitale Verteil- und Freigabeworkflows inkl. automatisierter Ablage, Prüfung und Buchung werden Fehler reduziert, Arbeitszeit gespart und Skontofristen besser eingehalten.

Trotz aller Vorteile: Die durchgängige digitale Prozessoptimierung und Automatisierung erfordert eine weitergehende Standardisierung von Rech­nungsdatensätze. Der in die Jahre ge­kommene internationale, branchen­übergreifende Standard EDIFACT genügt – ebenso wie einfache PDF-Rechnungen – diesen Anforderungen nicht bzw. nicht mehr.

Die Lösung: Der neue, an EU-Richtlinien angelehnte Standard ZUGFeRD, ermöglicht auch das weitestgehend medienbruchfreie und automatisierte Versenden, Empfangen und Ablegen digitaler Rechnungen – in Kombination mit Klassifizierungssoftware – in ECM-Systemen.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Prof. Bartonitz

Abteilung Buchhaltung

Einfluss der Digitalisierung auf die Buchhaltung und das Rechnungswesen

Zum jetzigen Zeitpunkt finden wir in der Buchhaltung noch eine Mischung von diversen Dokumenten­arten vor. Belege sind entweder in Papierform, elektronisch (z. B. Rechnungen im PDF-Format) oder bereits digital (z. B. EDI/EDIFACT-Format) vorhanden. Der Anteil der digitalen Unterlagen hat mit der Etablierung der digitalen Rechnungen durch die niedrigeren Formatanforderungen des Umsatzsteuergesetzes zugenommen. Dennoch werden digitale Belege zur Verbuchung gerne noch in Papierform umgewandelt, statt sie gleich digital zu verarbeiten. Viele Unternehmen scheuen den Umstieg zur digitalen Buchhaltung, obwohl kaum Hindernisse oder Risiken dagegensprechen.

In „papierlosen Büros“ werden sämtliche Äbläufe in der Buchhaltung und Lohnbuchhaltung sowie die Büroverwaltung rein auf dem digitalen Weg organisiert und gespeichert. Die papierlose Buchhaltung hilft, Kosten zu sparen, und optimiert bestehende Prozesse.

Heute bringen moderne ERP-Lösungen bereits komplette Buchhaltungs- und Lohnbuchhaltungslösungen mit sich. Die elektronische Belegablage wird so automatisch mit implementiert. Trotzdem muss sich auch die Unternehmenskultur in diesem Kontext ändern. Dies fängt bereits mit der Digitalisierung der täglich eingehenden Papierdokumente in Form von Rechnungen an. Zunächst sollten jegliche Papierdokumente mit einer professionellen Dokumentenmanagement-Lösung per Scan und OCR erfasst und damit digital zur Verfügung gestellt werden.

Gerade bei Rechnungen müssen vorab beteiligte Sachbearbeiter die Rechnungspositionen prüfen und sind daher meist auch in den Buchhaltungsprozess einbezogen. Durch vorab gescannte und damit digitalisierte Eingangsrechnungen können alle am Prozess beteiligten Abteilungen schnell und rechtssicher informiert und einbezogen werden. Die digitale Zusammenarbeit und Kollaboration ermöglicht auf diesem Wege schon große Einsparpotenziale.
Die Kostenvorteile entstehen als Folge der digitalen Verfügbarkeit von Dokumenten. Diesbezüglich geht es vorrangig um die Minimierung von Suchkosten für Mitarbeiter, die Zugriff auf Belege haben sollten.

Kostenreduktionen machen sich jedoch nicht nur im Unternehmen, sondern auch im Umgang mit externen Dienstleistern bemerkbar, wenn es beispielsweise um den digitalen Austausch der Unternehmensunterlagen mit dem eigenen Steuerberater geht. Auch die Korrespondenz mit Geschäftspartnern und Kunden  lässt sich in papierloser Form effizient gestalten.

Tipps zur Einführung

  1. Machen Sie sich mit der aktuellen Gesetzgebung vertraut. Unternehmen sind in der Pflicht, ihr Rechnungswesen auf das digitale Zeitalter umzurüsten. Die Grundsätze zur ordnungsmäßigen Führung und Aufbewahrung von Büchern, Aufzeichnungen und Unterlagen in elektronischer Form sowie zum Datenzugriff (GoBD) regeln die formalen Anforderungen. Zudem enthalten die GoBD Regeln zum elektronischen Datenzugriff der Finanzverwaltung im Rahmen von Außenprüfungen. Die GoBD wurden durch Schreiben des Bundesfinanzministeriums am 14. November 2014 veröffentlicht. Die GoBD sind ab 1. Januar 2015 gültig. Sie lösen die Grundsätze zum Datenzugriff und zur Prüfbarkeit digitaler Unterlagen (GDPdU) und die Grundsätze ordnungsmäßiger DV-gestützter Buchführungssysteme (GoBS) ab.(1) Besonders wichtig sind die GoBD für die elektronische Aufzeichnung der Barerlöse, die oftmals nicht vollständig aufgezeichnet oder nachträglich mit Manipulationssoftware verändert werden. Umfassende Regelungen zum internen Kontrollsystem und der Verfahrensdokumentation sind zu beachten. Der Unternehmer bleibt nach den GoBD verantwortlich, auch wenn er die Datenverarbeitung auslagert oder einen Dienstleister wie den Steuerberater einschaltet. Die GoBD gelten auch im Bereich der Bareinnahmen nur für digitale Aufzeichnungen mit Kassensystemen, Registrierkassen, PC-Kassen, Wiegekassen und Taxometern. Sie gelten nicht für manuelle Kassenführung wie z. B. die offene Ladenkasse.
  2. Gewohnte Verhaltensmuster durchbrechen. Bisher wurden Rechnungen und Dokumente ausgedruckt und in Ordnern abgeheftet. Elektronische Rechnungen und die elektronische Weiterverarbeitung erfordern ein Umdenken im Kontext der bisher angewendeten Prozesse.
  3. Innerbetriebliches Kontrollverfahren etablieren und implementieren. Laut Umsatzsteuergesetz (UStG) § 14 ist die Ausstellung von Rechnungen(2) in ein langfristiges und sicheres Archivierungssystem (Grundlage sind die GoBS)(3) einzuführen.
  4. Papierlose Prozesse einführen. Digitalisieren Sie alle Dokumente, die bisher in Papierform vorliegen. Besonders die Mitarbeiter müssen in den Ver­än­derungs­prozess einbezogen werden, damit kein Geschäftsrisiko entsteht.
  5. Beziehen Sie Ihren Steuerberater vorab in Ihre Überlegungen mit ein.

Digitales Belegwesen

Das digitale Belegwesen ist die dynamische Weiterentwicklung der heutigen Finanzbuchhaltung. Im digitalen Belegwesen werden Barbelege / Kassenquittungen durch den Klienten selbst per Fax oder per E-Mail an einen Steuerberater oder eine Buchführungsfirma übermittelt. Die Originale behält der Mandant selbst. Rechnungseingänge werden als Fax übermittelt. Rechnungsausgänge werden ebenfalls gefaxt oder der Steuerberater erhält sie aus dem Fakturierungsprogramm des Mandanten. Bankbewegungsdaten werden Bestandteil der Buchführung, indem sie elektronisch direkt von der Bank übermittelt werden. Danach können sowohl Steuerberater wie auch Mandant per verschlüsseltem Netz-Zugang auf die Daten zugreifen. Eine Smartcard bzw. ein USB-Stick mit Smartcard sorgt für die notwendige Sicherheit der Authentifizierung.

Trends

  1. Elektronische Bilanz. Als Elektronische Bilanz oder E-Bilanz wird in Deutschland die elektronische Übermittlung einer Unternehmensbilanz an das zuständige Finanzamt bezeichnet. Grundsätzlich sind die Inhalte der Bilanz und Gewinn- und Verlustrechnung für Wirtschaftsjahre, die nach dem 31. Dezember 2011 beginnen, durch Datenfernübertragung zu übermitteln. Rechtsgrundlage ist § 5b Einkommensteuergesetz (EStG).
  2. XBRL. Eine gute Nachricht gleich vorweg: XBRL ist ein freier Standard, den jeder unentgeltlich nutzen kann. XBRL („eXtensible Business Reporting Language“) ist eine auf XML basierende Sprache, mit der elektronische Dokumente im Bereich der Finanzberichterstattung erstellt werden. Insbesondere werden Jahresabschlüsse in dieser Sprache generiert. XBRL bietet auf Basis von XML einen standardisierten Austausch von Informationen der Geschäftsberichterstattung. Ziel von XBRL ist es, Ineffizienzen im Prozess des Datenaustauschs und der -analyse zu reduzieren sowie den Vergleich und die Vergleichbarkeit von Informationen zu erleichtern. Erste XBRL-basierte Taxonomien lassen erhebliches Effizienzsteigerungspotenzial beim Austausch und der automatisierten (Kennzahlen-)Analyse erkennen. Sie tragen aber nicht zu einem erleichterten Vergleich oder gar inhaltlicher Vergleichbarkeit von Informationen der Geschäftsberichterstattung bei.(4)
  3. Cloud-Computing. Vollauslagerung  von  Diensten  über  Shared-Service-Center und Application-Service-Provider. Online-Buchhaltungssoftware ist auf dem Vormarsch. Unternehmen erkennen die Vorteile der Cloud: unkompliziert und flexibel mit hoher Sicherheit. Denken Sie daran, dass nach der neuen Gesetzgebung das Hosting Ihrer Daten nur innerhalb der EU vorgenommen werden darf. Der „EU-US Privacy Shield“ (auch EU-US-Datenschutzschild) ist ein Abkommen auf dem Gebiet des Datenschutzrechts, das 2015 bis 2016 zwischen der Europäischen Union und den Vereinigten Staaten von Amerika ausgehandelt wurde.
    Es besteht aus einer Reihe von Zusicherungen der US-amerikanischen Bundesregierung und einem Beschluss der EU-Kommission. Die Kommission hat am 12. Juli 2016 beschlossen, dass die Vorgaben des Datenschutzschilds dem Datenschutzniveau der Europäischen Union entsprechen; damit kann das Abkommen angewendet werden.(5)
  4. Open-Source-Lösungen. Als Open Source oder quelloffen wird Software bezeichnet, deren Quelltext öffentlich ist und von Dritten eingesehen werden kann. OSS ist flexibler, wenn es um die Anpassung an die eigenen Unternehmensprozesse geht. Vorsicht, OSS ist nicht kostenfrei! Die Implementierung sowie die Schulung und der Umgang mit dem System müssen ebenso bezahlt werden wie sonstige Anpassungen. Unsere Redaktion hat sich in diesem Kontext mit der ERP-Lösung OpenZ beschäftigt. Die Open-Source-ERP-Software OpenZ ist ein branchenübergreifend einsetzbares Standard-ERP-System. Es unterstützt die gesamte Wertschöpfungskette und ist dabei agil bei Veränderungen der firmenspezifischen Prozesse anpassbar. Die nachfolgenden Features im Bereich der Finanzbuchhaltung werden abgedeckt:
    1. Deutscher Kontenrahmen: SKR03 oder SKR04
    2. DATEV-Export und DATEV-Import
    3. Abgleich der Summen und Saldenliste mit DATEV
    4. Offene-Posten-Liste
    5. Zahlungsabgleich / Zahlungsverkehr
    6. SEPA-Bankeinzug und Überweisungen
    7. Kontierungen können frei hinterlegt werden
    8. Anlagenbuchhaltung inkl. Anlagenspiegel
    9. Steuerautomatik bei allen Buchungen
    10. USt.-Voranmeldung
    11. Betriebswirtschaftliche Auswertungen
    12. Kostenstellen / Kostenträger
  5. Mobile Buchhaltung in der Cloud und Buchhaltungssoftware für Tablets. Cloud-Unternehmenssoftware gibt es auch als Apps für Tablet und Smartphone. Damit können Unternehmer auch von unterwegs auf Daten zugreifen, betriebliche Prozesse steuern oder auch die Buchhaltung erledigen. Hohe Sicherheitsstandards müssen selbstverständlich nachgewiesen werden. In der nächsten Zeit werden auch die bekannten Softwarehersteller diesem Trend folgen. Bis dahin lohnt sich ein genauer Vergleich der Cloud-Buchhaltungen.

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/

 

(1) Michael Goldshteyn, Stefan Thelen: Praxishandbuch digitale Betriebsprüfung /Anforderungen der neuen GoBD an Buchführung, Datenspeicherung und Datenzugriff, ISBN 978-3-7910-3446-1; https://de.wikipedia.org/w/index.php?title=GoBD&redirect=no

(2) https://www.gesetze-im-internet.de/ustg_1980/__14.html

(3) https://www.bundesfinanzministerium.de/Content/DE/Downloads/BMF_Schreiben/Weitere_Steuerthemen/Abgabenordnung/Datenzugriff_GDPdU/2014-11-14-GoBD.html

(4) Norbert Flickinger: XBRL in der betrieblichen Praxis: Der Standard für Unternehmensreporting und E-Bilanz, 2., neu bearbeitete Auflage. Erich Schmidt, Berlin 2013, ISBN 978-3-503-14455-6.

(5) https://de.wikipedia.org/wiki/EU-US_Privacy_Shield