Cloud-Computing

Cloud-Computing: Trends

Blockchain

Die Blockchain-Technologie setzt zum Beispiel auf ein Peer-to-Peer-Netzwerk anstelle eines zentralisierten Verteilungssystems. Aus diesem Grund ist die Infrastruktur der Blockchain hervorragend geeignet, um eine Umgebung zum Teilen von Rechenkapazitäten zu schaffen, die dezentral verwaltet wird und so in Echtzeit agieren kann. Abnehmer und Anbieter von Rechenkapazitäten könnten direkt miteinander agieren, ohne auf einen zwischengeschalteten Distributor angewiesen zu sein. Beispiele gibt es bereits. Unter https://golem.network/ können Rechenkapazitäten geteilt werden. Die Plattform arbeitet dabei mit der Ethereum-Blockchain-Technologie.

Cloud-Security / Cloud-Compliance

Es geht um die Risikominimierung, wenn Cloud-Lösungen zum Einsatz kommen. Gemeint sind damit verschiedene Maßnahmen zur Absicherung von Cloud-Services. Datenverlust, Datenschutz und Ausfall der Cloud-Services sowie von deren Umgebungen. Zu berücksichtigen sind auch die Verschlüsselung von Daten, die Zugriffskontrolle, Zugriffsrechte und das Identitätsmanagement. Rechtlich gesehen sind für die Cloud-Services der Anwender und der Betreiber verantwortlich. Nutzer sollten die Cloud-Security vertraglich regeln. Es sind bereits eine Vielzahl von nützlichen Security-Services verfügbar. Durch diverse Regeln lassen sich Prozesse definieren, die bei Störungen und sicherheitsrelevanten Vorfällen automatisch reagieren und den Schaden begrenzen.

Für Kunden ist es oft schwer zu beurteilen, ob ein Cloud-Dienst die nötige Sicherheit bietet. Mit der Veröffentlichung des Anforderungskatalogs (C5) zur Beurteilung der Informationssicherheit von Cloud-Diensten wird eine Basislinie für Cloud-Security aus Sicht des BSI festgelegt. Dabei wird ein etabliertes Nachweisverfahren verwendet, das nur einen geringen Mehraufwand für den Cloud-Anbieter bedeutet. Im C5-Katalog hat das BSI Anforderungen zusammengefasst, die Cloud-Anbieter unabhängig von Anwendungskontext erfüllen sollten, um ein Mindestmaß an Sicherheit ihrer Cloud-Dienste zu gewährleisten.


„Access to Cloud / Ladder to Heaven“ (CC BY 2.0) by  FutUndBeidl 

Edge Computing

Edge Computing bezeichnet im Gegensatz zum Cloud-Computing die dezentrale Datenverarbeitung am Rand des Netzwerks, der sogenannten Edge (engl. für Rand oder Kante). Beim Edge Computing werden Computer-Anwendungen, Daten und Dienste von zentralen Knoten (Rechenzentren) weg zu den äußeren Rändern eines Netzwerks verlagert. Anders ausgedrückt geht es darum, Datenströme ressourcenschonend zumindest teilweise an Ort und Stelle (z. B. direkt am Endgerät oder innerhalb einer Fabrik) zu verarbeiten, aber trotzdem von den Vorteilen der Cloud zu profitieren.

Edge Computing beinhaltet zahlreiche Technologien wie Sensornetze, mobile Datenerfassung, mobile Signaturanalyse, Peer-to-Peer- sowie Ad-hoc-Vernetzung. Dabei kann Edge Computing als Architekturkonzept für das Internet der Dinge (IoT) verwendet werden, das eine Verknüpfung eindeutig identifizierbarer physischer Objekte (Things) mit einer virtuellen Repräsentation in einer Internet-ähnlichen Struktur herstellt.

Ein neuer Trend ist das Hybrid Edge Computing. Es entsteht sozusagen neben der Private und Public eine dritte Art von Cloud. Daten, die durch den neuen Mobilfunkstandard 5G eingesammelt werden, können so besser analysiert werden.

KI im Rechenzentrum „as a service“

Die Ressourcenverteilung der Cloud-Infrastruktur wird künftig nicht nur automatisiert ablaufen, vielmehr werden selbstlernende Computersysteme die zugrunde liegenden Automatismen nutzerspezifisch weiterentwickeln. Selbstlernende Programme analysieren stetig den Infrastrukturbedarf und sind in der Lage, Prognosen für zukünftige Anforderungen zu stellen, um so rechtzeitig und autonom notwendige Ressourcen hinzu bzw. nicht mehr benötigte abzuschalten. Zudem können sie eigenständig eine Fehlerkorrektur von Infrastruktur-Komponenten durchführen und das gesamte System ohne zusätzlichen Wartungsaufwand stabil halten.

Serverless Infrastructure

Als Microservice bezeichnet man eine eigenständige Teilkomponente großer Software­applikationen, die unabhängig entwickelt, erweitert und betrieben wird. Durch die Container-Technologie kann diese vom System abgekapselt und somit einfacher ausgetauscht und verschoben werden. Die „Serverless Infrastructure“ übernimmt die automatische Verteilung notwendiger Server und Ressourcen, wodurch sich die Entwickler auf ihr Kerngeschäft konzentrieren können.

Multi-Cloud-Management

Durch CMP-Plattformen können sämtliche Cloud-Modelle wie Private Cloud, Public Cloud, Hybrid Cloud und Multi-Cloud abgebildet werden. Eigene Ressourcen im Haus wie Storages oder physische Server können genauso wie die Services der Cloud-Anbieter mit einbezogen werden. Durch „Cloud Integration Hubs“ (CIHs) wird ein einfaches Zusammenspiel verschiedener Systeme und Cloud-Services ermöglicht, wodurch die Überführung von Applikationen in die Cloud erleichtert wird. Zu diesem Zweck implementieren CIHs Schnittstellen zu den diversen APIs der verschiedenen Cloud-Services. Einige CIHs übernehmen zudem das Datenmanagement und schaffen auf diese Weise zusätzlich Kohärenz.

Bare-Metal-Server und FPGAs

Bare-Metal-Server-Angebote bzw. Bare-Metal-Hypervisoren (auch Typ-1-Hypervisoren) setzen direkt auf der zugrunde liegenden Hardware auf. Dadurch entstehen Vorteile bezüglich Performance, Latenzen, Sicherheit und Skalierbarkeit. In Verbindung mit „Field Programmable Gate Arrays“ (FPGAs), also programmierbaren Chips, erhalten Entwickler zudem die Möglichkeit, bis auf Hardware- bzw. Mikroprozessor-Ebene hinein ihre Anwendungen zu konfigurieren.

Open-Source-Virtualisierungslösung

Die „Kernel-based Virtual Machine“ (KVM) ist eine, die in aktuellen Linux-Versionen fest verankert ist und auf dem Kernel aufsitzt. Die einzelnen Open-Source-Software-Module werden dabei unter GPL-Lizenzen zur Weiterentwicklung bereitgestellt. Das Ziel des OpenStack-Projekts ist ein erleichterter und standardisierter Aufbau von Public und Private Clouds. Entwickelt wird das Projekt unter der freien Apache-Lizenz. Vor allem Multi-Cloud-Umgebungen profitieren dabei von der herstellerneutralen OpenStack-Infrastruktur, da Integrationsprobleme, die bei proprietären Systemen entstehen können, vermieden werden. Namhafte Firmen wie Dell, SAP, HP, IBM, Intel und AMD beteiligen sich an diesem Projekt, auch um einen Gegenpol zur Amazon-Cloud zu schaffen.


Helfen Sie uns, verbessern Sie diesen Beitrag

 

[contact-form-7 id="2464" title="An Beiträgen mitarbeiten"]