Page 275 - Handbuch Digitalisierung (2. Ausgabe)
P. 275

HANDBUCH DIGITALISIERUNG Kapitel 3.13 / Cloud-Computing siert ablaufen, vielmehr werden selbstlernen- de Computersysteme die zugrunde liegenden Automatismen nutzerspezi sch weiterentwi- ckeln. Selbstlernende Programme analysie- ren stetig den Infrastrukturbedarf und sind in der Lage, Prognosen für zukün ige Anforde- rungen zu stellen, um so rechtzeitig und auto- nom notwendige Ressourcen hinzu bzw. nicht mehr benötigte abzuschalten. Zudem können sie eigenständig eine Fehlerkorrektur von In- frastruktur-Komponenten durchführen und das gesamte System ohne zusätzlichen War- tungsaufwand stabil halten. Serverless Infrastructure Als Microservice bezeichnet man eine eigen- ständige Teilkomponente großer So ware- applikationen, die unabhängig entwickelt, er- weitert und betrieben wird. Durch die Con- tainer-Technologie kann diese vom System abgekapselt und somit einfacher ausgetauscht und verschoben werden. Die „Serverless In- frastructure“ übernimmt die automatische Verteilung notwendiger Server und Ressour- cen, wodurch sich die Entwickler auf ihr Kerngeschä  konzentrieren können. Multi-Cloud-Management Durch CMP-Plattformen können sämtliche Cloud-Modelle wie Private Cloud, Public Cloud, Hybrid Cloud und Multi-Cloud ab- gebildet werden. Eigene Ressourcen im Haus wie Storages oder physische Server können genauso wie die Services der Cloud-Anbie- ter mit einbezogen werden. Durch „Cloud Integration Hubs“ (CIHs) wird ein einfa- ches Zusammenspiel verschiedener Systeme und Cloud-Services ermöglicht, wodurch die Überführung von Applikationen in die Cloud erleichtert wird. Zu diesem Zweck implemen- tieren CIHs Schnittstellen zu den diversen APIs der verschiedenen Cloud-Services. Eini- ge CIHs übernehmen zudem das Datenmana- gement und scha en auf diese Weise zusätz- lich Kohärenz. Bare-Metal-Server und FPGAs Bare-Metal-Server-Angebote bzw. Bare-Me- tal-Hypervisoren (auch Typ-1-Hyperviso- ren) setzen direkt auf der zugrunde liegenden Hardware auf. Dadurch entstehen Vorteile bezüglich Performance, Latenzen, Sicherheit und Skalierbarkeit. In Verbindung mit „Field Programmable Gate Arrays“ (FPGAs), also programmierbaren Chips, erhalten Entwick- ler zudem die Möglichkeit, bis auf Hardware- bzw. Mikroprozessor-Ebene hinein ihre An- wendungen zu kon gurieren. Open-Source-Virtualisierungslösung Die „Kernel-based Virtual Machine“ (KVM) ist eine, die in aktuellen Linux-Versionen fest verankert ist und auf dem Kernel aufsitzt. Die einzelnen Open-Source-So ware-Module werden dabei unter GPL-Lizenzen zur Wei- terentwicklung bereitgestellt. Das Ziel des OpenStack-Projekts ist ein erleichterter und standardisierter Au au von Public und Priva- te Clouds. Entwickelt wird das Projekt unter der freien Apache-Lizenz. Vor allem Multi- Cloud-Umgebungen pro tieren dabei von der herstellerneutralen OpenStack-Infrastruktur, da Integrationsprobleme, die bei proprietä- ren Systemen entstehen können, vermieden werden. Namha e Firmen wie Dell, SAP, HP, IBM, Intel und AMD beteiligen sich an die- sem Projekt, auch um einen Gegenpol zur Amazon-Cloud zu scha en. 275 Herausforderungen 


































































































   273   274   275   276   277