Vom virtualisierten Server zum dynamischen Rechenzentrum - Alles virtuell

Virtualisierung umfasst unterschiedliche technische Konzepte und ermöglicht es, unterschiedliche Zielsetzungen zu verfolgen: Vom virtualisierten Mail-Server über das dynamische Rechenzentrum bis zum Cloud Computing. Von Jochen Puls, Consultant bei der adesso AG in Dortmund.

  • Thursday, 29th August 2013 Posted 11 years ago in by Phil Alsop
Virtualisierung ist im Grund ganz simpel. Der Server besteht hier lediglich aus einem Stück Software anstatt aus Blech und Silizium. Aber ganz so einfach ist es bei näherer Betrachtung natürlich doch nicht, denn Software verhält sich in der Praxis doch ein wenig anders als Blech.

Und wenn man genauer hinschaut, wird es durchaus ein wenig kompliziert, denn in der Welt der Virtualisierung gilt zu unterscheiden, zwischen verschiedenen Techniken und Anwendungsszenarien. Grundsätzlich wird bei der Virtualisierung ein Software Layer zwischen die Hardware und die produktive Software gelegt, um den Betrieb unterschiedlicher Betriebssysteme und Applikationen ohne Abhängigkeiten, nebeneinander auf einem Hostsystem zu ermöglichen. Gesteuert wird die Kommunikation zwischen den Ebenen von einem Hypervisor.

Dabei sind grundsätzlich zwei Typen zu unterscheiden:

Typ-1- oder Bare-Metal-HypervisorenTyp-2- oder Hosted-Hypervisoren

1. Die Typ-1- oder Bare-Metal-Hypervisoren („blechnahe“) haben diese zusätzliche Software Schicht direkt auf der Hardware implementiert. Zum Beispiel, Microsofts Hyper-V, VMWares ESX oder Citrix Xen ermöglichen so den Aufbau der technischen Struktur in zwei grundsätzlich unterschiedlichen Versionen:

  • Bei monolithischen Typ-1-Hypervisoren wie dem ESX werden die angepassten Treiber für die unterstützten Betriebssysteme direkt mit in den Hypervisor eingebaut, was voraussetzt dass die Treiber schon bei der Erstellung der Hypervisor Software zur Verfügung stehen.
  • Bei Microkernel-Hypervisoren wie dem Hyper-V läuft eine zusätzliche Virtuelle Maschine neben den eigentlich zu hostenden Systemen und übernimmt die Verwaltungsaufgaben. Unter Anderem werden in dieser die Treiber verankert, was es ermöglicht auch nachträglich noch neue Treiber einzubinden und weitere neue Betriebssysteme zu hosten.

2. Die Typ-2- Hypervisoren – auch Hosted Hypervisoren – implementieren die zusätzliche Software-Schicht oberhalb des Betriebssystems als eigenständige Applikation, in der weitere Betriebssysteme installiert werden können. Der Vorteil von zum Beispiel VMware Workstation oder Microsoft Virtual PC ist die einfache Bereitstellung. Der Nachteil liegt in der vergleichsweise geringen Performance denn die Prozessoren müssen hier immer eine zusätzlich Schicht mit Leistung versorgen.

 

Je nach Aufgabenstellung gibt es trotzdem für beide Hypervisor Versionen immer noch Anwendungsbereiche. Man kann zum Beispiel sehr schnell einen Typ-2-Hypervisor wie Oracles Virtual Box kostenfrei herunterladen, installieren und mal eben eine neue Software für Windows in einer virtuellen Maschine installieren, ohne das eigentliche System zu beeinflussen. Insbesondere in zentral verwalteten Umgebungen ist das eine nützliche Variante.

 

Auf diesen technischen Grundlagen kann man heute fast alles virtualisieren, nicht nur Server, sondern wenn es vorteilhaft erscheint, auch Client-Desktops oder einzelne Anwendungen, beispielsweise ein Mail-System. Technisch liegt aber immer das gleiche Prinzip zugrunde: Logisch gesehen wird eine zusätzliche Abstraktionsschicht zwischen der Hardware und dem Betriebssystem eingefügt. Virtualisierung ist in verschiedenen Ausprägungen eine Grundvoraussetzung für dynamische Rechenzentren und Cloud Systeme.

 

Virtualisierte Anwendungen

Wie erwähnt kann man unterschiedliche Zwecke mit der Virtualisierung verfolgen. Dies sollte auch immer der Ausgangspunkt für die Überlegungen hinsichtlich des Nutzens, der TCO und des ROI, sowie der Art des Virtualisierungssystems sein.

 

Nach ihrem Zweck lassen sich verschiedene Virtualisierungsmethoden wie folgt gliedern:

Hypervisoren vom Typ 1

  • Server-Virtualisierung dient der Konsolidierung der Rechenzentrumsinfrastruktur. Die häufig auf Spitzenlasten ausgelegten Infrastrukturen langweilen sich im Normalbetrieb und sind somit häufig ineffizient und teuer. Die Virtualisierung mittels Hyper-V oder ESX verbessert TCO und ROI enorm und reduziert den Energieverbrauch. Die Einführung rechnet sich häufig nach kürzester Zeit.
  • Virtuelle Desktopumgebungen (VDI) können Desktops für Office Mitarbeiter per „Streaming“ bereitstellen. Dabei werden die Systeme im Rechenzentrum installiert und der Nutzer kann auch mit älterer Hardware aktuelle Software nutzen. Bereits abgeschriebene PCs können so beispielsweise noch länger betrieben werden.

Mobile Mitarbeiter oder externe Kräfte können über Gateways ebenfalls an der VDI teilhaben. Dabei ist aber der Einsatz von User Profilen und zwischengespeicherten Inhalten wegen geringerer Bandbreiten fast zwingend notwendig. VMWare View oder Microsoft Remote Desktop Services ermöglichen die komplette Desktop Nutzung (fast) überall.

 

Applikationsvirtualisierung mit Microsoft App-V oder VMWare Thin App kann einzelne Anwendungen zum Anwender streamen. Somit lassen sich auch ältere Anwendungen wie zum Beispiel Emulationen für Mainframe-Rechner weiter nutzen oder komplexe Installationen vermeiden, wenn temporär ein Mitarbeiter auf SAP-Systeme zugreifen muss. Für den Anwender, der mit einer auf diese Weise bereitgestellten Software arbeitet, ist das inzwischen häufig nicht einmal mehr feststellbar.

 

Hypervisoren vom Typ 2 werden auf Grund des Ressourcen-verbrauchs und der damit verbundenen Performanceeinbußen heute im Wesentlichen nur noch in Testumgebungen verwendet:

  • Solche Testumgebungen oder „Sandboxen“ lassen sich schnell und häufig auch kostenfrei lokal installieren um neue oder alternative Software auszuprobieren. Dies entlastet auch den IT Support, welcher nicht ständig Alternativen installieren oder entfernen muss. Hier werden auch geringere Anforderungen an die Verfügbarkeit gestellt.

 

Allen Vorteilen der Virtualisierung zum Trotz dürfen die höheren Anforderungen an zusätzliche Management-Prozesse im Rechenzentrum nicht außer Acht gelassen werden. Um die notwendigen Abläufe zu etablieren muss zur Bereitstellung und Überwachungssoftware wie zum Beispiel VMWare Operations Management Suite oder Microsoft System Center Suite 2012 eingeführt werden. Eine manuelle Steuerung ist bei hohen Anwenderzahlen und wachsenden Sicherheitsanforderungen nicht mehr möglich.

 

Dynamische IT – dynamisches Rechenzentrum

Das Rechenzentrum ist der Ort in dem sich 80 bis 90 Prozent der IT-Akt-ivitäten abspielen. Virtualisierung ist hier eine Technik, durch die die Infrastruktur zentralisiert wird. Evolutionär betrachtet kann ein Rechenzentrum in mehrere Phasen eingeteilt werden:

 

Basis-Rechenzentren sind reine Ansammlungen von IT-Systemen, bei denen unterschiedlichste Software ohne Ordnung von Hand konfiguriert wird. Es werden nur einzelne Server virtualisiert. Teil-Automatisierung und die Einführung von Standardsystemen führen zu verbesserten Abläufen. In standardisierten Rechenzentren kann gruppenweise virtualisiert werden, zum Beispiel alle Mailserver.

 

Werden dann noch Kosten optimiert und dazu das Sicherheitssystem vorausschauend eingesetzt, kann man von einem rationalisierten Rechenzentrum sprechen. Die Effizienz steigt hier mit der Vereinheitlichung und Gruppierung der Systeme. Anfänglich werden immer nur einzelne Systeme virtualisiert; je mehr man umgruppiert und koppelt, desto effizienter wird es. Zusätzlich lassen sich effiziente Methoden der Virtualisierung finden, bei denen zum Beispiel automatisch bei geringer Auslastung, also nachts, Host-Server heruntergefahren werden um Strom zu sparen. Diese starten automatisch dann morgens wieder bevor die Mitarbeiter anfangen zu arbeiten.

 

Der letzte Schritt der Virtualisierung führt zum dynamischen Rechenzentrum. Hier sind alle, nicht nur die virtualisierten Services messbar, nachprüfbar und vollautomatisiert. Virtualisierte Systeme können per Workflow bereitgestellt werden und Endanwender sind in der Lage sich selbständig über Service Portale Software zu installieren. Das hat erhebliche betriebswirtschaftliche Auswirkungen: In einem herkömmlichen Rechenzentrum ist es oft nicht möglich ein einheitliches System von KPIs Key Performance Indicator) zu finden, um die IT-Leistung messbar zu machen.

 

Virtualisierung ermöglicht nun die Gruppierung und Vereinheitlichung von IT Systemen und Leistungen, die dann auch messbar sind. IT-Leistung wird damit über KPIs abrechenbar.

 

Noch einen Schritt weiter auf diesem Weg geht die momentan weitreichendste Form der Virtualisierung. Die flexible Anbindung externer Ressourcen, also die Bereitstellung von Hybrid-Cloud-Lösungen zum Hosten von Applikationen und Servern im eigenen und gleichzeitig in entfernten, gekoppelten Rechenzentren oder – ganz unabhängig von eigenen Ressourcen – in der Public Cloud. Beispiele hierfür sind wieder die VMWare vCloud Suite und die Microsoft System Center Suite 2012. Je nach Bedarf lassen sich damit etwa virtuelle Testgeräte ad hoc in Microsoft Azure bereitstellen oder zusätzlicher Speicherplatz von Google oder Amazon für den Endbenutzer transparent anbinden. Die Grenzen der Technik werden hierbei fließend.

 

Es bleiben natürlich die rechtlichen und prozessuralen Grenzen, die bei diesem Verfahren eingehalten werden müssen. Aber das liegt dann schon jenseits der IT.