Virtualisierungsprojekte erfolgreich umsetzen

Ein Virtualisierungsvorhaben will gut geplant sein: Essenziell  ist es, nicht in blinden Aktionismus zu verfallen und wahllos alle Systeme zu virtualisieren. Noch bevor es an die eigentliche Umsetzung des Virtualisierungsprojekts geht, sollten Unternehmen im Vorfeld eine ausführliche Bedarfsanalyse durchführen. Virtuelle Umgebungen tragen zwar zu schnelleren Bereitstellungszeiten, effizienter Ressourcennutzung, weniger Platzbedarf und höherer Verfügbarkeit bei – dabei steigt aber auch die Komplexität der IT-Landschaft an. Zur Verwaltung ist Fachpersonal und Know-how erforderlich. Das muss ein Unternehmen bestenfalls selbst oder in Form eines Dienstleisters vorhalten. Bietet diese Abwägung Vorteile für das Unternehmen, ist zunächst zu prüfen, welche Systeme sich im Unternehmen virtualisieren lassen und welche Mittel  dafür notwendig sind. Die Verantwortlichen sollten dabei ein ganzheitliches Konzept im Blick haben: Der Schwerpunkt sollte also nicht nur auf Server oder Storage liegen, auch Applikationen und Desktop müssen sich unter Umständen in das System einfügen. Die IT-Abteilungen befürchten bei der Migration von Anwendungen vom Physikalischen zum Virtuellen meist einen Abfall der Performance. Eine entsprechende Bedarfsanalyse im Vorfeld hilft, dies zu vermeiden. Zu berücksichtigen sind auch die unterschiedlichen Zuständigkeiten für Netzwerk, Server und Applikationen innerhalb des Unternehmens. Nur wenn alle Bereiche sinnvoll eingebunden sind, lässt sich das Projekt langfristig erfolgreich umsetzen.

Planung ist das A und O

In der ersten Phase, der Planung, müssen die IT-Verantwortlichen genau abwägen, wie die Netzstruktur aufgebaut sein soll und wie die Anbindung abläuft. Erfolgt die Anbindung über das Internet, per IP Access oder via Multiprotocol Label Switching (MPLS)? In Sachen Sicherheit ist bei der Netzstruktur auch die Frage nach der Zonierung zu stellen: Sollen auf der Virtualisierungsplattform Systeme unterschiedlicher Sicherheitszonen bereitgestellt werden? Dies würde die Trennung der Netze und DMZ-Konzepte aufweichen, aber eine wesentlich höhere Effizienz erlauben.

Auf Seiten der Applikationen ist festzustellen, welche Ressourcen nötig sind. Verschiedene Anwendungen müssen auf unterschiedliche Ressourcen wie CPU, RAM oder Storage zugreifen. Welche Features benötigen einen leistungsstarken Rechner, welche eher einen großen Arbeitsspeicher? Nur mit einer detaillierten Bewertung lassen sich sinnvolle Gruppierungen finden und die virtuelle Server optimal auslasten. Dazu gehört auch, die unterschiedlichen Aktivzeiten der Anwendungen zu berücksichtigen. Welche laufen tagsüber, welche haben ihre Lastspitzen erst nach Büroschluss? Überschneiden sich diese nicht, ist es  sinnvoll, sie auf einem Server laufen zu lassen und so wichtige CPU-Ressourcen zu sparen.

Notfallplanung: Disaster Recovery und Sicherheit

Beim Ausfall physikalischer Server sichern Failover-Lösungen zuverlässig die Verfügbarkeit der bereitgestellten Dienste ab.  In einer virtuellen Umgebung hingegen sind viele Dienste auf wenigen physikalischen Servern abgebildet. Durch diese Risikobündelung kann das Versagen der Virtualisierungsplattform verheerende Folgen haben. Virtuelle Umgebungen bieten jedoch sehr gute Redundanzoptionen: Deshalb sollten von Beginn an Redundanzkonzept und Disaster-Recovery-Pläne vorhanden sein. Wichtig ist, Backup und Disaster Recovery an das Virtualisierungskonzept anzupassen und diese vor der produktiven Inbetriebnahme der virtuellen Umgebung zu testen. Auch die physikalische Absicherung der Anbindung muss berücksichtigt sein: Allgemein ist bei mehreren physikalischen Servern von mindestens vier unabhängigen Netzwerkports und zwei Fibre-Channel-Ports auszugehen.

Build: Sinnvoller Aufbau erhöht Leistungsfähigkeit

Im nächsten Schritt, dem Aufbau und der Anordnung der virtuellen Maschinen (VM), lohnt es sich, die Kommunikation der verschiedenen VMs untereinander einzubeziehen. Kommunizieren VMs  sehr stark untereinander, ist es sinnvoll, diese als Gruppe auf einem gemeinsamen physikalischen Server laufen zu lassen. Storage Cluster dürfen nicht zu knapp bemessen sein. Auch bei einem Ausfall sollten die verbleibenden Server die Last abfangen können. Generell ist es empfehlenswert, Speicherkapazitäten großzügig anzulegen. Jedem in den VMs zur Verfügung gestellten RAM entspricht bestenfalls 1:1 des verfügbaren RAMs auf den physikalischen Servern. So lassen sich Ausfälle durch Überbelastungen vermeiden. In der Allokation der VMs darf die Zuweisung hingegen zu einer Überbuchung führen. Da moderne Hardware wesentlich mehr Kapazitäten offerieren als Applikationen normalerweise verlangen, hat sich gezeigt, dass  eine Überallokation von bis zu 50 Prozent keine negativen Auswirkungen auf die Stabilität des Gesamtsystems hat.

Run: Abläufe managen und auswerten

Diverse Management-Tools erleichtern den Betrieb der virtuellen Umgebung und sind daher nahezu unentbehrlich. Ausgaben für diese Anwendungswerkzeuge sollten daher von Anfang an Teil der Kostenaufstellung sein. Verschiedene Tools ermöglichen ein leichteres Handling der VMs. So ist es beispielsweise mithilfe eines Life-Migrations-Tools möglich, virtuelle Maschinen flexibel bei laufendem Betrieb zu verschieben. Hierdurch sollten allerdings die zweckgebundenen Gruppierungen nicht auseinanderbrechen. Ratsam wäre, die gesamte Gruppierung zu verschieben. Andere Werkzeuge ermöglichen es, in die VMs eine vordefinierte Laufzeit einzufügen. Läuft diese Zeit ab, wandern diese Maschinen bei anschließender Nichtnutzung automatisch in ein Archiv und blockieren somit keine wertvollen Ressourcen. Hierbei ist auch das Life Cycle Management von Bedeutung. Es deckt den gesamten Zyklus der Komponenten von ihrer Erstellung bis hin zur Ausmusterung ab. Über eine Auswertung der Daten lassen sich Vorteile für Performance und Sicherheit ermitteln.

Run: Monitoring und Lizenzen

Die Überwachung der physikalischen Server obliegt im Normalfall dem Provider. Für die Überwachung der VMs ist es sinnvoll, deren Traffic zu messen. Einzelheiten der Performance sind damit erkennbar und helfen, Problemfälle zu analysieren. Auch ein Vergleich der Monitoring-Ergebnisse von physikalischen und virtuellen Servern kann von Vorteil sein. Zusammenhänge bei Störfällen lassen sich so herausfiltern und für den weiteren Betrieb vermeiden.

Für sämtliche virtuellen Systeme und Applikationen fallen im Normalfall Lizenzgebühren an. Wichtig ist hierbei auch zu klären, ob jede Maschine eine eigene Lizenz benötigt, was schnell hohe Kosten verursachen kann. Nicht jede Lizenz gestattet hierbei die Nutzung in virtuellen Umgebungen. Generell ist es empfehlenswert, die Preismodelle von Herstellern zu vergleichen und genau zu beobachten. Momentan unterscheiden sich diese sehr, was Support, Preiskategorien und Lizenzen betrifft. Zu empfehlen ist die Auswahl von leicht skalierbaren oder „Nutzung-bei-Bedarf“-Lizenzmodellen. (ak)

Autor: Maik Schmidt ist Team Leader Planning & Design bei BCC.

RSS Feed

Entdecken Sie die Printmagazine des WIN-Verlags