Die
Virtualisierung von Speicher-Ressourcen ist in vielen Unternehmen
gesetzt. Doch auf dem Weg zum erfolgreichen Storage-Projekt lauern
Fallen.
„Durch die Virtualisierung der Server sind die Speicher zum nächsten Engpass geworden“, berichtet Donna Taylor, Research Director für den Bereich European Storage beim Marktforschungsunternehmen IDC. „Hier musste etwas passieren.“ Deshalb begannen viele IT-Abteilungen Anfang des Jahrtausends, Speichersysteme gezielt zu konsolidieren. Vielfach ging damit auch eine Virtualisierung einher - geräteintern, auf dem Host oder mit Hilfe separater Software, die als zusätzliche Schicht zwischen Speichersystemen und Servern liegt.
Systeme, die intern virtualisieren, sind heute Legion.
Das fängt mit Hewlett-Packards EVA an und endet mit nahezu jedem aktuellen und
professionellen Midrange- oder Highend-Array für Unternehmenszwecke. Ein
Beispiel für das zweitgenannte Konzept, die Host-gestützte Virtualisierung,
liefert die Veritas Foundation Suite. Das dritte Modell, die Virtualisierung
mittels separater Software, verfolgen beispielsweise Datacore, Falconstor oder
auch IBM mit seinem Storage Virtual Controller (SVC)
Rund 60 bis 70 Prozent der Storage-Infrastrukturen, so
schätzt Wolfgang Schwab vom Beratungsunternehmen Experton, sind heute
virtualisiert. Etwa 80 Prozent der Virtualisierungsprojekte gelängen den
Verantwortlichen. Damit ein Virtualisierungsprojekt nicht zu einem der 20 Prozent
Problemfälle wird, sollten Unternehmen mit realistischen Erwartungen herangehen
und einige Regeln beachten, die wir auf den nächsten Seiten beschreiben.
Klären Sie im Vorfeld den Zweck des
Virtualisierungsprojekts!
Was genau soll das Projekt eigentlich leisten? Geht es
darum, dass die vorhandenen Speichersysteme zu wenig ausgelastet sind? Sind die
alten Systeme kaum skalierbar? Gibt es eine heterogene Systemlandschaft, auf
die über einen Punkt zugegriffen werden soll? Machen vor allem die Migrationen
von Daten Probleme oder wünschen sich die Storage-Spezialisten ganz allgemein
mehr Entlastung durch die Automatisierung von Routineaufgaben? Geht es vor
allem um Hochverfügbarkeit? Soll die Virtualisierung die Übergangsstufe in eine
Cloud-Umgebung sein? All dies kann beeinflussen, welche
Storage-Virtualisierungslösung in einem spezifischen Fall die beste ist.
Hilfreich kann es daher auch sein, vor der Durchführung eines
Storage-Virtualisierungsprojekts einen Workshop durchzuführen, in dem –
vielleicht schon zusammen mit einem Partner – Ziele, Zeit- und Budgetrahmen
geklärt werden. So macht es beispielsweise der Storage-Distributor TIM zusammen
mit seinen Partnern aus dem Handel, wenn ein Endkunde ein System für die
Storage-Virtualisierung plant. „Die Projekte werden mit den Endkunden in
Workshops erarbeitet“, berichtet Alfred Beblik, bei TIM für die
Projektentwicklung zuständig.
Achten Sie auf ein passendes Budget!
Sorgen Sie dafür, dass auch ein Budget für die gewünschte
Virtualisierungslösung einschließlich eventuell benötigter Managementwerkzeuge
vorhanden ist. Denn gerade an diesem Punkt wird oft gespart.
„Storage-Ressource-Management-Software wird als Produkt einfach nicht
angenommen, obwohl man es braucht“, beobachtet Valdis Filks, Experte für
IT-Infrastruktur bei Gartner. Dabei benötigten Unternehmen trotz
Virtualisierung ein funktionierendes Ressourcenmanagement und natürlich auch
jemanden, der damit umgehen kann - schon allein, um genau zu sehen, was auf
einer Implementierung gerade vor sich geht. IDC-Analystin Taylor betont, wie
wichtig es in Hinblick auf die Budgetierung sei, die Frage der Organisation
respektive ihres Umbaus mit zu bedenken. Schließlich müssten Kosten sauber
verrechnet werden, „und das funktioniert in Organisationen, die sehr stark in
Silos konstruiert sind, schlecht.“ Um optimale Ergebnisse zu erzielen, muss
also neben dem eigentlichen Projekt möglicherweise eine interne
Umstrukturierung parallel laufen oder sogar vorgeschaltet werden.
Überschätzen Sie die Entlastung durch Storage-Virtualisierung
nicht!
Die Entlastung der Mitarbeiter von Managementaufgaben
sollten Projektverantwortlichen nicht überschätzen. Konkret: Experten warnen
einhellig davor, das Ausmaß, in dem sich die Arbeit der Storage-Spezialisten
durch eine Storage-Virtualisierung vermindert, zu hoch anzusetzen. „Die Leute
brauchen auf jeden Fall Know-how, denn sonst werden auch virtualisierte Systeme
falsch konfiguriert“, sagt etwa TIM-Manager Beblik. Das führe dann zu teuren
Serviceeinsätzen von Partnern, die natürlich im Budget nicht vorgesehen sind.
Meist sei deswegen das System zwar nicht kaputt, und auch Daten gingen nicht
automatisch verloren. Doch „im Zweifel funktioniert die gewünschte
Hochverfügbarkeit bei unsauberer Konfiguration dann eben nicht.“ Die
Notwendigkeit, auch über eine virtualisierte Storage-Umgebung ausreichend
Know-how zu besitzen, betont auch Gartner-Manager Filks: „Das funktioniert nur
dann, wenn der Spezialist weiß, welche Anwendungen welche Daten verwenden und
wie schnell auf wie viele Daten zugegriffen werden muss. Virtualisierung
verringert den Arbeitsaufwand für Storage-Systeme deswegen vielleicht um die
Hälfte, aber nicht um 100 Prozent.“ Auch Taylor von IDC betont: „Management
kostet nun mal Geld, das ändert sich auch mit Virtualisierung nicht. Man muss
immer noch teure Experten möglichst für werthaltige Aktivitäten einsetzen.“ Und
schließlich, so Filks, müssten selbst bestimmte rein handwerkliche Fähigkeiten
auch in einer virtualisierten Umgebung vorgehalten werden: „Es muss immer noch
jemanden geben, der eine Disk aus einer Raid-Gruppe entfernen kann, ohne das
System zum Zusammenbruch oder Daten zum Verschwinden zu bringen.“
Stellen Sie die Unterstützung des Managements sicher!
Sorgen Sie in jedem Fall dafür, dass das Management auf
den höheren Ebenen das Projekt unterstützt. Das gilt besonders dann, wenn die
Storage-Virtualisierung nicht nur die einfache technische Administration
erleichtern soll, sondern als Vorarbeit zu einer Cloud-Implementierung gesehen
wird. Eine solche wird in der Regel zumindest vom IT-Management langfristig
geplant und mit dem Top-Management umgesetzt werden. Denn wegen der großen
damit verbundenen Umstellungen für die IT-Mitarbeiter, die teilweise alte
Verantwortungsbereiche verlieren, aber auch neue bekommen, muss sich der
IT-Manager der Unterstützung von ganz oben sicher sein. Schließlich kann es
manchmal erforderlich sein, dem „Erbhofdenken“ derjenigen, die früher
Storage-Kapazitäten händisch oder halb automatisiert verteilen durften oder
mussten, durch ein hierarchisch abgesichertes Machtwort entgegenzutreten.
Vermessen Sie die aktuelle Storage-Infrastruktur!
Im Vorfeld der Detailplanung sollten Sie die vorhandene
Infrastruktur vermessen und evaluieren. „Wer die Anforderungen nicht richtig
ausmisst und definiert, darf sich über eine schwache Performance nicht
wundern“, sagt Experton-Berater Schwab dazu. So gilt es, den Datenanfall der
einzelnen Applikationen genau zu bestimmen, am besten in Byte pro Zeiteinheit.
Außerdem muss man das zu erwartende Datenwachstum einbeziehen. Nur so kommt es
am Ende zu einer relevanten Einschätzung darüber, welche Bandbreite
erforderlich ist, um die Anwendung mit einer für die Benutzer akzeptablen
Antwortzeit zu betreiben. Und nur so lässt sich abschätzen, wie skalierbar eine
Virtualisierungslösung am Ende sein muss. Auch in absehbarer Zukunft geplante
neue Applikationen und deren Datenwachstum sollten in die Kalkulation mit
einbezogen werden. Ein häufiger Fehler besteht nämlich laut TIM-Manager Beblik
darin, Systeme von vornherein zu klein zu dimensionieren – entweder
hinsichtlich der Leistung oder in Sachen Kapazität. Beispielsweise werde gern
der Platz für einen geplanten Spiegel, also die Datenredundanz, vergessen.
Verhindern Sie Fingerpointing im Fehlerfall!
Auf einen weiteren Grund für die Integration
ausreichenden Mess-Equipments in die vorhandene oder geplante
Storage-Virtualisierungs-Installation weist Gartner-Mann Filks hin: „Wenn
irgendwo in der Infrastruktur etwas zu langsam geht, eine Applikation
beispielsweise nicht wie gewünscht reagiert, dann heißt es schnell, dass der
Storage schuld ist“. Doch das sei sehr oft gar nicht der Fall. Um dies aber
nachweisen zu können, brauche man Messinstrumente, die dann zeigen könnten,
dass der Speicher funktioniert. Wenn die IT-Abteilung aber gar nicht wisse,
welche Anwendungen gerade welche Storage-Ressourcen nutzen, werde es schnell
schwierig. Und wenn dann noch Misstrauen gegen eine neue Technologie zu
überwinden sei, falle der Reiz, Probleme auf ihr abzuladen, naturgemäß
besonders groß aus. Deshalb bräuchten Unternehmen trotz Virtualisierung ein
funktionierendes Ressourcen-Management und natürlich auch jemanden, der damit
umgehen kann.
Weiterlesen auf www.computerwoche.de
Keine Kommentare:
Kommentar veröffentlichen