Dienstag, 9. Oktober 2012

Computerwoche: Ratgeber Storage-Virtualisierung -Wie Storage-Projekte gelingen

Die Virtualisierung von Speicher-Ressourcen ist in vielen Unternehmen gesetzt. Doch auf dem Weg zum erfolgreichen Storage-Projekt lauern Fallen.


„Durch die Virtualisierung der Server sind die Speicher zum nächsten Engpass geworden“, berichtet Donna Taylor, Research Director für den Bereich European Storage beim Marktforschungsunternehmen IDC. „Hier musste etwas passieren.“ Deshalb begannen viele IT-Abteilungen Anfang des Jahrtausends, Speichersysteme gezielt zu konsolidieren. Vielfach ging damit auch eine Virtualisierung einher - geräteintern, auf dem Host oder mit Hilfe separater Software, die als zusätzliche Schicht zwischen Speichersystemen und Servern liegt.



Systeme, die intern virtualisieren, sind heute Legion. Das fängt mit Hewlett-Packards EVA an und endet mit nahezu jedem aktuellen und professionellen Midrange- oder Highend-Array für Unternehmenszwecke. Ein Beispiel für das zweitgenannte Konzept, die Host-gestützte Virtualisierung, liefert die Veritas Foundation Suite. Das dritte Modell, die Virtualisierung mittels separater Software, verfolgen beispielsweise Datacore, Falconstor oder auch IBM mit seinem Storage Virtual Controller (SVC)

Rund 60 bis 70 Prozent der Storage-Infrastrukturen, so schätzt Wolfgang Schwab vom Beratungsunternehmen Experton, sind heute virtualisiert. Etwa 80 Prozent der Virtualisierungsprojekte gelängen den Verantwortlichen. Damit ein Virtualisierungsprojekt nicht zu einem der 20 Prozent Problemfälle wird, sollten Unternehmen mit realistischen Erwartungen herangehen und einige Regeln beachten, die wir auf den nächsten Seiten beschreiben.

Klären Sie im Vorfeld den Zweck des Virtualisierungsprojekts!

Was genau soll das Projekt eigentlich leisten? Geht es darum, dass die vorhandenen Speichersysteme zu wenig ausgelastet sind? Sind die alten Systeme kaum skalierbar? Gibt es eine heterogene Systemlandschaft, auf die über einen Punkt zugegriffen werden soll? Machen vor allem die Migrationen von Daten Probleme oder wünschen sich die Storage-Spezialisten ganz allgemein mehr Entlastung durch die Automatisierung von Routineaufgaben? Geht es vor allem um Hochverfügbarkeit? Soll die Virtualisierung die Übergangsstufe in eine Cloud-Umgebung sein? All dies kann beeinflussen, welche Storage-Virtualisierungslösung in einem spezifischen Fall die beste ist. Hilfreich kann es daher auch sein, vor der Durchführung eines Storage-Virtualisierungsprojekts einen Workshop durchzuführen, in dem – vielleicht schon zusammen mit einem Partner – Ziele, Zeit- und Budgetrahmen geklärt werden. So macht es beispielsweise der Storage-Distributor TIM zusammen mit seinen Partnern aus dem Handel, wenn ein Endkunde ein System für die Storage-Virtualisierung plant. „Die Projekte werden mit den Endkunden in Workshops erarbeitet“, berichtet Alfred Beblik, bei TIM für die Projektentwicklung zuständig. 

Achten Sie auf ein passendes Budget!

Sorgen Sie dafür, dass auch ein Budget für die gewünschte Virtualisierungslösung einschließlich eventuell benötigter Managementwerkzeuge vorhanden ist. Denn gerade an diesem Punkt wird oft gespart. „Storage-Ressource-Management-Software wird als Produkt einfach nicht angenommen, obwohl man es braucht“, beobachtet Valdis Filks, Experte für IT-Infrastruktur bei Gartner. Dabei benötigten Unternehmen trotz Virtualisierung ein funktionierendes Ressourcenmanagement und natürlich auch jemanden, der damit umgehen kann - schon allein, um genau zu sehen, was auf einer Implementierung gerade vor sich geht. IDC-Analystin Taylor betont, wie wichtig es in Hinblick auf die Budgetierung sei, die Frage der Organisation respektive ihres Umbaus mit zu bedenken. Schließlich müssten Kosten sauber verrechnet werden, „und das funktioniert in Organisationen, die sehr stark in Silos konstruiert sind, schlecht.“ Um optimale Ergebnisse zu erzielen, muss also neben dem eigentlichen Projekt möglicherweise eine interne Umstrukturierung parallel laufen oder sogar vorgeschaltet werden.

Überschätzen Sie die Entlastung durch Storage-Virtualisierung nicht!

Die Entlastung der Mitarbeiter von Managementaufgaben sollten Projektverantwortlichen nicht überschätzen. Konkret: Experten warnen einhellig davor, das Ausmaß, in dem sich die Arbeit der Storage-Spezialisten durch eine Storage-Virtualisierung vermindert, zu hoch anzusetzen. „Die Leute brauchen auf jeden Fall Know-how, denn sonst werden auch virtualisierte Systeme falsch konfiguriert“, sagt etwa TIM-Manager Beblik. Das führe dann zu teuren Serviceeinsätzen von Partnern, die natürlich im Budget nicht vorgesehen sind. Meist sei deswegen das System zwar nicht kaputt, und auch Daten gingen nicht automatisch verloren. Doch „im Zweifel funktioniert die gewünschte Hochverfügbarkeit bei unsauberer Konfiguration dann eben nicht.“ Die Notwendigkeit, auch über eine virtualisierte Storage-Umgebung ausreichend Know-how zu besitzen, betont auch Gartner-Manager Filks: „Das funktioniert nur dann, wenn der Spezialist weiß, welche Anwendungen welche Daten verwenden und wie schnell auf wie viele Daten zugegriffen werden muss. Virtualisierung verringert den Arbeitsaufwand für Storage-Systeme deswegen vielleicht um die Hälfte, aber nicht um 100 Prozent.“ Auch Taylor von IDC betont: „Management kostet nun mal Geld, das ändert sich auch mit Virtualisierung nicht. Man muss immer noch teure Experten möglichst für werthaltige Aktivitäten einsetzen.“ Und schließlich, so Filks, müssten selbst bestimmte rein handwerkliche Fähigkeiten auch in einer virtualisierten Umgebung vorgehalten werden: „Es muss immer noch jemanden geben, der eine Disk aus einer Raid-Gruppe entfernen kann, ohne das System zum Zusammenbruch oder Daten zum Verschwinden zu bringen.“

Stellen Sie die Unterstützung des Managements sicher!

Sorgen Sie in jedem Fall dafür, dass das Management auf den höheren Ebenen das Projekt unterstützt. Das gilt besonders dann, wenn die Storage-Virtualisierung nicht nur die einfache technische Administration erleichtern soll, sondern als Vorarbeit zu einer Cloud-Implementierung gesehen wird. Eine solche wird in der Regel zumindest vom IT-Management langfristig geplant und mit dem Top-Management umgesetzt werden. Denn wegen der großen damit verbundenen Umstellungen für die IT-Mitarbeiter, die teilweise alte Verantwortungsbereiche verlieren, aber auch neue bekommen, muss sich der IT-Manager der Unterstützung von ganz oben sicher sein. Schließlich kann es manchmal erforderlich sein, dem „Erbhofdenken“ derjenigen, die früher Storage-Kapazitäten händisch oder halb automatisiert verteilen durften oder mussten, durch ein hierarchisch abgesichertes Machtwort entgegenzutreten.

Vermessen Sie die aktuelle Storage-Infrastruktur!

Im Vorfeld der Detailplanung sollten Sie die vorhandene Infrastruktur vermessen und evaluieren. „Wer die Anforderungen nicht richtig ausmisst und definiert, darf sich über eine schwache Performance nicht wundern“, sagt Experton-Berater Schwab dazu. So gilt es, den Datenanfall der einzelnen Applikationen genau zu bestimmen, am besten in Byte pro Zeiteinheit. Außerdem muss man das zu erwartende Datenwachstum einbeziehen. Nur so kommt es am Ende zu einer relevanten Einschätzung darüber, welche Bandbreite erforderlich ist, um die Anwendung mit einer für die Benutzer akzeptablen Antwortzeit zu betreiben. Und nur so lässt sich abschätzen, wie skalierbar eine Virtualisierungslösung am Ende sein muss. Auch in absehbarer Zukunft geplante neue Applikationen und deren Datenwachstum sollten in die Kalkulation mit einbezogen werden. Ein häufiger Fehler besteht nämlich laut TIM-Manager Beblik darin, Systeme von vornherein zu klein zu dimensionieren – entweder hinsichtlich der Leistung oder in Sachen Kapazität. Beispielsweise werde gern der Platz für einen geplanten Spiegel, also die Datenredundanz, vergessen.

Verhindern Sie Fingerpointing im Fehlerfall!

Auf einen weiteren Grund für die Integration ausreichenden Mess-Equipments in die vorhandene oder geplante Storage-Virtualisierungs-Installation weist Gartner-Mann Filks hin: „Wenn irgendwo in der Infrastruktur etwas zu langsam geht, eine Applikation beispielsweise nicht wie gewünscht reagiert, dann heißt es schnell, dass der Storage schuld ist“. Doch das sei sehr oft gar nicht der Fall. Um dies aber nachweisen zu können, brauche man Messinstrumente, die dann zeigen könnten, dass der Speicher funktioniert. Wenn die IT-Abteilung aber gar nicht wisse, welche Anwendungen gerade welche Storage-Ressourcen nutzen, werde es schnell schwierig. Und wenn dann noch Misstrauen gegen eine neue Technologie zu überwinden sei, falle der Reiz, Probleme auf ihr abzuladen, naturgemäß besonders groß aus. Deshalb bräuchten Unternehmen trotz Virtualisierung ein funktionierendes Ressourcen-Management und natürlich auch jemanden, der damit umgehen kann.

Weiterlesen auf www.computerwoche.de

Keine Kommentare: