Die Vorstellung der Storage Spaces durch Microsoft bringt angestammte
Speicherhersteller wie Fujitsu, HDS, Netapp oder Datacore nicht ins Grübeln. Sie
verweisen auf erweiterte Funktionalitäten und flexibleren Ansatz in ihren
Speichersystemen. Ein eigenständiges Hardware-System ist zudem schneller als
eine Software-Lösung.
Voll auf den Einsatz in Cloud-Umgebungen hat
Microsoft seine aktuelle Server-Plattform optimiert: Der »Windows Server 2012«
bringt dazu viele Funktionalitäten, um mit kostengünstigen Speichersystemen –
wie JBOD-Arrays – zusammenzuspielen und damit eine funktionell hochwertige
Speicherarchitektur zu erstellen. Das erscheint auf den ersten Blick als eine
ernste Konkurrenzsituation zu den traditionellen Angeboten von
Speicherspezialisten wie Hitachi Data Systems (HDS), Fujitsu Technology Systems,
NetApp, oder DataCore Software.
Bei Netapp gilt Microsoft als ein sehr
wichtiger Partner – daher ist die Kooperation der Unternehmen auch sehr eng.
„Windows Server 2012 ist der Maßstab für Unternehmen, die bei der Bereitstellung
von Applikationen und Services schnell auf Cloud-fähige Infrastrukturen
umsteigen möchten«, erklärt Alexander Wallner. Der Area Vice President Germany
bei Netapp sieht daher sein Unternehmen klar positioniert: »Wir wollen
Unternehmen helfen, ihre Investitionen in Microsoft-Technologie voll
auszuschöpfen. Daher passen wir unsere Roadmaps zur Bereitstellung von Lösungen
so an, dass sie den geschäftskritischen Herausforderungen bei unseren
gemeinsamen Kunden gerecht werden. Die Anforderungen reichen dabei von einer
Steigerung der Storage-Effizienz bis hin zur Hochverfügbarkeit von Servern,
Applikationen und Services.«
»Windows Server 2012 wurde von Grund auf für
den Einsatz in der Cloud konzipiert und liefert wichtige Verbesserungen im
Bereich Storage, mit denen Unternehmen ihre Kosten senken und eine geschäftliche
Flexibilität auf ganz neuem Niveau erleben können«, stimmt Thomas Pfenning bei.
Microsofts General Manager File Server Foundation sieht die Kooperation mit
Netapp als einen wichtigen Faktor: »Bei der engen Zusammenarbeit mit Netapp
haben wir uns darauf konzentriert, für unsere gemeinsamen Kunden eine
effiziente, flexible und zuverlässige IT-Grundlage für geschäftskritische
Services zu schaffen.«
Abgrenzung zu den Storage Spaces
Generell gilt es
nach der Vorstellung des Windows Server 2012 für die Storage-Anbieter
herauszuarbeiten, in welchen Bereichen sie technische Vorteile ihrer
NAS-/SAN-Lösung gegenüber den Storage Spaces sehen. Christian Marczinke,
Director Strategic Systems Engineering EMEA, bei Datacore Software relativiert
die Herausforderung: »Mit der Einführung der Storage Spaces wird sich für
Datacore als Anbieter von Speichervirtualisierungs-Software grundsätzlich nichts
Wesentliches ändern. Microsoft schließt mit Storage Spaces lediglich eine Lücke,
die VMware schon vor Jahren mit der Einführung der Vmware Datastores geschlossen
hat.« Mit Storage Spaces will Microsoft, so Marczinke, die Verwaltbarkeit von
Festplatten innerhalb virtualisierter Umgebungen erleichtern. »Dabei ist Thin
Provisioning das wichtigste zusätzliche Feature«, meint Marczinke, »das es auch
bei VMware schon seit Langem gibt. Für uns ist das der Perfect Fit.«
Das
Thema Plattformunabhängigkeit spielt für Marczinke auch eine wichtige Rolle:
»Wir liefern einen Storage-Hypervisor der unabhängig vom Betriebssystem agiert
und somit unterschiedlichste Speicheranforderungen in einem Rechenzentrum
erfüllt. Unsere Software unterstützt dabei alle gängigen
Speicherprotokolle.«
In Bezug auf die Technologie der Storage Spaces
stellt Marczinke klar: »Storage Spaces sind in der Lage Direct-Attached-Storage
(DAS) zu verwalten, und eine oder mehrere Festplatten zu gruppieren.
Vergleichbar ist dies mit einem Disk-Pooling. Hardware-seitig wird USB, ATA, SAS
und auch Shared SAS unterstützt. Aufgrund der maximalen Leitungslänge von SAS
(10 Meter) besteht aber keine Möglichkeit, dieses Pooling mit SAS über
Rechenzentrumsgrenzen hinweg zu betreiben. Alle Features sind auf das
Microsoft-eigene Betriebssystem beschränkt und können somit nicht von anderen
physikalischen Servern mitbenutzt werden.« Die fehlende Unterstützung von iSCSI
und Fibre Channel (FC) mache es zudem unmöglich, Desaster Recovery-Szenarien
aufzubauen. Einzig die Verwendung von SAS-Devices würde ein Clustering
ermöglichen, aber dies sei aufgrund der Leitungslängenbeschränkung auf ein- und
dasselbe Rechenzentrum begrenzt.
Dagegen unterstütze Datacore alle
gängigen Betriebssysteme und liefert mit seinem Storage-Hypervisor einheitliche
Funktionen für das gesamte Rechenzentrum und über Rechenzentrumsgrenzen hinweg –
wie beispielsweise automatisiertes Storage-Tiering, logischer Fehlerschutz
(Continous Data Protection) und Hochverfügbarkeit durch synchrone Spiegelung
über bis zu 100 Kilometer. »Daneben bietet unser Storage Hypervisor eine Reihe
von Basis-Features, wie Thin Provisioning, Storage Pooling, Snapshots und
Datenmigration«, fügt Marczinke hinzu. »Die Funktionen stellen die
Hochverfügbarkeit und Ausfallsicherheit sicher, was gerade in virtualisierten
Umgebungen ein Muss ist. Storage Spaces bietet hierfür keine Antwort, sondern
ermöglicht lediglich eine bessere Verwaltbarkeit der angeschlossenen Ressourcen
und erleichtert das Handling für Hyper-V-Umgebungen.«