Die Vorstellung der Storage Spaces durch Microsoft bringt angestammte 
Speicherhersteller wie Fujitsu, HDS, Netapp oder Datacore nicht ins Grübeln. Sie 
verweisen auf erweiterte Funktionalitäten und flexibleren Ansatz in ihren 
Speichersystemen. Ein eigenständiges Hardware-System ist zudem schneller als 
eine Software-Lösung.
Voll auf den Einsatz in Cloud-Umgebungen hat 
Microsoft seine aktuelle Server-Plattform optimiert: Der »Windows Server 2012« 
bringt dazu viele Funktionalitäten, um mit kostengünstigen Speichersystemen – 
wie JBOD-Arrays – zusammenzuspielen und damit eine funktionell hochwertige 
Speicherarchitektur zu erstellen. Das erscheint auf den ersten Blick als eine 
ernste Konkurrenzsituation zu den traditionellen Angeboten von 
Speicherspezialisten wie Hitachi Data Systems (HDS), Fujitsu Technology Systems, 
NetApp, oder DataCore Software. 
Bei Netapp gilt Microsoft als ein sehr 
wichtiger Partner – daher ist die Kooperation der Unternehmen auch sehr eng. 
„Windows Server 2012 ist der Maßstab für Unternehmen, die bei der Bereitstellung 
von Applikationen und Services schnell auf Cloud-fähige Infrastrukturen 
umsteigen möchten«, erklärt Alexander Wallner. Der Area Vice President Germany 
bei Netapp sieht daher sein Unternehmen klar positioniert: »Wir wollen 
Unternehmen helfen, ihre Investitionen in Microsoft-Technologie voll 
auszuschöpfen. Daher passen wir unsere Roadmaps zur Bereitstellung von Lösungen 
so an, dass sie den geschäftskritischen Herausforderungen bei unseren 
gemeinsamen Kunden gerecht werden. Die Anforderungen reichen dabei von einer 
Steigerung der Storage-Effizienz bis hin zur Hochverfügbarkeit von Servern, 
Applikationen und Services.«
»Windows Server 2012 wurde von Grund auf für 
den Einsatz in der Cloud konzipiert und liefert wichtige Verbesserungen im 
Bereich Storage, mit denen Unternehmen ihre Kosten senken und eine geschäftliche 
Flexibilität auf ganz neuem Niveau erleben können«, stimmt Thomas Pfenning bei. 
Microsofts General Manager File Server Foundation sieht die Kooperation mit 
Netapp als einen wichtigen Faktor: »Bei der engen Zusammenarbeit mit Netapp 
haben wir uns darauf konzentriert, für unsere gemeinsamen Kunden eine 
effiziente, flexible und zuverlässige IT-Grundlage für geschäftskritische 
Services zu schaffen.«
Abgrenzung zu den Storage Spaces 
Generell gilt es 
nach der Vorstellung des Windows Server 2012  für die Storage-Anbieter 
herauszuarbeiten, in welchen Bereichen sie technische Vorteile ihrer 
NAS-/SAN-Lösung gegenüber den Storage Spaces sehen. Christian Marczinke, 
Director Strategic Systems Engineering EMEA, bei Datacore Software relativiert 
die Herausforderung: »Mit der Einführung der Storage Spaces wird sich für 
Datacore als Anbieter von Speichervirtualisierungs-Software grundsätzlich nichts 
Wesentliches ändern. Microsoft schließt mit Storage Spaces lediglich eine Lücke, 
die VMware schon vor Jahren mit der Einführung der Vmware Datastores geschlossen 
hat.« Mit Storage Spaces will Microsoft, so Marczinke, die Verwaltbarkeit von 
Festplatten innerhalb virtualisierter Umgebungen erleichtern. »Dabei ist Thin 
Provisioning das wichtigste zusätzliche Feature«, meint Marczinke, »das es auch 
bei VMware schon seit Langem gibt. Für uns ist das der Perfect Fit.«
Das 
Thema Plattformunabhängigkeit spielt für Marczinke auch eine wichtige Rolle: 
»Wir liefern einen Storage-Hypervisor der unabhängig vom Betriebssystem agiert 
und somit unterschiedlichste Speicheranforderungen in einem Rechenzentrum 
erfüllt. Unsere Software unterstützt dabei alle gängigen 
Speicherprotokolle.«
In Bezug auf die Technologie der Storage Spaces 
stellt Marczinke klar: »Storage Spaces sind in der Lage Direct-Attached-Storage 
(DAS) zu verwalten, und eine oder mehrere Festplatten zu gruppieren. 
Vergleichbar ist dies mit einem Disk-Pooling. Hardware-seitig wird USB, ATA, SAS 
und auch Shared SAS unterstützt. Aufgrund der maximalen Leitungslänge von SAS 
(10 Meter) besteht aber keine Möglichkeit, dieses Pooling mit SAS über 
Rechenzentrumsgrenzen hinweg zu betreiben. Alle Features sind auf das 
Microsoft-eigene Betriebssystem beschränkt und können somit nicht von anderen 
physikalischen Servern mitbenutzt werden.« Die fehlende Unterstützung von iSCSI 
und Fibre Channel (FC) mache es zudem unmöglich, Desaster Recovery-Szenarien 
aufzubauen. Einzig die Verwendung von SAS-Devices würde ein Clustering 
ermöglichen, aber dies sei aufgrund der Leitungslängenbeschränkung auf ein- und 
dasselbe Rechenzentrum begrenzt. 
Dagegen unterstütze Datacore alle 
gängigen Betriebssysteme und liefert mit seinem Storage-Hypervisor einheitliche 
Funktionen für das gesamte Rechenzentrum und über Rechenzentrumsgrenzen hinweg – 
wie beispielsweise automatisiertes Storage-Tiering, logischer Fehlerschutz 
(Continous Data Protection) und Hochverfügbarkeit durch synchrone Spiegelung 
über bis zu 100 Kilometer. »Daneben bietet unser Storage Hypervisor eine Reihe 
von Basis-Features, wie Thin Provisioning, Storage Pooling, Snapshots und 
Datenmigration«, fügt Marczinke hinzu. »Die Funktionen stellen die 
Hochverfügbarkeit und Ausfallsicherheit sicher, was gerade in virtualisierten 
Umgebungen ein Muss ist. Storage Spaces bietet hierfür keine Antwort, sondern 
ermöglicht lediglich eine bessere Verwaltbarkeit der angeschlossenen Ressourcen 
und erleichtert das Handling für Hyper-V-Umgebungen.«