Anforderungen an Speicher immer komplexer
von Karl Fröhlich, Chefredaktuer speicherguide.de
Wenn es heute um Datenspeicherung geht, sind nicht mehr reine Speichersysteme das Thema, vielmehr geht es heute um Verfügbarkeit. Unternehmen benötigen einen sicheren und schnellen Zugriff auf ihre Daten ohne Ausfallzeiten. Die Anforderungen sind deutlich komplexer geworden. Ein Trend, dem sich keiner entziehen kann.
[...]
Wie sieht moderne Datenspeicherung heute aus?
Grundsätzlich fallen Daten nicht einfach als lästiges Übel an, sie werden heute vielmehr generiert, sind Teil des Geschäftsprozesses und damit eine wichtige Komponente im Wertschöpfungsprozess vieler Unternehmen. »Für die Datenspeicherung bedeutet dies einerseits, dem Datenwachstum kosteneffizient zu begegnen, und andererseits höchste Performanz für Datenbanken, Big Data- und Echtzeitanalysen zu gewährleisten«, erklärt Robert Thurnhofer, Senior Marketing Manager Central Europe bei DataCore. »Dieser Spagat ist weder mit monolithischen SAN-Subsystemen noch mit hyper-konvergenten Silolösungen oder der Cloud allein zu bewältigen. Gefragt sind vielmehr Flexibilität, Mobilität und Agilität der Datenhaltung. Dies kann längst nur über Software geleistet werden: Software-defined Storage-Ansätze sollten idealerweise Cloud, hyper-konvergente, konvergente und SAN-Plattformen überspannen.«
Storage darf kein Flaschenhals sein
Ein anderer Aspekt, dem der Speicher Rechnung tragen muss: Die Rechenleistung moderner Multikern-Prozessoren hat in den letzten Jahren ungemein zugenommen. »256 Cores und mehr in einer CPU verarbeiten die serverseitigen Processing-Anfragen hunderter virtueller Maschinen parallel«, sagt Thurnhofer. »Vergessen wird dabei aber, dass die Abwicklung speicherseitiger Input/Output-Operationen (I/O) aber seriell erfolgt. Der Speicherdurchsatz wird so zum Flaschenhals für die gesamte Infrastruktur.« Dies führe zu einem Dilemma: Entweder nehme man die Verlangsamung der virtualisierten Applikationen in Kauf, oder muss die Anzahl der Server erhöhen, was den erhofften wirtschaftlichen Nutzen beschneidet.
[...]
Es ist unbestritten die Festplatte hat Konkurrenz erhalten und ihr Stellenwert sinkt, im Rechenzentrum hat sie aber nach wie vor ihren berichtigten Platz. »Zwar sinken die HDD-Verkäufe nach Stückzahlen, gleichzeitig steigen sie aber hinsichtlich der Kapazität«, argumentiert Datacore-Manager Thurnhofer. »Zudem würde die weltweite Produktionskapazität für SSD derzeit gar nicht ausreichen, um mehr als 20 Prozent des Kapazitätsbedarfs zu decken. So bleibt – vorerst – Disk das günstigere und Flash das schnelle Medium.«
Wie eine kosteneffiziente Datenspeicherung aussieht
Eine moderne Speicherlösung ist auch kein Entweder-oder, sondern basiert auf einer Dateninfrastruktur, die für eine nahtlose Integration und die intelligente Klassifizierung unterschiedlicher Technologien und Systeme sorgt. Die Daten per Auto-Tiering zu klassifizieren ist in den Rechenzentren noch kein Standard, gehört aber sicherlich zu den Funktionen, mit denen sich die IT-Abteilungen beschäftigen. »Bei uns erfolgt die Datenklassifizierung quasi stufenlos auf Block-Level und erfasst hyper-konvergente Systeme, Server-integrierten Flash-Speicher ebenso wie HDD- oder SSD-Subsysteme im SAN«, sagt Thurnhofer. Datacore setzt hier auf seine SDS-Plattformen sowie Parallel-I/O-Technologie. Ein nicht von der Hand zu weisender Unterschied ist dabei: Während Flash einzelne Systeme beschleunigt, kann eine Software-Schicht, die komplette Dateninfrastruktur optimieren.
Zum kompletten Artikel auf speicherguide.de hier.