»Datacore konnte 2013 einen bemerkenswerten Anstieg an Infrastruktur-übergreifenden Kundeninstallationen verzeichnen, die einen generellen Trend von gerätezentrierten hin zu strategischen, Software-definierten Speicherlösungen markieren. Selbst EMC trägt der schnellen Entwicklung zur Hardware-Standardisierung Rechnung und belegt mit der ‚ViPR’-Ankündigung die Tatsache, dass herkömmliche Storage-Ansätze nicht mehr funktionieren«, sagt George Teixeira, Präsident und CEOvon Datacore. »Wir befinden uns eindeutig im Zeitalter von Software-definierten Rechenzentren, in denen Virtualisierung, Automatisierung und Effizienz durch Software vorangetrieben wird. Unternehmen können es sich nicht länger leisten, beständig ihre Hardware auszutauschen. Stattdessen benötigen sie einen kosteneffizienten Ansatz, um das Datenwachstum zu beherrschen, Raum für Weiterentwicklung zu lassen und bereits getätigte Investitionen weiter optimal zu nutzen.«
Datacore im »IT Market Clock for Storage 2013«-Report von Gartner
In Gartners »IT Market Clock for Storage 2013« (veröffentlicht am 06.09.2013) wurde Datacore als Anbieter von Software-defined Storage (SDS) gelistet. Der Bericht identifiziert bevorzugte SDS-Anbieter und beschreibt zwei wesentliche Vorteile: »Zunächst geht es auf der Storage-Ebene vor allem um Optimierung, meist verbunden mit Kostensenkungen durch den breiten Einsatz von Standardkomponenten mit robuster, policy-geleiteter Software. Auf der Rechenzentrumsebene ermöglicht Software-definierter Storage unterbrechungsfreie multidirektionale Daten- und Workload-Mobilität über Server, Rechenzentren und Cloud Provider hinweg.«
Drei große Top-Themen kennzeichneten bei Datacore-Neukunden den SDS-Markt 2013:
► Trend 1: Integration von Flash-Technologien ins Rechenzentrum: Der Einsatz von Flash-Speicher zur Verbesserung der Performance wird bei der Neuausrichtung von Speicherarchitekturen zur Herausforderung. Nur rund fünf Prozent der Workloads benötigen höchste Performance, auch wenn Flash-Anbieter trotz des niedrigen ROI versuchen, ihre Kunden von einer Komplettumstellung zu überzeugen. Unternehmen nutzen stattdessen Auto-Tiering-Software, um die Hardwareauslastung gemäß Performance und Investition zu optimieren. Datacore ermöglicht dabei den Einsatz von Auto-Tiering über die unternehmensweite IT-Infrastruktur hinweg, unabhängig von Modell und Hersteller der eingesetzten Flash- und Disk-Hardware.
»Schlechte Antwort-Zeiten von Microsoft SQL und Exchange auf VMware-Maschinen gehören der Vergangenheit an«, konstatiert Tim Olsen, IT-Manager bei Femern A/S, die für den Bau des Fehmarnbelt-Tunnel zwischen Skandinavien und Deutschland verantwortlich ist. »Dies haben wir ohne die Kosten einer reinen Flash-Lösung erreicht. Die Datacore-Speichervirtualisierungssoftware hat uns eine erschwingliche und flexible Wachstumslösung ermöglicht und gleichzeitig speicherbedingte Ausfallszeiten eliminiert. Zusammen mit Fusion-io und dem Datacore-Auto-Tiering haben wir eine Hochleistungslösung mit atemberaubender Geschwindigkeit – genau wie es der Tunnel selbst ist.«
► Trend 2: Einsatz von Storage-Virtualisierung für Tier 1-Applikationen: Transaktionsintensive Geschäftsanwendungen wie Datenbanken, ERP- und E-Mail-Systeme schaffen durch hohe I/O-Anforderungen oftmals Performance-Engpässe in der Storage-Architektur. Unternehmen antworten durch den Zukauf von Highend-Speichersystemen, deren Kapazität oftmals schlecht ausgelastet bleibt. Durch die Storage-Virtualisierung können Kapazitäten unabhängig vom Hersteller in Pools zusammengefasst werden. Durch die effiziente Zuteilung von Disk-Ressourcen, Server-RAM und CPU-Leistung berichten Datacore-Kunden von einer Beschleunigung um das bis zu Fünffache und damit kürzere Antwortzeiten ihrer Tier-1-Applikationen.
Lebensmittelhersteller Quorn Foods konnte so laut Datacore das ERP-Data-Mining im SAP-Umfeld von 20 Minuten auf 20 Sekunden verkürzen. »Wie alles in der IT bleiben selbst dramatische Verbesserungen der Infrastruktur unsichtbar, da die Nutzer es nur bemerken, wenn etwas schief geht. In diesem Fall aber konnte niemand die signifikanten Leistungssprünge übersehen«, erläutert Fred Holmes, Leiter der IT bei Quorn Foods. »Dies verdanken wir zu einem Großteil der Art und Weise, wie Datacores Sansymphony-V Festplattenressourcen nutzt und I/O-Tasks sehr schnellem Server-RAM und CPU-Leistung zuweist, um den Durchsatz zu beschleunigen und die Antwortzeiten beim Lesen und Schreiben zu verkürzen.«
Trend 3: Management inkompatibler Storage-Ressourcen: Viele Rechenzentren arbeiten mit diversen Speicherprodukten verschiedener Hersteller, etwa von HP, NetApp, IBM, Dell oder EMC, die untereinander nicht kompatibel sind. Auch verschiedene Modelle gleicher Anbieter kommunizieren meist nicht miteinander. Diese Unternehmen setzen vermehrt auf Software-Defined Storage von Datacore als übergreifendes Management-Werkzeug für heterogene Speicher-Hardware.
»Im Laufe der letzten zwölf Jahre gab es in unserem Rechenzentrum acht verschiedene Storage-Arrays und eine Vielzahl an weiteren Speichergeräten. Mit Datacores Sansymphony-V können wir diese nahtlos ohne Ausfallszeiten austauschen und unsere SAN-Infrastruktur verwalten, ohne uns an einen einzelnen Hersteller gebunden zu haben«, erklärtGabriel Sandu, Chief Technology Officer des Maimonides Medical Center New York, das drittgrößte Lehrkrankenhaus in den USA. »Datacores Technologie ermöglicht uns zudem den Einsatz von Midrange-Storage-Arrays bei herausragender Performance, wodurch wir auf kostspielige Enterprise-Arrays verzichten konnten. Datacores Thin-Provisioning ermöglicht es uns darüber hinaus, Kosten zu senken, effizient mit Speicherzuweisungen umzugehen und zu gewährleisten, dass keine Speicherressourcen ungenutzt bleiben.«
Keine Kommentare:
Kommentar veröffentlichen