Montag, 18. Januar 2016

Top-Story: Mit Datacore lösen Server klassisches Storage ab

von Ulrike Rieß / searchstorage.de

Die aktuellen Benchmark von Datacore könnten das Storage-Paradigma grundlegend erschüttern. Das Zauberwort heißt Parallel Processing.

Normalerweise sind Benchmark-Resultate nicht wahnsinnig spektakulär, mal hat Storage-Kandidat A mehr zu bieten, ein anderes Mal ist Kollege B oder C mit einer besseren Konfiguration am Start. Das, was Datacore Ende 2015 präsentierte – und was im Jahresendtrubel unterging – könnte herkömmliche Storage-Paradigmen nachhaltig beeinflussen. Auf einen Schlag ändern sich die Spielregeln und für Datacore öffnen sich Marktchancen, die so vom Unternehmen selbst nicht erwartet wurden und die nun strategisch einsortiert werden müssen.

Bestes Preis-Leistungs-Verhältnis

Die Zahlen lassen sich schnell zusammenfassen. Die Software SANsymphony-V des Herstellers erreichte 459.290,87 IOPS bei einer Antwortzeit von 0,32 Millisekunden. Dabei liegen die Kosten pro IOPS bei 0,08 US-Dollar. Das klingt nicht spektakulär, ist es aber, wenn man es ins Verhältnis setzt. Die Performance entspricht 65,7 Prozent der Leistung eines NetApp-Systems bei nur 2,9 Prozent der Kosten.

[...] Was das Datacore-Ergebnis allerdings wirklich interessant macht, ist die Tatsache, dass die Software nicht auf teurer Storage-Hardware lief, sondern auf dem günstigsten Lenovo-Server, den es derzeit gibt. [...] Die Gesamtkosten für diese Lösung gibt der Benchmark-Test mit genau 38.400,29 US-Dollar an, inklusive der Datacore-Lizenz. So ist das Preis-Leistungs-Verhältnis das Beste ist, das je in einem SPC-1-Benchmark-Test festgestellt wurde. Mit 0,08 US-Dollar pro IOPS ist die Datacore-Lenovo-Lösung viermal günstiger als der Zweitplatzierte mit 0,32 US-Dollar pro IOPS. Eine VNX 8000 von EMC beispielsweise bietet 0,41 US-Dollar pro IOPS.

[...] Wichtig zu erwähnen ist zudem, dass die Antwortzeit extrem niedrig ist. Mit 0,32 Millisekunden liegt Datacore beispielsweise weit vor dem All-Flash-Array ISE 820 G3 von X-IO, das eine Antwortzeit von 2,06 Millisekunden aufweist. Dabei muss man sich immer wieder vor Augen führen, dass hier ein „einfacher“ Server hochentwickelten, dedizierten, leistungsoptimierten Speicher weit hinter sich lässt. Den detaillierten Test finden Sie hier, eine Zusammenfassung hier.

Bei diesen Resultaten ist es kein Wunder, dass Datacore-CEO Georg Teixeira im Gespräch aus dem Lachen nicht mehr herauskommt. „Der Test zeigt deutlich, dass mit adaptiver und leistungsstarker Software ein hyper-konvergenter Server transaktionsreiche Anwendungen bedienen kann und hier teuren Storage obsolet macht. Das eröffnet Anwendern eine ganz andere Flexibilität, sowohl bei der Leistung als auch beim Budget.“

Neues Jahr, neue Spielregeln, neue Märkte

Die extrem guten Benchmark-Resultate bedeuten für den Hersteller einen echten Durchbruch, da dadurch nicht nur die Spielregeln für Storage-Anbieter verändert werden, sondern sich für Datacore neue Chancen und Märkte erschließen. Mit einem Schlag ist nicht mehr nur das Storage-Segment interessant, sondern auch die Serversparte. Hier plant das Unternehmen direkt mit Serverherstellern in Verhandlungen treten zu können, um Partnerschaften wie die mit Lenovo schließen zu können, mittels derer Hardware- und Software-Bundles vertrieben werden. Für den Anwender ist es sicher eine optimale Lösung, um das Beste aus seinen Multi-Core-Servern herauszuholen, Anwendungen simultan zu bedienen und zudem auf teure Storage-Hardware zu verzichten.

[...] Die Möglichkeiten scheinen endlos, denn egal ob hyper-converged, klassisches Storage, Storage Area Networks oder Cloud: Die Software ist nach wie vor agnostisch und kann mit jedem System „spielen“. Anwender, die beispielsweise Systeme haben, die weder SAP HANA, OpenStack oder VMware VVOLs unterstützen, können über die Datacore-Software diese Dienste nutzen. Wer seine transaktionsreichen Anwendungen über direkt angeschlossenen Storage bedienen will, kann nun statt dessen hyper-konvergente Lösungen oder Server in Kombination mit Datacore einsetzen. Dafür erhält der Nutzer gute Performance, umfassende Funktionalitäten sowie eine hohe Kosteneffizienz. Es könnte ein gutes Jahr für den Virtualisierungs-Spezialisten ins Haus stehen.

Ziel 2016: Application Adaptive Data Infrastructure

Für das Jahr 2016 hat sich das Unternehmen auch technologische Ziele gesteckt. Hauptaugenmerk liegt darauf, eine Application Adaptive Data Infrastructure zu entwickeln. Dabei sollen sich sämtliche Ressourcen (Server, SAN, Cloud) dynamisch nutzen und verwalten lassen.

Zum kompletten Artikel:

Keine Kommentare: