Donnerstag, 25. Februar 2016

Webcast Serie 2016: Hyperconverged & Parallel I/O

Im ersten Teil der Webcast-Serie 2016 beleuchten die DataCore-Experten am 26.02. von 11:00 - 12:00 Uhr das Thema: Hyperconverged & Parallel I/O.

In diesem Webinar wird in unterschiedlichen Szenarien konkret aufgezeigt, wie die Parallel I/O-Technologie Konzepte von Storage-Infrastrukturen von Morgen bereits heute entscheidend beeinflusst. Mehr Performance, höhere Verfügbarkeit und bessere TCO-Ergebnisse stehen in Kombination mit einem „echten“ Software Defined Storage-Konzept, für relevante Mehrwerte in Hyper-konvergenten oder Virtual SAN-Umgebungen.

Der Webcast ist interaktiv gehalten und bietet Teilnehmern neben eingehenden Praxisbeispielen auch die Möglichkeit, zu einzelnen Themenbereichen individuelle Fragen zu stellen.

Zur Anmeldung hier

Datum: 26. Februar 2016
Zeit: 11:00 - 12:00 Uhr
Sprecher: Rainer Bretzel, Senior Solutions Architect, DataCore Software


Mittwoch, 24. Februar 2016

Parallel-I/O und die zehn größten Storage-Herausforderungen

ESG-Analysten veröffentlichen im DataCore-Testbericht neueste Umfrage-Ergebnisse
 
DataCore hat seine SANsymphony- und hyperkonvergente Virtual SAN-Software intensiven Tests durch die technischen Analysten der Enterprise Strategy Group (ESG) unterzogen. Im resultierenden Testbericht stellt ESG den Mehrwert der DataCore-Technologien den Ergebnissen einer Anwenderbefragung gegenüber: Hardwarekosten (27 %), Datenwachstum (23 %) und Datensicherheit (23 %) zählen demnach für die 373 befragten IT-Profis zu den größten Herausforderungen im Storage-Umfeld.

In den ESG-Labors wurden die Infrastruktur-übergreifenden Speichervirtualisierungs- und Hyperkonvergenz-Lösungen von DataCore in heterogenen, virtualisierten und hyperkonvergenten Rechenzentrumsumgebungen untersucht. DataCore-Konzepte wie applikationsadaptive Dateninfrastruktur, universelle VVOL-Unterstützung, hyperkonvergente Simplizität, Parallel-I/O-Performance, automatisches Storage-Tiering und kontinuierliche Datensicherung (CDP) wurden hinsichtlich Anwendungsnähe, Flexibilität, Performanz, Effizienz und Verfügbarkeit geprüft.

Tony Palmer, Senior Lab Analyst bei ESG Lab, stellt fest: „DataCore SANsymphony und das hyperkonvergente Virtual SAN konnten Robustheit, Flexibilität und Responsivität unter Beweis stellen. Der Hersteller verfügt über herausragende Technologien, die für den Anwender wirklich relevant sind. Die Software ist einfach zu implementieren sowie handzuhaben und stattet jede Speicherinfrastruktur mit Leistungsmerkmalen der Enterprise-Klasse aus. Insbesondere DataCores Parallel I/O-Technologie, die Enterprise-Performance mit Standardhardware ermöglicht, beeindruckte im ESG Lab. Jedes Unternehmen, das Virtualisierungsprojekte in Erwägung zieht, sollte sich DataCore Software intensiv ansehen.“



Die ESG Lab-Befunde zu DataCore:

-       Hyperkonvergente Dateninfrastrukturen auf Enterprise-Niveau möglich:
Unter anderem wurden automatischer Failover in einer Hochverfügbarkeitskonfiguration und Performance einer hyperkonvergenten Virtual SAN-Lösung von DataCore getestet: „DataCore war schon hyper-converged, als es den Begriff noch gar nicht gab. Deshalb überrascht es nicht, dass die die Virtual SAN-Lösung Hochverfügbarkeit, Robustheit und volle Enterprise-Funktionalität zu einer beeindruckenden Price-Performance-Ratio nachweisen konnte“, so Palmer.

-       Schnellste Response-Zeit und bestes Price-Performance-Verhältnis:
ESG Lab bestätigt die kürzlich vom Storage Performance Council veröffentlichten Ergebnisse nach SPC-1-Benchmark-Tests. Grundlage ist DataCores Parallel I/O-Technologie. Sie ermöglicht eine adaptive, simultane I/O-Verarbeitung in Mehrkernprozessoren, in denen Workloads konkurrierender virtueller Maschinen anfallen: „DataCore erzielte hervorragende 459,290 SPC-1 IOPS™ bei Vollauslastung mit Response-Zeiten von 0,32 Millisekunden in einer hyperkonvergenten Konfiguration. Dies ist nachweislich die kürzeste Antwortzeit, die jemals nach SPC-1 gemessen wurde, und zeigt die Fähigkeit der Parallel-I/O-Software, die Zeit für das Zugreifen, Speichern und Aktualisieren auf Daten erheblich zu reduzieren“, kommentiert Palmer. DataCore habe demonstriert, das auch I/O-intensive Arbeitslasten (etwa in Datenbank-, OLTP- oder ERP-Systemen) damit in weitaus größere Konfigurationen und Kapazitäten als bislang skaliert („scale up and scale out“) werden können.

-       Universelle VVOLs vereinfachen das VMware vSphere-Speichermanagement:
vSphere Virtual Volumes (VVols) vereinfachen das Speichermanagement, indem sie die Speicherressourcen für virtuelle Maschinen transparent machen, jedoch unterstützen viele Storage-Geräte diese Technologie (noch) nicht. Im Testbericht bestätigt ESG Lab die Möglichkeit, VVOL auch auf solchen Storages zu nutzen. Die Implementierung in das VMware-Umfeld und auf bereits vorhandenen, älteren Speicher, der nie für VVOLs zertifiziert wird, erfolgt dabei gemäß ESG Lab automatisch im Hintergrund und ersetzt so die Arbeit eines klassischen Storage-Administrators.

-       Automatisches Storage-Tiering maximiert die Performance kosteneffektiv
ESG Lab testete DataCores Tiering-Technologie mit typischen OLTP-Workloads. Dem Speicherpool aus SAS-Plattenkapazitäten wurden nachträglich SSD hinzugefügt, die im Einsatz mit DataCore für intensive Verarbeitungsprozesse optimiert werden. Im Labortest konnte ESG damit eine Performance-Verbesserung um 700 Prozent erzielen.

-       Datensicherheit, Datensicherung und Hochverfügbarkeit mit DataCore
ESG Lab hat DataCore SANsymphony und das hyperkonvergente Virtual SAN hinsichtlich modernster Datensicherungstechnologien für Business Continuity und Disaster Recovery bewertet: Synchrone Spiegelung mit automatischem Failover, Snapshots, Continuous Data Protection (CDP) und asynchrone Replikation können Hardware- und herstellerunabhängig eingesetzt werden. So kann ein zentrales SAN auch im Verbund mit hyperkonvergenten Systemen an einem ausgelagerten Sicherungsstandort besonders kosteneffizient genutzt werden.

Hier zum kompletten ESG Lab-Report mit Informationen zu den Umfrageergebnissen.


Montag, 15. Februar 2016

Storage Consortium - DataCore Parallel I/O-Software im Preis-Leistungs-Benchmark

Ergebnis von 8 US-Cent pro I/O für Enterprise-Storage und hyperkonvergente Systeme nach SPC-1-Standard...
Zum Hintergrund: DataCore, Anbieter von Parallel I/O-Software, Software-Defined Storage und hyperkonvergenten Virtual SAN-Lösungen, hat auf Basis eines neuen SPC-1-Benchmarks des Storage Performance Council einen Preis-Leistungs-Wert mit Kosten von 0,08 US-Dollar pro SPC-1 IOPS und damit eine neue Bestmarke in der SPC-1 Price-Performance™-Kategorie erzielt. Die Tests mit DataCore’s Parallel I/O-Software wurden auf Lenovo x3650 M5-Servern und Intel Xeon® E5-2600 v3-Mehrkernprozessoren mit SSD- und Disk-Ressourcen durchgeführt.

8 US-Cent pro I/O ist die neue Preis-Leistungs-Bestmarke für Enterprise-Storage und hyperkonvergente Systeme nach SPC-1-Standard

„Mit diesen Ergebnissen hat DataCore einen Meilenstein für die Parallel I/O-Leistungsfähigkeit und Hyperkonvergenz gesetzt, und wir werden weitere für Hochverfügbarkeitskonfigurationen in Mehrkernarchitekturen und eine zukunftsweisende I/O-Verarbeitung innerhalb und außerhalb von Servern folgen lassen. Wir haben erst begonnen, das volle Potenzial unserer I/O-Architektur zu demonstrieren“, sagt Ziya Aral, Chairman bei DataCore Software.
RESPONSE TIMES

Tests auf hyperkonvergenten End-to-End-Systemen
Die Tests wurden laut Anbieter auf einem hyperkonvergenten System durchgeführt, das sowohl die Anforderungen an Enterprise-Storage als auch der Prozessverarbeitung von Datenbanken und anderen Anwendungen auf einer Plattform erfüllt. Die Kosten von 0,08 US-Dollar pro SPC-1 IOPS™ beinhalten sowohl die Speicherkosten als auch die Kosten für die Serverplattform, welche die Applikation trägt und den Workload generiert.
„Wir rufen andere Anbieter wie Nutanix oder SimpliVity dazu auf, ebenso SPC-1-Benchmarks zu veröffentlichen, um sie unseren Ergebnissen gegenüberzustellen. Kunden können dann die implizierten Kosten vergleichen”, sagt George Teixeira, CEO bei  DataCore. „Es wurde viel darüber spekuliert, wie diese Systeme bei hohen I/O-Lasten durch geschäftskritische Unternehmensanwendungen funktionieren. Der offengelegte SPC-1-Prozess würde einen objektiven Vergleich vor einer Kaufentscheidung erlauben.“
Spitzenwerte für Storage- und Hyperkonvergenzsysteme
Für den Benchmark wurde ein hyperkonvergentes System mit Gesamtkosten von 38.400,29 US-Dollar für Hardware, Software und drei Jahre Support verwendet. OLTP- und lastenintensive Datenbankanwendungen generierten 459.290,87  SPC-1 IOPS™, was den Kosten von 0,08 US-Dollar pro SPC-1 IOPS™ entspricht. Dies bedeutet laut Hersteller eine Verbesserung von über 300 Prozent zum alten Rekord von 0,24 US-Dollar zu weniger als 25 Prozent der Kosten von bislang getesteten externen Storage-Systeme wie von EMC, NetApp, Dell etc. Ein hyperkonvergentes IBM Power 780-Server-System erzielte demnach 780.081,02 SPC-1 IOPS™ bei Gesamtkosten von 3.557.709,00 US-Dollar = 4,56 US-Dollar pro SPC-1 IOPS).
Anmerkung: Wichtig bei allen Benchmark-Vergleichen ist natürlich die Vergleichbarkeit der jeweiligen Konfiguration, um eine Grundlage im Rahmen des Bezugs zur eigenen Umgebung herstellen zu können (Bsp.: Zeitpunkt des Benchmarks (alte Technik vs. neueste Konfig.); Standard Apps-Server plus external Storage versus n-core-CPUs mit PCIe NAND / hyperconverged ServerSAN; Server-Sizing mit CPU, RAM, I/O-Schnittstellen etc., potentielle I/O-Performance-Engpäße durch langsame HDDs bwz. Schnittstellen etc).
DataCore™ Adaptive Parallel I/O nutzt Multi-Core CPUs
Grundlage der Ergebnisse ist die DataCore™ Adaptive Parallel I/O-Technologie, die in der Software-Defined Storage-Architektur von SANsymphony-V integriert ist. Sie ermöglicht die parallele I/O-Verarbeitung über mehrere CPU-Kerne, wie sie etwa in Lenovo x-Systemen verwendet werden. I/O-Latenzzeiten werden im Vergleich zu seriell verarbeitenden Lösungen erheblich reduziert.

Die SPC-1-getestete Konfiguration
Die getestete Konfiguration beinhaltet die DataCore SANsymphony-V Parallel I/O-Software auf Lenovo System x3650 M5 Multi-Core-Servern mit Intel Xeon E5-2600 v3-Prozessoren, 16 SSD- und acht HDD-Festplatten sowie Microsoft Windows Server-Betriebssystem. Ebenso unterstützt DataCore Microsoft Hyper-V, VMware ESXi, Linux KVM und andere Hypervisoren sowie nicht-virtualisierte Systeme.

Das Storage Performance Council (SPC) ist eine herstellerneutrale Organisation, die den ersten standardisierten Benchmark für Performance, Preis-Leistungs-Verhältnis und Stromverbrauch von Komponenten und Gesamtlösungen in der Speicherindustrie entwickelt hat.

Montag, 18. Januar 2016

Top-Story: Mit Datacore lösen Server klassisches Storage ab

von Ulrike Rieß / searchstorage.de

Die aktuellen Benchmark von Datacore könnten das Storage-Paradigma grundlegend erschüttern. Das Zauberwort heißt Parallel Processing.

Normalerweise sind Benchmark-Resultate nicht wahnsinnig spektakulär, mal hat Storage-Kandidat A mehr zu bieten, ein anderes Mal ist Kollege B oder C mit einer besseren Konfiguration am Start. Das, was Datacore Ende 2015 präsentierte – und was im Jahresendtrubel unterging – könnte herkömmliche Storage-Paradigmen nachhaltig beeinflussen. Auf einen Schlag ändern sich die Spielregeln und für Datacore öffnen sich Marktchancen, die so vom Unternehmen selbst nicht erwartet wurden und die nun strategisch einsortiert werden müssen.

Bestes Preis-Leistungs-Verhältnis

Die Zahlen lassen sich schnell zusammenfassen. Die Software SANsymphony-V des Herstellers erreichte 459.290,87 IOPS bei einer Antwortzeit von 0,32 Millisekunden. Dabei liegen die Kosten pro IOPS bei 0,08 US-Dollar. Das klingt nicht spektakulär, ist es aber, wenn man es ins Verhältnis setzt. Die Performance entspricht 65,7 Prozent der Leistung eines NetApp-Systems bei nur 2,9 Prozent der Kosten.

[...] Was das Datacore-Ergebnis allerdings wirklich interessant macht, ist die Tatsache, dass die Software nicht auf teurer Storage-Hardware lief, sondern auf dem günstigsten Lenovo-Server, den es derzeit gibt. [...] Die Gesamtkosten für diese Lösung gibt der Benchmark-Test mit genau 38.400,29 US-Dollar an, inklusive der Datacore-Lizenz. So ist das Preis-Leistungs-Verhältnis das Beste ist, das je in einem SPC-1-Benchmark-Test festgestellt wurde. Mit 0,08 US-Dollar pro IOPS ist die Datacore-Lenovo-Lösung viermal günstiger als der Zweitplatzierte mit 0,32 US-Dollar pro IOPS. Eine VNX 8000 von EMC beispielsweise bietet 0,41 US-Dollar pro IOPS.

[...] Wichtig zu erwähnen ist zudem, dass die Antwortzeit extrem niedrig ist. Mit 0,32 Millisekunden liegt Datacore beispielsweise weit vor dem All-Flash-Array ISE 820 G3 von X-IO, das eine Antwortzeit von 2,06 Millisekunden aufweist. Dabei muss man sich immer wieder vor Augen führen, dass hier ein „einfacher“ Server hochentwickelten, dedizierten, leistungsoptimierten Speicher weit hinter sich lässt. Den detaillierten Test finden Sie hier, eine Zusammenfassung hier.

Bei diesen Resultaten ist es kein Wunder, dass Datacore-CEO Georg Teixeira im Gespräch aus dem Lachen nicht mehr herauskommt. „Der Test zeigt deutlich, dass mit adaptiver und leistungsstarker Software ein hyper-konvergenter Server transaktionsreiche Anwendungen bedienen kann und hier teuren Storage obsolet macht. Das eröffnet Anwendern eine ganz andere Flexibilität, sowohl bei der Leistung als auch beim Budget.“

Neues Jahr, neue Spielregeln, neue Märkte

Die extrem guten Benchmark-Resultate bedeuten für den Hersteller einen echten Durchbruch, da dadurch nicht nur die Spielregeln für Storage-Anbieter verändert werden, sondern sich für Datacore neue Chancen und Märkte erschließen. Mit einem Schlag ist nicht mehr nur das Storage-Segment interessant, sondern auch die Serversparte. Hier plant das Unternehmen direkt mit Serverherstellern in Verhandlungen treten zu können, um Partnerschaften wie die mit Lenovo schließen zu können, mittels derer Hardware- und Software-Bundles vertrieben werden. Für den Anwender ist es sicher eine optimale Lösung, um das Beste aus seinen Multi-Core-Servern herauszuholen, Anwendungen simultan zu bedienen und zudem auf teure Storage-Hardware zu verzichten.

[...] Die Möglichkeiten scheinen endlos, denn egal ob hyper-converged, klassisches Storage, Storage Area Networks oder Cloud: Die Software ist nach wie vor agnostisch und kann mit jedem System „spielen“. Anwender, die beispielsweise Systeme haben, die weder SAP HANA, OpenStack oder VMware VVOLs unterstützen, können über die Datacore-Software diese Dienste nutzen. Wer seine transaktionsreichen Anwendungen über direkt angeschlossenen Storage bedienen will, kann nun statt dessen hyper-konvergente Lösungen oder Server in Kombination mit Datacore einsetzen. Dafür erhält der Nutzer gute Performance, umfassende Funktionalitäten sowie eine hohe Kosteneffizienz. Es könnte ein gutes Jahr für den Virtualisierungs-Spezialisten ins Haus stehen.

Ziel 2016: Application Adaptive Data Infrastructure

Für das Jahr 2016 hat sich das Unternehmen auch technologische Ziele gesteckt. Hauptaugenmerk liegt darauf, eine Application Adaptive Data Infrastructure zu entwickeln. Dabei sollen sich sämtliche Ressourcen (Server, SAN, Cloud) dynamisch nutzen und verwalten lassen.

Zum kompletten Artikel:

Freitag, 15. Januar 2016

speicherguide berichtet: DataCore düpiert Konkurrenten beim SPC-1-Benchmark

von Engelbert Hörmannsdorfer/ speicherguide.de

Viele IT-Unternehmen – Server- und Storage-Systemehersteller – reichen ihre Lösungen Storage Performance Council zum sogenannten SPC-1-Benchmark ein. Landet man weit vorne, wird darüber verständlicherweise sehr gerne berichtet. Das machte jetzt auch DataCore Software, aber trotzdem liegt der Fall hier etwas anders. Das Unternehmen reichte ihre brandneue »Parallel I/O«-Software, die erst vor zwei Monaten auf der »Cloud Expo Europe« in Frankfurt vorgestellt wurde, in Verbindung mit einem handelsüblichen Lenovo-»x3650 M5«-Server ein. Die Lösung hat einen Listenpreis (inklusive drei Jahre Support) von nur 38.400 US-Dollar – und trotzdem hängte man wesentlich teurere Systeme meilenweit ab.

Auswahl an bekannten Storage-Systemen, die Datacore beim SPC-1-Benchmark hinter sich lässt 
Der Benchmark umfasste OLTP- und lastenintensive Datenbankanwendungen, wobei das DataCore/Lenovo-System 459.290,87 SPC-1-IOPS generierte. Damit landete man bereits auf Platz neun der IOPS-Hitliste, was für einen New-Entry bereits mehr als beachtlich ist. Doch das sensationelle ist dabei das Preis-Leistungs-Verhältnis: Rechnet man die günstigen Gesamtkosten (38.400 US-Dollar) auf die IOPS um, ergeben sich gerade mal Kosten von 0,08 US-Dollar pro SPC-1-IOPS. Und in dieser Hitliste katapultierte sich DataCore damit an die Spitze. (Konkret wurden die Tests auf einem Lenovo-Server mit Intel-Xeon-E5-2600-v3-Mehrkernprozessoren mit SSD- und Disk-Ressourcen durchgeführt.)

»Parallel I/O« für die neue Rechenzentrums-Infrastruktur

Verständlich, dass wir kürzlich einen sichtlich entspannten und bestens gelaunten DataCore-CEO George Teixeira in München trafen, der uns die Hintergründe etwas erklärte:

[...] »Egal, welche Applikation über unserer Software läuft und wie viel IOPS sie braucht – wir weisen ihr die entsprechende I/O-Bandbreite zu«, erklärt Teixeira. »Mehrkern-Prozessoren in Kombination mit dem flexiblen Zuweisen von IOPS – das ist jetzt der Game-Changer.«

[...] Um die jetzigen SPC1-Benchmark-Ergebnisse besser einordnen zu können: Sie bedeuten eine Verbesserung von über 300 Prozent zum alten Rekord von 0,24 US-Dollar, gehalten von Infortrend »EonStor DS 3024B1«. Bei der Lenovo-Datacore-Lösung handelt es sich übrigens um ein hyperkonvergentes Komplettsystem. Lediglich DataCore und IBM haben bislang eine solche Hyper-converged-Lösung, die Applikationen und Storage zusammen in einem Komplettsystem enthält, dem SPC-1-Test unterzogen. Der »IBM Power 780«-Server verarbeitete dabei 780.081,02 SPC-1 IOPS für Gesamtkosten von 3.557.709 US-Dollar, was ein Ergebnis von 4,56 US-Dollar pro SPC-1-IOPS ergibt – noch mal zur Erinnerung: DataCore kommt nur auf 0,08 US-Dollar pro SPC-1-IOPS. Der Vergleich ist frappierend.

Datacore fordert jetzt Nutanix und Simplivity heraus

Teixeira wird deshalb richtig mutig: »Wir rufen andere Anbieter wie Nutanix oder SimpliVity dazu auf, ebenso SPC-1-Benchmarks zu veröffentlichen, um sie unseren Ergebnissen gegenüberzustellen. Kunden können dann die implizierten Kosten vergleichen.«




Donnerstag, 14. Januar 2016

Preis-Leistungs-Weltrekord mit DataCore Parallel I/O-Software



8 US-Cent pro I/O ist die neue Preis-Leistungs-Bestmarke für Enterprise-Storage und hyperkonvergente Systeme nach SPC-1-Standard

DataCore hat auf Basis des anerkannten SPC-1-Benchmarks des Storage Performance Councils einen neuen Preis-Leistungs-Weltrekord aufgestellt. Das Auditing ergab Kosten von 0,08 US-Dollar pro SPC-1 IOPS™ und damit eine neue Bestmarke in der SPC-1 Price-Performance™-Kategorie. Die Tests mit der DataCore Parallel I/O-Software wurden auf Lenovo x3650 M5-Servern und Intel® Xeon® E5-2600 v3-Mehrkernprozessoren mit SSD- und Disk-Ressourcen durchgeführt. Darüber hinaus wurden die besten jemals nach SPC-1 gemessenen Responsezeiten erzielt.

„Mit diesen Ergebnissen hat DataCore einen Meilenstein für die Parallel I/O-Leistungsfähigkeit und Hyperkonvergenz gesetzt, und wir werden weitere für Hochverfügbarkeitskonfigurationen in Mehrkernarchitekturen und eine zukunftsweisende I/O-Verarbeitung innerhalb und außerhalb von Servern folgen lassen. Wir haben erst begonnen, das volle Potenzial unserer I/O-Architektur zu demonstrieren“, sagt Ziya Aral, Chairman bei DataCore Software.

Tests auf hyperkonvergenten End-to-End-Systemen

Die Tests wurden auf einem hyperkonvergenten System durchgeführt, das sowohl die Anforderungen an Enterprise-Storage als auch der Prozessverarbeitung von Datenbanken und anderen Anwendungen auf einer Plattform erfüllt. Die Kosten von 0,08 US-Dollar pro SPC-1 IOPS™ beinhalten damit sowohl die Speicherkosten als auch die Kosten für die Serverplattform, die die Applikation trägt und den Workload generiert.

„Wir rufen andere Anbieter wie Nutanix oder SimpliVity dazu auf, ebenso SPC-1-Benchmarks zu veröffentlichen, um sie unseren Ergebnissen gegenüberzustellen. Kunden können dann die implizierten Kosten vergleichen”, sagt George Teixeira, CEO bei DataCore. „Es wurde viel darüber spekuliert, wie diese Systeme bei hohen I/O-Lasten durch geschäftskritische Unternehmensanwendungen funktionieren. Der offengelegte SPC-1-Prozess würde einen objektiven Vergleich vor einer Kaufentscheidung erlauben.“

Spitzenwerte für Storage- und Hyperkonvergenzsysteme

Für den Benchmark wurde ein hyperkonvergentes System mit Gesamtkosten von 38.400,29 US-Dollar für Hardware, Software und drei Jahre Support verwendet. OLTP- und lastenintensive Datenbankanwendungen generierten 459.290,87 SPC-1 IOPS™, was den Kosten von 0,08 US-Dollar pro SPC-1 IOPS™ entspricht. Dies bedeutet eine Verbesserung von über 300 Prozent zum alten Rekord von 0,24 US-Dollar von Infortrend EonStor DS 3024B, zu weniger als 25 Prozent der Kosten von Storage-Systemen wie EMC VNX 8000, NetApp EF560 All Flash Array, Dell Storage SC4020 oder HP 3PAR StoreServ 7400.

Lediglich DataCore und IBM haben die Applikationen und Storage zusammen in einem hyperkonvergenten Komplettsystem dem SPC-1-Test unterzogen Der IBM Power 780-Server verarbeitete dabei 780.081,02 SPC-1 IOPS™ für Gesamtkosten von 3.557.709,00 US-Dollar, was ein Ergebnis von 4,56 US-Dollar pro SPC-1 IOPS™ ergibt. Dies entspricht in etwa dem 91-Fachen des DataCore-Ergebnisses. 

DataCore™ Adaptive Parallel I/O nutzt Multi-Core CPUs

Grundlage der Ergebnisse ist die DataCore™ Adaptive Parallel I/O-Technologie, die in der Software-Defined Storage-Architektur von SANsymphony-V integriert ist. Sie ermöglicht die parallele I/O-Verarbeitung über mehrere CPU-Kerne, wie sie etwa in Lenovo x-Systemen verwendet werden. I/O-Latenzzeiten werden im Vergleich zu seriell verarbeitenden Lösungen erheblich reduziert. Weitere Informationen unter www.datacore.com/products/parallel-io

“Lenovo hat uns ursprünglich dazu motiviert, den SPC-1-Benchmark zu absolvieren, um unter Beweis zu stellen, dass wir die volle Leistungsfähigkeit ihrer Multi-Core-Server nutzen können, um damit diffusen Performance-Behauptungen im Hyperkonvergenz-Umfeld entgegenzutreten. Schnell wurde klar, dass wir mit Parallel I/O eine echte Rakete besitzen“, erklärt DataCore-CEO George Teixeira.

„Lenovo freut sich, mit DataCore zusammenzuarbeiten und das beste verfügbare Preis-Leistungs-Verhältnis im Speichermarkt anbieten zu können“, sagt Chris Frey, Vice President und General Manager bei Lenovo Nordamerika. „DataCores führende SPC-1-Resultate auf Lenovo System x demonstrieren die Leistungsfähigkeit, Innovationskraft und Zuverlässigkeit, die Lenovo seinen Kunden angesichts wachsender Speicheranforderungen bietet.“


Die SPC-1-getestete Konfiguration

Die getestete Konfiguration beinhaltet die DataCore SANsymphony-V Parallel I/O-Software auf Lenovo System x3650 M5 Multi-Core-Servern mit Intel Xeon E5-2600 v3-Prozessoren, 16 SSD- und acht HDD-Festplatten sowie Microsoft Windows Server-Betriebssystem. Ebenso unterstützt DataCore Microsoft Hyper-V, VMware ESXi, Linux KVM und andere Hypervisoren sowie nicht-virtualisierte Systeme.

Über das Storage Performance Council

Das Storage Performance Council (SPC) ist eine herstellerneutrale Organisation, die den ersten standardisierten Benchmark für Performance, Preis-Leistungs-Verhältnis und Stromverbrauch von Komponenten und Gesamtlösungen in der Speicherindustrie entwickelt hat. Weitere Informationen unter http://www.StoragePerformance.org.

Vollständiger SPC-1-Report: SPC Benchmark 1 Full Disclosure Report DataCore Software Corporation DataCore SANsymphony-V 10.0 


Donnerstag, 7. Januar 2016

Partnerkonferenz 2016: Den Wandel im Speichermarkt als Chance nutzen

DataCore lädt Fachhändler und Systemintegratoren zu seiner jährlichen Partnerkonferenz am 12. und 13. Januar 2016 in Frankfurt am Main ein. Der im deutschsprachigen Raum besonders erfolgreiche Anbieter von Software-Defined Storage und hyperkonvergenten Virtual SAN-Lösungen informiert zwei Tage über erfolgversprechende vetriebliche Ansätze im sich wandelnden Speichermarkt ebenso wie über technische Weiterentwicklungen und Neuerungen. Höhepunkte im Programm sind die Keynote von President und CEO George Teixeira sowie eine Weltneuheit im Bereich Parallel-I/O.

Die Distribution wird vertreten durch ADN, Arrow ECS, Avnet, Azlan/Tech Data und Bytec. Dazu lädt DataCore wichtige Allianz- und Kooperationspartner zur Veranstaltung mit Vortragsprogramm und Ausstellung: Zum diesjährigen Kickoff hat DataCore mit arcserve, Emulex, Fujitsu, HGST, Lenovo, N-Tec, QLogic, Quantum, SanDisk, Seagate und X-IO ein vielfältiges Sponsorenpaket geschnürt.

Neben CEO George Teixeira wird das DataCore-Team angeführt von Director Central Europe Stefan von Dreusche, Senior Marketing Manager Robert Thurnhofer und Christian Marczinke, der als VP Solution Architecture über eine weitreichende, technologische Weltneuheit informieren wird. Zusammen mit internationalen und nationalen DataCore-Vertretern aus Technik, Vertrieb und Marketing füllen sie drei parallel laufende Vortragsreihen und Diskussionsforen. Im Mittelpunkt stehen dabei aktuelle Trends und Herausforderungen im Bereich Hyperkonvergenz, Software-definierte Infrastrukturen und Infrastruktur-Virtualisierung.

„Plattformunabhängigkeit ist seit über 15 Jahren das Erfolgsgeheimnis von DataCore und seinen Partnern. Der Software-definierte Ansatz wird gerade jetzt in Zeiten des Anbieter- und Technologiewandels fast alternativlos, zum Garant für zukunftstaugliche Speicherinfrastrukturen und Investitionssicherheit“, sagt Robert Thurnhofer, Senior Marketing Manager Central Europe bei DataCore. „Auf unserer Konferenz wollen wir mit unseren Partnern diese Chancen diskutieren und ebenso von ihren Anforderungen lernen wie ihnen konkrete Werkzeuge für Marketing, Vertrieb und Technik mitgeben, um 2016 zu einem Erfolgsjahr zu machen.“

Weitere Informationen: 

http://www.konzept-pr.de/2016-01-08-datacore-partnerkonferenz.html



Freitag, 18. Dezember 2015

Kostenloses Update: DataCore macht mit PSP4 universelle Virtual Volumes verfügbar

VMware Virtual Volumes können mit nicht-zertifiziertem Storage eingesetzt werden

DataCore macht mit dem Product Service Pack 4 (PSP4) ein kostenloses Produktupdate verfügbar: Das Paket beinhaltet unter anderem DataCores universelle Virtual Volumes (VVol), die die Nutzung der VMware-spezifischen Administrationsschnittstelle mit nicht-zertifizierter Speicherhardware ermöglichen. Darüber hinaus verbessert DataCore das applikationskonsistente Desaster Recovery, erleichtert die Isolation defekter Festplatten und Ports und macht das Einspielen von Produkt-Updates sicherer.

VMware VVol ermöglicht die Einrichtung von virtuellen Laufwerken über die vSphere-Bedienoberfläche. Diese praktische Administrationshilfe wird derzeit jedoch nur von wenigen Speichergeräten unterstützt. Je nach Hersteller und Modell stehen VVols bei den Entwicklern bis Ende 2016 oder später auf den Roadmaps. Mit dem PSP4-Update macht DataCore die Technologie universell für die Software-Defined Storage-Plattform SANsymphony™-V sowie für das hyperkonvergente DataCore™ Virtual SAN verfügbar.

Über den DataCore Virtualisierungslayer können VVols mit beliebigen Speicherressourcen, etwa vorhandenen Disk-Speichern (von EMC, IBM, HDS, Dell, XIO, NetApp etc.) ebenso wie Flash Arrays (Pure Storage, Nimble etc.) oder Direct Attached Storage (DAS) ohne VMware-Zertifizierung genutzt werden. VMware-Administratoren stellen über vSphere die Virtual Volumes aus dem Speicherpool bereit und statten sie mit den gewünschten Servicequalitäten aus, ohne dass ein Storage-Administrator in Anspruch genommen werden muss.




Höhere Sicherheit für Betrieb und Wiederherstellung
Beim Restore virtualisierter Anwendungen, insbesondere bei I/O-intensiven Datenbanken, müssen sich alle Dateien zur gleichen Zeit in einem konsistenten Status befinden. Speicher-Administratoren haben jedoch keine Möglichkeit, ein „Crash-konsistentes“ Abbild zu gewährleisten. Mit Replikations-Checkpoints unterstützt DataCore jetzt die sichere Wiederherstellung durch zeitgleiche Zuweisung von Prüfpunkten für alle Datenbankdateien und Laufwerke. Verbesserte Produktivität und sichere Wiederherstellung sind die Folge.

Darüber hinaus optimiert DataCore die Betriebssicherheit und Performance seiner Plattformen. Warnmeldungen bei der Verschlechterung der Performance erleichtern die gezielte Isolation von gestörten Festplatten in einem Verbund, entsprechende Alerts bei I/O-Engpässen an einem Port gewährleisten eine konstante Aufrechterhaltung der Systemleistung. Erhöhte Sicherheit bietet zudem die automatisierte Übertragung von Support-Bundles durch den Einsatz eines Relay Servers beim Einspielen von Produkt-Updates über die Firewall.
Zur Pressemeldung

Donnerstag, 10. Dezember 2015

DataCore SANsymphony-V für SAP HANA® zertifiziert

DataCore hat die SAP HANA-Zertifizierung für  SANsymphony™-V erhalten. DataCores Speichervirtualisierungssoftware kann damit mit SAP-zertifizierten Enterprise Storage-Systemen für SAP HANA eingesetzt werden und liefert herstellerübergreifend die Performance für anspruchsvollste  Unternehmensanwendungen.

“SANsymphony-V beschleunigt mit seiner adaptiven Caching- und Parallel-I/O-Technologie die Storage-Performance, sodass Anwender alle Vorteile von Echtzeitanwendungen unter SAP HANA nutzen können“, sagt George Teixeira, President und CEO bei DataCore Software. 

„Die heutige Zertifizierung von SANsymphony-V für ebenso SAP-zertifizierte Enterprise Storage-Systeme gibt Anwendern mehr Sicherheit bei der Auswahl vorhandener und neuer Speicherressourcen. Mit dem erweiterten Spektrum können sie Datenspeicherinfrastrukturen durchgängig verwalten, skalieren und höchste Performance für Unternehmensanwendungen gewährleisten.“

Anwender profitieren beim Echtzeit-Computing auf der SAP HANA-Plattform mit SANsymphony-V von schnellerer Integration, geringerem Support-Aufwand und vereinfachter technischer Anpassung getesteter Speicherlösungen. Die DataCore-Virtualisierung ist zertifiziert für den Einsatz mit den ebenso SAP-zertifizierten Speicherlösungen von  Fujitsu, Huawei, IBM, Dell, NEC, Nimble Storage, Pure Storage, Fusion-io, Violin Memory, EMC, NetApp, HP und Hitachi, sofern SANsymphony-V auf einem separaten Rechner-Knoten installiert ist.  Unterstützt werden bis zu 16 SAP HANA-Knoten unter SUSE Linux Enterprise Server.

SAP HANA ist eine Plattform für die Entwicklung und Nutzung von Echtzeit-Applikationen und Echtzeit-Analyse. Sie verbindet Datenbank-, Datenverarbeitungs- und Anwendungsplattformen mithilfe der In-Memory-Technologie und bietet Bibliotheken für die Vorhersage, Planung, Prozessverarbeitung, räumliche Berechnungen und Business Analytics. Mit Funktionen wie der automatischen Textanalyse, 3-D-Verarbeitung und Datenvirtualisierung auf einer Architektur vereinfacht SAP HANA die Anwendungsentwicklung und Datenverarbeitung von Big Data. Die Software-definierte Speichervirtualisierungsplattform SANsymphony-V hilft Unternehmen dabei, die vollen Echtzeit-Funktionen für geschäftskritische Applikationen zu nutzen.






Dienstag, 1. Dezember 2015

Migration eines Rechenzentrums an den JadeWeserPort

DAUERHAFTE AUSFALLSICHERHEIT FÜR DIE HAFENVERWALTUNG
Migration des Rechenzentrums

Im Zuge der Inbetriebnahme des Jade Weser Port (JWP) wurde das komplette ­Rechenzentrum für die Hafenverwaltung und -vermarktung in die neue ­Verwaltungszentrale (Pacific One) migriert. Der Umzug gelang nicht nur als ­Punktlandung, es entstand auf Basis von Speichervirtualisierung auch eine Lösung für dauerhafte Ausfallsicherheit.


Bildquelle: Sven Böhme

Der „Jade Weser Port Wilhelmshaven“ ist Deutschlands einziger Tiefwasserhafen. Er wurde als Gemeinschaftsprojekt der Länder Niedersachsen und Bremen 2012 nach vierjähriger Bauzeit in Betrieb genommen. Das von Eurogate Container Terminal Wilhelmshaven betriebene 130 Hektar große Container-Terminal hat eine Kajenlänge von 1.725 Metern und eine Umschlagskapazität von 2,7 Mio. TEU per anno. Die für die Realisierung verantwortliche Projektgesellschaft Jade Weser Port Realisierungs GmbH & Co. KG hat die Implementierung einer umfangreichen und modernen IT-Infrastruktur in einem neuen Rechenzentrum auf dem Gelände umgesetzt.

Dabei stellt die Migration eines Rechenzentrums an sich bereits eine große planerische und logistische Herausforderung dar. Darüber hinaus bereiteten weitere Umstände Kopfzerbrechen: Noch am alten Standort griffen die VMware-ESX-Hosts direkt auf ein einzelnes Storage-Subsystem zu und konnten so keine ausreichende Hochverfügbarkeit bei einem Hardware-Fehler bieten. Mit Wachstum der virtuellen Umgebung erwies sich zudem der Storage als Flaschenhals für die Performance der Applikationen (Datenbanken, ERP-System etc.). Da zudem die Wartungsintervalle für die Server-Hardware bevorstanden, beschloss das IT-Team ein umfassendes Modernisierungsprojekt. Im Zuge dessen wurde das Oldenburger Systemhaus Brinova GmbH mit der Planung eines tragfähigen Konzeptes und der Durchführung beauftragt.

Durchgehend gesichert 
In Zusammenarbeit machten sich die IT-Teams an das Projekt, das eine intensive Planungsphase von rund zwölf Monaten parallel zum Rechenzentrumsbetrieb vereinnahmte. Dazu galt es zunächst die SAN-Landschaft am alten Standort in der Kutterstraße, rund vier Kilometer vom Hafen entfernt, zu vereinheitlichen und höchste Redundanzen zu schaffen. Erst anschließend sollte die eigentliche Migration in das Rechenzentrum auf dem Hafengelände erfolgen.

Die Aktualisierung der vier VMware-Hosts wurde mit ESXi 5.0 auf Proliant-DL380-Hardware von HP realisiert. Sie sind über Fibre Channel (FC) mit dem Storage verbunden, der jetzt ebenso redundant ausgelegt wurde. Die Wahl fiel hier auf zwei EMC-VNX-5100-Modelle, die durch ein proaktives Wartungssystem besonders nutzerfreundlich und flexibel konfigurierbar sind. Insgesamt stehen 15 Terabyte Kapazität zur Verfügung.

Die höchste Stufe der Verfügbarkeit gewährleistet Datacores SANsymphony-V10. Die Speicher-Software sorgt für die synchrone Spiegelung der Daten zwischen der angebundenen Hardware – unabhängig von Hersteller, Modell oder Technologie (Platte, SSD, Cloud), was bei zukünftigen Erweiterungen Flexibilität ermöglicht. Bei geplanter Downtime oder einem Defekt übernimmt die verbliebene Seite des Spiegels automatisch die komplette Funktion (transparenter Autofailover) und sorgt für eine ebenso automatische Resynchronisierung bei Wiederanlauf. Die Software bietet darüber hinaus weitere Storage-Services. So profitiert man beim Jade Weser Port von der Caching-Technologie, die die Performance der darunterliegenden Hardware weiter optimiert.

Für die Datensicherung hat die Datacore-Plattform eine Continuous-Data-Protection-Funktion an Bord. Diese sichert auf Block-Level ohne Einschränkung der Applikation jede Veränderung an den ausgewählten Systemen und ermöglicht so eine stufenlose Rücksicherung. Beim Hafen kommt die Technologie für eine 24-Stunden-Permanentsicherung der geschäftskritischen ERP-Systeme und des File-Servers zum Einsatz, ehe die herkömmliche tägliche Datensicherung erfolgt.

Durch den redundanten Aufbau mit transparentem Failover und lückenloser Datensicherung konnten nun der physische Umzug sowie die Datenmigration mit entsprechender Performance über die FC-Verbindung erfolgen. Dabei wurde eine Rechenzentrumsseite „Kutterstraße“ für kurze Zeit heruntergefahren, die Hardware deinstalliert, in das neue Rechenzentrum „Pacific One“ transportiert, installiert und über die Datacore-Technologie resynchronisiert. Derselbe Vorgang mit dem Ziel „Rechenzentrum II“ im Stellwerk vollendete den Umzug ohne spürbare Latenzen. Der finale Synchronisationsvorgang nahm wenige Minuten in Anspruch. Mit der Wiederherstellung der Redundanz in den beiden Rechenzentren wurde das Projekt erfolgreich abgeschlossen.

Durch die Speichervirtualisierung konnten die komplexen Aufgaben für die Migration ebenso umgesetzt werden wie die Hochverfügbarkeits- und Performance-Anforderungen. Am Hafen profitiert man von einem spürbaren Geschwindigkeitsschub dank Cache-Technologie, einer permanenten Sicherung der wichtigsten Systeme sowie von Hardware- und Herstellerunabhängigkeit bei zukünftiger Wahl von Server und Speichersystemen. „Die Speichervirtualisierung erhöht die Performance und schafft lückenlose Ausfallsicherheit für unsere geschäftskritischen Daten. Wir gewinnen mit der Speicher-Software zudem an Flexibilität in unserer IT-Infrastruktur, auch wirtschaftlich profitieren wir langfristig von niedrigeren Kosten“, fassen die IT-Verantwortlichen Heiko Folkers und Jens Rohlandt zusammen. Sie berichten, dass sich die Performance um das Zehnfache verbessert hat, während die speicherbezogenen Kosten um mehr als 50 Prozent gesenkt werden konnten.

Jade Weser Port (JWP)
Das Containerterminal in Wilhelmshaven ist seit 2012 als Tiefwasserhafen in Betrieb und wurde mit finanzieller Unterstützung der Länder Bremen und Niedersachsen gebaut. Das Containerterminal ist 130 ha groß, die Anlegezone 1.725 m lang. Die mögliche Umschlagkapazität beträgt 2,7 Mio. TEU pro Jahr.

Dies ist ein Artikel aus der Print-Ausgabe von IT-Director 11/2015


Freitag, 27. November 2015

IT-Director: SDS vereinfacht Storage-Management

von Redakteurin Kathrin Zieblo




ERFOLGREICHE SPEICHER-VIRTUALISIERUNG

SDS vereinfacht Storage-Management


Warum er Software-defined Storage für mehr als einen reinen Marketingzweck betrachtet, berichtet Stefan von Dreusche, Director Central Europe bei Datacore, im Interview.


IT-DIRECTOR: Herr von Dreusche, bislang gibt es keine einheitliche Definition von Software-defined Storage (SDS), was verstehen Sie unter diesem Begriff?
S. von Dreusche
: Software-defined Storage (SDS) ist das Konzept, die Intelligenz und Funktionalität einer Speicherarchitektur jenseits der Hardware anzusiedeln und auf eine übergeordnete Software-Ebene zu heben. Die zugrunde liegende Technologie ist die Speichervirtualisierung. Durch die logische Trennung von Software-Funktionalität und Speicher-Hardware erhalten Unternehmen Unabhängigkeit und Flexibilität, um Speicherarchitekturen effizienter zu gestalten und an ihre dynamischen Geschäftsziele anzupassen.
IT-DIRECTOR: Handelt es sich dabei um ein neues Paradigma in der Speicherindustrie oder um einen reinen Marketingzweck?
S. von Dreusche:
 Es gibt zwar momentan einen Hype, der auch zur Verwirrung der Anwender führt. Hardware-Anbieter wollen nach wie vor Hardware verkaufen, nur eben unter anderem Label. Neben diesem gegenwärtigen Marketing-Hype gibt es für eine tatsächlich Software-definierte Infrastruktur handfeste wirtschaftliche und technologische Argumente. SDS ist weit mehr als ein Hype, es ist ein Paradigmenwechsel: endlich wird auch Speicher-Hardware zum austauschbaren Standard, und kann effizienter und kostengünstiger genutzt werden.
IT-DIRECTOR: Wie verbreitet ist die SDS-Technologie bei deutschen Unternehmen? – Wie gut sind Kunden über diese Möglichkeit informiert, wie hoch ist die Nachfrage?
S. von Dreusche:
 Wir als Software-Anbieter für Speichervirtualisierung und SDS-Lösungen arbeiten insbesondere in Deutschland sehr erfolgreich und seit Jahren mit zweistelligen Wachstumsraten. Deutschland ist weltweit unser erfolgreichster Markt und bereits weit entwickelt. Zunehmend gewinnen wir dabei auch Großunternehmen, die wir verstärkt adressieren.
Auch Komplettlösungen und hyper-konvergente Lösungen, die wir mit Anbietern wie Fujitsu, Dell oder Huawei entwickeln, finden inzwischen großen Anklang. Die Rate der Lizenzerneuerungen bzw. –erweiterungen liegt bei über 90 Prozent. Die Kundenzufriedenheit ist also sehr hoch.
IT-DIRECTOR: Wie ausgereift sind aktuelle SDS-Lösungen?
S. von Dreusche:
 SDS-Technologien wie Datacore SANsymphony-V liegen heute in der 10. Produktgeneration vor, werden seit 16 Jahren im Produktivbetrieb eingesetzt und sind auf der Basis dieser praktischen Erfahrung stetig weiterentwickelt. Über 15.000 Kunden vertrauen heute auf die SDS-Plattform von Datacore.
IT-DIRECTOR: Storage-Anforderungen werden komplexer – die Datenmenge steigt etwa durch die Nutzung mobiler Endgeräte – welche Antwort bietet SDS darauf?
S. von Dreusche:
 Die Storage-Anforderungen steigen insbesondere durch die Virtualisierung von Server und Desktop und die einher gehende Zentralisierung. SDS bringt Hochverfügbarkeit, Flexibilität für Erweiterung nach Bedarf und eine effiziente Nutzung der Ressourcen. So können Flash-, Platten- und Cloud-Ressourcen einfach integriert und durch Auto-Tiering optimal genutzt werden.
[...]
IT-DIRECTOR: Ab welcher Größenordnung und welchem Unternehmensumfeld empfehlen Sie den Einsatz einer SDS-Lösung?
S. von Dreusche: Software-defined Storage stellt die Umsetzung eines flexiblen Unified-Storage-Konzeptes dar, das sich für kleine und mittelständische ebenso wie für große Unternehmen eignet. Grundsätzlich ist unsere Software-Lösung auch bei kleinen Unternehmen etwa ab 6 Terabyte im Einsatz, nach oben skalieren wir in den Petabyte-Bereich von Großunternehmen.
IT-DIRECTOR: Wie wird sich der Bedarf nach Speicherlösungen generell in den kommenden Jahren entwickeln? 
S. von Dreusche:
 Es findet eine große Standardisierung/Commodisierung der Hardware statt. Davon profitieren die Unternehmen, die virtuelle Rechenzentren schaffen und dabei auch Speicher virtualisieren. Das wird im Bereich der klassischen SAN-Architekturen voranschreiten, aber auch das serverseitige SAN, das Virtual SAN, wird sich weiter entwickeln. Wir verbinden beides mit Wachstumspfaden in beide Richtungen.
Derzeit ist enorme Bewegung im Markt, die einen Teil der Anwender verunsichert. Etablierte Hersteller gehen, neue Hersteller und Systeme tauchen auf. Eine SDS-Plattform wie Datacore SANsymphony-V ist eine Antwort auf diese Marktverunsicherung, denn sie stellt ein Höchstmaß an Investitionssicherheit her. SDS sorgt dafür, dass all diese Systeme integriert oder bei Bedarf auch problemlos wieder ersetzt werden können.

Donnerstag, 26. November 2015

storageconsortium.de: Mögliche I/O-Probleme beim Betrieb virtueller Maschinen vermeiden

Submitted by Storage Consortium - Technisches & wirtschaftliches Wissen für IT Organisationen und Unternehmen

Neue DataCore Parallel I/O-Software, VVOL-Support und Installationsassistent für hyperkonvergente Systeme vorgestellt…
Zum Hintergrund: Bedingt durch den Leistungszuwachs von (x86) n-core-CPUs und dem raschen Anstieg von virtuellen Maschinen (VMs) rücken die Themen "Konvergenz" und "I/O-Management" stärker in den Fokus von Anwendern und Anbietern. VM-Storage-Performanceoptimierung jedenfalls ist bei schnell wachsenden und hochgradig virtualisierten Umgebungen meist ein Thema (Stichworte: I/O-Blender, noisy neighbour...). Read- und Write-Caching auf verschiedenen Ebenen (Array, Server, Drive) sind I/O-seitig wichtige Stellschrauben, um die I/O-wait-time zu begrenzen, aber sie sind je nach Umgebung und Verfahren aufwendig (Zeit / Know-how) und auf Grund der wachsenden Komplexität nicht immer pro-aktiv, da gering automatisiert.
[...]
  • Die Neuentwicklung soll laut Anbieter die Performance in virtualisierten Systemen mit Mehrkern-Prozessoren vervielfachen und steigert damit Konsolidierungs-, Produktivitäts- und Einsparpotenziale.
  • Ferner stellte DataCore einen Installationsassistenten für hyper-konvergente Systeme mit DataCore™ Virtual SAN und vSphere vor und erweitert SANsymphony™–V um universellen Virtual Volumes (VVOL)–Support für Speicher, die VMware's vSphere–Schnittstelle nicht generisch unterstützen.
Zum kompletten Artikel auf  www.storageconsortium.de 

Mittwoch, 25. November 2015

DataCore PSP4-Update für SANsymphony-V10 - Stefan von Dreusche

DataCore kündigt für seine Storage-Management-Plattform "SANsymphony-V10" das Update PSP4 an. Stefan von Dreusche, Director Central Europe bei DataCore, erklärt speicherguide.de Redakteur Engelbert Hörmannsdorfer die neuen Funktionen von PSP4.



Dienstag, 17. November 2015

DataCore auf dem Fujitsu Forum 2015

Kundenorientierte Weiterentwicklungen der gemeinsamen Speicherlösungen von DataCore und Fujitsu

Auch in diesem Jahr präsentiert sich DataCore, Anbieter von Software-Defined Storage und hyperkonvergenten Virtual SAN-Lösungen, auf dem Fujitsu Forum (18./19. November 2015, Stand B.34). Besucher erhalten einen Ausblick auf die gemeinsam entwickelte Storage Virtualization Appliance (SVA) der zweiten Generation sowie eine neue Hyper-Converged Appliance (HCA), die Fujitsu Hardware mit der DataCore™ Virtual SAN-Software zu einer hyperkonvergenten Komplettlösung kombiniert. Darüber hinaus informiert DataCore über die Zertifizierung von SANsymphony-V für SAP HANA auf Fujitsu ETERNUS-Speicher.

„Unsere Partnerschaft mit DataCore bietet der wachsenden Zahl gemeinsamer Kunden große Vorteile. Komplettlösungen wie unsere Storage Virtualization Appliance (SVA) oder die Hyper-Converged Appliance (HCA) kombinieren die führenden Hardware-Plattformen von Fujitsu mit der innovativen Software-Defined Storage-  und Virtual  SAN-Software von DataCore und  helfen Anwendern, ihre geschäftskritischen Enterprise-Anwendungen einfach und effizient zu betreiben. Die erfolgreiche Zertifizierung bestätigt DataCores SAP HANA-Unterstützung auf Fujitsu ETERNUS Storage, der durch zusätzliche Software-Defined-Leistungsmerkmale, Performance-Beschleunigung und Hochverfügbarkeitsoptionen optimal ergänzt wird“, sagt Jörg Brünig, Senior Director Channel Managed Accounts bei Fujitsu.

Im Rahmen der Partnerschaft zwischen Fujitsu und DataCore bieten die Hersteller mit der SVA (Storage Virtualization Appliance) eine Serie von getesteten, schlüsselfertigen Appliances für die SAN-Virtualisierung mit „Call Home“-Service und effizientem Support aus einer Hand. In Ergänzung zu den bereits etablierten Varianten wird in Kürze die SVA „vNext“ vorgestellt. Sie kombiniert Fujitsus neueste PRIMERGY RX2560 M1-Servergeneration mit DataCores jüngstem Produkt-Update SANsymphony-V10 PSP4 und ist damit noch leistungsstärker im Einsatz.

Der steigenden Nachfrage nach hyperkonvergenten Systemen begegnen die beiden marktführenden Unternehmen mit der Neuentwicklung einer gemeinsamen Hyper Converged Appliance (HCA). Die Fujitsu DataCore HCA ist eine vorkonfigurierte „Ready to Run“-Appliance mit integrierter Speicherkapazität und der DataCore™ Virtual SAN-Software für Datenmanagement, Hochverfügbarkeit und optimale Performance. Die HCA ist für kleine und mittlere Unternehmen konzipiert und eignet sich als kosteneffiziente Komplettlösung für Hyper-V- und VDI-Workloads, File- und Datenbank-Services sowie als iSCSI-Speicher für externe Applikationen. Beide neuen Appliance-Lösungen sollen bis Ende des Jahres verfügbar sein.

 SANsymphony-V zertifiziert für SAP HANA auf Fujitsu ETERNUS-Speicher
SAP hat DataCores SANsymphony-V10 als erste rein Software-basierte Speichervirtualisierung für SAP HANA zertifiziert. DataCore erfüllt damit alle Anforderungen an anspruchvollste Echtzeit-Applikationen in Rechenzentren und kann für bis zu 768 aktive SAP HANA-Knoten hochverfügbaren, performanten Speicher liefern. Dabei kann SANsymphony-V mit jeder zertifizierten Speicherhardware eingesetzt werden. In den Tests im SAP Integration and Certification Center (SAP ICC) wurde die DataCore-Software zusammen mit Fujitsu ETERNUS DX-Systemen erfolgreich getestet. Durch den Software-definierten, herstellerunabhängigen Ansatz können SAP HANA-Anwender nun auch bestehende Speicher-Infrastrukturen um die Fujitsu/DataCore-Kombination erweitern, um im SAP HANA-Umfeld ein optimales Preis-Leistungs-Verhältnis mit modernster Hard- und Softwaretechnologie zu erzielen.

„Die intensive Zusammenarbeit zwischen DataCore und Fujitsu bringt führende Technologien zusammen, sodass unsere gemeinsamen Kunden getestete, vorkonfigurierte und einfach zu integrierende Lösungen mit absolut zuverlässigem Support aus einer Hand erhalten. Die SAP HANA-Zertifizierung für SANsymphony-V bietet nun insbesondere Fujitsu-Partnern und Fachhändlern die Möglichkeit, SAP HANA-Anwender mit effektiven Storage-Lösungen zu versorgen, unabhängig davon, welcher Speicher bislang dort eingesetzt wird“, sagt Stefan von Dreusche, Director Central Europe bei DataCore.

DataCores Adaptive Parallel I/O-Software
An Stand B.34 können sich Fachbesucher zudem einen Einblick in die neuartige DataCore™ Adaptive Parallel I/O Software verschaffen. Die Technologie ermöglicht erstmals eine adaptive, parallele I/O-Verarbeitung in Mehrkernprozessoren. Vor allem lastenintensive Datenverarbeitungsprozesse bei OLTP-, Echtzeitanalyse-, Business Intelligence- bzw. Data Warehouse-Systemen sowie  SQL-, SAP- und Oracle-Datenbanken profitieren von einer Performance-Vervielfachung. Gleichzeitig können virtuelle Maschinen auf hyper-konvergenten Systemen dichter gepackt und damit Einsparpotenziale auf bislang unerreichtem Niveau erzielt werden.

Das Fujitsu Forum 2015, die größte jährliche Veranstaltung des Unternehmens in Europa, findet vom 18. bis 19. November im International Congress Center München (ICM) statt. Als Technologiepartner und Sponsor stellt DataCore an Stand B.34 aus.



Freitag, 13. November 2015

Das bringt Parallel-IO:Stefan von Dreusche im Video-Interview mit speicherguide

speicherguide.de berichtet von der Cloud Expo Europe 2015:

Datacore steigert Server-Performance mit Parallel-I/O-Software

Gestern ging die »Cloud Expo Europe« in Frankfurt zu Ende. Eines der Highlights ist eine von DataCore Software angekündigte neuartige Parallel-I/O-Technologie, die die Performance in virtualisierten und hyperkonvergenten Systemen vervielfachen soll. Die Technologie ermöglicht erstmals eine adaptive, parallele I/O-Verarbeitung in Mehrkernprozessoren. Vor allem lastenintensive Datenverarbeitungsprozesse bei OLTP-, Echtzeitanalyse-, Business-Intelligence- bzw. Data Warehouse-Systemen sowie SQL-, SAP- und Oracle-Datenbanken sollen von einer Performance-Vervielfachung profitieren. [...]

Nur noch zwei statt zehn Server nötig mit Parallel-I/O-Technologie von Datacore
Gleichzeitig sollen virtuelle Maschinen (VMs) auf hyperkonvergenten Systemen dichter gepackt und damit »Einsparpotenziale auf bislang unerreichtem Niveau« erzielt werden. So könnten aufgrund der besseren Auslastung der Cores typischerweise zwei Server die gleiche Arbeit verrichten wie vorher zehn Server. »Das Einsparpotenzial ist enorm«, erläutert von Dreusche. Zum kompletten Artikel hier klicken.