Freitag, 18. Dezember 2015

Kostenloses Update: DataCore macht mit PSP4 universelle Virtual Volumes verfügbar

VMware Virtual Volumes können mit nicht-zertifiziertem Storage eingesetzt werden

DataCore macht mit dem Product Service Pack 4 (PSP4) ein kostenloses Produktupdate verfügbar: Das Paket beinhaltet unter anderem DataCores universelle Virtual Volumes (VVol), die die Nutzung der VMware-spezifischen Administrationsschnittstelle mit nicht-zertifizierter Speicherhardware ermöglichen. Darüber hinaus verbessert DataCore das applikationskonsistente Desaster Recovery, erleichtert die Isolation defekter Festplatten und Ports und macht das Einspielen von Produkt-Updates sicherer.

VMware VVol ermöglicht die Einrichtung von virtuellen Laufwerken über die vSphere-Bedienoberfläche. Diese praktische Administrationshilfe wird derzeit jedoch nur von wenigen Speichergeräten unterstützt. Je nach Hersteller und Modell stehen VVols bei den Entwicklern bis Ende 2016 oder später auf den Roadmaps. Mit dem PSP4-Update macht DataCore die Technologie universell für die Software-Defined Storage-Plattform SANsymphony™-V sowie für das hyperkonvergente DataCore™ Virtual SAN verfügbar.

Über den DataCore Virtualisierungslayer können VVols mit beliebigen Speicherressourcen, etwa vorhandenen Disk-Speichern (von EMC, IBM, HDS, Dell, XIO, NetApp etc.) ebenso wie Flash Arrays (Pure Storage, Nimble etc.) oder Direct Attached Storage (DAS) ohne VMware-Zertifizierung genutzt werden. VMware-Administratoren stellen über vSphere die Virtual Volumes aus dem Speicherpool bereit und statten sie mit den gewünschten Servicequalitäten aus, ohne dass ein Storage-Administrator in Anspruch genommen werden muss.




Höhere Sicherheit für Betrieb und Wiederherstellung
Beim Restore virtualisierter Anwendungen, insbesondere bei I/O-intensiven Datenbanken, müssen sich alle Dateien zur gleichen Zeit in einem konsistenten Status befinden. Speicher-Administratoren haben jedoch keine Möglichkeit, ein „Crash-konsistentes“ Abbild zu gewährleisten. Mit Replikations-Checkpoints unterstützt DataCore jetzt die sichere Wiederherstellung durch zeitgleiche Zuweisung von Prüfpunkten für alle Datenbankdateien und Laufwerke. Verbesserte Produktivität und sichere Wiederherstellung sind die Folge.

Darüber hinaus optimiert DataCore die Betriebssicherheit und Performance seiner Plattformen. Warnmeldungen bei der Verschlechterung der Performance erleichtern die gezielte Isolation von gestörten Festplatten in einem Verbund, entsprechende Alerts bei I/O-Engpässen an einem Port gewährleisten eine konstante Aufrechterhaltung der Systemleistung. Erhöhte Sicherheit bietet zudem die automatisierte Übertragung von Support-Bundles durch den Einsatz eines Relay Servers beim Einspielen von Produkt-Updates über die Firewall.
Zur Pressemeldung

Donnerstag, 10. Dezember 2015

DataCore SANsymphony-V für SAP HANA® zertifiziert

DataCore hat die SAP HANA-Zertifizierung für  SANsymphony™-V erhalten. DataCores Speichervirtualisierungssoftware kann damit mit SAP-zertifizierten Enterprise Storage-Systemen für SAP HANA eingesetzt werden und liefert herstellerübergreifend die Performance für anspruchsvollste  Unternehmensanwendungen.

“SANsymphony-V beschleunigt mit seiner adaptiven Caching- und Parallel-I/O-Technologie die Storage-Performance, sodass Anwender alle Vorteile von Echtzeitanwendungen unter SAP HANA nutzen können“, sagt George Teixeira, President und CEO bei DataCore Software. 

„Die heutige Zertifizierung von SANsymphony-V für ebenso SAP-zertifizierte Enterprise Storage-Systeme gibt Anwendern mehr Sicherheit bei der Auswahl vorhandener und neuer Speicherressourcen. Mit dem erweiterten Spektrum können sie Datenspeicherinfrastrukturen durchgängig verwalten, skalieren und höchste Performance für Unternehmensanwendungen gewährleisten.“

Anwender profitieren beim Echtzeit-Computing auf der SAP HANA-Plattform mit SANsymphony-V von schnellerer Integration, geringerem Support-Aufwand und vereinfachter technischer Anpassung getesteter Speicherlösungen. Die DataCore-Virtualisierung ist zertifiziert für den Einsatz mit den ebenso SAP-zertifizierten Speicherlösungen von  Fujitsu, Huawei, IBM, Dell, NEC, Nimble Storage, Pure Storage, Fusion-io, Violin Memory, EMC, NetApp, HP und Hitachi, sofern SANsymphony-V auf einem separaten Rechner-Knoten installiert ist.  Unterstützt werden bis zu 16 SAP HANA-Knoten unter SUSE Linux Enterprise Server.

SAP HANA ist eine Plattform für die Entwicklung und Nutzung von Echtzeit-Applikationen und Echtzeit-Analyse. Sie verbindet Datenbank-, Datenverarbeitungs- und Anwendungsplattformen mithilfe der In-Memory-Technologie und bietet Bibliotheken für die Vorhersage, Planung, Prozessverarbeitung, räumliche Berechnungen und Business Analytics. Mit Funktionen wie der automatischen Textanalyse, 3-D-Verarbeitung und Datenvirtualisierung auf einer Architektur vereinfacht SAP HANA die Anwendungsentwicklung und Datenverarbeitung von Big Data. Die Software-definierte Speichervirtualisierungsplattform SANsymphony-V hilft Unternehmen dabei, die vollen Echtzeit-Funktionen für geschäftskritische Applikationen zu nutzen.






Dienstag, 1. Dezember 2015

Migration eines Rechenzentrums an den JadeWeserPort

DAUERHAFTE AUSFALLSICHERHEIT FÜR DIE HAFENVERWALTUNG
Migration des Rechenzentrums

Im Zuge der Inbetriebnahme des Jade Weser Port (JWP) wurde das komplette ­Rechenzentrum für die Hafenverwaltung und -vermarktung in die neue ­Verwaltungszentrale (Pacific One) migriert. Der Umzug gelang nicht nur als ­Punktlandung, es entstand auf Basis von Speichervirtualisierung auch eine Lösung für dauerhafte Ausfallsicherheit.


Bildquelle: Sven Böhme

Der „Jade Weser Port Wilhelmshaven“ ist Deutschlands einziger Tiefwasserhafen. Er wurde als Gemeinschaftsprojekt der Länder Niedersachsen und Bremen 2012 nach vierjähriger Bauzeit in Betrieb genommen. Das von Eurogate Container Terminal Wilhelmshaven betriebene 130 Hektar große Container-Terminal hat eine Kajenlänge von 1.725 Metern und eine Umschlagskapazität von 2,7 Mio. TEU per anno. Die für die Realisierung verantwortliche Projektgesellschaft Jade Weser Port Realisierungs GmbH & Co. KG hat die Implementierung einer umfangreichen und modernen IT-Infrastruktur in einem neuen Rechenzentrum auf dem Gelände umgesetzt.

Dabei stellt die Migration eines Rechenzentrums an sich bereits eine große planerische und logistische Herausforderung dar. Darüber hinaus bereiteten weitere Umstände Kopfzerbrechen: Noch am alten Standort griffen die VMware-ESX-Hosts direkt auf ein einzelnes Storage-Subsystem zu und konnten so keine ausreichende Hochverfügbarkeit bei einem Hardware-Fehler bieten. Mit Wachstum der virtuellen Umgebung erwies sich zudem der Storage als Flaschenhals für die Performance der Applikationen (Datenbanken, ERP-System etc.). Da zudem die Wartungsintervalle für die Server-Hardware bevorstanden, beschloss das IT-Team ein umfassendes Modernisierungsprojekt. Im Zuge dessen wurde das Oldenburger Systemhaus Brinova GmbH mit der Planung eines tragfähigen Konzeptes und der Durchführung beauftragt.

Durchgehend gesichert 
In Zusammenarbeit machten sich die IT-Teams an das Projekt, das eine intensive Planungsphase von rund zwölf Monaten parallel zum Rechenzentrumsbetrieb vereinnahmte. Dazu galt es zunächst die SAN-Landschaft am alten Standort in der Kutterstraße, rund vier Kilometer vom Hafen entfernt, zu vereinheitlichen und höchste Redundanzen zu schaffen. Erst anschließend sollte die eigentliche Migration in das Rechenzentrum auf dem Hafengelände erfolgen.

Die Aktualisierung der vier VMware-Hosts wurde mit ESXi 5.0 auf Proliant-DL380-Hardware von HP realisiert. Sie sind über Fibre Channel (FC) mit dem Storage verbunden, der jetzt ebenso redundant ausgelegt wurde. Die Wahl fiel hier auf zwei EMC-VNX-5100-Modelle, die durch ein proaktives Wartungssystem besonders nutzerfreundlich und flexibel konfigurierbar sind. Insgesamt stehen 15 Terabyte Kapazität zur Verfügung.

Die höchste Stufe der Verfügbarkeit gewährleistet Datacores SANsymphony-V10. Die Speicher-Software sorgt für die synchrone Spiegelung der Daten zwischen der angebundenen Hardware – unabhängig von Hersteller, Modell oder Technologie (Platte, SSD, Cloud), was bei zukünftigen Erweiterungen Flexibilität ermöglicht. Bei geplanter Downtime oder einem Defekt übernimmt die verbliebene Seite des Spiegels automatisch die komplette Funktion (transparenter Autofailover) und sorgt für eine ebenso automatische Resynchronisierung bei Wiederanlauf. Die Software bietet darüber hinaus weitere Storage-Services. So profitiert man beim Jade Weser Port von der Caching-Technologie, die die Performance der darunterliegenden Hardware weiter optimiert.

Für die Datensicherung hat die Datacore-Plattform eine Continuous-Data-Protection-Funktion an Bord. Diese sichert auf Block-Level ohne Einschränkung der Applikation jede Veränderung an den ausgewählten Systemen und ermöglicht so eine stufenlose Rücksicherung. Beim Hafen kommt die Technologie für eine 24-Stunden-Permanentsicherung der geschäftskritischen ERP-Systeme und des File-Servers zum Einsatz, ehe die herkömmliche tägliche Datensicherung erfolgt.

Durch den redundanten Aufbau mit transparentem Failover und lückenloser Datensicherung konnten nun der physische Umzug sowie die Datenmigration mit entsprechender Performance über die FC-Verbindung erfolgen. Dabei wurde eine Rechenzentrumsseite „Kutterstraße“ für kurze Zeit heruntergefahren, die Hardware deinstalliert, in das neue Rechenzentrum „Pacific One“ transportiert, installiert und über die Datacore-Technologie resynchronisiert. Derselbe Vorgang mit dem Ziel „Rechenzentrum II“ im Stellwerk vollendete den Umzug ohne spürbare Latenzen. Der finale Synchronisationsvorgang nahm wenige Minuten in Anspruch. Mit der Wiederherstellung der Redundanz in den beiden Rechenzentren wurde das Projekt erfolgreich abgeschlossen.

Durch die Speichervirtualisierung konnten die komplexen Aufgaben für die Migration ebenso umgesetzt werden wie die Hochverfügbarkeits- und Performance-Anforderungen. Am Hafen profitiert man von einem spürbaren Geschwindigkeitsschub dank Cache-Technologie, einer permanenten Sicherung der wichtigsten Systeme sowie von Hardware- und Herstellerunabhängigkeit bei zukünftiger Wahl von Server und Speichersystemen. „Die Speichervirtualisierung erhöht die Performance und schafft lückenlose Ausfallsicherheit für unsere geschäftskritischen Daten. Wir gewinnen mit der Speicher-Software zudem an Flexibilität in unserer IT-Infrastruktur, auch wirtschaftlich profitieren wir langfristig von niedrigeren Kosten“, fassen die IT-Verantwortlichen Heiko Folkers und Jens Rohlandt zusammen. Sie berichten, dass sich die Performance um das Zehnfache verbessert hat, während die speicherbezogenen Kosten um mehr als 50 Prozent gesenkt werden konnten.

Jade Weser Port (JWP)
Das Containerterminal in Wilhelmshaven ist seit 2012 als Tiefwasserhafen in Betrieb und wurde mit finanzieller Unterstützung der Länder Bremen und Niedersachsen gebaut. Das Containerterminal ist 130 ha groß, die Anlegezone 1.725 m lang. Die mögliche Umschlagkapazität beträgt 2,7 Mio. TEU pro Jahr.

Dies ist ein Artikel aus der Print-Ausgabe von IT-Director 11/2015


Freitag, 27. November 2015

IT-Director: SDS vereinfacht Storage-Management

von Redakteurin Kathrin Zieblo




ERFOLGREICHE SPEICHER-VIRTUALISIERUNG

SDS vereinfacht Storage-Management


Warum er Software-defined Storage für mehr als einen reinen Marketingzweck betrachtet, berichtet Stefan von Dreusche, Director Central Europe bei Datacore, im Interview.


IT-DIRECTOR: Herr von Dreusche, bislang gibt es keine einheitliche Definition von Software-defined Storage (SDS), was verstehen Sie unter diesem Begriff?
S. von Dreusche
: Software-defined Storage (SDS) ist das Konzept, die Intelligenz und Funktionalität einer Speicherarchitektur jenseits der Hardware anzusiedeln und auf eine übergeordnete Software-Ebene zu heben. Die zugrunde liegende Technologie ist die Speichervirtualisierung. Durch die logische Trennung von Software-Funktionalität und Speicher-Hardware erhalten Unternehmen Unabhängigkeit und Flexibilität, um Speicherarchitekturen effizienter zu gestalten und an ihre dynamischen Geschäftsziele anzupassen.
IT-DIRECTOR: Handelt es sich dabei um ein neues Paradigma in der Speicherindustrie oder um einen reinen Marketingzweck?
S. von Dreusche:
 Es gibt zwar momentan einen Hype, der auch zur Verwirrung der Anwender führt. Hardware-Anbieter wollen nach wie vor Hardware verkaufen, nur eben unter anderem Label. Neben diesem gegenwärtigen Marketing-Hype gibt es für eine tatsächlich Software-definierte Infrastruktur handfeste wirtschaftliche und technologische Argumente. SDS ist weit mehr als ein Hype, es ist ein Paradigmenwechsel: endlich wird auch Speicher-Hardware zum austauschbaren Standard, und kann effizienter und kostengünstiger genutzt werden.
IT-DIRECTOR: Wie verbreitet ist die SDS-Technologie bei deutschen Unternehmen? – Wie gut sind Kunden über diese Möglichkeit informiert, wie hoch ist die Nachfrage?
S. von Dreusche:
 Wir als Software-Anbieter für Speichervirtualisierung und SDS-Lösungen arbeiten insbesondere in Deutschland sehr erfolgreich und seit Jahren mit zweistelligen Wachstumsraten. Deutschland ist weltweit unser erfolgreichster Markt und bereits weit entwickelt. Zunehmend gewinnen wir dabei auch Großunternehmen, die wir verstärkt adressieren.
Auch Komplettlösungen und hyper-konvergente Lösungen, die wir mit Anbietern wie Fujitsu, Dell oder Huawei entwickeln, finden inzwischen großen Anklang. Die Rate der Lizenzerneuerungen bzw. –erweiterungen liegt bei über 90 Prozent. Die Kundenzufriedenheit ist also sehr hoch.
IT-DIRECTOR: Wie ausgereift sind aktuelle SDS-Lösungen?
S. von Dreusche:
 SDS-Technologien wie Datacore SANsymphony-V liegen heute in der 10. Produktgeneration vor, werden seit 16 Jahren im Produktivbetrieb eingesetzt und sind auf der Basis dieser praktischen Erfahrung stetig weiterentwickelt. Über 15.000 Kunden vertrauen heute auf die SDS-Plattform von Datacore.
IT-DIRECTOR: Storage-Anforderungen werden komplexer – die Datenmenge steigt etwa durch die Nutzung mobiler Endgeräte – welche Antwort bietet SDS darauf?
S. von Dreusche:
 Die Storage-Anforderungen steigen insbesondere durch die Virtualisierung von Server und Desktop und die einher gehende Zentralisierung. SDS bringt Hochverfügbarkeit, Flexibilität für Erweiterung nach Bedarf und eine effiziente Nutzung der Ressourcen. So können Flash-, Platten- und Cloud-Ressourcen einfach integriert und durch Auto-Tiering optimal genutzt werden.
[...]
IT-DIRECTOR: Ab welcher Größenordnung und welchem Unternehmensumfeld empfehlen Sie den Einsatz einer SDS-Lösung?
S. von Dreusche: Software-defined Storage stellt die Umsetzung eines flexiblen Unified-Storage-Konzeptes dar, das sich für kleine und mittelständische ebenso wie für große Unternehmen eignet. Grundsätzlich ist unsere Software-Lösung auch bei kleinen Unternehmen etwa ab 6 Terabyte im Einsatz, nach oben skalieren wir in den Petabyte-Bereich von Großunternehmen.
IT-DIRECTOR: Wie wird sich der Bedarf nach Speicherlösungen generell in den kommenden Jahren entwickeln? 
S. von Dreusche:
 Es findet eine große Standardisierung/Commodisierung der Hardware statt. Davon profitieren die Unternehmen, die virtuelle Rechenzentren schaffen und dabei auch Speicher virtualisieren. Das wird im Bereich der klassischen SAN-Architekturen voranschreiten, aber auch das serverseitige SAN, das Virtual SAN, wird sich weiter entwickeln. Wir verbinden beides mit Wachstumspfaden in beide Richtungen.
Derzeit ist enorme Bewegung im Markt, die einen Teil der Anwender verunsichert. Etablierte Hersteller gehen, neue Hersteller und Systeme tauchen auf. Eine SDS-Plattform wie Datacore SANsymphony-V ist eine Antwort auf diese Marktverunsicherung, denn sie stellt ein Höchstmaß an Investitionssicherheit her. SDS sorgt dafür, dass all diese Systeme integriert oder bei Bedarf auch problemlos wieder ersetzt werden können.

Donnerstag, 26. November 2015

storageconsortium.de: Mögliche I/O-Probleme beim Betrieb virtueller Maschinen vermeiden

Submitted by Storage Consortium - Technisches & wirtschaftliches Wissen für IT Organisationen und Unternehmen

Neue DataCore Parallel I/O-Software, VVOL-Support und Installationsassistent für hyperkonvergente Systeme vorgestellt…
Zum Hintergrund: Bedingt durch den Leistungszuwachs von (x86) n-core-CPUs und dem raschen Anstieg von virtuellen Maschinen (VMs) rücken die Themen "Konvergenz" und "I/O-Management" stärker in den Fokus von Anwendern und Anbietern. VM-Storage-Performanceoptimierung jedenfalls ist bei schnell wachsenden und hochgradig virtualisierten Umgebungen meist ein Thema (Stichworte: I/O-Blender, noisy neighbour...). Read- und Write-Caching auf verschiedenen Ebenen (Array, Server, Drive) sind I/O-seitig wichtige Stellschrauben, um die I/O-wait-time zu begrenzen, aber sie sind je nach Umgebung und Verfahren aufwendig (Zeit / Know-how) und auf Grund der wachsenden Komplexität nicht immer pro-aktiv, da gering automatisiert.
[...]
  • Die Neuentwicklung soll laut Anbieter die Performance in virtualisierten Systemen mit Mehrkern-Prozessoren vervielfachen und steigert damit Konsolidierungs-, Produktivitäts- und Einsparpotenziale.
  • Ferner stellte DataCore einen Installationsassistenten für hyper-konvergente Systeme mit DataCore™ Virtual SAN und vSphere vor und erweitert SANsymphony™–V um universellen Virtual Volumes (VVOL)–Support für Speicher, die VMware's vSphere–Schnittstelle nicht generisch unterstützen.
Zum kompletten Artikel auf  www.storageconsortium.de 

Mittwoch, 25. November 2015

DataCore PSP4-Update für SANsymphony-V10 - Stefan von Dreusche

DataCore kündigt für seine Storage-Management-Plattform "SANsymphony-V10" das Update PSP4 an. Stefan von Dreusche, Director Central Europe bei DataCore, erklärt speicherguide.de Redakteur Engelbert Hörmannsdorfer die neuen Funktionen von PSP4.



Dienstag, 17. November 2015

DataCore auf dem Fujitsu Forum 2015

Kundenorientierte Weiterentwicklungen der gemeinsamen Speicherlösungen von DataCore und Fujitsu

Auch in diesem Jahr präsentiert sich DataCore, Anbieter von Software-Defined Storage und hyperkonvergenten Virtual SAN-Lösungen, auf dem Fujitsu Forum (18./19. November 2015, Stand B.34). Besucher erhalten einen Ausblick auf die gemeinsam entwickelte Storage Virtualization Appliance (SVA) der zweiten Generation sowie eine neue Hyper-Converged Appliance (HCA), die Fujitsu Hardware mit der DataCore™ Virtual SAN-Software zu einer hyperkonvergenten Komplettlösung kombiniert. Darüber hinaus informiert DataCore über die Zertifizierung von SANsymphony-V für SAP HANA auf Fujitsu ETERNUS-Speicher.

„Unsere Partnerschaft mit DataCore bietet der wachsenden Zahl gemeinsamer Kunden große Vorteile. Komplettlösungen wie unsere Storage Virtualization Appliance (SVA) oder die Hyper-Converged Appliance (HCA) kombinieren die führenden Hardware-Plattformen von Fujitsu mit der innovativen Software-Defined Storage-  und Virtual  SAN-Software von DataCore und  helfen Anwendern, ihre geschäftskritischen Enterprise-Anwendungen einfach und effizient zu betreiben. Die erfolgreiche Zertifizierung bestätigt DataCores SAP HANA-Unterstützung auf Fujitsu ETERNUS Storage, der durch zusätzliche Software-Defined-Leistungsmerkmale, Performance-Beschleunigung und Hochverfügbarkeitsoptionen optimal ergänzt wird“, sagt Jörg Brünig, Senior Director Channel Managed Accounts bei Fujitsu.

Im Rahmen der Partnerschaft zwischen Fujitsu und DataCore bieten die Hersteller mit der SVA (Storage Virtualization Appliance) eine Serie von getesteten, schlüsselfertigen Appliances für die SAN-Virtualisierung mit „Call Home“-Service und effizientem Support aus einer Hand. In Ergänzung zu den bereits etablierten Varianten wird in Kürze die SVA „vNext“ vorgestellt. Sie kombiniert Fujitsus neueste PRIMERGY RX2560 M1-Servergeneration mit DataCores jüngstem Produkt-Update SANsymphony-V10 PSP4 und ist damit noch leistungsstärker im Einsatz.

Der steigenden Nachfrage nach hyperkonvergenten Systemen begegnen die beiden marktführenden Unternehmen mit der Neuentwicklung einer gemeinsamen Hyper Converged Appliance (HCA). Die Fujitsu DataCore HCA ist eine vorkonfigurierte „Ready to Run“-Appliance mit integrierter Speicherkapazität und der DataCore™ Virtual SAN-Software für Datenmanagement, Hochverfügbarkeit und optimale Performance. Die HCA ist für kleine und mittlere Unternehmen konzipiert und eignet sich als kosteneffiziente Komplettlösung für Hyper-V- und VDI-Workloads, File- und Datenbank-Services sowie als iSCSI-Speicher für externe Applikationen. Beide neuen Appliance-Lösungen sollen bis Ende des Jahres verfügbar sein.

 SANsymphony-V zertifiziert für SAP HANA auf Fujitsu ETERNUS-Speicher
SAP hat DataCores SANsymphony-V10 als erste rein Software-basierte Speichervirtualisierung für SAP HANA zertifiziert. DataCore erfüllt damit alle Anforderungen an anspruchvollste Echtzeit-Applikationen in Rechenzentren und kann für bis zu 768 aktive SAP HANA-Knoten hochverfügbaren, performanten Speicher liefern. Dabei kann SANsymphony-V mit jeder zertifizierten Speicherhardware eingesetzt werden. In den Tests im SAP Integration and Certification Center (SAP ICC) wurde die DataCore-Software zusammen mit Fujitsu ETERNUS DX-Systemen erfolgreich getestet. Durch den Software-definierten, herstellerunabhängigen Ansatz können SAP HANA-Anwender nun auch bestehende Speicher-Infrastrukturen um die Fujitsu/DataCore-Kombination erweitern, um im SAP HANA-Umfeld ein optimales Preis-Leistungs-Verhältnis mit modernster Hard- und Softwaretechnologie zu erzielen.

„Die intensive Zusammenarbeit zwischen DataCore und Fujitsu bringt führende Technologien zusammen, sodass unsere gemeinsamen Kunden getestete, vorkonfigurierte und einfach zu integrierende Lösungen mit absolut zuverlässigem Support aus einer Hand erhalten. Die SAP HANA-Zertifizierung für SANsymphony-V bietet nun insbesondere Fujitsu-Partnern und Fachhändlern die Möglichkeit, SAP HANA-Anwender mit effektiven Storage-Lösungen zu versorgen, unabhängig davon, welcher Speicher bislang dort eingesetzt wird“, sagt Stefan von Dreusche, Director Central Europe bei DataCore.

DataCores Adaptive Parallel I/O-Software
An Stand B.34 können sich Fachbesucher zudem einen Einblick in die neuartige DataCore™ Adaptive Parallel I/O Software verschaffen. Die Technologie ermöglicht erstmals eine adaptive, parallele I/O-Verarbeitung in Mehrkernprozessoren. Vor allem lastenintensive Datenverarbeitungsprozesse bei OLTP-, Echtzeitanalyse-, Business Intelligence- bzw. Data Warehouse-Systemen sowie  SQL-, SAP- und Oracle-Datenbanken profitieren von einer Performance-Vervielfachung. Gleichzeitig können virtuelle Maschinen auf hyper-konvergenten Systemen dichter gepackt und damit Einsparpotenziale auf bislang unerreichtem Niveau erzielt werden.

Das Fujitsu Forum 2015, die größte jährliche Veranstaltung des Unternehmens in Europa, findet vom 18. bis 19. November im International Congress Center München (ICM) statt. Als Technologiepartner und Sponsor stellt DataCore an Stand B.34 aus.



Freitag, 13. November 2015

Das bringt Parallel-IO:Stefan von Dreusche im Video-Interview mit speicherguide

speicherguide.de berichtet von der Cloud Expo Europe 2015:

Datacore steigert Server-Performance mit Parallel-I/O-Software

Gestern ging die »Cloud Expo Europe« in Frankfurt zu Ende. Eines der Highlights ist eine von DataCore Software angekündigte neuartige Parallel-I/O-Technologie, die die Performance in virtualisierten und hyperkonvergenten Systemen vervielfachen soll. Die Technologie ermöglicht erstmals eine adaptive, parallele I/O-Verarbeitung in Mehrkernprozessoren. Vor allem lastenintensive Datenverarbeitungsprozesse bei OLTP-, Echtzeitanalyse-, Business-Intelligence- bzw. Data Warehouse-Systemen sowie SQL-, SAP- und Oracle-Datenbanken sollen von einer Performance-Vervielfachung profitieren. [...]

Nur noch zwei statt zehn Server nötig mit Parallel-I/O-Technologie von Datacore
Gleichzeitig sollen virtuelle Maschinen (VMs) auf hyperkonvergenten Systemen dichter gepackt und damit »Einsparpotenziale auf bislang unerreichtem Niveau« erzielt werden. So könnten aufgrund der besseren Auslastung der Cores typischerweise zwei Server die gleiche Arbeit verrichten wie vorher zehn Server. »Das Einsparpotenzial ist enorm«, erläutert von Dreusche. Zum kompletten Artikel hier klicken. 




Montag, 2. November 2015

Konzepte gegen den Engpass


Alex Best im Gespräch mit den Veranstaltern der Cloud Expo Europe:

IT-Technologien machen so schnelle Fortschritte, dass die Speicherkapazitäten nicht immer mithalten können. Virtualisierung kann dieses Problem lösen, insbesondere im Zusammenspiel mit einem durchdachten Software-Defined-Storage-Konzept.

Die Datenmengen, die Unternehmen in den unterschiedlichsten Geschäftsprozessen zu verarbeiten haben, wachsen in rasantem Tempo. „Sie verdoppeln sich etwa alle zwei Jahre“, sagt Alexander Best. Der IT-Fachmann mit mehr als 20-jähriger Berufserfahrung arbeitet für die DataCore Software GmbH und ist dort zuständig für Technical Business Development Central Europe. Software Defined Storage (SDS) ist eines seiner Spezialgebiete. „SDS bedeutet mehr als nur die Virtualisierung von Speicherkapazitäten“, sagt Best. „Es ist ein konzeptioneller Schirm über alle Speichertechnologien hinweg, entwickelt und installiert von einem Software-Hersteller.“

Nach Bests Auffassung löst dieser Ansatz ein sich zuspitzendes Problem: „Prozessorleistungen, DRAM und BUS-Geschwindigkeiten, die Leistungsfähigkeit von Netzwerken – all das hat in den letzten Jahren Steigerungen um das Zehn- bis Zwanzigfache, Netzwerke sogar um das bis zu Hundertfache zu verzeichnen. Bei der Geschwindigkeit von Festplatten allerdings treten wir auf der Stelle mit Leistungszuwächsen von vielleicht 20 Prozent.“ Zu wenig, um mit den Fortschritten anderer IT-Komponenten mitzuhalten: „Bei der Leistung ist der Speicher mittlerweile der Engpass und der effektive IO pro Gigabit sinkt seit Jahren dramatisch.“

Hier setzt die Virtualisierung an, denn im virtuellen Speicher lassen sich Kapazitäten geräteunabhängig erweitern. Pooling und Provisioning – also das Gruppieren und Zuteilen freier Speicherkapazitäten einschließlich Cloud-Lösungen – sind hier wichtige Stichworte. „Software Defined Storage setzt auf die Virtualisierung auf und stellt zusätzliche Leistungsmerkmale wie Snapshots, Spiegelung, Replikation und Continuous Data Protection (CDP) herstellerübergreifend zur Verfügung. Damit entsteht ein softwaredefiniertes Konzept, das weit über die klassische Speichervirtualisierung hinausgeht“, erläutert Best.

Hier Weiterlesen...zum kompletten Interview

Vorträge mit Alex Best im "Virtualisation, Infrastructure, Storage and SDN Theatre"
Software Defined Storage - Wenn Speicher zum Service wird
Dienstag, 10. Nov. 2015, 10:30 - 10:55
Mittwoch, 11. Nov. 2015, 11:00 - 11:25

Software Defined Storage sorgt für Performance-Boost in Storage-Infrastrukturen
Dienstag: 10. Nov. 2015, 14:30 - 14:55

DataCore stellt auf der Cloud Expo Europe (10. – 11. November 2015, Messe Frankfurt, H4.1) an Stand 655 aus. 

Vereinbaren Sie einen Termin, um Alexander Best und seine Kollegen persönlich auf der Cloud Expo zu treffen: http://info.datacore.com/cee15-csm


Freitag, 30. Oktober 2015

DataCore gewinnt Reader’s Choice Award von IT-BUSINESS und storage-insider


Die Leser von storage-insider.de und IT-BUSINESS haben entschieden: DataCore gewinnt den Reader’s Choice Award in der Kategorie Software Defined Storage. Bei der großen Leserwahl der Vogel IT Medien setzte sich DataCore mit seiner SANsymphony-V-Software im Finale gegen Dell und Falconstor durch. Die Platinum-Auszeichnung wurde im Rahmen einer feierlichen Gala am gestrigen Abend in Augsburg überreicht.

„Wir freuen uns besonders über die Auszeichnung, weil diese Wahl durch die Leser einiger der wichtigsten Fachpublikationen unserer Branche getroffen wurde. IT-Fachleute bei Partnern und Endanwendern haben honoriert, dass wir mit SANsymphony-V die beste Lösung im Bereich Software Defined Storage bieten“, sagt Stefan von Dreusche, Director Central Europe bei DataCore. 

Robert Thurnhofer (links) und Stefan von Dreusche freuen sich: 

Leser wählen DataCore zur besten SDS-Lösung

SANsymphony-V liegt derzeit in der aktuellen Produktversion 10 vor. Die Software-definierte Speicherplattform ermöglicht die Erweiterung, Sicherung und Verwaltung von Storage-Architekturen zu einem Bruchteil der Kosten, die durch herkömmliche Hardware-Ansätze entstehen, da sie vollkommen Hardware- und Hersteller-unabhängig genutzt werden kann. Dabei integriert sie Enterprise-Leistungsmerkmale wie synchrone Spiegelung, Autofailover, asynchrone Replikation, Deduplizierung, Auto-Tiering, High Speed Caching, Continuous Data Protection und vieles mehr. 




Robert Thurnhofer (links) nimmt die Siegerauszeichnung für DataCore vor der 

geschlagenen Konkurrenz entgegen. 




„Wir entwickeln unsere Software-Plattformen seit mehr als 15 Jahren, und können auf die Erfahrung von mehr 10.000 Kunden und 25.000 Installationen weltweit zurückgreifen. Das unterscheidet uns von vielen Anbietern, die später auf den Software-defined-Hype angesprungen sind. Die Auszeichnung ehrt uns auch deshalb, weil die Leser damit honorieren, dass sie von uns das bekommen, was wir versprechen: effektive Software-Lösungen für die sich wandelnden Anforderungen in Unternehmen“, sagt Robert Thurnhofer, Senior Marketing Manager Central Europe.

Storage-Insider.de ist eines der führenden Online-Portale für alle End User-Themen rund um Speicher und vergab in diesem Jahr erstmals den Reader’s Choice Award in diversen Kategorien. Zur Wahl aufgerufen waren ebenso Fachhändler, Systemhäuser und Reseller über die Channel-Publikation IT-BUSINESS und weiterer Schwesterpublikationen der Vogel IT-Medien mit Sitz in Augsburg.

Donnerstag, 29. Oktober 2015

Cloud Expo Europe 2015: Das DataCore-Vortragsprogramm

DataCore stellt als Platinum-Sponsor auf der Cloud Expo Europe (10. – 11. November 2015, Messe Frankfurt, H4.1) an Stand 655 aus. Zudem bereichert DataCore mit seiner Expertise das Konferenzprogramm.

Im Rahmen der Vortragsreihe 
im "Virtualisation, Infrastructure, Storage and SDN Theatre", die in Zusammenarbeit mit der SNIA Europe organisiert wird, referiert Alexander Best, Director Technical Business Development EMEA bei DataCore, zu folgenden Themen:

Software Defined Storage - Wenn Speicher zum Service wird
Dienstag, 10. Nov. 2015, 10:30 - 10:55
Mittwoch, 11. Nov. 2015, 11:00 - 11:25

Der Vortrag richtet sich sowohl an IT-/Storage-Entscheider von Endkunden, wie auch an Projektverantwortliche im Fachhandel. In unterschiedlichen Szenarien wird konkret aufgezeigt, welchen neuen Herausforderungen sich Storage-Infrastrukturen künftig stellen müssen und wie aber Kostenaspekte, Investitionsschutz und Herstellerunabhängigkeit durch Software Defined Storage trotzdem gewährleistet ist. Dabei werden folgende Themenschwerpunkte gesetzt:

1. Trends zur Neugestaltung von Speicherinfrastrukturen
2. Zukünftige Herausforderungen bei neuen Strukturen
3. Vorteile und Nutzen für jede Unternehmensgröße

Software Defined Storage sorgt für Performance-Boost in Storage-Infrastrukturen
Dienstag: 10. Nov. 2015, 14:30 - 14:55

Speicherarrays werden immer größer und komplexer, der Durchsatz kann aber speziell in Hyper-Convergenten Systemen kaum Schritt halten, Performance-Einbußen sind die Folge. In diesem Vortrag erfahren IT-/Storage-Entscheider wie auch Projektverantwortliche im Fachhandel wie sie dank bahnbrechender Parallel I/O-Technologie klassische Bottlenecks vermeiden, die Performance in virtualisierten Systemen vervielfachen und damit Konsolidierungs-, Produktivitäts- und Einsparpotenziale auf ein bislang unerreichtes Niveau heben.






Dienstag, 27. Oktober 2015

Cloud Expo Europe 2015: Performance-Steigerung mit DataCore Parallel I/O-Software

DataCore präsentiert auf der Cloud Expo Europe (10. – 11. November 2015, Messe Frankfurt, Stand 655) Erweiterungen seiner Software-definierten Speicherlösungen: Highlight ist eine neuartige Parallel I/O-Technologie, die die Performance in virtualisierten und hyperkonvergenten Systemen vervielfacht. Des Weiteren informiert DataCore über universelle Virtual Volumes (VVOL), einen vSphere-Wizard für hyperkonvergente Systeme, die SAP HANA®-Zertifizierung und die Entwicklung einer gemeinsamen hyperkonvergenten Appliance mit Fujitsu. 

DataCore Adaptive Parallel I/O Software
An Stand 655 können sich Fachbesucher einen ersten Einblick in die neuartige DataCore™ Adaptive Parallel I/O Software verschaffen. Die Technologie ermöglicht erstmals eine adaptive, parallele I/O-Verarbeitung in Mehrkernprozessoren. Vor allem lastenintensive Datenverarbeitungsprozesse bei OLTP-, Echtzeitanalyse-, Business Intelligence- bzw. Data Warehouse-Systemen sowie  SQL-, SAP- und Oracle-Datenbanken profitieren von einer Performance-Vervielfachung. Gleichzeitig können virtuelle Maschinen auf hyper-konvergenten Systemen dichter gepackt und damit Einsparpotenziale auf bislang unerreichtem Niveau erzielt werden.

Erweiterte VMware vSphere-Integration mit Universal VVOL 
DataCore führt für seine Plattformen universellen Virtual Volume (VVOL)-Support ein. Administratoren können damit virtuelle Laufwerke über die vSphere-Oberfläche aus beliebiger Speicher-Hardware (Disk-Subsysteme, SSD-Arrays, DAS etc.) bereitstellen, auch wenn diese Vmware VVOL nicht unterstützt. Darüber hinaus stellt DataCore einen vSphere-Wizard vor, mit dem hyper-konvergente Komplettsysteme auf ESXi-Clustern mit dem DataCore Virtual SAN weitestgehend automatisiert eingerichtet werden können.

SAP HANA-Zertifizierung
Als erste Software-basierte Speichervirtualisierung hat das SAP Integration and Certification Center  (SAP ICC) SANsymphony-V für SAP HANA® zertifiziert. Als erfolgreich getestete interoperable Enterprise Storage-Lösung nimmt DataCore auch am SAP HANA Data Center Integration-Programm teil.

Ausblick: Hyperkonvergente Appliance mit Fujitsu
Nach der erfolgreichen Markteinführung der Software-basierten Speicherlösung Storage Virtualization Appliance (SVA) arbeiten Fujitsu und DataCore an der Entwicklung einer gemeinsamen hyperkonvergenten Appliance auf der Basis von Hyper-V und dem DataCore Virtual SAN. DataCore gibt einen ersten Ausblick auf die in Kürze marktreife Lösung.

Software Defined Storage – Wenn Speicher zum Service wird
Im Rahmen des Vortragsprogamms referiert Alexander BestDirector Technical Business Development EMEA bei DataCore zum Thema „Software Defined Storage –  Wenn Speicher zum Service wird“ (10. Nov. um 10:30 Uhr sowie 11. Nov. 11:00 Uhr im Virtualisation, Infrastructure, Storage & SDN Theatre). In unterschiedlichen Szenarien wird konkret aufgezeigt, welchen neuen Herausforderungen sich Storage-Infrastrukturen künftig stellen müssen und wie Kosteneinsparungen, Investitionsschutz und Herstellerunabhängigkeit durch Software-Defined Storage gewährleistet sind. 

DataCore stellt auf der Cloud Expo Europe (10. – 11. November 2015, Messe Frankfurt, H4.1) an Stand 655 aus.

Download Text



Montag, 26. Oktober 2015

Universelle Virtual Volumes: VMware VVOL-Unterstützung für alle Ressourcen

VMware-Administratoren schätzen die Effizienz und Granularität der vSphere Virtual Volumes (VVOLs), jedoch werden sie von vielen externen Speichersystemen nicht unterstützt. DataCore ermöglicht jetzt die Nutzung von VVOLs mit EMC-, IBM-, HDS-, NetApp- und anderen gängigen Speichersystemen sowie Flash Arrays über die Virtualisierungsschicht SANsymphony-V. Ebenso unterstützt werden Direct Attached-Speicher, die in einem hyperkonvergenten DataCore™ Virtual SAN genutzt werden. Administratoren können damit Virtual Volumes über vSphere aus dem virtuellen Speicherpool bereitstellen und mit Speicherqualitäten ausstatten, ohne auf die darunterliegende Hardware zu achten.

























Mittwoch, 21. Oktober 2015

Parallel I/O Processing in 2,5 Minuten erklärt

Die adaptive Parallel I/O-Software von DataCore vervielfacht die Performance in virtualisierten Systemen und schafft bislang unerreichte Produktivitäts- und Einsparpotenziale. 

Wie das funktioniert? In diesem Video wird Parallel I/O-Processing anschaulich in 2,5 Minuten erklärt: https://www.youtube.com/watch?v=cdhclyAenj0














Dienstag, 13. Oktober 2015

VMworld-Impressionen und ein 1-Minute-Video-Snapshot zu Parallel I/O

DataCores CEO George Teixeira gibt einen Kurzüberblick zur adaptiven Parallel I/O-Software:



Die Aufnahme entstand auf der VMworld in San Francisco. Und so sah es heute auf der VMworld Europe in Barcelona aus - laut Twitter: The men in black "are showing off the revolutionary Parallel I/O Software and everyone is LOVING IT! Stand S118"





Montag, 12. Oktober 2015

VMworld Europe 2015: DataCores Parallel I/O-Software setzt neue Maßstäbe

Performance-Durchbruch für virtuelle Maschinen, universeller VVOL-Support und Installationsassistent für hyperkonvergente Systeme

DataCore gibt auf der VMworld Europe 2015 (12.–15. Oktober) einen Ausblick auf seine bahnbrechende Parallel I/O-Technologie: Die Neuentwicklung vervielfacht die Performance in virtualisierten Systemen mit Mehrkernprozessoren und steigert damit Konsolidierungs-, Produktivitäts- und Einsparpotenziale auf ein bislang unerreichtes Niveau. Des Weiteren stellt DataCore einen Installationsassistenten für hyper-konvergente Systeme mit DataCore™ Virtual SAN und vSphere vor und erweitert SANsymphony™-V um universellen Virtual Volumes (VVOL)-Support für Speicher, die die vSphere-Schnittstelle nicht generisch unterstützen.

An Stand S118 können sich Besucher über die DataCore™ Adaptive Parallel I/O Software informieren. Sie ermöglicht es, virtuelle Maschinen noch dichter zu packen und gleichzeitig die I/O-Anforderungen anspruchsvollster Enterprise-Anwendungen zu erfüllen. Lastenintensive Datenverarbeitungsprozesse wie etwa bei OLTP-, Echtzeitanalyse-, Business Intelligence- und Data Warehouse-Systemen sowie unternehmenskritische Applikationen auf der Basis von Microsoft SQL Server, SAP- und Oracle-Datenbanken profitieren.

"Die Kombination aus DataCore Parallel I/O-Software, immer dichter gepackten Multi Core-Prozessoren und effizienten CPU-Designs hebt Speicherserver und hyperkonvergente Systeme auf ein neues Niveau, das die Preis-Leistungs-Arithmetik im Storage-Markt massiv verändern wird“, sagt der DataCore-Vorsitzende Ziya Aral. „Wir veröffentlichen in Kürze Benchmark-Tests, die diesen Durchbruch belegen.“

Universelle Virtual Volumes: VMware VVOL-Unterstützung für alle Ressourcen
VMware-Administratoren schätzen die Effizienz und Granularität der vSphere Virtual Volumes (VVOLs), jedoch werden sie von vielen externen Speichersystemen nicht unterstützt. DataCore ermöglicht jetzt die Nutzung von VVOLs mit EMC-, IBM-, HDS-, NetApp- und anderen gängigen Speichersystemen sowie Flash Arrays über die Virtualisierungsschicht SANsymphony-V. Ebenso unterstützt werden Direct Attached-Speicher, die in einem hyperkonvergenten DataCore™ Virtual SAN genutzt werden. Administratoren können damit Virtual Volumes über vSphere aus dem virtuellen Speicherpool bereitstellen und mit Speicherqualitäten ausstatten, ohne auf die darunter liegende Hardware zu achten.

Auf der VMworld Europe 2015 informiert DataCore über weitere Entwicklungen:
-    Bewährte Referenzarchitekturen für Lösungen mit Lenovo-, Dell-, Huawei-, Fujitsu- und Cisco-Servern für kleine, mittlere und große Umgebungen
-    Weltweite Partnerschaft mit Curvature für eine durchgängige Beschaffung und Bereitstellung von Speicherprodukten, Datenservices und zentralen Managementlösungen
-    vSphere-Wizard für die einfache Einrichtung DataCore-hyper-konvergenter virtueller SANs auf ESXi-Clustern
-    Stretched Cluster-Architekturen für hyper-konvergente Systeme in Metro-Szenarien

DataCore informiert in einer Breakout Session über „Software-Defined Storage und Applikation Virtualization“ (Solutions Exchange Theatre, Dienstag, 13. Oktober, 11:20).

Vor Ort an Stand S118 können Gesprächstermine mit DataCore-Verantwortlichen aus Management, Technik oder Vertrieb über Michel Portelli, EMEA Marketing Director, Michel.Portelli@DataCore.com, vereinbart werden.

Zur Vereinbarung von Pressegesprächen wenden Sie sich bitte an 
Konzept PR, Michael Baumann, +49-151-58728448, mbaumann@kprglobal.com


Mittwoch, 7. Oktober 2015

N-Tec Workshop-Tour: »Aufpassen auf die Knoten-Architektur!«

speicherguide im Gespräch mit Robert Thurnhofer, Marketing Manager Central Europe bei DataCore

Datacore empfiehlt: »Aufpassen auf die Knoten-Architektur!«

Converged- und Hyperconverged-Lösungen werden vermehrt in Rechenzentren eingesetzt. Doch was sind die Besonderheiten der verschiedenen Lösungen? Der Storage-Systemehersteller N-Tec will hier auf seiner N-Tec Workshop-Tour nächste Woche (13. bis 15. Oktober) intensiver darauf eingehen. Wir sprachen im Vorfeld mit Robert Thurnhofer, Marketing Manager Central Europe bei Datacore Software, über das Thema. Datacore ist einer der strategischen Partner von N-Tec.

Wie genau definiert sich der Unterschied zwischen Converged- und Hyperconverged-Storage?

Thurnhofer: Bei konvergenten Systemen werden Anwendungen auf Server-Systemen in einem Rack ausgeführt, und zwar mit separatem, externem SAN für einen gemeinsam genutzten Speicher. Beispiele wären hier »vBlock« von VCE oder »Flexpod« von Cisco/Netapp. Bei hyperkonvergenten Systemen werden die Anwendungen auf Knoten ausgeführt, die sowohl die Rechenleistung als auch einen gemeinsam genutzten Speicher liefern. Hierbei gibt es kein externes SAN.
[...]
Und wie sieht dann der Ansatz von DataCore aus?

Thurnhofer: Bei uns geht es um ein Modell mit flexibler Hardware-Auswahl, wobei eine Arbeitsverteilung mit mehreren Hypervisoren bzw. auch ohne Server-Virtualisierung unterstützt wird. Unser Lösungsmodell bietet also Speichermöglichkeiten sowohl für eine virtualisierte als auch für eine nicht virtualisierte Arbeitsverteilung. Dies ist insbesondere für Unternehmen wichtig, die mehrere Hypervisoren einsetzen und gleichzeitig nicht virtualisierte Anwendungen betreiben, wie etwa Hochleistungsdatenbanken zur Transaktionsabwicklung. Führende Analysten gehen davon aus, dass diese Mischung aus virtualisierter und nicht virtualisierter Arbeitsverteilung in manchen Unternehmen bis mindestens zum Ende des Jahrzehnts zum Einsatz kommen wird. Im Rahmen von Planungen sollte dieser Punkt unbedingt berücksichtigt werden, da sich hieraus unmittelbare Auswirkungen auf die kurz- und langfristige technische Eignung der gewählten hyperkonvergenten Lösung wie auch deren Investitionserträge ergeben.
[...]

Ein wesentliches Kriterium einer hyperkonvergenten Infrastruktur ist die Mehrfachknoten-Architektur. Was gibt es hier zu beachten?

Thurnhofer: Hier kann man den Anwendern nur empfehlen, wirklich auf die Knoten-Architektur aufzupassen. Denn einige namhafte Anbieter von Server-Hypervisoren bieten hyperkonvergente Speichermodelle an, die bereits in der Grundausstattung mindestens drei (oder sogar mehr) Cluster-Knoten benötigen. Ein Knoten benötigt üblicherweise einen physischen Server, eine Lizenz für die Speichersoftware, Cluster-Software (ob als Teil eines Hypervisor-Software-Pakets, des Betriebssystems oder einer spezialisierten Drittanbieter-Software), Flash-Speichergeräte sowie eine Speichereinheit oder ein JBOD-System. Gemäß einem kürzlich veröffentlichten Bericht belaufen sich die Kosten pro Knoten für die hyperkonvergente Software eines führenden Hypervisor-Anbieters (auch bekannt unter der Produktbezeichnung »vSAN«) auf 8.000 bis 11.000 US-Dollar für die Software-Lizenzen und auf 8.000 bis 14.000 US-Dollar für die Server- und Speicher-Hardware. Diese Zahlen sind dann mit der Anzahl der Knoten zu multiplizieren, die für den Aufbau einer hyperkonvergenten Infrastruktur erforderlich sind. Im Mindestfall sind dies drei Knoten, aber aus Gründen der Verfügbarkeit und der Leistung werden vier Knoten empfohlen. Darauf wollen wir auch nächste Woche auf der N-Tec Workshop-Tour deutlich hinweisen.

Im Gegensatz dazu erfordern hyperkonvergente Server-Speicher-Systeme von Datacore in der Grundausstattung lediglich zwei physische Knoten und ermöglichen zudem die Nutzung weniger kostenintensiver Hardware (beispielsweise SATA- statt SAS-Festplatten). Außerdem ist Flash bei uns eine Option als hochperformanter Primärspeicher, aber nicht zwingend erforderlich. Stattdessen nutzen wir ohnehin vorhandenen DRAM für das Caching, was erheblich schneller ist und die Anfangsinvestition in die Gesamtlösung deutlich senkt, ohne einen Wachstumspfad für Flash zu verbauen.