Big Data stellt Verwaltungen von Krankenhäusern und Behörden vor komplexe Herausforderungen. Erforderlich sind flexible, skalierbare Speicherinfrastrukturen, die es ermöglichen, Daten aus dem Produktivbetrieb zu isolieren und performant zu analysieren. Software-defined Storage (SDS) unterstützt die kosteneffiziente Umsetzung dieser Storage-Anforderungen.
Der wirtschaftliche Mehrwert, der in der Analyse von etwa ERP-Datenbanken schlummert, ist unbestritten. Hemmschuh bleiben dabei die zusätzlichen Speicherkosten im Vergleich zum potenziellen Mehrwert, schließlich müssen unternehmenskritische Datenbanken nicht nur redundant beziehungsweise hochverfügbar vorgehalten werden, sondern für die Analyse aus dem Produktivbetrieb in einer Tertiärkopie.
(...)
Schlüsseltechnologie für diesen SDS-Ansatz von DataCore ist die hardware- und technologieübergreifende Virtualisierung. Diese Speichervirtualisierung kombiniert bzw. virtualisiert High-End-Arrays zusammen mit einfachen Plattensystemen, Einzellaufwerken und sogar SSD-Karten. Performante Infrastrukturen können so herstellerübergreifend und heterogen aufgebaut werden. Diese hybriden Strukturen sind eine der Grundvoraussetzungen für die Rentabilität von Big Data.
Zusätzlich bildet SANsymphony-V die zentrale Plattform für ein effizientes Speichermanagement, permanente Hochverfügbarkeit und höchste Performance. Sie leistet transparenten Failover zwischen heterogener Hardware, High-Speed Caching, integriert Flash-Speicher und Auto-Tiering zwischen Speicherklassen, Replikation undContinuous Data Protection, Migrationen im laufenden Betrieb usw.
(...)
Den gesamten Artikel bei eGovernment Computing lesen.
Keine Kommentare:
Kommentar veröffentlichen