Dienstag, 31. Juli 2012

VMware-Manager wird erster COO bei DataCore

DataCore Software trägt seinem weltweiten Wachstum Rechnung und besetzt erstmals die Position eines Chief Operating Officer (COO). Steve Houck, zuvor Vice President of Worldwide Channel bei VMware und in verschiedenen Führungspositionen bei EMC und dem SSD-Startup Astute Networks, zeichnet ab sofort für die Leitung, Steuerung und Organisation der Betriebsprozesse beim Anbieter für die Storage-Hypervisor-Software SANsymphony™-V verantwortlich.

"DataCore bietet eine „Must have"-Technologie, ist Marktführer bei der Storage-Virtualisierung und liegt mit SANsymphony-V vor allen Wettbewerbern. Bei diesen hervorragenden Marktaussichten freue mich deshalb sehr darauf, zum weiteren Erfolg von DataCore beitragen zu können“, sagt Steve Houck, COO bei DataCore Software.

Die erstmalige Besetzung der COO-Position bei DataCore geht einher mit der erfolgreichen Einführung des Storage-Hypervisors SANsymphony™-V R9.0, der für das Unternehmen neue Marktpotenziale öffnet. Neben dem klassischen Projektgeschäft im Mittelstand ist die jüngste Software-Version insbesondere für den Einsatz in großen Rechenzentren, Private Clouds und für Cloud Service Provider (CSP) optimiert. Ein weiteres neues Geschäftsfeld wird derzeit mit „System Builder“-Kooperationen aufgebaut. Der Ausbau seiner Organisations- und Personalstruktur soll DataCore helfen, diese neuen Marktsegmente möglichst schnell und erfolgreich zu erschließen.

"Für die Festigung unserer positiven Entwicklung und die Durchdringung neuer Märkte ist es wichtig, unsere Managementebene mit Spezialisten wie Steve Houck zu verstärken", sagt George Teixeira, Präsident und CEO von DataCore Software. "Steve ist eine bewährte Führungskraft mit Branchenexpertise. Seine Erfahrung beim Aufbau neuer Absatzmärkte soll uns auf die nächste Erfolgsstufe führen."

Montag, 30. Juli 2012

Speicherguide.de: Storage-Management - Flexibilität anstatt Starrsinn

Effizienz steht auf der IT-to-do-Liste über allem, gleich darunter steht Kosten sparen. Für IT-Leiter ist dies aber nur mit einem flexiblen und modularen Storage-Management zu erreichen. Nur mit einer modernen Verwaltung lassen sich die heutigen Aufgaben meistern. Transparente Tools ersetzen starre Strukturen.

Die Berkeley-Universität erwartet bis 2050 ein Datenaufkommen von über 4.400 ZByte. Die Zukunft könnte jedoch bereits sehr viel schneller erreicht werden (Grafik: Fujitsu / Data Landscape).
Die unternehmensweite Datenspeicherung wird von diversen Faktoren beeinflusst. Die wachsende Datenmenge ist aber sicherlich einer der Hauptgründe, seine Speicherstrategie zu überdenken. IDC zufolge wurden letztes Jahr weltweit zirka 1,8 ZByte erzeugt und kopiert. 2009 waren es noch lediglich 0,8 ZByte. Analystenzahlen klingen immer so ein wenig nach Zukunftsmusik und sind wenig greifbar. Doch vor drei Jahren begann der Wechsel von 1- auf 2-TByte-Festplatten. Ein 2U flaches 8-Bay-Array unterstützte damals eine Bruttokapazität von bis zu 16 TByte. Heute wird ein entsprechendes System mit 3-TByte-Disks und einem Speichervolumen von 24 TByte geliefert.
 
»Ein kleines Video für eine Produkteinführung beansprucht, in ein paar Versionen gespeichert, schnell mal so viel Platz wie früher die Daten von 100.000 Kunden«, erklärt André M. Braun, Germany Sales Director Storage bei Dell. »Noch hält die stete Weiterentwicklung der herkömmlichen Speichertechnologien mit den Anforderungen einigermaßen Schritt. Aber die Unternehmen versuchen, die Datenflut mit Mitteln im Griff zu halten, die dafür nun mal nicht geschaffen wurden, und die für diese Aufgabe auf Dauer auch nicht tauglich sind. Es sollen mit Technologien von gestern, mit monolithischen und starren Infrastrukturen, die Aufgaben von morgen bewältigt werden. Das kann nicht gutgehen.«

»Bestehende monolithische Systeme müssen nicht zwangsläufig sofort auf das Abstellgleis geschoben werden«, schränkt Dr. Georgios Rimikis, Manager Solutions Strategy bei Hitachi Data Systems (HDS), ein. »Wir sehen derzeit viele Projekte, die monolithische Systeme mit neu beschafften modularen Systemen integrieren. Aktuelle Designs gehen jedoch genau diesen Weg: flexibel und skalierbar, und damit zukunftssicher – und nicht zuletzt kostengünstiger.«
 
Mehr Daten bedeutet laut Rimikis vor allem: »auf die Kostenbremse zu treten«. Die Kapitalkosten lassen sich durch eine bessere Ausnutzung der Infrastruktur senken, wie mit dynamischem Tiering, Dynamic-Provisioning und vor allem Virtualisierung. Auf Seite der Betriebskosten erreichen Unternehmen Einsparungen durch eine optimierte Verwaltung. Vor allem eine fortschreitende Automatisierung sowie ein einheitliches Management für Block-, File und Content-Daten sind hier strategische Faktoren.

Fokusthema Migration

 

»Der Migrationsaufwand einer modularen, proprietären Umgebung kann erhebliche Implikationen auf den Umgang mit Datenwachstum bedeuten«, meint Rimikis. »Virtualisierungs-Technologien auf der Storage-Ebene helfen hier, künftigen Zugriff auf Daten sicherzustellen. Sie ermöglichen Technologiewechsel mit geringen Auswirkungen auf den operativen Betrieb. Unterbrechungsfreie Migrationen sind so die Regel, nicht die Ausnahme.« Zu beachten sei hier die Integration objektbasierter Storage-Lösungen. Besonders unstrukturierte Datenmengen wachsen stark in Unternehmen. Objektbasierte Storage-Lösungen verpacken Daten mit Metadaten und sollen so Dopplungen automatisch erkennen. »Auf diese Weise erleichtern sie nicht nur das sichere Archivieren, sondern auch das schnelle Auffinden von Daten«, erklärt Rimikis. »Damit leisten die Systeme einen Beitrag zur Kostensenkung.«

»Um den jetzigen und – noch wichtiger – den kommenden Anforderungen gerecht zu werden, müssen Migrationswege auch zukünftig einfach umsetzbar und ohne lange Migrationsphasen und den damit verbunden Einschränkungen des laufenden Betriebes sein«, argumentiert Robert Guzek, Eternus Business Management Germany bei Fujitsu. »Dabei müssen Unternehmen bei einer Investition immer die Kosten für einen Wechsel auf eine neue zukünftige Plattform mit berücksichtigen.« Es sei zu erwarten, dass die Migrationskosten und die damit verbundenen Anforderungen massiv zunehmen und sich höher auswirken können als das eigentliche Hardware-Investment. Bei arbeitsintensiven Migrationen besteht unter anderem ein erhöhtes Risiko einer Geschäftsunterbrechung. Eine Unterbrechung des Kerngeschäftsbetriebes kann schnell sehr kostspielig werden. »So beziffert eine Studie der PWC aus März 2012 den Ausfall der Kernarbeitszeit (»mainly staff time«) im Mittelstand umgerechnet mit rund 5.000 bis 9.000 Euro«, sagt Guzek. »Bei einen Ausfall über zwei bis vier Tage erhöht sich der Betrag schnell auf über 38.000 Euro, ohne die Berücksichtigung eines eventuellen zusätzlichen Imageschaden für das Unternehmen.«
 

Storage-Management: Entwicklungspotenzial in Unternehmen

 

Storage-Management ist eine Pflichtaufgabe, um den »Laden am Laufen« zu halten. Der Trend zu höherer Modularisierung, mehr Flexibilität und Zukunftssicherheit ist nicht neu (siehe Effizientes Storage-Management), wird aber durch neue und steigende Anforderungen stetig neu befeuert. Die Herstellerseite ist durchaus bemüht, ein übergreifendes Management zu entwickeln. »Auf Anwenderseite werden diese Möglichkeiten noch nicht umfassend genutzt«, sagt Alfred Beblik, Consultant im Bereich Projekt Development beim Wiesbadener Storage-Distributor TIM. »Zum einen sind die Tools komplex in der Handhabung und zum anderen sind die Kosten ein Hinderungsgrund.«
 
Vor allem kleine und mittlere Unternehmen befinden sich hier in einem Nachteil. Zwar verfügen große Firmen über ein höheres Speichervolumina und sind damit gezwungen größere Synergiepotenziale zu erschließen. Sie haben aber den Vorteil, dass sie auch umfangreiche Projekte mit eigenen Ressourcen umsetzen können. In kleineren Unternehmen ist zwar das Fachwissen vorhanden, aber in der Regel nicht genug Ressourcen.

Eine Speicherlösung die auch in KMUs besteht, muss laut Stefan von Dreusche, Director Central Europe bei DataCore Software, daher flexibel und vor allem einfach sein: »Bei unserer Entwicklung galt intern: "Wer Windows administrieren kann, soll auch mit `SANsymphony-V´ klar kommen.« Wobei der Storage-Administrator für von Dreusche eine vermutlich aussterbende Spezies ist. Die ganze Organisationsstruktur im Rechenzentrum ändere sich durch die Virtualisierung von Server und Storage bzw. durch die private Cloud. »Dem muss ein Storage-Management-Produkt Rechnung tragen«, erklärt von Dreusche. »Automation ist natürlich das Stichwort. Auch in großen Cloud-Umgebungen müssen manuelle Eingriffe für hunderte oder tausende virtuelle Maschinen durch Gruppenbefehle reduziert werden. Test-, Analyse- und Billing-Funktionen müssen integriert sein.«
 
Letztendlich sind sich Enterprise-Umgebungen sowie KMUs recht ähnlich: Leistung, Verfügbarkeit und Sicherheit sind hier wie dort wichtige Faktoren. Bei größeren Firmen und Konzernen wird noch mehr Wert auf redundante Datenhaltung und einen unterbrechungsfreien Betrieb Wert gelegt. Bei allen ist zu beobachten, dass die längerfristige Strategie und das Kosten/Nutzen-Verhalten mehr Beachtung finden als früher.

»Die Storage-Architektur der Zukunft beginnt sich aktuell schon abzuzeichnen«, sagt TIM-Consultant Beblik. »Es werden vermehrt Funktionalitäten benötigt, die über die klassische Bereitstellung von Kapazität und Verfügbarkeit hinaus gehen. Die Systeme müssen von der Effizienz deutlich zulegen. Ein weiterer sehr wichtiger Punkt wird zunehmend die einfache Administrierbarkeit der Systeme.« Die Überwachung bzw. der Ausbau des Speicher-Equipments muss ohne großen Aufwand beherrschbar sein. Nur so lassen sich die vorhandenen Ressourcen effektiv nutzen und ein Mehrwert für das Unternehmen erzielen, egal wie schnell das eigene Datenwachstum voranschreitet. Um sich für die Zukunft perfekt aufzustellen, müssen Unternehmen aber den persönlichen Bedarf genau analysieren. Hier helfen unter anderem Storage-Monitoring-Tools.

Beitrag auf Speicherguide.de lesen

Montag, 23. Juli 2012

Microsoft SQL Server 2012 ist „DataCore Ready“

DataCore Software hat Microsoft SQL Server 2012 auf den reibungslosen Einsatz mit SANsymphony™-V getestet und mit dem „DataCore Ready“-Siegel ausgezeichnet. Die Storage-Hypervisor-Software schafft flexible Speicherinfrastrukturen für ressourcenintensive Datenbankumgebungen und optimiert die Performance, Business Continuity und Datensicherung für Microsoft SQL Server 2012.

Aufgrund der hohen Datenmengen und Transaktionsraten stellen Datenbankanwendungen höchste Anforderungen an Performance und Verfügbarkeit von Speicher. Die intelligente Storage-Hypervisor-Software von DataCore verbessert dabei die Effizienz, Performance und Verfügbarkeit von Storage-Infrastrukturen deutlich. Das "DataCore Ready"-Siegel für Microsoft SQL Server 2012 gewährleistet ein integriertes, automatisiertes und vereinfachtes Speichermanagement
  • Schnelle, virtuelle Speicherpools für SQL-Datenbanken
  • Bereitstellung von beliebig großen Volumes im laufenden Betrieb
  • Eliminierung der I/O-Engpässe für geschäftskritische Anwendungen
  • Performance-Optimierung durch Auto-Tiering von SSD bis in die Cloud
  • Kontinuierliche Ausfallsicherung und geräteübergreifende Hochverfügbarkeit
  • Skalierung von Performance, Kapazität und Transaktionsraten
Performance und Sicherung für SQL Server 2012
Mit Microsoft SQL Server 2012 und leistungsstarker Hardware können große Datenmengen verwaltet und in aussagefähige Geschäftsinformationen umgewandelt werden. DataCores geräteübergreifendes Storage-Pooling und adaptives Caching unterstützen dies, indem sie eine besonders effiziente Verarbeitung häufig wiederkehrender Lese- und Schreibzugriffe auch simultaner Datenbankanfragen mit minimaler Latenz ermöglichen. Das integrierte Auto-Tiering verschiebt zusätzlich aktive Datenblöcke auf Tier 1-Ressourcen, während inaktive Blöcke auf niedrigeren Ebenen verbleiben. Dafür integriert der Storage-Hypervisor Hochleistungs-Arrays, einfache Festplatten und Cloud-Storage ebenso wie Flash/SSD, unter anderem von Fusion-IO, Texas Memory Systems, Violine, Savage IO oder X-IO Technology.

Für umfassende Ausfallsicherheit der SQL-Datenbanken können Administratoren neben synchronen und asynchronen Spiegeln Snapshots mit bestimmten Wiederherstellungspunkten einrichten oder Systeme über die integrierte CDP-Funktion (Continuous Data Protection) zu einem beliebigen Zeitpunkt in der Vergangenheit zurückstellen. 

Dienstag, 17. Juli 2012

Speicherguide.de: Bytec konzipiert Metro-Cluster mit Datacore und Fujitsu

Schon wieder ein Neuzugang beim System-Builder-Programm von Datacore Software: Das in Friedrichshafen ansässige Unternehmen Bytec Bodry Technology hat mit Datacore nicht nur einen Systembuilder-Vertrag, sondern auch einen Distributionsvertrag abgeschlossen. Damit distributiert Bytec nicht nur die Storage-Hypervisor-Software »SANsymphony-V«, sondern kann auch eigene Lösungen damit assemblieren. 

Und davon macht Bytec bereits rege Gebrauch. Zusammen mit den Storage-Systemen »Eternus DX80+« sowie den »Primergy RX350«-Servern von Fujitsu wurden ausfallsichere Metro-Cluster konfiguriert, die laut Bytec für unter 30.000 Euro aufgebaut werden können. »Unsere Partner und Kunden profitieren nicht nur von zertifizierten Komplettsystemen zweier Technologieführer«, sagt Richard Luft, Softwareverantwortlicher bei Bytec, »durch die enge Zusammenarbeit können wir die ultraschnellen Systeme mit wettbewerbsfähigen Lösungen weitergeben.« 

»Konkrete Projektanfragen« auf Hausmesse hereingekommen 

Die extreme Performance der Eternus DX80+ habe kürzlich die Teilnehmer der Bytec-Hausmesse im Rahmen der »Informix User«-Tage ins Staunen versetzt. Noch während der Veranstaltung seien »konkrete Projektanfragen« hereingekommen. 

Neben der Performance-Verbesserung durch Caching stattet der Datacore-Storage-Hypervisor die Appliances mit geräteübergreifender synchroner und asynchroner Spiegelung, Auto-Tiering, Thin-Provisioning, Snapshots, Continuous-Data-Protection CDP und weiteren Highend-Funktionen aus. In redundanter Konfiguration kann die Eternus DX80+ damit als kosteneffiziente Metro-Cluster-Lösung eingesetzt werden. 

Bytec ist sechstes Mitglied im Datacore-System-Builder-Programm 

Zunächst sind drei Produktkonfigurationen zertifiziert: Die DX80+ wird als 12-TByte-iSCSI- oder 3,6-TByte-Fibre-Channel-Version zu je 14.990 Euro (empfohlener Endkundenpreis) angeboten. Enthalten ist ein Primergy-Server mit vorinstallierter Sansymphony-V sowie drei Jahren Hard- und Software-Support. Die Primergy RX350 mit vorinstallierter Software kommt mit 10 TByte Kapazität, ist für iSCSI ausgelegt und zu einem Listenpreis von 12.500 Euro geführt. Für hochverfügbare, hochperformante Metro-Cluster-Lösungen sind jeweils zwei Systeme erforderlich. Reseller, VARs und Systemhäuser können über Bytec auch individuelle Konfigurationen zertifizieren lassen. 

Seit Januar 2012 ermöglicht Datacore mit einem System-Builder-Schnellstartprogramm, Storage-/Server-Komplettlösungen mit Sansymphony-V zu zertifizieren und in großer Stückzahl schnell auf den Markt zu bringen. Neben Bytec nutzen bereits Happyware, ICO Innovative Computer, N-Tec, starline Computer und transtec das Datacore-System-Builder-Programm für das Assemblieren von Lösungen unter eigener Marke. Bytec ist eigenen Anfaben zufolge der größte Server- und Storage-Distributor von Fujitsu. 

Donnerstag, 12. Juli 2012

Warum auch die Speicherung virtualisiert werden muss

http://www.itespresso.de/2012/06/26/warum-auch-die-speicherung-virtualisiert-werden-muss/

Endlich sei das Virtualisierungsthema auch bei den Storage-Anwendern angekommen, freut sich Datacore-Gründer George S. Teixera, der schon seit 15 Jahren an diesem Thema arbeitet. Its storage hypervisor virtualizes all around the store. Sein Storage-Hypervisor virtualisiert alles rund ums Speichern.



Mit VMWare, Hyper-V und Xen wurden bereits Rechner und Prozessor-Power von der reinen Hardware-Welt abgetrennt – so liefern die Software-Produkte virtuelle Desktops und Server-Arbeitsplätze an verschiedenste Gerätschaften. “Was die mit der Rechenpower machen, verfolgen wir mit den Speichern”, erklärt Datacore-Gründer George S. Teixera anlässlich der Vorstellung der neuesten Version seines Storage-Hypervisors.


Storage-Virtualisierung nimmt Nutzern technische Einzelheiten ab

Speichervirtualisierung hat zum Ziel, dem Nutzer und dem Administrator die Arbeit mit vielen einzelnen Speichern abzunehmen. “Ob Sie jetzt Storage-Cluster von Dell, Hitachi, HP, EMC, NetApp oder sonst jemandem haben oder in der Cloud beziehungsweise auf USB-Sticks speichern, sollte eigentlich keine Rolle mehr spielen – wichtig ist, dass Sie Ihren Speicher verwalten und optimieren können”, summiert der CEO.

Die verschiedenen Storage-Lösungen seien sogar innerhalb des Angebots einzelner Hersteller nicht immer kompatibel – bei HP seien etwa die EVA-Speichersysteme, die zugekauften 3PAR-Lösungen und die in Servern verkauften Storage-Arrays untereinander nicht verträglich, bei Dell gäbe es noch Probleme mit der Harmonie von Equallogic, Exanet und anderen Storage-Zukäufen. Doch letztendlich sei das dem Kunden vollkommen egal – er wolle nur mehr, schnelleren und funktionierenden Speicher auf Tastendruck, wolle auf größere Speichersysteme wechseln, ohne sich mit den Hardware-Details und einem Migrationsplan herumärgern zu müssen, und er wolle die Sicherheit seiner Daten gewährleistet haben, ohne ich mit gesonderter Backup-Software beschäftigen zu müssen.



All dies führt Teixera als Grund dafür an, wieso sein Unternehmen DataCore sich bereits seit 15 Jahren mit Speicheroptimierung und -virtualisierung beschäftigt – doch bis zum Hype um die Desktop-Virtualisierung und den Werbeslogan von “Big Data” hätte sich fast niemand damit beschäftigt, dass im Grunde auch die Speicher per Software abstrahiert werden müssen...

“Bring your own disk”- BYOD aus Speichersicht
Speicher müssen optimiert und verwaltet werden. Und genau da setzt die Storage-Virtualization an: Ein eigener Hypervisor trennt die technischen Storage-Komponenten wie Medien, Bandbreiten und deren optimale Nutzung von der eigentlichen Hardware ab. DataCore verkündet, dass auch aktuelle Speichertrends (etwa die Diversifizierung auf SSDs, Flash-Speicher, Big SATA oder Private Cloud Sevices) und die Consumerisierung der IT (vor allem BYOD – scherzhaft “bring your own disk” genannt) den Wert von geräteunabhängiger Speichervirtualisierung verstärken.

Ob nun Speicher vom einen oder anderen Speichermedium, von der Cloud oder anders woher kommt, ist damit völlig egal: Bei Nutzung der Storage-Virtualisierung steht für den Kunden immer nur ein Laufwerk im Vordergrund. Dass im Hintergrund viele Platten und andere Medien stehen, dass die Daten automatisch ein zweites Mal gespeichert werden und dass Cache-Speicher die Sicherung beschleunigt (neuerdings mit bis zu einem Terabyte Zwischenspeicher), übernimmt der Storage-Hypervisor automatisch. Auch die Aufteilung der genutzten Speicher in “Storage Tiers” ist automatisiert: Wichtigere, häufig genutzte Daten werden dann von selbst auf dem schnellsten Speicher gesichert, weniger geschäftskritische auf andere Speichermedien...

http://www.datacore.com/Software/Products/SANsymphony-V.aspx



http://www.datacore.com/Software/Products/SANsymphony-V.aspx