Dienstag, 28. Februar 2017

Rund 300 Teilnehmer bei der DataCore Partner-Konferenz 2017



Im Rahmen der  diesjährigen DataCore Partnerkonferenz (25./26. Januar, Frankfurt a.M.) informierten sich rund 300 Teilnehmer in über 30 Präsentationen, technischen Workshops und einer Ausstellung mit 16 namhaften Ausstellern aus Industrie und Distribution über die neuesten Entwicklungen rund um Software-Defined Storage, Virtual SAN und Hyperkonvergenz. Acht Systemhäuser wurden mit Awards für herausragende Vertriebsleistungen 2016 bedacht.

Zu den namhaften Sponsoren und damit Ausstellern bei der Veranstaltung gehörten AccelStor, Fujitsu, HGST, Lenovo, Mellanox, N-Tec, QLogic, Samsung, Seagate, StorageCraft sowie die Wortmann AG, die ihre Kooperation und gemeinsame Lösungen mit DataCore in der Ausstellung und per Präsentation vorstellten. Darüber hinaus informierten die langjährigen Distributionspartner von DataCore, ADN, Arrow ECS, Avnet, Azlan/Tech Data und Bytec, die Vertriebspartner vor Ort über ihre Angebote mit DataCore-Lösungen. Neben den teilweise parallel laufenden Sessions mit den Schwerpunkten Vertrieb, Technik und Marketing bot DataCore seinen erstmaligen Besuchern Besonderes:  Erstmals wurde zudem ein dediziertes Programm für Einsteiger und Neupartner vorgestellt. Vor Ort konnten diese sogar während der Veranstaltung die Zertifizierung zum DCSP (DataCore Certified Sales Professional) ablegen, ein Angebot, das rege angenommen wurde. 

Nach der Begrüßung durch das international und national vertretene DataCore-Team rund um Europa-Chefin Amanda Bedborough resümierte Sales Director Stefan von Dreusche ein erfolgreiches Geschäftsjahr 2016 für das Vertriebsgebiet Central Europe: Mit einer Umsatzsteigerung im sechsten Jahr in Folge, einer Aufstockung der Mitarbeiterzahl auf 35, einem Wachstum auf über 400 Vertriebspartner und 650 zertifizierten DCIEs (DataCore Certified Implementation Engineer) bleibt der deutschsprachige Raum der Umsatz- und Wachstumsmotor der US-amerikanischen Software-Schmiede. Neben dem Stammgeschäft mit der Software-defined Storage-Lösung SANsymphony™, bei dem eine Renewal-Quote von über 90% eine große Kundenzufriedenheit ausdrückt, trug eine Steigerung von 160% beim DataCore™ Hyper-Converged Virtual SAN zum Wachstum bei. Auch mit dem neuen Bulk-Storage-Angebot wurden erste Erfolge erzielt. Dieses ist speziell für die kosteneffiziente Langzeitsicherung und Archivierung selten genutzter Daten konzipiert. Mit entsprechenden Software-Features werden in der Basisversion zwei Knoten in unlimitiertem Ausbau für 100TB mit vollem First-Class-Support von DataCore unterstützt. Erweiterungen erfolgen in Schritten zu je 100 TB und sind zu einem Bruchteil der Kosten in Produktivumgebungen erhältlich.

„Klassischerweise adressieren wir die Anforderung Hochverfügbarkeit und Hyper-Konvergenz als Preis-Leistungs-Angebot für spezifische Anwendungsumgebungen, durch die Integration von Parallel-I/O ebenso das Thema Performance“, sagt Stefan von Dreusche, Director Central Europe bei DataCore. „Mit dem Bulk-Server erweitern wir die Geschäftsmöglichkeiten für unsere Partner in den Bereich Massenspeicher und Langzeitdatenhaltung. Dies beweist die Flexibilität unseres Software-Defined Storage-Ansatzes. Er ist das Fundament auch für die Vertriebsstrategie 2017, die wir unseren Partnern auf der diesjährigen Partnerkonferenz vorgestellt haben.“

Die technische Seite der Weiterentwicklung wiederum erläuterte Christian Marczinke, VP Solution Architecture DataCore Software, in seinem Vortrag zur DataCore-Roadmap und Vision. Er arbeitet mit seinem Team insbesondere an der Zukunft der Parallel-I/O-Technologie, die heute in den Storage-Software-Produkten von DataCore verfügbar ist. Welche Rolle sie einnehmen kann, verdeutlichte Eckhardt Fischer, Research Analyst, European Server Team bei der Analystenfirma IDC, mit seiner Keynote zum Thema „Leistungshungrige Workloads und neue Computing Modelle“. IDC postuliert gegenwärtig eine digitale Transformation zur „3rd Platform“, der Cloud. Diese sei im Gegensatz zu On-Premise-Modellen in einer dynamischen Wachstums- und Innovationsphase, wobei die Private Cloud schneller wachse als die Public Cloud und sich 2017 in eine kritische Innovationsphase bewege. Leistungshungrige Applikationen und Workloads, etwa durch Datenbanken, IoT oder Analytics bedingt, erzeugen die Notwendigkeit, Technologieinnovation näher an Geschäftsanforderungen auszurichten. Für DataCore wird es darum gehen, Parallel-I/O an die neuen Computing-Modelle heranzuführen.

Zum Abschluss der Veranstaltung wurden insgesamt acht Systemhäuser für ihre herausragenden Vertriebsleistungen 2016 bedacht. Umsatzstärkster DataCore-Partner 2016 war zum wiederholten Male die Bechtle AG. Eine bedeutende Falconstor-Ablösung bei einem Kölner Medienunternehmen gelang Kramer & Crew, einem der langjährigsten und erfolgreichsten Virtualisierungsspezialisten im deutschsprachigen Markt. Im wichtigen Enterprise-Segment tat sich die Leitwerk AG mit dem „Cloud-Projekt des Jahres“ hervor, während die Wortmann AG für ein 2-Petabyte-Projekt als erfolgreichster Hoster ausgezeichnet wurde. Erst im Jahr 2016 startete dagegen die Bohnen IT, die als bester Newcomer in den Einstiegsmärkten prämiert wurde. Durch Erfolge im öffentlichen Sektor insbesondere in Ostdeutschland tat sich die PBIT Systeme besonders hervor. Als erfolgreichster Reseller mit DataCores 2016 eingeführtem Hyper-Converged Virtual SAN erwies sich schließlich Mahr & Müller Informationssysteme. Neben Technik und Vertrieb würdigte der Hersteller erstmals auch besonders erfolgreiche Marketing-Maßnahmen, die Netplans einen Award einbrachte.

Die DataCore Awards 2016 In der Übersicht:
-       Outstanding Performance 2016: Bechtle AG
-       Competitive Replacement 2016: Kramer & Crew GmbH & Co. KG
-       Enterprise Reseller 2016: Leitwerk AG
-       Hoster of the Year 2016: Wortmann AG
-      SME Market Newcomer 2016: Bohnen IT GmbH
-      Public Sector Project 2016: PBIT Systeme GmbH & Co. KG
-  Hyper-Converged Virtual SAN Reseller 2016: Mahr & Müller Informationssysteme GmbH
-       Marketing Campaign 2016: Netplans GmbH


Robert Thurnhofer, als Senior Marketing Manager Organisator des Events, resümiert: „Hinter den Trendthemen SDS, Hyperkonvergenz und Cloud steckt die Herausforderung für den Channel, für seine Kunden Hochverfügbarkeit und Performance moderner Dateninfrastrukturen kosteneffizient abbilden und wirksam in die Geschäftsprozesse einbinden zu können. Das positive Feedback bei der DataCore Partnerkonferenz 2017 zeigt uns erneut, dass wir dabei unseren Partnern vertrieblich wie technologisch wertvolle Unterstützung bieten.“


Montag, 27. Februar 2017

CEO George Teixeira im speicherguide-Interview: Parallel-Processing-Software wird zum “Game Changer”

Dieses Interview ist veröffentlicht auf speicherguide.de

Parallel-I/O-Technologien haben das Potenzial, die Datacenter zu verändern. Herkömmliche Applikations- und Storage-Bereiche für Geschäftstransaktionen, Cloud-Computing, Datenbanken, Datenanalyse, interaktive Anwendungen und das IoT sollen davon profitieren. Davon gibt sich George Teixeira, President und CEO von Datacore Software, im Interview überzeugt.

  Herr Teixeira, welche Technologie sehen Sie als den entscheidenden Impulsgeber für das laufende Jahr?

George Teixeira, President und CEO, Datacore SoftwareTeixeira: Ich bin überzeugt davon, dass Parallel-Processing-Software in der Tat ein »Game Changer«, ein entscheidender Impulsgeber im Jahr 2017 werden wird, vor allem, weil sie umwälzende Auswirkungen auf die Produktivität in Rechenzentren hat. Trotz aller technologischen Fortschritte bleibt immer noch so viel Computing-Potenzial moderner Multi-Core-Systeme ungenutzt, statt damit die Wirtschaftlichkeit, Produktivität und Einsatzgebiete der IT maßgeblich zu steigern. Parallel-Processing wird aus spezifischen Anwendungsfeldern wie HPC oder Molekularbiologie heraustreten und ein breiteres Spektrum an Applikationen erreichen. Herkömmliche Applikations- und Storage-Bereiche für Geschäftstransaktionen, Cloud-Computing, Datenbanken, Datenanalyse, interaktive Anwendungen und das IoT werden profitieren.

  Und was werden die Treiber bei den Anwendern für den Einsatz von Parallel-Processing-Software sein?

Bei Serial-I/O muss die parallel arbeitende CPU ständig auf die I/O-Prozesse warten (Bild: Datacore Software)Teixeira: Zunächst: Diese Software lässt sich einfach anwenden und nahtlos in die allgemeine Nutzung einbinden. Wenn sie dies tut, kann sie die Antwortzeiten von Applikationen, Workloads und Systemdichte in virtualisierten Umgebungen und der Cloud extrem verbessern, da diese nicht mehr unter dem Missverhältnis zwischen Compute- und I/O-Leistung leiden. Treiber dieser Entwicklung sind der zunehmende Mangel an Wirtschaftlichkeit und Produktivität. Heute sind neue Applikationen beispielsweise im Bereich der Analytics nicht praktikabel, weil sie hunderte, wenn nicht tausende Server verschlingen, die Multi-Threading beherrschen, aber den I/O-Job nicht erledigen können. 2017 werden wir Innovationen sehen, die dafür sorgen, dass ein Server so viel leistet wie zehn oder 100 Server in der Vergangenheit. Dies wird durch neue Parallel-I/O-Technologien möglich, die keine Veränderungen an Applikationen erfordern, jedoch die volle Leistungskraft der Multi-Core-Architekturen nutzen kann, um den I/O-Flaschenhals zu beseitigen. Dies führt zu einer 2017 revolutionär besseren Produktivität in der Mainstream-IT.

  Können Sie den Einfluss auf Anwendungen wie Echtzeit-Analytik und Big Data erläutern?

Parallel-I/O löst den Flaschenhals für die parallel arbeitende CPU, die nun nicht mehr auf die I/O-Prozesse warten muss (Bild: Datacore Software)Teixeira: Der Schlüssel ist die parallele I/O-Abarbeitung, da diese Applikationen immer mehr Interaktionen und Transaktionen mit immer höherer Geschwindigkeit in kürzeren Latenzzeiten erfordern. Die Kombination kürzerer Latenz mit größerer Produktivität durch Parallelisierung wird Echtzeit-Analysen, Big Data und Datenbankperformance weiter voranbringen, da sie diese Anwendungen praktikabel und bezahlbar macht. Die Auswirkungen auf die Produktivität und die unternehmerische Entscheidungsfindung auf der Grundlage von Daten-Erkenntnissen in Sektoren wie Finanz- und Bankenwesen, Einzelhandel, Betrugserkennung, Gesundheitswesen und Mikrobiologie sowie im Bereich maschinellen Lernens (Machine Learning) und der so oft beschworenen Internet-of-Things-Anwendungen werden tiefgreifend sein.


  Wie werden sich die Parallel-I/O-Technologie auf Microsoft-Technologien wie Azure-Stack, Hybrid-Cloud, Windows und SQL Server 2016 auswirken?

Vor allem Datenbanken profitieren enorm von Parallel-I/O-Technologie (Bild: Datacore Software)Teixeira: Microsoft hat als einer der ersten Anbieter verstanden, dass auch zukünftig On-Premise- und Cloud-Architekturen nebeneinander existieren. Erfolg und Wachstum von Microsofts Azure-Cloud sind bereits offensichtlich, aber so richtig kommt das erst durch Microsofts Strategie zu tragen, beide Welten zu kombinieren. So wird der Microsoft-Azure-Stack weiterentwickelt, um eine nahtlose Verbindung zwischen Public- und Private-Cloud herzustellen. Er ist das Vorbild für die Hybrid-Cloud geworden. Ebenso setzt Microsoft die Integration seiner Windows- und Server-Lösungen weiter fort, um noch besser und übergangslos in der Cloud arbeiten zu können.

Eine der wichtigsten Neuerungen bei Microsoft ist, dass sie ihre Datenbank als echte Big-Data- und Analytics-Plattform für die Zukunft weiterentwickelt haben. SQL Server 2016 ist deutlich leistungsfähiger und bewältigt nun alle Arten von Daten. Als Plattform ist es darauf ausgerichtet, mit Microsofts breitem Netz von Kooperationspartnern und deren Diensten zu funktionieren. Datacore mit seinen Parallel-Processing-Innovationen ist ein Teil dieses Partnernetzwerks und hilft dabei, die Möglichkeiten für Rechenzentren neu aufzustellen: Was ist in Unternehmen mit der Cloud und der Big-Data-Performance machbar? Welche Echtzeit-Analytics lassen sich so gestalten, dass sie für herkömmliche Geschäftsanwendungen ebenso wie für neue Anwendungsbereiche wie dem Maschinellen Lernen, dem Cognitive-Computing und im Internet der Dinge (IoT) anwendbar sind?

  Wie hat sich Ihrer Meinung nach Storage in den letzten Jahren verändert?

Teixeira: Server bestimmen zunehmend, was Storage ist. Storage besteht heute vielmehr aus Server und Software-definierter Infrastruktur. Traditionelle Speichersysteme können dabei nicht mehr mithalten und werden durch Standard-Server ersetzt, die Software nutzen, um die Storage-Herausforderungen zu bewältigen. Storage-Services werden dabei zu einer Applikation und damit flexibel und kosteneffizineter. Server-SAN, virtuelles SAN, webskalierte, scale-out und hyper-konvergente Systeme sind allesamt zusammengesetzt aus Standard-Hardware, -Flash und -Disks, den wahren Unterschied macht die Software. Parallel-Processing-Software für die optimale Nutzung von Multicore-Servers wird dabei zu einer revolutionär höheren Produktivität führen und das Credo »Server ist das neue Storage« weiter etablieren. Studien, wie Parallel-I/O-Software mit Standardhardware zum weltweiten Spitzenreiter in Sachen Performance, Preis-Performance und Latenz wird, liegen bereits vor.

  Was kommt nach Flash?

Teixeira: Flash war die nächste große Sache – und hat sich längst etabliert. Aber nach wie vor sind Produktivität und Performance ein Problem für viele Enterprise-Applikationen, vor allem Datenbanken. Die Antwort ist also: Wir benötigen die Parallelisierung des I/O-Processing. Dadurch, dass wir die Technologie so nahe wie möglich an die Applikation heranführen, vermeiden wir überflüssigen I/O-Traffic zwischen Geräten und bewirken dabei weitaus mehr als nur die Optimierung einzelner Geräte, wie es durch Flash und SSD der Fall ist. Mit der Kombination von Flash und Parallel-I/O können wir mehr Anwendungen schneller nutzen, mehr Arbeit erledigen und gleichzeitig neue Anwendungsfelder öffnen.

Hyper-Konvergenz ist so ein Thema, und es ist ein weiterer Wachstumsmarkt. Hyperkonvergente Systeme bestehen heute im Wesentlichen aus einem Server und einer software-definierten Infrastruktur, aber oft sind sie in Bezug auf Performance- und Anwendungsfälle stark eingeschränkt und zu oft fehlen ihnen die Flexibilität und die Möglichkeiten, um in die gesamte IT-Umgebung implementiert zu werden (zum Beispiel, weil sie Fibre-Channel nicht unterstützen, ein häufiges Schlüsselelement für Unternehmens- und Datenbank-Konnektivität). Hyper-konvergente Software wird immer populärer werden, aber um ihren Erfolg zu sichern, müssen die Nutzer in der Lage sein, das ultimative Produktivitätsversprechen hyperkonvergenter Systeme voll auszuschöpfen. Das eigentliche Ziel ist eine Art Hyperproduktivität zu so geringen Kosten wie möglich und der bestmöglichen Leistungsstärke. Eine bessere Auslastung der eigenen Speicher und Server, um Anwendungen reibungsfrei zum Laufen zu bringen, ist entscheidend.

So kann die Software alle vorhandenen Flash- und Plattenspeicher integrieren, ohne dass zusätzliche Silos entstehen; die Daten-Migration und -Verwaltung über die gesamte Speicherinfrastruktur wird möglich, und der Anwender kann in der Cloud gespeicherte Daten effektiv nutzen. Gleichzeitig lassen sich Kosten sparen, weil etwa weniger Nodes benötigt werden, wenn leistungsstarke Software-definierte Speichertechnologien parallel mehrere I/O-Funktionen ausüben können. So profitieren auch hyperkonvergente Systeme von der Parallel-I/O-Technologie.

  Und was sehen Sie schlussendlich als den nächsten großen Wurf für 2017?

Teixeira: Der nächste Schritt besteht aus Parallel-Processing und seinen Auswirkungen auf die Produktivität. Weiterhin werden software-definierte Lösungen die kostengünstige Nutzung von Standardhardware vorantreiben. Software sorgt für größere Funktionalität, mehr Automation und umfassende Services in der kompletten Dateninfrastruktur. Parallel-Processing-Software wird dabei die ungenutzten Computing-Kapazitäten zugänglich machen, niedrige I/O-Raten und unzumutbare Latenzen eliminieren, die der Performance von Applikationen ebenso im Weg stehen wie tatsächlichen Kosteneinsparungen durch Konsolidierung. All dies zusammen wird neue Applikationen und Anwendungsfelder mit höherer Leistung, Echtzeit-Reaktionsfähigkeit, eine massive Konsolidierung und kleinere Footprints ermöglichen.

Dieses Interview ist veröffentlicht auf speicherguide.de

Freitag, 24. Februar 2017

Carrie Reber leitet DataCores weltweites Marketing

DataCore Software ernennt Carrie Reber zum Vice President für weltweites Marketing. Carrie Reber ist eine anerkannte Marketing- und Kommunikations-Strategin mit breiter Erfahrung in der IT-Branche sowie der Entwicklung und Umsetzung strategischer Kommunikation und Positionierung für innovative Softwareunternehmen. In ihrer neuen Position ist sie unter anderem verantwortlich für die Marktpoisitionierung von DataCores Parallel-Processing-Technologie.

Carrie Reber weist mehr als 20 Jahren Erfahrung in der Technologiebranche auf. Zuletzt verantwortete sie als Vice President das weltweite Marketing bei Datto. Zuvor war sie in leitenden Positionen bei Infinio tätig und baute bei Veeam die Marketingorganisation auf, die den rapiden Aufstieg des Softwareunternehmens vom Start-up bis zu einem Global Player mit 100 Millionen Dollar Umsatz unterstützten. Darüber hinaus war sie als Director Product Public und Analyst Relations bei Quest Software tätig und arbeitete in verschiedenen Marketing-Funktionen für Unternehmen wie Aelita Software, Legent Corp. und CompuServe.
 
Mit der revolutionären Parallel-I/O-Technologie für DataCore™ Hyper-converged Virtual SAN und SANsymphony™ erzielt DataCore Bestmarken bei Performance, Preis-Performance und Latenzzeiten. Dadurch verzeichnet das Unternehmen zweistellige Wachstumsrate in Schlüsselregionen in Amerika, EMEA und APAC. Reber wird daher ein Hauptaugenmerk darauf legen, die globale Markenbekanntheit von DataCore weiter auszubauen und dabei besonders die Leistungs- und Produktivitätsvorteile der Parallel-I/O-Technologie für Datenbank-, Analyse-, Echtzeit- und Transaktionsverarbeitungs-Anwendungen zu vermitteln.

“Ich freue mich, dass wir mit Carrie jemanden gewinnen konnten, der ein solches Format und einen derartigen Erfahrungsschatz in unser Team einbringt”, sagte George Teixeira, President und CEO von DataCore. “Als Unternehmen mit mehr als 10.000 Kunden müssen wir unseren erfolgreichen Weg weiter vorantreiben und neue Kunden gewinnen, um unser Kerngeschäft zu fördern. Gleichzeitig wollen wir die neuen Möglichkeiten mit unserer bahnbrechenden Parallel-Processing-Technologie voll ausschöpfen. Carries Management-Kompetenz wird dazu beitragen, dass DataCore diese strategisch wichtigen Initiativen erfolgreich umsetzt.”


Montag, 20. Februar 2017

All-Flash-Arrays der NeoSapphire-Reihe von AccelStor jetzt „DataCore Ready“ zertifiziert

Schneller Flash für die schnellste Infrastruktur: All-Flash Arrays von AccelStor jetzt mit DataCore-Software kompatibel

NeoSapphire 3605 und NeoSapphire 3611 von AccelStor haben ausgezeichnet abgeschnitten und positionieren sich als Tier-1-Speicher in der DataCore-Umgebung. Bei dem Test von DataCore mit SANsymphony mit integrierter DataCore™ Parallel-I/O-Technologie zeigten diese All-Flash-Arrays eine gute Leistung, selbst unter strengen Belastungstests. Sie erzielten eine I/O-Antwortzeit von weniger als einer Mikrosekunde und eine enorme IOPS-Leistung. Darüber hinaus funktioniert die FlexiRemap-Technologie von AccelStor optimal in realen DataCore-Umgebungen und verbessert insgesamt das Nutzererlebnis des Systems.
   
Die NeoSapphire-Reihe hat eine überlegene Leistung gegenüber dem Wettbewerb nachgewiesen, insbesondere im schwierigsten Szenario: Tests zufälliger 4-KB-Schreiboperationen. Die Kooperation zwischen AccelStor und DataCore kann die IT-Infrastrukturleistung auf die nächste Ebene heben. DataCore SANsymphony und die DataCore™ Hyper-converged Virtual SAN-Software kommen bei mehr als 10.000 Kunden zum Einsatz. Der Vorteil von Speichervirtualisierungssoftware ist das breite Spektrum bei der Unterstützung verschiedener Anwendungen und vielfältiger Speicherarten. Sie strafft auf einfache Weise Systeme, die sowohl Flash-Speicher als auch alte Laufwerke verwenden. Sie funktioniert, indem sie für alle verfügbaren Speicherpools Klassen (Tiers) von 1 bis 15 definiert. Im Zuge des kontinuierlichen Datenzugriffs werden häufig verwendete Daten auf die schnellste Schicht verlagert: Tier 1, auf der NeoSapphire-Arrays die Leistung des gesamten Systems steigern können.

„AccelStor freut sich, strategischer Technologiepartner von DataCore zu sein“, sagte Alan Lin, Senior Manager von AccelStor. „Wir sind begeistert, dass unsere Produkte unter Nutzung der SANsymphony-Umgebung von DataCore als infrastrukturelles Backbone für kritische Systeme dienen. AccelStor und DataCore verfolgen gemeinsam die Vision, unseren Kunden führende Technologie und Produkterweiterungen zur Verfügung zu stellen, um ihre Anforderungen zu erfüllen.“
   
„Unser DataCore Ready-Programm zeichnet erstklassige Speicherlösungen aus, die softwaredefinierte Speicherinfrastrukturen von DataCore erwiesenermaßen optimieren. Wir freuen uns, die DataCore Ready-Zertifizierung heute einem führenden All-Flash-Anbieter wie AccelStor zu verleihen. Die intensiven Tests haben ergeben, dass die Kombination aus NeoSapphire All-Flash-Arrays von AccelStor und SANsymphony mit der einzigartigen Parallel-I/O-Technologie perfekt zusammenspielt, softwaredefinierte Speicherung auf eine ganz neue Ebene hebt und extreme Leistung bei äußerst niedriger Latenz bietet“, sagte Alexander Best, Director Technical Business Development von DataCore.
   
Weitere Produkteinzelheiten und Spezifikationen finden Sie auf der Produktseite von NeoSapphire 3605 und NeoSapphire 3611 unter https://www.accelstor.com/overview.php?id=16 und https://www.accelstor.com/overview.php?id=17.
 
 

Freitag, 17. Februar 2017

Distributor Macle schnürt Komplettlösungen mit Datacore

Andreas de Matteis, Geschäftsführer, MacleAndreas de Matteis, Geschäftsführer, Maclehttps://www.speicherguide.de/news/distributor-macle-schnuert-komplettloesungen-mit-datacore-22871.aspx

...Der niederrheinische Value-Added-Distributor macle klettert den Value-Chain eine deutliche Stufe höher, und bietet nun auch maßgeschneiderte Software-defined-Storage-Lösungen (SDS) an. Sie basieren auf diversen Hardware-Plattformen, und der »SANsymphony«-Software aus dem Hause DataCore Software. Das erste Auftaktangebot von Macle basiert auf Storage-Servern von HPE (Hewlett Packard Enterprise). Später sollen Lösungen folgen, die auf Lenovo- und Grafenthal-Hardware aufbauen. Bei Grafenthal handelt es sich um die frühere Eigenmarke des Distributors, die 2012 als eigenständige Gesellschaft ausgegliedert wurde.
Die von Macle angebotene Lösung mit Hardware von HPE umfasst zwei redundant ausgelegte Storage-Server der neuesten Generation. Die Systeme werden parallel betrieben, so dass ein störungsfreier Betrieb der Lösung auch dann gegeben ist, wenn eine Einheit ausfällt. Für Unternehmen jeglicher Größe bieten die neuen Storage-Lösungen von Macle eigenen Angaben zufolge gleich vier Vorteile: Höhere Performance, reduzierte Ausfallzeiten, verbesserte Auslastung und niedrige Kosten.

Datacore-Parallel-I/O-Technologie reizt moderne Multi-Core-Prozessoren erst so richtig aus

Sansymphony von Datacore ist bekannt dafür, dass verschiedene Storage-Lösungen unter einer einzigen Verwaltungsoberfläche zusammenführen (virtualisieren) lassen. Mit der neuen Datacore-Parallel-I/O-Technologie wird das Potenzial moderner und performanter Prozessoren ausgeschöpft, und die Leistungsfähigkeit der Storage-Lösungen ungefähr um den Faktor drei verbessert. Datacore gewann mit der Parallel-I/O-Technologie diverse Benchmarks mit vergleichsweise günstiger Hardware, und stellte wesentlich teurere Lösungen in den Schatten.

Macle will mit den neuen Angeboten auf den starken Anstieg der Datenmengen in Unternehmen reagieren. »Heterogene Speicherlandschaften und das rasante Wachstum machen es den IT-Abteilungen schwer, die Verfügbarkeit und Flexibilität der Daten zu gewährleisten«, erklärt Andreas De Matteis, Geschäftsführer von Macle. »Hinzu kommt, dass die IT-Budgets leider keine so enormen Wachstumsraten aufweisen, wie der Bedarf an Speicherlösungen. Moderne und flexible Ansätze sind also gefragt, um die Kontrolle über bestehende Systeme zu erlangen.«