Software-Defined Storage: So baut man moderne Speicherinfrastrukturen

Autor / Redakteur: Dr. Dietmar Müller / Jürgen Ehneß

Software-Defined Storage ist nicht gleich Software-Defined Storage. Mittlerweile haben sich verschiedene Verfahren etabliert. Viele SDS-Produkte können auf dem Server-Betriebssystem oder in einer virtuellen Maschine laufen, On-Premises oder, oder, oder.

Das Leben ist kompliziert genug – warum es mit jeder Menge Hardware belasten?
Das Leben ist kompliziert genug – warum es mit jeder Menge Hardware belasten?
(Bild: gemeinfrei / Pixabay )

SDS-Anbieter (Software-Defined Storage) bieten in der Regel Listen mit zertifizierten Hardware-Optionen an. Einige Software-definierte Speicherhersteller verkaufen Produkte, die – wie gesagt – Software mit Standard-Server-Hardware verpacken, um die Beschaffung und den Einsatz für Kunden zu erleichtern. Viele SDS-Produkte ermöglichen es den Nutzern auch, die Rechen- und Speicherressourcen separat zu skalieren.

Eine hyperkonvergente Infrastruktur etwa ist stets mit Standard-Hardware verbunden; entsprechende Produkte kommen etwa von Hewlett Packard Enterprise, Nutanix oder Pivot3. Mehrere große Speicherhersteller haben Software-Versionen von Produkten auf den Markt gebracht, die zuvor an bestimmte Hardware gebunden waren.

Je nach Reifegrad eines Unternehmens kommen verschiedene Storage-Strategien zum Zuge. Vor allem All-Flash-Arrays kristallisieren sich aktuell als der neue Storage-Standard heraus. Der Vorteil hierbei liegt in sehr geringen Latenzen, einer hohen IOPS-Rate und einer hohen Speicherdichte – bei recht geringem Energiebedarf. Darüber hinaus setzen sich zunehmend Hyper-Converged Infrastructures (HCI) und Software-Defined Storage (SDS) durch. Im Folgenden definieren wir die verschiedenen Ansätze genauer:

Software-Defined Storage (SDS)

Bis hierher sollte schon klar geworden sein: Der Cloud der Software-definierten Speicherung (SDS) liegt in der Abstraktion von der darunter liegenden Hardware. Flash-, Festplatten- und Cloud-Speicher können bedarfsgerecht gekoppelt und genutzt werden; entscheidend ist die Software, die das Ganze zusammenhält.

Ergänzendes zum Thema
Vorteile von SDS
  • Entkoppelung von Hardware, die flexibel und kostengünstig bereitgestellt und hinzugefügt werden kann,
  • Einsatz kostengünstiger Hardware möglich,
  • Transparenz durch das Management der Storage-Landschaft über eine Konsole hinweg,
  • weniger Komplexität durch das Management der Storage-Landschaft über eine Konsole hinweg,
  • einfache Umsetzung von Inline-Deduplizierung und verlustfreie Kompression,
  • Beseitigung von Datensilos,
  • Kombination aus Datei-, Block- und Objektspeicherung möglich,
  • Vereinfachung des Disaster Recovery,
  • Zukunftssicherung durch Offenheit neuer Verfahren wie Cloud, Container oder Openstack gegenüber; diese können einfach in die Software eingebunden werden,
  • einfache Umsetzung von Reporting und Compliance,
  • integrierte Predictive-Analytics kann Speicherplatz auf Basis vorhergehender Nutzungsmuster automatisch zuweisen,
  • Vermeidung von Vendor-Lock-in.

Die Storage Network Industry Association (SNIA) hat versucht, wichtige Merkmale zu sammeln, mit denen sich SDS definieren lassen:

  • 1. Automatisierung inklusive vereinfachtem Management,
  • 2. Standardschnittstellen für die Bereitstellung und Verwaltung von Speichergeräten und -diensten,
  • 3. virtualisierter Datenpfad – Block-, Datei- oder Objektschnittstellen für passende Anwendungen,
  • 4. Skalierbarkeit – die Speicherinfrastruktur muss ohne Störung der angegebenen Verfügbarkeit oder Leistung ausgebaut werden können,
  • 5. Transparenz – die Möglichkeit für die Speicherkonsumenten, ihren eigenen Speicherverbrauch gegen verfügbare Ressourcen und Kosten zu überwachen und zu verwalten.

Oft – manche Definitionen sprechen von „immer“ – wird SDS mit der Virtualisierung der Speicherumgebung verbunden. Die Storage-Hardware wird in Storage-Pools geordnet, und zwar egal, ob ein Direct-Attached-Storage- (DAS-) oder ein Storage-Area-Network-Ansatz (SAN-Ansatz) verfolgt wird. So wird erst die automatisierte Speicherverwaltung möglich. Mit SDS-Software lassen sich Richtlinien für Datendeduplizierung, Replikation, Thin Provisioning, Snapshots und Sicherung regeln und durchsetzen.

Die Software für SDS ist heutzutage in der Regel Open-Source-basiert; Beispiele dafür sind Ceph, FreeNAS, Gluster oder auch OpenStack Swift. In den vergangenen Monaten war zu beobachten, dass Ceph sich stark durchgesetzt hat und fast schon einen Standard bildet.

All-Flash-Arrays und Hybrid-Flash-Arrays

Keine Software ohne Hardware. SDS-Konzepte wurden erst möglich, als Software-basierte Speicherbausteine verfügbar wurden. Herkömmliche Storage-Landschaften waren entweder als Storage Area Networks (SAN) oder als Network Attached Storage (NAS) organisiert. Das Storage-Array besteht in beiden Fällen aus Dutzenden oder Hunderten von Festplatten. In einem All-Flash-Array (AFA) wurden diese Festplatten einfach durch Flash-Speicher ersetzt, so dass ein AFA immer noch ein SAN oder ein NAS ist, nur sehr viel schneller. Denn der Vorteil von Flash ist seine geringe Latenz. Ingenieure könnten CAD-Dateien in Sekunden statt in Minuten herunterladen. Der Kundendienst kann schneller reagieren, weil Datenbankabfragen „blitzschnell“ erfolgen, auch Websites laden schneller.

Die Leistung von AFAs hängt allerdings von der jeweiligen Architektur ab: In der ersten Generation von AFAs wurden Festplatten einfach durch Flash-Bausteine ersetzt; prinzipiell können entsprechende Systeme sowohl Platten als auch Flash-Bausteine nutzen, man spricht daher von Hybrid-Flash-Arrays (HFAs).

In der zweiten Generation von Flash-Speicherlösungen wurde die Infrastruktur speziell auf die Flash-Bausteine zugeschnitten – so etwa im Fall der Anbieter Pure Storage, EMC ExtremIO und Dell Compellent –, was sie geschmeidiger und leistungsfähiger machte. Dies nun sind „echte“ All-Flash-Arrays.

„Noch hält sich in vielen Köpfen hartnäckig das Gerücht, dass die heutigen All-Flash Arrays anfällig für Verschleiß und vor allem sehr teuer sind – Fehlanzeige“, urteilte 2018 Dr. Carlo Velten, Senior Analyst & CEO von Crisp Research. Flash-basierte Speichersysteme könnten sich bei einer Vollkostenbetrachtung (TCO) durchaus mit konventionellen Storage-Systemen wie etwa 15k-Platten messen. Dabei böten AFAs gerade bei Performance-hungrigen Workloads und einer Vielzahl an Enterprise-Applications eine deutlich bessere Leistung (IOPS).

AFAs haben sich durchgesetzt

In der Crisp-Studie „Digital Infrastructure Innovation 2020 – Das Data Center als Innovationsbeschleuniger – Storage-Strategien für das Rechenzentrum der Zukunft“ wird anhand von 179 Interviews nachgewiesen, dass ein Großteil der Unternehmen gerade in der Phase der Evaluierung und Einführung von Flash-basierten Storage-Systemen sind. Gerade die Innovationssprünge und der Preisverfall bei All-Flash-Arrays machten diese „zum neuen De-facto-Storage-Standard für den Unternehmenseinsatz“. Crisp benennt als Vorzüge die bekannt geringe Latenz, höhere IOPS, eine höhere Speicherdichte und einen geringerer Stromverbrauch.

Nicht verschwiegen werden soll aber ein Nachteil von AFAs – nein, nicht die im Vergleich zu Festplatten höheren Kosten, sondern die geringe Kapazität: AFAs erreichen derzeit etwa 100 TB, Standard-Arrays operieren dagegen im Petabyte-Bereich. Damit eignen sich AFAs am besten für geschwindigkeitssensible Daten, die öfter gelesen werden müssen als geschrieben, weil jedes Flash-Laufwerk eine begrenzte (wenn auch gut dokumentierte) Menge an Schreibzyklen hat, bevor es ausfällt.

Trotzdem: AFAs setzen sich – wie von Crisp beschrieben und in der Studie nachgewiesen – großflächig durch. Neben den genannten Vorzügen gibt es im Rechenzentrumsumfeld noch weitere triftige Gründe dafür: Flash-Medien sind physisch kleiner als Festplatten, so dass die Gesamtzahl der Racks abnimmt. Für Rechenzentren (RZ) ein wahrer Segen! Genauso wie die Tatsache, dass Flash weniger Leistung verbraucht, weil keine Motoren Köpfe bewegen müssen. Das wiederum bedeutet weniger erzeugte Wärme, die abgeführt werden muss. Insider wissen, dass die Klimatisierung von RZ Unsummen verschlingt.

Die All-Flash-Technologie ist so heiß, dass der Markt geradezu brodelt; NetApp, Kaminario, Violine, Pure Storage, Promise Technology, Fujitsu, Hewlett Packard Enterprise, IBM, Hitachi Data Systems, SanDisk, Huawei und Dell EMC sind nur einige der wichtigsten Anbieter.

Ergänzendes zum Thema
Die drei wichtigsten Fragen und Antworten zu All-Flash-Arrays
  • Was sind All-Flash-Arrays? Überraschend schnell.
  • Warum sind alle All-Flash-Arrays beliebt? Geschwindigkeit verändert alles. Eine zehnmal schnellere Lesesetzzeiten bedeutet, dass das gesamte Unternehmen effizienter arbeiten kann – und dass Kunden zufriedener sind.
  • Für wen lohnen sich All-Flash-Arrays? Für alle Unternehmen, denen Geschwindigkeit wichtig ist.

Converged und Hyper Converged Infrastructures (HCI)

SDS wird oft synonym mit den für mittelständische Unternehmen besonders interessanten Converged Infrastructures genannt – in denen Server, Datenspeichergeräte, Netzwerkfunktionen, Virtualisierung, Management-Software, Orchestrierung und Anwendungen zusammengefasst wurden. Das war eine gute Idee, aber immer noch vergleichsweise komplex. Die nachfolgenden hyperkonvergenten Infrastrukturen (HCI) rahmten dieselben Komponenten ein, allerdings in einer skalierbaren Appliance beziehungsweise einem skalierbaren Rack inklusive – man ahnt es – Hypervisor.

HCI wurde als „erster großer Schritt“ hin zum vollständig Software-definierten Data-Center (SDDC) gefeiert. Und es gab ja auch für die Administratoren Grund zum Jubeln: HCI machte komplexe NAS/SAN-Strukturen überflüssig, was die Arbeit deutlich vereinfachte und die gesamte Arbeitsfläche verringerte – mit all den damit verbundenen finanziellen Einsparungspotentialen. Zusätzlich schont die Möglichkeit des Managements aller Funktionen über eine einzige GUI die Nerven der Admins.

Der Analyst Jan Mentel von Crisp Research urteilte unlängst, dass hyperkonvergente Konzepte „in den vergangenen Jahren eine hohe technologische Reife erreicht haben. Für CIOs ergibt sich damit die Chance, eine skalierbare Cloud-Umgebung im eigenen Rechenzentrum aufzubauen, ohne Abstriche bei den IT-Sicherheitsanforderungen zu machen oder die Komplexität der eigenen IT-Organisation zu erhöhen. HCI bieten dank ihrer Hardware-unabhängigen, automatisierten und Software-definierten Architektur vielfältige Einsatzmöglichkeiten und wesentliche strategische Vorteile bei der Modernisierung von Rechenzentrums- und Infrastrukturbetrieben.“

Charakteristisch für die aktuelle Generation an HCI sind laut Mentel folgende Eigenschaften:

  • Der Flash-basierte Speicher kann direkt angesprochen werden, ohne dass Latenz- und Connectivity-Probleme Bottlenecks verursachen. Das führt zu einer hohen I/O-Performance und Skalierbarkeit.
  • Die Kombination von Distributed File Systems und artverwandten Technologien resultiert in hoher Kompression, Reduplikation und effizienter Verwaltung der Daten.
  • Betriebsrisiken im Hinblick auf Verfügbarkeit, Ausfallsicherheit sowie Datensicherheit werden reduziert. „Durch eine lineare Skalierung – also die Fähigkeit, die Umgebung gleichzeitig um Knoten und die dazugehörigen Ressourcen wie Server, Speicher und RAM zu erweitern – sind HCI in der Lage, den Ausfall eines Knotens schadlos zu überstehen, da die Daten mithilfe von RAIN an mehreren Knoten repliziert werden“, so Mentel.
  • Neue Umgebungen können in sehr kurzer Zeit aufgesetzt werden, auch komplette Produktionsumgebungen von SAP-Workloads. Was uns zum nächsten Punkt bringt:

Für wen lohnt sich eine HCI?

Analysten erklären uns, dass auf der HCI vor allem Enterprise-Anwendungen laufen, allen voran die zentralen ERP-Workloads. Im Falle des deutschen Mittelstands ist das natürlich vor allem SAP. Betreiber müssen sich dank HCI nicht mehr mit der Komplexität von Bare-Metal- und Three-Tier-Storage-Area-Network (SAN) auseinandersetzen, Administratoren nicht mehr extra um die Konfiguration einzelner Server oder Speicherkapazitäten für jede SAP-Anwendung kümmern.

Crisp-Analyst Mentel berichtet, dass SAP-Bestandskunden, die sich eine hyperkonvergente Infrastruktur angeschafft hätten, dies als große Erleichterung erlebten. „Viele dieser Kunden entscheiden sich zunächst dafür, eine Testumgebung zu virtualisieren, um sicherzustellen, dass eine virtualisierte Umgebung die Geschäftsziele erreicht. Sie stellen fest, dass eine Workload-Migration mit nur einem Mausklick möglich ist. Diese Erkennung wird häufig als Ausgangspunkt für die Migration anderer SAP-Workloads verwendet“, so Mentel. Es gebe aber Probleme mit anderen Workloads, die Implementierung von HCI in bereits vorhandene Infrastrukturen gelte als „nicht gerade einfach“.

Die verschiedenen Angebote im Überblick

Anwenderunternehmen haben die Qual der Wahl. Wie gut, dass Gartner uns mit seinem „Magic Quadrant“ für HCI versorgt hat. Allerdings fehlen für den deutschen Markt wichtige Anbieter; namentlich sind das Fujitsu, Hitachi Vantara und Lenovo, weil deren Hardware mit Software von Drittanbietern (in der Regel ist das VMware) gekoppelt ist.

Laut Gartner sind folgende Anbieter besonders interessant:

  • Nutanix: Marktführer mit hoher Kundenzufriedenheit. Problem: ist auf Enterprises spezialisiert, der Mittelstand gerät erst in den Fokus, nicht zuletzt https://www.datacenter-insider.de/nutanix-kuenftiger-mittler-im-multicloud-kosmos-a-783322/ durch den neuen deutschen Geschäftsführer Peter Goldbrunner.
  • Pivot3 ist ein Pionier, der mit „Acuity“ (vormals „vStack“) ein einfach anwendbares Produkt am Start hat.
  • Cisco bietet seit 2016 seine HCI-Angebote unter dem Titel „Hyperflex“ an. Die Grundlage ist Ciscos Unified Compting System (UCS) plus UCS Manager sowie Daten- und Storage-Management-Software.
  • Datacore ist eigentlich Spezialist für nah verwandte Software-definierte Speicherprodukte und bietet keine vollständig integrierte Appliance.
  • Dell EMC offeriert gleich zwei zusammen mit VMware entwickelte Kernprodukte: „VxRail“ und „VxRack SDDC“.
  • Hewlett Packard Enterprise ist durch die Übernahme von Simplivity in den HCI-Markt eingetreten. Das entsprechende Produkt hört entsprechend auf den Namen „HPE Simplivity“.
  • HTBase offeriert ausschließlich das Betriebssystem „Composable Operation System“ (COS).
  • Huaweis HCI-Lösung heißt „Fusioncube“ und unterstützt bis zu 4.096 Nodes.
  • Microsofts „Storage Spaces“ kann für eine HCI genutzt werden, ist aber an Windows-Server und Azure gebunden. Die Datacenter-Edition gilt als zu teuer für den Mittelstand, so Gartner.
  • Scale Computing hat „HC3“ erstmals bereits 2012 vorgestellt und wendet sich dediziert an mittelständische Anwender mit schmalen Budgets, vorrangig aber (noch) in den USA.
  • Stratoscale offeriert die Softwarelösung „Symphony“, als deren Stärke es Gartner ansieht, dynamisch Workloads mit AWS auszutauschen.
  • VMware bietet seine rein Software-basierte HCI über Cloud-Provider an, aber nur bei AWS erhält man auch Support von VMware.

Unterm Strich sind HCI-Lösungen für Mittelständler besonders interessant. Entsprechende Lösungen gelten als benutzerfreundlich, unterscheiden sich im Detail aber stellenweise deutlich. Allen gemein ist im Prinzip eine Zusammenstellung von virtualisierter Software, Hypervisor sowie Storage- und Netzwerk-Virtualisierung. Einige warten mit Applikationen für spezielle Anwendungsziele auf. Interessierte Anwender müssen genau hinsehen, was sich für ihre Bedürfnisse wirklich eignet.

(ID:47025375)

Über den Autor

Dr. Dietmar Müller

Dr. Dietmar Müller

Journalist