Architekturvergleich

SSD-Array oder All Flash - was ist effizienter?

SSD-Arrays

Im Jahr 2008 versuchte EMC als erster Hersteller, seine Symmetrix-Arrays mit Solid-State-Laufwerken (SSD) nachzurüsten und die Lebensdauer der Architektur mit deren Hilfe noch einmal um einige Jahre zu verlängern. Alle großen Hersteller gingen denselben Weg, und heute gibt es kein Enterprise- oder Midrange-System mehr, in dem nicht auch oder sogar ausschließlich SSDs angeboten würden.
Allerdings führen diese 10-12mal schnelleren Laufwerke die Architekturen noch schneller an ihre Grenzen als die übergroßen Festplatten aus dem Nearline-Bereich. Hier ist es nicht die schiere Masse an Daten, über die mittels herkömmlicher Schnittstellen mit ihren höchstens 6 Gbit pro Sekunde zugegriffen werden muss, sondern die theoretisch möglichen Operationen jedes einzelnen Mediums.

Knackpunkte

Alle Enterprise- und Midrange-Arrays, die heute am Markt verfügbar sind, entstammen in ihren Ursprüngen aus einer Zeit, in der niemand über den Einsatz von SSDs auch nur nachgedacht hat. Und so kämpfen die Hersteller nicht nur mit den mangelhaften Durchsätzen ihrer Backends, sondern ebenso mit dem Problem, dass die Laufwerke ebenso schnell oder sogar schneller sind als der zwischengeschaltete Cache.

Zwar lassen sich allzu heiße Stellen im Backend durch den Ersatz einiger Festplatten-RAID-Gruppen durch SSDs abkühlen und so die gesamte Maschine deutlich entlasten. Zwar besteht dadurch eine gute Chance, ein Array für gewisse Zeit sogar wesentlich schneller zu machen als nur mit herkömmlichen Laufwerken. Aber zu welchem Preis?

Erstens schlagen die SSDs mit einem Preis-pro-Kapazität-Faktor von mindestens drei gegenüber Standardplatten zu Buche. Zweitens sind die Schnittstellen wie SATA oder SAS überhaupt nicht für die Bewältigung der zehntausenden von I/Os ausgelegt, die moderne SSDs zu leisten in der Lage sind. Und drittens wird die theoretisch erreichbare Leistung der neuen Komponenten durch verwaltungstechnischen Overhead wie zum Beispiel Deduplizierung teilweise oder sogar gänzlich zunichte gemacht.

Multi-Tiering soll´s richten

Hier versuchen die Hersteller nun, mit automatisierten Multi-Tiering-Lösungen gegenzusteuern. Die Arrays analysieren ständig die Zugriffe auf die gespeicherten Daten und verschieben diejenigen mit den meisten Zugriffen auf die schnellsten Laufwerke, sprich auf die SSDs.
Die Idee dahinter ist nicht schlecht, allerdings überfrachtet eine solche Technik im schlimmsten Falle eine überalterte Architektur mit ihren wenigen Prozessorkernen so sehr, dass zusätzliche CPUs, mehr Cache und breitere interne Kanäle eingesetzt werden müssen. Außerdem liegt auf der Hand, dass der ständige Backend-Datenverkehr nicht gerade zu einer Steigerung der Gesamtleistung des Systems beiträgt.

Versprechen der Newcomer

Viele kleinere Hersteller von dedizierten SSD-Arrays sind angetreten, all diese Probleme zu eliminieren, die der SSD-Betrieb in herkömmlichen Architekturen mit sich bringt. Diese Anbieter propagieren stets, dass ihre Systeme aufgrund einer völlig neuen Herangehensweise für den Betrieb der Festspeichermedien optimiert seien.
Meist beschränkt sich diese Optimierung allerdings auf das Weglassen des nun nicht mehr notwendigen Caches, die Einführung mehr oder weniger unnötiger Ballast-Features wie Deduplikation und die Verbesserung der Schreibvorgänge nach den Bedürfnissen des verwendeten Speichermediums.

Aber: durch die Deduplikation beispielsweise wird die Nutzung der ohnehin preiswertesten Komponente des Systems durch einen unnötig hohen Aufwand verbessert. Außerdem müssen im Hintergrund Algorithmen laufen, die Prozessoren, Speicher und beim Wiederauslesen auch die Back- und Frontendkanäle höher belasten.

Tarnmanöver bemänteln die Nachteile

Durch die Verwendung dieser Technologie wollen die Hersteller von SSD-Arrays über das Problem hinwegtäuschen, dass in ein System meist nicht mehr als 25 2,5-Zoll-Medien mit höchstens einem Terabyte Speicherplatz passen. Netto nach Abzug der für den RAID-Schutz benötigten Kapazitäten bleiben hier höchstens 15-18 TByte netto übrig.
Weitere Einschränkungen erfahren SSD-Arrays durch die Tatsache, dass sie entgegen aller Versprechungen der Hersteller eben doch lediglich SAS- oder SATA-Systeme sind, in denen zufällig nur SSDs verbaut sind.

Hieraus ergibt sich, dass die auf den Medien gespeicherten Daten ausschließlich über herkömmliche Verfahren, also RAID-5, RAID-6 oder Unterarten zu schützen sind. Datenkorruption, versagende Zellen und Verschleiß können nur über die üblichen Kanal-Kommandos oder die TRIM-Funktionalitäten der Laufwerke festgestellt und daher nur sehr eingeschränkt vom System überwacht werden.
Beim Ausfall eines Mediums muss der Standard-Wiederherstellungsprozess angestoßen werden, der Daten schon seit dreißig Jahren rettet.

Und bei dieser Wiederherstellung zeigt sich die größte Einschränkung der SSD-Arrays: die Verwendung der Standard-Festplattenschnittstellen mit höchstens 6 Gbit pro Sekunde Durchsatz. Das heißt für den Betrieb schlichtweg, dass jedes Medium höchstens 750 MByte pro Sekunde abzüglich Protokolloverhead transportieren kann. In jedem Fall befindet sich hier ein Flaschenhals, der auch die Wiederaufnahme des Normalbetriebes nach Ausfall einer SSD unnötig hinauszögert.

Fazit und Zukunft

Im Wesentlichen gelten für Standard-Arrays mit SSDs dieselben Kriterien und damit dieselben Prognosen wie für reine Plattenlösungen. Der Einsatz von SSDs war gerechtfertigt, um bestehende Architekturen im Enterprise- und Midrange-Bereich für einige wenige Jahre weiter vernünftig nutzbar zu machen.
Allerdings treiben die Festkörperspeicher diese Systeme noch schneller an ihre Leistungsgrenzen, so dass auch und gerade bei Einsatz zusätzlicher Eigenschaften wie Deduplikation das Ende der sinnvollen Nutzung noch schneller ansteht.

Viele der Anwender, denen diese Arrays heute noch gute Dienste leisten, werden sich für ihre Produktionslösungen wegen der immer weiter zunehmenden Last durch Datenbank- und Analysewerkzeuge innerhalb kurzer Zeit in Richtung All-Flash bewegen. Da sich SSDs für den Einsatz als Backup- oder gar Archivziel auch in den kommenden Jahren allein preislich und kapazitiv nicht eignen werden, wird den SSD-Systemen heutiger Prägung kaum eine lange Verweildauer auf dem Markt beschert sein.