Architekturvergleich
SSD-Array oder All Flash - was ist effizienter?
Der Streit ist nicht neu. All-Flash-Produzenten rechnen mit der neuen Formel "Kosten pro I/O" und versuchen damit, alles bisher da gewesene in die veraltete Ecke zu stellen.
SSD-Arrays andererseits - mit ihrer Kombination aus Standard-Flash-Medien und einer herkömmlichen Speicherarchitektur - holen sich aus beiden Welten das Beste und wollen so All-Flash-Arrays vor allem preislich in ihre Schranken weisen. Aber welche Versprechungen stimmen nun wirklich, welche Systeme bringen dem Anwender den höchsten Gebrauchsnutzen in der Welt außerhalb der Marketingversprechungen?
Ansprüche der Anwender wachsen schneller als das Datenvolumen
Ganz entgegen der seit einiger Zeit geführten Diskussion hat das schiere Volumen der zu speichernden und zu verarbeitenden Daten in den letzten 15 Jahren nicht so schnell zugenommen wie die Bandbreiten der Netze, die Volumen der Speichergeräte oder die Rechenleistung der Mainstream-Prozessoren.
Das einzige, was zugenommen hat, sind die Ansprüche der Nutzer, mit welchen noch so abstrusen Anwendungen Daten in mannigfaltigen Formaten an noch so abgelegenen Orten der Welt erfasst, gespeichert, geändert oder ausgegeben werden sollen.
Der erste, dritte und vierte Punkt (Erfassung, Änderung und Ausgabe) stellt kein Problem dar, da der jeweilige Vorgang am Client - also einem Terminal, einem Tischrechner oder im schlimmsten Falle einem mobilen System - stattfindet und lediglich dessen Kapazitäten und die Netzwerkverbindung belastet.
Die Speicherung der Ergebnisse allerdings wird spätestens dann zur Herausforderung , wenn die Daten dezentral erfasst, allerdings zentral gespeichert, gesichert und archiviert werden sollen.
Zwischen diesen dreien besteht durchaus ein Unterschied, auch wenn dieser heute nicht mehr beachtet wird. Und genau an diesem Punkt streiten sich nun die Hersteller von SSD- und Flash-Arrays, wessen Lösung die beste, leistungsfähigste und preiswerteste ist.
Marketing lässt Nutzeranliegen außer Acht
Dieser Wettbewerb zwischen den Marketing- und PR-Abteilungen geht allerdings in den meisten Fällen an den Bedürfnissen der EDV in der richtigen Welt vorbei: Was nützen einem RZ-Leiter bunte Torten- und Säulendiagramme und blumige Analystenkommentare, wenn er mit dem angepriesenen System nicht das erreichen kann, was er nach Vorgabe seiner Geschäftsführung zu erreichen hat?
- HGST Virident flashMAXII
Western Digital hat im Oktober 2013 den PCI-Express-Spezialisten Virident eingekauft und bei bei der Tochter HGST eingegliedert. Beim absoluten High-End-Laufwerk FlashMAX II kann die Capaticity-Variante bis zu 4,8 TByte speichern. - Samsung SSD SM843T
Die Enterprise-SSD SM843T von Samsung mit SATA-Schnittstelle nutzt denselben Controller wie die für Consumer bestimmte 840 Pro. - OCZ/Toshiba Z-Drive 4500
Das neue OCZ-Flaggschiff ist das Z-Drive 4500. Die PCI-Express-Karte kombiniert einen von OCZ entwickelten Controller mit dem neuen 19-Nanometer-Flash-Speicher von Toshiba und soll so beim Lesen bis zu 2165 MByte/s erreichen. - Toshiba PX03SNx
Die neue Toshiba-SSDs der PX03SNx-Baureihe mit SAS-3.0-Schnittstelle rangieren bei Preis, Leistung und Kapazität eine Stufe über der Intel DC S3500. Sie erreicht beim sequentiellen Lesezugriff bis zu 1100 MByte/s und ist mit bis zu 1,6 TByte Kapazität verfügbar. - Seagate SSD 1200
Das derzeitige Spitzenmodell unter den Seagate-SSDs ist die 1200 SSD mit SAS-3.0-Schnittstelle. Die SSDs der 1200-Serie bieten mit bis zu 800 GByte Speicherplatz aber nur die halbe Kapazität der neuen Toshiba- PX03SNx-Baureihe. - Mushkin Scorpion Deluxe
Bei der Mushkin Scorpion Deluxe sind unter dem Kühlkörper für den LSI-Controller vier SSDs im M.2-Formfaktor untergebracht, die als RAID-0-Verbund arbeiten. - Intel SSD DC-S3500
Intel hat die sparsamen SATA-SSDs der DC-S3500-Baureihe primär für den Einsatz in Cloud-Servern optimiert. Sie sind mit bis zu 800 GByte Kapazität erhältlich. - SSD Samsung XS1715
Die Samsung XS1715 ist die erste SSD mit NVMe-Interface. Über die vier PCI-Express-Lanes kann sie beim Lesen bis zu 3000 MByte/s übertragen und stößt damit in Leistungsdimensionen vor, für die bisher RAID-0-Lösungen notwendig waren.
Es geht eben nicht nur darum, was das reine Gigabyte an Kapazität kostet, was das System an Energie aufnimmt oder an Wärme abgibt. Es geht nicht nur darum, ob der Speicherplatz durch Deduplikation oder Kompression vorgeblich besser ausgenutzt wird oder mit wie vielen Repliken sich der Hauptspeicher zupflastern lässt.
Nein, in den heutigen Produktionsumgebungen geht es vor allem darum, wie viele Dinge man zusätzlich tun kann, weil die verwendeten Systeme leistungsfähig genug sind, genügend Kapazitäten zur Verfügung stellen und vor allem unterbrechungsfrei durchlaufen.
Die Frage in den meisten Umgebungen ist nicht mehr, was der Speicherplatz kostet, sondern was ich mit besseren und schnelleren Systemen verdienen kann. Und natürlich, was der Ausfall der Systeme kosten würde. Vor diesem Hintergrund betrachten wir hier die beiden Architekturen.