Wegweiser durchs Speicherchaos

Der Markt für skalierbare SAN-Lösungen brummt. Während die Hersteller noch um Diversifikation bemüht sind, stehen offene Standards aus. Sinnvolle Planung, erfolgreiche Implementierung und effizienter Betrieb - gateway führt Sie über alle Höhen und Tiefen der Speicherlandschaft.

Von: Dr.Klaus Schlüter

Rund 70 Prozent der Kosten großer Hardware-Installa-tionen gehen heute in den Speicher", sagt Mario Vosschmidt, Systemingenieur bei Clariion, der Storage Division von Data General: "Wen wundert’s da, wenn auch die Serverhersteller daran partizipieren wollen und mit eigenen Labels auf den Markt drängen." Der jedenfalls ist dynamisch [1]. Alte Allianzen brechen auf, neue entstehen. So trennten sich beispielsweise am 1. Juli Hewlett-Pak-kard und EMC. HP wird künftig nur noch die Produkte des EMC-Konkurrenten Hitachi Data Systems (HDS) vertreiben. Dem amerikanischen Börsenliebling EMC entgehen dadurch jährlich 700 Millionen Dollar Umsatz - allerdings nur dann, wenn sich die HP-Kunden auch für die HDS-Systeme entscheiden sollten.

Der Fall HP/EMC

EMC hatte sich angeblich geweigert, als OEM-Lieferant (OEM = Original Equipment Manufacturer) von HP aufzutreten. Außerdem, so führte David Scott, Marketing-Manager von HP, auf einer Pressekonferenz in New York aus, seien die Kunden irritiert gewesen, daß EMC eine proprietäre Lösung für Speichernetzwerke fahre. Dabei zielte er auf die Bezeichnung "Enterprise Storage Network" (ESN) ab, verschwieg aber - bewußt oder unbewußt -, daß EMC darunter nicht nur das eigentliche "Storage Area Network" (SAN), sondern eine Komplettlösung versteht, inklusive aller Aspekte des Betriebs, der Verwaltung und der Sicherheit.

Bei Licht betrachtet könnte der Schuß auf EMC sogar nach hinten losgehen. Chief Enterprise Officer (CEO) Michael Ruettgers konnte den Wert des Unternehmens zwischen 1990 und 1998 ja gerade deshalb um satte 25 000 Prozent steigern, weil seine Mitarbeiter das Thema "Connectivity" ernst nahmen: Sie schufen Storage-Systeme, die erstmals Server der verschiedensten Hersteller bedienen konnten. Voraussetzung war allerdings ein gemeinsamer Standard, das "Fibre Channel Switched Protocol" (FCSP), das auch heute noch von nur wenigen Storage-Anbietern beherrscht wird. Die japanische HDS zählt bislang nicht dazu - aber was nicht ist, kann werden.

Begriffs- und Normenchaos

Derzeit ringen zwei verschiedene Lager um einen SAN-Standard. Auf der einen Seite die "Storage Network Industry Association" (Snia, http://www.snia.org) und die "Fibre Channel Association" (http://www.fcloop.org) auf der anderen die "Fiber Alliance".

In einem Interview mit gateway äußerte Michael Väth, Geschäftsführer von Storagetek in Eschborn, seine Skepsis gegenüber der von EMC getragenen Fiber Alliance [2]: "Ihr haben sich bislang nur wenige Hersteller angeschlossen und sie ist im Gegensatz zur Snia nicht offen. Sie besteht lediglich aus EMC, als einzigem Speicherhersteller mit einem proprietären, speicherzentrischem Ansatz, und einigen Geschäftspartnern." Malte Rademacher, Marketing-Leiter bei EMC Deutschland, kontert mit dem Vorwurf, die Snia sei mit ihren 81 Mitgliedern doch lediglich ein Debatierclub. Bleibt anzumerken, daß EMC selbst daran teilnimmt - Offenheit hat eben ihre Tücken!

Die Kunden sind indes nicht nur durch das Fehlen eines Standards, sondern auch durch die Vielzahl unterschiedlicher SAN-Konzepte verunsichert. Neben dem generischen Begriff SAN und der eher Marketing-getriebenen Formel ESN kursieren noch das "Enterprise Resource Network" (ERN) und der "Network Attached Storage".

ERN wird von Mc Data propagiert, bekannt als OEM-Partner von IBM für Escon-Switches (Escon = Enterprise System Connection). Das in Deutschland noch nicht mit einer eigenen Vertretung präsente, US-amerikanische Unternehmen will gleich das ganze Netzwerk revolutionieren. Denn während sich das SAN auf den Storage beschränke, sei das ERN eine Vernetzungstopologie, die den Datentransfer im ganzen Netzwerk, im LAN wie im SAN, optimiere. Somit soll es die bestmögliche Nutzung aller Ressourcen gewährleisten. Den Beweis muß die Firma allerdings noch antreten.

LAN-Anhang NAS

Andere Hersteller werben mit einem Speicherkonzept namens "Network Attached Storage" (NAS, Bild 1). Im Prinzip als Speichersystem innerhalb eines LAN-Segments ausgelegt, ist die Bandbreite von NAS nur begrenzt skalierbar. Dafür sei, so deren Verfechter, aufgrund eines proprietären Filesystems sogar Daten-Sharing möglich, wo im SAN lediglich Disk-Sharing problemlos funktioniere. Windows-NT- und Unix-Systeme könnten also auf gemeinsame Daten zugreifen. So vereint beispielsweise Network Appliance im "Write Anywhere File Layout" (Wafl) das Unix-typische "Network File System" (NFS) mit dem Windows-NT-spezifischen "Common Internet File System" (Cifs).

Indes trifft auch dieses Argument die Wahrheit nur zur Hälfte. Denn Firmen wie Veritas Software bieten inzwischen gemeinsame, wenn auch proprietäre Filesysteme für Unix und Windows NT als Software an. Über deren Zuverlässigkeit ist bislang allerdings nur wenig bekannt. Hier ist Vorsicht die Mutter der Porzellankiste, denn auf zahlreichen SAN-Anwenderkonferenzen wurde immer wieder der Vorwurf laut, daß vieles, was die Firmen versprechen, nicht zutreffe. Daher der generelle Rat: Die Ware vor Gebrauch prüfen und erst dann auf Integrations- und Produktivsysteme gehen. Nur so ist man vor unerwünschten Überraschungen sicher.

SAN-Charakteristika

"Im Prinzip ist ein SAN nichts anderes, als eine riesige Datenpumpe," sagt Ulrich Franke, Geschäftsführer von IQ Systems, einem auf Storage-Projekte spezialisierten Systemhaus aus Dornach bei München. "In drei Jahren werden alle Speicherkomponenten SAN-kompatibel sein. Dann nämlich werden alle einen FC-Anschluß (FC = Fiber Channel) haben." Das SAN ist damit für einen High-Speed-Durchsatz von 100 MByte/s prädestiniert. Alle an das SAN angeschlossenen Server können auf die darin verknüpften Storage-Komponenten, beispielsweise Bandlaufwerke, Jukeboxen oder Plattensysteme, zugreifen (Bild 2). Ähnlich wie beim LAN kommen darin Hub- und Switch-Komponenten als Bindeglieder zum Einsatz.

Gegenüber anderen Speicherkonzepten bietet das SAN zahlreiche Vorzüge:

- Flexible Skalierbarkeit:

- Nach einer Studie von IDC seien heute erst 15 Prozent der Informationen in den Unternehmen digital gespeichert. Bis zum Jahr 2003 soll dieser Anteil auf 50 Prozent ansteigen. Mit anderen Worten: Jedes neu anzuschaffende Speichersystem sollte einfach zu erweitern sein. Die Kosten dürfen dabei höchstens proportional zur Speichermenge ansteigen. Derzeit liegen sie bei etwa 50 Pfennig pro MByte.

- Höhere Backup- und RecoveryGeschwindigkeit:

- Die Giga Group bezeichnet Backup- und Recovery-Applikationen als die ersten "Killer-Applikationen" im SAN, die den Kunden nachweisbare Vorteile bringen. Statt die Daten von den Backup-Clients über ein LAN auf einen Backup-Server und von dort auf Band zu schreiben, legen die Backup-Clients im SAN die Daten direkt auf den Medien ab. Das LAN als operatives System wird dadurch entlastet.

- Shared Storage:

- Alle angeschlossenen Server können sämtliche Speicherressourcen gemeinsam nutzen. Der ungenutzte Anteil verringert sich (Storage-Konsolidierung). Auch eine redundante Auslegung einzelner Komponenten zur Erhöhung der Ausfallsicherheit (Fail-over) muß nur einmal erfolgen.

- Remote Storage:

Speichersysteme im Unix- und im Windows-NT-Bereich sind in der Regel über die lokalen SCSI-Schnittstellen miteinander verbunden. Die Buslänge beträgt dabei maximal 25 Meter. Obwohl man den Begriff FC unweigerlich mit Glasfaser assoziiert, taugt auch Kupfer als Tranfermedium. Allerdings ist dann die Reichweite auf zehn bis 30 Meter begrenzt, wohingegen 62,5-Mikron-Multimode-Glasfasern immerhin schon 175 Meter schaffen. 50 Mikron-Multimode-Glasfasern übertragen die Daten bis 500 Meter verlustfrei, 9-Mikron-Singlemode-Glasfasern sogar bis zehn Kilometer.

- Hohe Verfügbarkeit:

Die Remote- und Shared-Möglichkeiten erleichtern ein Clustern des Speichers und damit das Design von hochverfügbaren SAN-Topologien. HA-Software (HA = High Availability) und redundante Komponenten sichern den Speicher gegen Ausfälle - eine Herausforderung gerade bei geschäftskritischen Anwendungen. Aus Katastrophenschutzgründen können die Unternehmen Daten-Pools in eigens dafür vorgesehenen Räumen und sogar ausgelagerten Sicherheitsbereichen realisieren.

- Zentrales Management:

Im LAN wie im SAN erleichtern zentrale Managementkonsolen die Verwaltung angeschlossener Ressourcen, was letztlich Kosten ein-spart. In homogenen SANs, also solchen, die nur aus den Komponenten eines Herstellers und damit kompatiblen Produkten bestehen, bereitet das Management keine Probleme, wohl aber in heterogenen. Der Grund: Die Struktur der MIB-2-Datenbank (MIB = Management Information Base) ist noch offen.

Bei umfangreichen, stetig wachsenden und noch dazu geschäftskritischen Daten ist die Installation eines SANs also in jedem Falle anzuraten. "Wer aber glaubt, mit der Entscheidung für ein SAN seien nach drei Wochen schon alle Probleme gelöst, liegt falsch," sagt Paul Schuster, technischer Leiter von IQ Products.

Planung und Design

In der Tat erfordern Planung, Installation und Betrieb ein nicht eben geringes Maß an Know-how. Wann der Einsatz eines SANs lohnt und welche Punkte bei der Projektvergabe zu beachten sind, hat Frank Bunn, Produkt-Marketing-Manager bei Storagetek, in den beiden Checklisten zusammengestellt. Spätestens bei der Auswahl der Komponenten wird deutlich, daß die Implementierung einer SAN-Lösung eine Angelegenheit für Fachleute ist. Denn wegen fehlender Standards arbeiten keineswegs alle Komponenten reibungslos zusammen.

Jede SAN-Lösung wird in Etappen, jede Etappe von Spezialisten umgesetzt:

- Zunächst müssen die Anforderungen festgelegt werden.

- Anhand der Spezifikation wird ein Plan entworfen.

- Dieser wird auf seine Machbarkeit hin analysiert.

- Anschließend wird das SAN implementiert und

- auf Herz und Nieren getestet (Integrationsphase).

- Bei fehlerfreiem Bestehen kann das SAN in Betrieb gehen (Produktivphase).

Das Prozedere ist damit an die von ERP-Projekten (ERP = Enterprise Ressource Planning) bekannte Vorgehensweise angelehnt. Jeder einzelne Schritt zerfällt seinerseits in viele Teilentscheidungen, beispielsweise die Machbarkeitsanalyse:

- Die Projektgruppe muß prüfen, welche Hardware und

- welche Software die geforderten Spezifikationen erfüllt.

- Sie muß die unverzichtbaren internen Ressourcen berücksichtigen und die Lieferanten von Hard- und Software-Komponenten festle-gen.

- Sie muß das Funktionieren der Basisanforderungen gewährleisten und

- ihre Ergebnisse an die Projektgruppe übergeben, die mit der Integrationsphase betraut ist.

Die Frage nach geeigneter Software ist eine entscheidende, gerade im Hinblick auf heterogene SANs. Zu den großen, Hardware-unabhängigen Anbietern zählen Legato und Veritas Software. Beide werden das "Network Data Management Protocol" (NDMP) unterstützen, das den Datentransfer in heterogenen SAN-Umgebungen standardisieren soll.

Software für SANs

Mit vier Millionen "Networker"-Installationen führt Legato neben Veritas Software die Riege der Backup- und Recovery-Spezialisten an. Das neue strategische Produkt des Unternehmens heißt "Celestra". Zusammen mit Networker ermögliche es ein sogenanntes "Server-free Backup", also eines, bei dem kein Server mehr zum Managen der Datenströme nötig ist. Damit geht Legato sogar einen Schritt über das "LAN-free Backup" hinaus.

Veritas Software gab im Juni die Übernahme der "Network and Storage Management Group" von Seagate Software bekannt. Für die Aquisition emittierte das Unternehmen 34 Millionen Aktien im Wert von 2,7 Milliarden Dollar. Das Produktspektrum des Börsenriesen deckt nunmehr sämtliche Bereiche des Schutzes, des Zugriffs und der Verwaltung von Daten im SAN ab.

Daneben warten viele Hardwarehersteller mit eigener Software auf, beispielsweise Storagetek mit "LAN-free Backup". Wie der Name schon sagt, umgeht das Programm den LAN-Engpaß und bietet Funktionen zum direkten Zugriff aller ans SAN angeschlossenen Datenserver auf die Sicherungslaufwerke. Als Besonderheit unterstützt "LAN-free Backup" das sogenannte "Tape Pooling", das schon seit Jahren in der Mainframe-Welt praktiziert wird. Dabei sind die Tape Drives einer Library nicht fest den einzelnen Servern zugewiesen, sondern werden bei Bedarf bestimmten Servern dynamisch über das SAN zugewiesen. Diese "Dynamic Storage Allocation" nutzt bei einer großen Anzahl angeschlossener Server alle vorhandenen Tape-Laufwerke optimal aus. Ein Server, der ein Backup startet, ist damit in der Lage, alle freien Laufwerke anzufordern. Der Datendurchsatz steigt, die Dauer der Datensicherung sinkt.

Die Zukunft

Unternehmenskritische EDV-Projekte sind in der Regel sehr teuer. Obwohl die Topologie von LANs derjenigen von SANs ähnelt, herrschen in beiden unterschiedliche Protokolle vor. Das bedeutet, daß neben einem Administrator fürs LAN auch einer fürs SAN beschäftigt werden muß, im Schnitt eine Person je 750 GByte Storage. Dabei ist der Markt für IT-Fachleute bereits heute leergefegt. Nicht zuletzt deshalb sind die SAN-Protagonisten um eine Homogenisierung von TCP/IP und FC/SCSI-Protokoll bemüht. "Next Generation I/O" (NGIO) soll hier zu einer Konsolidierung beitragen.

Nach wie vor bereiten auch Aspekte der Datensicherheit und der Name Services in heterogenen Netzwerkumgebungen Probleme. Mit ihrer endgültigen Bereinigung rechnen Fachleute allerdings nicht vor 2001. Solange werden nur die wenigsten Firmen warten wollen. Alle führenden Marktforschungsunternehmen rechnen deshalb mit einem exponentiellen Wachstum bei SANs. Die überdurchschnittlichen Umsatzsteigerungen der Storage-Hersteller bestätigen diesen Trend.

Literatur:

[1] Bunn, F.: Speicher satt. gateway 10/98, S. 55 ff.

[2] Schlüter, K.: "Wir liefern offene Speicherlösungen". gateway 10/99, S. 26 ff.

[3] Lüerßen, H.: HP saniert den Speicher. gateway 9/99, S. 18.