Integration sichert Qualität

Unternehmenskritische Anwendungen laufen zunehmend auf vernetzten Plattformen. Damit erhalten Techniken für die Verwaltung von Systemen und Netzwerken eine zentrale Bedeutung. Soll die Qualität der betrieblichen DV nicht leiden, ist die Integration der beiden bisher getrennten Gebiete das Gebot der Stunde.

Von: Dr. Jürgen Suppan

Eine wichtige Disziplin der Informationstechnik macht Karriere: Im Verlauf der letzten zwölf Monate hat sich das Netzwerk- und Systemmanagement vom Werkzeug für Spezialisten zur unternehmensstrategischen Lösung für den Betrieb vernetzter Client/Server-Umgebungen gewandelt. Gründe für diese Entwicklung liegen im zunehmenden Einsatz von "Mission-critical"-Anwendungen auf Client/Server-Plattformen. Typischerweise sind dies datenbankbasierte Multiuser-Anwendungen, die auf einem Verbund von Servern realisiert werden, zum Beispiel auf Kombinationen von Unix-Rechnern und Mainframes oder im schlimmsten Fall auf NT-Clustern. Das hat eine Reihe negativer betriebstechnischer Konsequenzen.

So hängt die Nutzbarkeit der Anwendung von der Verfügbarkeit des Verbunds ab. Ausfälle scheinbar unwichtiger Komponenten können die gesamte Plattform stillegen. Das schwächste Glied prägt dabei die Verfügbarkeit des Systems.

Verteilte Plattformen locken zwar mit dem theoretischen Vorteil einer höheren Serverredundanz. Dafür sind sie aber aufwendiger im Betrieb und problematischer bei der Eingrenzung von Fehlern als ein Einzelrechner (Bild 1).

So ist festzustellen, daß die Zahl ernstzunehmender Störungen im Client/ Server-Umfeld signifikant angestiegen ist. Kaum ein Anwender erreicht eine Verfügbarkeit von 99 Prozent, vielmehr sind hier Werte von nur 95 Prozent bis 98 Prozent nicht ungewöhnlich. Aus den bekanntgewordenen Ausfällen konnte eine Anzahl von Erfahrungen gewonnen werden:

•Der Anteil von Kommunikationsproblemen an den Ausfällen ist erschreckend hoch. Die Liste der Ursachen reicht von Zusammenbrüchen des DNS-Servers über Netzinstabilitäten durch Überlastung und TCP/ IP-Fehlkonfigurationen bis zu Kabelstörungen und falsch konfigurierten Switches.

•In der Regel geht ein Ausfall auf eher handwerkliche Fehler zurück. Dementsprechend bieten High-end-Protokollanalysatoren nicht immer einen Vorteil gegenüber einfacheren Analysegeräten.

•Die in den Unternehmen vorhandene Systemredundanz ist unzureichend und häufig bruchstückhaft. Es fehlt ein Gesamtkonzept in Verbindung mit einer echten Notfallplanung.

•Unternehmen bereiten sich selten auf Ausfälle in solchen Umgebungen vor. Recovery-Arbeiten werden aus Zeitmangel nicht trainiert und lassen sich daher nicht effizient umsetzen. Notfallrollen sind nicht festgelegt. Häufig ist ein Recovery gar nicht möglich, weil sicher geglaubte Backup-Mechanismen versagen.

Ein integriertes Netzwerk- und Systemmanagement beseitigt nicht die Ursachen dieser Misere. Aber es liefert die Daten, mit denen sich ein bewußtes Qualitätsmanagement realisieren läßt, und es erweitert die Reaktionsmöglichkeiten auf Störungen. Zum einen lassen sich damit Probleme schneller, teilweise sogar proaktiv, erkennnen; zum anderen kann das Anwenderunternehmen effizienter auf erkannte Störungen reagieren.

In der Vergangenheit waren die Fachabteilungen für den Betrieb von Servern, Netzwerken und Applikationen selbst verantwortlich. Eine Integration erfolgte lediglich durch zwischenmenschliche Kommunikation in Verbindung mit sehr einfachen Schnittstellen. Für den Betrieb unternehmenskritischer Applikationen in größeren Unternehmen ist diese Vorgehensweise nicht geeignet. Multiuser-Anwendungen erfordern einen geregelten Betriebsprozeß vom "User Help Desk" (UHD) über einen Leitstand bis zur Fachabteilung. Dessen organisatorische Umsetzung ist nur mit integrierten Werkzeugen möglich. Diese ermöglichen eine steuerbare, definierte technische Form der Kommunikation zwischen den Betreiberinstanzen. Sie realisieren die in den einzelnen Instanzen benötigten Managementfunktionen.

Bevor sich die vorhandenen Werkzeuge zu einem unternehmensweit einsetzbaren Tool integrieren lassen, sind einige Hürden zu überwinden. So ist der Bedarf der Spezialisten zu berücksichtigen, die mit einfachen und teilweise unzulänglichen Bedienkonzepten der diversen Werkzeuge durchaus zurecht kommen – es sind eben Spezialisten.

Des weiteren ist es unerläßlich, Bedienabläufe im Umgang mit Management-Tools im UHD und im Leitstand zu optimieren. Hier ist Personal tätig, das technikübergreifend agiert und dafür angepaßte Diagnose- und Konfigurationswerkzeuge benötigt.

Bisher benutzten die Spezialisten die eingesetzten Werkzeuge gewissermaßen nebenbei. Deren Integration in einen Betriebsprozeß ist jedoch wesentlich aufwendiger und setzt permanent zuständiges Personal zwingend voraus. Zum Beispiel eignet sich kaum eine SNMP-Plattform für den Einsatz im Leitstand oder im UHD; zumindest sind vorher erhebliche Mengen an SNMP-Applikationen zu schaffen und als Menüpunkt oder Button bereitzustellen. Diese Applikationen benötigen auch noch Pflege, was wiederum nicht Aufgabe des Bedienpersonals sein kann. Außerdem handelt es sich bei vielen integrierten Lösungen für das Netzwerk- und Systemmanagement um hochwertige datenbankbasierte Multiuser-Applikationen. Sinnvollerweise wird man derartige Lösungen unter Unix und nicht unter NT betreiben.

Produktwahl bleibt problematisch

Eine weitere Hürde für die Integration der Werkzeuge besteht darin, daß beim Einsatz von Tools durch eine größere Personengruppe der Definition und Verwaltung von Benutzerrechten eine wesentlich höhere Bedeutung zukommt als beim reinen Spezialistenbetrieb. Es ist genau festzulegen, welcher Benutzer welche Managementfunktion mit welchen Rechten für welche Komponenten erhält.

Eine integrierte Gesamtlösung wird sich meist nicht mit dem Produkt eines einzigen Herstellers erzielen lassen. Zu breit ist die benötigte Funktionalität angelegt, zu speziell ist der Bedarf innerhalb der einzelnen Funktionsgruppen. Zwar bieten Framework-Produkte wie CA Unicenter TNG, HP Open View und IBM/Tivoli TME 10 eine breite Funktionspalette an, doch zeigt die Projekterfahrung, daß auch diese Produkte aus den unterschiedlichsten Gründen Add-ons von Drittherstellern benötigen.

Wenn Produkte verschiedener Hersteller zum Einsatz kommen, muß sich der Anwender mit der Frage auseinandersetzen, wie er die angestrebten Funktionen unter den Produkten aufteilt. Dazu muß er auch Schnittstellen zwischen den Produkten festlegen. Letzteres setzt eine wohlüberlegte Lösung voraus, will er nicht später im Betriebsaufwand für die diversen Schnittstellen untergehen. Die Lösung der Integrationsaufgabe ist gleichzusetzen mit einer Gesamtarchitektur für Netzwerk- und Systemmanagement.

Die Umsetzung der Architektur erfolgt durch den Kauf der diversen Produkte und die Realisierung der notwendigen Schnittstellen. Letzteres kann unter Umständen eigene Programmierung erfordern. Wer eine integrierte Gesamtlösung umsetzen möchte, sollte unbedingt über Know-how für die Systemprogrammierung verfügen. Aussagen von Herstellern, ihre Produkte ließen sich ohne größeres Betriebssystem- und Basiswissen betreiben, sind eindeutig unkorrekt. Im Gegenteil: Sowohl für die Projektumsetzung als auch für den späteren Betrieb des Managementservers sind sogar erhebliche Systemkenntnisse erforderlich.

Die Gesamtarchitektur unterscheidet drei funktionale Ebenen. Bei der ersten handelt es sich um den Managed-Node-Bereich für die zu überwachenden und zu steuernden Komponenten:

Netzwerk-Komponenten,

Server,

Arbeitsplätze,

Peripheriegeräte,

Mainframes,

Applikationen und

Datenbanken.

Für diese Komponenten ist einerseits durch einen geeigneten Agenten sicherzustellen, daß sie managementfähig sind, und andererseits der Umfang der Informationen zu bestimmen und zu konfigurieren, die ins Management einfließen sollen. Die Gesamtheit dieser Informationen stellt das Informationsmodell dar.

Bei Netzkomponenten bleibt nur der Einsatz des vom Hersteller mitgelieferten Agenten, bei allen anderen Komponenten besteht eine mehr oder weniger große Auswahl von Agenten auch seitens Drittherstellern. Wesentliches Kriterium neben dem Preis ist das Informationsmodell, das der Agent realisiert. Bei Agenten, die Informationen über den Betriebszustand der Systemsoftware ermitteln und verarbeiten, ist es deshalb wichtig, ob und in welchem Umfang der Agent in der Lage ist, Informationen aus Logdateien zu erkennen und automatisch zu bewerten.

Als zweite Ebene der Gesamtarchitektur läßt sich der Bereich des Elementmanagers betrachten. Er ist für die Überwachung und die Steuerung der Komponenten zuständig. Elementmanager tragen ausgewählte Betriebsinformationen der Komponenten in einer Überwachungskonsole zusammen, zeigen sie grafisch an und ermöglichen Überwachungs- und Konfigurationsoperationen.

Diese Operationen definieren das Handlungsmodell des Managements, sie können manuell oder automatisch erfolgen. Der Einsatz der Elementmanager unterliegt unterschiedlichen Zielsetzungen, die deren Konfiguration prägen. Das Management der Netzwerk-Komponenten, der Server, der Anwendungen und eventuell vorhandener Mainframes dient primär dazu, die Verfügbarkeit der DV-Infrastrukturen zu sichern und auf signifikante Ausfälle oder Betriebsgefahren schnell reagieren zu können.

Als dritte Ebene der Gesamtarchitektur fungiert der Enterprisemanager-Bereich. Er realisiert alle technologieübergreifenden Aufgaben und bildet die integrative Komponente in der Managementarchitektur. Dieser Bereich dient vorwiegend der Integration der Service-Instanzen eines Unternehmens in die Systemmanagement-Lösung, zum Beispiel des UHD und Monitoring Control Center. Für diese Organisationseinheiten stellt der Enterprise-Managementbereich die technische Tool-Basis dar. Häufig sind an dieser Stelle Fehlentscheidungen festzustellen, weil die Tools von Technikern gestaltet werden und diese die Interessen der Service-Instanzen nicht ausreichend berücksichtigen.

Bei der Bewertung der Architektur ist zu beachten, daß eine Integration nur auf der Ebene des Enterprise-Managers erfolgt. Damit wird der Erfahrung Rechnung getragen, daß der Erstellungs- und Betriebsaufwand für eine Integration auf der Ebene des Elementmanagers nicht tragbar ist und auch den technischen Möglichkeiten der Produkte nicht entsprechen würde: Dazu fehlen Schnittstellen, es existieren keine gemeinsamen Datenmodelle und keine gemeinsame Grafik.

Plattform-Technologie

Das Konzept dieser Architektur läßt den parallelen Betrieb autonomer Tools auf der Ebene des Elementmanagers zu. Als Folge entstehen parallele Bestands- und Konfigurationsdatenbanken auf dieser Ebene. Diese werden auf der Enterprise-Ebene in Form eines Gesamtbestands konsolidiert. Umgekehrt lassen sich auch Daten aus dem Gesamtbestand in die Einzelbestände der Element-Manager-Ebene zurückladen.

Integrierte Lösungen für Netzwerk- und Systemmanagement stellen veritable Power-Multiuser-Anwendungen dar. Das gilt auch schon für mittelständische Betreiber. Applikationen dieser Größenordnung müssen regelmäßig durch Shell-Skripts und dergleichen angepaßt werden. Windows NT kommt daher als Server-Plattform für derartige Managementlösungen kaum in Betracht. Mindestens die Power-Server benötigen Unix als Basis. Im vorgelagerten Funktionsbereich sind Ergänzungen durch NT grundsätzlich denkbar und auch wirtschaftlich sinnvoll, zum Beispiel bei mehrstufigen SNMP-Lösungen mit ausgelagerten Poll-Servern auf NT-Basis. Im Bereich der SNMP-Plattformen befindet sich der Markt in einem starken Konzentrationsprozeß. Die dominierenden Produkte sind:

•Cabletron Spectrum,

•HP Open View Network Node Manager und

•IBM / Tivoli TME 10 Netview.

Vor einigen Monaten war es unter Kostenaspekten noch sinnvoll, ein einfaches PC-basiertes SNMP-Management-system einzusetzen. Mittlerweile jedoch hat die Preispolitik der Hersteller in Verbindung mit einer starken Verbesserung der NT-Versionen andere Produkte klar verdrängt.

Im Bereich der Netzwerk- und Systemmanagementplattformen beherrschen drei Produkte den deutschen Markt:

•CA Unicenter TNG,

•HP Open View und

•IBM / Tivoli TME 10.

Die Plattform von IBM/Tivoli ist von Architektur und Projektaufwand mehr auf große Lösungen zugeschnitten. CA dagegen fokussiert sich mehr auf den Mittelstand und auf Großanwender ohne große Sonderwünsche. HP konzentriert sich auf die vielen Installationen des "Open View Node Manager" und versucht, diese in Richtung Systemmanagement auszubauen. Unschön ist speziell bei HP die verworrene Plattform-strategie, in deren Rahmen einige Funktionselemente nur für Unix, andere nur für NT angeboten werden.

Eine weitere wichtige Produktgruppe bildet die Software für das Management von Servern, Applikationen und Datenbanken. Wichtige Vertreter dieser Gattung sind

•die entsprechenden Module von Unicenter, Open View und TME 10,

•BMC Patrol und

•Candle Command Center.

Die letzte wichtige Produktgruppe umfaßt die Trouble-Ticket-Systeme. In diesem Markt wird es in den nächsten Jahren generell zu einem Wettbewerb zwischen neuen PC-basierten Produkten und den etablierten Produkten kommen, die aus dem Unix-Umfeld stammen. Letztere werden sich immer stärker an das technische Umfeld des PC als Endgerät anpassen, die neuen PC-Produkte werden immer mehr Funktionen und Gestaltungsmöglichkeiten bieten. Bisher sind im Bereich der integrierten Lösungen mindestens folgende Produkte zu nennen:

Peregrine Service Center,

Quintus Customer Q,

Remedy Action Request und

Tivoli-Nachfolgeprodukt von SA-Expertise.

Außerdem verdienen aus dem PC-Bereich Applix und das Folgeprodukt von McAfee/Magic Solutions eine Erwähnung.

Die Entwicklung integrierter Gesamtlösungen geht weiter. Als nächster Schritt ist die Realisierung zentraler Bestands- und Konfigurationsdatenbanken zu erwarten. Diese Funktion ist zur Umsetzung von Service-Management im UHD zwingend erforderlich. Bisher sind in diesem Bereich nur Spezialprodukte wie CCM der Firma Comconsult verfügbar. Zukünftig werden hier Standardisierungs-Ansätze der Desktop Management Task Force (DMTF) wie CIM oder WBEM mit Inhalt gefüllt. Zusätzlich wird das Thema Workflow-Management in diesem Umfeld an Bedeutung gewinnen. (ch)