Auf die Anwendung kommt es an

25.02.2003
Eine funktionierende Infrastruktur ist noch keine Garantie dafür, dass alle geschäftskritischen Prozesse laufen. Dienstleister bieten deshalb zunehmend auch ein Monitoring für Applikationen an. Sie überwachen damit die eingesetzte Software und registrieren Fehler oder Performanceprobleme.

Von: Ingo Wupper

Längst nutzen Wirtschaftsbereiche wie die Automobilindustrie Software über unternehmensweite Netze. Neben Standardapplikationen wie Enterprise Resource Planning (ERP) kommen verstärkt auch spezielle IT-Lösungen für die Produktion zum Einsatz. Der dezentralisierte Zugriff auf Ressourcen soll es Herstellen und Zulieferern ermöglichen, auf Anforderungen schnell reagieren zu können. Solche verteilten Systeme stellen große Anforderungen an die Netzverfügbarkeit: Bei Fehlfunktionen oder Performanceproblemen fallen nicht nur einige PCs, sondern komplette Produktionsstraßen aus. Der Aufwand zum fehlerfreien Betrieb einer solchen Infrastruktur ist erheblich. Viele Unternehmen fragen sich deshalb, ob die interne Pflege geschäftskritischer Systeme überhaupt noch wirtschaftlich ist.

Outsourcing zur Qualitätssteigerung

Nach einer im Dezember 2002 veröffentlichten Studie, die das Analystenhaus Vanson Bourne im Auftrag von Telecity durchgeführt hat, sind 58 von 100 befragten deutschen CIOs der Meinung, dass sich der Outsourcing-Trend fortsetzen wird. Rund 18 Prozent der Unternehmen planen sogar, das Management geschäftskritischer Daten an externe Data Center zu vergeben. Damit steigen die Erwartungen an die Servicequalität und das Reporting eines Dienstleisters. Dies zeigt auch die Studie. Mehr als zwei Drittel der befragten CIOs sehen hohe Sicherheitsstandards als sehr wichtiges Kriterium bei der Vergabe eines Projekts an.

Kontrolle ist besser

Mit dem Outsourcen sind die Unternehmen zunächst einmal das Netzmanagement los. Allerdings können sie nun die Leistungsfähigkeit der Infrastruktur weder steuern noch kontrollieren. Wenn eine Applikation aber geschäftskritische Prozesse unterstützt, muss die verantwortliche IT-Abteilung über deren Leistungsfähigkeit genau Bescheid wissen. Application-Serviceprovider (ASP) garantieren zwar über Service Level Agreements (SLA) Verfügbarkeit oder Time To Repair und haften dafür auch mit Vertragsstrafen. Diese Zahlungen können jedoch selten den tatsächlichen Schaden wettmachen, den der Ausfall eines produktionskritischen Systems zur Folge hat.

Beim Application Performance Management (APM) überwacht das Monitoring Center des Providers konstant die Leistung der Anwendungen. Dabei kontrolliert, analysiert und berechnet der Dienstleister das Verhalten der in den Applikationen abgebildeten Prozesse. Für das Monitoring nutzt der Provider eine Managementleitung, beispielsweise über ein Virtuelles Privates Netz (VPN). Standardisierte Protokolle wie das Simple Network Management Protocol (SNMP) und auf den Clients installierte Netzwerkagenten übermitteln die Leistungsdaten der Router, WAN- und LAN-Verbindungen, Switches, Server und Desktop-PCs. Dieser Service muss rund um die Uhr zur Verfügung stehen. Grundsätzlich gilt aber auch hier: Im Ernstfall kann der Kunde nur das rechtlich durchsetzen, was die Vertragspartner vorher als SLA festgelegt haben.

Durch die Fülle an Datenmaterial bekommt der Dienstleister wertvolle Informationen über die Prozessperformance aller beteiligten Infrastrukturkomponenten und kann so gezielt Verbesserungsvorschläge machen. Das Unternehmen erhält über Reports Zugriff auf Bestandsaufnahmen und Prognosen zum derzeitigen und zukünftigen Netzwerk- und Applikationsverhalten. Die Verantwortlichen wissen so über Verfügbarkeit, Zugriffsmöglichkeiten und Leistungsfähigkeit der Applikationen Bescheid. Sie können nicht nur die mit dem ASP vereinbarten SLAs überprüfen, sondern auch interne Probleme beheben. Das APM ermittelt beispielsweise einem Callcenter-Betreiber die Zugriffszeiten auf zentrale Informationssysteme. Engpässe lassen sich so erkennen und korrigieren oder sogar im Vorfeld vermeiden. Die Callcenter-Mitarbeiter arbeiten effizienter, weil sie weniger lange auf die Reaktion der Software warten müssen.

Ohne Tests geht es nicht

Wer Monitoring-Software einsetzen will, muss seine Anforderungen kennen und den Markt genau prüfen. Der Dienstleister Vanco testete beispielsweise zehn Application-Monitoring-Produkte. In die engere Auswahl kamen "HP Openview", "Lucent Vitalsuite" und "Infovista". Der Provider prüfte unter anderem, wie die Kandidaten mit Anwendungen etwa von SAP, Citrix, Oracle und Lotus interagierten. Aber auch mit Hardware-Komponenten wie Router und Switches mussten die Monitoring-Tools zusammenarbeiten können. Neben der technischen Prüfung spielten Benutzerfreundlichkeit und Übersichtlichkeit eine große Rolle. Nur sie konnten dem Dienstleister eine schnelle Analyse und eine kurze Reaktionszeit ermöglichen. Vanco entschied sich schließlich für den Anbieter Lucent, dessen Software die Anforderungen am besten erfüllen konnte.

Fazit

In den kommenden Jahren werden steigende Datenmengen und verteilte Applikationen die Unternehmensnetze belasten. Nur ein Monitoring auf Applikationsebene kann garantieren, dass Verfügbarkeit und Leistungsfähigkeit geschäftskritischer Prozesse auch unter erschwerten Bedingungen erhalten bleiben. (haf)

Zur Person

Ingo Wupper

ist Leiter Solutions Consulting bei Vanco Deutschland.