Website-Zugriff mit Haken und Ösen

06.04.2001
Für ein erfolgreiches Management der Website-Performance ist weit mehr nötig als die aus der Client-Server-Welt bekannten Methoden und Werkzeuge. Sie müssen durch Tools ergänzt werden, die IT-Systeme auch über Unternehmensgrenzen hinweg steuern.

Von: Berthold Wesseler

"Web-fähige IT-Anwendungen gehören zum Kompliziertesten, was die kommerzielle Datenverarbeitung bisher an Systemen hervorgebracht hat." Im E-Business-Zeitalter wachse deshalb das Risiko, durch Patzer beim IT-Service negative Schlagzeilen zu machen, so Ian Furlong, Performance-Spezialist von Amdahl. "Erschwerend kommt hinzu, dass viele Unternehmen die Qualität des Online-Auftritts einer kurzen Time-to-Market geopfert haben", ergänzt Furlong.

Auch die Experten von Keynote Systems warnten Mitte Februar die Betreiber deutscher Websites eindringlich vor einer drohenden Akzeptanzkrise, hervorgerufen durch mangelhafte Antwortzeiten. Die auf die Beobachtung von E-Commerce-Performance spezialisierte Firma misst und veröffentlicht im "German Business 40 Internet Performance Index" die Geschwindigkeit der 40 meist frequentierten deutschen Online-Angebote.

Das Internet gerät ins Trudeln

Die durchschnittliche Antwortzeit dieses Index pendelt von Woche zu Woche zwischen vier und mehr als sechs Sekunden, liegt also unvertretbar hoch über der allen Anwendungsdesignern bekannten "Sub-Second-Responsetime". Diese Grenze haben Psychologen bereits im Zeitalter des Time-Sharing ausgelotet. Dauert die Antwort auf eine Anfrage länger als eine Sekunde, beginnt der User ungeduldig zu werden. Das kann teuer werden, wie die Standish Group in einer aktuellen Studie ermittelt hat, nach der 1999 E-Commerce-Sites weltweit vier Milliarden Dollar Umsatzeinbußen aufgrund zu langsamer Websites erlitten haben.

Performance-Management, wie es für klassische Server- beziehungsweise Host-Anwendungen seit Jahren eine etablierte und wohl definierte Disziplin ist, tut also für Websites nicht nur bitter Not - mit kalkuliertem Aufwand betrieben, wird es sich durchaus bezahlt machen. Zu den klassischen Applikationen wie Trouble-Ticketing oder Change-Management kommen neue hinzu, zum Beispiel Logfile-Analyse, Load-Balancing, Packet-Shaping, Content-Autorisierung oder Web-Server-Management.

Web-Performance steigern

Die mit dem Management von Websites verknüpften technischen Herausforderungen haben nach Einschätzung der Aberdeen Group all diejenigen IT-Abteilungen böse überrascht, die ihre Web-Applikationen strikt nach Client-Server-Manier verwalten. Das liegt zwar nahe, denn man hat ebenfalls mit Server-gestützten Prozessen zu tun, die Anfragen von Web-Clients bedienen. Der Web-Server stellt Inhalte entweder direkt zur Verfügung oder verbindet den Enduser mit einem Backend-Server, der die Daten liefert. Allen Ähnlichkeiten zum Trotz machen aber die grundsätzlichen Diskrepanzen zwischen den beiden Anwendungsszenarien traditionelle Client-Server-Konzepte untauglich für das Performance-Management von Websites. Die fünf wichtigsten Unterschiede sind:

- Geografische Ausbreitung und firmenübergreifende Implementierung:

Web-Applikationen werden üblicherweise in verteilten Multi-Firewall-Umgebungen über mehrere LAN- und WAN-Netze hinweg betrieben. Die Server sind zudem aus Gründen der Verfügbarkeit und Sicherheit sowie aus Performance-Überlegungen heraus räumlich weit verteilt. Bereits die geografische Nähe verkürzt bei einem verstreuten Client-Auditorium die Antwortzeiten. Die Firmengrenzen werden auch durch das unternehmensübergreifende Supply-Chain- und Customer-Relationship-Management gesprengt. Hinzu kommt, dass der Betrieb zunehmend an spezialisierte Serviceprovider übergeben wird, die Internet-, Netzwerk- und Speicherdienste oder auch ganze Applikationen bereitstellen.

- Quality of Experience:

Während in der Client-Server-Welt Funktionalität und Durchsatz der Anwendungen klar definiert und die User in der Bedienung geschult sind, regiert in der Welt des World Wide Web die Erfahrung des Endanwenders. Daher muss die Performance am Browser gemessen werden; die ressourcenzentrierten Metriken der Client-Server-Welt haben nur noch untergeordnete Bedeutung.

- Das Unvorhergesehene wird zur Norm:

In Client-Server-Umgebungen können Administratoren ihren Endanwendern Updates der Client-Software oder auch Daten kontrolliert zukommen lassen. Server-Downtimes lassen sich so planen, dass die Auswirkungen auf die betrieblichen Abläufe minimal sind. Im Web dagegen ist das Lastaufkommen unvorhersehbar. Für das Performance-Management einer Web-Infrastruktur sind deshalb Methoden und Werkzeuge gefordert, die den Traffic dynamisch ausbalancieren.

- Alles im Fluss:

Kurze Nutzungsdauer und weitreichende Sichtbarkeit sowohl innerhalb als auch außerhalb des Unternehmens charakterisieren Web-Auftritte. Die Seiten, Grafiken und Skripte, die das User-Interface der Web-Applikationen ausmachen, können sich täglich ändern - und tun dies in der Regel auch. Diese Dynamik des Internet-Zeitalters steht in starkem Kontrast zu den kontrollierten Rollouts der Client-Server-Welt und erzeugt große Unwägbarkeiten.

- Ganzheitliches Management:

Neue Komponenten wie Web-Server sind durch die Brille des Performance-Managers als integraler Bestandteil der IT-Infrastruktur zu betrachten, da sie Zugriff auf die Backend-Services benötigen. Die Verwaltung einer Web-Infrastruktur ruft also geradezu nach einer Integration der traditionellen Management-Ansätze mit den neuen Werkzeugen und Verfahren.

Sisyphus at work?

Diese Überlegungen zeigen: Ohne methodisches Vorgehen und wirkungsvolle Werkzeuge droht Performance-Management für Websites schnell zur Sisyphusarbeit zu werden. Der Schwerpunkt liegt heute sicherlich auf der Überwachung und Optimierung getreu dem Motto: "You can only manage what you measure!". Messen empfiehlt auch Meta-Analyst Corey Ferengul in der Studie "Web Application Monitoring Imperatives" als besten Einstieg in ein Performance-Management für Websites. Dabei sollte man seiner Meinung nach speziell die Antwortzeiten und Verfügbarkeiten im Auge behalten, insbesondere im Vergleich zu Service Level Agreements - falls es diese gibt. Hauptstörquellen sind zu lange Zeiten für DNS-Lookups, Engpässe bei der TCP-Verbindung sowie Serverantwortzeiten beziehungsweise die Dauer der Datentransfers.

Die von einem Rechnersystem für eine bestimmte Last benötigte Leistung vorherzusagen, ist eine Wissenschaft für sich. Noch schwieriger ist es, für erst geplante Web-Anwendungen mit unbekannter Akzeptanz die passende Infrastruktur aus dem Hut zu zaubern. Einigermaßen realistische Prognosen für das Kapazitäts- und Performance-Management lassen sich mit Hilfe von Benchmarks und Performance-Modellen entwickeln. Die Basis hierfür liefern Messdaten aus Last, Performance- und Stresstests, die in Performance-Modelle für die Prognose und Abschätzung des Systemverhaltens eingehen.

Um die gewünschte Quality of Service bereitzustellen, gilt die Performance-Analyse aus Sicht des Surfers als entscheidendes Kriterium. Die so ermittelten Messwerte lassen sich aber nur analysieren, wenn nicht nur akkurate Modelle der Site-Architektur und -Konfiguration vorhanden sind, sondern auch Daten über die Last auf den Netzen und Servern. Denn Modelle zur Charakterisierung der Web-Workload helfen erst dann bei Performance-Vorhersagen, wenn Informationen über die Größe der übertragenen Dateien, über den täglichen Datendurchsatz des Netzes, die Download- oder Transferzeiten der Server sowie das User-Verhalten vorliegen.

Die Verfahren für Messung und Analyse der Performance sollten bereits bei der Implementierung der Website integriert werden. Sie bilden eine wichtige Voraussetzung für andere Management-Aufgaben - vom Netzmanagement über Kapazitätsplanung bis zum Tuning, beispielsweise durch die Implementierung von Cache- und Proxy-Systemen oder die Optimierung der Transferprotokolle.

Erste Produkte mit Fokus auf E-Business

Werkzeuge für das Performance-Management von Websites kommen aus unterschiedlichen Ecken des Marktes: Neben innovativen Startups zählen vor allem die traditionellen Hersteller von Netz- und System-Management-Software sowie die Netzwerkspezialisten zu den Anbietern. Aber auch große Serviceprovider steigen in den Markt ein. Beispielsweise hat sich EDS mit dem Newcomer Tonic Software zusammengetan, um für die mehr als 600 Web-Hosting-Kunden eine komplette Web-ApplikationsManagement-Lösung anzubieten, die auch Verfügbarkeit, Integrität und Skalierbarkeit abdeckt.

Computer Associates, Marktführer bei System-Management-Software, hat für das Performance-Management von Websites neben entsprechenden Optionen der Suite "Unicenter TNG" die Punktlösungen "NetworkIT" und "MasterIT" im Angebot. Die "TNG Web Management-Option" erlaubt ein Multisite-/Multiserver-Management, angefangen von Web-Serverüberwachung, Verkehrs- und Link-Analyse über die Ereignissteuerung und Automatisierung bis hin zum Test von Websites. Ein Alleinstellungsmerkmal sind die so genannten Performance-Neugents, die unternehmensweit Performance-, Verfügbarkeits- und Service-Level-Management-Funktionen unterstützen. Die Softwareagenten auf Basis der Technik neuronaler Netze erkennen selbstständig komplexe Zusammenhänge in umfangreichen Datenbeständen, lernen eigenständig aus der Erfahrung, treffen auf dieser Basis Vorhersagen und passen sich dynamisch geänderten Gegebenheiten an.

Die IBM-Tochter Tivoli Systems präsentierte Ende letzten Jahres die beiden Produkte "Web Services Manager" und "Web Services Analyzer". Sie sollen Unternehmen in die Lage versetzen, Verfügbarkeit und Leistung von Web-Applikationen zu kontrollieren sowie die Effizienz der gesamten E-Business-Infrastruktur zu überprüfen. Der Manager überwacht Web-basierte Anwendungen und misst deren Leistung aus Sicht des Benutzers. Der Analyzer vergleicht Log-File-Informationen des Web-Servers mit den Berichten des Web-Services-Manager, erlaubt damit Analysen des Nutzerverhaltens und kann als Basis für die Lastmodellierung dienen.

Als Komplettlösung für die Performance-Überwachung auf allen Plattformen positioniert das kalifornische Softwarehaus Envive die "Service Level Suite" (SLS). Das Frühwarnsystem informiert bereits im Vorfeld über kritische Systemzustände. Es gibt nicht nur die Ressourcenauslastung an, sondern misst den gesamten Applikationszyklus mit Verweilzeiten in Netz, Datenbank und ERP-System (SAP). Das Tool fährt sozusagen mit der Anwendung durch das System und prüft überall dort, wo Antwortzeiten wichtig sind.

Der "Resonate Commander" von der kalifornischen Softwareschmiede Resonate soll eine durchgängige Lösung für die Service-Level-Sicherung von E-Business-Applikationen bilden. Dazu werden Daten über System- und Applikationszustände sowie den aktuellen Servicegrad gesammelt, mit einer Rules-Engine kombiniert und zur Echtzeitsteuerung der kritischen Netz- und Systemkomponenten verwendet.

Spätestens mit der Akquisition von Optimal Systems hat auch Compuware eine starke Position im Performance-Management von E-Business-Anwendungen erworben. Die Integration der im Juli 2000 übernommenen Optimal-Produkte "Application Vantage" und "Application Expert" erweitert die Funktionalitäten der Ecosystems Suite erheblich. Mit ihr will Compuware eine Produktfamilie liefern, die insbesondere das Monitoring von Anwendungen, Betriebssystemen und Netzwerken erlaubt sowie die Netzwerkplanung unterstützt. Das Zusammenspiel von Anwendungsentwicklung und Performance-Management verbessern wollen mit ihren Werkzeugen auch Mercury Interactive, Rational und Segue Software (siehe Kasten).

Spezialisten für Performance-Management

Im Markt für Performance-Management sind darüber hinaus einige Spezialisten aktiv, neben kleineren Firmen auch Marktgrößen wie BMC, Candle, Landmark Systems sowie SAS Institute. Sie alle kommen Zug um Zug mit Erweiterungen für das Performance-Management von Websites heraus. BMC hat durch die Übernahme von BGS Systems neben den eigenen Monitoring- und Automations-Tools das Modellierungswerkzeug "Best/1" im Portfolio und spielt damit neben SAS Institute eine führende Rolle bei Kapazitätsplanung und Modellierung. Mit der kürzlich erfolgten Akquisition von Perform erweitert BMC die Möglichkeiten zur Performance-Analyse auf Applikationsebene. Bereits zuvor hatte BMC das Unternehmen Evity gekauft, das mit "Site Angel" über ein Produkt für das Performance-Management von Websites verfügt.

Die israelischen Softwarespezialisten von Optisystems Solutions haben die Tool-Familie für das System- und Anwendungs-Management "Energizer PME" (Performance Management Environment) um das Modul "Optimanage" ergänzt. Es steuert Anwendungen dynamisch in Abhängigkeit von der aktuellen Systemauslastung. Leistung und Verfügbarkeit aus Sicht des Endgerätes überwacht die Ettlinger Hightech-Firma Geyer & Weinig mit dem Realtime-Monitoring-Tool "Infra-XS", das Softwareagenten nutzt. Dabei stehen die zu erbringenden und zu überwachenden IT-Service-Leistungen im Mittelpunkt der Betrachtung, etwa Transaktions-, Verarbeitungs-, Netz- und Server-Antwortzeiten sowie Verfügbarkeiten. Der amerikanische Softwarehersteller Luminate präsentierte auf der CeBIT mit "Luminate.Net" einen E-Service für Performance-Management, bei dem der Kunde die Tools über das Internet abonniert.

Integrierende Umbrella-Tools

Auf der Netzwerkseite ist der Markt zwar kleiner als bei der System-Management-Software, aber noch zersplitterter, da stärker von den Netzwerkherstellern geprägt. Der dominierende Anbieter ist hier Hewlett-Packard mit "Open View". Der "Open View Vantage Point Web Transaction Observer" beispielsweise erlaubt es IT-Managern, Wartezeiten, Fehler und "Aborts" zu messen, unter denen User zu leiden haben - selbst wenn der Desktop jenseits der Unternehmensgrenze stehen sollte.

Als integrierende "Umbrella-Tools" sind auf der Netzwerkseite neben HP Open View die Produkte "Cisco Works" von Cisco Systems, 3Coms "Transcend", "Optivity" von Nortel Networks, "Vital Suite" von Lucent sowie vor allem "Spectrum" vom Cabletron-Ableger Aprisma zu nennen. Zu den wichtigsten Newcomern zählt Concord Communications. Die Firma hat mit "E-Health" eine integrierte Performance-Management-Suite für die wichtigsten Applikationen, Systeme, Services und Netzwerke entwickelt. Infovista stellte kürzlich für die Netzüberwachungssoftware "Vista" ein Plugin zur Performance-Überwachung von IP-Services vor. Netscout Systems startete Mitte vergangenen Jahres die Auslieferung des "N-Genius Server" und eines Traffic-Monitors, den beiden ersten Komponenten eines geplanten Performance-Managementsystems für E-Business-Umgebungen.

Agenten keine Allzweckwaffe

Die meisten modernen Überwachungsprodukte verwenden Agenten, die auf den relevanten Komponenten im Client-Server-Netz oder Intranet platziert werden. Darin liegen gleichzeitig die Stärken des Konzepts wie Flexibilität und Skalierbarkeit, aber auch die Schwäche. Denn diese Agenten müssen richtig konfiguriert und laufend kontrolliert werden. Von Pionieren des Umbrella-Managements ist mittlerweile die Kritik zu vernehmen, dass die Funktionalität der Agenten in komplexeren Umgebungen hinter den Tools der Komponentenlieferanten deutlich zurückbleibt - und diese damit unverzichtbar bleiben. Ein Doppeleinsatz scheint zu aufwändig und zu kostspielig. So bleiben die Agenten auf ihre Rolle als Informationslieferanten für das übergreifende Management und das Berichtswesen beschränkt, während sie im Trouble-Shooting nur dort über ein Nischendasein hinaus kommen werden, wo keine Netzwerk- oder Systemspezialisten tätig sind. (cl)

Zur Person

BERTHOLD WESSELER

ist freier Journalist in Brühl/Rheinland. Zu seinen Themenschwerpunkten zählen Netzwerk- und Systemmanagement sowie Enterprise Resource Planning.