Ohne Tempolimit durchs Netzwerk

Mehr Performance durch Netzwerk-Management

16.02.2011 von Gabi Lutz
Störungen in den Verteilerknoten eines Netzwerks wie Switches und Router oder Defekte in den Netzwerkleitungen können zu Teilausfällen in bestimmten Unternehmensbereichen führen. Ein gut gepflegtes Netzwerk-Management beugt durch Überwachungs- und Analysefunktionen vor und kann die Netzwerk-Leistung erhöhen.

Die beste Methode, um einen störungsfreien Betrieb eines Netzwerkes zu gewährleisten, ist eine permanente Überwachung aller aktiven Netzwerk-Systeme. Dazugehören neben den Switches und Router auch die angeschlossenen Clients, Server oder Netzwerkdrucker. Dadurch erhält der IT-Administrator in vielen Fällen bereits frühzeitig wertvolle Hinweise, beispielsweise auf drohende Performance-Engpässe. Mit diesen Ergebnissen kann er dann rechtzeitig Gegenmaßnahmen ergreifen.

Doch die Überwachung des Netzwerkes bildet nur einen Teilbereich des Netzwerk-Managements ab. So gehören zu den weiteren Aufgabengebieten des Netzwerk-Managements die Verwaltung und die Sicherheit der IT-Infrastruktur. In diesem Zusammenhang spielt auch die Performance und die Verfügbarkeit des Netzwerkes eine wichtige Rolle.

Dabei darf nicht außer Acht gelassen werden, dass das Netzwerk-Management ein integraler Bestandteil der gesamten Unternehmens-IT ist und es auch als solcher betrachtet werden muss. Das bedeutet: Das Netzwerk-Management sollte der IT-Verantwortliche reibungslos in das Gesamtkonzept der IT-Infrastrukur einfügen und es auch entsprechend verwalten.

Die wichtigsten Management-Komponenten

Noch wichtiger als die Frage, welche Komponenten überwacht und verwaltet werden sollen, ist die Entscheidung, über welche Bereiche das Netzwerk-Management ausgedehnt wird. Standard und Basis zugleich ist die Kontrolle, ob und mit welcher Leistung ein System funktioniert. Nimmt man einen Switch als Beispiel, können dessen Funktionen, seine Auslastung und die Fehlerrate pro Port überwacht werden. Historisch begann die Überwachung in zahlreichen Firmen auf diese Weise mit dem Ziel, eine bessere Kontrolle über die Verfügbarkeit der Netze aufzubauen. Im Lauf der Zeit haben sich die Schwerpunkte verschoben, heute haben Sicherheitsthemen wie Compliance-Anforderungen Eingang in das Netz-Management gefunden.

Simples Konzept aber komplexe Umsetzung: Das Zusammenspiel der NAC-Komponenten wirkt einfach. (Quelle: Microsoft)

So ist etwa Network Access Control (NAC) in erster Linie eine Frage des Zusammenspiels verschiedener Management-Komponenten. Das bestätigt auch Markus Nispel, Vice President Solutions Architecture bei Enterasys Networks, der Netzwerk-Infrastruktur und -Security-Sparte der Siemens Enterprise Communications Group: "Für ein funktionierendes NAC-System müssen alle Komponenten auf der gesamten Netzwerkstrecke zentral verwaltet werden können. Nur so lässt sich ein umfassender Sicherheitskordon aufbauen."

Leistungsmessung mit Application Performance Monitoring

Neben der Sicherheit ist ein weiterer Aspekt der Netzwerküberwachung in den Vordergrund gerückt. Während diese sich früher vor allem auf die Bereitstellung der Basisdienste im Netzwerk konzentrierte, wurde der Fokus mittlerweile auf die Anwendungen erweitert. Ob alles ordnungsgemäß läuft, wird am Endpunkt definiert, dort, wo der Anwender seine Aufgaben mit Hilfe des Computers erledigen muss. "Probleme mit Verzögerungen bauen sich oft über lange Zeit auf, zeigen dann aber ganz plötzlich Auswirkungen", so Rainer Bemsel, Technical Representative bei NetQoS. "Daher ist es sehr wichtig, eine Baseline des normalen Betriebs von Applikationen zu etablieren, damit Abweichungen schnell und zuverlässig erkannt werden."

Die Lösung heißt Application Performance Monitoring. Je komplexer die eingesetzten Business-Applikationen sind, desto wahrscheinlicher treten Probleme auf, die mit einfachen Statistik- und Übersichtswerten nicht gelöst werden können. In der Praxis muss deshalb erheblich tiefer analysiert und ausgewertet werden. So greift der Einsatz von Standardwerkzeugen wie SNMP und NetFlow zu kurz, weil Applikationsprobleme oft auf deutlich höheren Ebenen entstehen, als diese Tools analysieren.

Anwendungen simulieren statt Probleme im Live-Betrieb

Application Performance Monitoring hingegen überwacht speziell die Qualität der Benutzertransaktionen aus Sicht der Anwendungsebene. Entscheidend ist, welche Ressourcen dabei verbraucht werden und wann, wie häufig und warum das passiert. Dabei ist das Zusammenspiel der einzelnen Applikationskomponenten genauso wichtig wie das Verhalten der eingebundenen Backend-Systeme. "Nicht jede Anwendung ist wichtig genug, um eine lückenlose Überwachung der Transaktionsleistung aufzubauen", beschreibt NetQoS-Mann Bemsel einen sinnvollen Ansatz zur Umsetzung. "Jedes Unternehmen muss selbst definieren, welche Programme für den Geschäftsbetrieb so wichtig sind, dass eine besonders intensive Überwachung notwendig ist."

Um die Application Performance zu kontrollieren, stehen Unternehmen verschiedene Ansätze zur Verfügung. Eine Variante sind synthetische Transaktionen. Dabei werden das Nutzungsprofil der Anwendung mit einem oder mehreren Clients simuliert und die Reaktionszeiten des Anwendungs-Servers gemessen. Der Vorteil dieser Methode liegt im relativ geringen Aufwand, passende Scripts und Test-Frameworks werden für die meisten typischen Business-Applikationen wie SAP oder Exchange angeboten. Oft wird jedoch kritisiert, dass die Simulation der realen Situation nicht so nahekommt, wie sie sollte, und die ermittelten Werte von der Wirklichkeit abweichen. Ein weiterer Nachteil, den synthetische Transaktionen mit allen anderen aktiven Test-Tools gemein haben, ist der Einfluss des Tests auf das Produktionsnetz. Jede simulierte Anfrage belastet Netzwerk und Server.

Testmethoden der Netzwerk-Performance

Das gilt auch für die zweite Testmethode, die Softwareschnittstelle in der Anwendung. Hier liefert die Applikation selbst aktuelle Informationen über ihre Auslastung, Verzögerungen und andere Statistikdaten. Die Open-Source-API "Application Response Measurement" ist so eine Schnittstelle, die auch von großen Herstellern wie SAP und Oracle unterstützt wird. Die gewonnenen Daten haben einen enormen Umfang. Deshalb sind sie eher für Entwickler geeignet als für einen Administrator, der auf einen reibungslosen Betrieb achtet. In größeren Unternehmen, wo es einige Dutzend kritische Anwendungen und Dienste gibt, müsste auch jedes Programm einzeln über die API überwacht werden – ein nicht zu rechtfertigender Aufwand.

Unter Beobachtung: Mit dem Service Management Monitoring lassen sich alle Clients im Netzwerk auf ihre Anwendungs-Performance überwachen. (Quelle: HP)

Eine andere Möglichkeit zur Überwachung der Anwendungsleistung sind Monitoring-Systeme auf Client-Basis. Hier liefert ein Software-Agent auf dem Client selbst Messdaten über Reaktionszeiten und Durchsatz. Allerdings sind die Messwerte auf die überwachten Clients beschränkt: Wer nicht jeden PC mit einem Agenten belasten will, riskiert, dass Probleme an unüberwachten PCs unbemerkt bleiben. Fehlt noch die letzte Variante des Performance-Monitorings: das passive Analysieren der Protokolldaten. Während die bereits genannten Ansätze versuchen, von oben nach unten zu analysieren, geht diese Variante den umgekehrten Weg. Durch das Sammeln aller Datenpakete kann ein entsprechender Analyzer ein lückenloses Bild des Anwendungsverhaltens aufzeichnen – von der Anfrage des Clients bis hin zum Backend-Request an die Datenbank. "Eine passive Methode hat für das Netzwerk die geringsten Auswirkungen", erklärt Technikexperte Bemsel, "Beeinflussungen werden praktisch ausgeschlossen."

Künftige Herausforderungen

Die klassischen Netzwerk-Management-Ansätze wie SNMP und NetFlow greifen heute zu kurz, da sie Anwendungen nicht erfassen. Dagegen beinhaltet modernes Monitoring synthetische Transaktionen, Open-Source-API "Application Response Measurement", Client-basierte Agenten und passive Analyse der Protokolldaten, die noch weiter entwickelt werden.

In der Vergangenheit waren Sicherheit und Application Performance wichtige Themen des Netz-Managements, doch momentan zeichnen sich schon zwei neue Entwicklungen ab: Eine davon ist die Virtualisierung. Durch die zunehmende Verbreitung von Virtualisierungstechnologien in den Rechenzentren wird es für Netz-Management-Lösungen immer wichtiger, Daten aus virtuellen Maschinen (VM) zu erhalten. Hier sind sowohl die Hersteller von Virtualisierungsprodukten als auch die von Management-Plattformen gefragt, um Schnittstellen zum gegenseitigen Datenaustausch anzubieten.

Der zweite Trend hat mit Kosten und Budgets zu tun. Auch wenn Firmen zögern, das Netz-Management auszulagern, gibt es mittlerweile zahlreiche Service-Provider für diese Dienstleistung. (hal)

Dieser Artikel basiert auf Beiträgen unserer Schwesterpublikation Computerwoche.