IT-Management

Sicherheit in Server-Räumen

29.03.2011 von Michael Schumacher
Das Management netzwerkkritischer, physischer Infrastrukturen (NCPI) verschmilzt zunehmend mit dem klassischen IT-Management. Neue Managementstrukturen gestatten eine integrierte und flexible Absicherung der gesamten IT-Umgebung.

Für das erfolgreiche Management der netzwerkkritischen, physischen Infrastruktur, kurz: NCPI, gelten die gleichen Kriterien wie für das Management von Servern, Storage, Switches oder Druckern. Gemäß der IT-Infrasturcture-Library-Prozesse (ITIL) für Service Support und Service Delivery sind folgende vier Bereiche für die grundlegende Technologie- und Sicherheitsebene zu etablieren:

Die meisten Unternehmen implementieren diese vier Managementbereiche in der hier gezeigten Reihenfolge. Sie gehen davon aus, dass die damit verbundene physikalische Sicherheit damit abgedeckt ist. Allerdings sieht in den meisten Fällen die Praxis anders aus, denn viele unentdeckte Design- und andere Schwachstellen können oft zu unternehmenskritischen Folgen führen.

Die allgemeine und besonders die physikalische Sicherheit von Server-Räumen sollte daher regelmäßig, mindestens aber alle zwei bis drei Jahre gründlich überprüft werden. Wir geben Ihnen Tipps worauf sie grundsätzlich achten müssen.

Wenn Sie sich für Klimatisierung in Server-Räumen interessieren, finden Sie in dem Artikel Hitzefrei in den Server-Räumen! weitere Informationen. Weitere Details zur Hochverfügbarkeit erfahren Sie in dem Beitrag Grundlagen der Hochverfügbarkeit. Mehr Berichte, wie Sie mögliche Gefahren im Unternehmen vermeiden, finden Sie in dem Artikel IT-Risikomanagement bietet Chancen.

Die vier Ebenen des Sicherheitsmanagements

Das Krisenmanagement gewährleistet ein kontinuierliches Monitoring aller ausfallkritischen Bereiche, also der gesamten NCPI. Im Falle einer Krise setzt ein so genanntes Incident-Managementsystem ein, das, bestimmten Algorithmen folgend, Benachrichtigungsfunktionen ausführt oder Gegenmaßnahmen einleitet.

Aufgabe des Verfügbarkeitsmanagements ist es unter anderem, einen kontinuierlichen Soll-/Ist-Vergleich der aktuellen Performance-Werte sicherzustellen, um beispielsweise die Kühlungsparameter zu verändern. Voraussetzung hierfür ist die genaue Kenntnis der Ausfallsrelevanz sämtlicher NCPI-Komponenten.

Auf einen Blick: Einordnung und Teilbereiche der NCPI als fundamentale Sicherheitsebene. (Quelle: APC)

Das Kapazitätsmanagement sorgt dafür, dass die erforderlichen IT-Ressourcen flexibel und skalierbar zur richtigen Zeit und zu den anvisierten Kosten bereitstehen. Als IT-Ressourcen gelten dabei insbesondere Stromversorgung, Kühlung, Rack-Kapazitäten und Verkabelung.

Das Änderungsmanagement berücksichtigt schließlich alle die Servicequalität beeinflussenden Systemmodifikationen, wie zum Beispiel Firmware-Updates einzelner NCPI-Komponenten oder Wartungsarbeiten im laufenden Betrieb.

Physikalische Bedrohungen in Server-Räumen

Bedrohungen für die Servicequalität innerhalb der NCPI sind entweder digitaler oder physikalischer Natur. Während digitale Bedrohungen wie Hackerangriffe oder Virenattacken auf der Netzwerkebene wirken, setzen die physikalischen Bedrohungen an der Basis der Datencenterabsicherung an.

Zu ihnen zählen sowohl äußere Sicherheitsbedrohungen wie Diebstahl, Spionage, Sabotage oder Feuer als auch infrastrukturelle beziehungsweise technische Bedrohungen. Die Absicherung dieser so genannten verteilten physikalischen Bedrohungen erfolgt einerseits durch integrierte Sensoren innerhalb der Einzelkomponenten wie USV-Module oder Kühlungseinheiten, andererseits durch zusätzliche Sensoren, die innerhalb des Datencenters platziert werden.

Die nachfolgende Tabelle zeigt die verschiedenen Bedrohungen, Folgeschäden und entsprechende Sensortypen.

Verteilte physikalische Bedrohungen in Datencentern

Bedrohung

Definition

Folgeschäden

Sensortypen

Lufttemperatur

Lufttemperatur in Räumen, Racks und Geräten

Geräteausfälle und kürzere Lebensdauer durch Überhitzung und / oder zu starke Temperaturschwankungen

Temperatursensoren

Luftfeuchtigkeit

Relative Luftfeuchte in Räumen und den Racks

Geräteausfälle durch starke statische Ladungen an Punkten mit niedriger Luftfeuchtigkeit, Kondensation an Punkten mit hoher Luftfeuchtigkeit

Feuchtigkeitssensoren

Flüssigkeitslecks

Lecks in Kühlkreisläufen

Flüssigkeitsschäden an Boden, Geräten, Verkabelung, Hinweis auf fehlerhafte Klimaeinheit

Lecksensoren

Bedienungsfehler / unautorisierter Zugriff

Unbeabsichtigte Fehlbedienung durch Personal, unautorisierter oder gewaltsamer Zugang mit Schadensabsicht

Geräteschäden und ausfälle, Datenverlust, Diebstahl und Sabotage

Digitale Videokameras, Bewegungsmelder, Öffnungssensoren für Rack- und Raumtüren, Glasbruchsensoren, Vibrationssensoren

Rauch / Feuer

Elektrisches oder konventionelles Feuer

Geräteausfälle, Verlust von Daten und Ausstattung

Rauchsensoren

Kritische Luftverschmutzung

Flüchtige Chemikalien, z. B. Wasserstoff aus Batterien oder Partikel (Staub)

Bedrohungen für das Personal und/oder Beeinträchtigung der USV-Absicherung durch den Austritt von Wasserstoff, Geräteausfälle aufgrund von erhöhter statischer Elektrizität und durch Partikel verstopften Filtern/Lüftern

Chemikalien- / Wasserstoffsensoren

Staubsensoren

Gefahrenquelle: Server-Kühlung

Eine zunehmende Aufmerksamkeit erfährt das Thema Kühlung. Die lokale Überhitzung des Datencenters zählt zu den am häufigsten unterschätzten Verfügbarkeitsrisiken. Das gilt insbesondere in dicht gepackten 19-Zoll-Schränken. Die Substitution älterer Server durch raumoptimierte Modelle und die dichtere Bestückung der Racks bewirken immer stärkere Abwärmekonzentrationen in den Racks und Server-Räumen.

Wärmeverteilung: Ein im heißen Gang aufgestelltes, n+1 redundantes und monitoring-fähiges In-Row-Klimasystem neutralisiert die Erwärmung der Luft direkt am Entstehungsort. Die gekühlte Luft wird anschließend in den kalten Gang zur erneuten Kühlung des IT-Equipments geleitet. (Quelle: APC)

Dieser Trend wird durch das unablässig steigende Datenaufkommen noch verstärkt. Bis zum Jahr 2010 werden weltweit 35 Millionen Server in Betrieb sein, prognostiziert das Marktforschungsunternehmen IDC. Heute sind es 24 Millionen. Wo vor zehn Jahren noch sieben Server pro Rack untergebracht waren, drängen sich heute 20 oder mehr. Bis 2007 soll bereits jeder dritte ausgelieferte Server ein Blade-Server sein. Der anhaltende Trend zur Serverkonsolidierung katapultiert die erforderliche Kühlleistung mühelos auf über 20 kW gegenüber den bislang üblichen Werten von etwa 2 bis 5 kW.

Da traditionelle Klimaanlagen mit diesen „neuen“ Anforderungen technisch und leistungsmäßig nicht mehr Schritt halten können und die Verfügbarkeit oftmals völlig unbemerkt auf ein kritisches Niveau reduziert wird, erfahren heute integrierte Kühlungsarchitekturen eine immer stärkere Nachfrage.

IP-basiertes Monitoring und Management

Die Gesamtabsicherung von Datencentern und Server-Räumen ist so stark wie ihr schwächstes Glied. Eine durchgängige Überwachungs- beziehungsweise Managementlösung muss folglich die gesamte NCPI abdecken. Darüber hinaus bietet sie standardisierte Schnittstellen, um die Absicherung bedarfsabhängig auf noch nicht berücksichtige Bedrohungen ausweiten oder das Schutzniveau in bestimmten Bereichen erhöhen zu können.

Ein weiterer Vorteil zentraler Überwachungseinheiten ist der konzentrierte Web-basierte Zugriff. Über nur eine IP-Adresse lassen sich alle sicherheits- und ausfallsrelevanten Informationen mittels Webbrowser und IP-Protokoll abrufen. In den Racks installierte Stromverteiler (Power Distribution Units, kurz: PDUs) und so genannte Environmental Monitoring Units (EMUs) liefern dabei gemeinsam die Datenbasis zur Überwachung sämtlicher ausfallkritischer Parameter, wie Luftfeuchtigkeit im Raum oder Last- und Temperaturverteilungen innerhalb des Datencenters.

So bieten die meisten Server-Raum-Infrastrukturkonzepte neben der Überwachungsfunktion auch umfassende Analyse-, Alarm- und Steuerungsfunktionen im Hinblick auf ein ganzheitliches, standortübergreifendes Management. Grafisch aufbereitete Stromflussdiagramme zeigen Probleme an, noch ehe sie auftreten. Anhand zuvor festgelegter Schwellenwerte können sich IT- oder Facility-Manager automatisch über drohende Ausfälle informieren lassen. Als Benachrichtigungsoptionen stehen dabei E-Mail, SNMP Traps oder externe Dienste wie zum Beispiel SMS auf das Mobiltelefon, zur Auswahl.

Flexibles Sicherheitsmanagement erhöht die Gesamtverfügbarkeit

Die Voraussetzung für die zentrale Administrationsfähigkeit verteilter Infrastrukturen gelingt aber nur optimal über die Standardisierung der Einzelkomponenten innerhalb des Gesamtkonzeptes. Das Zusammenspiel der Komponenten gestattet beispielsweise das Management kompletter Datencenter oder im Unternehmen verteilter Einzel-USV-Systeme.

Verwaltungseinheit: Ein Verwaltungssystem mit zentraler Managementeinheit hilft bei der Überwachung der IT-Infrastruktur. (Quelle: APC)

Laut einer Umfrage unter IT-Managern gehen rund 60 Prozent aller Datencenterausfälle auf menschliche Fehlbedienung zurück. Mithilfe eines optionalen Incident-Management-Moduls, das im Falle einer Störung oder Abweichungen von Soll-Werten Empfehlungen zur Fehlerbeseitigung abgibt, lassen sich solche Fehlbedienungen zugunsten der Gesamtverfügbarkeit reduzieren. Zusätzlich reduzieren sich die unternehmensweiten Administrations- und Wartungskosten innerhalb der gesamten NCPI.

Weitere Einsparpotenziale und Fehlervermeidungen ergeben sich durch eine mögliche Integration in vorhandene Netzwerk- und Gebäudemanagementsysteme und der damit verbundenen Schnittstellenreduzierung. Die technische Umsetzung erfolgt via SNMP-Traps (Ereignisse), die an das bevorzugte Unternehmensverwaltungssystem weitergeleitet werden.

Absicherung des zentralen Managements

Trotz aller Vorteile, die das zentrale Management der NCPI bietet, darf nicht übersehen werden, dass aus der Verbindung zur Netzwerkebene letztendlich auch digitale Bedrohungen für die unterste Sicherheitsebene entstehen.

Die Einschränkung des Zugriffs bildet daher eine Grundvoraussetzung für das sichere NCPI-Management, nebst Grundelementen der Netzwerkabsicherung, wie die saubere Trennung von Intra- und Internet mit Hilfe von Firewalls oder DMZ. Bei der Zugriffsbeschränkung und -steuerung gilt es zwei gesonderte Aspekte zu beachten: die Authentifizierung und die Geheimhaltung (Verschlüsselung).

Die folgende Tabelle gibt einen Überblick über die wichtigsten Authentifizierungsprotokolle, deren Eigenschaften und Verwendungszwecke.

Überblick über die wichtigsten Authentifizierungsprotokolle

Protokoll

Funktionen

Verwendung

Benutzername / Kennwort

Klartext, gespeichertes Token

Telnet, HTTP

CHAP

(Challenge Handshake Authentication Protocol)

Verwendet Zerstückelung von Kennwörtern und zeitlich variierende Daten, um eine direkte Kennwortübertragung zu vermeiden.

MS-CHAP, PPP, APC HTTP, Radius

RADIUS

CHAP oder direkte Kennwörter, Autorisierungs- und Kontoführungsverfahren

Back-End für Telnet, SSH, SSL, Front-End für Microsoft IAS Server. Typische zentrale Authentifizierungsmethode für Netzwerkgeräte

TACACS+

Authentifizierung, Autorisierung, Kontoführung, volle Verschlüsselungs­unterstützung

Cisco-Protokoll, zentrale Authentifizierung, RAS (Remote Access Service)

Kerberos

Dienstauthentifizierung und

-autorisierung, volle Verschlüsselung

Kerberos-Anwendungen wie Telnet, Microsoft Domänen­authentifizierungsdienst integriert in Active Directory

In der nachfolgenden Tabelle finden sich die wichtigsten Kryptographie-Algorithmen, die in Verbindung mit den gängigen Übertragungsprotokollen SSH, SSL und TLS verwendet werden.

Überblick über die wichtigsten Verschlüsselungsalgorithmen

Algorithmus

Primäre Verwendung

Verwendung in Protokollen

DES

Verschlüsselung

SSH, SNMPv3, SSL / TLS

3DES

Verschlüsselung

SSH, SNMPv3, SSL / TLS

RC4

Verschlüsselung

SSL / TLS

Blowfish

Verschlüsselung

SSH

AES

Verschlüsselung

SSH, SSL / TLS

MD5

Zerstückelung, Nachrichtenauthentifizierungs-Codes

SSH, SNMPv3, SSL / TLS

SHA

Zerstückelung, Nachrichtenauthentifizierungs-Codes

SSH, SNMPv3, SSL / TLS

Sicherheitsprotokolle

Das Client-Server-Protokoll Secure Shell (SSH) wurde Mitte der 90er Jahre für den sicheren Remote-Zugriff auf Computerkonsolen oder Shells über ungeschützte oder nicht sichere Netzwerke entwickelt. Dabei werden Benutzer und Server authentifiziert, und der gesamte Datenverkehr zwischen Client und Server wird verschlüsselt.

Im Unterschied zum ursprünglich kommandozeilenbasierten SSH-Protokoll gelten die Protokolle SSL (Secure Socket Layer) und das Nachfolgeprotokoll TLS (Transport Layer Security) als Standardverfahren für die Sicherung des Webverkehrs und anderer Protokolle wie SMTP (E-Mail). SSL und SSH unterscheiden sich insbesondere bezüglich der integrierten Client- und Server-Authentifizierungsverfahren.

SSL wird auch als HTTPS (HTTP Secure) genutzt, um die Vorteile grafischer Benutzeroberflächen zu nutzen. Viele Managementapplikationen unterstützen bereits die wirksame Zugriffskontrolle über SSL-Browser- und SSH-Sitzungen. Vorhandene RADIUS-Server erlauben darüber hinaus die sichere Authentifizierung, Autorisierung und Verwaltung der Nutzer.

Ökonomische Aspekte der Sicherheit

Die unterschiedlichen Authentifizierungsstufen zur Absicherung des NCPI-Managements reichen von der Passwortabfrage über Smartcard-basierte Public-Key-Infrastructure (PKI)-Lösungen bis hin zu biometrischen Verfahren. Das Verhältnis von Nutzen und Aufwand bei der physischen Zugriffskontrolle entspricht dabei dem Verhältnis von Verfügbarkeit und Kosten und ist gründlich abzuwägen.

Preisfrage: Das Abwägen von potenziellen Verlusten gegenüber anfallenden Kosten gehört zu den wichtigsten Überlegungen zum Betrieb einer IT-Infrastruktur. (Quelle: APC)

Eine Schlüsseleigenschaft modularer, integrierter und zentral zu verwaltender NCPI-Lösungen ist es, den jeweiligen Grad an Sicherheit zu leisten, der in der aktuellen Situation hinsichtlich Verfügbarkeit und Wirtschaftlichkeit vertretbar ist. Neben der Kapazität von Leistung und Kühlung wird damit letztendlich auch die Verfügbarkeit selbst skalierbar.

Fazit

Im Sinne der eingangs genannten vier grundlegenden IT-Infrastructure-Library (ITIL)-Prozessbereiche lässt sich eine bedarfsabhängige Flexibilität und Anpassung einer Sicherheitslösung für Server-Räume erreichen, ohne die Servicequalität zu gefährden. Beispiele für sinnvolle Ergänzungen des beschriebenen Lösungskonzeptes sind Designtools zur Konzeption von Datencentern, Batteriemanagementsysteme oder weiteres Zubehör zur Zugangskontrolle und Umgebungsüberwachung.

In jedem Falle sollte ein NCPI-Verwaltungsschema eine gegen digitale Bedrohungen abgesicherte zentrale Managementeinheit enthalten, welche die zahlreichen Datenknoten innerhalb der NCPI überwachen kann und sich bei Bedarf in vorhandene Managementsysteme integrieren lässt. (hal)

Der Autor Michael Schumacher ist Technischer Leiter bei APC-MGE Deutschland. Der Experte blickt auf eine zehnjährige Erfahrung im Bereich der technischen Beratung für hochverfügbare Datencenter zurück.