Virtualisierung, Energieeffizienz und Green IT

Ausblick 2009: Technologien und Trends im Server-Bereich

05.01.2009 von Bernhard Haluschak
Im Server-Bereich ist ein turbulentes Jahr vorbei. Schlagworte wie Virtualisierung, Green IT in Verbindung mit Energieeffizienz sorgten für Gesprächsstoff. Mit welchen Server-Technologien die Anwender im Jahr 2009 zu kämpfen haben, erläutern praxisnahe Server-Experten.

Steigender Kostendruck und das Verlangen nach immer mehr Rechenleistung in den IT-Abteilungen bei limitierten Ressourcen zwingen die Verantwortlichen zum Umdenken. In diesem Zusammenhang wurde der Begriff Green IT im Jahr 2008 nahezu inflationär verwendet. Doch mit dem Green-IT-Hype will die IT-Industrie ihre Produkte „umweltschoned“ vermarkten. Green IT beinhaltet aber mehr als nur energieeffiziente Systeme, weniger Stromkosten oder Virtualisierung.

In der Vergangenheit wurde die Virtualisierung von Servern häufig als Ansatz betrachtet, die Hardware besser auszulasten sowie die Systemverwaltung zu vereinfachen. Einige leistungsstarke statt weniger einzelne Computersysteme kommen zum Einsatz. Neben den genannten Faktoren bringt dies einen weiteren weit wichtigeren Effekt mit sich: Die Leistungsaufnahme sinkt, was dazu beiträgt, die Betriebskosten der IT zu senken. So ist es nicht verwunderlich, dass die Server- und Prozessor-Hersteller dazu übergehen, neue Benchmark-Parameter wie „Leistung pro Watt“ mehr Gewicht zu verleihen.

Auch technologisch hat sich im Server-Umfeld einiges getan. Aktuell ist im Server-Bereich die Caneland-Plattform von Intel angesagt. Diese arbeitet mit dem 6-Kern Prozessor Dunnington der Xeon-7400-Familie und den Quad-Core-Xeon-7300-CPUs, Codename Harpertown. Die aktuellen AMD-Server basieren auf der Sockel-F-Plattform. Diese arbeitet mit den Barcelona-Opterons und dem im November 2008 vorgestellten Opteron-Prozessor Shanghai. Darüber hinaus hat Microsoft Anfang 2008 für die Server – mit Windows Server 2008 – ein neues Betriebssystem vorgestellt.

Wie sich der Server-Bereich im Jahr 2009 unter anderem in Bezug auf diese Themen entwickelt, erläutern folgende Experten:

Ausführliche technische Informationen und Leistungsdaten zur aktuellen Intel-Server-Plattform bietet der Artikel Test: Erste 6-Core-CPU von Intel. Detaillierte Spezifikationen und eine Performance-Analyse der aktuellen AMD-Server-Pendants liefert Ihnen der Beitrag Test: AMD Opteron 2384 - neue CPU-Generation Shanghai.

Tower-, Rack- und Blade-Server

Laut den Marktforschern von IDC wird bis 2010 jeder vierte Server ein Blade-System sein. Auch in mittelständischen Unternehmen kann diese Alternative zu den klassischen Rack- oder Tower-Servern durchaus Vorteile bieten. So sinkt zum Beispiel durch die Server-Konsolidierung der Platzbedarf drastisch. Wir haben die Experten gefragt, wie sie die Entwicklung der Server-Landschaft in Bezug auf Tower-, Rack- und Blade-Server sehen.

Hans Schramm, Dell: Für grundlegende Änderungen bei Enterprise-Produkten, zu denen Server zweifellos zählen, ist ein Jahr natürlich ein eher begrenzter Zeitraum. Abhängig vom Anwendungsbereich werden Tower-, Rack- und Blade-Server gleichermaßen von Bedeutung bleiben. Generell wird mit Sicherheit die Prozessor-Performance weiter steigen. Auch das Thema Virtualisierung bleibt vorherrschend, da die Vorteile auf der Hand liegen: von der effektiveren Ausnutzung vorhandener Ressourcen über eine höhere Ausfallsicherheit bis hin zum vereinfachten zentralen Management. Wir sehen hier einen klaren Trend zu leistungsfähigeren und höherwertigen Virtualisierungssystemen, zum Beispiel hinsichtlich Speicherkapazität, Schnittstellenausstattung und Prozessorleistung.

Dr. Joseph Reger, Fujitsu Siemens Computers: Der bisherige Trend wird sich weiter fortsetzen. Das Tower-Server-Segment wird schrumpfen, Rack-Server werden etwas zulegen und die Blade-Server einen wachsenden Marktanteil für sich beanspruchen. Daneben könnten auch erste Ansätze zu einem neuen Formfaktor sichtbar werden, bei denen einzelne Systeme komplette Racks belegen, die wiederum im Hinblick auf Energieverbrauch und Kühlsystem optimiert wurden. Getrieben wird diese Entwicklung durch die zunehmende Akzeptanz des Cloud Computings, das nach einer homogenen Server-Umgebung verlangt. Die hierfür optimierten Systeme kann man sich als große Blades vorstellen, die durch die Racks mit Strom und kühler Luft sowie allen notwendigen Schnittstellen versorgt werden.

Carsten Unnerstall, Hewlett-Packard: „Blades werden ganz klar weiter auf dem Vormarsch sein.“ (Quelle: HP)

Carsten Unnerstall, Hewlett-Packard: Blades werden ganz klar weiter auf dem Vormarsch sein. Das sehen wir selbst bei unseren Absatzzahlen. Wir haben bereits im August 2008 als erster Anbieter mehr als eine Million Blade-Server verkauft. Das liegt auch daran, dass sich Blades mittlerweile fast für alle Einsatzszenarien und für Unternehmen aller Größen eignen, auch für die mittelständischen. Selbst beim High Performance Computing spielen sie eine immer wichtigere Rolle. So hat sich beispielsweise auch auf der Top-500-Liste die Blade-Architektur mehr als jede andere durchgesetzt.

Tower-, Rack- und Blade-Server, Fortsetzung

Jörg Dehnen, IBM: Die Server-Landschaft ist im Umbruch. Die klassichen Rack-Server werden stark durch Blade-Server ersetzt. Es gibt vielfältige Gründe dafür, dass Blades der am stärksten wachsende Server-Formfaktor ist und auch in den nächsten Jahren sein wird. Energieeffizienz, vereinfachtes Systemmanagement, TCO-Betrachtungen, Ausfallsicherheitsüberlegungen, das Thema RZ-Density und einiges mehr sprechen für Blades. Dennoch: Blades sind nicht das Allheilmittel, und in einigen Kundensituationen ergeben leistungsstarke und hochperformante High-End-Server mehr Sinn. Insofern führen Server-Konsolidierungsbestrebungen Kunden auch oft dazu, in x86-MP-Prozessor-Systeme zu investieren. Dies kann man an Marktentwicklungszahlen ablesen, und wir freuen uns, dass sich dies in den ständig steigenden Verkaufszahlen unserer IBM x3850 M2 und x3950 M2 niederschlägt. Dieser Trend wird in den nächsten Jahren anhalten. Nach wie vor wird es ein begrenztes Kundensegment für Tower-Server geben, die im SMB-Markt, aber auch in Filialkonzepten ihre Existenzberechtigung behalten.

Ingo Frobenius, Sun Microsystems: Bei der Aufteilung der Server muss man auch die Gegebenheiten bei den Kunden berücksichtigen. Im Small-Office-Umfeld werden sicherlich weiterhin Tower-Systeme zum Zuge kommen. Wenn in solchen Unternehmen Server eingesetzt werden, stehen diese meist in einem einzelnen Raum, der mit einer einfachen Klimaanlage ausgestattet ist. Bei den größeren Mittelständlern und Großunternehmen geht der Trend heute von den Rack-Systemen hin zu Blade-Servern. Aber auch hier werden weiterhin Rack-Systeme zum Einsatz kommen. Dies ist meistens in Unternehmen der Fall, bei denen die Klimaanlage des Rechenzentrums eine geringe Kühlleistung pro Quadratmeter hat. Blade-Systeme können in solchen Rechenzentren nur schwer untergebracht werden, da die Kühlleistung dafür einfach nicht ausreichend ist. Auch werden Rack-Systeme bei flexiblen I/O-Konfigurationen weiter Vorteile haben, da bei den meisten Blade-Systemen nur die I/O-Karten des jeweiligen Herstellers eingebaut werden können. Bei Sun werden in den Blade-Systemen hingegen PCIe-Steckplätze verbaut, in denen standardisierte PCIe-Express-Module eingesteckt werden können. Im Telco-Umfeld wird der Trend von den älteren PCIe-Systemen hin zu den moderneren, standardisierten ATCA-Blades gehen. Der Vorteil dieser standardisierten Blades besteht darin, dass sich in eine Halterung auch Blades unterschiedlicher Hersteller einbauen lassen. Dies ist auch der Grund, warum Sun mehrere Blade-Systeme im Portfolio hat. Sun SPARC-basierte Blades sind heute lieferbar, und durch die Multithread-Technologie erfreuen sich diese Baldes gerade im Telco-Umfeld großer Beliebtheit.

Thomas Krenn, Thomas Krenn AG: Rack-Server werden weiterhin klar dominieren. Blade-Server mit integriertem Storage sind aber stark im Kommen. Diese werden Marktanteile zulegen. Vor allem für KMUs sind diese Systeme sehr interessant, da sie auf rund sechs Höheneinheiten eine vollständige IT mit mehreren Servern, Netzwerk und SAN anbieten. Tower-Server in Silent-Ausführungen bleiben weiterhin erste Wahl, wenn der Server im Büro stehen muss.

All-in-One-Server-Lösungen

Für kleine Unternehmen eignen sich besonders kleine und kompakte IT-Lösungen. Diese bestehen aus Server-, Storage- und Netzwerkkomponenten, die in einem Gehäuse untergebracht sind. Nahezu jeder Server-Hersteller bietet solche sogenannten All-in-One-Lösungen an. Doch wie sieht die Zukunft dieser All-in-One-Geräte im Vergleich zu den herkömmlichen Server-Lösungen wie Rack- oder Tower-Server aus?

Hans Schramm, Dell: Die Nachfrage nach All-in-One-Lösungen wird kontinuierlich steigen. Flex-Computing ist ein hochinteressanter Bereich, der zunehmend an Bedeutung gewinnen wird. Server bilden hierbei nur einen Teil der Gesamtlösung, die Integration des „Nicht“-Server-Bereichs – zum Beispiel hinsichtlich Storage, Netzwerktechnik oder Dienstleistungen – ist die zentrale Herausforderung.

Carsten Unnerstall, Hewlett-Packard: Je nach Einsatzbereich und Unternehmensgröße haben beide Lösungen ihre Berechtigung. Allerdings kommen All-in-One-Lösungen wie das HP BladeSystem bei unseren Kunden sehr gut an: Denn damit steht Unternehmen eine umfassende Blade-Infrastruktur zur Verfügung, inklusive Speichersystemen. Der große Vorteil dabei ist die zentrale, automatisierte und einheitliche Verwaltung der gesamten Blade-Infrastruktur. Für eine optimierte Verfügbarkeit sorgen mehrfach redundant ausgelegte Komponenten. Weitere Vorteile sind der geringere Platz- und Energiebedarf. Da jeweils mehrere Blades auf ein gemeinsames Energieversorgungssystem zugreifen, sind wesentlich weniger Netzteile notwendig. Die geringere Anzahl von Komponenten in Verbindung mit einem intelligenten Strommanagement sorgt nicht nur für niedrigere Kosten, sondern durch die höhere Energieeffizienz auch für einen reduzierten Stromverbrauch und weniger Abwärme im Vergleich zu herkömmlichen Servern. Zusätzlich bieten Innovationen, wie HP Virtual Connect die Möglichkeit, IT-Infrastrukturen um einiges flexibler als bisher zu nutzen. Änderungen im Server-Setup müssen damit nicht mehr von den Netzwerkadministratoren umgesetzt werden, sodass der Server-Administrator erheblich an Flexibilität gewinnt.

Jörg Dehnen, IBM: All-in-One-Lösungen im Sinne von Appliances ergänzen unser x86-Portfolio. Beispielsweise haben im BladeCenter-Segment von Blade.org-Partnern entwickelte Lösungen für spezielle Einsatzzwecke durchaus Sinn. Das Mainstream-Angebot allerdings, das sich die Kunden von uns wünschen, ist ein offenes Baukastenangebot mit hoher Konfigurationsflexibilität.

All-in-One-Server-Lösungen, Fortsetzung

Ingo Frobenius, Sun Microsystems: Hier ist momentan der Trend zu neuen Architekturen im Speicherumfeld zu sehen. Sicherlich werden im Storage-Umfeld weiterhin große High-End-Systeme zum Einsatz kommen. Der Trend bei den kleinen und mittelgroßen Systemen geht in Richtung der Storage-Server. Bei diesen Servern handelt es sich im Endeffekt um klassische Server mit vielen integrierten Festplatten. Da heutige Prozessoren sehr leistungsfähig sind, nutzt man damit die Rechenkraft der Prozessoren, um die notwendigen Datendienste wie Snapshots, Data Replication oder automatische Backups zu realisieren. Diese Services sind bei klassischen Storage-Systemen teuer zu bezahlen – da die eigentliche „Intelligenz“ der Systeme auf proprietäre Technik setzt. Aufgrund der zunehmenden Virtualisierungsbestrebungen in Rechenzentren ist davon auszugehen, dass Daten vermehrt auf solchen preisbewussten Storage-Servern abgelegt werden. Dabei werden wir in den nächsten Jahren zunehmend den Einsatz von Solid State Disks sehen. Zu beachten ist, dass die Flash-Speicher in den SSDs eine wesentlich höhere Verfügbarkeit haben als zum Beispiel die Flash-Bausteine in heute üblichen USB-Sticks. Sun selbst hat angekündigt, seine Server und auch die neuen OpenStorage-Systeme mit solchen SSDs auszustatten. Sind Festplatten damit Geschichte? Nein, denn eine Festplatte wird weiterhin preiswerter sein als eine SSD. Wir favorisieren hier nicht das Gießkannenprinzip, sondern Storage-Systeme sind weiterhin individuell den Anforderungen entsprechend auszulegen. Daten, die schnell im Zugriff sein müssen, legt man auf SSDs. Daten, die wichtig sind und langsamer im Zugriff sein können, legt man auf SAS-Festplatten. Daten, die unkritisch sind für den Betrieb, kann man auf SATA-Festplatten speichern. Diese Platten haben eine geringere Verfügbarkeit als SAS-Platten.

Ingo Frobenius, Sun: „Der Trend bei den kleinen und mittelgroßen Systemen geht in Richtung der Storage-Server.“ (Quelle: Sun Microsystems)

Für Archive wird man weiterhin Tapes einsetzen, denn diese haben einen ganz wesentlichen Vorteil gegenüber allen Festplatten und SSDs: Wenn die Daten auf Band abgelegt sind, verbrauchen die Tapes keinen Strom. Aufgrund dieser Trends werden wir sicher Server sehen mit vielen internen Festplatten, die dann extern wie Storage-Devices angesprochen werden können. Ansonsten werden die klassischen, verteilten Architekturen im Datacenter weiterhin vorhanden sein. Hier ist von der Struktur her eher noch eine Aufweichung zu erwarten – Cloud-Computing ist die treibende Kraft, die starre Strukturen in Rechenzentren aufbrechen kann.

Thomas Krenn, Thomas Krenn AG: Diese All-in-One-Lösungen mit Servern, Storage und Netzwerk in einem Chassis sind wie erwähnt vor allem für KMUs interessant. In Umgebungen mit zehn oder mehr Servern bleiben aber weiterhin traditionelle Rack-Server dominant.

Virtualisierungstechnologien

In den letzten Jahren ist die Rechenleistung explosionsartig gestiegen. Um diese Rechner-Performance effektiv zu nutzen, ist aktuell die Virtualisierungstechnologie das Mittel der Wahl. Neben der besseren Auslastung der Systeme sinkt auch die Leistungsaufnahme in Bezug auf die Rechenperformance, was dazu beiträgt, die Betriebskosten der IT zu senken. Wir wollen wissen, welchen Einfluss die unterschiedlichen Virtualisierungstechnologien auf die Server-Hardware haben werden.

Hans Schramm, Dell: Der Trend geht hier zu „anwenderfreundlichen“ Systemen. Die Aufgabe für die Hersteller lautet: „Vereinfachungen“ für den IT-Anwender bereits in die Hardware zu integrieren, um beispielsweise das Deployment, das heißt die Inbetriebnahme von Servern, zu beschleunigen und damit eine Kosteneinsparung zu ermöglichen. Was die Technik angeht, so werden verstärkt die Virtualisierung unterstützende Features in die Server integriert – sowohl auf Hardware- als auch auf Software-Seite.

Dr. Joseph Reger, Fujitsu Siemens Computers: Die Virtualisierung zählt zu den Schlüsseltechnologien für dynamische IT-Infrastrukturen, wie sie derzeit in den Rechenzentren Einzug halten. Für die Server-Hardware ergibt sich eine Reihe von Konsequenzen, sodass CPU-Performance, Arbeitsspeicher und I/O-Anforderungen neu aufeinander abgestimmt werden müssen. Um Server in Hinblick auf Virtualisierung zu optimieren, bedarf es mehr Speicher-DIMM-Slots und einer höheren I/O-Leistung. Insbesondere in dem 2-Socket-Segment wird die erforderliche I/O-Unterstützung für virtuelle Maschinen die Bandbreite der Netze herausfordern, und 10-Gbit-Ethernet wird die bevorzugte I/O-Verbindung für Server sein.

Dr. Joseph Reger, FSC: „Die Virtualisierung zählt zu den Schlüsseltechnologien für dynamische IT-Infrastrukturen, wie sie derzeit in den Rechenzentren Einzug halten.“ (Quelle: FSC)

Carsten Unnerstall, Hewlett-Packard: Generell sollten Server für den Einsatz von Virtualisierungslösungen hochgradig skalierbar sein. Denn die Anforderungen, speziell beim Arbeitsspeicher, und die I/O-Bandbreiten sind hier nicht zu unterschätzen. Als typische Konfiguration gelten beispielsweise 4 GByte Arbeitsspeicher je virtueller Maschine – was selbst bei kleineren Servern mehr als 100 GByte RAM erforderlich machen kann, um einen leistungsfähigen Betrieb zu gewährleisten. Bei den Netzwerkanschlüssen wird künftig verstärkt 10-Gbit-Ethernet zum Einsatz kommen. Da die Images der Server in der Regel auf externen Speichersystemen liegen, sinken im Gegenzug die Anforderungen an die internen (Platten-)Speicher beziehungsweise werden diese ganz obsolet. Diese Besonderheiten gelten übrigens gleichermaßen für den Betrieb aufgesetzter Virtualisierungslösungen wie VMware, Citrix Xen Server oder MS HyperV einerseits und Servern mit systemeigenen Virtualisierungsfunktionen wie HP Integrity Servern andererseits.

Virtualisierungstechnologien, Fortsetzung

Jörg Dehnen, IBM: Dieser Einfluss ist, wie nicht anders zu erwarten, stark. Virtualisierungstechnologien greifen an unterschiedlichen Stellen an: auf Betriebssystemebene, auf Anwendungsebene und im I/O-Bereich, um hier nur einige Beispiele zu nennen. Wir als Hersteller tragen diesem Trend Rechnung und lassen unsere Entwicklungslabors entsprechend Produkte fertigen, die die Angebote des Markts ergänzen. Beispiele dazu: VMware 3i Hypervisor im Lieferumfang des Servers, IBM-Software zur I/O-Virtualisierung in BladeCentern (BladeCenter Open Fabric Manager) und so weiter. Auch auf das Server-Design selbst hat die zunehmende Virtualisierung Einfluss. So steigt tendenziell die Anzahl der DIMM-Sockel, um genügend Hauptspeicherkapazität für die virtuellen Maschinen zur Verfügung zu haben.

Ingo Frobenius, Sun Microsystems: Im x86-Umfeld ist zu erwarten, dass an größere Unternehmen kein Server mehr ohne Virtualisierungslösung ausgeliefert wird. Hierbei wird zukünftig sicherlich mehr Wert auf das Management gelegt werden als auf die eigentliche Virtualisierung – denn jede Instanz, die auf einer virtuellen Umgebung läuft, besitzt weiterhin ein Betriebssystem, das auch gewartet werden muss. Im RISC-Umfeld werden zukünftig ebenfalls vermehrt Virtualisierungslösungen angeboten werden. Dabei werden keine softwarebasierten Produkte eingesetzt, sondern die Virtualisierung wird firmwarebasiert implementiert. Zusätzlich werden wir hier auch „Lightweight“-Lösungen wie Solaris Container sehen, die den großen Vorteil bieten, dass der Performance-Verlust geringer ausfällt, den man gerade bei softwarebasierten Virtualisierungslösungen beobachten kann. Zukünftige Prozessoren werden die Virtualisierung besser unterstützen als heute – so wird etwa das viel gepriesene Verschieben von virtuellen Instanzen von einem Server auf einen anderen Server von vielen Produkten unterstützt, jedoch gibt es hier durchaus größere Schwierigkeiten, wenn die Architekturen der eingesetzten Prozessoren zu sehr voneinander abweichen. Ein Verschieben beispielsweise von einem Intel-x86-Server auf einen AMD-x86-Server wäre sicher wünschenswert – ist aber derzeit nur bedingt möglich.

Thomas Krenn, Thomas Krenn AG: Der Einfluss ist bereits heute schon sehr groß – die Virtualisierungsfunktionen Intel VT beziehungsweise AMD-V sind ja schon seit einiger Zeit in den CPUs vorhanden. An Bedeutung gewinnen wird künftig die hardwareunterstützte I/O-Virtualisierung – vor allem für 10-Gbit-Ethernet ist diese interessant. AMD bietet dafür ja bereits eine I/O-MMU, bei Intel kommen die VT-d-Funktionen mit der neuen Nehalem-CPU-Generation. Xen unterstützt diese Technologien bereits – VMware wird mit VMDirectPath in Kürze folgen.

AMD oder Intel

Wenn es um Server-Prozessoren geht, gehören die CPU-Hersteller AMD und Intel zur ersten Wahl. Die beiden Kontrahenten liefern sich schon seit Jahren einen Kampf um die schnellsten Prozessoren. Aktuell liefert AMD die Shanghai-CPU und Intel den Dunnington-Prozessor für Server aus. Von namhaften Experten wollten wir wissen, wie sich die beiden Server-CPU-Hersteller in puncto Marktanteile entwickeln.

Hans Schramm, Dell: Wie in der Vergangenheit wird es hier abhängig von den jeweiligen Produkt-Launches immer wieder zu Verschiebungen bei den Marktanteilen kommen.

Dr. Joseph Reger, Fujitsu Siemens Computers: Wir bieten Server sowohl mit Intel- als auch mit AMD-Prozessortechnologie an und überlassen es unseren Kunden, für welche Option sie sich entscheiden.

Carsten Unnerstall, Hewlett-Packard: Die Marktsituation wird es zeigen. Beide Hersteller haben ihre Berechtigung, da sie unterschiedliche Vorteile bieten. Deshalb bietet HP sowohl Server mit Intel- als auch mit AMD-Prozessoren an.

x86-Server-Markt: Das Diagramm zeigt die aktuellen Marktanteile der verschiedenen Prozessortechnologien. (Quelle: IBM)

Jörg Dehnen, IBM: AMD und Intel liefern sich seit Jahren ein Kopf-an-Kopf-Rennen (Leapfrogging-Effekt), was die Multicore-Prozessorentwicklung angeht. Mal führt der eine (AMD mit Dual Core Rev E), mal der andere (Intel mit der Quad-Core-CPU „Clovertown“ und dem 6-Core-Prozessor „Dunnington“). AMD hat jetzt mit dem Shanghai-Prozessor eine sehr leistungsfähige CPU auf den Markt gebracht, die mit einer extrem starken Floating-Point-Leistung punktet. Man kann also erwarten, dass dieser Wettlauf weitergeht.

Ingo Frobenius, Sun Microsystems: Der x86-Bereich ist derzeit extrem „Feature“-getrieben. Mit der Shanghai-CPU wird es AMD sicherlich gelingen, Anteile im x86-Umfeld zurückzugewinnen. Hier ist aber auch zu berücksichtigen, dass Intel mit der Nehalem-Architektur 2009 eine neue CPU auf den Markt bringen wird. Bis zum Erscheinen der Multi-Chip-Nehalem-CPU wird sicher AMD Marktanteile bei den Systemen mit 4 bis 8 CPUs gewinnen können, anschließend ist jedoch abzuwarten, wie sich der Markt weiterentwickelt. Da aber Intel und AMD primär von Desktop-Rechnern getrieben werden, ist hier abzuwarten, welche zusätzlichen Funktionen beide Hersteller in ihren Prozessoren realisieren. Bei AMD ist sicherlich eine Integration von CPU und Grafikprozessor auf einem Chip zu erwarten. Hier ist für Unternehmens-Desktops aber auch ein gegenläufiger Trend zu erkennen. Immer mehr Unternehmen setzen für die Desktop-Systeme keine PCs mehr ein, sondern realisieren ihre Desktop-Infrastruktur mit preiswerten Thin Clients, die einen Investitionsschutz von mehr als zehn Jahren bieten. Sollten solche Thin Clients auch im Endkundenbereich Einzug finden, so wären die Stückzahlen von Intel und AMD nicht mehr zu halten.

Als letzter Punkt ist hier noch zu beobachten, welche Richtlinien die EU und andere Märkte im Bereich des digitalen Rechtemanagements erlassen. Denn diese DRM-Techniken sind natürlich auch bei den x86-Servern zu integrieren. Teilweise sind bereits entsprechende Bausteine in heutigen Servern enthalten. Wenn aber zusätzliche Forderungen aus der Politik kommen, so müssen die CPU-Hersteller dies berücksichtigen.

Thomas Krenn, Thomas Krenn AG: Das ist eine gute Frage. Intel dominiert den Markt deutlich – das wird vermutlich auch so bleiben. AMD war bisher vor allem bei Systemen mit vier oder acht CPUs stark. Mit den neuen Shanghai-CPUs wird AMD da weiterhin punkten. Gerade bei Servern mit vielen Sockets kann AMD durch die geringere Leistungsaufnahme der Shanghai-CPUs punkten.

Leistungsangabe: Performance pro Watt

Dass der Energieaspekt bei Servern immer wichtiger wird, haben längst auch die Hersteller entdeckt. Von Energieeffizienz ist die Sprache, nicht mehr nur von purer Performance. So bewerben die Server-Hersteller ihre Produkte nicht nur mit reinen Benchmark-Ergebnissen, sondern verknüpfen diese mit dem geringeren Energiebedarf der Server. Wir wollen von Server-Experten wissen, welche Rolle beziehungsweise Auswirkungen diese Leistungsangabe „Performance pro Watt“ zukünftig im Server-Umfeld spielen wird.

Hans Schramm, Dell: Als Maßstab oder als eine Kenngröße wird das im Zusammenhang mit dem aktuellen Thema Green IT immer wichtiger. Je umfangreicher die Systeme werden, desto hilfreicher sind solche Kenngrößen, speziell für Anwendergruppen, die sich mit der Materie nicht so detailliert beschäftigen oder beschäftigen können. Wichtig ist natürlich auch die Größe des Kunden, das heißt, wie viele Server kommen zum Einsatz. Je höher die Anzahl, desto „sichtbarer“ werden mit diesen Kenngrößen die Einsparungen für den Anwender.

Hans Schramm, Dell: „Performance pro Watt als Maßstab oder als eine Kenngröße wird im Zusammenhang mit dem aktuellen Thema Green IT immer wichtiger.“ (Quelle: Dell)

Dr. Joseph Reger, Fujitsu Siemens Computers: Mit dem wachsenden Bewusstsein, dass Energieverbrauch nicht nur Geld kostet, sondern auch einen Einfluss auf die Umwelt ausübt, nimmt auch die Bedeutung der Frage zu, wie Computer effizient Energie nutzen können. Wir begrüßen die Bestrebungen der IT-Industrie, die Effizienz der Computer im Sinne von Performance pro Watt zu messen. Allerdings sollte man nicht der Versuchung erliegen, das Problem zu vereinfachen. Daher beteiligen wir uns auch an weiteren Initiativen, um den Energieverbrauch des IT-Equipments direkt und indirekt zu reduzieren, und nehmen uns auch die zum Betrieb notwendigen Kühlsysteme vor. Wir unterstützen deshalb Aktivitäten der EPA (Environmental Protection Agency), CSCI (Climate Savers Computing Inititiative) und Green Grid genauso wie lokale Aktivitäten der Bitkom.

Carsten Unnerstall, Hewlett-Packard: Die Leistungsangabe „Performance pro Watt“ wird eine sehr wichtige Rolle spielen. Die Unternehmen sind hier in den letzten zwölf Monaten deutlich empfänglicher für dieses Thema geworden – nicht zuletzt aufgrund der Energiepreise. Diese sind nun zwar wieder etwas gefallen, allerdings sehen sich die IT-Verantwortlichen aktuell aufgrund der Finanzkrise wieder verstärkt mit dem Thema Kostensenkung konfrontiert. Zudem bedeutet niedrigerer Stromverbrauch auch geringere Abwärme; daraus resultierend weitere Einsparungen bei der Kühlung.

Zukunftsaussichten: Kosten und Ausgaben für Energieverbrauch, Kühlung, Wartung und Neuanschaffungen in Datenzentren. (Quelle: IBM)

Jörg Dehnen, IBM: Die Energieeffizienz wird in den folgenden Jahren in verstärktem Maß eine große Rolle spielen. Täglich haben wir es mit Kunden zu tun, deren Rechenzentren keine Erweiterungen mehr zulassen, weil die Kapazität der Kühlungsanlagen ausgereizt ist. Wir alle sind auch mit steigenden Energiekosten konfrontiert. So ist es keine Frage, dass das Kriterium „Performance pro Watt“ in Kundenausschreibungen verstärkt direkt angefragt wird.

Performance pro Watt, Fortsetzung

Ingo Frobenius, Sun Microsystems: Der Stromverbrauch wird zukünftig sicher eine höhere Rolle spielen als heute. Ein erster Ansatz ist auf jeden Fall der SPECpower_ssj Benchmark, um eine Vergleichbarkeit zu erreichen. Leider wird auch hier gleich wieder versucht, mit „Benchmarketing“ besonders gut auszusehen. Sieht man sich die Detailresultate dieses Benchmarks an, so fällt gleich auf, dass die Server, die hier an den Start gehen, nicht besonders üppig ausgestattet sind. Bei den DIMMs werden die heute noch teureren LowPower-DIMMs eingesetzt, bei den CPUs möglichst die stromsparendste Version. Anstatt der normalerweise ausgelieferten 4 oder 8 internen Disks sind die getesteten Geräte nur mit einer Festplatte ausgestattet. Eine Vergleichbarkeit ist hier nicht mehr gegeben. Solche Vergleiche sind den Preisangaben bei Autos ähnlich. Jeder Autohersteller wirbt mit den Worten „Schon ab XX Euro“ – wenn man dann wirklich mal sein Auto konfiguriert, stellt man fest, dass der Preis plötzlich wesentlich höher ist als der „Schon-ab-Preis“. Analog ist es bei SPECpower-getesteten Systemen. Konfiguriert man sich nun den Server, den man wirklich haben will, also mit richtig viel RAM und schnellen CPUs, so verbraucht der Server plötzlich wesentlich mehr Strom, als in den Testresultaten angegeben.

Hier muss der Kunde also aufpassen, nicht getäuscht zu werden. Neben der reinen „Performance pro Watt“ muss er sich auch die korrekten Metriken überlegen. Bei der Einführung der Chip-Multithreading-Technologie bei den Sun SPARC Enterprise T-Servern haben viele Mitbewerber ins Feld geführt, dass die Systeme langsam wären. Hier kommt es immer darauf an, welche Messkriterien angesetzt werden – für den RZ-Betreiber heißt das, er muss auf die korrekten Service-Levels achten. Setzt man einen Sun CMT Server zum Beispiel als Mailserver ein, so ist das Antwort-Zeitverhalten sicher nicht so schnell wie bei einem High-End-Power6-Server. Aber relevant ist hier nicht die Antwortzeit für einen einzelnen Anwender, sondern die für alle Mitarbeiter. Lasttests bei real existierenden Kunden haben hier nachgewiesen, dass ein CMT-Server T2000 bei einer maximalen Antwortzeit von 2 Sekunden bei Lotus Notes circa 7500 Anwender bedienen konnte. Relevant ist also nicht nur die Antwortzeit, sondern auch die Anzahl der Anwender. Hier müssen Service-Levels überprüft werden, wenn solche modernen Maschinen eingesetzt werden. Auch hier das Beispiel aus dem Straßenverkehr: Wenn man 40 Leute von München nach Hamburg fahren will, so kann man das mit Ferraris machen oder mit einem Bus. Die Ferraris sind sicher schneller, wenn man den einzelnen Passagier betrachtet. Mit dem Bus befördert man aber alle Personen gleichzeitig effizienter von München nach Hamburg. Der Service-Level ist eben ein anderer – und preiswerter ist die Busvariante auch noch. Hier ist sicherlich ein Umdenken erforderlich – auch bei den Endanwendern. Wenn man maximale Geschwindigkeit will, so muss man auch bereit sein, den Preis dafür zu bezahlen.

Thomas Krenn, Thomas Krenn AG: Das wird definitiv immer mehr ein Thema. In der Vergangenheit war nur die Performance alleine wichtig – da waren allerdings auch die Energiekosten noch nicht so hoch, die ja vermutlich weiter steigen werden. Bei Neuinvestitionen werden daher nun auch verstärkt die gesamten Betriebskosten berücksichtigt. Energieineffiziente Server lassen sich dann schwer verkaufen.

Green IT

Der Energiebedarf für den Betrieb von Servern steigt trotz der verbesserten Systemleistung im Verhältnis in den vergangenen Jahren stetig an. Besonders der hohe Stromverbrauch von Klimaanlagen wirkt sich auf die Energiebilanz und somit auf die Kosten der IT-Systeme negativ aus. Auch die Virtualisierungstechnologien gehören zum Green-IT-Konzept. Deshalb wollen wir wissen, wie sich das Server-Management in Hinblick auf den Green-IT-Gedanken ändern muss.

Hans Schramm, Dell: Es wird übergreifender werden, auch im Hinblick auf das Thema Virtualisierung, da in naher Zukunft nicht nur die Server-Virtualisierung, sondern auch die Storage-Virtualisierung verstärkt zur Anwendung kommen wird. Je höher die Anzahl der Systeme, ganz gleich ob physikalisch oder virtuell, desto wichtiger wird das Thema Management.

Dr. Joseph Reger, Fujitsu Siemens Computers: Server-Management spielt eine wichtige Rolle, um den Stromverbrauch in ein angemessenes Verhältnis zu Verfügbarkeit und Kosten sowie zum Umfang der zu erledigenden IT-Aufgaben zu bringen. Die Kontrolle der Server und der IT-Infrastruktur muss um eine detailgetreue Darstellung des Stromverbrauchs erweitert werden. Nur so lassen sich die Kosten begrenzen und die geforderten Service-Level eines grünen Rechenzentrums erreichen. Wir gehen davon aus, dass die Stromtarife für Großverbraucher und damit auch für Rechenzentren zukünftig im Tagesverlauf variieren werden. Dem Server-Management wird die Aufgabe zukommen, einzelne Server während der Spitzenverbrauchszeiten zu drosseln oder gar abzuschalten. Die Begrenzung des Stromverbrauchs wird auch überall dort an Bedeutung gewinnen, wo es darum geht, bestimmte Aufgaben mit einem begrenzten Budget zu erledigen. Server-Management bietet das Potenzial für eine Lösung, um dem Dilemma aus Hitzeerzeugung durch IT-Equipment einerseits und dem Stromverbrauch, um das Equipment wieder zu kühlen andererseits, zu entkommen. So kann das Server-Management die Klimakontrollinstanz CRAC (Computer Room Air-Conditioning Equipment) informieren, wenn einige Server abgeschaltet werden und entsprechende Reaktionen veranlassen.

Carsten Unnerstall, Hewlett-Packard: Die Werkzeuge für das Server-Management benötigen integrierte Funktionen für ein automatisiertes Power-Management. Ein Beispiel ist das sogenannte Power Capping, eine Funktion der Basismanagement-Software HP Systems Insight Manager (SIM). Mit Power Capping lässt sich der Leistungsverbrauch der Maschinen steuern, das heißt, dass Systeme in Zeiten sehr hoher Beanspruchung – zum Beispiel bei der Lohnabrechnung am Monatsende – auf maximaler Leistung laufen können. Damit lassen sich zu Spitzenzeiten die Server auf höherem Level fahren, um Anforderungen schneller zu bedienen. Bei geringerer Beanspruchung können dann die Leistungs-Level begrenzt werden, um sie anderen Systemen zur Verfügung zu stellen. Voraussetzung hierfür ist, dass der Administrator über einen definierten Zeitraum die Leistungsaufnahme misst und auf Basis der Messergebnisse ein Profil für die Leistungsverteilung auf die einzelnen Server erstellt. Hierbei helfen ihm ausgefeilte Tools. Das Power Capping führt außerdem dazu, dass auch die Klimaanlage weniger beansprucht wird und damit auch hier der Energieverbrauch sinkt.

Auch die Virtualisierung kann dazu beitragen, die Energiekosten für den Server-Betrieb zu reduzieren. Denn mittels Virtualisierung lassen sich die anfallenden Lasten zwischen einzelnen Servern automatisch verschieben. Wird die Rechenleistung eines einzelnen Systems nicht benötigt, kann diese so automatisch vorübergehend abgeschaltet werden.

Green IT, Fortsetzung

Jörg Dehnen, IBM: Das Server-Management ändert sich hinsichtlich Green IT rasant, und zwar auf allen Ebenen des Markts. Wir als Hersteller sorgen für maximale Energieeffizienz in den Server-Designs. Energieeffiziente Netzteile und Speicher-DIMMs, Low-Power-Prozessoren und Solid State Disks sind Beispiele im Hardware-Bereich. Software-Produkte für Systems-Management, wie der IBM Active Energy Manager, überwachen und steuern den Energieverbrauch. Auf unsere Channelpartner kommt diesbezüglich eine zunehmend starke Bedeutung zu, unsere Kunden konzeptionell zu beraten. Und die Kunden selbst werden sich nicht nur aus Kosten- und Umweltschutzgründen mit diesem Thema auseinandersetzen. Welcher EDV-Leiter möchte seiner Geschäftsführung schon sagen müssen, dass die notwendigen EDV-Erweiterungen nicht durchgeführt werden können, weil die Klimaanlage des Rechenzentrums dies nicht mehr abdecken kann?

Ingo Frobenius, Sun Microsystems: Bei dem Green-IT-Gedanken geht es nicht nur um das Management von Servern. Server stellen nur einen Bruchteil der IT-Infrastruktur in Unternehmen dar. Wenn man sich über Green IT Gedanken macht, so sollte man einen ganzheitlichen Ansatz verfolgen. Green IT wird heute leider immer wieder mit Sparsamkeit beim Stromverbrauch gleichgesetzt. Was aber immer wieder außer Acht gelassen wird, ist die gesamte Ökobilanz. Wie viel Energie wird bei der Herstellung und bei der fachgerechten Entsorgung benötigt? Fällt am Ende des Lebenszyklus Sondermüll bei der Entsorgung an? Zum Beispiel sind fast alle Flüssigkristallbildschirme Sondermüll, da die Hintergrundlampen häufig Quecksilber enthalten und die eigentlichen Flüssigkristalle in den LCDs als krebserregend eingestuft werden.

In Bezug auf den Stromverbrauch sollten Unternehmen daher zunächst den Desktop ins Visier nehmen. Dort liegt das größte Einsparpotenzial – im Energiesektor, aber auch bei der Administration. Die klassischen PCs werden heute normalerweise von einer zentralen Stelle aus verwaltet. Es kann aber passieren, dass in Büros immer wieder unterschiedliche Systeme stehen. Standardisierung bringt zwar Vereinfachung bei der Administration, aber es kann vorkommen, dass in einem Standard-PC eine neue Grafikkarte mit einem anderen Firmware-Stand installiert ist, die dann das Einspielen eines Patches verhindert. Die Einführung von schlanken Clients bringt hier mehrere Vorteile:

Ansonsten ist bei Virtualisierung zu beachten, dass Betriebssysteme immer gewartet werden müssen, egal, ob sie in einer virtualisierten Umgebung laufen oder auf einem real existierenden Server. Man kann selbstverständlich versuchen, hier zu standardisieren, aber es wird immer wieder den Fall geben, dass man eine neue Betriebssystemversion installieren muss, weil die neue Applikation gerade eine andere Version erwartet. Hier muss dann immer wieder überprüft werden, ob das eine Veränderung der Virtualisierungsumgebung erfordert. Die Administration wird also mehr Sorgfalt erfordern. In großen Rechenzentren sind hier auch die entsprechenden Sicherheits- und Compliance-Richtlinien mit zu berücksichtigen. Wer darf eine virtuelle Maschine aufsetzen? Wann? Und wie wird das nachvollziehbar protokolliert? Hier sind Mechanismen zu definieren, mit denen diese Anforderungen erfüllt werden können.

Thomas Krenn: „In Bezug auf Green IT sind alle Beteiligten wie Hersteller, Händler und Kunden gefordert, verantwortungsvoll zu handeln.“ (Quelle: Thomas Krenn AG)

Thomas Krenn, Thomas Krenn AG: Bei Green IT denkt heute jeder in erster Linie an einen niedrigeren Stromverbrauch. Das ist ein wichtiger Punkt, aber nicht der einzige. Aufgrund der kurzen Innovationszyklen werden Computersysteme heute generell immer rascher durch neue ersetzt. Hier sind alle Beteiligten wie Hersteller, Händler und Kunden gefordert, verantwortungsvoll zu handeln – das beginnt bei schadstoffarmer Produktion und endet bei umweltgerechter Entsorgung und Wiederverwertung.

Ausblick auf den Server-Markt 2009

Auch im nächsten Jahr 2009 wir es im Server-Bereich turbulent zugehen. Mit welchen neuen Trends beziehungsweise Entwicklungen und Technologien Administratoren und Anwender in nächster Zeit rechnen müssen, darauf geben ausgewiesene Server-Experten Auskunft.

Hans Schramm, Dell: Die Performance der Prozessoren wird weiter steigen, und Komponenten werden kleiner sowie leistungsfähiger. Immer mehr Unternehmen werden sich für Virtualisierungslösungen entscheiden. Darüber hinaus sehen wir auch ein Zusammenwachsen von Server- und Storage-Technologien. Für den Anwender bedeutet dies einen leichteren Einstieg in neueste Technologien, einen vereinfachten Betrieb und in letzter Konsequenz eine Kosteneinsparung.

Dr. Joseph Reger, Fujitsu Siemens Computers: Cloud Computing wird die Art und Weise beeinflussen, wie Kunden IT nutzen. Der Hauptunterschied zu heute liegt in der Ortsunabhängigkeit. In diesem Model werden Kunden ihre Anforderungen an die IT nach außen verlagern, wobei die Bandbreite der genutzten Möglichkeiten vom Outsourcen der Rechen- und Storage-Leistung bis hin zum Auslagern der Geschäftslogik und -prozesse reicht. Folglich erwarten wir einen klaren Trend zu einem „as a Service“-Bereitstellungsmodell für IT. Unterm Strich wird die Anzahl der Organisationen abnehmen, die ihre Server-Hardware selbst besitzen und betreiben. Stattdessen werden spezialisierte Cloud-Computing-Unternehmen Eigentümer der Server-Hardware sein und IT „as a Service“ von ihren eigenen Rechenzentren aus anbieten. Auch wenn etliche Marktbeobachter davon ausgehen, dass nur einige große Anbieter wie Microsoft, Google und Amazon den Ton angeben werden, glauben wir, dass da auch eine Vielzahl kleiner Cloud-Computing-Anbieter unterwegs sein wird, die spezialisierte und auf den Kunden zugeschnittene Services anbietet.

Und schließlich gehen wir davon aus, dass nun, nach einigen Fehlstarts, die Zeit bald reif sein wird, um konsolidierte Fabriknetzwerke aufzubauen. Bei diesem Ansatz wird nur noch eine Server-I/O-Verbindung notwendig sein, um die Anforderungen von Vernetzung, Speichersystemen und der Interprozesskommunikation zu erfüllen. In der Vergangenheit gab es bereits einige Versuche zur Konsolidierung auf Basis von Infiniband und Ethernet mit iSCSI. Diese Ansätze waren allerdings wenig erfolgreich, weil sie nicht kompatibel zu bestehenden Protokollen waren oder im Fall von Infiniband ein weiteres zusätzliches Protokoll eingeführt haben. Jetzt erwarten wir, dass sich 10 GB Data Center Ethernet (DCE) mit Fibrechannel over Ethernet (FCoE) als die passende Lösung für eine konsolidierte Fabrik durchsetzen wird. Es berücksichtigt die bestehenden IP-basierten Netze, konsolidiert verlustfrei 10-Gbit-Ethernet-Netze und ist kompatibel mit Fibrechannel, das vor allem bei Speichernetzen in Unternehmen zum Einsatz kommt. Diese Entwicklung wird bereits Ende 2009 zum Tragen kommen.

Auch die Entwicklung von Solid State Disks beobachten wir genau. Hier bahnt sich eine Revolution im Storage-Umfeld an. Allerdings befinden wir uns noch in einem frühen Stadium dieser Technologie. Schwächen bei der Dauerhaftigkeit der Daten, Schreibgeschwindigkeit und Kosten pro GByte müssen noch ausgebügelt werden.

Carsten Unnerstall, Hewlett-Packard: Grundsätzlich wandelt sich in den Unternehmen der Umgang mit Infrastrukturen. Die reine Informationstechnologie wird nach und nach durch den Ansatz der Business Technology abgelöst. Business Technology zeichnet sich vor allem durch die Automation und Flexibilisierung von Prozessen aus, um sich ständig ändernden Geschäftsanforderungen schnell und einfach anpassen zu können. Hierzu werden vor allem adaptive Infrastrukturen zum Einsatz kommen, in denen Server-, Speicher- und Netzwerktechnologie integriert werden können. Diese werden mit Automatisierungstechnologien, entsprechender Software (HP Insight Dynamics-VSE) und Virtualisierungstechnologien kombiniert.

Eine besondere Herausforderung bei der Virtualisierung ist derzeit das Management in virtuellen Sever-Umgebungen. Denn durch die Einführung von Virtualisierungslösungen hat das IT-Personal in vielen Unternehmen mit einer nicht mehr überschaubaren Anzahl von virtuellen Servern zu kämpfen. Unabhängig davon, welche Formen der Virtualisierung Unternehmen einsetzen (Hardware-, Software- oder Hypervisor-basierte Virtualisierung), benötigen Administratoren Tools, die den Aufwand für die Verwaltung möglichst gering halten. Ein Beispiel ist hier das Management-Tool HP Insight Dynamics-VSE. Dieses ermöglicht es, über einen einzigen Bildschirm alle Ressourcen zu verwalten – inklusive Hypervisoren von unterschiedlichen Herstellern. Dieser konsolidierte Überblick über reale und virtuelle Systeme ist ein wichtiger Faktor bei der effizienten Administration.

Ausblick 2009, Fortsetzung

Jörg Dehnen, IBM: Wir sehen anhaltenden Trend in Richtung Miniaturisierung der Komponenten und Optionen zum Wohle verbesserter Density und Energieeffizienz, mehr Cores bei den Prozessoren, höhere Performance im SAN und Netzwerk. Und wir sehen eine Umschichtung der Server-Segmente zugunsten x86-High-End-Server und Blades. Außerdem werden die Themenbereiche Konsolidierung und Virtualisierung uns weiterhin mit neuen Lösungen beschäftigen.

Ingo Frobenius, Sun Microsystems: Die Technologien werden sich im Server-Bereich in mehrere Richtungen weiterentwickeln:

Die Firma Sun selbst forscht auch weiter. Die Proximity-Communication ist nur ein Beispiel für neue Technologien, die heute in unseren Laboren entwickelt werden. Relevant für neue Server-Prozessoren ist aber auch immer die Software. Hier sind die Prozessor- und Server-Entwickler ebenso wie die Hersteller von Entwicklungs-Software dazu angehalten, den Anwendern auch Technologien zur Verfügung zu stellen, die eine Ausnutzung der Parallelität in Systemen vereinfachen. Zukünftige Prozessoren werden vereinfachte Technologien für die Synchronisation von parallelen Prozessoren bereitstellen müssen. Schon seit Dijkstras Semaphor-Prinzip wünschen sich Entwickler zum Beispiel einen transaktionsorientierten Speicher, um das lästige Semaphor-Handling zu vereinfachen. Solche Technologien sind zukünftig in Prozessoren zu realisieren, damit die Geschwindigkeit und Parallelität in kommenden Server-Generationen auch ausgenutzt werden können.

Thomas Krenn, Thomas Krenn AG: Virtualisierung wird weiterhin das tonangebende Thema sein. Vor allem in großen Unternehmen ist Virtualisierung zwar schon heute im Einsatz. Es gibt aber nach wie vor eine sehr große Anzahl an Servern ohne Virtualisierung. Wenn diese in den nächsten Jahren schrittweise ersetzt werden, wird das neue Server-System meistens virtualisiert sein. Der Trend heißt hier: höhere Effizienz – niedrigere Betriebskosten. (hal)