Preiswerte Netze für den Mittelstand

16.10.1998
In den vergangenen Jahren ist die Diskussion um höhere Bandbreiten in LANs sehr vehement geführt worden. Die Schlagworte dazu waren Multimedia, Electronic Commerce und Internet/Intranet. Allerdings führte die Diskussion oftmals völlig am Ziel vorbei, weil unrealistische Annahmen gemacht wurden. Gerade dem Mittelstand ist von ATM oder Gigabit-Ethernet dringend abzuraten. Für Netzgrößen zwischen 100 und 1000 Anschlüssen sind geswitchte Netzwerke mit 10/100-MBit-Kapazität völlig ausreichend.

Von: Dr. Franz-Joachim Kauffels

Es ist an der Zeit, die Karten neu zu mischen und sich der Realität zu stellen. Sowohl ATM als auch Gigabit-Ethernet sind für den lokalen Bereich noch nicht so verfügbar, wie man sich das vor einiger Zeit vorgestellt hatte. ATM ist und war als Konzept für LANs außer in wenigen Ausnahmefällen absurd, Gigabit-Ethernet hat ein paar technische Mängel (siehe Gateway 2/98, S. 66 und diese Ausgabe S. 142). Man kann aber auch sagen, daß beide Techniken das Problem haben, daß es die durchschnittlichen Anwender häufig gar nicht einsehen, dafür Geld auszugeben. Außer beim sogenannten "Carrier Class Equipment", also Gerätschaft für WAN-Netzleistungs-Dienstanbieter, ist mit ATM kaum etwas zu verdienen. Und Gigabit-Ethernet hat bis jetzt noch nicht einmal die Druckfarbe für die Broschüren eingefahren. Der ATM-Hersteller Newbridge mußte Anfang Februar schwere Verluste veröffentlichen (171 Millionen Dollar netto), was den Kurs der Aktie drückte. Fore Systems ist ebenfalls scheintot. Bei den anderen Herstellern wird der ATM-Bereich mit anderen Bereichen gemischt, so daß eventuelle Verluste nicht sichtbar sind.

Das Marketing und teilweise auch das Consulting in Deutschland leben davon, Dinge zur Bewältigung nicht vorhandener Probleme zu verkaufen. Dazu eignen sich besonders Problemstellungen, die jeden verblüffen, der damit keine Erfahrung hat. Das gilt etwa für Multimedia, E-Commerce und Internet-Techniken. Besonders gerne verunsichert man den Mittelstand, dem man nach Möglichkeit eine Mini-Variante eines Netzes für einen internationalen Großkonzern verkauft. Es gab schon Angebote von sehr bekannten DV-Herstellern, die für circa 50 harmlose PC-Arbeitsplätze ein durchgängiges ATM-Netz im Wert von rund 200.000 Mark installieren wollten.

Ein Manko des Mittelstandes ist es vielfach, daß sich niemand richtig für DV zuständig fühlt, keiner echte Ahnung hat und erst recht kein Geld für einen teuren Berater da ist. Also "macht man irgendwie rum" und freut sich, wenn der PC-Händler um die Ecke irgend etwas aufstellt, was so tut, als würde es laufen. Ein gangbarer Weg ist die Qualifikation der Distributoren und Partnerhändler, wie sie in den letzten Jahren stattgefunden hat. Aber auch ein noch so qualifizierter Partnerhändler ist zum Beispiel mit Analysen der Geschäftsprozesse des Kunden überfordert. Dies ist auch nicht seine Aufgabe und fällt aus der Kalkulation. Dabei wäre gerade eine solche Analyse sehr hilfreich, um festzustellen, was der Kunde tatsächlich benötigt.

Manko des Mittelstandes

In einer zunehmend schwierigen Zeit wird es immer wichtiger, auf Änderungen schnell reagieren zu können. Durch die notwendige Umstellung auf das Jahr 2000, die Einführung des Euro und von SAP R/3 sind schon alle Kräfte gebunden. Wenn man in einer solchen Situation auch noch ein neues Netz kaufen möchte, hätte man gerne eines, das man die nächsten zehn Jahre nicht ändern muß. Gerade das öffnet aber die Türen für völlig übertriebene Strategien, die letztlich die Gefahr mit sich bringen, daß das Gesamtvorhaben als zu teuer erachtet und deshalb völlig verworfen wird, womit die Flickschusterei erneut beginnt.

Von der Multimedia-Technik wissen wir heute, daß sie nur dann wirklich hohe Bandbreiten verschlingt, wenn extensive Anforderungen gestellt werden. Die PC-Industrie hat uns aber immer wieder vor Augen geführt, daß die Grenzen von Kompressionsverfahren längst nicht erschöpft sind. Mit Internet, Intranets und E-Commerce liegen erstaunliche Erfahrungen vor, aber nicht hierzulande.

Also lautet die Kernfrage: Was braucht der Mittelständler wirklich? Diese Kernfrage kann nur individuell beantwortet werden. Allerdings kann man schon einiges im Vorfeld erarbeiten. Zuvor möchte ich noch folgendes klarstellen: In vielen früheren Publikationen habe auch ich immer wieder die Forderung nach "mehr Bandbreite" gestellt. Schwerpunkt meiner Betrachtungen waren dabei allerdings immer große Umgebungen mit mehreren tausend Endgeräten. Die davon betroffenen Unternehmen und Organisationen werden von einem zu teuren Netz mit hoher, momentan ungenutzter Bandbreitenreserve nicht sofort in eine Finanzkrise gestürzt. Außerdem besteht hier oftmals das Problem, daß Informatiker und Consultants von Managern als eine Art "Iiihh-Tiere" betrachtet werden, mit denen man besser nicht umgeht. Also werden viele Chancen, die die neuen Techniken bieten, auch aus Ignoranz nicht genutzt.

Netzgrößen für kleine und mittlere Firmen

Generell sollte man im Rahmen von Client/Server-Architekturen deutlich unterscheiden zwischen Netzen, die die Server untereinander koppeln und Netzen, die die Clients mit den Servern verbinden. Zwischen den Servern muß das Netz eine besonders hohe Bandbreite, die Möglichkeit von Redundanzwegen und eine extrem geringe Verzögerung aufweisen.

In diesem Artikel geht es vornehmlich um Probleme des Mittelstandes, um Netzgrößen zwischen 100 und 1000 Anschlüssen. Es wird vielfach noch nicht verstanden, daß der Mittelstand der größte Gewinner der Informationstechniken werden kann. Die neuen One-to-One-Marketingkonzepte wenden sich von dem Paradigma ab, nach dem Größe alles ist. Nur wenige Anbieter von Massenwaren nutzen heute schon Konzepte zur Personalisierung der Produkte. Zu diesen gehören beispielsweise die Automobilhersteller. Das One-to-One-Paradigma stellt die individuelle Kundenbeziehung in den Mittelpunkt. Nicht ein möglichst großer Anteil am Gesamtmarkt, sondern am "Life-Time-Value" des Individuums ist das Ziel. Man hat nachgewiesen, daß das Internet das Ideale Medium für One-to-One-Marketing ist. Es ergibt sich eine einzigartige Chance, denn vor dem Browser sind alle Seiten gleich. Wenn einem Kunden ein Produkt oder eine Dienstleistung über das Internet angeboten wird, kann dieser auf dem Bildschirm nicht unterscheiden, ob sich ein kleiner, mittelgroßer oder großer Anbieter dahinter verbirgt. So kann der "Kleine" genauso auftreten wie der "Mittlere" oder der "Große". Dies betrifft nicht nur die werbliche Präsentation, sondern auch das gesamte Geschäft.

Verwirrungstaktiken der Hersteller

Viele Verantwortliche im Mittelstand schrecken jedoch vor E-Commerce zurück, weil viele Verwirrungstaktiken gestreut wurden. Ein beliebtes Märchen besagt etwa, daß vernünftige Sicherheitstechnik nur für Großanwender erschwinglich sei. Oder daß man für den Web-Auftritt einen großen, starken Server braucht. Blödsinn. Man kann mit einem kleinen Server anfangen, und wenn sich das Geschäft ausweitet, lohnt sich auch der nächstgrößere. Und der größte Quatsch ist die Aussage: "Du kannst Internet-Techniken nur dann erfolgreich einsetzen, wenn mindestens Dein Backbone oder am besten alle Mitarbeiter ATM und Gigaspeed haben." Absurder geht es nicht.

Kommen wir zu den Fakten. Weltweit wird bereits heute erfolgreich E-Commerce betrieben. Viele Millionen Menschen informieren sich und bestellen Waren und Dienstleistungen im Internet. Dabei benutzen die meisten einen PC und ein Modem. Das funktioniert. Glaubt man aber den undifferenzierten Bandbreitenpriestern, dürfte das eigentlich gar nicht funktionieren. Natürlich gibt es manchmal Wartezeiten und man könnte sich vieles schneller vorstellen. Aber ist das ein Grund, das eigene (kleinere, mittelständische) Unternehmensnetz, in dem neben konventioneller Client/Server-DV ein Intranet aufgebaut werden soll, für Gigabits auszulegen? Werden Webseiten plötzlich ultrabreit, nur weil sie in den "eigenen vier Wänden" laufen? Wohl kaum. Und das Problem, zwischen den Servern ein geeignetes Netz zu finden, ist bei Netzen mit fünf bis zehn Servern auch nicht so dramatisch.

Um der faden, gebetsmühlenartigen Argumentation für mehr Bandbreite wirksam entgegenzutreten, wurde eine Reihe von Experimenten durchgeführt. An dieser Stelle werden vor allem diejenigen erklärt, die Sie selbst durchführen können.

Die meisten Messungen bezogen sich auf Ladezeiten von Seiten. Dabei wurden die Adressen als Lesezeichen vordefiniert, die Zeit läuft ab Anklicken darauf bis zur vollständig aufgebauten Seite. Der Anschluß der PCs erfolgte an T-Online mit einem schnellen Modem. Zwischen einem PC und dem Proxy-Rechner von T-Online besteht eine Verbindung nach dem PPP-Protokoll. Dies ist eine auch für ein kleineres Intranet vergleichbare Situation: Die Rechner der Mitarbeiter sollten aus Sicherheitsgründen niemals unmittelbar an das Internet angeschlossen sein, sondern über einen Proxy-Server, der auch als Firewall fungiert.

Langsame Ladezeiten bei mageren PCs

Es wurden verschiedene Rechner für die Tests verwendet. Um aber den Zorn der Marken-Hersteller nicht zu erregen, werden nur die Messungen in der Tabelle dargestellt, die mit zwei bei Aldi erworbenen Systemen gemacht wurden. Diese sind ein schwach ausgestatteter Pentium-Kompatibler mit nur 8 MByte Speicher (Rechner A) und ein ordentlich ausgestatteter Pentium-MMX-Notebook (133 MHz) mit 32 MByte Hauptspeicher (Rechner B), beide Systeme mit Windows 95, Rechner A mit 16-Bit-MS-Explorer 3, Rechner B mit 32-Bit-Netscape-Communicator mit Navigator 4.

Die erste wirkliche Überraschung war die Invarianz von Rechner A gegenüber einem schnelleren Modem. An den Ladezeiten veränderte sich zwischen einem 14.400-Bit-Modem und einem 33.600-Bit-Modem praktisch überhaupt nichts. Versuche mit ISDN brachten ebenfalls kaum Verbesserungen. Das Schrubben der Festplatte begleitete jeden Ladevorgang. Ergebnis: Nicht T-Online oder die Leitung, das Web der Zielserver, Bill Gates oder das Wetter, sondern der Ladevorgang im PC selbst ist bei Rechner A der Engpaß. Ein zu mager ausgestatteter PC hat Schwierigkeiten, die Web-Seiten schön zusammenzubauen. Sollten in einem Betrieb noch solche Rechner vorhanden sein und weiterbetrieben werden, ist es völliger Mumpitz, über eine höhere Bandbreite im Netz nachzudenken. Wenn man die Größe der Seite kennt, kann man die Zeit, die die Seite ohne weitere Behinderung für die Übertragung durch das Modem benötigt, leicht ausrechnen. Ein Netz "unendlicher Bandbreite" hätte einfach eine Übertragungszeit "nahe Null". Für Rechner A wirklich völlige Verschwendung!

Rechner B war ungefähr doppelt so schnell. Aber auch hier macht der Anteil der Übertragung mit dem Modem nur etwa ein Drittel aus. Wesentlicher ist der Einfluß des Proxy-Rechners. Den kann man leicht sehen, wenn man sich mit einer Seite nicht neu verbinden läßt, sondern nur einen Reload macht. Die wesentlichen Teile der Seite sind bereits im Cache des Proxies. Bei Rechner B konnten ein Drittel bis die Hälfte der Ladezeit dem Proxy angelastet werden. Dies stimmt in etwa auch für Rechner A, nur sind hier die Zeiten so lang, daß auch ein schneller Proxy nicht zu wesentlichen Verbesserungen führt.

Allerdings: Mit dem 33.600er-Modem war auch Rechner B ganz gut bedient. Versuche mit ISDN waren eher ernüchternd. Wenn man bei Rechner B die Netto-Übertragungszeit des Modems abrechnet, zeigt sich, um wieviel schneller diese Konfiguration ist. Aber ein sehr schnelles Netz würde auch hier nicht zu Antwortzeiten im Bereich einiger weniger oder sogar unter einer Sekunde führen, wie dies immer in Aussicht gestellt wird.

Falsche Netzwerkwerbung

Fazit: Solange man noch ganz normale Rechner hat, arbeitet man mit einem vergleichsweise langsamen Netz genauso gut wie mit einem schnellen. Bezogen auf die Leistungsfähigkeit eines Modems ist ein normales 10-MBit/s-Ethernet circa 250mal schneller.

Dies ist einerseits eine für Netzwerker frustrierende Erkenntnis, paßt aber zu der von mir und verschiedenen Kollegen gemachten Beobachtung, daß es durchaus viele Unternehmen gibt, bei denen 50 PCs in einem Token-Ring- oder Ethernet-Segment zusammengeschaltet sind, und trotzdem funktionieren alle.

Es ist ganz offensichtlich so, daß das Zusammenspiel zwischen PC und Netz in der täglichen Praxis gar nicht so wesentlich von der internen Busleistung des PCs abhängt, wie uns die Netzwerkwerbung immer glauben machen möchte. Vielmehr ist der PC so mit der Abarbeitung von systemnahen Programmen beschäftigt, daß er gar keine wirklich schnelle Ein- und Ausgabe machen kann.

Auch der Rechner B läßt sich plattmachen, nämlich einfach durch das Benutzen des neuen "Explorer 4" von Microsoft. Mit diesem Programm hat er so viel zu tun, daß die Ladezeiten wieder in Richtung des Rechners A gehen. Plant man den Ablauf normaler Anwendungsprogramme, darf man den Explorer ebenfalls nicht in den Hintergrund verbannen, es sei denn, man möchte die Zeit einzeln tropfen sehen. Ist der Einsatz der Microsoft-Office-Suite vorgesehen, sind dreistellige MB-Zahlen für den Hauptspeicher empfehlenswert. Die Programme werden immer besser und komfortabler, es ist also nicht verwunderlich, daß sie auch immer mehr Ressourcen benötigen.

Verbesserungen im Antwortzeitverhalten können uns nur Entwicklungen der "Key Player" bringen. Ein Pentium II oberhalb 300 MHz sorgt für recht viel Freude. Spannend ist auch eine neue Entwicklung von Intel. Hier sollen Grafikbeschleuniger-Chips für eine Verkürzung der Ladezeiten auf 40 Prozent sorgen. Beides zusammen wird ein wesentlich befriedigenderes Arbeiten mit den Web-Seiten ermöglichen. Es ist also nötig, eine Harmonie zwischen der Leistungsfähigkeit der Endgeräte und der Versorgung mit Bandbreite herzustellen. Dies wird weiter unten konkretisiert.

Eine andere Irreführung besteht hinsichtlich der Größe von Web-Seiten. Heute hat man große Mühe, Seiten zu finden, die wesentlich größer als 100 kByte sind. Diese füllen mehrere Bildschirmseiten, die man durchscrollen muß, um sie alle anzusehen.

Viele Beobachtungen haben einen bis dahin nicht glaubhaften Effekt zutage gebracht: Benutzer denken! Die Bandbreitenpropheten gehen immer davon aus, daß Webseiten nur geladen werden, um sie sofort wieder wegzudrücken. Zu Beginn einer Internet/Intranet-Sitzung mag das der Fall sein, weil man durch verschiedene Seiten muß, um an ein Ziel zu gelangen. Doch nach dieser Phase beginnt ein Benutzer, die geladenen Seiten anzusehen, durchzulesen und Inhalte zu verarbeiten. Vielleicht füllt er sogar ein Formular aus und schickt es zurück. In keinem Falle geht er so durch die Web-Seiten, als müsse er eine auf Einzelfeuer gestellte Laserkanone in einem Video-Spiel betätigen. Der PC im Unternehmen ist keine Playstation!

Berechnung der Ladegeschwindigkeiten

Sei eine zu ladende Seite 100 kByte groß, die Übertragungsgeschwindigkeit 10 MBit/s, also 1250 kByte/s, der Server sehr schnell, und ein Client-PC im Aufbau einer Web-Seite auf dem Bildschirm mehr als zehnmal so schnell wie die Aldi-Modelle A und B (sehr optimistisch). Dann dauert das Laden einer Seite weniger als 0,1 Sekunde im Netz und circa 0,9 Sekunden im PC, also insgesamt eine Sekunde - ein traumhafter Wert. Sieht der Benutzer sich das Bild durchschnittlich etwa 5 Sekunden an, könnte man nach dieser Rechnung an die 60 Client-PCs in ein einziges "geshartes" 10Base-T-Segment packen. In der Praxis muß man wegen des CSMA/CD-Algorithmus und wegen der Fragmentierung der Datenpakete etwas abziehen, aber 30 Clients in einem "gesharten" 10Base-T-Segment sind unter diesen Voraussetzungen realistisch. Bitte schließen Sie hieraus noch nicht, es tatsächlich so zu machen!

Was ist, wenn man Parameter ändert? Wird die Seite 1 MByte groß, dauert die Übertragung circa 1 Sekunde, die Weiterverarbeitung im PC ungefähr 9 Sekunden. Der Anwender hat aber jetzt viel mehr zu betrachten und verweilt zum Beispiel 20 Sekunden auf der Seite. Unter diesen Voraussetzungen kann man immer noch 30, real 15 bis 20 PCs, in ein Segment hängen. Mit diesen Änderungen soll einfach nur abgeschätzt werden, was passieren kann. Wird der PC nochmals zehnmal schneller, sinkt die Ladezeit einer 1-MByte-Seite auf 2 Sekunden und die Anzahl der PCs, die in einem Segment koexistieren können, auf 5 bis 10. Voraussetzung ist allerdings der störungsfreie Verkehr zum Server.

Was läßt sich aus diesen Versuchen schließen? Die heute von der Industrie zu sehr günstigen Preisen angebotene Lösung der geswitchten 10BaseT-Anschlüsse, bei denen die 10 MBit/s einem einzelnen Endgerät oder einer kleinen Gruppe von Endgeräten zur Verfügung steht, ist absolut hinreichend und für E-Commerce in hohem Maße zukunftssicher. Um hier wirklich an Grenzen zu stoßen, müßten

die Webseiten durchschnittlich ein MByte Umfang haben, die PCs in ihrer Gesamtarchitektur so ausgelegt sein, daß sie Webseiten circa einhundertmal schneller laden und darstellen können als die Aldi-Rechner A und B, die meines Erachtens den heutigen Status Quo recht gut widerspiegeln, die Mitarbeiter etwa zehnmal schneller arbeiten.

Die erste Anforderung ist umgebungsabhängig, die zweite könnte in einem Zeitraum von fünf Jahren durchaus erreicht werden, die letzte ist eher unwahrscheinlich.

Natürlich gibt es eine Reihe weiterer Einflüsse, von denen zwei kurz diskutiert werden sollen. Das Laden und Ausführen von Java-Applets führt zu gegenläufigen Einflüssen: Einerseits wird die zu übertragende Datenmenge durch die Applets erhöht, andererseits muß der PC ja die Applets verarbeiten, was ihn daran hindert, neue Daten zu laden, so daß die Laderate sinkt. Wie das ausgeht, ist schwierig abzuschätzen, weil die heutige sehr langsame Verarbeitung von Applets durch Interpreter nicht so bleibt. Andererseits sind die Applets nicht sehr groß, ein 1-MByte-Applet würde für eine einfachere Textverarbeitung oder Tabellenkalkulation ausreichen, in der man dann anschließend länger verweilt als in einer einfachen Web-Seite. Auch hier steht man aber mit einer "geswitchten" Architektur auf der sicheren Seite.

Immer dann, wenn den Bandbreitenfans die Argumente ausgehen, führen sie zuletzt noch das Wort "Video" an. In der Tat kann man hier die größte Verunsicherung stiften, weil der normale DV-Verantwortliche wenig davon weiß, wie Kompressionsverfahren arbeiten. Das kann man aber abkürzen. Für die Kommunikation innerhalb des Unternehmens ist ein Video-Bild, wie es die neuen ISDN-Videophones realisieren, mehr als ausreichend. Also: 128 kBit/s. In 10 MBit/s passen rein rechnerisch 78 solcher Verbindungen. Es ist für einen Mitarbeiter ungemein schwierig, mit 78 Partnern gleichzeitig zu kommunizieren.

Und für den Bereich des Videos in Fernsehqualität gilt, daß die in den USA boomende xDSL-Technik die Marke bei 6 MBit/s für die Versorgung eines Haushaltes setzt. Alle kommerziellen Kompressionsverfahren werden deutlich unter dieser Marke bleiben. Nur für "Production Level Video" (PLV) wird mehr gebraucht. Wenn man sein Geld aber mit PLV verdient, benötigt man auch entsprechende Workstations, bei denen der Preis für ein 100 MBit/s-Netz nicht mehr ins Gewicht fällt. Wenn man also einem Endgerät 10 MBit/s geswitcht zur Verfügung stellt, kann man sowohl in Heimqualität fernsehen als auch Daten übertragen.

Netzwerk mit Switches reicht aus

Der mittlere Preis für einen geswitchten 10BaseT-Anschluß eines Markenherstellers (Bay, 3Com, Cisco, Intel, NBase) liegt nur noch bei 98 Dollar, ein 10/100-Base-T-Anschluß ist für durchschnittlich 217 Dollar zu haben. Einen 10/100-Adapter (3Com, Intel) gibt es für 77 Dollar. Bei diesen Preisen liegt es doch wirklich nahe, ein Netzwerk aufzubauen, bei dem die Endgeräte mit 10 oder 10/100 MBit/s an kleine Switches angeschlossen werden, die ihrerseits mit 100 MBit/s oder in Extremfällen Gigabit-Ethernet (kostet circa 2500 Dollar für ein Einschubmodul) zu den Servern uplinken. Weniger wäre nicht zukunftssicher, mehr ist aber hinausgeworfenes Geld.

"ATM-Jubelperser" versuchen immer wieder, die durchgängige technische Integration vom Arbeitsplatz über das LAN und über das WAN in den Vordergrund zu stellen. Das jagt einfacheren Gemütern und Ethernet-Besitzern einen Schrecken ein: Können wir bald nicht mehr fernkommunizieren, wenn wir kein ATM bis zum Arbeitsplatz aufbauen?

Tatsächlich sieht die Welt anders aus: Der europäische Mittelstand setzt auf Frame-Relay. Mehr als zwei von drei europäischen Firmen wollen zukünftig diese relativ bodenständige, aber auch im Gegensatz zu ATM einfach zu implementierende Technik einsetzen. Doch es ist ohnehin ziemlich gleichgültig, ob nun Frame-Relay, ISDN oder ATM den Fernbereich erschließen: In jeder Niederlassung, Zweigstelle und in jedem zum Unternehmen gehörenden Gebäude steht ein kleines Konzentratorkästchen, in das auf der Inhouse-Seite Sprache und LAN-Verkehr münden und das zum WAN hin ATM, ISDN oder Frame-Relay unterstützt. Mein Preis für die beste Idee in dieser Richtung geht an Cisco Systems: Deren "Networked Office Stack" ist für Unternehmen mit bis zu 100 PCs gedacht und ermöglicht nicht nur sehr preiswerte geswitchte Ethernet-Anschlüsse und einen kleinen Router, sondern im Stack auch direkt einen Web-Server, zum Beispiel für die Realisierung von E-Commerce-Grundfunktionen und eine Firewall-Lösung. Andere Hersteller werden sicherlich bald mit ähnlichen Lösungen und Preis/Leistungsverhältnissen nachziehen, denn alleine in Europa gibt es 17 Millionen mittelständische Betriebe, die als Kunden für solche Produkte in Frage kommen. Danach kommt das Segment der "100-1000"er.

Fazit: Lassen Sie sich nicht von überzogenen Anforderungen und Darstellungen aus der Ruhe bringen. Blicken Sie auf das, was Sie machen wollen, auf die Geräte, die sie einsetzen werden und die Leistung, die Sie benötigen. Preiswerte geswitchte 10 MBit/s in der Hand sind besser als überteuerte 155 MBit/s auf dem Dach. Achten Sie auf die Harmonie zwischen Gerätschaft und Bandbreite. (cep)

Dr. Franz-Joachim Kauffels

ist unabhängiger Unternehmensberater mit den Schwerpunkten Betriebssysteme, lokale Netze, Connectivity und Netzwerkmanagement. Er ist Autor zahlreicher Fachbücher und Mitglied wissenschaftlicher Vereinigungen.