Transportbeschleuniger

Um Web-Informationen schneller zum Adressaten zu bringen, setzen Serviceprovider Caching-Systeme oder spezielle "Content-Delivery"-Netze ein. Beide Techniken hängen zwar eng miteinander zusammen, werden aber fälschlicherweise häufig in einen Topf geworfen. Ein gravierender Unterschied sind beispielsweise die dahinter stehenden Geschäftsmodelle.

Von: David Griffiths

Wie erfolgreich ein Internet-Serviceprovider oder eine Firma im E-Business ist, hängt maßgeblich davon ab, wie schnell Web-Inhalte (Content) beim Kunden ankommen. Doch bekanntlich nehmen die "Staustrecken" im Internet drastisch zu. Um sie zu umgehen, gehen Serviceanbieter einerseits dazu über, Content näher beim User zu platzieren, indem sie Caching-Systeme installieren. Zum anderen setzen sie spezielle "Content-Delivery"-Netze ein.

Auf Caches werden häufig benutzte Web-Informationen temporär in der Nähe der Benutzer abgespeichert.

Zunächst soll die Funktionsweise des Caching genauer betrachtet werden. Eine Anfrage nach Web-Inhalten erfolgt durch den Browser mit Hilfe des "Uniform Resource Locators" (URL). Die IP-Mechanismen, insbesondere die "Name Resolution", wandeln den URL in eine Netzadresse um und leiten die Anfrage an den betreffenden Web-Server weiter. Bei einer Homepage handelt es sich in der Regel um eine statische HTML-Seite, in die Links zu einer oder mehreren weiteren Dateien eingefügt sind, etwa Grafiken, Fotos oder Audio- und Videostreams. Die Anfrage wird an denjenigen HTTP-Server weitergereicht, auf dem die angeforderten Inhalte liegen. Die Web-Seite überträgt dann hintereinander, also sequenziell, die spezifischen Objekte zum Browser des Users. Erst dann, wenn alle Elemente übermittelt wurden, baut der Browser die Web-Seite auf.

In der Praxis richten sich 90 Prozent aller Anfragen an nur 10 Prozent der Web-Seiten. Daher ist es unausweichlich, dass populäre Web-Server vollkommen überlastet sind. Im Internet werden somit enorme Bandbreiten verschwendet, weil

- ständig die gleichen Inhalte zu unterschiedlichen Nutzern übertragen werden und

- viele User räumlich weit entfernt von diesen Servern angesiedelt sind. Somit ist es notwendig, viele Kopien der gleichen Inhalte über dieselben Koppelelemente im Internet zu transferieren, also Router und Switches.

Die Besitzer von Inhalten transportieren den Inhalt selbst zum Nutzer.

Auf Caches werden häufig benutzte Web-Informationen temporär in der Nähe der Benutzer abgespeichert. Ein Cache lässt sich als Bestandteil der UnternehmensFirewall, beim Internet-Serviceprovider (ISP), im Netzzugangspunkt (NAP) oder dem Point of Presence (PoP) installieren. Die auf den Caches deponierten Informationen liegen somit physikalisch näher beim Benutzer als die Mehrzahl der Web-Server. Mit Hilfe dieses Tricks lassen sich viele Web-Anfragen bereits von den Caches beantworten. Das heißt, für den Informationstransfer ist nicht mehr so viel Bandbreite erforderlich, und damit reduzieren sich die Kosten.

Ein Cache-System bietet folgenden Nutzen:

- Multiplikation der verfügbaren Bandbreite: Wenn die Hälfte der abgerufenen Web-Objekte aus dem temporären Speicher zur Verfügung gestellt wird, verdoppelt sich die Kapazität des Upstream-Links zum Internet. Der Cache erhöht also die verfügbare Bandbreite um den Faktor zwei.

- Bessere Performance: Die Caches befinden sich in der Praxis wesentlich näher beim Nutzer als die Content-Server. Moderne Systeme verbessern die Performance und die Verzögerungszeit der Web-Downloads um den Faktor zwei bis fünf.

- Schutz der WWW-Server: Greifen viele Nutzer gleichzeitig auf eine Internet-Seite zu, kommt es aufgrund der hohen Nachfrage zu einer Überlastung der Systeme und damit zu höheren Reaktionszeiten. Problematisch ist, dass der Weg der Datenströme im Internet nicht vorhersehbar ist. Mit dem Einsatz von Caches in den Zugangspunkten des Internets wird die Information vervielfacht und quasi lokal an den Nutzer ausgeliefert. Das wiederum erhöht die Verfügbarkeit der WWW-Ressourcen.

- Kosten-Nutzen-Verhältnis der Bandbreite: Ohne Caches werden die WWW-Daten ständig von den Servern abgerufen. Die Übermittlung der Daten erfolgt immer über die relativ teuren Internet-Backbones. Die Kosten betragen etwa 800 Dollar pro MBit/s im Monat. Caches lassen sich als Ergänzung dieser teuren Internet-Ressourcen einsetzen. Da Bandbreite im Randbereich der Netze wesentlich preiswerter ist, senken Caches daher die Kosten für die Übertragung der Web-Daten.

Statt des Internet-Zugangs werden die Übermittlung von Inhalten und das Bereitstellen von Applikationen an Bedeutung gewinnen.

Ein Anbieter von Caches verkauft seine Hard- und Softwareprodukte in der Regel an einen ISP oder ein Unternehmen mit einem Corporate Network. Dem Preis des Cache-Systems steht ein Gegenwert in Form der reduzierten Betriebskosten durch die eingesparte Bandbreite und bessere Reaktionszeiten gegenüber. Eine Kosten-Nutzen-Rechnung hängt zwangsläufig von den Bandbreitenkosten des ISP oder Netzbetreibers ab. Um dem Preisdruck auszuweichen, stellen die Hersteller von Cache-Systemen immer mehr Werkzeuge und Internet-Dienste auf Basis von Caching bereit. So dienen die Produkte beispielsweise als Plattform für Mehrwertdienste wie Virenschutz sowie Video- und Audio-Streaming.

Im Gegensatz dazu bieten "Content Delivery Services" (CD), etwa die von Digital Island, Akamai und Adero, "nur" das Caching bestimmter Inhalte an. Ein CD-Provider verfügt über ein Overlay-Netz, das er parallel zum Internet-Backbone betreibt. Über dieses "private" Internet überträgt er Web-Inhalte zu Caching-Servern, die in verteilten Datenzentren in der Nähe der PoPs (Points of Presence) stehen.