Die meisten Menschen kennen Spam nur im Zusammenhang mit E-Mails. Doch es gibt auch Formen des Spams, der ausschließlich der Optimierung des Ranking in Google dient und möglichst viele Leute auf den eigenen Webauftritt locken soll. Spam ist alles, was nicht dem menschlichen Besucher nutzt, sondern ausschließlich der Verbesserung des Rankings dient.
Die hier aufgezählten Methoden sind eine kleine Auswahl der verbotenen Tricks der Google-Optimierer. Sollte Google den Betrug entdecken, folgt meist der sofortige Ausschluss aus den Suchergebnissen. Nur wenigen gelingt es danach, mit der gleichen Domain wieder in den Index aufgenommen zu werden.
Deswegen sollten folgende Tricks nie auf wichtigen Seiten angewendet werden. Wenn eine SEO-Agentur mit diesen Tricks arbeitet, sollten Sie sehr wachsam sein. TecChannel zeigt Ihnen, worauf Sie achten sollten.
Die am höchsten gerankten Webseiten (Stand Feb 2008) finden Sie in unserer Bildergalerie:
Einer der prominentesten Web-Spammer war Anfang 2006 BMW. Sie implementierten auf ihren Seiten eine vorgeschaltete Brückenseite mit automatischem Redirect. Es dauerte nur wenige Monate, bis Google den Betrug erkannte und www.bmw.de aus den Suchergebnissen strich. Wann solche Doorway-Pages dennoch Sinn ergeben, und welche Fehler Sie vermeiden sollten, erfahren Sie auf den nächsten Seiten.
Außerdem zeigt Ihnen TecChannel die grundlegende Funktionsweise von Cloaking, Logfile-Spam und Site-Hacking und wie Sie sich am besten gegen derartigen Web-Spam schützen. Auf der letzten Seite zeigt Ihnen TecChannel, wo Sie Informationen und Hilfe finden und wo Sie Web-Spam melden können.
Wenn Sie mehr über Google-Optimierung erfahren wollen, lesen Sie auch unsere Artikel „Google-Optimierung: Fehler, Lügen, Mythen„ und „Google-Optimierung: Die Schmutzigen Tricks„.
Doorway-Pages – Brückenseiten
Dass selbst große Firmen mit hohem Ansehen nicht vor zwielichtigen Methoden zurückschrecken, demonstrierte BMW eindrucksvoll im Herbst 2005. Um Ihre Seiten im Google-Ranking nach oben zu spülen, benutzten sie eine der bekanntesten Manipulationsmethoden für Suchmaschinen – die Doorway-Pages.
BMW erstellte unter www.bmw.de eine nur für Google optimierte Brückenseite. Wie diese Seite genau aussah, sehen Sie im Screenshot. Aber diese Seite bekamen nur User zu sehen, die ihr Javascript deaktiviert hatten. Alle anderen wurden automatisch und unbemerkt auf eine optisch aufpolierte Seite weitergeleitet. Einige Monate funktionierte dies von Google unbemerkt, und BMW schaffte es, bei vielen Keywords im Google-Ranking zu steigen.
Um tatsächlich von einer illegalen Doorway-Page sprechen zu können, müssen folgende Kriterien erfüllt sein. Die vorgeschaltete Seite braucht eine hohe Keyword-Dichte mit speziellen, für Suchmaschinen relevanten Schlüsselwörtern. Des Weiteren dient die Seite ausschließlich als Brückenseite zur tatsächlichen Website. Wenn die Seite dann noch automatisch weiterleitet oder per Frame eingebunden ist, handelt es sich eindeutig um eine Doorway-Page, und der Seitenbetreiber kann davon ausgehen, von Google abgemahnt zu werden, wenn der Betrug auffällt.
Desaströse Konsequenzen
Besonders wichtig für eine Brückenseite ist ihre Gestaltung. Sie muss unbedingt die Kriterien der Suchmaschinen für ein optimales Ranking erfüllen – das Layout spielt dabei keine Rolle. Im Internet kursieren einige Tools, mit denen solche Brückenseiten automatisch zu Hunderten erstellt werden. Einige unseriöse SEO-Agenturen setzen diese Methoden ein, um dem Kunden eine Optimierung vorzugaukeln.
Brückenseiten sind nicht aus jeder Sicht abzulehnen, sondern sind in einigen Bereichen durchaus sinnvoll. Das gilt für Bildergalerien, Flash-Seiten und wenn das nachträgliche Optimieren einer Seite das Budget übersteigen sollte.
Allerdings sollten sich Google-Optimierer vor dem Einsatz solcher Methoden die enormen Risiken vor Augen halten: Nur wenige Monate nachdem BMW die Doorway-Pages erfolgreich auf seinen Seiten eingeführt hatte, nahm das Experiment Google-Spam ein jähes Ende. Google reagierte auf die vielen Spam-Reports von SEO-Experten und strich bmw.de aus seinem Index. Mittlerweile sind die Seiten zwar wieder gelistet, diesmal allerdings ohne die Doorway-Pages.
Wie Sie verdächtige Seiten melden können, erfahren Sie am Ende des Artikels.
Cloaking – Inhalte verschleiern
Mit Cloaking wird dem Google-Crawler eine andere Seite vorgegaukelt als tatsächlich vorhanden. Dieses Verschleiern der tatsächlichen Inhalte ist vergleichsweise einfach zu realisieren, wird aber von Google strikt verfolgt und hart bestraft.
Um den Google Webcrawler von einem echten Besucher unterscheiden zu können, muss der Black-Hat-SEO auf eine Kennung zurückgreifen. Diese Kennung, auch User-Agent genannt, ist der im http-Header übertragene Name eines Clients. Dies kann ein Browser sein, aber auch ein Suchmaschinen-Crawler.
Mozilla/4.0 (compatible; MSIE 6.0; Windows 98)
Opera/6.05 (Windows 98; U) [ru]
Googlebot/2.1 (+http://www.googlebot.com/bot.html)
Der erste Eintrag zeigt einen Besucher, der den Internet-Explorer benutzt. Die zweite Zeile zeigt einen Besucher, der mit dem Opera Browser surft. Die letzte Zeile zeigt die Kennung des Crawlers von Google.
User-Agent-Angaben können vom Client beliebig gewählt werden. Manche Browser bieten die Möglichkeit, aus mehreren voreingestellten User-Agent-Kennungen zu wählen, andere lassen dem Benutzer sogar die Möglichkeit, einen vollkommen beliebigen Namen einzugeben. Daher stellt die Auswertung des User-Agents keine zuverlässige Methode dar, den Client sicher zu identifizieren.
Google kennt beim Cloaking keine Gnade
Denn auch Crawler „fälschen“ ihre Kennung und geben vor, zum Beispiel ein normaler Browser zu sein. Dieses Problem lässt sich teilweise mit den sogenannten IP-Cloaking umgehen. Hierbei wird nicht nur die Kennung, sondern auch noch die IP-Adresse ausgewertet.
Diese IP-Adressen müssen dann mit einer Liste aktueller Adressen von Suchmaschinen-Robots abgeglichen werden. Aber auch diese Variante hat ihre Tücken. So gehen die Crawler immer mehr dazu über, mit IP-Adressen von ganz gewöhnlichen Einwahlprovidern zu arbeiten.
Von der Methode des Cloaking ist auf jeden Fall abzuraten. Die damit verbundenen Vorteile im Google-Ranking stehen im keinen Verhältnis zu den möglichen Konsequenzen. Google reagiert sehr konsequent und hart auf diese Betrugsform. In der Regel hat Cloaking einen sofortigen Ausschluss aus dem Index zur Folge.
Wer dennoch mit Cloaking experimentieren will, dem sei die Software von www.kloakit.com ans Herz gelegt. Sollten Ihnen im Internet jedoch kostenlos Cloaking-Scripte angeboten werden, seien Sie vorsichtig. Häufig funktionieren diese zwar, können aber auch den Server für die Programmierer des Scripts öffnen.
Logfile-Spam
Beim Logfile-Spam, auch Referrer-Spam genannt, werden Webseiten aufgerufen, damit die zu pushende Seite in den Referrer-Informationen der Statistiken der angeklickten Internetseite auftauchen.
Im Internet gibt es viele Homepage-Betreiber, die Ihre Webstatistik jedem frei zugänglich machen. Diese Statistiken geben an, wie viele Seiten aufgerufen wurden, wie viele Besucher kamen und – für Google-Optimierer besonders interessant – woher die Besucher kamen. Die Information, woher der Besucher kam, wird in der Webstatistik als echter Link ausgegeben. Wenn diese Statistik öffentlich ist, wird sie auch von Suchmaschinen gelesen, und der so erzeugte Link stärkt die Relevanz der verlinkten Seite.
Um das zu realisieren, bauen die Spammer im einfachsten Fall einen Link zu einem Webauftritt mit einer öffentlichen Webstatistik auf ihrer eigenen Webseite ein. Wird dieser Link nun geklickt, erscheint in der Webstatistik der angeklickten Webseite die Adresse von der Seite der Google-Optimierer. Was nur die wenigsten wissen: Google wertet die Webstatistik aus und die Google-Optimierer erzeugen auf diese Art relativ einfach einen Backlink.
Wie Sie sich vor Logfile-Spam schützen können
Selbstverständlich gibt es wesentlich elegantere Methoden. So können sich Spider als eine zu pushenden Seite tarnen und künstliche Zugriffe auf Seiten mit einem guten Ranking generieren. Hierdurch gelangt der Link in die Webstatistik und wird, insofern diese öffentlich ist, zu einem wertvollen Backlink.
Eine relativ einfache Möglichkeit, die eigene Webpräsenz vor Logfile-Spam zu schützen, wäre der Einsatz des rel="nofollow"-Attributes, was dazu führt, dass derartige Verweise nicht zur Berechnung des PageRanks herangezogen werden.
Eine weitere Möglichkeit, dem Referrer-Spam Einhalt zu gebieten, wäre eine Liste mit typischen Spammer-Keywords wie Casino, Poker und so weiter mittels RewriteCond in einer .htaccess Datei, die den Status 403 (Zugriff Verboten) sendet, wenn ein Spammer-Keyword in einem Referrer auftaucht.
Das größte Problem bei dieser Methode ist, dass man die Bad-Word-List manuell pflegen muss. Ein zusätzlicher Lösungsansatz wäre, mit einer webbasierten Skriptsprache die Referrer zu verzeichnen und auszuwerten, wie oft Referrer innerhalb einer gewissen Zeit vorkommen. Der Refferer wird dann automatisch in die .htaccess eingetragen und mittels eines Cronjobs die Logdatei bereinigt, sollte der Zugriff von einer bestimmten Seite das vorgegebene Maß überschreiten.
Site-Hacking
Site-Hacking kommt in den letzten Jahren immer häufiger vor. Dabei verschafft sich der Black-Hat-SEO Zugriff auf den Server oder das Content-Management-System (CMS) einer Seite und versteckt dort unauffällig Links, die auf die eigene Seite verweisen.
Besonders bei CMS gibt es einige Schwachstellen, die versierten Angreifern Tür und Tor öffnen. Und ist einmal solch ein Link auf der eigenen Seite untergebracht, bleibt er meist jahrelang völlig unbemerkt oder wird niemals entdeckt. Sollte der Link dennoch entdeckt werden, lässt es sich meist nicht mehr nachvollziehen, wer ihn wann implementiert hat. Das macht diese Methode für den SEO-Hacker besonders attraktiv. Die Gefahr, dass der Betrug auffällt, ist minimal.
Um sich gegen solche Angriffe schützen zu können, sollte der Webmaster unbedingt darauf achten, sein System immer auf dem aktuellen Stand zu halten und regelmäßig Updates einzuspielen. Besonders beliebte Opfer solcher Angriffe sind Seiten, auf denen niemand mit einem Hacking-Angriff rechnet wie gemeinnützige Organisationen und Institutionen.
Spammer melden
Google hasst Spam – verständlicherweise. Spam spült potenziell minderwertige Seiten an die Spitze. Das will die Suchmaschine unter allen Umständen vermeiden, verschlechtert es doch die Qualität deutlich und schadet damit dem Ruf.
Erkennt Google einen Betrugsversuch, wird in der Regel erst abgemahnt. Reagiert der Webmaster nicht umgehend auf diese Warnung, nimmt Google die Seite blitzschnell aus dem Index. Das sollten sich ehrliche Seitenbetreiber zunutze machen. Denn schließlich verschlechtert sich durch die zwielichtigen Machenschaften der Spammer ihr eigenes Ranking. Zum Beispiel bei Online-Shops kann sich das direkt auf den Umsatz auswirken.
Alternative deutsche Suchmaschinen finden Sie in unserer Bildergalerie:
Als Seitenbetreiber hat man die Möglichkeit, Spam-Seiten bei Google zu melden. Allzu viel sollten Webmaster davon allerdings nicht erwarten – Google reagiert in der Regel nur in extremen Fällen, kleine Verstöße lässt man oft durchgehen. Dennoch: Google schaut sich die gemeldeten Seiten genau an und nutzt diese Informationen, um ihren Algorithmus zur Spam-Erkennung zu verbessern.
Um sicherzugehen, dass Sie sich an die Vorgaben halten, empfiehlt es sich, Googles Richtlinien für Webmaster intensiv zu lesen. Sollten Sie zusätzlich Hilfe gegen Spam benötigen, hilft www.Bot-Trap.de, eine ehrenamtliche Organisation gegen Web-Spam.
Wenn Sie mehr über Google-Optimierung erfahren wollen, lesen Sie auch unsere Artikel „Google-Optimierung: Fehler, Lügen, Mythen„ und „Google-Optimierung: Die Schmutzigen Tricks„.
Im nächsten Artikel zur Google-Optimierung erfahren Sie, mit welchen Tools die Profis arbeiten. (mst)