Die Spam-Tricks der Black-Hat-SEOs

Google-Optimierung: Die verbotenen Spam-Methoden

05.08.2008 von Matthias Sternkopf
Web-Spam der Google-Optimierer ist die nächste große Bedrohung nach E-Mail-Spam. Noch dazu versprechen die Spam-Methoden einiger Google-Optimierer beeindruckende Ergebnisse. Aber Vorsicht: Dieser Web-Spam kann zum Ausschluss aus dem Google-Index führen.

Die meisten Menschen kennen Spam nur im Zusammenhang mit E-Mails. Doch es gibt auch Formen des Spams, der ausschließlich der Optimierung des Ranking in Google dient und möglichst viele Leute auf den eigenen Webauftritt locken soll. Spam ist alles, was nicht dem menschlichen Besucher nutzt, sondern ausschließlich der Verbesserung des Rankings dient.

Die hier aufgezählten Methoden sind eine kleine Auswahl der verbotenen Tricks der Google-Optimierer. Sollte Google den Betrug entdecken, folgt meist der sofortige Ausschluss aus den Suchergebnissen. Nur wenigen gelingt es danach, mit der gleichen Domain wieder in den Index aufgenommen zu werden.

Deswegen sollten folgende Tricks nie auf wichtigen Seiten angewendet werden. Wenn eine SEO-Agentur mit diesen Tricks arbeitet, sollten Sie sehr wachsam sein. TecChannel zeigt Ihnen, worauf Sie achten sollten.

Die am höchsten gerankten Webseiten (Stand Feb 2008) finden Sie in unserer Bildergalerie:

Bildergalerie: Die Top-10 Webseiten mit dem höchsten PageRank.
Auf Platz 1 befindet sich Google.com mit einem PR10 und unglaublichen 2.730.000 Backlinks.
www.firstgov.gov schiebt sich mit beachtlichen 1.370.000 Backlinks auf Platz 2.
Das Massachusetts Institute of Technology befindet sich mit 577.000 Backlinks auf dem dritten Platz.
Die NASA ist mit 341.000 Backlinks auf Platz 4 (man beachte Herrn Schwarzenegger unten im Bild).
Der Real-Player beweist seine Bedeutung mit einem beachtlichen 5 Platz und 302.000 Backlinks.
www.energy.gov/ auf Platz 6 (282.000 Backlinks)
Mit www.whitehouse.gov/ auf Platz 7 und 84.100 Backlinks befindet sich eine weitere staatliche US-amerikanische Seite in den Top 10.
www.macromedia.com mit 67200 Backlinks auf Platz 8...
und direkt dahinter die Hauptseite von Adobe auf Platz 9 mit gleichvielen Backlinks, nämlich 67.200.
Auf dem zehnten Platz schafft es das World Wide Web Consortium mit 32.700 Backlinks.

Einer der prominentesten Web-Spammer war Anfang 2006 BMW. Sie implementierten auf ihren Seiten eine vorgeschaltete Brückenseite mit automatischem Redirect. Es dauerte nur wenige Monate, bis Google den Betrug erkannte und www.bmw.de aus den Suchergebnissen strich. Wann solche Doorway-Pages dennoch Sinn ergeben, und welche Fehler Sie vermeiden sollten, erfahren Sie auf den nächsten Seiten.

Außerdem zeigt Ihnen TecChannel die grundlegende Funktionsweise von Cloaking, Logfile-Spam und Site-Hacking und wie Sie sich am besten gegen derartigen Web-Spam schützen. Auf der letzten Seite zeigt Ihnen TecChannel, wo Sie Informationen und Hilfe finden und wo Sie Web-Spam melden können.

Wenn Sie mehr über Google-Optimierung erfahren wollen, lesen Sie auch unsere Artikel „Google-Optimierung: Fehler, Lügen, Mythen„ und „Google-Optimierung: Die Schmutzigen Tricks„.

Doorway-Pages – Brückenseiten

Dass selbst große Firmen mit hohem Ansehen nicht vor zwielichtigen Methoden zurückschrecken, demonstrierte BMW eindrucksvoll im Herbst 2005. Um Ihre Seiten im Google-Ranking nach oben zu spülen, benutzten sie eine der bekanntesten Manipulationsmethoden für Suchmaschinen – die Doorway-Pages.

BMW erstellte unter www.bmw.de eine nur für Google optimierte Brückenseite. Wie diese Seite genau aussah, sehen Sie im Screenshot. Aber diese Seite bekamen nur User zu sehen, die ihr Javascript deaktiviert hatten. Alle anderen wurden automatisch und unbemerkt auf eine optisch aufpolierte Seite weitergeleitet. Einige Monate funktionierte dies von Google unbemerkt, und BMW schaffte es, bei vielen Keywords im Google-Ranking zu steigen.

Doorway-Page: Diese Seite brach dem Internetauftritt von BMW 2006 das Genick.

Um tatsächlich von einer illegalen Doorway-Page sprechen zu können, müssen folgende Kriterien erfüllt sein. Die vorgeschaltete Seite braucht eine hohe Keyword-Dichte mit speziellen, für Suchmaschinen relevanten Schlüsselwörtern. Des Weiteren dient die Seite ausschließlich als Brückenseite zur tatsächlichen Website. Wenn die Seite dann noch automatisch weiterleitet oder per Frame eingebunden ist, handelt es sich eindeutig um eine Doorway-Page, und der Seitenbetreiber kann davon ausgehen, von Google abgemahnt zu werden, wenn der Betrug auffällt.

Desaströse Konsequenzen

Besonders wichtig für eine Brückenseite ist ihre Gestaltung. Sie muss unbedingt die Kriterien der Suchmaschinen für ein optimales Ranking erfüllen – das Layout spielt dabei keine Rolle. Im Internet kursieren einige Tools, mit denen solche Brückenseiten automatisch zu Hunderten erstellt werden. Einige unseriöse SEO-Agenturen setzen diese Methoden ein, um dem Kunden eine Optimierung vorzugaukeln.

Brückenseiten sind nicht aus jeder Sicht abzulehnen, sondern sind in einigen Bereichen durchaus sinnvoll. Das gilt für Bildergalerien, Flash-Seiten und wenn das nachträgliche Optimieren einer Seite das Budget übersteigen sollte.

Allerdings sollten sich Google-Optimierer vor dem Einsatz solcher Methoden die enormen Risiken vor Augen halten: Nur wenige Monate nachdem BMW die Doorway-Pages erfolgreich auf seinen Seiten eingeführt hatte, nahm das Experiment Google-Spam ein jähes Ende. Google reagierte auf die vielen Spam-Reports von SEO-Experten und strich bmw.de aus seinem Index. Mittlerweile sind die Seiten zwar wieder gelistet, diesmal allerdings ohne die Doorway-Pages.

Wie Sie verdächtige Seiten melden können, erfahren Sie am Ende des Artikels.

Cloaking – Inhalte verschleiern

Mit Cloaking wird dem Google-Crawler eine andere Seite vorgegaukelt als tatsächlich vorhanden. Dieses Verschleiern der tatsächlichen Inhalte ist vergleichsweise einfach zu realisieren, wird aber von Google strikt verfolgt und hart bestraft.

Um den Google Webcrawler von einem echten Besucher unterscheiden zu können, muss der Black-Hat-SEO auf eine Kennung zurückgreifen. Diese Kennung, auch User-Agent genannt, ist der im http-Header übertragene Name eines Clients. Dies kann ein Browser sein, aber auch ein Suchmaschinen-Crawler.

Mozilla/4.0 (compatible; MSIE 6.0; Windows 98)
Opera/6.05 (Windows 98; U) [ru]
Googlebot/2.1 (+http://www.googlebot.com/bot.html)

Der erste Eintrag zeigt einen Besucher, der den Internet-Explorer benutzt. Die zweite Zeile zeigt einen Besucher, der mit dem Opera Browser surft. Die letzte Zeile zeigt die Kennung des Crawlers von Google.

User-Agent-Angaben können vom Client beliebig gewählt werden. Manche Browser bieten die Möglichkeit, aus mehreren voreingestellten User-Agent-Kennungen zu wählen, andere lassen dem Benutzer sogar die Möglichkeit, einen vollkommen beliebigen Namen einzugeben. Daher stellt die Auswertung des User-Agents keine zuverlässige Methode dar, den Client sicher zu identifizieren.

Google kennt beim Cloaking keine Gnade

Denn auch Crawler „fälschen“ ihre Kennung und geben vor, zum Beispiel ein normaler Browser zu sein. Dieses Problem lässt sich teilweise mit den sogenannten IP-Cloaking umgehen. Hierbei wird nicht nur die Kennung, sondern auch noch die IP-Adresse ausgewertet.

Diese IP-Adressen müssen dann mit einer Liste aktueller Adressen von Suchmaschinen-Robots abgeglichen werden. Aber auch diese Variante hat ihre Tücken. So gehen die Crawler immer mehr dazu über, mit IP-Adressen von ganz gewöhnlichen Einwahlprovidern zu arbeiten.

Von der Methode des Cloaking ist auf jeden Fall abzuraten. Die damit verbundenen Vorteile im Google-Ranking stehen im keinen Verhältnis zu den möglichen Konsequenzen. Google reagiert sehr konsequent und hart auf diese Betrugsform. In der Regel hat Cloaking einen sofortigen Ausschluss aus dem Index zur Folge.

Wer dennoch mit Cloaking experimentieren will, dem sei die Software von www.kloakit.com ans Herz gelegt. Sollten Ihnen im Internet jedoch kostenlos Cloaking-Scripte angeboten werden, seien Sie vorsichtig. Häufig funktionieren diese zwar, können aber auch den Server für die Programmierer des Scripts öffnen.

Logfile-Spam

Beim Logfile-Spam, auch Referrer-Spam genannt, werden Webseiten aufgerufen, damit die zu pushende Seite in den Referrer-Informationen der Statistiken der angeklickten Internetseite auftauchen.

Im Internet gibt es viele Homepage-Betreiber, die Ihre Webstatistik jedem frei zugänglich machen. Diese Statistiken geben an, wie viele Seiten aufgerufen wurden, wie viele Besucher kamen und – für Google-Optimierer besonders interessant – woher die Besucher kamen. Die Information, woher der Besucher kam, wird in der Webstatistik als echter Link ausgegeben. Wenn diese Statistik öffentlich ist, wird sie auch von Suchmaschinen gelesen, und der so erzeugte Link stärkt die Relevanz der verlinkten Seite.

Um das zu realisieren, bauen die Spammer im einfachsten Fall einen Link zu einem Webauftritt mit einer öffentlichen Webstatistik auf ihrer eigenen Webseite ein. Wird dieser Link nun geklickt, erscheint in der Webstatistik der angeklickten Webseite die Adresse von der Seite der Google-Optimierer. Was nur die wenigsten wissen: Google wertet die Webstatistik aus und die Google-Optimierer erzeugen auf diese Art relativ einfach einen Backlink.

Wie Sie sich vor Logfile-Spam schützen können

Selbstverständlich gibt es wesentlich elegantere Methoden. So können sich Spider als eine zu pushenden Seite tarnen und künstliche Zugriffe auf Seiten mit einem guten Ranking generieren. Hierdurch gelangt der Link in die Webstatistik und wird, insofern diese öffentlich ist, zu einem wertvollen Backlink.

Eine relativ einfache Möglichkeit, die eigene Webpräsenz vor Logfile-Spam zu schützen, wäre der Einsatz des rel="nofollow"-Attributes, was dazu führt, dass derartige Verweise nicht zur Berechnung des PageRanks herangezogen werden.

Eine weitere Möglichkeit, dem Referrer-Spam Einhalt zu gebieten, wäre eine Liste mit typischen Spammer-Keywords wie Casino, Poker und so weiter mittels RewriteCond in einer .htaccess Datei, die den Status 403 (Zugriff Verboten) sendet, wenn ein Spammer-Keyword in einem Referrer auftaucht.

Das größte Problem bei dieser Methode ist, dass man die Bad-Word-List manuell pflegen muss. Ein zusätzlicher Lösungsansatz wäre, mit einer webbasierten Skriptsprache die Referrer zu verzeichnen und auszuwerten, wie oft Referrer innerhalb einer gewissen Zeit vorkommen. Der Refferer wird dann automatisch in die .htaccess eingetragen und mittels eines Cronjobs die Logdatei bereinigt, sollte der Zugriff von einer bestimmten Seite das vorgegebene Maß überschreiten.

Site-Hacking

Site-Hacking kommt in den letzten Jahren immer häufiger vor. Dabei verschafft sich der Black-Hat-SEO Zugriff auf den Server oder das Content-Management-System (CMS) einer Seite und versteckt dort unauffällig Links, die auf die eigene Seite verweisen.

Besonders bei CMS gibt es einige Schwachstellen, die versierten Angreifern Tür und Tor öffnen. Und ist einmal solch ein Link auf der eigenen Seite untergebracht, bleibt er meist jahrelang völlig unbemerkt oder wird niemals entdeckt. Sollte der Link dennoch entdeckt werden, lässt es sich meist nicht mehr nachvollziehen, wer ihn wann implementiert hat. Das macht diese Methode für den SEO-Hacker besonders attraktiv. Die Gefahr, dass der Betrug auffällt, ist minimal.

Um sich gegen solche Angriffe schützen zu können, sollte der Webmaster unbedingt darauf achten, sein System immer auf dem aktuellen Stand zu halten und regelmäßig Updates einzuspielen. Besonders beliebte Opfer solcher Angriffe sind Seiten, auf denen niemand mit einem Hacking-Angriff rechnet wie gemeinnützige Organisationen und Institutionen.

Spammer melden

Google hasst Spam – verständlicherweise. Spam spült potenziell minderwertige Seiten an die Spitze. Das will die Suchmaschine unter allen Umständen vermeiden, verschlechtert es doch die Qualität deutlich und schadet damit dem Ruf.

Erkennt Google einen Betrugsversuch, wird in der Regel erst abgemahnt. Reagiert der Webmaster nicht umgehend auf diese Warnung, nimmt Google die Seite blitzschnell aus dem Index. Das sollten sich ehrliche Seitenbetreiber zunutze machen. Denn schließlich verschlechtert sich durch die zwielichtigen Machenschaften der Spammer ihr eigenes Ranking. Zum Beispiel bei Online-Shops kann sich das direkt auf den Umsatz auswirken.

Alternative deutsche Suchmaschinen finden Sie in unserer Bildergalerie:

Bildergalerie: Alternative deutsche Suchmaschinen.
Abacho - Bietet neben der allgemeinen Suche auch thematische Suchen mit speziell darauf zugeschnittenen Suchformularen.
Acoon - Deutschsprachige Suchmaschine mit Katalog.
Ask.com Deutschland - Deutschsprachige Version der Suchmaschine Ask. Die Daten umfassen Website-, Bilder-, Blog- und Produktsuche sowie Software Downloads.
DeutscheSeiten.de - Suchmaschine und Webkatalog mit einem Schwerpunkt auf deutschsprachige Seiten.
Exalead - Suchmaschine mit einem sehr umfangreichen Index.
fastbot - Suchmaschine mit der Möglichkeit, Ergebnisse anonym zu öffnen.
Fireball - Neben einer Volltextsuche im Internet werden ein nach Rubriken sortiertes Katalogverzeichnis, spezielle Zeitungs- und Produktsuchen sowie eine Bildersuche geboten.
Insitor - Datenbestand mit redaktioneller Überprüfung.
Live.com - Suchmaschine von Microsoft.
Lycos Suche - Mit der Suchfunktion des Portals findet man Bilder, PDF-Dokumente, Multimedia-Dateien und Lycos-Inhalte. Die Suchergebnisse lassen sich mit einem Familienfilter belegen und anhand verschiedener Optionen näher eingrenzen.
Meteora - Die Reise-Suchmaschine Meteora ist spezialisiert auf die Suche nach deutschsprachigen Seiten zum Thema Reisen in Europa.
netluchs.de - Suchmaschine für deutschsprachige Websites mit automatischer Cluster-Funktion.
Qualigo - Pay per Click Suchmaschine mit eigenem Index. Positionen werden auch bei anderen Deutschen Suchmaschinen eingeblendet.
Searchcode.de - Dieses Verzeichnis hat die Besonderheit für jede in der Datenbank befindliche Suchmaschine den entsprechenden Abfrage-HTML-Code bereit zu halten. Des Weiteren kann sich jeder User eine persönliche Übersichtsseite mit individuell ausgesuchten Such-Formularen erstellen.
Seekport - Deutsche Suchmaschine mit automatischer Zuordnung von Themengebieten.
Semager - Deutsche Suchmaschine mit semantischen Keywords.
Softlook - Suchergebnisse werden als zusätzlich als Screenshot angezeigt.
Spiderjack - SpiderJack ist eine Suchmaschine mit einem Webkatalog.
suchen.de - Suchen.de ist eine lokale Suchmaschine für Deutschland, die aus dem Auskunftsportal der Deutschen Telekom hervorgegangen ist.
Suchmaschinen.tv - Ergänzend zum dem thematisch und regional sortierten Suchmaschinenverzeichnis werden aktuelle Nachrichten aus dem Suchmaschinenbereich und ein Positions-Check angeboten.
UmkreisFinder - Die Suchmaschine bietet eine Volltext-Umkreissuche über deutsche Webseiten an. Auf Stadtportalen für alle deutschen Städte und Gemeinden wird eine Umkreissuche um den jeweiligen Ort angeboten.
Webrover - Suchmaschine mit eigenem Index und Volltextsuche.
Witch - Nebem einem Zugriff auf den deutschsprachigen Teil des ODP werden eine normale Suchfunktion und eine Bildersuche geboten.
Yahoo Suche - Die Suchmaschine bietet neben einer Volltextsuche die Suche nach Bildern, Videos, Nachrichten und Produkten, sowie eine Suche im Verzeichnis und nach lokalen Gesichtspunkten an.

Als Seitenbetreiber hat man die Möglichkeit, Spam-Seiten bei Google zu melden. Allzu viel sollten Webmaster davon allerdings nicht erwarten – Google reagiert in der Regel nur in extremen Fällen, kleine Verstöße lässt man oft durchgehen. Dennoch: Google schaut sich die gemeldeten Seiten genau an und nutzt diese Informationen, um ihren Algorithmus zur Spam-Erkennung zu verbessern.

Um sicherzugehen, dass Sie sich an die Vorgaben halten, empfiehlt es sich, Googles Richtlinien für Webmaster intensiv zu lesen. Sollten Sie zusätzlich Hilfe gegen Spam benötigen, hilft www.Bot-Trap.de, eine ehrenamtliche Organisation gegen Web-Spam.

Wenn Sie mehr über Google-Optimierung erfahren wollen, lesen Sie auch unsere Artikel „Google-Optimierung: Fehler, Lügen, Mythen„ und „Google-Optimierung: Die Schmutzigen Tricks„.

Im nächsten Artikel zur Google-Optimierung erfahren Sie, mit welchen Tools die Profis arbeiten. (mst)