Kleine Pannengeschichte der Filtertechnik

Zu Content-Filterlösungen lässt sich eine eigene Geschichte peinlicher Fehlleistungen schreiben. In den USA reagierten die ersten Filter beispielsweise auf das Wort "breast". Die Erwähnung der weiblichen Brust schien hinreichendes Indiz für pornographische Texte zu liefern. Ein Prominentes Opfer dieser allzu simplen Filtermethode wurden Sites und Diskussionsforen von Selbsthilfegruppen für Brustkrebs-Patientinnen.

Etwa zur gleichen Zeit – die USA propagierten den Filtereinsatz in öffentlichen Bibliotheken – erlebten Universitäten die Blockade nahezu aller lateinischer Texte im Web, da "cum" (lat. "mit") als Wort aus dem Pornojargon für das männliche Sperma gewertet wurde. Da parallel dazu in den selben Texten das Wort "sex" häufig auftauchte, fielen auch technische anspruchsvollere Filter auf die vermeintlichen Pornographie-Sites herein.

Andere Filter fanden in der typischen Journalistenphrase "who reports" und "who replies" das Wort "whore" ("Hure"). Die amerikanische Anti-Zensurorganisation Digital Freedom Network rief aufgrund dieser Fehlleistung im September 2000 zu einem Sammelwettbewerb der kuriosesten Filterfehlleistungen auf. (Anmerkung: Die Site wurde leider mittlerweile vom Netz genommen.)

Eine durchaus geschäftskritische Panne erlebte der renommierte Wirtschaftsdienst Bloomberg, der seine E-Mail-Kommunikation scannen ließ und Mails mit "nicht-akzeptablen Begriffen" als "unpassend" an die Absender zurückleitete. Broker und Makler, die mit Bloomberg zusammenarbeiteten, empfanden dieses Verfahren als Bevormundung. Außerdem blockte das System Nachrichten, die den Namen des Unternehmens "FAG Kugelfischer" enthielten. "Fag" ist ein amerikanisches Slang-Wort für "schwul".

Eine diskriminierende Nebenwirkung der Filtertechnik erleben Menschen, deren Name verdächtige Silben enthält. In Bayern zum Beispiel sind Namen wie "Fuckert" oder "Fuckinger" nicht selten – ihre Träger haben zuweilen erhebliche Probleme, über einzelne Mail-Systeme zu kommunizieren.

Bildmusterfilter, die pornographische Fotos anhand von Hauttönen und Formen erkennen sollen, sind ebenfalls fehlerträchtig. Sie lassen sich durch Kunst oder ungewöhnliche Portraits täuschen. Werden die gleichen Filter auf Symbole wie beispielsweise Hakenkreuze angesetzt, fallen Sie auch auf Schaltbilder und Fotos antiker Tempel herein. Abgewandelte Symbole wiederum, die ein Mensch sofort als Anspielung auf das Hakenkreuz erkennen kann, entgehen den Filtern. Harmlos ist dies nur dann, wenn der Sender und Empfänger zumindest erfahren, dass ein Filter eingegriffen hat und wie sie ihn zeitweise abschalten können.

Jene Filter, die mit redaktionell erarbeiteten Positiv- und Negativ-Listen arbeiten, werden in der Öffentlichkeit besonders häufig mit dem Schlagwort "Zensur" assoziiert. Neben Kategorien wie "Nacktheit", "Drogenverherrlichung" und "Gewalt" enthalten die Listen extrem interpretationsbedürftige Punkte wie "Intoleranz". Damit geraten die Hersteller zwischen die Fronten einander widersprechender Wertvorstellungen. Der verbreitete Filter "Cyber Patrol" etwa blendete vor einigen Jahren zunächst Seiten mit Informationen über Homosexualität aus und wurde deshalb von der "Gay and Lesbian Alliance Against Defamation" (GLAAD) angegriffen. Der Hersteller korrigierte daraufhin seine Haltung und nahm Mitglieder der GLAAD in seinen Beraterstab auf.

Wenig später sperrte Cyber Patrol Seiten der American Family Association (AFA) als "extremistisch" und "intolerant", weil ein Beitrag Homosexuelle diffamierte. Prompt griff nun die AFA Cyber Patrol an und beschuldigte das Unternehmen, gegen das Recht auf freie Meinungsäußerung vorzugehen.

Endgültig an die Grenzen seines Funktionsprinzips stieß Cyber Patrol angesichts der Website www.deja.com, die lange Zeit als beliebte Schnittstelle zu Newsgroups und Diskussionen im Web fungierte. Da über die Site auch Gespräche zu Themen erreichbar sind, die Filterkriterien des Produkts berühren, sperrte sie der Filter kurzerhand komplett. Firmen, die Deja als Standard-Zugang für technische Diskussionen im Internet benutzten, um separate Applikationen und Protokolle an ihren Terminals einzusparen, sahen sich daraufhin von einem wichtigen Werkzeug ausgeschlossen.

Eine vollständige Liste der Cyber-Patrol-Kriterien findet sich beispielsweise unter www.cyberpatrol.com/cybernot/criteria.htm.

Hacker haben in der Vergangenheit die Negativ-Listen einiger Filterprodukte entschlüsselt und dabei auch Seiten entdeckt, die unter keines der Software-internen Ausschluss-Kriterien fielen. Seitdem befürchten Journalisten, dass Filterhersteller ihre Marktmacht dazu nutzen könnten, unliebsame Kritiker an der Veröffentlichung ihrer Äußerungen zu hindern. Negativ vermerkt hat die Öffentlichkeit außerdem, dass einige Filteranbieter Unternehmen oder Organisationen nicht darüber unterrichten, dass sie in die Negativ-Listen aufgenommen wurden.

Ein letzter kritischer Aspekt liegt darin, dass die Anbieter von Filtern selbst oft rein technisch denken und den menschlichen Aufwand zur Korrektur von Fehlern unterschätzen, die ihre Systeme produzieren. Der deutsche Hersteller Cobion etwa kündigte Anfang September 2000 eine Software an, die selbständig das Internet nach pornographischen Bildern und Nazi-Symbolen durchsuchen und aus den Ergebnissen eine Negativ-Liste für Filtersysteme generieren soll. Wer diese Liste auf Fehleinschätzungen überprüfen sollte, war dem Unternehmen zu diesem Zeitpunkt noch nicht einmal klar. (jo)