Das Internet ist bunt, schillernd und informativ. Doch es ist auch Feindesland, und erbarmungslos mit dem, der nicht hinter die Fassade schaut. Waren es vor Jahren noch zerstörerische Viren und spionierende Trojaner, die unbedarfte User um ihre Daten brachten, sind es heute Searchbots, Email-Adressen-Sammler und anderes nicht-destruktives Ungeziefer, das Webmastern das Leben schwer macht. Mit .htaccess oder robots.txt gibt es zwar Möglichkeiten, sich solche Plagegeister vom Hals bzw. der eigenen Web-Präsenz zu halten. Jedoch ist das eine (.htaccess) nicht ganz trivial zu bedienen und das andere (robots.txt) für manche Searchbots offenbar von eher bittenden als bindenden Charakter - sie ignorieren deren Einträge oft einfach. Hier bietet sich das mit PHP entwickelte Programm page.restrictor von bot-trap.de an.

Der Programmierer des Scriptes äussert sich zum Sinn seiner Arbeit, wie folgt:

" Ich war es ganz einfach leid, bei zig Domains staendig die .htaccess Dateien nachpflegen zu muessen. Ich wollte etwas was ich einmal in meine Seiten integriere und was sich dann selbststaendig immer wieder updated, die Aenderungen jedoch nur an einer Stelle einspeisen muessen. Dazu kam noch der Gedanke dass nicht alle es verstehen mit .htaccess umzugehen oder sogar teilweise keine erstellen duerfen.." Quelle

Das Programm in Betrieb zu nehmen ist relativ simpel. Es muss nur in den Root des eigenen Web-Projektes hochgeladen und danach per require_once(page.restrictor.php) an den Anfang einer vorhandenen index.php eingebunden werden. Das ist alles. Fortan wird jeder Besucher, der die index.php aufruft unbemerkt gegen eine im Script enthaltene Liste einschlägig bekannter Referrer, IP-Adressen bzw. -Bereiche. geprüft. Erfüllt ein Gast eines oder mehrere Kriterien dieser Liste, wird er mit einer roten Hinweis-Seite umgehend als unerwünscht verwiesen. Ein Log namens page.restrictor.log protokolliert jeden Vorgang.

Die Liste wird ständig aktualisiert. Auch eine manuelle Erweiterung ist möglich. Die Möglichkeit, dem Script händisch IP's zuzufügen, birgt allerdings die Gefahr des Missbrauchs. So erlaubt sie beispielsweise jedem beliebigen Boardmaster anhand seiner boardeigenen Online-Liste das Script zu füttern, etwa, um sich unbequeme Boardies vom Hals zu schaffen. Zwar würde eine solche Massnahme nur bis zum nächsten Internetverbindungs-Reset Wirkung zeigen. Auch gegen die Benutzung von wechselnden Proxys wäre sie machtlos. Aber das Script mit solchem Ziel einzusetzen, war von seinen Machern ja auch nicht so gedacht.

Gleichwohl machte die Freundin des Autors, whisper, bekannt für die Teilnahme an Plaudereien der harmlosen Art auf dem Skatsboard überraschend unangenehme Bekanntschaft mit diesem Script. Der entsprechende Thread dazu ist entweder verschwunden oder öffentlich nicht einsehbar. Für eine bestimmte Öffentlichkeit, um genau zu sein.

Alles in allem und so wie von den Machern gedacht, eingesetzt, ist es aber ein interessanter Ansatz, sich gegen die echten Webparasiten wirkungsvoll zur Wehr zu setzen. Auch bei uns läuft es nun nach einem mehrtägigen Testbetrieb dauerhaft und bis zur Stunde tadellos.

Noch ein Hinweis: das Projekt bot-trap.de und seine Block-Liste lebt natürlich von den Hinweisen anderer Webmaster. Neue IP(-Bereiche), Referrer, Spammer. Jeder, der das Programm einsetzt, sei hiermit auch von dieser Stelle gebeten, sich aktiv daran zu beteiligen.