Keine Frage – bloggen macht Spaß und der größte Teil derer, die sich am Blogleben beteiligen haben gutes im Sinn. Leider müssen wir aber auch mit Leuten leben, denen Regeln egal sind und die lieber über geklaute Inhalte oder spammig erschlichene Links für Beliebtheit ihrer eigenen Website und damit meist auch für hohe Werbeeinnahmen sorgen.
Grundsätzlich investiere ich in einzelne Fälle eher weniger Zeit, da solche Menschen es nicht Wert sind viel Zeit oder Nerven in sie zu investieren. Was mir aber immer gefällt sind allgemeine Lösungen gegen die Probleme an sich. Bzgl. Blogspam fahre ich hier seit geraumer Zeit sehr gut mit den Plugins „Math Comment Spam Protection“ und „Simple Trackback Validation„. Sie halten mich weitestegehend frei von manuellen Überprüfungen und sorgen dafür, dass Spam auf diesem Blog schlichtweg kein Thema mehr ist.
Will man aber dafür sorgen, dass Spammer oder eben auch Contentklauer erst gar nicht soweit kommen um ein Formular zu sehen oder die Inhalte mitnehmen zu können, muss man an anderer Stelle ansetzen. Es gilt die Bösewichte direkt auszusperren und ihnen den Zugriff auf die Website bzw. den Blog zu verwehren. Dafür gibt es zwei deutsche Produkte, die etwas unterschiedlich funktionieren, aber grundsätzlich beide des gleiche Ziel verfolgen. Sie heissen „Bot-Trap“ und „Spider-trap“, sind beide kostenlos vergfügbar und bedienen eine etwas unterschiedliche Zielgruppe
Spider-Trap
Spider-Trap entsammt der Feder von Thomas Zeithaml und ist in meiner Nachbarschaft enstanden ;) Thomas wohnt nur wenige Kilometer von hier entfert. Spider-Trap ist eine recht einfach funktionierende Falle für Webspider (Bots, Robots). Als Falle wird ein (unsichtbares oder sichtbares) Bild in die eigene Website eingebunden. Dieses Bild verlinkt auf ein Verzeichnis, dass per robots.txt als „verbotenes Verzeichnis“ markiert wurde. Brave Robots halten sich an dieses Verbot und verfolgen den Link nicht. Die meisten bösen Bots verzichten auf die Beachtung der robots.txt und werden somit mit ziemlich großer Sicherheit den Link verfolgen und damit in die Falle tappen. Die IP-Adresse wird gespeichert und via Direktzugriff auf die .htaccess-Datei gesperrt. Zukünftige Zugriffe von dieser IP werden also direkt geblockt und gelangen erst gar nicht mehr zum Blogscript selbst. Das spart natürlich gerade bei Trafficstarken Blogs jede Menge Serverlast.
Tritt versehentlich ein normaler User in die Falle (z.b. durch ein sichtbares Bild), kann er sich direkt durch die Eingabe eines Codes vom Captcha-Bild wieder entsperren. Wer mal sehen will, wie das aussieht kann eben freiwillig in die Falle treten: Link.
Das System ist recht simpel, das Script dazu auch. Mittlerweile gibt es auch ein paar Einstellungsmöglichkeiten und einen kleinen Adminbereich dafür. Die Installation und Konfiguration wurde somit noch einfacher. Den kostenfreien Download gibt’s auf der Seite von Spider Trap. Die Installation dauert maximal 10 Minuten und hat keine erkennbaren negativen Einflüsse.
Hinweis: Am besten das Standardverzeichnis von Spider-Trap umbenennen und entsprechend die Einträge in der .htaccess-Datei und in der Konfiguration (Admin) anpassen.
Bot Trap
Bot-Trap ist das zweite verfügbare System und ist meines Wissens noch etwas jünger als Spider-Trap. Bot-Trap funktioniert grundsätzlich etwas anders. Hier werden zwar auch Bösewichte anhand der IP-Adresse ausgesperrt, jedoch werden diese IP-Adressen bzw. teilweise ganze IP-Adressbereiche nicht vom eigenen Blog gesammelt sondern zentral gepflegt. Bei Bot-Trap arbeitete eine ganze Community gemeinssam dran diese „Sperrliste“ ständig auf dem laufenden zu halten. Leider läuft das nicht immer ganz so wie man sich die Sache vorstellt.
So waren während meiner Testphase z.B. die IP-Adresse von Rivva (kurzfristig behoben) und Blogscout (nach neuesten Erkentnissen nocht nicht behobe) in der Sperrliste vorhanden bzw. sind sie Teil eines IP-Adressraumes der gesperrt war (großzügige Sperrung einiger kompletter Class-C-Netze von Hetzner). Man mag es nun für sinnvoll halten oder nicht, dass großflächig gesperrt wird – das ist sicherlich ein Thema das endlos diskutiert werden kann und auch im Bot-Trap-Forum schon wurde. Rivva und Blogscout sind jedoch nur Beispiele für Fälle die in meinen Augen „False Positives“ waren, im Bot-Trap Forum nicht als solche gesehen wurden.
Für mich gehen beim Blog klar Leser und Dienste rund um die Bloggerei vor. Ich will nicht „die Guten“ aussperren nur um sicherzugehen, dass ich auch 100% der bösen ausgesperrt habe – das geht mir irgendwie gegen den Strich. Wenn ich soweit gehen würde, hätten die Spammer kontrolle darüber wer meinen Blog lesen darf und wer nicht und das ist für mich kein Weg.
Wer jedoch lieber etwas rabiater vorgeht oder so große, ernsthafte Probleme mit Spam und Contentklau hat, für den mag Bot-Trap der richtige Weg sein. Um das Script nutzen zu können bedarf es etwas mehr technischer Kenntnis als bei Spider-Trap. Außerdem ist dafür die Anmeldung und anschließende Vorstellung mit URL im Forum nötig. Man will so verhindern die Spammer in den eigenen Reihen zu haben – ob das wirkungsvoll ist, lassen wir mal dahin gestellt.
Nach dem lesen der letzten Zeilen habt ihr es Euch vermutlich schon gedacht: Spider-Trap ist für mich „the way to go“. Insgesamt eine solide Lösung, die sicherlich nicht jeden Übeltäter draußen halten kann, aber sie deckt mit minimalem Aufwand einen recht großen Teil ab und ist immer noch besser als nichts. Ich werde das ganze zum testen auf diesem Blog noch etwas laufen lassen und anschließend auch bei anderen Projekten einsetzen.
Schreibe einen Kommentar