Für alle die sich fragen: „Warum bekomme ich jeden Tag so viele Spam-Mails?“
Hier eine (von vielen) möglichen Antworten. Im Internet geistern unzählige bösartige Spiders (sogenannte Spambots) umher, die einzig und allein den Zweck haben auf Websites E-Mail-Adressen herauszufinden. Diese „Spambots“ suchen nach Verweisen mit dem Muster <a href=“mailto:email@domain.de“ um die gefundene E-Mail Adresse anschließend in Ihre Liste aufzunehmen.
mod_rewrite gibt uns auch Möglichkeiten an die Hand diese kleinen Plagegeister los zu werden.
RewriteEngine on
# Spambots nach User_agent aussperren
RewriteCond %{HTTP_USER_AGENT} ^.*Whacker.*$ [OR]
RewriteCond %{HTTP_USER_AGENT} ^EmailCollector [OR]
RewriteCond %{HTTP_USER_AGENT} ^EmailSiphon [OR]
RewriteCond %{HTTP_USER_AGENT} ^EmailWolf [OR]
RewriteCond %{HTTP_USER_AGENT} ^.*FileHound.*$ [OR]
RewriteCond %{HTTP_USER_AGENT} ^.*TurnitinBot.*$ [OR]
RewriteCond %{HTTP_USER_AGENT} ^.*JoBo.*$ [OR]
RewriteCond %{HTTP_USER_AGENT} ^.*adressendeutschland.*$
RewriteRule ^.* - [F]
Die oben aufgeführte Rewrite Anweisung bewirkt, das der USER_AGENT, also der Name des Spider-Programms vom Webserver abgefragt wird. Sollte der User-Agent lauten wie oben angegeben wird ein 403 (Forbidden) Fehler gesendet.
Den obigen Code habe ich direkt aus meinem .htaccess File kopiert, er schliesst einige Spambots aus. Umfangreiche Listen von Spambots -und IP’s- finden sich im Netz.
Übrigens: man kann die Spam-Roboter auch via robots.txt ausschließen. Es ist jedoch fraglich ob sich diese Spam-Gesellen an die robots.txt Vorschriften halten.
Selbstverständlich gibt es noch weitere Möglichkeiten um Spambots das Leben zu erschweren (z.B. E-Mail-Adressen per Javascript verschlüsseln oder als Bild anzeigen) wg. Themenfremdheit aber hier die mod_rewrite Methode.