PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Spammer nerven, indem man ihre Harvester quält..



dun
17.07.03, 00:48
Hi,

wer Webmaster ist, und Lust hat, den Spammern ihre tägliche Arbeit etwas schwerer zu machen und sie zurückzuverfolgen (wenn sie dumm genug sind :D), sollte sich folgendes mal anschauen:

http://oditech.net/anti-spam/

Kennt ihr sicher schon, weils auf heise.de war, aber da eine Forumssuche nach "Harvester" und "Rehbein" nicht grad viel brachte, dachte ich mir, frisch ich das Thema mal auf.


Gruss,
dun

SCH4K4L
17.07.03, 14:09
Ich bin ja mal echt gespannt ob man sich jemals effektiv gegen Spam wehren
kann, bzw. es einen sinnvollen Schutz geben wird...

Würde es etwas bringen wenn man sich zusammentun würde um Harvester zu jagen und protokollieren??? So eine Art Sammelklage... :D

Spike05
17.07.03, 14:20
Original geschrieben von SCH4K4L
Ich bin ja mal echt gespannt ob man sich jemals effektiv gegen Spam wehren
kann, bzw. es einen sinnvollen Schutz geben wird...



Klar ist kein Thema! ;)

Hab mir mal einen Emailfilter eingerichtet der nur Emails von erlaubten Adressen annimmt! Schon bekommt man keine einzige Spammail mehr! Der Nachteil darin ist, das dir auch sonst keiner eine Email schicken kann! :D

cu

Jochen

SCH4K4L
17.07.03, 14:32
Genau, das ist das Problem!!! Wen man nicht "freischaltet" sieht man auch nicht...

Für mic ist das leider etwas "unpraktikabel" => Ebay und würde eigentlich lieber etwas direkt gegen die Spammer unternehmen...

Einzige Lösung wäre eine Blacklist für enthaltene Worte zu benutzen... - Dazu sollte ich mich aber ersteinmal für eine Distri entgültig entscheiden und auch behalten...

Im Moment gehts noch rauf und runter (seit ca. 3 Jahren) :-) und kann mích immer noch nicht festlegen! HILFEEE... Mittlerweile kenne ich: Suse, Debian, Mandrake und Redhat (Reihenfolge vom Start bis Heute)...

xare
17.07.03, 15:33
http://oditech.net/cgi-bin/members.cgi

Das Teil ist genial... Wenn jeder Webmaster dieses Skript einsetzt oder verlinkt, sind die harvester gleich nutzlos. Ich kann mir nicht vorstellen, dass die harvester die Verarsche so schnell erkennen und aus der Schleife rauskommen :)

MfG Xare

edit: Könnten wir nicht auf der Startseite von linuxforen.de einen klitzekleinen unsichtbaren solchen Link anbringen? :D Das würde sicher ne Menge harvester ins Leere laufen lassen...

Jinto
17.07.03, 16:21
So ein Skript schafft aber neue Probleme:
1. Suchmaschinen sind davon betroffen
2. der eigene Traffik steigt
3. IMO ist es schlecht, unschuldige dritte mit SPAM zu versorgen, nur weil existente bzw. mögliche Domainnamen verwendet werden.

xare
17.07.03, 16:46
zu 1.: Da gibts doch so files für die Suchmaschinen, wo man NO_FOLLOW reinschreibt, oder irre ich mich da? Wenn die Suchmaschine darauf nicht hören will, selber schuld, wenn der harvester das missachtet, Zweck erfüllt. :D

zu 2.: wenn jemand ein Forum hat, werden auch ständig Seiten generiert, ich glaube nicht, dass die Rechenzeit und der Traffic da so sehr ins Gewicht fällt. Außerdem hat das Skript eine Variable, in der man die zu wartende Sekundenzahl schreibt, bevor eine neue Seite erzeugt werden soll.

zu 3.: die Domainnamen kann man schon so wählen, dass kein unschuldiger Spam kriegt.

MfG Xare

dun
17.07.03, 17:05
zu 3.: die Domainnamen kann man schon so wählen, dass kein unschuldiger Spam kriegt.

Jau, ich hab in der Standardeinstellung von WPoison noch keine funktionierende Domain entdeckt, auch wenn manche ziemlich echt aussehen.

SCH4K4L
17.07.03, 21:41
Hey, das ist ja mal eine super Idee... Werde mir das ganze mal etwas genauer anschauen wenn ich am Wochenende Zeit habe!

Klingt aber vielversprechend!!!

HackThor
17.07.03, 22:00
Original geschrieben von xare
zu 1.: Da gibts doch so files für die Suchmaschinen, wo man NO_FOLLOW reinschreibt, oder irre ich mich da? Wenn die Suchmaschine darauf nicht hören will, selber schuld, wenn der harvester das missachtet, Zweck erfüllt. :D


Seite aufgerufen (Wpoison), Quelltext angesehen und das gefunden:


<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">

Eigentlich sollten dann auf diesen Seiten die Suchmaschinen nix interessantes finden (außer ein paar Müll-Links und Müll-Adressen). Die Harverster werden diesen Text aber sehr wahrschenilich ignorieren - denn sonst kämen sie ja nicht an eventuell lukrative Unterseiten ran (die im Suchmaschinen-Cache nix zu suchen haben - Kontakt-Emails z.B.)

Also mir gefällt die Idee :)

ciao

Michael

Jinto
17.07.03, 22:07
1. suchmaschinen müssen sich nicht daran halten, die meisten tun es zwar zwingend ist es jedoch nicht.
2. Rechnenzeit und Traffik wird dann ins Gewicht fallen, wenn ein besonders dummer Sammelbot vorbeikommt. Die Rechnung wollte ich dann nicht bezahlen müssen.
3. (das ist übrigens mein Lieblingspunkt) setzt euch auf die gleiche soziale Schwelle wie die Spammer. Ihr verwendet adressen, bei denen nicht sichergestellt werden kann das es diese weder gibt noch jemals geben wird. Es gibt 2 Ausnahmen: example.com und die eigene Domain, aber die verwendet ihr ja anscheinend nicht. Vielleicht solltet ihr euch doch mal die Seite von Daniel Rehbein (www.daniel-rehbein.de) durchlesen, wenn ihr Ihn schon nennt. Im Gegensatz zu euch macht er es richtig und verpasst nicht noch einem unschuldigen dritten das Problem.

Spike05
17.07.03, 22:20
Original geschrieben von Jinto
Vielleicht solltet ihr euch doch mal die Seite von Daniel Rehbein (www.daniel-rehbein.de) durchlesen, wenn ihr Ihn schon nennt. Im Gegensatz zu euch macht er es richtig und verpasst nicht noch einem unschuldigen dritten das Problem.

Außerdem weißt er auch auf diejenigen in de.admin.net-abuse.mail hin, die seine Inhalte von seiner Homepage klauen! ;)

Das was auf der Seite steht die hier im Ursprungspost zu lesen ist, kann man auf Daniel Rehbein's Seite eigentlich auch nachlesen!

cu

Jochen

dun
17.07.03, 22:47
Hi,


3. (das ist übrigens mein Lieblingspunkt) setzt euch auf die gleiche soziale Schwelle wie die Spammer. Ihr verwendet adressen, bei denen nicht sichergestellt werden kann das es diese weder gibt noch jemals geben wird.
Naja. Dieses Argument (das nicht schlecht ist) kann man aber von zwei Seiten sehen.

1. sind die Domains, die Wpoison verwendet recht gut 'ge-random-t'. Schwer, eine zu finden, die es auch wirklich gibt.

2. zu "jemals geben wird": nunja, die Spammer/Harvester könnten ja auch genauso gut selbst zufällige Domains erstellen, anstatt den "Umweg" über Wpoison zu gehen.. Nur tun sie es nicht, weil wie gesagt der grösste Teil der Domains ungültig ist und somit ihre Mail-Datenbank verwässert, was zur Folge hat, dass sie sie nicht mehr so gewinnbringend verkaufen können. Sie müssten dann wohl eh mit nem Domainchecker drübergehen und die ungültigen rausfiltern. Wpoison verlängert diesen Prozess ein wenig ;)

Ich finde die Idee eigentlich gut.

Das mit der robots.txt:
nun, dafür ist sie doch da. Um Suchmaschinen/Bots anzuweisen, wie sie bei der Datensuche vorzugehen haben. Wer sich nicht daran hält, ist selbst schuld.

Das Trafficproblem ist wirklich eins, aber wenn man die Wartezeit im Script hoch einstellt, dürfte es eigentlich nicht allzusehr ins Gewicht fallen.



Das was auf der Seite steht die hier im Ursprungspost zu lesen ist, kann man auf Daniel Rehbein's Seite eigentlich auch nachlesen!
Naja, auf der Seite sind dazu ganz oben 4 Links, von denen einer auf Daniel's Seite verweist.
Das PHP-Script ist von einem heise.de-User, und auch als Quelle mit angegeben..

Gruss,
dun

Jinto
18.07.03, 10:19
Original geschrieben von dun
1. sind die Domains, die Wpoison verwendet recht gut 'ge-random-t'. Schwer, eine zu finden, die es auch wirklich gibt. Wenn es auch nur eine existente erzeugt find ich das schon katastrophal.

2. zu "jemals geben wird": nunja, die Spammer/Harvester könnten ja auch genauso gut selbst zufällige Domains erstellen, anstatt den "Umweg" über Wpoison zu gehen.Diese Programme gibt es bereits.

Nur tun sie es nicht, weil wie gesagt der grösste Teil der Domains ungültig ist und somit ihre Mail-Datenbank verwässert, was zur Folge hat, dass sie sie nicht mehr so gewinnbringend verkaufen können. Sie müssten dann wohl eh mit nem Domainchecker drübergehen und die ungültigen rausfiltern. Wpoison verlängert diesen Prozess ein wenig ;)Nicht so stark wie du vielleicht vermuten würdest, denn auch Harvester könnten ungültige Domänen filtern anhand der tld'sfiltern. Derzeit gibt es ja noch nicht so viele tld's.

Was zur Folge hat, dass wenn man gute(?) zufällig generierte Domänen erzeugen will, gültige tld's verwenden müsste. Das wiederum führt aber dazu das die Wahrscheinlichkeit existierende/zukünftig gültige Domänen zu verwenden steigt.


Das mit der robots.txt:
nun, dafür ist sie doch da. Um Suchmaschinen/Bots anzuweisen, wie sie bei der Datensuche vorzugehen haben. Wer sich nicht daran hält, ist selbst schuld.Wie gesagt, es gibt welche die ignorieren es absichtlich, manche unabsichtlich (auch Google hatte schon Fehler in seinen Robots). Wobei Suchmschinen dynamische Webseiten oft nicht bzw. nicht tief indizieren.

Das Trafficproblem ist wirklich eins, aber wenn man die Wartezeit im Script hoch einstellt, dürfte es eigentlich nicht allzusehr ins Gewicht fallen.Das Traffik Problem stellt für mich keins dar, da es nur denjenigen betrifft der solch ein Script einsetzt => selbst schuld ;)

Spike05
18.07.03, 10:21
Haben die Harvester eigentlich eine bestimmte Kennung mit der man sie identifizieren kann?

cu

Jochen

bernie
18.07.03, 10:36
Hi,
Original geschrieben von Spike05
Haben die Harvester eigentlich eine bestimmte Kennung mit der man sie identifizieren kann? Das habe ich mich auch schon gefragt, aber ich denke so dumm werden die Spammer nicht sein. Wenn ich das machen wollte würde ich ein ActiveX Plugin für den IE schreiben und ihn das machen lassen. Das Ergebniss in eine DB knallen und ein paar Algorithmen drüberjagen.

Ciao, Bernie

Jinto
18.07.03, 10:43
lässt sich anscheinend konfigurieren.

Spike05
18.07.03, 10:49
Original geschrieben von bernie
Hi, Das habe ich mich auch schon gefragt, aber ich denke so dumm werden die Spammer nicht sein.

Schade, sonst wäre es ja einfach die mit .htaccess auszusperren...

cu

Jochen

CaptainAlphabet
24.07.03, 16:28
Original geschrieben von Spike05
Klar ist kein Thema! ;)

Hab mir mal einen Emailfilter eingerichtet der nur Emails von erlaubten Adressen annimmt! Schon bekommt man keine einzige Spammail mehr! Der Nachteil darin ist, das dir auch sonst keiner eine Email schicken kann! :D

cu

Jochen
White List Anti Spam kann man auch bei X-Mail (http://www.x-mail.net) einschalten.