symlink.ch
Wissen Vernetzt - deutsche News für die Welt
 
symlink.ch
FAQ
Mission
Über uns
Richtlinien

Moderation
Einstellungen
Story einsenden

Suchen & Index
Ruhmeshalle
Statistiken
Umfragen

Redaktion
Themen
Partner
Planet

XML | RDF | RSS
PDA | WAP | IRC
Symbar für Opera
Symbar für Mozilla

Freunde
Benutzergruppen
LUG Switzerland
LUG Vorarlberg
LUGen in DE
SIUG
CCCZH
Organisationen
Wilhelm Tux
FSF Europe
Events
LinuxDay Dornbirn
BBA Schweiz
CoSin in Bremgarten AG
VCFe in München
Menschen
maol
Flupp
Ventilator
dawn
gumbo
krümelmonster
XTaran
maradong
tuxedo

 
Site-Seeding: Wie Pr0n-Webmaster die Suchmaschinen füttern
Veröffentlicht durch XTaran am Dienstag 25. Februar, 14:23
Aus der Schwanzlängenvergleich-per-Google Abteilung
Internet phred schreibt "Auf den meisten von mir gehosteten Sites sperre ich die Webalizer-Logs für Unbefugte - ausser auf einer. Seit einiger Zeit stechen mir in meinen Apache Logfiles Zeilen [...] in die Augen:"

"Seit einiger Zeit stechen mir in meinen Apache Logfiles Zeilen wie diese in die Augen:

1.2.3.4 - - [25/Feb/2003:12:30:58] "GET http://sagi.net/logs/usage_200302.html HTTP/1.1" 200 14722 "http://www.dildoholes.com" "-"

Nachdem ich mal im #lugs-Channel nachgefragt hatte, kamen verschiedene Ideen auf. Die einen sahen darin einen Versuch, interne Netzwerke und unverlinkte Seiten ausfindig zu machen, andere sahen darin eine Möglichkeit, eine Site mit eindeutig pornografischem Inhalt in den Suchmaschinen höher werten zu lassen.

Die Idee ist ebenso einfach wie bestechend: Man sucht als Anbieter also google und Konsorten nach Sites ab, die ihre Log-Auswertungen offen lassen (also beispielsweise mit http://www.google.com/search?q=usage_200302.html und fängt dann an, auf diese Sites mit gefakten Referrern zuzugreifen. Beim nächsten Start von Webalizer stehen die Referrer dann drin, und beim nächsten Besuch von google besteht eine Site mehr, die auf die Pr0n-Site referenziert. Das Resultat (und die Erkenntnis, dass ich nicht der einzige bin) ist ernüchternd, wie ein weiterer Blick in google zeigt.

Bei aller Abneigung gegen Spammer und Pr0n-Anbieter: das find ich nun wirklich clever! Trotzdem: Ein Complaint an t-dialin.net geht heute noch raus."


Auch Gästebücher sind von sowas betroffen. Da werden einfach Blafasel-Tolle-Seite-Einträge gemacht und die relevante URL als Home-Page angegeben. Ich fische momentan im Schnitt zwei Gästebuch-Spams pro Woche aus meinem heraus und hab große Lust, es dicht zu machen.

MyPen von C-Channel auf Linux? | Druckausgabe | Zahnbürste mit USB  >

 

 
symlink.ch Login
Login:

Passwort:

extrahierte Links
  • Linux
  • http://www.google.com/search?q =usage_200302.html
  • google
  • phred
  • Mehr zu Internet
  • Auch von XTaran
  • Diese Diskussion wurde archiviert. Es können keine neuen Kommentare abgegeben werden.
    fab! fabfab! (Score:2)
    Von phred am Tuesday 25. February, 14:34 MEW (#1)
    (User #829 Info)
    Mift, den eigentlichen Urheber der Theorie hab ich vergessen zu nennen! Danke fab!
    Clever und schade (Score:1)
    Von Anonymer Feigling am Tuesday 25. February, 14:50 MEW (#2)
    Respekt für die Idee
    Trotzdem ist es eigentlich schade. Man muss im Endeffekt jegliche Interaktion von der Webseite entfernen oder mit login/passwort sichern. Das bringt das Web sicherlich nicht voran.
    via robots.txt kann man sich davon schützen (Score:3, Interessant)
    Von fab am Tuesday 25. February, 14:54 MEW (#3)
    (User #1085 Info)
    Durch den Eintrag von Disallow:/webalizer/ (bezw. das Verzeichnis wo die Web-Statistiken drin sind) im robots.txt im / des Webhosting lässt sich das Problem lösen, und so können die Statistiken trotzdem öffentlich zugänglich bleiben.

    Da sich die anständigen Suchmaschinen wie z.B.Google an das robots.txt halten, ist es für die Referrer-Spammer nicht mehr interessant diese Log-Statistik zu missbrauchen.

    bye
    Fabian

    Re:via robots.txt kann man sich davon schütze (Score:3, Tiefsinnig)
    Von bones am Tuesday 25. February, 15:03 MEW (#5)
    (User #481 Info) http://www.p-guhl.ch
    Stimmt. Aber dadurch geht halt wieder etwas Freundlichkeit und Vernetzung verloren. Websites mit ähnlich gelagerten Themen hatten über solche öffentlichen Logs eine Art "weiche links". Ich selbst habe einige meiner Websites schon via Suchmaschinen in solchen Logs gefunden und mich darüber gefreut.

    Die Menschen vernichten die Freiheit der anderen und wundern sich dann, dass ihre eigene Freiheit damit ebenfalls vernichtet wird.

    Grüsse vom Knochen
    Re:via robots.txt kann man sich davon schütze (Score:1)
    Von phred am Tuesday 25. February, 16:06 MEW (#7)
    (User #829 Info)
    Nur so als Info: http://www.robotstxt.org/wc/robots.html& lt;/a> verrät alles über robots.txt
    Zugang mit bestimmten Referrern sperren? (Score:2)
    Von bones am Tuesday 25. February, 14:56 MEW (#4)
    (User #481 Info) http://www.p-guhl.ch
    Muss man nächstens alle Referrer mit einer Blacklist vergleichen und alle Agents sperren, die von sowas kommen? Ich sehe schon ab, dass ein paar Irre irgendwann auf die Idee kommen, Serverbetreiber für die Inhalte in ihren Logfiles verantwortlich zu machen damit man sie verklagen kann.

    Die Entwickler von Webservern und Analysetools sollten sich Features überlegen, mit denen Logs und Auswertungen selektioniert werden können (so es die nicht schon gibt).

    Grüsse vom Knochen
    Re: Zugang mit bestimmten Referrern sperren? (Score:1)
    Von XTaran (symlink at deuxchevaux dot org) am Tuesday 25. February, 16:19 MEW (#8)
    (User #129 Info) http://abe.home.pages.de/
    Je nach Log-Analyser wird der Referer trotzdem auftauchen, denn im Log drinn isser so oder so, egal, ob da nacher ein 200 OK oder ein 403 Forbidden kommt.

    -- 
    Einer der Gnutella-Klone heißt Gnutoka, und ich frag mich, wann Gnusspli rauskommt...
    Re: Zugang mit bestimmten Referrern sperren? (Score:2)
    Von bones am Tuesday 25. February, 18:28 MEW (#12)
    (User #481 Info) http://www.p-guhl.ch
    Theoretisch kann man natürlich beim Webserver ansetzen oder den Filter gar als Proxy vor alles andere hängen. Aber gleich die Rohdaten zu beschneiden wird wohl nicht nötig sein - *so* irre sind nicht mal Politiker (von Einzelfällen vielleicht abgesehen).

    Um einen Log-Analyzer, der vor dem Veröffentlichen noch gewisse Dinge umsortieren kann, wäre ich aber schon froh. Die Logs in Rohform auf dem Webserver zugänglich zu machen ist doch wohl eh keine gute Idee.

    Grüsse vom Knochen
    :/ (Score:0)
    Von Anonymer Feigling am Tuesday 25. February, 15:41 MEW (#6)
    Toll. Aber methode ist ansich ganz clever.

    -LF
    an /. submitten! (Score:0)
    Von Anonymer Feigling am Tuesday 25. February, 16:45 MEW (#9)
    Cooler Bericht, von der Brisanz her sollte der es eigentlich auf Slashdot schaffen!!
    Re:an /. submitten! (Score:1)
    Von stw am Tuesday 25. February, 19:28 MEW (#13)
    (User #940 Info)
    Lies nach im Jargon File.
    Re:an /. submitten! (Score:1)
    Von stw am Tuesday 25. February, 19:29 MEW (#14)
    (User #940 Info)
    Ist tuxedo.org eigentlich down? Ich kann auf die Seiten von ESR nicht mehr zugreifen... da kommt nur Debian oder www.publicknowledge.org/
    Re: tuxedo.org / ESR (was: an /. submitten!) (Score:1)
    Von XTaran (symlink at deuxchevaux dot org) am Tuesday 25. February, 19:51 MEW (#15)
    (User #129 Info) http://abe.home.pages.de/
    Nein, ESR ist wohl nur ausgeflippt. Siehe diesen Kommentar von mir bei Symlink bzgl. Details. Auf Mails reagiert ESR nicht. So langsam könnte man eine eine eigene Story draus machen. Bei Slashdot hat's allerdings nicht für 'ne Story gereicht...

    Mirrors vom Jargon File gibt's unter anderen bei-ermel.de und auf hack.gr.

    -- 
    Einer der Gnutella-Klone heißt Gnutoka, und ich frag mich, wann Gnusspli rauskommt...
    Re: tuxedo.org / ESR (was: an /. submitten!) (Score:3, Informativ)
    Von thomas (thomas@beeblebrox.net) am Tuesday 25. February, 21:37 MEW (#16)
    (User #316 Info) http://www.beeblebrox.net

    Die neue URL seiner Homepage ist seinem Blog Armed and Dangerous zu entnehmen: http://www.catb.org/~esr/.

    Was das Ausflippen von ESR betrifft, so ist er bereits vor laaaaaanger Zeit übergeschnappt. Beste Beweise sind sein Blog, seine Reaktion auf 9/11 oder Geek with Guns: "Geeks and guns are a natural match. Open-source software is about getting freedom; personal firearms are about keeping it."


    --
    It's GNU/Linux dammit!
    auch schon anderswo beobachtet (Score:1)
    Von hedwig am Tuesday 25. February, 18:05 MEW (#11)
    (User #336 Info)
    Ich hab ähnliches in den letzten Monaten auch anderso schon gesehen ... und auch an Suchmaschinen denken müssen. Das Hauptproblem ist sicherlich, wenn man auf die Weise Links erzeugen kann, denn nur das macht es für die Verbesserung des rankings in Suchmaschinen interessant. Das sollte man offensichtlich beim Aufbau von Webseiten heutzutage generell beachten. Wenn irgendwas von außen Links erzeugen kann, ist Mißbrauch möglich und entsprechend ist dann eine Moderation notwendig. Also nix für einen Webanalyser und bei Gästebüchern etc. muß man halt von vorn herein den entsprechenden Aufwand einkalkulieren.

    Linux User Group Schweiz
    Durchsuche symlink.ch:  

    Never be led astray onto the path of virtue.
    trash.net

    Anfang | Story einsenden | ältere Features | alte Umfragen | FAQ | Autoren | Einstellungen