Anzeige:
Seite 1 von 2 12 LetzteLetzte
Ergebnis 1 bis 15 von 18

Thema: Rechtliche Frage: Trafficerhöhung durch wget -> Konsequenzen?

  1. #1
    ... Avatar von drunkenPenguin
    Registriert seit
    Jan 2003
    Ort
    Hamsterdam
    Beiträge
    2.264

    Rechtliche Frage: Trafficerhöhung durch wget -> Konsequenzen?

    Hi,

    Etwas dämliche Frage, aber ich hatte gestern eine Diskussion mit einem Bekannten.
    Kann es Konsequenzen haben, wenn ich mit wget nen Server leersauge? Oder liegt es am Site-Betreiber so etwas zu verhindern?
    Wenn ja: Welche Konsequenzen? Weiß da jemand was?
    Wie verhindern die Admins unter Euch solche "wget-Attacken"?

    Gruß,
    Daniel

  2. #2
    Error kein Titel Avatar von Spike05
    Registriert seit
    Apr 2002
    Ort
    Neu-Ulm
    Beiträge
    4.345
    Ich denke da ist der Betreiber des Servers dafür verantwortlich das ein "leersaugen" nicht möglich ist.

    Ich verhindere soetwas z.B. durch folgenden Eintrag in der robots.txt

    # Wget
    User-agent: Wget
    Disallow: /

    Jetzt werden wieder einige kommen und sagen man kann den User-agent bei wget ändern. Ist aber halb so wild, den das kann man z.B. durch .htaccess verhindern.

    Es gibt aber bestimmt noch mehrere Möglichkeiten um dies zu verhindern.

    Gruß

    Jochen

  3. #3
    Premium Mitglied Avatar von Doh!
    Registriert seit
    Jul 2002
    Ort
    Frankfurt am Main
    Beiträge
    1.372
    Was ist denn gegen ein "Leersaugen" einzuwenden? Schließlich hat man die Daten ja für die Öffentlichkeit freigegeben. Und wenn man einfach nur nicht will, dass so viel Bandbreite draufgeht, dann begrenzt man halt pro Verbindung und lässt pro Client nur eine oder zwei Streams zu. Wo Problem?
    Es gibt nicht so viel Tag im Jahr wie der Fuchs am Schwanz hat Haar

  4. #4
    Shot a man in Reno Avatar von HEMIcuda
    Registriert seit
    Jun 2003
    Ort
    Am Rande des Wahnsinns
    Beiträge
    5.481
    Original geschrieben von Doh!
    [...]Wo Problem?
    In der volumenbasierten Abrechnung von manchen Providern.

    'cuda

  5. #5
    ... Avatar von drunkenPenguin
    Registriert seit
    Jan 2003
    Ort
    Hamsterdam
    Beiträge
    2.264
    Original geschrieben von Doh!
    Was ist denn gegen ein "Leersaugen" einzuwenden? Schließlich hat man die Daten ja für die Öffentlichkeit freigegeben. Und wenn man einfach nur nicht will, dass so viel Bandbreite draufgeht, dann begrenzt man halt pro Verbindung und lässt pro Client nur eine oder zwei Streams zu. Wo Problem?
    Das entspricht vollkommen meiner Meinung.
    Also ist die einzige Konsequenz, dass der Admin sich irgendwann mal wundert, weshalb der Traffic an einem Tag um 500 % gestiegen ist ... *, oder?
    * edit: ... und sich Gedanken macht, wie er so etwas in Zukunft unterbinden wird.

    Gruß,
    Daniel
    Geändert von drunkenPenguin (22.01.04 um 09:43 Uhr)

  6. #6
    Happy Hippo
    Registriert seit
    Aug 1999
    Ort
    904xx Nermberch
    Beiträge
    942
    Original geschrieben von Doh!
    Was ist denn gegen ein "Leersaugen" einzuwenden? Schließlich hat man die Daten ja für die Öffentlichkeit freigegeben. Und wenn man einfach nur nicht will, dass so viel Bandbreite draufgeht, dann begrenzt man halt pro Verbindung und lässt pro Client nur eine oder zwei Streams zu. Wo Problem?
    Genau das ist das Problem.Es hält sich keiner mehr and die Netiquette und jeder ist sich selbst der nächste.

    Was dagegen einzuwenden ist? Es werden viele Daten geladen, die derjenige so sich nie ansehen wird. D.h. es wird Geld in die Luft geblasen. Noch viel schlimmer sind die, die jeden Tag die komplette Website herunterladen weil es könnte sich ja eine Kleinigkeit geändert haben. Aber am allerschlimmsten ist die Offline-Funktion im IE. Weil der lädt die komplette Website Sekündlich. D.h. viele laden mit diesen Tools Information, die sie eigentlich nicht wirklich interessieren, diese "Haben"-Mentalität.

    Du redest von limitieren. Aber genau damit werden wieder die Falschen benachteiligt. Weil, der der sich korrekt verhält, wird hierbei mit limitiert. D.h. er kommt an die Information die er haben möchte nur zeitverzögert oder anders ausgedrückt er muß Zeit investieren. Dies ist in der Geschäftswelt untragbar. Denn eine Seite die ich besuche um Informationen zu erhalten, die aber schlecht erreichbar ist, werde ich nicht wieder besuchen. Auch wenn sie genau die Informationen bietet die ich bräuchte. D.h. man verliert Kunden. Warum? Nur wegen den "Saugern".

    Deshalb, habe ich z.B. bei meiner Firma inzwischen alle Offline-Reader gesperrt (einmal über die robots.txt und die widerspenstigen bekommen "Permission Denied"). Plötzlich haben wir nur noch ein Drittel des Trafics, heißt ein Drittel der Kosten und keiner hat sich beschwert.
    Homepage: www.pingu.info

  7. #7
    Kommunikator
    Registriert seit
    Apr 1999
    Ort
    Reutlingen
    Beiträge
    3.673

    Thumbs down

    Hallo,

    IP-Netze werden Traffic bzw. Bandbreitenorientiert abgerechnet.
    Traffic kostet immer Geld. Auch wenn manche Anbieter das nicht
    zugeben.

    Webseiten unterliegen urheberrechlichem Schutz.

    Die nicht sachgemässe Nutzung von Webseiten ist durchaus strafbar.

    Viele Grüße

    Eicke

  8. #8
    Gottesfreund
    Registriert seit
    Aug 2002
    Ort
    Wiesbaden
    Beiträge
    357
    Es gibt durchaus Gründe, sich eine Webseite komplett herunterzuladen. Beispielsweise gibt es Tutorialseiten, die man in Ruhe im Zug auf dem Laptop lesen möchte (oder im Urlaub, wo man evtl. keinen Anschluss hat). Oder generell auf dem heimischen Webserver für sich selber bereitstellt, um nicht immer on gehen zu müssen. Oder oder oder.
    An sich sehe ich daran nichts verwerfliches.

    Als Webseitenbetreiber könnte man hier z.B. eine gezippte Version der Dokumente anbieten und so den Traffic verringern (machen ja auch viele, z.B. SelfHTML).

    Blockadepolitik wie oben beschrieben (robots.txt,...) kann also durchaus auch den Falschen treffen.

  9. #9
    Raumschiff Edelweiss
    Registriert seit
    Sep 2003
    Beiträge
    186
    Original geschrieben von HEMIcuda
    In der volumenbasierten Abrechnung von manchen Providern.

    'cuda
    wenn man ne hp mit download section betreiben will dann richtig und nicht nur ein 1 eur paket mit 2 gb traffic kaufen.....

  10. #10
    Shot a man in Reno Avatar von HEMIcuda
    Registriert seit
    Jun 2003
    Ort
    Am Rande des Wahnsinns
    Beiträge
    5.481
    Original geschrieben von wenlock
    wenn man ne hp mit download section betreiben will dann richtig und nicht nur ein 1 eur paket mit 2 gb traffic kaufen.....
    Du hast den Rest des Threads auch gelesen?
    Wenn eine Firma eine T3-Leitung hat, glaubst Du, dass bei denen der Traffic
    nichts kostet? Was meinst Du, wieviel man fuer eine T3 ohne Volumenbegrenzung
    loehnen darf? Hat da jemand mal ein paar Zahlen zur Hand?
    Wie oben angesprochen: Traffic kostet Geld.

    'cuda

  11. #11
    Anoraknophobiker Avatar von Stanislaus
    Registriert seit
    Nov 2002
    Beiträge
    723
    Original geschrieben von GrafKoks
    Als Webseitenbetreiber könnte man hier z.B. eine gezippte Version der Dokumente anbieten und so den Traffic verringern (machen ja auch viele, z.B. SelfHTML).

    Blockadepolitik wie oben beschrieben (robots.txt,...) kann also durchaus auch den Falschen treffen.
    Stimme Dir im Prinzip voll und ganz zu. Nur, da die Leutchen ihre DSL-Flats eh nie ausnutzen und auf den eigenen Traffic ******en werden viele alleine schon aus Bequemlichkeit den Trafficverschwenderischen Weg gehen. Warum nicht einfach die ganze Seite hinziehen wo man sie haben will und gut ist?! Der Schritt über eine gepackte Version ist da einer zu viel und Dateien entpacken ist, wie jeder weiß, eine äußerst schweistreibende Angelegenheit

    Viele sind sich garantiert auch garnicht darüber im klaren, welche Auswirkungen ihr Surfverhalten hat.

    Schmarotzer gibt in allen Bereichen, und daß die, die das Angebot ernshaft benötigen/wahrnemen unter einer Schmarotzervertreibung leiden ist auch nix neues.

    Ich sachs ja immer; Menschen sind die schäbigsten Tiere

    Bis neulich ...

  12. #12
    Unregistierter Benutzer
    Registriert seit
    Aug 2003
    Beiträge
    158
    Ich persönlich verwende öfters wget,um grössere Dateien zu saugen.
    Es ist nicht gerade praktisch, wenn man jedes mal Wget einen anderen User-agent faken lassen zu müssen,damit es dann doch geht.Wget verwende ich,da auf dem Downloadserver (kleine stromsparende kiste) kein X läuft und ich den halt nur per SSH steuere.

    Ich wäre eher für eine traffic/IP begrenzung oder ähnliches.

  13. #13
    Gentoo User :)
    Registriert seit
    Aug 2002
    Ort
    Taunus
    Beiträge
    150
    Hallo,

    das sehe ich aehnlich, von einer Beschraenkung durch blockieren von wget halte ich gar nichts, es sind genau die Webmaster denen ich sofort eine ins Gesicht schlagen wuerde.
    Wenn ich jetzt nur die Moeglichkeit habe per wget an die Daten zu kommen, dann reg ich mich nur auf!

    Ich kann verstehen, dass das ausgenutzt werden kann, aber eine generelle Sperrung kann NIE die beste Loesung sein, es mag vielleicht die einfachste sein, aber man verursacht damit nur schlechte Stimmung, vor allem, wenn es so einfach zu umgehen ist.

    giftnudel

  14. #14
    ... Avatar von drunkenPenguin
    Registriert seit
    Jan 2003
    Ort
    Hamsterdam
    Beiträge
    2.264
    OK,

    Danke für die Antworten. Interessant, was es so für Meinungen gibt. Die einen vertreten die Meinung, dass der Betreiber gefälligst selber danach zu schauen hat, die anderen pochen auf die Netiquette.
    In der genannten Diskussion ging es um das Spiegeln eines "ungeschützten" Servers, bzw. um das Mirrorn von ca. 5 GB an Daten. Es muss dazugesagt werden, dass es öffentlich zugängliche Daten sind, die kopiert werden dürfen, aber nicht gegen Entgelt, und auch nicht auf anderen Servern bereitgestellt werden dürfen.
    Ich nenne jetzt nicht die Seite, sonst steigt der Traffic dort wohl noch exponentiell an Ist übrigens weder eine p0rn-Seite noch illegal. Ernsthaft.
    Allerdings bin auch ich der Meinung, dass der Betreiber seiner Sorgfaltspflicht nachkommen muss.
    BTW: Es soll auch Leute geben, die das, was sie sich runterladen, auch wirklich brauchen.

    Gruß,
    Daniel

  15. #15
    Unregistierter Benutzer
    Registriert seit
    Aug 2003
    Beiträge
    158
    Ja.
    Ich würde das eher so lösen:
    Pro IP und tag nur 3GB oder so,nach 1GB reduzierung der Bandbreite.
    Ein Mirror (auf nem Uni-server?) wäre ideal.

Lesezeichen

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •