Anzeige:
Ergebnis 1 bis 7 von 7

Thema: Wget und bestimmte Dateien

  1. #1
    Registrierter Benutzer
    Registriert seit
    Mar 2001
    Ort
    Schladen
    Beiträge
    306

    Wget und bestimmte Dateien

    Hallo Forum,

    Mit Hilfe von wget möchte ich nur bestimmte Dateien aus einem Verzeichnis runterladen. Habt ihr eine Ahnung wie ich das machen kann? MIt der Option -r lade ich mir das ganze Verzeichnis runter, das ist aber zu viel. Und alle Dateien einzeln runterladen dauert zu lange. Die Dateien haben folgende Namensstruktur: name[zahl].endung, z.B. haus1.zip, haus2.zip, haus3.zip. etc.

    Wenn ihr mir weiterhelfen könntet, wäre ich euch dankbar !

    Gruß
    Marcus

  2. #2
    Registrierter Benutzer Avatar von Jorge
    Registriert seit
    Aug 2001
    Ort
    Erbach bei Ulm
    Beiträge
    3.330
    Aus der manpage zu wget:

    Code:
           -i file
           --input-file=file
               Read URLs from file, in which case no URLs need to be
               on the command line.  If there are URLs both on the
               command line and in an input file, those on the com_
               mand lines will be the first ones to be retrieved.
               The file need not be an HTML document (but no harm if
               it is)---it is enough if the URLs are just listed
               sequentially.
    
               However, if you specify --force-html, the document
               will be regarded as html.  In that case you may have
               problems with relative links, which you can solve
               either by adding "<base href="url">" to the documents
               or by specifying --base=url on the command line.

  3. #3
    Registrierter Benutzer
    Registriert seit
    Aug 2001
    Beiträge
    1.845
    für fortlaufend nummerierte Dateien:
    count=anzahl_der_durchnummerierten_dateien (vorsicht, wenn's mehrstellig wird musst es auf mehrere Anläufe machen oder mit eine psssende case-Anweisung einbauen Du die Stellen entsprechend anpassen/mit Nullen auffüllen)
    for i in `seq $count`; do wget adresse/haus"$i".zip; done

    --
    edit:
    vielleicht einfacher mit "for i in 1 2 3 4 5...10 11 usw"
    Geändert von melody lee (20.11.02 um 11:50 Uhr)
    Vor drei Minuten hörten wir Lärm und dachten, es wäre Luftalarm. Ich habe die Gasmaske, die ich immer bei mir trage, gegriffen. Aber dann sagte man mir, das sei die Musik von der Moschee.
    Julie Chen, Reporterin von CBS in Kuwait

  4. #4
    Tuxracer
    Registriert seit
    Apr 2002
    Ort
    Bärlin
    Beiträge
    159
    Habe dazu auch folgende Frage:

    Wie muss dieses Inputfile von der struktur her aussehen??
    Ich habe keine HTMLDatei sondern reiner ACII Text. Welche Trennzeichen benötigt wget um den nächsten Link zu erkennen???
    http://www.blah.de/ichbineinedatei.zip
    http://www.blah.de/ichbinaucheinedatei.zip

    funzte nicht. Semikolon Komma????
    Warum kommt einem dummes Zeug immer so gescheit vor während man es tut?

  5. #5
    Registrierter Benutzer Avatar von oenone
    Registriert seit
    Sep 2002
    Beiträge
    292
    das mit dem haus:

    wget http://www.xyz.de/haus{1,2,3,4,5,6,7,8,9,10,11,12,13}.zip

    das mit dem ichbineinedatei und ichbinaucheinedatei oder auch noch ichbinnocheinedatei:
    wget http://www.blah.de/ichbin{,auch,nocheine}einedatei.zip

    auf bald
    oenone
    Geändert von oenone (20.11.02 um 20:06 Uhr)

  6. #6
    Tuxracer
    Registriert seit
    Apr 2002
    Ort
    Bärlin
    Beiträge
    159

    Lightbulb

    Cool, das hilft schonmal weiter!

    Was ist aber nun wenn die Downloads von verschiedenen Domains laufen sollen und ich die Links per Fileoption übergeben will?

    Wie muss die Datei dann aussehen?
    Warum kommt einem dummes Zeug immer so gescheit vor während man es tut?

  7. #7
    Registrierter Benutzer
    Registriert seit
    Mar 2001
    Ort
    Schladen
    Beiträge
    306
    Danke! Mir habt ihr weiterhelfen können!

Lesezeichen

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •