PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : wget



24.09.00, 15:49
Hallo zusammen,
ich habe eine frage im bezug auf wget.
ich will ein paar html seiten vom nets runter mit deren bilder und links runterladen, und wie ich gehört habe, kann man die mit wget automatisch runterladen, wenn man auch die ein gibt (d.h. die unterverzeichnisse).
weiss jemand welchen parameter ich eingeben soll, da ich bis jetzt erfolglos war.

ich danke euch vorraus

eurer iyas

christophwth
24.09.00, 17:04
Hallo

für die Rekusion -r für die den Level -l
Für die Hilfe, wget --help

Bsp für Download : wget -rl3 irgent eine Adresse

verfolgt bis zu 3 Links.

Gruss
Christoph

06.10.00, 04:42
Guten Morgen!

Ich weiß nicht, ob es gut ist, an eine dermaßen ausreichend beantwortete Frage eine weitere anzuschließen oder ob ich nicht doch besser ein neues Thema hätte auswählen sollen, aber die Überschrift passt:

Gibt es eine Möglichkeit, eine Seite aus dem Internet alle 2 Wo upzudaten?

(ich hab da eine Fortbildungsseite, die grob alel 2 Wochen etwas Neues bringt, das ich mir gerne heruntersaugen würde, ohne dabei das Alte zu löschen!)

Danke

christophwth
06.10.00, 09:50
Hallo

mit wget und cron ließe sich so etwas bewerkstellingen.
D.h in der crontab den Abstand 2 Wochen einstellen. Näheres, man cron , http://www.pro-linux.de/t_system/crontab.html

In der crontab muß dann wget aufgerufen werden.
mit den entsprechenden Einstellungen damit auch alles übertragen wird was
für Dich von Nutzen sein könnte. Dafür mußt erstmal die Ungefähre Seiten struktur bekannt sein

Für die nötigen Einstellungen in wget, man wget, wget --help.

Für die Aktuallisierung bietet sich an die Inhalte in verschiedenen Verzeichnissen zu speichern (Skript im cron ).

Gruss
Christoph