Archiv verlassen und diese Seite im Standarddesign anzeigen : wget
Hallo zusammen,
ich habe eine frage im bezug auf wget.
ich will ein paar html seiten vom nets runter mit deren bilder und links runterladen, und wie ich gehört habe, kann man die mit wget automatisch runterladen, wenn man auch die ein gibt (d.h. die unterverzeichnisse).
weiss jemand welchen parameter ich eingeben soll, da ich bis jetzt erfolglos war.
ich danke euch vorraus
eurer iyas
christophwth
24.09.00, 17:04
Hallo
für die Rekusion -r für die den Level -l
Für die Hilfe, wget --help
Bsp für Download : wget -rl3 irgent eine Adresse
verfolgt bis zu 3 Links.
Gruss
Christoph
Guten Morgen!
Ich weiß nicht, ob es gut ist, an eine dermaßen ausreichend beantwortete Frage eine weitere anzuschließen oder ob ich nicht doch besser ein neues Thema hätte auswählen sollen, aber die Überschrift passt:
Gibt es eine Möglichkeit, eine Seite aus dem Internet alle 2 Wo upzudaten?
(ich hab da eine Fortbildungsseite, die grob alel 2 Wochen etwas Neues bringt, das ich mir gerne heruntersaugen würde, ohne dabei das Alte zu löschen!)
Danke
christophwth
06.10.00, 09:50
Hallo
mit wget und cron ließe sich so etwas bewerkstellingen.
D.h in der crontab den Abstand 2 Wochen einstellen. Näheres, man cron , http://www.pro-linux.de/t_system/crontab.html
In der crontab muß dann wget aufgerufen werden.
mit den entsprechenden Einstellungen damit auch alles übertragen wird was
für Dich von Nutzen sein könnte. Dafür mußt erstmal die Ungefähre Seiten struktur bekannt sein
Für die nötigen Einstellungen in wget, man wget, wget --help.
Für die Aktuallisierung bietet sich an die Inhalte in verschiedenen Verzeichnissen zu speichern (Skript im cron ).
Gruss
Christoph
Powered by vBulletin® Version 4.2.5 Copyright ©2024 Adduco Digital e.K. und vBulletin Solutions, Inc. Alle Rechte vorbehalten.