PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Problem mit großem Download und quota



AdamP
20.05.04, 15:41
Hallo!

So sieht es aus:
Ich habe an unserer Universität einen Account, der allerdings durch eine quota beschränkt wird (~15mb).
Entweder kann ich die PCs in der Uni benutzen oder mich mittels ssh einloggen (RedHat 9 ist installiert).

Mein Problem:
Es gibt eine Webseite, die ich mittels "wget" speichern will, damit ich mir sie auch offline anschauen kann.
Diese Seite ist aber nur von authorisierten Rechnern, oder Unis aus NRW zugänglich.
Leider ist die gesamte Seite zu groß, um sie lokal auf meinem Uni-Account zu speichern (>30mb)

Hat jemand vielleicht eine Idee?
Wenn ich mich per ssh an dem Uni-Server einlogge und dort wget starte, wird es ja auf dem Uniserver gespeichert.
Kann ich es irgendwie "umbiegen", dass wget auf dem Uni-Server ausgeführt, aber die Dateien, bei mir auf dem Rechner zuhause gespeichert werden?
Oder ist es möglich, eine 100mb RamDisk anzulegen, die Seite dort zu speichern und anschließend mit "scp" auf meinem Privatrechner zu speichern?

Bin für jede Hilfe dankbar!

JDieskau
20.05.04, 16:08
Eine möglichkeit wäre eventuell auf deinem Rechner zu Hause kurz einen FTP Server einzurichten und dann per SSH die Seite mit dem Uni-Rechner auf den FTP Server zuladen. Inwieweit das jetzt geht kann ich dir nicht sagen - musste mal probieren das in ftp umzuleiten - sonst hätte ich jetzt auch keine Ahnung....