PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Backup auf ein Windows Rechner



pa-risc
06.11.04, 14:38
hallo,

es ist an der Zeit das ich mein Gentoo System komplett niedermach und neu aufsetzt. Nun hab ich alle Datein die ich noch benötige in ein Verzeichniss kopiert (ca. 20-30 GB). Wie sicher ich dieses Verzeichniss jetzt am besten auf die Win2k Maschine hier im Netzwerk ? Samba ist nicht vorhanden.

Ich hatt mir gedacht das alles in ein Tar archiv zu packen und via FTP herüberzukopieren. Aber bin mir nicht sicher ob diese methode nicht etwas riskant is. Also ne 20 - 30 GB große file via FTP zu übertragen und dazu noch nen tar Archiv.

besten dank im Vorraus
Felix

lx_bastler
06.11.04, 14:51
tar ist ein Klassiker, der seit Jahren zuverlässig funktioniert.

Auf Komprimierung würde ich verzichten, weil 20 GB komprimieren und dann wieder entpacken mit tar, das kann dauern. Sollte aber auch gehen.
Warum sollte es mit FTP Probleme geben bei einem 20 GB-File? Falls ja, dann stimmt die Vernetzung nicht.

20 GB über 100 Mb Ethernet, wie lange dauert das? Grob überschlagen:
20000 MB:12 MB/s -> so mit 2000 s kann man rechnen.
Es muss auf jeden Fall eine Datei sein, die da transferiert wird, ansonsten würde es ewig dauern.
Ich sag, 4000 s (für beide Richtungen) sind weniger als das Packen/Entpacken brauchen würde und daher die geignete Maßnahme, tar ohne Komprimierung.

pa-risc
06.11.04, 15:02
ok dann werd ich das so machen. Also ohne compression, ich hab mal die man pages gewälzt und bind dann zu den optionen -cvf gekommen. Taugt das was ?

besten dank im Vorraus,
Felix

aheinhold
06.11.04, 15:54
Hi,

tar cvf ist absolut OK.
FTP ist im Lokalen Netz schon in Ordnung. Da solltest du keine Probleme bekommen.

pa-risc
06.11.04, 16:59
hallo,

ich hab das grad eben durchlaufen lassen ( also tar -cvf ) .
1. ging das ewig
2. ist es abgebrochen :(


tar: Error exit delayed from previous errors

dummer fehler oder berechtigt ?

mfg
Felix

lx_bastler
06.11.04, 17:38
Platte voll?

Ach, das kann 1000 Gründe haben.
Normalerweise sollte tar es schaffen.

man braucht

tar -cf archivename.tar <ordnerwoalldiefilesstehen>

pa-risc
06.11.04, 18:11
ne die platte is ganz bestimmt nicht voll, ich lass es nochmal durchlaufen ohne verbose, wobei das ja wohl nicht der Grund sein dürfte.

mfg
Felix

Apropo
06.11.04, 18:25
Windows Platten können soviel ich weiß eh nur Dateien bis 4 GB verarbeiten oder irre ich mich da jetzt?

pa-risc
06.11.04, 18:34
ja aber die platte vom Win2k Rechner ist mit NTFS formatiert, dass verkraftet glaub ich mehr. Also ich hab mir jetzt mal via ,,du" befehl die größe des zu sichernden Verzeichniss anzeigen lassen. Es hat 48.8GB, also sprich knapp 50 GB. Is das zuviel für nen tar archiv ? oder gibts da keine Grenze

mfg
Felix

lx_bastler
06.11.04, 19:25
Da gibt's eigentlich keine erreichbaren Grenzen. Weder hüben noch drüben.

du 50 GB, du brauchst dann sicher 50 GB um das Tar-Archiv zu erzeugen, wenn nicht noch 20 in Reserve, also brauchst du 70 freie GB.
und zwar auf der Partition, auf der das Archiv entsteht.

gut, geht man davon aus, dass die vorhanden sind, dann könnte es sein, dass eine Datei in Gebrauch ist oder so was ähnliches

lx_bastler
06.11.04, 19:28
Wobei, es wäre interessant, wie man 50 GB an Nutzerdaten erreichen kann.

pa-risc
06.11.04, 19:38
also, auf der Partition sind noch 140GB frei, von dem her liegt hier wohl nicht der Fehler. Tar läuft jetzt sicher schon 2 Stunden und is immer noch nicht fertig.

Naja kommt drauf an wie man Nutzdaten definiert. Ich hab öfters was mit Audio Aufnahmen am Hut, und da fahren noch Waves rum die ich nicht löschen will. Dann meine Lieblings CDs, hab ich gerippt, Texte, Howtos ...

lx_bastler
06.11.04, 19:45
Guck einfach, wie groß das jetzt bereits teilweise erzeugte Archiv ist, dann kann man abschätzen, wie lange es noch dauert.

pa-risc
06.11.04, 19:47
musst eigentlich bald fertig sein, es ist 42.1GB. Das alte war nicht so groß, da wo TAR abgebrochen hat. Komische sache, hab es genau gleich gemacht nur bei TAR die verbose option weggelassen. Naja hoffen das jetzt nich noch was anderes dazukommt.

mfg
Felix

pa-risc
06.11.04, 20:03
verdammt 47.3 GB und wieder der gleiche fehler :mad:

naja für heut mach ich schluß und betrink mich mal, danke an alle !
und hoff mir kann jmd. heute/morgen helfen :confused:

mfg
Felix

aheinhold
07.11.04, 20:12
Hallo,

ich würde bei einer so großen Datenmenge das Archiv aufteilen. Dann dauerts nicht solange bis die Sicherung durch ist, und man kann evtl. den Fehler näher eingrenzen. Wenn dir auf dem Windows-Rechner irgendwas mit der 50GB-Datei passiert, ärgerst du dich wahrscheinlich zu Tode!