PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Große Dateien über Netz



tobip
22.12.03, 14:38
Hi leute,

habe ein großen Problem ...

möchte von meinen Suse 9.0 Server übernacht ein Backup auf einen 2. Suse 9.0 Rechner laufen lassen ...
cronjobs sind alle ok und laufen
So sieht mein Backupscript aus ...
mount -t smbfs -o username=toby,password=xxxx //backup/tobias /backup
tar -czv -X /backup/scripts/exclude -f /backup/full/$1.tar.gz /*
umount /backup


Problem ist weder NFS noch Samba lassen Dateigrößen über 2 GB zu ;( ... d.h. das backup wird gestartet und bricht dann ab sobald meine *.tar.gz datei 2 GB erreicht

gibts da eine Möglichkeit das zu aktivieren? oder gibs einen andern Deamon der das unterstützt?

lg

Toby

Kip
22.12.03, 14:50
Original geschrieben von tobip
Problem ist weder NFS noch Samba lassen Dateigrößen über 2 GB zu ;( ... d.h. das backup wird gestartet und bricht dann ab sobald meine *.tar.gz datei 2 GB erreicht


Ich glaube nicht das NFS oder Samba dein Problem sind - ich nehme an du speicherst das Backup auf einer FAT Partition, right? Da dürfte dein Problem liegen! (ich google aber grad nochmal um sicherzugehn) ... ansonsten nimm ftp - das sollte auf jeden fall gehn!

Und noch ein Tipp: Es ist für dein Netz viel besser wenn du das Backup erst lokal speicherst und dann auf den Server kopierst!
(und natürlich zwischen 2 linux servern kein samab nutzen ;))

Edit: Schau an was ich im Inet gefunden habe:



The reason is that NFS version 2 is not supported files over 2 GB. There is not a problem between UNIXes because NFS version 3 is used there. The user should not create files over 2 GB over NFS and should not access them also. In general user should not use files over 2 GB because there are many programs which does not support them.


mit anderen Worten: Am besten du splitest das Backup bei 1.9GB oder du benutzt NFS >= v3.0 ...

leon
22.12.03, 14:55
Also NFS ist aug auf keinen Fall das Problem. Ich würde sagen das der tar Befehl keine Dateien großer 2GB zulässt. Das selbe Problem habe ich nämlich auch.
An sonsten habe ich schon mit 9 GByte Dateien auf einem NFS gearbeitet.




Gruß Leon

tobip
22.12.03, 15:06
also erst das backup lokal speichern hatte ich bis vor kuzem immer gemacht nur leider geht mir dafür der speicherplatz aus ;(

tar sollte eigentlich schon mit dateien umgehen können, die größer als 2 GB sind, da es wenn ich lokal arbeite perfekt funktioniert ...

Dateisysteme sind auf Backupserver Reiser und auf meinem Server teils reiser teils ext 3! hier liegt die begrenzung also auch nicht!!

wenn ich die Freigabe mit NFS mounte und den einfachen befehl "ls" ausführe bekomme ich für alle dateien die größer sind als 2 GB "input/output error" alle anderen werden mir aufgelistet ... ?!

bei Samba gibts beim "ls" keinen fehler ... allerdings bricht er beim Backup trotzdem ab!!

;-(

Versionen:
Samba: Version 2.2.8a-SuSE
NFS: 2.2beta51

(beides versionen die bei Suse 9.0 mitgeliefert werden)

Kernel Fallback
22.12.03, 15:12
Hi,

also ich mach größere Backups zwischen Linux kisten mit rsync oder mit einer der hier beschriebenen Methoden:

http://www.cpqlinux.com/sshcopy.html

Grüße Markus

tobip
22.12.03, 15:31
mit den beschriebenen methoden auf http://www.cpqlinux.com/sshcopy.html muß man leider immer erst das backup lokal machen und dies dann verschieben ;( ...

mir fehlt dafür leider der speicherplatz ... ;-(

Kernel Fallback
23.12.03, 08:56
Mit dieser z.B. nicht:

( cd SOURCEDIR && tar cf - . ) | ssh target_address "(cd DESTDIR && tar xvpf - )"


damit wird das Verzeichnis quasi on-the-fly "ge-tar-ed", der Datenstrom per ssh kopiert und dann auf der anderen seinte wieder "ent-tar-ed".