PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Die maximale Dateigröße ist überschritten (ext3) *wunder*



elevator
15.08.03, 13:40
Moin,

eben mal wieder ein Backup mit wget auf nen anderen Rechner gezogen. Da sagt mir wget plötzlich "Die maximale Dateigröße ist überschritten" *wunder*

Die Backupdatei ist 3.3G gross, wget bringt oben stehenden Meldung bei 2.1G. (grössenangabe laut du -h)

Dateisystem ist ext3, Platz ist auf der Platte noch genug

[root@Backup root]# df -h
Dateisystem Größe Benut Verf Ben% Eingehängt auf
/dev/hda3 36G 17G 18G 48% /
/dev/hda1 91M 11M 76M 12% /boot
none 62M 0 62M 0% /dev/shm
[root@Backup root]#

Limits sind auch nicht gesetzt

[root@Backup root]# ulimit -a
core file size (blocks, -c) 0
data seg size (kbytes, -d) unlimited
file size (blocks, -f) unlimited
max locked memory (kbytes, -l) unlimited
max memory size (kbytes, -m) unlimited
open files (-n) 1024
pipe size (512 bytes, -p) 8
stack size (kbytes, -s) 8192
cpu time (seconds, -t) unlimited
max user processes (-u) 1023
virtual memory (kbytes, -v) unlimited
[root@Backup root]#

System ist ein Red Hat 8.0 mit Kernel 2.4.21. quotas sind nicht gesetzt.

Frage: Woher kommt das Limit? :confused: Auf ext3 hab ich schon grössere Dateien gehabt, und selbst ext2, wodrauf das Backup erstellt wurde, hat beim erstellen nicht gemeckert.

Gruß elevator

RapidMax
15.08.03, 14:03
Vieleicht liegt es an wget. Wenn dieses Intern nur mit 32Bit arbeitet, dann sind die 3.3GBytes zu viel.

Erstelle doch lokal eine entsprechend grosse Datei:
dd if=/dev/zero of=/tmp/GROOOSS.dat bs=1M count=3300

Gruss, Andy

Jasper
15.08.03, 14:28
Original geschrieben von RapidMax
Vieleicht liegt es an wget. Wenn dieses Intern nur mit 32Bit arbeitet, dann sind die 3.3GBytes zu viel.


yep.
wget ist nicht mit LARGE_FILE-support kompiliert, da ist bei 2GB schluss.

-j

elevator
15.08.03, 14:47
Liegt wohl in der Tat an wget. Danke für den Hinweis :)


Original geschrieben von Jasper
yep.
wget ist nicht mit LARGE_FILE-support kompiliert, da ist bei 2GB schluss.

-j

Das klingt für mich so das es möglich ist wget davon zu überzeugen mit Files > 2 gig klarzukommen. In ./configure --help konnte ich dazu nichts finden. Muss ich LARGE_FILE bei --enable-FEATURE setzten, oder gibt es einen Patch dafür?

Gruß & Danke
elevator

Jasper
15.08.03, 15:16
Original geschrieben von elevator

Das klingt für mich so das es möglich ist wget davon zu überzeugen mit Files > 2 gig klarzukommen. In ./configure --help konnte ich dazu nichts finden. Muss ich LARGE_FILE bei --enable-FEATURE setzten, oder gibt es einen Patch dafür?


den entsprechenden patch gibts unter: http://bugs.debian.org/137989

-j

elevator
15.08.03, 15:22
Danke Jasper :-)

Gruß elevator