PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Problem mit Terrabyte Fileserver



pc-geil
13.02.05, 23:28
Ich habe mir einen neuen Fileserver gebaut und zwar folgendermaßen:
6x160GB (Sp1406N) 1x 12GB mit nem 1800+.
Alles verkabelt und dann einfach SuSE 9.2 drauf, dachte ich mir.
Ich wollte auf die 12GB Festplatte SuSE installieren und dann mit den anderen 6 ein Raid 5 System aufbauen!
Diese Partition dann verschlüsseln mit Yast.
Nun ich habe alle Eingaben bei der Installation gemacht, doch leider hat die Installation bei der Partitionierung sich aufgehängt(mehrmals).
Also habe ich einfach die anderen erstmal ausgeschalten und dann installiert.
Mit dem guten Glauben das andere mach ich nach der Installation!
Nun bin ich schon bei der 3. Installation und noch immer kein Erfolg!
Sobald er mit partitionieren anfängt, rast durch das xterminal lauter Fehlermeldungen.
Habe mal hier ein paar logs angehängt!
Es bleibt einfach dann bei ca. 64% stehen.
Er greift aber definitiv nicht auf die Festplatten mehr zu, also abgestürzt!
Kann jemand mit den Fehlermeldungen da was anfangen?
Danke
Also es ist zwar hier die boot.log aber ab da kam auch alles in dem Terminal:
[<c03052a8>] schedule+0x488/0x530



Feb 13 22:25:10 linux kernel: md: Autodetecting RAID arrays.
Feb 13 22:25:10 linux kernel: md: autorun ...
Feb 13 22:25:10 linux kernel: md: ... autorun DONE.
Feb 13 22:25:10 linux kernel: raid5: automatically using best checksumming function: pIII_sse
Feb 13 22:25:10 linux kernel: pIII_sse : 1644.000 MB/sec
Feb 13 22:25:10 linux kernel: raid5: using function: pIII_sse (1644.000 MB/sec)
Feb 13 22:25:10 linux kernel: md: raid5 personality registered as nr 4
Feb 13 22:25:10 linux kernel: md: md0 stopped.
Feb 13 22:25:15 linux kernel: md: bind<hda1>
Feb 13 22:25:15 linux kernel: md: bind<hdb1>
Feb 13 22:25:15 linux kernel: md: bind<hdc1>
Feb 13 22:25:15 linux kernel: md: bind<hdd1>
Feb 13 22:25:15 linux kernel: md: bind<hdg1>
Feb 13 22:25:15 linux kernel: md: bind<hdh1>
Feb 13 22:25:15 linux kernel: raid5: device hdh1 operational as raid disk 5
Feb 13 22:25:15 linux kernel: raid5: device hdg1 operational as raid disk 4
Feb 13 22:25:15 linux kernel: raid5: device hdd1 operational as raid disk 3
Feb 13 22:25:15 linux kernel: raid5: device hdc1 operational as raid disk 2
Feb 13 22:25:15 linux kernel: raid5: device hdb1 operational as raid disk 1
Feb 13 22:25:15 linux kernel: raid5: device hda1 operational as raid disk 0
Feb 13 22:25:15 linux kernel: raid5: allocated 6283kB for md0
Feb 13 22:25:15 linux kernel: raid5: raid level 5 set md0 active with 6 out of 6 devices, algorithm 2
Feb 13 22:25:15 linux kernel: RAID5 conf printout:
Feb 13 22:25:15 linux kernel: --- rd:6 wd:6 fd:0
Feb 13 22:25:15 linux kernel: disk 0, o:1, dev:hda1
Feb 13 22:25:15 linux kernel: disk 1, o:1, dev:hdb1
Feb 13 22:25:15 linux kernel: disk 2, o:1, dev:hdc1
Feb 13 22:25:15 linux kernel: disk 3, o:1, dev:hdd1
Feb 13 22:25:15 linux kernel: disk 4, o:1, dev:hdg1
Feb 13 22:25:15 linux kernel: disk 5, o:1, dev:hdh1
Feb 13 22:25:15 linux kernel: md: syncing RAID array md0
Feb 13 22:25:15 linux kernel: md: minimum _guaranteed_ reconstruction speed: 1000 KB/sec/disc.
Feb 13 22:25:15 linux kernel: md: using maximum available idle IO bandwith (but not more than 200000 KB/sec) for reconstruction.
Feb 13 22:25:15 linux kernel: md: using 128k window, over a total of 156280192 blocks.
Feb 13 22:25:15 linux kernel: ReiserFS: md0: warning: sh-2021: reiserfs_fill_super: can not find reiserfs on md0
Feb 13 22:25:15 linux kernel: hdd: dma_intr: status=0x51 { DriveReady SeekComplete Error }
Feb 13 22:25:15 linux kernel: hdd: dma_intr: error=0x84 { DriveStatusError BadCRC }
Feb 13 22:25:15 linux kernel: ide: failed opcode was: unknown
Feb 13 22:25:15 linux kernel: hdd: dma_intr: status=0x51 { DriveReady SeekComplete Error }
Feb 13 22:25:15 linux kernel: hdd: dma_intr: error=0x84 { DriveStatusError BadCRC }
Feb 13 22:25:15 linux kernel: ide: failed opcode was: unknown
Feb 13 22:25:15 linux kernel: hdd: dma_intr: status=0x51 { DriveReady SeekComplete Error }
Feb 13 22:25:15 linux kernel: hdd: dma_intr: error=0x84 { DriveStatusError BadCRC }
Feb 13 22:25:15 linux kernel: ide: failed opcode was: unknown
Feb 13 22:25:16 linux kernel: hdd: dma_intr: status=0x51 { DriveReady SeekComplete Error }
Feb 13 22:25:16 linux kernel: hdd: dma_intr: error=0x84 { DriveStatusError BadCRC }
Feb 13 22:25:16 linux kernel: ide: failed opcode was: unknown
Feb 13 22:25:16 linux kernel: hdc: DMA disabled
Feb 13 22:25:16 linux kernel: bad: scheduling while atomic!
Feb 13 22:25:16 linux kernel: [<c03052a8>] schedule+0x488/0x530
Feb 13 22:25:16 linux kernel: [<c0305686>] schedule_timeout+0x56/0xb0
Feb 13 22:25:16 linux kernel: [<c0123d50>] process_timeout+0x0/0x10
Feb 13 22:25:16 linux kernel: [<c026cc84>] ide_pin_hwgroup+0x34/0x60
Feb 13 22:25:16 linux kernel: [<c026ee9c>] ide_set_xfer_rate+0xc/0x50
Feb 13 22:25:16 linux kernel: [<c026e66e>] check_dma_crc+0x2e/0x50
Feb 13 22:25:16 linux kernel: [<c026e74c>] do_reset1+0x4c/0x180
Feb 13 22:25:16 linux kernel: [<c0273458>] ide_dma_intr+0x78/0x80
Feb 13 22:25:16 linux kernel: [<c026d374>] ide_intr+0x94/0x100
Feb 13 22:25:16 linux kernel: [<c02733e0>] ide_dma_intr+0x0/0x80
Feb 13 22:25:16 linux kernel: [<c0108644>] handle_IRQ_event+0x34/0x60
Feb 13 22:25:16 linux kernel: [<c01088f2>] do_IRQ+0x82/0x120
Feb 13 22:25:16 linux kernel: [<c0106cd8>] common_interrupt+0x18/0x20
Feb 13 22:25:16 linux kernel: [<d1247389>] acpi_processor_idle+0xcf/0x1bc [processor]
Feb 13 22:25:16 linux kernel: [<c01040bc>] cpu_idle+0x1c/0x40
Feb 13 22:25:16 linux kernel: [<c03ce6bd>] start_kernel+0x16d/0x1d0
Feb 13 22:25:16 linux kernel: bad: scheduling while atomic!
Feb 13 22:25:16 linux kernel: [<c03052a8>] schedule+0x488/0x530
Feb 13 22:25:16 linux kernel: [<c0305686>] schedule_timeout+0x56/0xb0
Feb 13 22:25:16 linux kernel: [<c0123d50>] process_timeout+0x0/0x10
Feb 13 22:25:16 linux kernel: [<c026cc84>] ide_pin_hwgroup+0x34/0x60
Feb 13 22:25:16 linux kernel: [<c026ee9c>] ide_set_xfer_rate+0xc/0x50
Feb 13 22:25:16 linux kernel: [<c026e66e>] check_dma_crc+0x2e/0x50
Feb 13 22:25:16 linux kernel: [<c026e74c>] do_reset1+0x4c/0x180
Feb 13 22:25:16 linux kernel: [<c0273458>] ide_dma_intr+0x78/0x80
Feb 13 22:25:16 linux kernel: [<c026d374>] ide_intr+0x94/0x100
Feb 13 22:25:16 linux kernel: [<c02733e0>] ide_dma_intr+0x0/0x80
Feb 13 22:25:16 linux kernel: [<c0108644>] handle_IRQ_event+0x34/0x60
Feb 13 22:25:16 linux kernel: [<c01088f2>] do_IRQ+0x82/0x120
Feb 13 22:25:16 linux kernel: [<c0106cd8>] common_interrupt+0x18/0x20
Feb 13 22:25:16 linux kernel: [<d1247389>] acpi_processor_idle+0xcf/0x1bc [processor]
Feb 13 22:25:16 linux kernel: [<c01040bc>] cpu_idle+0x1c/0x40
Feb 13 22:25:16 linux kernel: [<c03ce6bd>] start_kernel+0x16d/0x1d0
Feb 13 22:25:16 linux kernel: bad: scheduling while atomic!
Feb 13 22:25:16 linux kernel: [<c03052a8>] schedule+0x488/0x530
Feb 13 22:25:16 linux kernel: [<c0305686>] schedule_timeout+0x56/0xb0
Feb 13 22:25:16 linux kernel: [<c0123d50>] process_timeout+0x0/0x10
Feb 13 22:25:16 linux kernel: [<c026cc84>] ide_pin_hwgroup+0x34/0x60
Feb 13 22:25:16 linux kernel: [<c026ee9c>] ide_set_xfer_rate+0xc/0x50
Feb 13 22:25:16 linux kernel: [<c026e66e>] check_dma_crc+0x2e/0x50
Feb 13 22:25:16 linux kernel: [<c026e74c>] do_reset1+0x4c/0x180
Feb 13 22:25:16 linux kernel: [<c0273458>] ide_dma_intr+0x78/0x80
Feb 13 22:25:16 linux kernel: [<c026d374>] ide_intr+0x94/0x100
Feb 13 22:25:16 linux kernel: [<c02733e0>] ide_dma_intr+0x0/0x80
Feb 13 22:25:16 linux kernel: [<c0108644>] handle_IRQ_event+0x34/0x60
Feb 13 22:25:16 linux kernel: [<c01088f2>] do_IRQ+0x82/0x120
Feb 13 22:25:16 linux kernel: [<c0106cd8>] common_interrupt+0x18/0x20
Feb 13 22:25:16 linux kernel: [<d1247389>] acpi_processor_idle+0xcf/0x1bc [processor]
Feb 13 22:25:16 linux kernel: [<c01040bc>] cpu_idle+0x1c/0x40
Feb 13 22:25:16 linux kernel: [<c03ce6bd>] start_kernel+0x16d/0x1d0

Thallez
14.02.05, 01:12
So wie das hier aussieht ist hdd defekt


dd: dma_intr: status=0x51 { DriveReady SeekComplete Error }
Feb 13 22:25:15 linux kernel: hdd: dma_intr: error=0x84 { DriveStatusError BadCRC }
Feb 13 22:25:15 linux kernel: ide: failed opcode was: unknown
Feb 13 22:25:15 linux kernel: hdd: dma_intr: status=0x51 { DriveReady SeekComplete Error }
Feb 13 22:25:15 linux kernel: hdd: dma_intr: error=0x84 { DriveStatusError BadCRC }
Feb 13 22:25:15 linux kernel: ide: failed opcode was: unknown
Feb 13 22:25:15 linux kernel: hdd: dma_intr: status=0x51 { DriveReady SeekComplete Error }
Feb 13 22:25:15 linux kernel: hdd: dma_intr: error=0x84 { DriveStatusError BadCRC }
Feb 13 22:25:15 linux kernel: ide: failed opcode was: unknown
Feb 13 22:25:16 linux kernel: hdd: dma_intr: status=0x51 { DriveReady SeekComplete Error }
Feb 13 22:25:16 linux kernel: hdd: dma_intr: error=0x84 { DriveStatusError BadCRC }

Aber bedenke bei deinen Vorhaben ein Software Raid geht stark auf die CPU und ist noch lange nicht so sicher wie ein native Hardware Raid aller 3ware.

Svenny
14.02.05, 01:32
Könnt auch nen Kaputtes/Falsches Kabel sein

basstscho
14.02.05, 09:09
Hallo zusammen,

ich bin ein freund von pc-geil, und habe gestern mit ihm an dem PC herumgebastelt. Wie kann ich überprüfen, ob eine Festplatte kaputt ist? Denn wenn wir von Knopixx booten, treten eigentlich keine Probleme auf, wir können die Platten auch formatieren. Kann es sein, dass Suse Probleme mit dem Raid-Controller hat? Oder leichter ist es wohl, die Platten irgendwie unter Suse auf die Funktionalität zu überprüfen. Kennt da jemand evt. ein Sinnvolles Tool? Kann das Problem sein, dass 4 Platten am IDE-Raid hängen und 2 am OnBoard-Raid? Also nicht alle an einem? Kann ich mir kaum vorstellen.

Grüße Johannes

basstscho
14.02.05, 09:10
bzw. sollen wir einfach mal HDD austauschen oder?

Grüße Johannes

Thallez
14.02.05, 14:38
Ich würde erstmal das Kabel tauschen und wenn der Fehler immnoch auftritt
DFT (http://www.hitachigst.com/hdd/support/download.htm)
drüberlaufen lassen gegebenfalls RAID Controller austauschen.

pc-geil
14.02.05, 15:50
Also danke für die ganzen Ideen aber leider bin ich noch keinen Schritt weiter gekommen!
Und nun ist das System auch platt und meine Ideen sind leer.
Das einzige was ich jetzt noch machen werde ist den Raidcontroller austauschen und dann hoffen.
Doch einen zweiten habe ich leider nicht und deshalb muss ich erstmal warten!
Kabel austauschen und Festplatte austauschen hat alles nix genützt!
Nun ich habe das Tool nicht ausprobiert!
Habe erstmal keinen Bock mehr! :mad:

Steffen

pixel
14.02.05, 16:54
Hi@all,

also dies Fehlermeldung hatte ich auch schon mal an einem meiner Home-Server als der DMA zu hoch eingestellt war. Und zwar nicht im Linux-System sondern im Controller BIOS. Der Controller und die Platten hätten eigentlich UDMA5 können müssen. Dies führt aber auch zu diesem Fehler. Als ich auf UDMA4 herunter gestellt habe war das Problem weg.
Vielleicht hilfts ja.

Viele Grüße
pixel