PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Softwareraid-Profi gesucht!



cees18
16.04.04, 17:54
Hi,

ich weis zwar nich ob das das richtige Forum ist, aber:

ich hab daheim einen Fileserver mit 3 160GB-Platten. Auf dem Fileserver läuft SuSE 8.2, die 3 Platten sind mittels Raidtool zu einem Raid5 zusammengeschlossen.

Am Sonntag denke ich an nix böses, boote den Server und der fängt an das Raid neu zu berechnen weil angeblich eine Partition kaputt gegangen ist. Kann aber nicht sein, weil ich habe gar keine Spare-Disks, er hat also automatisch die selbe Partition die angeblich kaputt sein soll wieder verwendet. Da das neu berechnen ziemlich lange dauert mit 166MHz und 160GB habe ich den Server über Nacht durchlaufen lassen. Am Montagmorgen schaue ich auf den Server, nix geht mehr (Bildschirm aus, Tastatur reagiert nicht, über SSH bin ich auch nicht mehr hingekommen). :ugly: Habe dann den Rechner neu gebootet (reset) und, o schreck! die beiden 160GB-Platten am sekundären IDE-Controller sind weg (mit fdisk -l überprüft)! Rechner ausgeschaltet. Heute habe ich den Rechner dann wieder eingeschaltet, die Platten sind wieder da! :confused:
Soweit so gut. Nur das Raid geht nimmer und laut Boot-Meldung sind 2 Partitionen kaputt.

Nun die Frage: Die Partitionen sind mit Sicherheit nicht kaputt, die Daten sind noch drauf, aber vielleicht inkonsistent.

Kann mir irgendjemand sagen wie ich das Raid wieder zum laufen bringe? Die Daten sind mir sehr wichtig (meine gesammelten Programmierversuche, Websiten, Bilder, Bücher, usw.) und das letzte Backup ist schon lang lang her (dauert bei ca. 300GB halt ziemlich lang). :(

Anbei dmesg, fdisk, raidtab und mdstat:



=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=
linux:~ # fdisk -l

Disk /dev/hdc: 160.0 GB, 160041885696 bytes
255 heads, 63 sectors/track, 19457 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot Start End Blocks Id System
/dev/hdc1 1 19457 156288321 5 Extended
/dev/hdc5 1 19457 156288289+ fd Linux raid autodetect

Disk /dev/hdd: 160.0 GB, 160041885696 bytes
255 heads, 63 sectors/track, 19457 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot Start End Blocks Id System
/dev/hdd1 1 19457 156288321 5 Extended
/dev/hdd5 1 19457 156288289+ fd Linux raid autodetect

Disk /dev/hda: 13.0 GB, 13020069888 bytes
16 heads, 63 sectors/track, 25228 cylinders
Units = cylinders of 1008 * 512 = 516096 bytes

Device Boot Start End Blocks Id System
/dev/hda1 * 1 25 12568+ 83 Linux
/dev/hda2 26 2106 1048824 82 Linux swap
/dev/hda3 2107 25228 11653488 83 Linux

Disk /dev/hdb: 160.0 GB, 160041885696 bytes
255 heads, 63 sectors/track, 19457 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot Start End Blocks Id System
/dev/hdb1 1 19457 156288321 5 Extended
/dev/hdb5 1 19457 156288289+ fd Linux raid autodetect
=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=
linux:~ # cat /etc/raidtab
# RAID-5 array
raiddev /dev/md0
raid-level5
nr-raid-disks3
nr-spare-disks0
chunk-size32
parity-algorithmleft-symmetric
persistent-superblock1

device/dev/hdb5
raid-disk0

device/dev/hdd5
raid-disk1

device/dev/hdc5
raid-disk2
=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=
linux:~ # cat /etc/ proc/raidt mdstat
Personalities : [raid5]
read_ahead not set
unused devices: <none>
=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=

linux:~ # raidstart /dev/md0
linux:~ # cat /proc/mdstat
Personalities : [raid5]
read_ahead not set
unused devices: <none>
linux:~ #




=~=~=~=~=~=~=~=~=~=~=~= PuTTY log 2004.04.16 18:00:36 =~=~=~=~=~=~=~=~=~=~=~=
dmesg
ion 5.05c (2001-07-08) with HUB-6 MANY_PORTS MULTIPORT SHARE_IRQ SERIAL_PCI enabled
ttyS00 at 0x03f8 (irq = 4) is a 16550A
ttyS01 at 0x02f8 (irq = 3) is a 16550A
Real Time Clock Driver v1.10e
Floppy drive(s): fd0 is 1.44M, fd1 is 1.2M
FDC 0 is an 8272A
RAMDISK driver initialized: 16 RAM disks of 64000K size 1024 blocksize
loop: loaded (max 16 devices)
Uniform Multi-Platform E-IDE driver Revision: 7.00beta-2.4
ide: Assuming 33MHz system bus speed for PIO modes; override with idebus=xx
VP_IDE: IDE controller at PCI slot 00:07.1
VP_IDE: chipset revision 6
VP_IDE: not 100% native mode: will probe irqs later
ide: Assuming 33MHz system bus speed for PIO modes; override with idebus=xx
VP_IDE: VIA vt82c586a (rev 27) IDE UDMA33 controller on pci00:07.1
ide0: BM-DMA at 0x6000-0x6007, BIOS settings: hda:pio, hdb:pio
ide1: BM-DMA at 0x6008-0x600f, BIOS settings: hdc:pio, hdd:pio
hda: QUANTUM FIREBALL CX13.0A, ATA DISK drive
hdb: SAMSUNG SV1604N, ATA DISK drive
blk: queue c03ac0c0, I/O limit 4095Mb (mask 0xffffffff)
blk: queue c03ac214, I/O limit 4095Mb (mask 0xffffffff)
hdc: SAMSUNG SV1604N, ATA DISK drive
hdd: SAMSUNG SV1604N, ATA DISK drive
blk: queue c03ac540, I/O limit 4095Mb (mask 0xffffffff)
blk: queue c03ac694, I/O limit 4095Mb (mask 0xffffffff)
ide0 at 0x1f0-0x1f7,0x3f6 on irq 14
ide1 at 0x170-0x177,0x376 on irq 15
hda: attached ide-disk driver.
hda: host protected area => 1
hda: 25429824 sectors (13020 MB) w/418KiB Cache, CHS=12614/32/63, UDMA(33)
hdb: attached ide-disk driver.
hdb: host protected area => 1
hdb: 312581808 sectors (160042 MB) w/2048KiB Cache, CHS=19457/255/63, UDMA(33)
hdc: attached ide-disk driver.
hdc: host protected area => 1
hdc: 312581808 sectors (160042 MB) w/2048KiB Cache, CHS=19457/255/63, UDMA(33)
hdd: attached ide-disk driver.
hdd: host protected area => 1
hdd: 312581808 sectors (160042 MB) w/2048KiB Cache, CHS=19457/255/63, UDMA(33)
ide-floppy driver 0.99.newide
Partition check:
hda: hda1 hda2 hda3
hdb: hdb1 < hdb5 >
hdc: hdc1 <hdc: dma_intr: status=0x51 { DriveReady SeekComplete Error }
hdc: dma_intr: error=0x84 { DriveStatusError BadCRC }
hdc: dma_intr: status=0x51 { DriveReady SeekComplete Error }
hdc: dma_intr: error=0x84 { DriveStatusError BadCRC }
hdc: dma_intr: status=0x51 { DriveReady SeekComplete Error }
hdc: dma_intr: error=0x84 { DriveStatusError BadCRC }
hdc5 >
hdd: hdd1 < hdd5 >
ide-floppy driver 0.99.newide
SCSI subsystem driver Revision: 1.00
kmod: failed to exec /sbin/modprobe -s -k scsi_hostadapter, errno = 2
md: md driver 0.90.0 MAX_MD_DEVS=256, MD_SB_DISKS=27
md: Autodetecting RAID arrays.
[events: 000000ca]
[events: 000000c8]
[events: 000000c8]
md: autorun ...
md: considering hdd5 ...
md: adding hdd5 ...
md: adding hdc5 ...
md: adding hdb5 ...
md: created md0
md: bind<hdb5,1>
md: bind<hdc5,2>
md: bind<hdd5,3>
md: running: <hdd5><hdc5><hdb5>
md: hdd5's event counter: 000000c8
md: hdc5's event counter: 000000c8
md: hdb5's event counter: 000000ca
md: superblock update time inconsistency -- using the most recent one
md: freshest: hdb5
md: kicking non-fresh hdd5 from array!
md: unbind<hdd5,2>
md: export_rdev(hdd5)
md: kicking non-fresh hdc5 from array!
md: unbind<hdc5,1>
md: export_rdev(hdc5)
md0: removing former faulty hdd5!
md0: removing former faulty hdc5!
md: md0: raid array is not clean -- starting background reconstruction
kmod: failed to exec /sbin/modprobe -s -k md-personality-4, errno = 2
md: personality 4 is not loaded!
md :do_md_run() returned -22
md: md0 stopped.
md: unbind<hdb5,0>
md: export_rdev(hdb5)
md: ... autorun DONE.
NET4: Linux TCP/IP 1.0 for NET4.0
IP Protocols: ICMP, UDP, TCP, IGMP
IP: routing cache hash table of 512 buckets, 4Kbytes
TCP: Hash tables configured (established 8192 bind 16384)
Linux IP multicast router 0.06 plus PIM-SM
NET4: Unix domain sockets 1.0/SMP for Linux NET4.0.
RAMDISK: Compressed image found at block 0
Freeing initrd memory: 316k freed
VFS: Mounted root (ext2 filesystem).
hda: dma_intr: status=0x51 { DriveReady SeekComplete Error }
hda: dma_intr: error=0x84 { DriveStatusError BadCRC }
hda: dma_intr: status=0x51 { DriveReady SeekComplete Error }
hda: dma_intr: error=0x84 { DriveStatusError BadCRC }
VFS: Mounted root (ext2 filesystem) readonly.
Trying to move old root to /initrd ... failed
Unmounting old root
Trying to free ramdisk memory ... okay
Freeing unused kernel memory: 160k freed
hda: dma_intr: status=0x51 { DriveReady SeekComplete Error }
hda: dma_intr: error=0x84 { DriveStatusError BadCRC }
hda: dma_intr: status=0x51 { DriveReady SeekComplete Error }
hda: dma_intr: error=0x84 { DriveStatusError BadCRC }
hda: dma_intr: status=0x51 { DriveReady SeekComplete Error }
hda: dma_intr: error=0x84 { DriveStatusError BadCRC }
hda: dma_intr: status=0x51 { DriveReady SeekComplete Error }
hda: dma_intr: error=0x84 { DriveStatusError BadCRC }
blk: queue c03ac0c0, I/O limit 4095Mb (mask 0xffffffff)
hdb: DMA disabled
ide0: reset: success
[events: 000000ca]
[events: 000000c8]
[events: 000000c8]
md: autorun ...
md: considering hdc5 ...
md: adding hdc5 ...
md: adding hdd5 ...
md: adding hdb5 ...
md: created md0
md: bind<hdb5,1>
md: bind<hdd5,2>
md: bind<hdc5,3>
md: running: <hdc5><hdd5><hdb5>
md: hdc5's event counter: 000000c8
md: hdd5's event counter: 000000c8
md: hdb5's event counter: 000000ca
md: superblock update time inconsistency -- using the most recent one
md: freshest: hdb5
md: kicking non-fresh hdc5 from array!
md: unbind<hdc5,2>
md: export_rdev(hdc5)
md: kicking non-fresh hdd5 from array!
md: unbind<hdd5,1>
md: export_rdev(hdd5)
md0: removing former faulty hdd5!
md0: removing former faulty hdc5!
md: md0: raid array is not clean -- starting background reconstruction
raid5: measuring checksumming speed
8regs : 183.200 MB/sec
32regs : 130.400 MB/sec
pII_mmx : 254.800 MB/sec
p5_mmx : 310.000 MB/sec
raid5: using function: p5_mmx (310.000 MB/sec)
md: raid5 personality registered as nr 4
md0: max total readahead window set to 496k
md0: 2 data-disks, max readahead per data-disk: 248k
raid5: device hdb5 operational as raid disk 0
raid5: not enough operational devices for md0 (2/3 failed)
RAID5 conf printout:
--- rd:3 wd:1 fd:2
disk 0, s:0, o:1, n:0 rd:0 us:1 dev:hdb5
disk 1, s:0, o:0, n:1 rd:1 us:1 dev:[dev 00:00]
disk 2, s:0, o:0, n:2 rd:2 us:1 dev:[dev 00:00]
raid5: failed to run raid set md0
md: pers->run() failed ...
md :do_md_run() returned -22
md: md0 stopped.
md: unbind<hdb5,0>
md: export_rdev(hdb5)
md: ... autorun DONE.
md: Autodetecting RAID arrays.
[events: 000000c8]
[events: 000000c8]
[events: 000000ca]
md: could not import hdc5!
md: could not import hdd5!
md: could not import hdb5!
md: autorun ...
md: considering hdb5 ...
md: adding hdb5 ...
md: adding hdc5 ...
md: adding hdd5 ...
md: created md0
md: bind<hdd5,1>
md: bind<hdc5,2>
md: bind<hdb5,3>
md: running: <hdb5><hdc5><hdd5>
md: hdb5's event counter: 000000ca
md: hdc5's event counter: 000000c8
md: hdd5's event counter: 000000c8
md: superblock update time inconsistency -- using the most recent one
md: freshest: hdb5
md: kicking non-fresh hdc5 from array!
md: unbind<hdc5,2>
md: export_rdev(hdc5)
md: kicking non-fresh hdd5 from array!
md: unbind<hdd5,1>
md: export_rdev(hdd5)
md0: removing former faulty hdd5!
md0: removing former faulty hdc5!
md: md0: raid array is not clean -- starting background reconstruction
md0: max total readahead window set to 496k
md0: 2 data-disks, max readahead per data-disk: 248k
raid5: device hdb5 operational as raid disk 0
raid5: not enough operational devices for md0 (2/3 failed)
RAID5 conf printout:
--- rd:3 wd:1 fd:2
disk 0, s:0, o:1, n:0 rd:0 us:1 dev:hdb5
disk 1, s:0, o:0, n:1 rd:1 us:1 dev:[dev 00:00]
disk 2, s:0, o:0, n:2 rd:2 us:1 dev:[dev 00:00]
raid5: failed to run raid set md0
md: pers->run() failed ...
md :do_md_run() returned -22
md: md0 stopped.
md: unbind<hdb5,0>
md: export_rdev(hdb5)
md: ... autorun DONE.
LVM version 1.0.5+(mp-v6a)(22/07/2002) module loaded
hdc: dma_intr: status=0x51 { DriveReady SeekComplete Error }
hdc: dma_intr: error=0x84 { DriveStatusError BadCRC }
hdc: dma_intr: status=0x51 { DriveReady SeekComplete Error }
hdc: dma_intr: error=0x84 { DriveStatusError BadCRC }
hdc: dma_intr: status=0x51 { DriveReady SeekComplete Error }
hdc: dma_intr: error=0x84 { DriveStatusError BadCRC }
hdc: dma_intr: status=0x51 { DriveReady SeekComplete Error }
hdc: dma_intr: error=0x84 { DriveStatusError BadCRC }
blk: queue c03ac540, I/O limit 4095Mb (mask 0xffffffff)
hdd: DMA disabled
ide1: reset: success
Adding Swap: 1048816k swap-space (priority 42)
sh-2006: reiserfs read_super_block: bread failed (dev 09:00, block 8, size 1024)
sh-2006: reiserfs read_super_block: bread failed (dev 09:00, block 64, size 1024)
sh-2021: reiserfs_read_super: can not find reiserfs on md(9,0)
8139too Fast Ethernet driver 0.9.26
eth0: RealTek RTL8139 Fast Ethernet at 0xc688f000, 00:e0:7d:8e:58:fb, IRQ 11
eth0: Identified 8139 chip type 'RTL-8139B'
eth0: Setting 100mbps full-duplex based on auto-negotiated partner ability 45e1.
raw1394: /dev/raw1394 device initialized
isapnp: Scanning for PnP cards...
isapnp: No Plug & Play device found
IPv6 v0.8 for NET4.0
IPv6 over IPv4 tunneling driver
eth0: no IPv6 routers present
Non-volatile memory driver v1.2
parport0: PC-style at 0x378 [PCSPP,TRISTATE]
lp0: using parport0 (polling).
imm: Version 2.05 (for Linux 2.4.0)
ppa: Version 2.07 (for Linux 2.4.x)
WARNING - no ppa compatible devices found.
As of 31/Aug/1998 Iomega started shipping parallel
port ZIP drives with a different interface which is
supported by the imm (ZIP Plus) driver. If the
cable is marked with "AutoDetect", this is what has
happened.
lp0 off-line
end_request: I/O error, dev 02:00 (floppy), sector 0
end_request: I/O error, dev 02:00 (floppy), sector 0
end_request: I/O error, dev 02:01 (floppy), sector 0
md: Autodetecting RAID arrays.
[events: 000000c8]
[events: 000000c8]
[events: 000000ca]
md: autorun ...
md: considering hdb5 ...
md: adding hdb5 ...
md: adding hdd5 ...
md: adding hdc5 ...
md: created md0
md: bind<hdc5,1>
md: bind<hdd5,2>
md: bind<hdb5,3>
md: running: <hdb5><hdd5><hdc5>
md: hdb5's event counter: 000000ca
md: hdd5's event counter: 000000c8
md: hdc5's event counter: 000000c8
md: superblock update time inconsistency -- using the most recent one
md: freshest: hdb5
md: kicking non-fresh hdd5 from array!
md: unbind<hdd5,2>
md: export_rdev(hdd5)
md: kicking non-fresh hdc5 from array!
md: unbind<hdc5,1>
md: export_rdev(hdc5)
md0: removing former faulty hdd5!
md0: removing former faulty hdc5!
md: md0: raid array is not clean -- starting background reconstruction
md0: max total readahead window set to 496k
md0: 2 data-disks, max readahead per data-disk: 248k
raid5: device hdb5 operational as raid disk 0
raid5: not enough operational devices for md0 (2/3 failed)
RAID5 conf printout:
--- rd:3 wd:1 fd:2
disk 0, s:0, o:1, n:0 rd:0 us:1 dev:hdb5
disk 1, s:0, o:0, n:1 rd:1 us:1 dev:[dev 00:00]
disk 2, s:0, o:0, n:2 rd:2 us:1 dev:[dev 00:00]
raid5: failed to run raid set md0
md: pers->run() failed ...
md :do_md_run() returned -22
md: md0 stopped.
md: unbind<hdb5,0>
md: export_rdev(hdb5)
md: ... autorun DONE.
[events: 000000ca]
[events: 000000c8]
[events: 000000c8]
md: autorun ...
md: considering hdc5 ...
md: adding hdc5 ...
md: adding hdd5 ...
md: adding hdb5 ...
md: created md0
md: bind<hdb5,1>
md: bind<hdd5,2>
md: bind<hdc5,3>
md: running: <hdc5><hdd5><hdb5>
md: hdc5's event counter: 000000c8
md: hdd5's event counter: 000000c8
md: hdb5's event counter: 000000ca
md: superblock update time inconsistency -- using the most recent one
md: freshest: hdb5
md: kicking non-fresh hdc5 from array!
md: unbind<hdc5,2>
md: export_rdev(hdc5)
md: kicking non-fresh hdd5 from array!
md: unbind<hdd5,1>
md: export_rdev(hdd5)
md0: removing former faulty hdd5!
md0: removing former faulty hdc5!
md: md0: raid array is not clean -- starting background reconstruction
md0: max total readahead window set to 496k
md0: 2 data-disks, max readahead per data-disk: 248k
raid5: device hdb5 operational as raid disk 0
raid5: not enough operational devices for md0 (2/3 failed)
RAID5 conf printout:
--- rd:3 wd:1 fd:2
disk 0, s:0, o:1, n:0 rd:0 us:1 dev:hdb5
disk 1, s:0, o:0, n:1 rd:1 us:1 dev:[dev 00:00]
disk 2, s:0, o:0, n:2 rd:2 us:1 dev:[dev 00:00]
raid5: failed to run raid set md0
md: pers->run() failed ...
md :do_md_run() returned -22
md: md0 stopped.
md: unbind<hdb5,0>
md: export_rdev(hdb5)
md: ... autorun DONE.
[events: 000000ca]
[events: 000000c8]
[events: 000000c8]
md: autorun ...
md: considering hdc5 ...
md: adding hdc5 ...
md: adding hdd5 ...
md: adding hdb5 ...
md: created md0
md: bind<hdb5,1>
md: bind<hdd5,2>
md: bind<hdc5,3>
md: running: <hdc5><hdd5><hdb5>
md: hdc5's event counter: 000000c8
md: hdd5's event counter: 000000c8
md: hdb5's event counter: 000000ca
md: superblock update time inconsistency -- using the most recent one
md: freshest: hdb5
md: kicking non-fresh hdc5 from array!
md: unbind<hdc5,2>
md: export_rdev(hdc5)
md: kicking non-fresh hdd5 from array!
md: unbind<hdd5,1>
md: export_rdev(hdd5)
md0: removing former faulty hdd5!
md0: removing former faulty hdc5!
md: md0: raid array is not clean -- starting background reconstruction
md0: max total readahead window set to 496k
md0: 2 data-disks, max readahead per data-disk: 248k
raid5: device hdb5 operational as raid disk 0
raid5: not enough operational devices for md0 (2/3 failed)
RAID5 conf printout:
--- rd:3 wd:1 fd:2
disk 0, s:0, o:1, n:0 rd:0 us:1 dev:hdb5
disk 1, s:0, o:0, n:1 rd:1 us:1 dev:[dev 00:00]
disk 2, s:0, o:0, n:2 rd:2 us:1 dev:[dev 00:00]
raid5: failed to run raid set md0
md: pers->run() failed ...
md :do_md_run() returned -22
md: md0 stopped.
md: unbind<hdb5,0>
md: export_rdev(hdb5)
md: ... autorun DONE.
[events: 000000ca]
[events: 000000c8]
[events: 000000c8]
md: autorun ...
md: considering hdc5 ...
md: adding hdc5 ...
md: adding hdd5 ...
md: adding hdb5 ...
md: created md0
md: bind<hdb5,1>
md: bind<hdd5,2>
md: bind<hdc5,3>
md: running: <hdc5><hdd5><hdb5>
md: hdc5's event counter: 000000c8
md: hdd5's event counter: 000000c8
md: hdb5's event counter: 000000ca
md: superblock update time inconsistency -- using the most recent one
md: freshest: hdb5
md: kicking non-fresh hdc5 from array!
md: unbind<hdc5,2>
md: export_rdev(hdc5)
md: kicking non-fresh hdd5 from array!
md: unbind<hdd5,1>
md: export_rdev(hdd5)
md0: removing former faulty hdd5!
md0: removing former faulty hdc5!
md: md0: raid array is not clean -- starting background reconstruction
md0: max total readahead window set to 496k
md0: 2 data-disks, max readahead per data-disk: 248k
raid5: device hdb5 operational as raid disk 0
raid5: not enough operational devices for md0 (2/3 failed)
RAID5 conf printout:
--- rd:3 wd:1 fd:2
disk 0, s:0, o:1, n:0 rd:0 us:1 dev:hdb5
disk 1, s:0, o:0, n:1 rd:1 us:1 dev:[dev 00:00]
disk 2, s:0, o:0, n:2 rd:2 us:1 dev:[dev 00:00]
raid5: failed to run raid set md0
md: pers->run() failed ...
md :do_md_run() returned -22
md: md0 stopped.
md: unbind<hdb5,0>
md: export_rdev(hdb5)
md: ... autorun DONE.
linux:~ # exit
logout



Danke für Hilfe!!!

Grüße, Christian

cees18
18.04.04, 09:48
..falsches Forum? oder warum keine Antwort? :confused:

Dirk_G
18.04.04, 10:06
Hi

Nö, nicht falsch nur hat nicht jeder ein Raid und kennt sich damit aus.....

Ok, ich kenne das Problem, aber sagt doch erst mal was so alles in deinem Rechner steck. In der zwischenzeit les ich in aller ruhe deine Log.


Dirk

RipClaw
18.04.04, 10:16
Nun die Frage: Die Partitionen sind mit Sicherheit nicht kaputt, die Daten sind noch drauf, aber vielleicht inkonsistent.


Mit "mdadm --force --assemble /dev/md0 /dev/hdb5 /dev/hdc5 /dev/hdd5", Müsstest du das Raid wieder zusammenfügen können. Dann must du einen fschk durchführen aber da kann einiges in lost+found landen. Danac h müsste sich der Kram wieder mounten lassen aber garantieren kann ich das nicht.

Eventuell ist mdadm ist möglicherweise noch nicht installiert.

/dev/hdc scheint mit aber tatsächlich defekt zu sein.



hda: dma_intr: status=0x51 { DriveReady SeekComplete Error }
hda: dma_intr: error=0x84 { DriveStatusError BadCRC }
hda: dma_intr: status=0x51 { DriveReady SeekComplete Error }
hda: dma_intr: error=0x84 { DriveStatusError BadCRC }
hda: dma_intr: status=0x51 { DriveReady SeekComplete Error }
hda: dma_intr: error=0x84 { DriveStatusError BadCRC }
hda: dma_intr: status=0x51 { DriveReady SeekComplete Error }
hda: dma_intr: error=0x84 { DriveStatusError BadCRC }


ist doch wohl recht deutlich :( .

SeXy~Sas
18.04.04, 10:29
Naja, eine Platte darf bei RAID 5 ja ruhig draufgehen ;)

Dirk_G
18.04.04, 10:32
Diese Mekdungen kommen auch wenn

1. das Netzteil zu schwach ist
2. der Speicher nicht ausreicht
3. der Kontroller *******e ist
4. und natürlich wenn die Platte defekt ist

--> 4 ist aber unwahrscheinlich, da das bei mir noch nie der Fall war. Es lag immer an der Hardware. Außerdem hätte er dann das Raid nicht anlegen können, es sei den die Platte geht mal und mal nicht. Kommt auch mal vor, ist aber eher selten und nicht bei zwei Platten gleichzeitig.

Wenn du noch nichts am Raid geänderst hast kannst du das Raid einfach neu anlegen. Aber Vorsicht, solte das Raid nicht in dem Zustand sein bevor diese Fehler auftraten sind die Daten futsch, für immer.
Auch mit der gewaltsammen Rekonstruktion ist vorsicht geboten. Sind die Supperblöcke defekt, rekonstruiert er müll --> auch dann sind alle Daten weg.
Und nutze die Raidtools nur wenn du dir 10000000% sicher bist was du machts. Jeder Fehler wird sofort mit der Löschung der Daten bestraft
Beseitige erst den Fehler dann geht dein Raid auch wieder?????


Dirk

cees18
18.04.04, 11:53
@ripclaw:
die festplatte hda ist ist nicht im Raid, das ist glaube ich eine etwas ältere 12GB Platte auf der das Linux installiert ist. Die Festplatten auf denen das Raid läuft sind hdb hdc und hdd, jeweils Partition 5 (160GB Samsung Festplatten).

Den anderen Tip (mdadm --force --assemble /dev/md0 /dev/hdb5 /dev/hdc5 /dev/hdd5) werde ich heute abend mal ausprobieren, ich melde mal zurück wenns funktioniert hat.

@Dirk_G:
In dem Rechner steckt ein 166 MHz P1 MMX, board weis ich nicht (war ein Komplettkauf, von welcher Firma weis ich leider auch nicht mehr).
Am Primary IDE-Controller Master ist eine 13GB-Platte angeschlossen, auf der läuft das Linux, am Slave eine 160GB Samsung.
Am Secondary IDE-Controller Master und Slave auch je eine 160GB Samsung.
Was willst du noch wissen?

Was meinst du mit Raid neu anlegen? mkraid? raidstart habe ich schon probiert, hat nicht funkioniert. Welcher Methode würdest du die größeren Chancen geben? (mdadm oder mkraid?)

Danke für jede Hilfe!

Gruß, Christian

netzmeister
18.04.04, 12:06
Hallo,

das Board ist schon sehr alt. Die Platten im Raid sind topaktuell.
Das wird aus verschiedenen Gründen meinen Meinung nach nie stabil
laufen.

Für mich hört sich das nach einem Hardwaredekt oder einer Unverträglichkeit an.

Viele Grüße

Eicke

Dirk_G
18.04.04, 12:15
Hi

Was willst du noch wissen?
Wie siehts mit Speicher aus und was hast du für ein Netzteil? Als Controller ist ja ein VIA drin, der eigendlich unproblematisch ist. Probleme hatte ich bisher nur mit PROMISE-Controllern.

Speicher sollte min. 256MB drin sein. Beim Netzteil sollte man großzügig sein. Denke mal das da noch was mit etwa 200W rumwerkelt. Das reicht nicht! 300W sollte es haben. Ich bin immer gut gefahren mit 50W extra pro Festplatte. Habe bei mir 8 RaidPlatten und benutze ein 400W Netzteil und 512MB Speicher. Mit 350W und 256 lief es nicht, aber dafrü auf einem P266. :ugly:



Was meinst du mit Raid neu anlegen? mkraid? raidstart habe ich schon probiert, hat nicht funkioniert. Welcher Methode würdest du die größeren Chancen geben? (mdadm oder mkraid?)

Ich meine mkraid. Das solltest du aber nur machen wenn das Raid nicht geändert wurde und die Platten Fehlerfrei laufen. Ausserdem ist das Raid noch da. Nur wenn die Platten zicken wird es angehalten. Ich würde erst mal gar nichts am Raid machen sonderern serst mal dafür sorgen das der Rechner funktioniert. Wirst sehen das das Raid dann auch wieder da ist.
Über mdadm kann ich nichts sagen, da es bei mir nicht installiert ist.


Dirk

cees18
18.04.04, 20:46
Hallo,

also Netzteil weiss ich auch nicht genau, denke aber nicht das es mehr als 200 oder 250 Watt sind. RAM sind 96MB drin...also grad genug um suse zu installieren. Der Rechner stand halt noch bei mir rum und ich hab nen Server gesucht...bin aber grad bei ebay auf der suche nach was besserem so um die 500MHZ und 128-256MB RAM :)

Den mdadm Befehl habe ich ausprobiert:



linux:/ #
linux:/ # mdadm --force --assemble /dev/md0 /dev/hdb5 /dev/hdc5 /dev/hdd5
mdadm: --assemble would set mode to assemble, but it is already manage.


..das bedeutet? (man-page hab ich schon gelesen aber nix dazu gefunden...kann aber auch an meinem Englisch liegen :) )

Gruß, Christian

cees18
21.04.04, 10:55
..kann mir das keiner verraten? :(
..oder is es so einfach? :confused:

Dirk_G
22.04.04, 08:34
Na, was macht dein Raid?

Netzteil mal ausgetauscht und ein wenig Speicher aufgerüstet?



mdadm: --assemble would set mode to assemble, but it is already manage.

Du willst was einschalten was schon eingeschaltet ist! Mehr kann ich auch nicht dazu sagen.


Dirk

netzmeister
22.04.04, 10:48
Na, was macht dein Raid?

Netzteil mal ausgetauscht und ein wenig Speicher aufgerüstet?




Du willst was einschalten was schon eingeschaltet ist! Mehr kann ich auch nicht dazu sagen.


Dirk

Ich glaube nicht das es am Netzteil leigt. Ein Pentium Eins Board
konnte fast immer nur 64MB RAM verwalten. Die späteren Super Seven
schaffen mehr.

cees18
22.04.04, 14:11
Nee, noch nix ausgetauscht. Probier jetzt erst mal n bissle rum das des Raid wieder funktioniert, wenn die Daten weg sind schmeiss ich den Mist eh raus und vergesse das Thema Softwareraid für die nächsten 3 Jahre :mad: .

Ansonsten mach ich mich dann auf die Suche nach nem neuen Server so um die 500MHz und 128-256MB RAM auf den das Ganze dann migriert wird. Damit sollten dann alle Probleme Hardwareseitig aus dem Weg geräumt sein...

Allerdings brauch ich dann noch ein Backupmedium für ca. 250GB Daten, was nicht einfach wird. Da das ganze ein privater Server ist sind LTOs etwas teuer.. :rolleyes:
Hätte dafür irgenjemand ne Idee?

Falls noch jemand was zu meinem defekten Raid bzw. im Speziellen zu dem "mdadm"-Befehl einfällt bitte bitte posten!!!

Danke für eure Hilfe bis jetzt :)

cees18
15.05.04, 20:26
*juhuu* ..also nur zu Info, vielleicht interessiert es ja noch jemanden:

Mein Raid funktioniert wieder, ich habe es mit:


mkraid -R /dev/md0

neu angelegt, dnach wurde das Raid neu berechnet, hat jetzt 2 Tage gedauert :)
Das funktioniert solange (wie bei mir beschrieben) alle Daten eigentlich noch da sind und das Raid eigentlich konsistent ist. Ansonsten ist ein kompletter Datenverlust ziemlich wahrscheinlich...

So, werd jetzt erstmal ein Backup der wichtigsten Daten machen und :)

Danke nochmal und Gruß, Christian

Dirk_G
15.05.04, 21:01
Hi

Und woran hat es nun gelegen?


Dirk

cees18
16.05.04, 13:06
hmm..keine Ahnung woran das gelegen hat, ist im message-file auch nicht nachvollziehbar :(

naja wass solls, haupsache es geht erstmal wieder ohne Datenverlust.
Werd jetzt erst mal in neue Hardware investieren.

Gruß, Christian

pamir
18.10.04, 01:32
hmm..keine Ahnung woran das gelegen hat, ist im message-file auch nicht nachvollziehbar :(

naja wass solls, haupsache es geht erstmal wieder ohne Datenverlust.
Werd jetzt erst mal in neue Hardware investieren.

Gruß, Christian
ich hatte das gleiche Problem. Nach dem ich ein zweites Netzteil(jetzt 2x350W) für die Platten(5x200GB) spendiert habe, läuft alles wie geschmiert! davor sind ständig irgendwelche Platten aus dem Raid ausgefallen.

theWireless
18.10.04, 22:39
hmm... ich hab' 9 UW-SCSI-Platten im Hardware-RAID5 an nem ur alten 200W AT-NT hängen - läuft seit wochen ohne zu zucken :) Man kann es mit den W immer übertreiben.

Edit: huch, sry für die Leichenschändung ;)

zeeman
18.10.04, 23:54
die frage ist ja auch immer was wird von den angegeben wattzahlen auch wirklich umgesetzt (verlustleistung) und wieviel wohin.
hdds brauchen afaik 5v (oder doch 12?) und da nützt es herzlich wenig, wenn das netzteil auf der 3,3 und 12V schiene saft ohne ende lieft und dafür die 5v vernachlässig

p.s.: jetzt ist die leiche schon ausgebuddelt :ugly:

cees18
26.10.04, 18:47
so ein Zufall. Mein Softwareraid lief bis heute ohne Fehler auf der alten Hardware (neue steht schon länger rum, P3 500 mit 1GB RAM), war aber bisher zu faul zum Wechseln. Naja heute der gleiche Fehler wieder, da hab ich doch gleich nochmal hier reingeschaut wie ich das damals gelöst habe ;) (und die Lösung funktioniert immer noch)

An der veralteten Hardware lag es aber definitiv nicht, der Server ist die letzten Tage/Wochen 24/7 gelaufen...

Gruß, Christian

moor_mat
16.11.08, 16:10
tut mir leid, aber jetz muss ich die leiche nochmal ausgraben :ugly:

mkraid gibts ja inzw. nicht mehr soweit ich das mitgekriegt hab.. zumindest sind die raidtools nirgends mehr zu finden, wurden durch mdadm ersetzt :(

kann mir wer sagen wie der entsprechende befehl fuer mdadm lautet??

ich sag schon mal danke :)

zyrusthc
16.11.08, 17:53
kann mir wer sagen wie der entsprechende befehl fuer mdadm lautet??
Der entsprechende Befehl für was?
Wirf mal einen Blick in in die Manpage von mdadm!
man mdadm

Desweiteren gibt es zu Hauf Howtos wenn man bei Google "mdadm howto" eingibt!


Greeez Oli

moor_mat
16.11.08, 18:28
*juhuu* ..also nur zu Info, vielleicht interessiert es ja noch jemanden:

Mein Raid funktioniert wieder, ich habe es mit:


mkraid -R /dev/md0

neu angelegt, dnach wurde das Raid neu berechnet, hat jetzt 2 Tage gedauert :)
Das funktioniert solange (wie bei mir beschrieben) alle Daten eigentlich noch da sind und das Raid eigentlich konsistent ist. Ansonsten ist ein kompletter Datenverlust ziemlich wahrscheinlich...

So, werd jetzt erstmal ein Backup der wichtigsten Daten machen und :)

Danke nochmal und Gruß, Christian

hierfuer ;)

konnte lieder nicht rausfinden was "mkraid -R" macht, darum hilft mir ein "man mdadm" leider auch nicht viel...

zyrusthc
16.11.08, 18:35
Das -R bewirkt das fals schon ein alter Superblock vorhanden ist, dieser Überschrieben wird, und man keine Warnung mehr erhällt!

Greeez Oli