Anzeige:
Seite 1 von 2 12 LetzteLetzte
Ergebnis 1 bis 15 von 25

Thema: Softwareraid-Profi gesucht!

  1. #1
    Registrierter Benutzer
    Registriert seit
    Nov 2003
    Ort
    Würzburg
    Beiträge
    23

    Softwareraid-Profi gesucht!

    Hi,

    ich weis zwar nich ob das das richtige Forum ist, aber:

    ich hab daheim einen Fileserver mit 3 160GB-Platten. Auf dem Fileserver läuft SuSE 8.2, die 3 Platten sind mittels Raidtool zu einem Raid5 zusammengeschlossen.

    Am Sonntag denke ich an nix böses, boote den Server und der fängt an das Raid neu zu berechnen weil angeblich eine Partition kaputt gegangen ist. Kann aber nicht sein, weil ich habe gar keine Spare-Disks, er hat also automatisch die selbe Partition die angeblich kaputt sein soll wieder verwendet. Da das neu berechnen ziemlich lange dauert mit 166MHz und 160GB habe ich den Server über Nacht durchlaufen lassen. Am Montagmorgen schaue ich auf den Server, nix geht mehr (Bildschirm aus, Tastatur reagiert nicht, über SSH bin ich auch nicht mehr hingekommen). Habe dann den Rechner neu gebootet (reset) und, o schreck! die beiden 160GB-Platten am sekundären IDE-Controller sind weg (mit fdisk -l überprüft)! Rechner ausgeschaltet. Heute habe ich den Rechner dann wieder eingeschaltet, die Platten sind wieder da!
    Soweit so gut. Nur das Raid geht nimmer und laut Boot-Meldung sind 2 Partitionen kaputt.

    Nun die Frage: Die Partitionen sind mit Sicherheit nicht kaputt, die Daten sind noch drauf, aber vielleicht inkonsistent.

    Kann mir irgendjemand sagen wie ich das Raid wieder zum laufen bringe? Die Daten sind mir sehr wichtig (meine gesammelten Programmierversuche, Websiten, Bilder, Bücher, usw.) und das letzte Backup ist schon lang lang her (dauert bei ca. 300GB halt ziemlich lang).

    Anbei dmesg, fdisk, raidtab und mdstat:

    Code:
    =~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=
    linux:~ # fdisk -l
    
    Disk /dev/hdc: 160.0 GB, 160041885696 bytes
    255 heads, 63 sectors/track, 19457 cylinders
    Units = cylinders of 16065 * 512 = 8225280 bytes
    
       Device Boot    Start       End    Blocks   Id  System
    /dev/hdc1             1     19457 156288321    5  Extended
    /dev/hdc5             1     19457 156288289+  fd  Linux raid autodetect
    
    Disk /dev/hdd: 160.0 GB, 160041885696 bytes
    255 heads, 63 sectors/track, 19457 cylinders
    Units = cylinders of 16065 * 512 = 8225280 bytes
    
       Device Boot    Start       End    Blocks   Id  System
    /dev/hdd1             1     19457 156288321    5  Extended
    /dev/hdd5             1     19457 156288289+  fd  Linux raid autodetect
    
    Disk /dev/hda: 13.0 GB, 13020069888 bytes
    16 heads, 63 sectors/track, 25228 cylinders
    Units = cylinders of 1008 * 512 = 516096 bytes
    
       Device Boot    Start       End    Blocks   Id  System
    /dev/hda1   *         1        25     12568+  83  Linux
    /dev/hda2            26      2106   1048824   82  Linux swap
    /dev/hda3          2107     25228  11653488   83  Linux
    
    Disk /dev/hdb: 160.0 GB, 160041885696 bytes
    255 heads, 63 sectors/track, 19457 cylinders
    Units = cylinders of 16065 * 512 = 8225280 bytes
    
       Device Boot    Start       End    Blocks   Id  System
    /dev/hdb1             1     19457 156288321    5  Extended
    /dev/hdb5             1     19457 156288289+  fd  Linux raid autodetect
    =~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=
    linux:~ # cat /etc/raidtab 
    # RAID-5 array 
    raiddev /dev/md0
    raid-level5
    nr-raid-disks3
    nr-spare-disks0
    chunk-size32
    parity-algorithmleft-symmetric
    persistent-superblock1
    
    device/dev/hdb5
    raid-disk0
    
    device/dev/hdd5
    raid-disk1
    
    device/dev/hdc5
    raid-disk2
    =~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=
    linux:~ # cat /etc/    proc/raidt     mdstat 
    Personalities : [raid5] 
    read_ahead not set
    unused devices: <none>
    =~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=~=
    
    linux:~ # raidstart /dev/md0
    linux:~ # cat /proc/mdstat 
    Personalities : [raid5] 
    read_ahead not set
    unused devices: <none>
    linux:~ #
    Code:
    =~=~=~=~=~=~=~=~=~=~=~= PuTTY log 2004.04.16 18:00:36 =~=~=~=~=~=~=~=~=~=~=~=
    dmesg 
    ion 5.05c (2001-07-08) with HUB-6 MANY_PORTS MULTIPORT SHARE_IRQ SERIAL_PCI enabled
    ttyS00 at 0x03f8 (irq = 4) is a 16550A
    ttyS01 at 0x02f8 (irq = 3) is a 16550A
    Real Time Clock Driver v1.10e
    Floppy drive(s): fd0 is 1.44M, fd1 is 1.2M
    FDC 0 is an 8272A
    RAMDISK driver initialized: 16 RAM disks of 64000K size 1024 blocksize
    loop: loaded (max 16 devices)
    Uniform Multi-Platform E-IDE driver Revision: 7.00beta-2.4
    ide: Assuming 33MHz system bus speed for PIO modes; override with idebus=xx
    VP_IDE: IDE controller at PCI slot 00:07.1
    VP_IDE: chipset revision 6
    VP_IDE: not 100% native mode: will probe irqs later
    ide: Assuming 33MHz system bus speed for PIO modes; override with idebus=xx
    VP_IDE: VIA vt82c586a (rev 27) IDE UDMA33 controller on pci00:07.1
        ide0: BM-DMA at 0x6000-0x6007, BIOS settings: hda:pio, hdb:pio
        ide1: BM-DMA at 0x6008-0x600f, BIOS settings: hdc:pio, hdd:pio
    hda: QUANTUM FIREBALL CX13.0A, ATA DISK drive
    hdb: SAMSUNG SV1604N, ATA DISK drive
    blk: queue c03ac0c0, I/O limit 4095Mb (mask 0xffffffff)
    blk: queue c03ac214, I/O limit 4095Mb (mask 0xffffffff)
    hdc: SAMSUNG SV1604N, ATA DISK drive
    hdd: SAMSUNG SV1604N, ATA DISK drive
    blk: queue c03ac540, I/O limit 4095Mb (mask 0xffffffff)
    blk: queue c03ac694, I/O limit 4095Mb (mask 0xffffffff)
    ide0 at 0x1f0-0x1f7,0x3f6 on irq 14
    ide1 at 0x170-0x177,0x376 on irq 15
    hda: attached ide-disk driver.
    hda: host protected area => 1
    hda: 25429824 sectors (13020 MB) w/418KiB Cache, CHS=12614/32/63, UDMA(33)
    hdb: attached ide-disk driver.
    hdb: host protected area => 1
    hdb: 312581808 sectors (160042 MB) w/2048KiB Cache, CHS=19457/255/63, UDMA(33)
    hdc: attached ide-disk driver.
    hdc: host protected area => 1
    hdc: 312581808 sectors (160042 MB) w/2048KiB Cache, CHS=19457/255/63, UDMA(33)
    hdd: attached ide-disk driver.
    hdd: host protected area => 1
    hdd: 312581808 sectors (160042 MB) w/2048KiB Cache, CHS=19457/255/63, UDMA(33)
    ide-floppy driver 0.99.newide
    Partition check:
     hda: hda1 hda2 hda3
     hdb: hdb1 < hdb5 >
     hdc: hdc1 <hdc: dma_intr: status=0x51 { DriveReady SeekComplete Error }
    hdc: dma_intr: error=0x84 { DriveStatusError BadCRC }
    hdc: dma_intr: status=0x51 { DriveReady SeekComplete Error }
    hdc: dma_intr: error=0x84 { DriveStatusError BadCRC }
    hdc: dma_intr: status=0x51 { DriveReady SeekComplete Error }
    hdc: dma_intr: error=0x84 { DriveStatusError BadCRC }
     hdc5 >
     hdd: hdd1 < hdd5 >
    ide-floppy driver 0.99.newide
    SCSI subsystem driver Revision: 1.00
    kmod: failed to exec /sbin/modprobe -s -k scsi_hostadapter, errno = 2
    md: md driver 0.90.0 MAX_MD_DEVS=256, MD_SB_DISKS=27
    md: Autodetecting RAID arrays.
     [events: 000000ca]
     [events: 000000c8]
     [events: 000000c8]
    md: autorun ...
    md: considering hdd5 ...
    md:  adding hdd5 ...
    md:  adding hdc5 ...
    md:  adding hdb5 ...
    md: created md0
    md: bind<hdb5,1>
    md: bind<hdc5,2>
    md: bind<hdd5,3>
    md: running: <hdd5><hdc5><hdb5>
    md: hdd5's event counter: 000000c8
    md: hdc5's event counter: 000000c8
    md: hdb5's event counter: 000000ca
    md: superblock update time inconsistency -- using the most recent one
    md: freshest: hdb5
    md: kicking non-fresh hdd5 from array!
    md: unbind<hdd5,2>
    md: export_rdev(hdd5)
    md: kicking non-fresh hdc5 from array!
    md: unbind<hdc5,1>
    md: export_rdev(hdc5)
    md0: removing former faulty hdd5!
    md0: removing former faulty hdc5!
    md: md0: raid array is not clean -- starting background reconstruction
    kmod: failed to exec /sbin/modprobe -s -k md-personality-4, errno = 2
    md: personality 4 is not loaded!
    md :do_md_run() returned -22
    md: md0 stopped.
    md: unbind<hdb5,0>
    md: export_rdev(hdb5)
    md: ... autorun DONE.
    NET4: Linux TCP/IP 1.0 for NET4.0
    IP Protocols: ICMP, UDP, TCP, IGMP
    IP: routing cache hash table of 512 buckets, 4Kbytes
    TCP: Hash tables configured (established 8192 bind 16384)
    Linux IP multicast router 0.06 plus PIM-SM
    NET4: Unix domain sockets 1.0/SMP for Linux NET4.0.
    RAMDISK: Compressed image found at block 0
    Freeing initrd memory: 316k freed
    VFS: Mounted root (ext2 filesystem).
    hda: dma_intr: status=0x51 { DriveReady SeekComplete Error }
    hda: dma_intr: error=0x84 { DriveStatusError BadCRC }
    hda: dma_intr: status=0x51 { DriveReady SeekComplete Error }
    hda: dma_intr: error=0x84 { DriveStatusError BadCRC }
    VFS: Mounted root (ext2 filesystem) readonly.
    Trying to move old root to /initrd ... failed
    Unmounting old root
    Trying to free ramdisk memory ... okay
    Freeing unused kernel memory: 160k freed
    hda: dma_intr: status=0x51 { DriveReady SeekComplete Error }
    hda: dma_intr: error=0x84 { DriveStatusError BadCRC }
    hda: dma_intr: status=0x51 { DriveReady SeekComplete Error }
    hda: dma_intr: error=0x84 { DriveStatusError BadCRC }
    hda: dma_intr: status=0x51 { DriveReady SeekComplete Error }
    hda: dma_intr: error=0x84 { DriveStatusError BadCRC }
    hda: dma_intr: status=0x51 { DriveReady SeekComplete Error }
    hda: dma_intr: error=0x84 { DriveStatusError BadCRC }
    blk: queue c03ac0c0, I/O limit 4095Mb (mask 0xffffffff)
    hdb: DMA disabled
    ide0: reset: success
     [events: 000000ca]
     [events: 000000c8]
     [events: 000000c8]
    md: autorun ...
    md: considering hdc5 ...
    md:  adding hdc5 ...
    md:  adding hdd5 ...
    md:  adding hdb5 ...
    md: created md0
    md: bind<hdb5,1>
    md: bind<hdd5,2>
    md: bind<hdc5,3>
    md: running: <hdc5><hdd5><hdb5>
    md: hdc5's event counter: 000000c8
    md: hdd5's event counter: 000000c8
    md: hdb5's event counter: 000000ca
    md: superblock update time inconsistency -- using the most recent one
    md: freshest: hdb5
    md: kicking non-fresh hdc5 from array!
    md: unbind<hdc5,2>
    md: export_rdev(hdc5)
    md: kicking non-fresh hdd5 from array!
    md: unbind<hdd5,1>
    md: export_rdev(hdd5)
    md0: removing former faulty hdd5!
    md0: removing former faulty hdc5!
    md: md0: raid array is not clean -- starting background reconstruction
    raid5: measuring checksumming speed
       8regs     :   183.200 MB/sec
       32regs    :   130.400 MB/sec
       pII_mmx   :   254.800 MB/sec
       p5_mmx    :   310.000 MB/sec
    raid5: using function: p5_mmx (310.000 MB/sec)
    md: raid5 personality registered as nr 4
    md0: max total readahead window set to 496k
    md0: 2 data-disks, max readahead per data-disk: 248k
    raid5: device hdb5 operational as raid disk 0
    raid5: not enough operational devices for md0 (2/3 failed)
    RAID5 conf printout:
     --- rd:3 wd:1 fd:2
     disk 0, s:0, o:1, n:0 rd:0 us:1 dev:hdb5
     disk 1, s:0, o:0, n:1 rd:1 us:1 dev:[dev 00:00]
     disk 2, s:0, o:0, n:2 rd:2 us:1 dev:[dev 00:00]
    raid5: failed to run raid set md0
    md: pers->run() failed ...
    md :do_md_run() returned -22
    md: md0 stopped.
    md: unbind<hdb5,0>
    md: export_rdev(hdb5)
    md: ... autorun DONE.
    md: Autodetecting RAID arrays.
     [events: 000000c8]
     [events: 000000c8]
     [events: 000000ca]
    md: could not import hdc5!
    md: could not import hdd5!
    md: could not import hdb5!
    md: autorun ...
    md: considering hdb5 ...
    md:  adding hdb5 ...
    md:  adding hdc5 ...
    md:  adding hdd5 ...
    md: created md0
    md: bind<hdd5,1>
    md: bind<hdc5,2>
    md: bind<hdb5,3>
    md: running: <hdb5><hdc5><hdd5>
    md: hdb5's event counter: 000000ca
    md: hdc5's event counter: 000000c8
    md: hdd5's event counter: 000000c8
    md: superblock update time inconsistency -- using the most recent one
    md: freshest: hdb5
    md: kicking non-fresh hdc5 from array!
    md: unbind<hdc5,2>
    md: export_rdev(hdc5)
    md: kicking non-fresh hdd5 from array!
    md: unbind<hdd5,1>
    md: export_rdev(hdd5)
    md0: removing former faulty hdd5!
    md0: removing former faulty hdc5!
    md: md0: raid array is not clean -- starting background reconstruction
    md0: max total readahead window set to 496k
    md0: 2 data-disks, max readahead per data-disk: 248k
    raid5: device hdb5 operational as raid disk 0
    raid5: not enough operational devices for md0 (2/3 failed)
    RAID5 conf printout:
     --- rd:3 wd:1 fd:2
     disk 0, s:0, o:1, n:0 rd:0 us:1 dev:hdb5
     disk 1, s:0, o:0, n:1 rd:1 us:1 dev:[dev 00:00]
     disk 2, s:0, o:0, n:2 rd:2 us:1 dev:[dev 00:00]
    raid5: failed to run raid set md0
    md: pers->run() failed ...
    md :do_md_run() returned -22
    md: md0 stopped.
    md: unbind<hdb5,0>
    md: export_rdev(hdb5)
    md: ... autorun DONE.
    LVM version 1.0.5+(mp-v6a)(22/07/2002) module loaded
    hdc: dma_intr: status=0x51 { DriveReady SeekComplete Error }
    hdc: dma_intr: error=0x84 { DriveStatusError BadCRC }
    hdc: dma_intr: status=0x51 { DriveReady SeekComplete Error }
    hdc: dma_intr: error=0x84 { DriveStatusError BadCRC }
    hdc: dma_intr: status=0x51 { DriveReady SeekComplete Error }
    hdc: dma_intr: error=0x84 { DriveStatusError BadCRC }
    hdc: dma_intr: status=0x51 { DriveReady SeekComplete Error }
    hdc: dma_intr: error=0x84 { DriveStatusError BadCRC }
    blk: queue c03ac540, I/O limit 4095Mb (mask 0xffffffff)
    hdd: DMA disabled
    ide1: reset: success
    Adding Swap: 1048816k swap-space (priority 42)
    sh-2006: reiserfs read_super_block: bread failed (dev 09:00, block 8, size 1024)
    sh-2006: reiserfs read_super_block: bread failed (dev 09:00, block 64, size 1024)
    sh-2021: reiserfs_read_super: can not find reiserfs on md(9,0)
    8139too Fast Ethernet driver 0.9.26
    eth0: RealTek RTL8139 Fast Ethernet at 0xc688f000, 00:e0:7d:8e:58:fb, IRQ 11
    eth0:  Identified 8139 chip type 'RTL-8139B'
    eth0: Setting 100mbps full-duplex based on auto-negotiated partner ability 45e1.
    raw1394: /dev/raw1394 device initialized
    isapnp: Scanning for PnP cards...
    isapnp: No Plug & Play device found
    IPv6 v0.8 for NET4.0
    IPv6 over IPv4 tunneling driver
    eth0: no IPv6 routers present
    Non-volatile memory driver v1.2
    parport0: PC-style at 0x378 [PCSPP,TRISTATE]
    lp0: using parport0 (polling).
    imm: Version 2.05 (for Linux 2.4.0)
    ppa: Version 2.07 (for Linux 2.4.x)
    WARNING - no ppa compatible devices found.
      As of 31/Aug/1998 Iomega started shipping parallel
      port ZIP drives with a different interface which is
      supported by the imm (ZIP Plus) driver. If the
      cable is marked with "AutoDetect", this is what has
      happened.
    lp0 off-line
    end_request: I/O error, dev 02:00 (floppy), sector 0
    end_request: I/O error, dev 02:00 (floppy), sector 0
    end_request: I/O error, dev 02:01 (floppy), sector 0
    md: Autodetecting RAID arrays.
     [events: 000000c8]
     [events: 000000c8]
     [events: 000000ca]
    md: autorun ...
    md: considering hdb5 ...
    md:  adding hdb5 ...
    md:  adding hdd5 ...
    md:  adding hdc5 ...
    md: created md0
    md: bind<hdc5,1>
    md: bind<hdd5,2>
    md: bind<hdb5,3>
    md: running: <hdb5><hdd5><hdc5>
    md: hdb5's event counter: 000000ca
    md: hdd5's event counter: 000000c8
    md: hdc5's event counter: 000000c8
    md: superblock update time inconsistency -- using the most recent one
    md: freshest: hdb5
    md: kicking non-fresh hdd5 from array!
    md: unbind<hdd5,2>
    md: export_rdev(hdd5)
    md: kicking non-fresh hdc5 from array!
    md: unbind<hdc5,1>
    md: export_rdev(hdc5)
    md0: removing former faulty hdd5!
    md0: removing former faulty hdc5!
    md: md0: raid array is not clean -- starting background reconstruction
    md0: max total readahead window set to 496k
    md0: 2 data-disks, max readahead per data-disk: 248k
    raid5: device hdb5 operational as raid disk 0
    raid5: not enough operational devices for md0 (2/3 failed)
    RAID5 conf printout:
     --- rd:3 wd:1 fd:2
     disk 0, s:0, o:1, n:0 rd:0 us:1 dev:hdb5
     disk 1, s:0, o:0, n:1 rd:1 us:1 dev:[dev 00:00]
     disk 2, s:0, o:0, n:2 rd:2 us:1 dev:[dev 00:00]
    raid5: failed to run raid set md0
    md: pers->run() failed ...
    md :do_md_run() returned -22
    md: md0 stopped.
    md: unbind<hdb5,0>
    md: export_rdev(hdb5)
    md: ... autorun DONE.
     [events: 000000ca]
     [events: 000000c8]
     [events: 000000c8]
    md: autorun ...
    md: considering hdc5 ...
    md:  adding hdc5 ...
    md:  adding hdd5 ...
    md:  adding hdb5 ...
    md: created md0
    md: bind<hdb5,1>
    md: bind<hdd5,2>
    md: bind<hdc5,3>
    md: running: <hdc5><hdd5><hdb5>
    md: hdc5's event counter: 000000c8
    md: hdd5's event counter: 000000c8
    md: hdb5's event counter: 000000ca
    md: superblock update time inconsistency -- using the most recent one
    md: freshest: hdb5
    md: kicking non-fresh hdc5 from array!
    md: unbind<hdc5,2>
    md: export_rdev(hdc5)
    md: kicking non-fresh hdd5 from array!
    md: unbind<hdd5,1>
    md: export_rdev(hdd5)
    md0: removing former faulty hdd5!
    md0: removing former faulty hdc5!
    md: md0: raid array is not clean -- starting background reconstruction
    md0: max total readahead window set to 496k
    md0: 2 data-disks, max readahead per data-disk: 248k
    raid5: device hdb5 operational as raid disk 0
    raid5: not enough operational devices for md0 (2/3 failed)
    RAID5 conf printout:
     --- rd:3 wd:1 fd:2
     disk 0, s:0, o:1, n:0 rd:0 us:1 dev:hdb5
     disk 1, s:0, o:0, n:1 rd:1 us:1 dev:[dev 00:00]
     disk 2, s:0, o:0, n:2 rd:2 us:1 dev:[dev 00:00]
    raid5: failed to run raid set md0
    md: pers->run() failed ...
    md :do_md_run() returned -22
    md: md0 stopped.
    md: unbind<hdb5,0>
    md: export_rdev(hdb5)
    md: ... autorun DONE.
     [events: 000000ca]
     [events: 000000c8]
     [events: 000000c8]
    md: autorun ...
    md: considering hdc5 ...
    md:  adding hdc5 ...
    md:  adding hdd5 ...
    md:  adding hdb5 ...
    md: created md0
    md: bind<hdb5,1>
    md: bind<hdd5,2>
    md: bind<hdc5,3>
    md: running: <hdc5><hdd5><hdb5>
    md: hdc5's event counter: 000000c8
    md: hdd5's event counter: 000000c8
    md: hdb5's event counter: 000000ca
    md: superblock update time inconsistency -- using the most recent one
    md: freshest: hdb5
    md: kicking non-fresh hdc5 from array!
    md: unbind<hdc5,2>
    md: export_rdev(hdc5)
    md: kicking non-fresh hdd5 from array!
    md: unbind<hdd5,1>
    md: export_rdev(hdd5)
    md0: removing former faulty hdd5!
    md0: removing former faulty hdc5!
    md: md0: raid array is not clean -- starting background reconstruction
    md0: max total readahead window set to 496k
    md0: 2 data-disks, max readahead per data-disk: 248k
    raid5: device hdb5 operational as raid disk 0
    raid5: not enough operational devices for md0 (2/3 failed)
    RAID5 conf printout:
     --- rd:3 wd:1 fd:2
     disk 0, s:0, o:1, n:0 rd:0 us:1 dev:hdb5
     disk 1, s:0, o:0, n:1 rd:1 us:1 dev:[dev 00:00]
     disk 2, s:0, o:0, n:2 rd:2 us:1 dev:[dev 00:00]
    raid5: failed to run raid set md0
    md: pers->run() failed ...
    md :do_md_run() returned -22
    md: md0 stopped.
    md: unbind<hdb5,0>
    md: export_rdev(hdb5)
    md: ... autorun DONE.
     [events: 000000ca]
     [events: 000000c8]
     [events: 000000c8]
    md: autorun ...
    md: considering hdc5 ...
    md:  adding hdc5 ...
    md:  adding hdd5 ...
    md:  adding hdb5 ...
    md: created md0
    md: bind<hdb5,1>
    md: bind<hdd5,2>
    md: bind<hdc5,3>
    md: running: <hdc5><hdd5><hdb5>
    md: hdc5's event counter: 000000c8
    md: hdd5's event counter: 000000c8
    md: hdb5's event counter: 000000ca
    md: superblock update time inconsistency -- using the most recent one
    md: freshest: hdb5
    md: kicking non-fresh hdc5 from array!
    md: unbind<hdc5,2>
    md: export_rdev(hdc5)
    md: kicking non-fresh hdd5 from array!
    md: unbind<hdd5,1>
    md: export_rdev(hdd5)
    md0: removing former faulty hdd5!
    md0: removing former faulty hdc5!
    md: md0: raid array is not clean -- starting background reconstruction
    md0: max total readahead window set to 496k
    md0: 2 data-disks, max readahead per data-disk: 248k
    raid5: device hdb5 operational as raid disk 0
    raid5: not enough operational devices for md0 (2/3 failed)
    RAID5 conf printout:
     --- rd:3 wd:1 fd:2
     disk 0, s:0, o:1, n:0 rd:0 us:1 dev:hdb5
     disk 1, s:0, o:0, n:1 rd:1 us:1 dev:[dev 00:00]
     disk 2, s:0, o:0, n:2 rd:2 us:1 dev:[dev 00:00]
    raid5: failed to run raid set md0
    md: pers->run() failed ...
    md :do_md_run() returned -22
    md: md0 stopped.
    md: unbind<hdb5,0>
    md: export_rdev(hdb5)
    md: ... autorun DONE.
    linux:~ # exit
    logout
    Danke für Hilfe!!!

    Grüße, Christian

  2. #2
    Registrierter Benutzer
    Registriert seit
    Nov 2003
    Ort
    Würzburg
    Beiträge
    23
    ..falsches Forum? oder warum keine Antwort?

  3. #3
    Registrierter Benutzer
    Registriert seit
    Apr 2003
    Beiträge
    276
    Hi

    Nö, nicht falsch nur hat nicht jeder ein Raid und kennt sich damit aus.....

    Ok, ich kenne das Problem, aber sagt doch erst mal was so alles in deinem Rechner steck. In der zwischenzeit les ich in aller ruhe deine Log.


    Dirk
    AMD T-Bird 1,4GHz 512MB-RAM Gentoo/Gnome

  4. #4
    Registrierter Benutzer Avatar von RipClaw
    Registriert seit
    Apr 2004
    Ort
    Regensburg
    Beiträge
    55
    Zitat Zitat von cees18
    Nun die Frage: Die Partitionen sind mit Sicherheit nicht kaputt, die Daten sind noch drauf, aber vielleicht inkonsistent.
    Mit "mdadm --force --assemble /dev/md0 /dev/hdb5 /dev/hdc5 /dev/hdd5", Müsstest du das Raid wieder zusammenfügen können. Dann must du einen fschk durchführen aber da kann einiges in lost+found landen. Danac h müsste sich der Kram wieder mounten lassen aber garantieren kann ich das nicht.

    Eventuell ist mdadm ist möglicherweise noch nicht installiert.

    /dev/hdc scheint mit aber tatsächlich defekt zu sein.

    Zitat Zitat von cees18
    hda: dma_intr: status=0x51 { DriveReady SeekComplete Error }
    hda: dma_intr: error=0x84 { DriveStatusError BadCRC }
    hda: dma_intr: status=0x51 { DriveReady SeekComplete Error }
    hda: dma_intr: error=0x84 { DriveStatusError BadCRC }
    hda: dma_intr: status=0x51 { DriveReady SeekComplete Error }
    hda: dma_intr: error=0x84 { DriveStatusError BadCRC }
    hda: dma_intr: status=0x51 { DriveReady SeekComplete Error }
    hda: dma_intr: error=0x84 { DriveStatusError BadCRC }
    ist doch wohl recht deutlich .

  5. #5
    CAPSLOCKAMOK !! Avatar von SeXy~Sas
    Registriert seit
    Sep 2003
    Ort
    Stromberg
    Beiträge
    317
    Naja, eine Platte darf bei RAID 5 ja ruhig draufgehen
    Nichts ist so wichtig, dass man es ernstnehmen muss.
    - Marvin

  6. #6
    Registrierter Benutzer
    Registriert seit
    Apr 2003
    Beiträge
    276
    Diese Mekdungen kommen auch wenn

    1. das Netzteil zu schwach ist
    2. der Speicher nicht ausreicht
    3. der Kontroller *******e ist
    4. und natürlich wenn die Platte defekt ist

    --> 4 ist aber unwahrscheinlich, da das bei mir noch nie der Fall war. Es lag immer an der Hardware. Außerdem hätte er dann das Raid nicht anlegen können, es sei den die Platte geht mal und mal nicht. Kommt auch mal vor, ist aber eher selten und nicht bei zwei Platten gleichzeitig.

    Wenn du noch nichts am Raid geänderst hast kannst du das Raid einfach neu anlegen. Aber Vorsicht, solte das Raid nicht in dem Zustand sein bevor diese Fehler auftraten sind die Daten futsch, für immer.
    Auch mit der gewaltsammen Rekonstruktion ist vorsicht geboten. Sind die Supperblöcke defekt, rekonstruiert er müll --> auch dann sind alle Daten weg.
    Und nutze die Raidtools nur wenn du dir 10000000% sicher bist was du machts. Jeder Fehler wird sofort mit der Löschung der Daten bestraft
    Beseitige erst den Fehler dann geht dein Raid auch wieder?????


    Dirk
    AMD T-Bird 1,4GHz 512MB-RAM Gentoo/Gnome

  7. #7
    Registrierter Benutzer
    Registriert seit
    Nov 2003
    Ort
    Würzburg
    Beiträge
    23
    @ripclaw:
    die festplatte hda ist ist nicht im Raid, das ist glaube ich eine etwas ältere 12GB Platte auf der das Linux installiert ist. Die Festplatten auf denen das Raid läuft sind hdb hdc und hdd, jeweils Partition 5 (160GB Samsung Festplatten).

    Den anderen Tip (mdadm --force --assemble /dev/md0 /dev/hdb5 /dev/hdc5 /dev/hdd5) werde ich heute abend mal ausprobieren, ich melde mal zurück wenns funktioniert hat.

    @Dirk_G:
    In dem Rechner steckt ein 166 MHz P1 MMX, board weis ich nicht (war ein Komplettkauf, von welcher Firma weis ich leider auch nicht mehr).
    Am Primary IDE-Controller Master ist eine 13GB-Platte angeschlossen, auf der läuft das Linux, am Slave eine 160GB Samsung.
    Am Secondary IDE-Controller Master und Slave auch je eine 160GB Samsung.
    Was willst du noch wissen?

    Was meinst du mit Raid neu anlegen? mkraid? raidstart habe ich schon probiert, hat nicht funkioniert. Welcher Methode würdest du die größeren Chancen geben? (mdadm oder mkraid?)

    Danke für jede Hilfe!

    Gruß, Christian

  8. #8
    Kommunikator
    Registriert seit
    Apr 1999
    Ort
    Reutlingen
    Beiträge
    3.673
    Hallo,

    das Board ist schon sehr alt. Die Platten im Raid sind topaktuell.
    Das wird aus verschiedenen Gründen meinen Meinung nach nie stabil
    laufen.

    Für mich hört sich das nach einem Hardwaredekt oder einer Unverträglichkeit an.

    Viele Grüße

    Eicke

  9. #9
    Registrierter Benutzer
    Registriert seit
    Apr 2003
    Beiträge
    276
    Hi
    Was willst du noch wissen?
    Wie siehts mit Speicher aus und was hast du für ein Netzteil? Als Controller ist ja ein VIA drin, der eigendlich unproblematisch ist. Probleme hatte ich bisher nur mit PROMISE-Controllern.

    Speicher sollte min. 256MB drin sein. Beim Netzteil sollte man großzügig sein. Denke mal das da noch was mit etwa 200W rumwerkelt. Das reicht nicht! 300W sollte es haben. Ich bin immer gut gefahren mit 50W extra pro Festplatte. Habe bei mir 8 RaidPlatten und benutze ein 400W Netzteil und 512MB Speicher. Mit 350W und 256 lief es nicht, aber dafrü auf einem P266.


    Was meinst du mit Raid neu anlegen? mkraid? raidstart habe ich schon probiert, hat nicht funkioniert. Welcher Methode würdest du die größeren Chancen geben? (mdadm oder mkraid?)
    Ich meine mkraid. Das solltest du aber nur machen wenn das Raid nicht geändert wurde und die Platten Fehlerfrei laufen. Ausserdem ist das Raid noch da. Nur wenn die Platten zicken wird es angehalten. Ich würde erst mal gar nichts am Raid machen sonderern serst mal dafür sorgen das der Rechner funktioniert. Wirst sehen das das Raid dann auch wieder da ist.
    Über mdadm kann ich nichts sagen, da es bei mir nicht installiert ist.


    Dirk
    AMD T-Bird 1,4GHz 512MB-RAM Gentoo/Gnome

  10. #10
    Registrierter Benutzer
    Registriert seit
    Nov 2003
    Ort
    Würzburg
    Beiträge
    23
    Hallo,

    also Netzteil weiss ich auch nicht genau, denke aber nicht das es mehr als 200 oder 250 Watt sind. RAM sind 96MB drin...also grad genug um suse zu installieren. Der Rechner stand halt noch bei mir rum und ich hab nen Server gesucht...bin aber grad bei ebay auf der suche nach was besserem so um die 500MHZ und 128-256MB RAM

    Den mdadm Befehl habe ich ausprobiert:

    Code:
    linux:/ #
    linux:/ # mdadm --force --assemble /dev/md0 /dev/hdb5 /dev/hdc5 /dev/hdd5
    mdadm: --assemble would set mode to assemble, but it is already manage.
    ..das bedeutet? (man-page hab ich schon gelesen aber nix dazu gefunden...kann aber auch an meinem Englisch liegen )

    Gruß, Christian
    Geändert von cees18 (18.04.04 um 21:36 Uhr)

  11. #11
    Registrierter Benutzer
    Registriert seit
    Nov 2003
    Ort
    Würzburg
    Beiträge
    23
    ..kann mir das keiner verraten?
    ..oder is es so einfach?

  12. #12
    Registrierter Benutzer
    Registriert seit
    Apr 2003
    Beiträge
    276
    Na, was macht dein Raid?

    Netzteil mal ausgetauscht und ein wenig Speicher aufgerüstet?


    mdadm: --assemble would set mode to assemble, but it is already manage.
    Du willst was einschalten was schon eingeschaltet ist! Mehr kann ich auch nicht dazu sagen.


    Dirk
    AMD T-Bird 1,4GHz 512MB-RAM Gentoo/Gnome

  13. #13
    Kommunikator
    Registriert seit
    Apr 1999
    Ort
    Reutlingen
    Beiträge
    3.673
    Zitat Zitat von Dirk_G
    Na, was macht dein Raid?

    Netzteil mal ausgetauscht und ein wenig Speicher aufgerüstet?




    Du willst was einschalten was schon eingeschaltet ist! Mehr kann ich auch nicht dazu sagen.


    Dirk
    Ich glaube nicht das es am Netzteil leigt. Ein Pentium Eins Board
    konnte fast immer nur 64MB RAM verwalten. Die späteren Super Seven
    schaffen mehr.

  14. #14
    Registrierter Benutzer
    Registriert seit
    Nov 2003
    Ort
    Würzburg
    Beiträge
    23
    Nee, noch nix ausgetauscht. Probier jetzt erst mal n bissle rum das des Raid wieder funktioniert, wenn die Daten weg sind schmeiss ich den Mist eh raus und vergesse das Thema Softwareraid für die nächsten 3 Jahre .

    Ansonsten mach ich mich dann auf die Suche nach nem neuen Server so um die 500MHz und 128-256MB RAM auf den das Ganze dann migriert wird. Damit sollten dann alle Probleme Hardwareseitig aus dem Weg geräumt sein...

    Allerdings brauch ich dann noch ein Backupmedium für ca. 250GB Daten, was nicht einfach wird. Da das ganze ein privater Server ist sind LTOs etwas teuer..
    Hätte dafür irgenjemand ne Idee?

    Falls noch jemand was zu meinem defekten Raid bzw. im Speziellen zu dem "mdadm"-Befehl einfällt bitte bitte posten!!!

    Danke für eure Hilfe bis jetzt

  15. #15
    Registrierter Benutzer
    Registriert seit
    Nov 2003
    Ort
    Würzburg
    Beiträge
    23
    *juhuu* ..also nur zu Info, vielleicht interessiert es ja noch jemanden:

    Mein Raid funktioniert wieder, ich habe es mit:

    Code:
    mkraid -R /dev/md0
    neu angelegt, dnach wurde das Raid neu berechnet, hat jetzt 2 Tage gedauert
    Das funktioniert solange (wie bei mir beschrieben) alle Daten eigentlich noch da sind und das Raid eigentlich konsistent ist. Ansonsten ist ein kompletter Datenverlust ziemlich wahrscheinlich...

    So, werd jetzt erstmal ein Backup der wichtigsten Daten machen und

    Danke nochmal und Gruß, Christian

Ähnliche Themen

  1. WLAN Profi gesucht
    Von billmor im Forum Linux Allgemein
    Antworten: 2
    Letzter Beitrag: 21.01.04, 22:32
  2. Proggis gesucht
    Von yoxx im Forum Meldungen und Mitglieder
    Antworten: 1
    Letzter Beitrag: 09.01.03, 13:00
  3. HILFE ! HILFE ! Profi gesucht!!!!
    Von realtec im Forum Sicherheit
    Antworten: 8
    Letzter Beitrag: 17.08.02, 18:37
  4. FTP-Server gesucht....
    Von LKH im Forum Linux als Server
    Antworten: 2
    Letzter Beitrag: 16.10.01, 23:32
  5. DRINGEND Raum in Paderborn gesucht!!!! BITTE LESEN!
    Von robert im Forum Meldungen und Mitglieder
    Antworten: 0
    Letzter Beitrag: 04.01.00, 17:46

Lesezeichen

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •