Anzeige:
Seite 1 von 3 123 LetzteLetzte
Ergebnis 1 bis 15 von 44

Thema: Crash bei Raid 5

  1. #1
    Registrierter Benutzer
    Registriert seit
    Oct 2008
    Beiträge
    86

    Crash bei Raid 5

    Hallo erst einmal,

    ich habe ein opensuse 11 mit einem si 3124 und 4 x 1 TB Software Raid 5.
    Opensuse ist wiederrum auf 2 extra Platten installiert.
    Wenn Opensuse bootet, macht opensuse direkt fsck bei bei meinem Raid 5 (gemountet als /dev/md1) und bricht es bei ca 50 % ab. Leider weiß ich die Meldeung net mehr.....
    Jetzt habe ich mit strg C fsck manuell abgebrochen und konnte mich wenigstens als root anmelden und habe manuell in der Konsole folgenden Befehl gestartet:

    fsck -p -c -v /dev/md1

    Es kam folgende Ausgabe:

    /dev/md1: Updating bad block inode.
    /dev/md1: Inodes that were part of a corrupted orphan linked list found.
    /dev/md1: UNEXPECTED INCONSISTENCY; RUN fsck MANUALLY. (i.e.,without -a or -p options)

    äh, was kann ich tun? Was ist jetzt noch möglich? All meine Daten liegen auf dem Raid 5 Verbund. Bekomme ich das vernünftig wieder hergestellt?

    gr. droide
    Geändert von droide (24.02.09 um 03:49 Uhr)

  2. #2
    Shell-User Avatar von zyrusthc
    Registriert seit
    Jan 2004
    Beiträge
    6.340
    Zitat Zitat von droide
    /dev/md1: UNEXPECTED INCONSISTENCY; RUN fsck MANUALLY. (i.e.,without -a or -p options)
    was kann ich tun?
    Genau das machen was er sagt!
    Und umounten nicht vergessen....

    Greeez Oli
    Notebook: Lenovo Z570 CoreI7
    Workstation: Core2Quad Q6700 - ASUS P5WDG2-WS Pro - 8800GT - 4GB-DDR2/800 - 4x500GB=RAID1 - 120GB SSD - Innovatek Wakü - 27Widescreen/AcerTFT
    Server: IBM X345 + Netfinity 5000

    http://zyrusthc-linux.no-ip.org

  3. #3
    Mod. FAQ/Howto/Emulation
    Registriert seit
    Sep 2000
    Beiträge
    17.397
    Und zur Not halt das Backup einspielen. Wobei ein RAID niemals ein Backup sein kann.

  4. #4
    Registrierter Benutzer
    Registriert seit
    Oct 2008
    Beiträge
    86
    Das ist wohl richtig!
    Leider ist mein Backup 6 Wochen alt, die Probematig ist, dass ich einen weiteren Rechner habe um dort ein Backup mit rsync zu erstellen, beim letzten Backup ist wohl irgendwas abgeschmirt und ein Teil meiner Daten waren unbrauchbar geworden und ich weiß noch nicht genau was ich falsch gemacht habe oder was genau passiert ist.
    Es ist auch nicht ganz einfach über 600 GB mal schnell zu sichern.
    Ich habe jetzt fsck laufen lassen:

    fsck 1.40.8 (13-Mar-2008)
    e2fsck 1.40.8 (13-Mar-2008)
    /dev/md1 contains a file system with errors, check forced.
    Pass 1: Checking inodes, blocks, and sizes
    Inodes that were part of a corrupted orphan linked list found. Fix<y>? yes

    Inode 152469561 was part of the orphaned inode list. FIXED.
    Inode 152469562 was part of the orphaned inode list. FIXED.
    Inode 152469563 was part of the orphaned inode list. FIXED.
    Inode 152469564 was part of the orphaned inode list. FIXED.
    Inode 152469565 was part of the orphaned inode list. FIXED.
    Inode 152469566 was part of the orphaned inode list. FIXED.
    Inode 152469567 was part of the orphaned inode list. FIXED.
    Inode 152469568 was part of the orphaned inode list. FIXED.
    Inode 152469569 was part of the orphaned inode list. FIXED.
    Inode 152469570 was part of the orphaned inode list. FIXED.
    Inode 152469571 was part of the orphaned inode list. FIXED.
    Inode 152469572 was part of the orphaned inode list. FIXED.
    Inode 152469573 was part of the orphaned inode list. FIXED.
    Inode 152469574 was part of the orphaned inode list. FIXED.
    Inode 152469575 was part of the orphaned inode list. FIXED.
    Inode 152469576 was part of the orphaned inode list. FIXED.
    Inode 152469577 was part of the orphaned inode list. FIXED.
    Deleted inode 152469580 has zero dtime. Fix<y>? yes

    Deleted inode 176734220 has zero dtime. Fix<y>? yes


    Running additional passes to resolve blocks claimed by more than one inode...
    Pass 1B: Rescanning for multiply-claimed blocks
    Multiply-claimed block(s) in inode 180019203: 720101741 720101742 720101743 7201
    01744 720101745 720101746 720101747 720101741 720101742 720101743 720101744 7201
    01745 720101746 720101747
    Pass 1C: Scanning directories for inodes with multiply-claimed blocks
    Pass 1D: Reconciling multiply-claimed blocks
    (There are 1 inodes containing multiply-claimed blocks.)

    File /mp3/Alben/Jean Michel Jarre/En Attendant Cousteau/01 - Calypso.mp3 (inode
    #180019203, mod time Mon Nov 17 20:40:42 2008)
    has 14 multiply-claimed block(s), shared with 0 file(s):
    Clone multiply-claimed blocks<y>? yes

    Pass 2: Checking directory structure
    Entry 'img1010.gif' in /backup/backup_htdocs_lampp/ip-cms/old/filemanager/Bronst
    ein/daten/kap_8/img_10 (100548728) has deleted/unused inode 176734220. Clear<y>
    ? yes

    Pass 3: Checking directory connectivity
    Pass 4: Checking reference counts
    Inode 7510510 (...) has invalid mode (00).
    Clear<y>? yes

    Inode 139824365 (...) has invalid mode (00).
    Clear<y>? yes

    Inode 139824877 (...) has invalid mode (00).
    Clear<y>? yes

    Inode 146736794 (...) has invalid mode (00).
    Clear<y>? yes

    Inode 154666987 (...) has invalid mode (00).
    Clear<y>? yes

    Inode 157522876 (...) has invalid mode (00).
    Clear<y>? yes

    Inode 159422558 (...) has invalid mode (00).
    Clear<y>? yes

    Pass 5: Checking group summary information
    Block bitmap differences: -(609910549--609910783) -(609911298--609911432) -7069
    47077 -(720101774--720101780)
    Fix<y>? yes

    Free blocks count wrong for group #1 (29650, counted=29643).
    Fix<y>? yes

    Free blocks count wrong for group #18612 (19644, counted=19879).
    Fix<y>? yes

    Free blocks count wrong for group #18613 (32023, counted=32158).
    Fix<y>? yes

    Free blocks count wrong for group #21574 (32073, counted=32074).
    Fix<y>? yes

    Free blocks count wrong for group #21975 (19966, counted=19973).
    Fix<y>? yes

    Free blocks count wrong (594948036, counted=594948407).
    Fix<y>? yes

    yInode bitmap differences: -(152469561--152469577) -152469580 -176734220
    Fix<y>? yes

    Free inodes count wrong for group #916 (8193, counted=8192).
    Fix<y>? yes

    Free inodes count wrong for group #17068 (8194, counted=8192).
    Fix<y>? yes

    Free inodes count wrong for group #17912 (8193, counted=8192).
    Fix<y>? yes

    Free inodes count wrong for group #18612 (7899, counted=7917).
    Fix<y>? yes

    Free inodes count wrong for group #18880 (8193, counted=8192).
    Fix<y>? yes

    Free inodes count wrong for group #19228 (8193, counted=8192).
    Fix<y>? yes

    Free inodes count wrong for group #19460 (8193, counted=8192).
    Fix<y>? yes

    Free inodes count wrong for group #21574 (8073, counted=8074).
    Fix<y>? yes

    Free inodes count wrong (182743510, counted=182743522).
    Fix<y>? yes


    /dev/md1: ***** FILE SYSTEM WAS MODIFIED *****
    /dev/md1: 405022/183148544 files (2.3% non-contiguous), 137621449/732569856 bloc ks


    Was sagt mir das? Ich habe keine Ahnung davon!!! Ich muss dazu sagen, dass die 4 1TB Festplatten neu sind, höchstens 2 Monate alt, sind die jetzt defekt und wie kann ich feststellen welche von denen, fragen über fragen
    Geändert von droide (24.02.09 um 08:28 Uhr)

  5. #5
    Flachinformatiker Avatar von MiGo
    Registriert seit
    Oct 2002
    Ort
    Heidelberg
    Beiträge
    5.270
    Ich muss dazu sagen, dass die 4 1TB Festplatten neu sind, höchstens 2 Monate alt, sind die jetzt defekt und wie kann ich feststellen welche von denen, fragen über fragen
    Nur weil sie neu sind, sind sie noch lange nicht OK - Festplatten fallen in der Regel entweder sehr früh oder sehr spät aus.
    Checken kannst du das ganze mit einem "badblocks -v /dev/sdX" (ich würde vorher das Raid anhalten). Wenn "badblocks" anfängt, eine Liste mit Zahlen auszuwerfen, ist die entsprechende Platte hinüber.
    "Da steht sowas ähnliches wie" oder "das funzt net!!" ist keine Fehlermeldung!

  6. #6
    Registrierter Benutzer
    Registriert seit
    Oct 2008
    Beiträge
    86
    Zitat Zitat von MiGo Beitrag anzeigen
    (ich würde vorher das Raid anhalten). Wenn "badblocks" anfängt, eine Liste mit Zahlen auszuwerfen, ist die entsprechende Platte hinüber.
    Ok leuchtet mir ein. Nur wenn ich das Raid mit umount /dev/md1 herausnehmen möchte, kommt dann: Das Gerät wird momentan noch benutzt.
    Ich hatte den Rechner gerade neu gestartet, oder ist das der Falsche Befehl?

  7. #7
    Shell-User Avatar von zyrusthc
    Registriert seit
    Jan 2004
    Beiträge
    6.340
    Zitat Zitat von droide Beitrag anzeigen
    Ok leuchtet mir ein. Nur wenn ich das Raid mit umount /dev/md1 herausnehmen möchte, kommt dann: Das Gerät wird momentan noch benutzt.
    Ich hatte den Rechner gerade neu gestartet, oder ist das der Falsche Befehl?
    Läuft den auf diesem Raid auch das Linuxsystem? Also das Rootverzeichnis ?

    Greeez Oli
    Notebook: Lenovo Z570 CoreI7
    Workstation: Core2Quad Q6700 - ASUS P5WDG2-WS Pro - 8800GT - 4GB-DDR2/800 - 4x500GB=RAID1 - 120GB SSD - Innovatek Wakü - 27Widescreen/AcerTFT
    Server: IBM X345 + Netfinity 5000

    http://zyrusthc-linux.no-ip.org

  8. #8
    Registrierter Benutzer
    Registriert seit
    Oct 2008
    Beiträge
    86
    Zitat Zitat von zyrusthc Beitrag anzeigen
    Läuft den auf diesem Raid auch das Linuxsystem? Also das Rootverzeichnis ?

    Greeez Oli

    Nein, das Rootsystem ist auf einer physikalischen extra Platte.

  9. #9
    Registrierter Benutzer
    Registriert seit
    Oct 2008
    Beiträge
    86
    Ok, habe den Fehler mit dem umounten gefunden. Ich habe noch den Samba laufen gehabt mit den Freigaben auf dieses Raid 5.

  10. #10
    Registrierter Benutzer
    Registriert seit
    Oct 2008
    Beiträge
    86

    Badblocks

    Zitat Zitat von MiGo Beitrag anzeigen
    Checken kannst du das ganze mit einem "badblocks -v /dev/sdX" (ich würde vorher das Raid anhalten). Wenn "badblocks" anfängt, eine Liste mit Zahlen auszuwerfen, ist die entsprechende Platte hinüber.
    So jetzt hab ich alle vier Festplatten überprüft, hier das Ergeniss:

    bechlingen:~ # umount /dev/md1
    bechlingen:~ # badblocks -v /dev/sda
    Checking blocks 0 to 976762583
    Checking for bad blocks (read-only test): sdone
    Pass completed, 0 bad blocks found.
    bechlingen:~ # badblocks -v /dev/sdb
    Checking blocks 0 to 976762583
    Checking for bad blocks (read-only test): done
    Pass completed, 0 bad blocks found.
    bechlingen:~ # badblocks -v /dev/sdc
    Checking blocks 0 to 976762583
    Checking for bad blocks (read-only test): done
    Pass completed, 0 bad blocks found.
    bechlingen:~ # badblocks -v /dev/sdd
    Checking blocks 0 to 976762583
    Checking for bad blocks (read-only test): done
    Pass completed, 0 bad blocks found.


    Bedeutet Festplatten sind ok, aber woher kommt denn dann mein Filesystem Problem???

  11. #11
    Registrierter Benutzer
    Registriert seit
    Jun 2003
    Beiträge
    578
    hängt ne usv drann?

    kleinere stromschwankungen wärend eines schreibprozesses oder ein kleiner aussetzer der platte reicht. eine usv würde das wohl ausgleichen.
    gruss sys;-)

  12. #12
    Registrierter Benutzer
    Registriert seit
    Oct 2008
    Beiträge
    86
    Nein, leider habe ich keine USV.

  13. #13
    Flachinformatiker Avatar von MiGo
    Registriert seit
    Oct 2002
    Ort
    Heidelberg
    Beiträge
    5.270
    Bedeutet Festplatten sind ok, aber woher kommt denn dann mein Filesystem Problem???
    Wenn dir irgendwas abgestürzt ist, kann sowas schon mal das Dateisystem beschädigen. Was ist's für eines? Und was verwendest du für's Backup?
    "Da steht sowas ähnliches wie" oder "das funzt net!!" ist keine Fehlermeldung!

  14. #14
    Registrierter Benutzer
    Registriert seit
    Oct 2008
    Beiträge
    86
    Da ich kein echtes Hardware Raid habe (Silicon Image 3124) habe ich ja nur die Möglichkeit eine Software Raid zu erstellen (Linux-Raid). Ich habe wie scjon gesagt ein Raid 5 mit 4 x 1 TB Platten erstellt.
    Als Backup benutze ich ein weiteren Rechner, auch Opensuse 11, mit einem LVM Verbund damit ich auf über 600 GB Speicherkapazität komme, damit ich meine gesamten Daten sichern kann die ich besitze.
    Ich synchronisiere mit rsync, da ich noch nicht so viel Erafhrungen mit Linux habe, bastel ich noch an einem Script, damit ich nicht jedes Modul von rsync einzeln in die Konsole eingeben muss. Es ist zwar mühsam, aber so funktioniert es. Nur wie ich oben schon geschreiben habe, ist bei irgendein Synchronierungsvorgang rsync/opensuse, was auch immer abgestürzt und meine Datensicherung war nur noch teilweise zu gebrauchen. Hinzu kam, dass mein Raid die oben genannten Fehler hatte (läuft jetzt zum glück wieder), ich will nur heraus finden an was hat die ganze misere gelegen, damit ich vorbeugen kann, damit das ganze nicht noch einmal passiert.
    Im Anhang meine Festplatten Konfig aus Yast.
    Geändert von droide (27.02.09 um 09:57 Uhr)

  15. #15
    Registrierter Benutzer
    Registriert seit
    Oct 2008
    Beiträge
    86
    Hallo,

    mein System Opensuse 12.1 lief seit sehr langer Zeit super, bis meine Festplatte wo nur nur das Betriebssystem installiert war, kaputt gegangen ist. Diese Festplatte habe ich ausgetauscht und Opensuse 12,1 wieder installiert. Leider sehe ich das Software Raid 5 Array nicht mehr, wie kann ich das sichtbar machen, oder überprüfen, dass es noch da ist? Welche Infos benötigt Ihr noch um mir helfen zu können?
    Die konfiguration hat sich wie oben schon beschreiben nicht geändert!

    gr. droide
    Geändert von droide (16.07.12 um 15:51 Uhr)

Ähnliche Themen

  1. Neue Partition ohne Reboot einbinden
    Von OliverH im Forum System installieren und konfigurieren
    Antworten: 12
    Letzter Beitrag: 11.01.09, 01:14
  2. Softwareraid-Profi gesucht!
    Von cees18 im Forum Linux Allgemein
    Antworten: 24
    Letzter Beitrag: 16.11.08, 19:35
  3. Linux auf dem SW Raid
    Von frankpr im Forum Hier Suchen und Finden, Links, Tutorials
    Antworten: 5
    Letzter Beitrag: 27.01.05, 17:23
  4. Partitionstabelle für Software Raid 1
    Von eisfee im Forum System installieren und konfigurieren
    Antworten: 2
    Letzter Beitrag: 13.06.04, 12:25
  5. Problem mit NIL (NIL isn't Liero)
    Von jf2003 im Forum Spielen Allgemein
    Antworten: 1
    Letzter Beitrag: 11.11.03, 07:09

Lesezeichen

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •