vangodd
21.12.10, 21:49
Hallo zusammen,
jetzt brauche ich doch etwas Hilfe. Ich betreibe schon seid Jahren ein Software Raids 1 und 0 unter openSUSE 11.0 (X86-64). Bis heute auch noch nie Probleme gehabt. Vor einem Monat habe ich das ganze System auf zwei neue Festplatten gezogen, die beiden Raids habe ich neu angelegt und die aktuellen Daten auf diese Beiden Laufwerke gespielt.
Gestern Abend habe ich meinen Rechner normal herunter gefahren.
Heute Abend starte ich meinen Rechner und das System bleibt bei der folgenden Fehlermeldung stehen:
md: md0 stopped.
md: bind<sda3>
md: bind<sdb3>
md: md0: raid array is not clean -- starting background reconstruction
md: raid1 personality registered for level 1
raid1: raid set md0 active with 2 out of 2 mirrors
md0: bitmap file is out of date (20 < 21) -- forcing full recovery
md0: bitmap file is out of date, doing full recovery
md0: bitmap initialisation failed: -5
md0: failed to create bitmap (-5)
md: pers->run() failed ...
Das andere Raid 0 auf den Festplatten funktioniert einwandfrei!
Das Raid 1 /dev/md0 besteht aus den beiden Partitionen /dev/sda3 und /dev/sdb3
Das Problem habe ich schon so weit ein eingegrenzt:
mdadm --examine /dev/sda3 /dev/sdb3
/dev/sda3:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x1
Array UUID : 5d4dfd7f:cd068792:bb97253f:9b5d144c
Name : 0
Creation Time : Wed Nov 24 23:32:23 2010
Raid Level : raid1
Raid Devices : 2
Avail Dev Size : 257039856 (122.57 GiB 131.60 GB)
Array Size : 257039856 (122.57 GiB 131.60 GB)
Super Offset : 257039984 sectors
State : clean
Device UUID : a03ca53a:03e4d0d6:a2b227f4:3a356bae
Internal Bitmap : -124 sectors from superblock
Update Time : Mon Dec 20 23:41:13 2010
Checksum : c2e76a9f - correct
Events : 20
Array Slot : 1 (0, 1)
Array State : uU
/dev/sdb3:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x1
Array UUID : 5d4dfd7f:cd068792:bb97253f:9b5d144c
Name : 0
Creation Time : Wed Nov 24 23:32:23 2010
Raid Level : raid1
Raid Devices : 2
Avail Dev Size : 257039856 (122.57 GiB 131.60 GB)
Array Size : 257039856 (122.57 GiB 131.60 GB)
Super Offset : 257039984 sectors
State : active
Device UUID : 6176f007:b384eb25:bce2fcdf:51d08c97
Internal Bitmap : -124 sectors from superblock
Update Time : Mon Dec 20 23:41:12 2010
Checksum : b444103f - correct
Events : 21
Array Slot : 0 (0, 1)
Array State : Uu
Aufgefallen ist mir, das die "Events: ##" unterschiedlich sind, das auch beim booten bemängelt wird. und bei der /dev/sda3 steht "State: clean" und bei der /dev/sdb3 "State: active"??
Jetzt passe ich und weiß nicht mehr weiter, google konnte auch nicht helfen!
So wie ich das verstehe, müsste man die beiden Nummer von "Events" gleich bekommen, damit das Array wieder funktioniert. Warum läuft das Array nicht weiter, wenn eine Partition defekt ist, sollte doch eigentlich!
Kann mir jemand helfen, diesen Fehler zu beheben und/oder das Array zu reaktivieren?
Schönen Dank schon mal im Voraus
David
Hab noch was vergessen:
mdadm --detail /dev/md0
/dev/md0:
Version : 01.00.03
Creation Time : Wed Nov 24 23:32:23 2010
Raid Level : raid1
Used Dev Size : 128519928 (122.57 GiB 131.60 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Mon Dec 20 23:41:12 2010
State : active, Not Started
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Name : 0
UUID : 5d4dfd7f:cd068792:bb97253f:9b5d144c
Events : 21
Number Major Minor RaidDevice State
0 8 19 0 active sync /dev/sdb3
1 8 3 1 active sync /dev/sda3
jetzt brauche ich doch etwas Hilfe. Ich betreibe schon seid Jahren ein Software Raids 1 und 0 unter openSUSE 11.0 (X86-64). Bis heute auch noch nie Probleme gehabt. Vor einem Monat habe ich das ganze System auf zwei neue Festplatten gezogen, die beiden Raids habe ich neu angelegt und die aktuellen Daten auf diese Beiden Laufwerke gespielt.
Gestern Abend habe ich meinen Rechner normal herunter gefahren.
Heute Abend starte ich meinen Rechner und das System bleibt bei der folgenden Fehlermeldung stehen:
md: md0 stopped.
md: bind<sda3>
md: bind<sdb3>
md: md0: raid array is not clean -- starting background reconstruction
md: raid1 personality registered for level 1
raid1: raid set md0 active with 2 out of 2 mirrors
md0: bitmap file is out of date (20 < 21) -- forcing full recovery
md0: bitmap file is out of date, doing full recovery
md0: bitmap initialisation failed: -5
md0: failed to create bitmap (-5)
md: pers->run() failed ...
Das andere Raid 0 auf den Festplatten funktioniert einwandfrei!
Das Raid 1 /dev/md0 besteht aus den beiden Partitionen /dev/sda3 und /dev/sdb3
Das Problem habe ich schon so weit ein eingegrenzt:
mdadm --examine /dev/sda3 /dev/sdb3
/dev/sda3:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x1
Array UUID : 5d4dfd7f:cd068792:bb97253f:9b5d144c
Name : 0
Creation Time : Wed Nov 24 23:32:23 2010
Raid Level : raid1
Raid Devices : 2
Avail Dev Size : 257039856 (122.57 GiB 131.60 GB)
Array Size : 257039856 (122.57 GiB 131.60 GB)
Super Offset : 257039984 sectors
State : clean
Device UUID : a03ca53a:03e4d0d6:a2b227f4:3a356bae
Internal Bitmap : -124 sectors from superblock
Update Time : Mon Dec 20 23:41:13 2010
Checksum : c2e76a9f - correct
Events : 20
Array Slot : 1 (0, 1)
Array State : uU
/dev/sdb3:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x1
Array UUID : 5d4dfd7f:cd068792:bb97253f:9b5d144c
Name : 0
Creation Time : Wed Nov 24 23:32:23 2010
Raid Level : raid1
Raid Devices : 2
Avail Dev Size : 257039856 (122.57 GiB 131.60 GB)
Array Size : 257039856 (122.57 GiB 131.60 GB)
Super Offset : 257039984 sectors
State : active
Device UUID : 6176f007:b384eb25:bce2fcdf:51d08c97
Internal Bitmap : -124 sectors from superblock
Update Time : Mon Dec 20 23:41:12 2010
Checksum : b444103f - correct
Events : 21
Array Slot : 0 (0, 1)
Array State : Uu
Aufgefallen ist mir, das die "Events: ##" unterschiedlich sind, das auch beim booten bemängelt wird. und bei der /dev/sda3 steht "State: clean" und bei der /dev/sdb3 "State: active"??
Jetzt passe ich und weiß nicht mehr weiter, google konnte auch nicht helfen!
So wie ich das verstehe, müsste man die beiden Nummer von "Events" gleich bekommen, damit das Array wieder funktioniert. Warum läuft das Array nicht weiter, wenn eine Partition defekt ist, sollte doch eigentlich!
Kann mir jemand helfen, diesen Fehler zu beheben und/oder das Array zu reaktivieren?
Schönen Dank schon mal im Voraus
David
Hab noch was vergessen:
mdadm --detail /dev/md0
/dev/md0:
Version : 01.00.03
Creation Time : Wed Nov 24 23:32:23 2010
Raid Level : raid1
Used Dev Size : 128519928 (122.57 GiB 131.60 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Mon Dec 20 23:41:12 2010
State : active, Not Started
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Name : 0
UUID : 5d4dfd7f:cd068792:bb97253f:9b5d144c
Events : 21
Number Major Minor RaidDevice State
0 8 19 0 active sync /dev/sdb3
1 8 3 1 active sync /dev/sda3