PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : RAID5 ARRAY wiederherstellen



crazykuenstler
26.03.21, 20:40
Hallo alle Miteinander,

ich habe folgendes Problem.

Mein Synology Rackserver ist mir abgeschmiert. Das Mainbord von dem Rackserver hat sich sprich wörtlich in Rauch aufgelöst.
Die Festplatten, 4x10TB konnte ich unbeschadet retten.

Das Raid welches auf dem Rackserver installiert war, ist ein RAID5. Ich hatte die Festplatten nach Slot auch beschriftet und habe die Festplatten in der Reihenfolge wie diese im Rackserver gesteckt waren nun auch auf dem Mainboard im Linux Rechner gesteckt. Die Festplatten werden erkannt und auch das Raid wird erkannt. Leider bekomme ich es nicht hin, das Raid zu mounten oder aber zum laufen zu bringen.

Vielleicht könnte mir ja bitte jemand von euch weiterhelfen?

Viele Grüße und Besten Dank vorab
Patrick

Hier vorab mal einige Infos die ich abgefragt habe.


localhost:~ # lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 9.1T 0 disk
├─sda1 8:1 0 2.4G 0 part
├─sda2 8:2 0 2G 0 part
└─sda3 8:3 0 9.1T 0 part
sdb 8:16 0 9.1T 0 disk
├─sdb1 8:17 0 2.4G 0 part
├─sdb2 8:18 0 2G 0 part
└─sdb3 8:19 0 9.1T 0 part
sdc 8:32 0 9.1T 0 disk
├─sdc1 8:33 0 2.4G 0 part
├─sdc2 8:34 0 2G 0 part
└─sdc3 8:35 0 9.1T 0 part
sdd 8:48 0 9.1T 0 disk
├─sdd1 8:49 0 2.4G 0 part
├─sdd2 8:50 0 2G 0 part
└─sdd3 8:51 0 9.1T 0 part
nvme0n1 259:0 0 953.9G 0 disk
├─nvme0n1p1 259:1 0 500M 0 part /boot/efi
├─nvme0n1p2 259:2 0 951.4G 0 part /
└─nvme0n1p3 259:3 0 2G 0 part [SWAP]



localhost:~ # fdisk -l
Disk /dev/sda: 9.1 TiB, 10000831348736 bytes, 19532873728 sectors
Disk model: ST10000VN0004-2G
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: E1F0152A-05ED-4A2E-BB10-91E039EF69E3
Device Start End Sectors Size Type
/dev/sda1 2048 4982527 4980480 2.4G Linux RAID
/dev/sda2 4982528 9176831 4194304 2G Linux RAID
/dev/sda3 9437184 19532668927 19523231744 9.1T Linux RAID

Disk /dev/sdb: 9.1 TiB, 10000831348736 bytes, 19532873728 sectors
Disk model: ST10000VN0004-2G
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 6095ED22-948D-426D-928F-729DC51EB855
Device Start End Sectors Size Type
/dev/sdb1 2048 4982527 4980480 2.4G Linux RAID
/dev/sdb2 4982528 9176831 4194304 2G Linux RAID
/dev/sdb3 9437184 19532668927 19523231744 9.1T Linux RAID

Disk /dev/sdc: 9.1 TiB, 10000831348736 bytes, 19532873728 sectors
Disk model: ST10000VN0004-2G
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 0BEC3D94-D7EA-4372-A903-17DE154FF6E7
Device Start End Sectors Size Type
/dev/sdc1 2048 4982527 4980480 2.4G Linux RAID
/dev/sdc2 4982528 9176831 4194304 2G Linux RAID
/dev/sdc3 9437184 19532668927 19523231744 9.1T Linux RAID

Disk /dev/sdd: 9.1 TiB, 10000831348736 bytes, 19532873728 sectors
Disk model: ST10000VN0004-2G
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: D54CCDB1-8118-4A56-A078-48A70B9020B2
Device Start End Sectors Size Type
/dev/sdd1 2048 4982527 4980480 2.4G Linux RAID
/dev/sdd2 4982528 9176831 4194304 2G Linux RAID
/dev/sdd3 9437184 19532668927 19523231744 9.1T Linux RAID

Disk /dev/nvme0n1: 953.9 GiB, 1024209543168 bytes, 2000409264 sectors
Disk model: Samsung SSD 970 PRO 1TB
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: D94930E4-75E7-48C1-8C33-88F3615B9E4C
Device Start End Sectors Size Type
/dev/nvme0n1p1 2048 1026047 1024000 500M EFI System
/dev/nvme0n1p2 1026048 1996214271 1995188224 951.4G Linux filesystem
/dev/nvme0n1p3 1996214272 2000409230 4194959 2G Linux swap


localhost:~ # mdadm --examine /dev/sda1
mdadm: No md superblock detected on /dev/sda1.
localhost:~ # mdadm --examine /dev/sda2
mdadm: No md superblock detected on /dev/sda2.
localhost:~ # mdadm --examine /dev/sda3
/dev/sda3:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 476284d6:a1238bf9:56895644:aa697466
Name : SRV-PAZ:2
Creation Time : Sat Mar 3 21:15:33 2018
Raid Level : raid5
Raid Devices : 4
Avail Dev Size : 19523229696 sectors (9.09 TiB 10.00 TB)
Array Size : 29284844544 KiB (27.27 TiB 29.99 TB)
Data Offset : 2048 sectors
Super Offset : 8 sectors
Unused Space : before=1968 sectors, after=0 sectors
State : clean
Device UUID : be158f80:00af635b:37668f29:79f1b2a2
Update Time : Mon Mar 22 15:02:14 2021
Checksum : 63b25a46 - correct
Events : 398
Layout : left-symmetric
Chunk Size : 64K
Device Role : Active device 0
Array State : AA.. ('A' == active, '.' == missing, 'R' == replacing)

localhost:~ # mdadm --examine /dev/sdb1
mdadm: No md superblock detected on /dev/sdb1.
localhost:~ # mdadm --examine /dev/sdb2
mdadm: No md superblock detected on /dev/sdb2.
localhost:~ # mdadm --examine /dev/sdb3
/dev/sdb3:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 476284d6:a1238bf9:56895644:aa697466
Name : SRV-PAZ:2
Creation Time : Sat Mar 3 21:15:33 2018
Raid Level : raid5
Raid Devices : 4
Avail Dev Size : 19523229696 sectors (9.09 TiB 10.00 TB)
Array Size : 29284844544 KiB (27.27 TiB 29.99 TB)
Data Offset : 2048 sectors
Super Offset : 8 sectors
Unused Space : before=1968 sectors, after=0 sectors
State : clean
Device UUID : a146fce3:69ac4bc5:40bc0c0e:2e31324d
Update Time : Mon Mar 22 15:02:14 2021
Checksum : c0041e51 - correct
Events : 398
Layout : left-symmetric
Chunk Size : 64K
Device Role : Active device 1
Array State : AA.. ('A' == active, '.' == missing, 'R' == replacing)


localhost:~ # mdadm --examine /dev/sdc1
mdadm: No md superblock detected on /dev/sdc1.
localhost:~ # mdadm --examine /dev/sdc2
mdadm: No md superblock detected on /dev/sdc2.
localhost:~ # mdadm --examine /dev/sdc3
/dev/sdc3:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 476284d6:a1238bf9:56895644:aa697466
Name : SRV-PAZ:2
Creation Time : Sat Mar 3 21:15:33 2018
Raid Level : raid5
Raid Devices : 4
Avail Dev Size : 19523229696 sectors (9.09 TiB 10.00 TB)
Array Size : 29284844544 KiB (27.27 TiB 29.99 TB)
Data Offset : 2048 sectors
Super Offset : 8 sectors
Unused Space : before=1968 sectors, after=0 sectors
State : clean
Device UUID : d02c6383:4498f42c:8efd397f:87564a7f
Update Time : Sun Mar 21 17:54:10 2021
Checksum : 6a5c2dcd - correct
Events : 393
Layout : left-symmetric
Chunk Size : 64K
Device Role : Active device 2
Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)


localhost:~ # mdadm --examine /dev/sdd1
mdadm: No md superblock detected on /dev/sdd1.
localhost:~ # mdadm --examine /dev/sdd2
mdadm: No md superblock detected on /dev/sdd2.
localhost:~ # mdadm --examine /dev/sdd3
/dev/sdd3:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 476284d6:a1238bf9:56895644:aa697466
Name : SRV-PAZ:2
Creation Time : Sat Mar 3 21:15:33 2018
Raid Level : raid5
Raid Devices : 4
Avail Dev Size : 19523229696 sectors (9.09 TiB 10.00 TB)
Array Size : 29284844544 KiB (27.27 TiB 29.99 TB)
Data Offset : 2048 sectors
Super Offset : 8 sectors
Unused Space : before=1968 sectors, after=0 sectors
State : clean
Device UUID : 3e57b93d:b69a727b:2e58fb9c:10223946
Update Time : Sun Mar 21 17:54:10 2021
Checksum : 57e080d7 - correct
Events : 393
Layout : left-symmetric
Chunk Size : 64K
Device Role : Active device 3
Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)

marce
27.03.21, 07:11
https://www.synology.com/en-us/knowledgebase/DSM/tutorial/Storage/How_can_I_recover_data_from_my_DiskStation_using_a _PC

crazykuenstler
27.03.21, 18:43
Danke für den Link marce.

Ich versuch mal mein Glück.

crazykuenstler
28.03.21, 18:34
Ich komme leider nicht weiter.
Ich bekomme den RAID nicht auf active gesetzt.

Hat jemand noch ein Tip für mich

root@PatricksMaschiene:~# cat /proc/mdstat
Personalities :
md2 : inactive dm-3[3](S) dm-2[2](S) dm-1[1](S) dm-0[0](S)
39046459392 blocks super 1.2

unused devices: <none>
root@PatricksMaschiene:~#

just4uk
28.03.21, 21:54
Dein Event Counter ist nicht gleich, warum?

mdadm --examine /dev/sd[abcd]3|grep -i event
Auf eigenes Risiko:

mdadm --stop /dev/md2
mdadm -A --force /dev/md2 /dev/sd[abcd]3
Wie gesagt auf EIGENES Risiko!!!
Und wie sagt hier immer jemand so schön : Kein Backup => Kein Mitleid

Gruß aus L.E.
Uwe

crazykuenstler
30.03.21, 14:21
Hallo Uwe,

Danke erst mal für die Antwort.

Das Problem ist, dass es das Backup war/ist. Da ist irgendwas passiert, was den ganzen Rackserver zerschossen haben muss samt Erweiterung.

Ich hab deinen ersten Code mal ausgeführt, da kam folgendes raus

root@PatricksMaschiene:~# mdadm --examine /dev/sd[abcd]3|grep -i event
Events : 398
Events : 398
Events : 393
Events : 393
root@PatricksMaschiene:~#

Ich hab da noch was anderes mal probiert:

oot@PatricksMaschiene:~# mdadm --detail /dev/md2
/dev/md2:
Version : 1.2
Raid Level : raid0
Total Devices : 4
Persistence : Superblock is persistent

State : inactive
Working Devices : 4

Name : SRV-PAETZOLD:2
UUID : 476284d6:a1238bf9:56895644:aa697466
Events : 393

Number Major Minor RaidDevice

- 8 51 - /dev/sdd3
- 8 35 - /dev/sdc3
- 8 19 - /dev/sdb3
- 8 3 - /dev/sda3


Wozu dienen den die letzten beiden Befehle?

Ich hab bisschen Sorge meine ganzen Daten zu verlieren.

Viele Grüße aus Bad Elster
Patrick

crazykuenstler
30.03.21, 14:26
Ich hab das mal gemacht was du mir geschrieben hast.

Ich glaube es läuft jetzt.

Wie kann ich das Raid den mounten? das ich drauf zu greifen kann.


root@PatricksMaschiene:~# mdadm --stop /dev/md2
mdadm: stopped /dev/md2
root@PatricksMaschiene:~# mdadm --detail /dev/md2
mdadm: cannot open /dev/md2: No such file or directory
root@PatricksMaschiene:~# mdadm -A --force /dev/md2 /dev/sd[abcd]3
mdadm: forcing event count in /dev/sdc3(2) from 393 upto 398
mdadm: forcing event count in /dev/sdd3(3) from 393 upto 398
mdadm: clearing FAULTY flag for device 2 in /dev/md2 for /dev/sdc3
mdadm: clearing FAULTY flag for device 3 in /dev/md2 for /dev/sdd3
mdadm: Marking array /dev/md2 as 'clean'
mdadm: /dev/md2 has been started with 4 drives.
root@PatricksMaschiene:~# mdadm --detail /dev/md2
/dev/md2:
Version : 1.2
Creation Time : Sat Mar 3 21:15:33 2018
Raid Level : raid5
Array Size : 29284844544 (27928.20 GiB 29987.68 GB)
Used Dev Size : 9761614848 (9309.40 GiB 9995.89 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent

Update Time : Mon Mar 22 15:02:14 2021
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0

Layout : left-symmetric
Chunk Size : 64K

Consistency Policy : resync

Name : SRV-PAETZOLD:2
UUID : 476284d6:a1238bf9:56895644:aa697466
Events : 398

Number Major Minor RaidDevice State
0 8 3 0 active sync /dev/sda3
1 8 19 1 active sync /dev/sdb3
2 8 35 2 active sync /dev/sdc3
3 8 51 3 active sync /dev/sdd3
root@PatricksMaschiene:~#

marce
30.03.21, 14:29
Wie kann ich das Raid den mounten? das ich drauf zu greifen kann.
https://wiki.ubuntuusers.de/Software-RAID/#RAID-mounten

crazykuenstler
30.03.21, 14:30
Ich müsste auf die daten zu greifen können, die auf Volume 1 sind

root@PatricksMaschiene:~# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
loop0 7:0 0 55,5M 1 loop /snap/core18/1988
loop1 7:1 0 64,8M 1 loop /snap/gtk-common-themes/1514
loop2 7:2 0 219M 1 loop /snap/gnome-3-34-1804/66
loop3 7:3 0 31,1M 1 loop /snap/snapd/11036
loop4 7:4 0 51M 1 loop /snap/snap-store/518
loop5 7:5 0 32,3M 1 loop /snap/snapd/11402
sda 8:0 0 9,1T 0 disk
├─sda1 8:1 0 2,4G 0 part
├─sda2 8:2 0 2G 0 part
└─sda3 8:3 0 9,1T 0 part
└─md2 9:2 0 27,3T 0 raid5
├─vg1-syno_vg_reserved_area 253:0 0 12M 0 lvm
└─vg1-volume_1 253:1 0 27,3T 0 lvm
sdb 8:16 0 9,1T 0 disk
├─sdb1 8:17 0 2,4G 0 part
├─sdb2 8:18 0 2G 0 part
└─sdb3 8:19 0 9,1T 0 part
└─md2 9:2 0 27,3T 0 raid5
├─vg1-syno_vg_reserved_area 253:0 0 12M 0 lvm
└─vg1-volume_1 253:1 0 27,3T 0 lvm
sdc 8:32 0 9,1T 0 disk
├─sdc1 8:33 0 2,4G 0 part
├─sdc2 8:34 0 2G 0 part
└─sdc3 8:35 0 9,1T 0 part
└─md2 9:2 0 27,3T 0 raid5
├─vg1-syno_vg_reserved_area 253:0 0 12M 0 lvm
└─vg1-volume_1 253:1 0 27,3T 0 lvm
sdd 8:48 0 9,1T 0 disk
├─sdd1 8:49 0 2,4G 0 part
├─sdd2 8:50 0 2G 0 part
└─sdd3 8:51 0 9,1T 0 part
└─md2 9:2 0 27,3T 0 raid5
├─vg1-syno_vg_reserved_area 253:0 0 12M 0 lvm
└─vg1-volume_1 253:1 0 27,3T 0 lvm
nvme0n1 259:0 0 953,9G 0 disk
├─nvme0n1p1 259:1 0 512M 0 part /boot/efi
└─nvme0n1p2 259:2 0 953,4G 0 part /
root@PatricksMaschiene:~#

crazykuenstler
30.03.21, 15:27
Jetzt sagt er mir das ein unbekanntes Dateisystem vorliegt....

Hat jemand noch eine Idee?

root@PatricksMaschiene:~# mount /dev/md2 /media/nas
mount: /media/nas: der Einhängepunkt ist nicht vorhanden.
root@PatricksMaschiene:~# mkdir /media/nas
root@PatricksMaschiene:~# mount /dev/md2 /media/nas
mount: /media/nas: unbekannter Dateisystemtyp „LVM2_member“.
root@PatricksMaschiene:~#

just4uk
30.03.21, 15:43
den Output von:
cat /proc/mdstatund von
blkid -o listund von
pvsoder
pvdisplaySollte es sich herausstellen das hier LVM im Spiel ist muss ich passen.
Da bin ich nicht so der Checker und würde eher mehr zerstören als helfen :-(

Gruß aus L.E.
Uwe


äh sehe gerade LVM =ja :eek:

marce
30.03.21, 16:32
In dem Link ganz oben von Synology stehen die Befehle, mit denen man deren LVM angeblich wiederherstellen kann auch drin. Alternativ gibt's dazu auch einen guten Artikel im Ubuntu-Wiki (https://wiki.ubuntuusers.de/Logical_Volume_Manager/#Problembehebung)

crazykuenstler
30.03.21, 18:16
Ich hab die Daten retten können!!!
Vielen Lieben Dank an euch alle!!!
Schön das es euch gibt!