Anzeige:
Ergebnis 1 bis 13 von 13

Thema: RAID5 ARRAY wiederherstellen

  1. #1
    Registrierter Benutzer
    Registriert seit
    Mar 2021
    Beiträge
    8

    RAID5 ARRAY wiederherstellen

    Hallo alle Miteinander,

    ich habe folgendes Problem.

    Mein Synology Rackserver ist mir abgeschmiert. Das Mainbord von dem Rackserver hat sich sprich wörtlich in Rauch aufgelöst.
    Die Festplatten, 4x10TB konnte ich unbeschadet retten.

    Das Raid welches auf dem Rackserver installiert war, ist ein RAID5. Ich hatte die Festplatten nach Slot auch beschriftet und habe die Festplatten in der Reihenfolge wie diese im Rackserver gesteckt waren nun auch auf dem Mainboard im Linux Rechner gesteckt. Die Festplatten werden erkannt und auch das Raid wird erkannt. Leider bekomme ich es nicht hin, das Raid zu mounten oder aber zum laufen zu bringen.

    Vielleicht könnte mir ja bitte jemand von euch weiterhelfen?

    Viele Grüße und Besten Dank vorab
    Patrick

    Hier vorab mal einige Infos die ich abgefragt habe.


    localhost:~ # lsblk
    NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
    sda 8:0 0 9.1T 0 disk
    ├─sda1 8:1 0 2.4G 0 part
    ├─sda2 8:2 0 2G 0 part
    └─sda3 8:3 0 9.1T 0 part
    sdb 8:16 0 9.1T 0 disk
    ├─sdb1 8:17 0 2.4G 0 part
    ├─sdb2 8:18 0 2G 0 part
    └─sdb3 8:19 0 9.1T 0 part
    sdc 8:32 0 9.1T 0 disk
    ├─sdc1 8:33 0 2.4G 0 part
    ├─sdc2 8:34 0 2G 0 part
    └─sdc3 8:35 0 9.1T 0 part
    sdd 8:48 0 9.1T 0 disk
    ├─sdd1 8:49 0 2.4G 0 part
    ├─sdd2 8:50 0 2G 0 part
    └─sdd3 8:51 0 9.1T 0 part
    nvme0n1 259:0 0 953.9G 0 disk
    ├─nvme0n1p1 259:1 0 500M 0 part /boot/efi
    ├─nvme0n1p2 259:2 0 951.4G 0 part /
    └─nvme0n1p3 259:3 0 2G 0 part [SWAP]



    localhost:~ # fdisk -l
    Disk /dev/sda: 9.1 TiB, 10000831348736 bytes, 19532873728 sectors
    Disk model: ST10000VN0004-2G
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes
    Disklabel type: gpt
    Disk identifier: E1F0152A-05ED-4A2E-BB10-91E039EF69E3
    Device Start End Sectors Size Type
    /dev/sda1 2048 4982527 4980480 2.4G Linux RAID
    /dev/sda2 4982528 9176831 4194304 2G Linux RAID
    /dev/sda3 9437184 19532668927 19523231744 9.1T Linux RAID

    Disk /dev/sdb: 9.1 TiB, 10000831348736 bytes, 19532873728 sectors
    Disk model: ST10000VN0004-2G
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes
    Disklabel type: gpt
    Disk identifier: 6095ED22-948D-426D-928F-729DC51EB855
    Device Start End Sectors Size Type
    /dev/sdb1 2048 4982527 4980480 2.4G Linux RAID
    /dev/sdb2 4982528 9176831 4194304 2G Linux RAID
    /dev/sdb3 9437184 19532668927 19523231744 9.1T Linux RAID

    Disk /dev/sdc: 9.1 TiB, 10000831348736 bytes, 19532873728 sectors
    Disk model: ST10000VN0004-2G
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes
    Disklabel type: gpt
    Disk identifier: 0BEC3D94-D7EA-4372-A903-17DE154FF6E7
    Device Start End Sectors Size Type
    /dev/sdc1 2048 4982527 4980480 2.4G Linux RAID
    /dev/sdc2 4982528 9176831 4194304 2G Linux RAID
    /dev/sdc3 9437184 19532668927 19523231744 9.1T Linux RAID

    Disk /dev/sdd: 9.1 TiB, 10000831348736 bytes, 19532873728 sectors
    Disk model: ST10000VN0004-2G
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes
    Disklabel type: gpt
    Disk identifier: D54CCDB1-8118-4A56-A078-48A70B9020B2
    Device Start End Sectors Size Type
    /dev/sdd1 2048 4982527 4980480 2.4G Linux RAID
    /dev/sdd2 4982528 9176831 4194304 2G Linux RAID
    /dev/sdd3 9437184 19532668927 19523231744 9.1T Linux RAID

    Disk /dev/nvme0n1: 953.9 GiB, 1024209543168 bytes, 2000409264 sectors
    Disk model: Samsung SSD 970 PRO 1TB
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 512 bytes
    I/O size (minimum/optimal): 512 bytes / 512 bytes
    Disklabel type: gpt
    Disk identifier: D94930E4-75E7-48C1-8C33-88F3615B9E4C
    Device Start End Sectors Size Type
    /dev/nvme0n1p1 2048 1026047 1024000 500M EFI System
    /dev/nvme0n1p2 1026048 1996214271 1995188224 951.4G Linux filesystem
    /dev/nvme0n1p3 1996214272 2000409230 4194959 2G Linux swap


    localhost:~ # mdadm --examine /dev/sda1
    mdadm: No md superblock detected on /dev/sda1.
    localhost:~ # mdadm --examine /dev/sda2
    mdadm: No md superblock detected on /dev/sda2.
    localhost:~ # mdadm --examine /dev/sda3
    /dev/sda3:
    Magic : a92b4efc
    Version : 1.2
    Feature Map : 0x0
    Array UUID : 476284d6:a1238bf9:56895644:aa697466
    Name : SRV-PAZ:2
    Creation Time : Sat Mar 3 21:15:33 2018
    Raid Level : raid5
    Raid Devices : 4
    Avail Dev Size : 19523229696 sectors (9.09 TiB 10.00 TB)
    Array Size : 29284844544 KiB (27.27 TiB 29.99 TB)
    Data Offset : 2048 sectors
    Super Offset : 8 sectors
    Unused Space : before=1968 sectors, after=0 sectors
    State : clean
    Device UUID : be158f80:00af635b:37668f29:79f1b2a2
    Update Time : Mon Mar 22 15:02:14 2021
    Checksum : 63b25a46 - correct
    Events : 398
    Layout : left-symmetric
    Chunk Size : 64K
    Device Role : Active device 0
    Array State : AA.. ('A' == active, '.' == missing, 'R' == replacing)

    localhost:~ # mdadm --examine /dev/sdb1
    mdadm: No md superblock detected on /dev/sdb1.
    localhost:~ # mdadm --examine /dev/sdb2
    mdadm: No md superblock detected on /dev/sdb2.
    localhost:~ # mdadm --examine /dev/sdb3
    /dev/sdb3:
    Magic : a92b4efc
    Version : 1.2
    Feature Map : 0x0
    Array UUID : 476284d6:a1238bf9:56895644:aa697466
    Name : SRV-PAZ:2
    Creation Time : Sat Mar 3 21:15:33 2018
    Raid Level : raid5
    Raid Devices : 4
    Avail Dev Size : 19523229696 sectors (9.09 TiB 10.00 TB)
    Array Size : 29284844544 KiB (27.27 TiB 29.99 TB)
    Data Offset : 2048 sectors
    Super Offset : 8 sectors
    Unused Space : before=1968 sectors, after=0 sectors
    State : clean
    Device UUID : a146fce3:69ac4bc5:40bc0c0e:2e31324d
    Update Time : Mon Mar 22 15:02:14 2021
    Checksum : c0041e51 - correct
    Events : 398
    Layout : left-symmetric
    Chunk Size : 64K
    Device Role : Active device 1
    Array State : AA.. ('A' == active, '.' == missing, 'R' == replacing)


    localhost:~ # mdadm --examine /dev/sdc1
    mdadm: No md superblock detected on /dev/sdc1.
    localhost:~ # mdadm --examine /dev/sdc2
    mdadm: No md superblock detected on /dev/sdc2.
    localhost:~ # mdadm --examine /dev/sdc3
    /dev/sdc3:
    Magic : a92b4efc
    Version : 1.2
    Feature Map : 0x0
    Array UUID : 476284d6:a1238bf9:56895644:aa697466
    Name : SRV-PAZ:2
    Creation Time : Sat Mar 3 21:15:33 2018
    Raid Level : raid5
    Raid Devices : 4
    Avail Dev Size : 19523229696 sectors (9.09 TiB 10.00 TB)
    Array Size : 29284844544 KiB (27.27 TiB 29.99 TB)
    Data Offset : 2048 sectors
    Super Offset : 8 sectors
    Unused Space : before=1968 sectors, after=0 sectors
    State : clean
    Device UUID : d02c6383:4498f42c:8efd397f:87564a7f
    Update Time : Sun Mar 21 17:54:10 2021
    Checksum : 6a5c2dcd - correct
    Events : 393
    Layout : left-symmetric
    Chunk Size : 64K
    Device Role : Active device 2
    Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)


    localhost:~ # mdadm --examine /dev/sdd1
    mdadm: No md superblock detected on /dev/sdd1.
    localhost:~ # mdadm --examine /dev/sdd2
    mdadm: No md superblock detected on /dev/sdd2.
    localhost:~ # mdadm --examine /dev/sdd3
    /dev/sdd3:
    Magic : a92b4efc
    Version : 1.2
    Feature Map : 0x0
    Array UUID : 476284d6:a1238bf9:56895644:aa697466
    Name : SRV-PAZ:2
    Creation Time : Sat Mar 3 21:15:33 2018
    Raid Level : raid5
    Raid Devices : 4
    Avail Dev Size : 19523229696 sectors (9.09 TiB 10.00 TB)
    Array Size : 29284844544 KiB (27.27 TiB 29.99 TB)
    Data Offset : 2048 sectors
    Super Offset : 8 sectors
    Unused Space : before=1968 sectors, after=0 sectors
    State : clean
    Device UUID : 3e57b93d:b69a727b:2e58fb9c:10223946
    Update Time : Sun Mar 21 17:54:10 2021
    Checksum : 57e080d7 - correct
    Events : 393
    Layout : left-symmetric
    Chunk Size : 64K
    Device Role : Active device 3
    Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)

  2. #2
    Registrierter Benutzer
    Registriert seit
    Dec 2003
    Ort
    Dettenhausen
    Beiträge
    21.744
    Ich bin root - ich darf das.

  3. #3
    Registrierter Benutzer
    Registriert seit
    Mar 2021
    Beiträge
    8
    Danke für den Link marce.

    Ich versuch mal mein Glück.

  4. #4
    Registrierter Benutzer
    Registriert seit
    Mar 2021
    Beiträge
    8
    Ich komme leider nicht weiter.
    Ich bekomme den RAID nicht auf active gesetzt.

    Hat jemand noch ein Tip für mich

    root@PatricksMaschiene:~# cat /proc/mdstat
    Personalities :
    md2 : inactive dm-3[3](S) dm-2[2](S) dm-1[1](S) dm-0[0](S)
    39046459392 blocks super 1.2

    unused devices: <none>
    root@PatricksMaschiene:~#

  5. #5
    Registrierter Benutzer Avatar von just4uk
    Registriert seit
    Mar 2002
    Ort
    im Wilden Süden L.E.
    Beiträge
    566
    Dein Event Counter ist nicht gleich, warum?
    Code:
    mdadm --examine /dev/sd[abcd]3|grep -i event
    Auf eigenes Risiko:
    Code:
    mdadm --stop /dev/md2
    mdadm -A --force /dev/md2 /dev/sd[abcd]3
    Wie gesagt auf EIGENES Risiko!!!
    Und wie sagt hier immer jemand so schön : Kein Backup => Kein Mitleid

    Gruß aus L.E.
    Uwe
    Bei U/Linux hilfreich aber nicht nötig, bei Windows nötig aber nicht hilfreich!
    Rechtschreibfehler sind beabsichtigt und Ausdruck meiner Persönlichkeit

  6. #6
    Registrierter Benutzer
    Registriert seit
    Mar 2021
    Beiträge
    8
    Hallo Uwe,

    Danke erst mal für die Antwort.

    Das Problem ist, dass es das Backup war/ist. Da ist irgendwas passiert, was den ganzen Rackserver zerschossen haben muss samt Erweiterung.

    Ich hab deinen ersten Code mal ausgeführt, da kam folgendes raus

    root@PatricksMaschiene:~# mdadm --examine /dev/sd[abcd]3|grep -i event
    Events : 398
    Events : 398
    Events : 393
    Events : 393
    root@PatricksMaschiene:~#

    Ich hab da noch was anderes mal probiert:

    oot@PatricksMaschiene:~# mdadm --detail /dev/md2
    /dev/md2:
    Version : 1.2
    Raid Level : raid0
    Total Devices : 4
    Persistence : Superblock is persistent

    State : inactive
    Working Devices : 4

    Name : SRV-PAETZOLD:2
    UUID : 476284d6:a1238bf9:56895644:aa697466
    Events : 393

    Number Major Minor RaidDevice

    - 8 51 - /dev/sdd3
    - 8 35 - /dev/sdc3
    - 8 19 - /dev/sdb3
    - 8 3 - /dev/sda3


    Wozu dienen den die letzten beiden Befehle?

    Ich hab bisschen Sorge meine ganzen Daten zu verlieren.

    Viele Grüße aus Bad Elster
    Patrick

  7. #7
    Registrierter Benutzer
    Registriert seit
    Mar 2021
    Beiträge
    8
    Ich hab das mal gemacht was du mir geschrieben hast.

    Ich glaube es läuft jetzt.

    Wie kann ich das Raid den mounten? das ich drauf zu greifen kann.


    root@PatricksMaschiene:~# mdadm --stop /dev/md2
    mdadm: stopped /dev/md2
    root@PatricksMaschiene:~# mdadm --detail /dev/md2
    mdadm: cannot open /dev/md2: No such file or directory
    root@PatricksMaschiene:~# mdadm -A --force /dev/md2 /dev/sd[abcd]3
    mdadm: forcing event count in /dev/sdc3(2) from 393 upto 398
    mdadm: forcing event count in /dev/sdd3(3) from 393 upto 398
    mdadm: clearing FAULTY flag for device 2 in /dev/md2 for /dev/sdc3
    mdadm: clearing FAULTY flag for device 3 in /dev/md2 for /dev/sdd3
    mdadm: Marking array /dev/md2 as 'clean'
    mdadm: /dev/md2 has been started with 4 drives.
    root@PatricksMaschiene:~# mdadm --detail /dev/md2
    /dev/md2:
    Version : 1.2
    Creation Time : Sat Mar 3 21:15:33 2018
    Raid Level : raid5
    Array Size : 29284844544 (27928.20 GiB 29987.68 GB)
    Used Dev Size : 9761614848 (9309.40 GiB 9995.89 GB)
    Raid Devices : 4
    Total Devices : 4
    Persistence : Superblock is persistent

    Update Time : Mon Mar 22 15:02:14 2021
    State : clean
    Active Devices : 4
    Working Devices : 4
    Failed Devices : 0
    Spare Devices : 0

    Layout : left-symmetric
    Chunk Size : 64K

    Consistency Policy : resync

    Name : SRV-PAETZOLD:2
    UUID : 476284d6:a1238bf9:56895644:aa697466
    Events : 398

    Number Major Minor RaidDevice State
    0 8 3 0 active sync /dev/sda3
    1 8 19 1 active sync /dev/sdb3
    2 8 35 2 active sync /dev/sdc3
    3 8 51 3 active sync /dev/sdd3
    root@PatricksMaschiene:~#

  8. #8
    Registrierter Benutzer
    Registriert seit
    Dec 2003
    Ort
    Dettenhausen
    Beiträge
    21.744
    Zitat Zitat von crazykuenstler Beitrag anzeigen
    Wie kann ich das Raid den mounten? das ich drauf zu greifen kann.
    https://wiki.ubuntuusers.de/Software-RAID/#RAID-mounten
    Ich bin root - ich darf das.

  9. #9
    Registrierter Benutzer
    Registriert seit
    Mar 2021
    Beiträge
    8
    Ich müsste auf die daten zu greifen können, die auf Volume 1 sind

    root@PatricksMaschiene:~# lsblk
    NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
    loop0 7:0 0 55,5M 1 loop /snap/core18/1988
    loop1 7:1 0 64,8M 1 loop /snap/gtk-common-themes/1514
    loop2 7:2 0 219M 1 loop /snap/gnome-3-34-1804/66
    loop3 7:3 0 31,1M 1 loop /snap/snapd/11036
    loop4 7:4 0 51M 1 loop /snap/snap-store/518
    loop5 7:5 0 32,3M 1 loop /snap/snapd/11402
    sda 8:0 0 9,1T 0 disk
    ├─sda1 8:1 0 2,4G 0 part
    ├─sda2 8:2 0 2G 0 part
    └─sda3 8:3 0 9,1T 0 part
    └─md2 9:2 0 27,3T 0 raid5
    ├─vg1-syno_vg_reserved_area 253:0 0 12M 0 lvm
    └─vg1-volume_1 253:1 0 27,3T 0 lvm
    sdb 8:16 0 9,1T 0 disk
    ├─sdb1 8:17 0 2,4G 0 part
    ├─sdb2 8:18 0 2G 0 part
    └─sdb3 8:19 0 9,1T 0 part
    └─md2 9:2 0 27,3T 0 raid5
    ├─vg1-syno_vg_reserved_area 253:0 0 12M 0 lvm
    └─vg1-volume_1 253:1 0 27,3T 0 lvm
    sdc 8:32 0 9,1T 0 disk
    ├─sdc1 8:33 0 2,4G 0 part
    ├─sdc2 8:34 0 2G 0 part
    └─sdc3 8:35 0 9,1T 0 part
    └─md2 9:2 0 27,3T 0 raid5
    ├─vg1-syno_vg_reserved_area 253:0 0 12M 0 lvm
    └─vg1-volume_1 253:1 0 27,3T 0 lvm
    sdd 8:48 0 9,1T 0 disk
    ├─sdd1 8:49 0 2,4G 0 part
    ├─sdd2 8:50 0 2G 0 part
    └─sdd3 8:51 0 9,1T 0 part
    └─md2 9:2 0 27,3T 0 raid5
    ├─vg1-syno_vg_reserved_area 253:0 0 12M 0 lvm
    └─vg1-volume_1 253:1 0 27,3T 0 lvm
    nvme0n1 259:0 0 953,9G 0 disk
    ├─nvme0n1p1 259:1 0 512M 0 part /boot/efi
    └─nvme0n1p2 259:2 0 953,4G 0 part /
    root@PatricksMaschiene:~#

  10. #10
    Registrierter Benutzer
    Registriert seit
    Mar 2021
    Beiträge
    8
    Jetzt sagt er mir das ein unbekanntes Dateisystem vorliegt....

    Hat jemand noch eine Idee?

    root@PatricksMaschiene:~# mount /dev/md2 /media/nas
    mount: /media/nas: der Einhängepunkt ist nicht vorhanden.
    root@PatricksMaschiene:~# mkdir /media/nas
    root@PatricksMaschiene:~# mount /dev/md2 /media/nas
    mount: /media/nas: unbekannter Dateisystemtyp „LVM2_member“.
    root@PatricksMaschiene:~#

  11. #11
    Registrierter Benutzer Avatar von just4uk
    Registriert seit
    Mar 2002
    Ort
    im Wilden Süden L.E.
    Beiträge
    566
    den Output von:
    Code:
    cat /proc/mdstat
    und von
    Code:
    blkid -o list
    und von
    Code:
    pvs
    oder
    Code:
    pvdisplay
    Sollte es sich herausstellen das hier LVM im Spiel ist muss ich passen.
    Da bin ich nicht so der Checker und würde eher mehr zerstören als helfen :-(

    Gruß aus L.E.
    Uwe


    äh sehe gerade LVM =ja
    Geändert von just4uk (30.03.21 um 16:23 Uhr) Grund: blind?
    Bei U/Linux hilfreich aber nicht nötig, bei Windows nötig aber nicht hilfreich!
    Rechtschreibfehler sind beabsichtigt und Ausdruck meiner Persönlichkeit

  12. #12
    Registrierter Benutzer
    Registriert seit
    Dec 2003
    Ort
    Dettenhausen
    Beiträge
    21.744
    In dem Link ganz oben von Synology stehen die Befehle, mit denen man deren LVM angeblich wiederherstellen kann auch drin. Alternativ gibt's dazu auch einen guten Artikel im Ubuntu-Wiki (https://wiki.ubuntuusers.de/Logical_...roblembehebung)
    Ich bin root - ich darf das.

  13. #13
    Registrierter Benutzer
    Registriert seit
    Mar 2021
    Beiträge
    8
    Ich hab die Daten retten können!!!
    Vielen Lieben Dank an euch alle!!!
    Schön das es euch gibt!

Ähnliche Themen

  1. sed in Array?
    Von emoly im Forum Anwendungen Allgemein, Software
    Antworten: 4
    Letzter Beitrag: 22.10.11, 18:54
  2. RAID5 Array aus Images zusammensetzen
    Von GlammaKid im Forum Linux Allgemein
    Antworten: 0
    Letzter Beitrag: 16.09.07, 00:46
  3. Tyan GT20 Hardware RAID5 Array
    Von KingCrimson im Forum stationäre Hardware
    Antworten: 12
    Letzter Beitrag: 04.04.06, 09:19
  4. SW-RAID5 mit fehlender Platte wiederherstellen
    Von SubsonicSmoof im Forum Sicherheit
    Antworten: 1
    Letzter Beitrag: 12.01.06, 09:35
  5. Promise RAID (onboard) - Array wiederherstellen?
    Von Azraelzero im Forum stationäre Hardware
    Antworten: 0
    Letzter Beitrag: 03.11.03, 12:40

Lesezeichen

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •