PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Raid im Cluster



Los_Andros
29.06.07, 10:24
Hallo zusammen.
Dank Blazillas Hilfe habe ich doch noch unser SAN zum laufen gebracht und die verfügbaren Platten in einem Raid Verbund zusammengefasst (Raid 5, software).

Meine Frage ist, kann ich die /etc/mdadm.conf, in der ich meine Devices definiert habe einfach auf 2 Cluster Partner kopieren, so dass die auch den Raid lediglich starten?. Also Dass alle 3 Cluster Nodes das Device /dev/md0 haben, was der selber Raid ist?

Sinn und Zweck ist, auf dem Raid ein CLVM aufzusetzen, also einen Cluster LVM, auf dem ich in den LVs GFS als Filesystem aufsetzen will.

Cluster läuft, Raid läuft auf einem System, habs mal testhalber auf einem zweiten System nur gestartet und scheint zu gehen, aber ich bin mir nicht sicher ob man das so macht.


Jemand eine Idee?

bla!zilla
29.06.07, 14:19
Ist ein Software-RAID überhaupt als Basis für ein CLVM supported???? Ich denke nicht. Software-RAID läuft ja nur auf dem einen Server. Nur er kennt das genaue Mapping usw. Ein zweiter würde da eher Datensalat produzieren. Bei einem CLVM ohne darunterliegendes Software-RAID geht das wieder, weil die I/O Operationen im Cluster abgestimmt werden.

Los_Andros
29.06.07, 18:13
hmmmmm, gute Frage, ich finde da nichts dazu .....
Mist mist mist, ich weiß es einfach nicht. Aber im Prinzip hast Du recht. Aber hat sowas noch nie jemand probiert?

bla!zilla
29.06.07, 18:22
Mir ist keiner Bekannt. :) Wenn du ein zentrales Storage hast, mach dieses System ja den ganzen RAID Kram. In deinem Fall würde das jeder Host selber machen, per Software-RAID.

Also mir ist das ganze sehr zuspekt - vor allem unter Last. Und du redest ja von GFS - also wirst du auf jeden Fall Last haben.

Los_Andros
30.06.07, 11:06
hm ..... tja, wiedermal hast du Recht .... shit.
Ein eigenes System für Storage Funktionalitäten hinzustellen ist auch nicht sinnvoll, so verlagere ich den singel point of failure auf den einen Host.
Selbst mit eine Hardware Raid würde ich da nicht weiter kommen, da der ja als Controller in meinen Servern sitzen würde und auch hier System A nicht weiß wie System B gerade auf die Platten geschrieben hat.

Naja, bleibt meine CLVM only Lösung. Gefällt mir zwar nicht, geht aber wohl nicht anders. :-(

Los_Andros
30.06.07, 11:24
Hat jemand eine Idee, wie ich da sinnvoll meine Datensicherheit erhalten kann?

bla!zilla
30.06.07, 14:10
hm ..... tja, wiedermal hast du Recht .... shit.
Ein eigenes System für Storage Funktionalitäten hinzustellen ist auch nicht sinnvoll, so verlagere ich den singel point of failure auf den einen Host.
Selbst mit eine Hardware Raid würde ich da nicht weiter kommen, da der ja als Controller in meinen Servern sitzen würde und auch hier System A nicht weiß wie System B gerade auf die Platten geschrieben hat.

Tja, hättest du mal kein DSS 2405 JBOD, sondern eine HP VA7110, MSA1500cs + Shelfs oder eine EVA gekauft. ;)

Du solltest die RAID Funktionen in ein entsprechenden Storage-System verlagern, welches über redundante Controller, Power-Supplies usw. verfügt.


Hat jemand eine Idee, wie ich da sinnvoll meine Datensicherheit erhalten kann?

Sicher doch deine Daten über LVM. Der Linux LVM kann ja, endlich... :rolleyes:, auch mirrored LVs bauen.

man 8 lvcreate



-m, --mirrors Mirrors
Creates a mirrored logical volume with "Mirrors" copies. For example, specifying "-m 1" would result in a mirror with two-sides; that is, a linear volume plus one copy.

Specifying the optional argument "--nosync" will cause the creation of the mirror to skip the initial resynchronization. Any data written afterwards will be mirrored, but the original contents will not be copied. This is useful for skipping a potentially long and resource intensive initial sync.

Specifying the optional argument "--corelog" will create a mirror with an in-memory log verses a disk-based (persistent) log. While this removes the need for an extra log device and *may* be slightly faster, it requires that the entire mirror be resynchronized upon each instantiation (e.g. a reboot).