PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Stabiles, Zuverlässiges, Redundantes Netzwerkdateisystem gesucht



Enlighter
22.06.06, 12:46
Hallo,

Für einen Rechnerpool bestehend aus ca. 100 Clients und 2 Daten-Servern (die momentan mittels rsync jede Nacht synchronisiert werden) mit ein paar TB suche ich ein Netzwerkdateisystem, das NFS ersetzen kann. Die Daten auf diesen Servern sind wirklich verdammt wichtig und dürfen unter keinen Umständen korrumpiert werden (es gibt zwar noch ein zusätzliches Backup auf Band, aber das nützt auch nichts, wenn die Daten schon falsch auf die Platte geschrieben werden).

Es soll also in etwa folgende Kriterien erfüllen:
* Redundante Datenhaltung
* Zuverlässig
* Stabil
* Load-Balancing
* Performant
* 100+ Clients sollten problemlos möglich sein
* Wenn möglich kein Single-Point-of-Failure
* Authentifizierung

Ich habe mir schon einige näher angeschaut, leider aber ohne DAS Dateisystem zu finden:
* GFS - keine Redundanz (wenn ich das richtig verstanden habe)
* AFS - Experimentell (im Kernel jedenfalls so gekennzeichnet)
* Coda - nicht stabil genug für so viele Clients (steht so auf der Homepage)
* Plan9 - Experimentell

Hat jemand ein anderes Dateisystem im Einsatz, welches meine Kriterien (annähernd) erfüllt?

Danke & Gruß,
Michael

bla!zilla
22.06.06, 12:58
Hi,

bitte mal etwas mehr Details zur Umgebung. Was für Betriebssysteme, wie sieht die Storage-Infrastruktur aus? Welche Datenmenge (Zahlen!!) muss kopiert werden, Zeitfenster?

Enlighter
22.06.06, 13:23
Hi,

* als Betriebssystem ist zu 99% Linux im Einsatz (Debian, Ubuntu, CentOS) und ein paar vereinzelte Windows Rechner sind auch noch da, aber die hätte ich via Samba angebunden.
* Alle Home Verzeichnisse der Clients werden auf dem Server gespeichert. Daneben werden noch jede Menge anderer Daten gespeichert - eine einzelne Datei kann jeweils schon etliche GB groß werden.
* Die zwei Server haben jeweils ca. 4 TB Kapazität als SATA Hardware-RAID 5 aus 12x400GB HDDs. Jeder Server hat 2GBit LAN und Dual Xeons mit 8 GB Ram.
* Momentan werden die Daten via NFS verteilt. Ein Server ist dabei immer im Einsatz, der andere schläft vor sich hin, bis das Raid mal wieder kaputt ist. Mittels rsync werden die Daten zwischen den Servern synchronisiert. Da wäre es jetzt natürlich schön rsync überflüssig zu machen und beide Server gleichzeitig zu benutzen.
* Die Rechner stehen alle an einem Institut der Uni Stuttgart und verrichten ihren Dienst in Labors und Büros bzw. als Fileserver. Es wäre also wirklich schön, wenn die Daten auch erhalten blieben - Sonst bin ich vielleicht irgendwann mal einen Kopf kürzer ;-)

Danke & Gruß,
Michael

oracle2025
22.06.06, 14:30
Hier auf der Uni laufen die Home-Dirs der Rechner-Pools über AFS. Klappt gut.

Enlighter
22.06.06, 14:56
Hi,

erstmal danke für deine Antwort und noch eine Frage: Wie stellt ihr sicher, dass die Benutzer (a) beim Ausfall eines Servers weiterhin auf ihre Daten (lesend und schreibend) zugreiffen können und (b) wie repliziert ihr die Daten auf einen zweiten Server? Soweit ich weiß kann AFS das nicht (bzw. nur mit Read-only Volumes).

Gruß,
Michael

suck
22.06.06, 15:07
Hat der Server nen redundantes Netzteil? Das ist zwar nicht, was du hören willst, aber in jedem Fall sinnvoll.

Enlighter
22.06.06, 15:22
Hi,

nein er hat leider kein redundantes Netzteil, aber ich weiß, dass das sinnvoll wäre - vielleicht kommt ja mal eins dazu, wenn irgendwo noch ein paar Euro übrigbleiben. Ne USV gibt's aber immerhin.

Gruß,
Michael

Dukel
22.06.06, 18:21
Aufm letzten Linuxtag gabs ein Vortrag mit Samba und AFS. Da schien das wohl schon recht stabiel zu laufen.

bla!zilla
23.06.06, 08:29
Du willst GFS. Holt euch am besten mal professionelle Hilfe ins Haus. Gerade wenn es stabil und supportet sein soll, wirst du darum nicht herumkommen.