PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Server mit NFS und NIS, grundsätzliche Fragen...



jean_luc_picard
17.07.03, 15:01
hallo leute,

wie man nen nfs und nis einrichtet ist mir im prinzip klar, habe ich derzeit auf laufen, ich würde das ganze nur gern erweitern.
wenn ich nis nutze, habe ich meine arbeitsoberfläche auch auf jedem anderen rechner zur verfügung. wie sieht es jedoch mit allgemeinen anwendungen aus? z.b. open office. es macht doch keinen sinn, die pakete auf jedem rechner zu installieren...

kann man nicht einfach das verzeichnis /usr per nfs übertragen? oder wie macht man sowas am besten? brauche ich auf den clients nicht nur ne "schmalspur-installation"? ich benutze übrigends suse 8.2...

CYP
17.07.03, 21:08
klar könntest du ganz /usr per nfs mounten (was allerdings bei zig rechner sich etwas langsam werden würde :) )

aber du könntest z.b ein zusätzliches verzeichniss anlegen darin open office(und weitere sachen) installieren und dieses bei den clients mounten und in den suchpfad eintragen .....

jean_luc_picard
17.07.03, 21:39
naja, wegen der geschwindigkeit ist schon klar, ich habe hier nur 3 clients, die meist nicht gleichzeitig dran sind. wenn man mehr clients hätte, würde man halt nen raid + gigabit netz nehmen ;)
ich würde ja schon gern das komplette verzeichnis mounten, OOo sollte ja nur als beispiel dienen. ich meinte ja alle anwendungen... also auch kde, brennerprogramme etc.

welche verzeichnisse brauch das system selbst denn zwingend? /etc und /dev z.b. sind doch systemspezifisch... sonst könnte ich ja gleich / (root) mounten ;) ...

pitu
18.07.03, 06:27
Hmm, wegen der Netzlast waere es fast guenstiger, deinen Server als Loginserver zu benutzen und die X-Session remoute zu benutzen.

Ansonsten:
/usr Shareable (Maschine-Type, OS-Type) readonly
/usr/local: Shareable - binaries (Maschine-Type, OS-Type) - Daten (all) ro
/usr/share Shareable zwischen (Platform (z.B. Unix)) ro
/opt: Shareable: (Maschine-Type, OS-Type) ro
/var: Not Shareable rw (etwas komplizierter, da /var teilweise shareable ist und teilweise nicht: /var/spool nicht, /var/mail schon)
/home: Shareable (all) rw
...

gruss,
pitu

jean_luc_picard
18.07.03, 06:47
danke schonmal für die hinweise...

die x-session remoute benutzen? hmm... wie kann man sich das vorstellen? können das auch mehrere clients gleichzeitig tun? wird dann nicht der server mit der ganzen rechenlast belastet? die anwendungen laufen dann doch dort, oder?

pitu
18.07.03, 06:58
Du aktivierst auf dem Server XDMCP. Dann kannst du dich auf den Server einloggen indem du X auf dem Client startest mit:
X -query hostname (Server an den du connecten willst)
X -broadcast (sucht im Netz nach allen Servern und gibt dir eine Auswahlliste)

Dui bekommst dann das ganz normale xdm-loginfenster und wenn du startest deine ganz normale KDE/GNOME/wasauchimmer Oberflaeche, nur laeuft sie auf dem Server und nicht auf dem Client, Damit faellt deine ganze Netzlast Weg. Theoretisch faellt damit alles weg, da du nur noch die Grafikkarte, 50 MB Festplattenplatz etc. brauchst.

gruss,
pitu

jean_luc_picard
18.07.03, 07:45
hmm... hört sich auch nicht schlecht an. aber für mich ist das wohl doch nicht das richtige, denn wenn ich das jetzt richtig verstehe, war meine vermutung richtig, das der server die ganze rechenlast trägt (z.b. bei bildbearbeitung)... ich werde so einen remoute server aber trotzdem mal testen ;)

danke, gruss picard

pitu
18.07.03, 10:53
Jep, genau das ist die idee dahinter. Da du nur 3 Rechner hast, und die selten gleichzeitig benutz werden, ist das aehnlich als wenn du lokal am Rechner waerest.

gruss,
pitu

jean_luc_picard
06.09.03, 19:10
ich habe in der letzten zeit nochmal überlegt, wie man sowas am besten macht. bin leider noch nicht zu einem schlüssigen ergebnis gekommen.
zunächts will ich nochmal die ziele formulieren:

[list=1]
die clients sollen so wenig wie möglich konfigurationsaufwand beanspruchen, also z.b. suse standardinstallation, fertig. online update sollte nach möglichkeit auch nicht erforderlich sein (aktualisierung der pakete soll nur auf dem server erfolgen müssen).
der server soll nicht mit sämtlicher anfallender rechenlast beaufschlagt werden, die anwendungen sollen also lokal gestartet werden.
[/list=1]


welche möglichkeiten gibt es denn, um nicht alle clients im lan ständig aktualisieren zu müssen?

[list=1]
man importiert die erforderlichen verzeichnisse direkt, die eigenen werden also "verdeckt", es werden also alle anwendungen über das netz geladen, auch die, die auf dem client installiert sind. den auf dem client benutzten festplattenplatz kann man also als verschwendet betrachten.
man importiert die verzeichnisse in andere pfade, und fügt diese den suchpfaden hinzu (kann mit vielleicht jemand verraten, wie man das macht? ;) ). vorteile: die sowieso lokal installierten anwendungen würden nicht unnötig über das netz geladen und die exports könnten per automounter gemanaged werden, nachteil: eine lokal installierte, ältere version würde gestartet werden, obwohl auf dem server die neuere version liegt.
man synchronisiert die verzeichnisse mit denen auf dem server (z.b. mit rsync) beim booten. vorteil: das netz würde nur einmal die daten übertragen müssen, nachteil: es würden auch anwendungen auf den cliets liegen, die dort nie genutzt werden (apache, mysql etc.).
[/list=1]

im moment tendiere ich dazu, die verzeichnisse zu synchronisieren, das scheint mir am einfachsten zu sein, oder kann es dabei probleme geben? es würden zwar auch anwendungen lokal gespeichert werden, die nie benutzt werden, aber plattenplatz ist heute ja nicht mehr das thema. die lösung mit dem remote-login ist wohl eigentlich die beste, aber dann müsste der server schon richtig "power" haben und die clients könnten auch gleich als "diskless" konfiguriert werden.
wer hat denn sowas schonmal gemacht? in einem schulnetzwerk muß das doch auch irgendwie gelöst sein, die können doch nicht andauernd rumrennen und überall updates einspielen?!