[SuSE 9.2] Remotelogin per NIS und Home-Verzeichnis auf entfernten NFS-Server

G

Green Mamba

Gast
Hi,

ich hab hier ein kleines Netzwerk mit Linux- und Windows-Rechnern. Fürs erste möchte ich für die Linux-Rechner einen Remot-Login über NIS, und dann soll noch das Home-Verzeichnis auch auf dem Server liegen, und automatisch als home gemountet werden.
Der Remotlogin per NIS funktioniert, allerdings kommt dann sogleich eine Fehlermeldung dass dcopserver nicht läuft, und dass ich sicher stellen soll dass dieses läuft. Ich hab auf dem Server einen Testbenutzer angelegt, der mir auf dem Client angezeigt wird vom KDM. Er nimmt auch das Passwort, allerdings kommen beim KDE-Start besagte Fehlermeldungen, so dass der Login nicht ausgeführt werden kann.
Auf dem Server haben wir ein Verzeichnis exportiert namens /users/home, in dem für die Benutzer dann entspr. Verzeichnisse mit den Benutzernamen angelegt werden. Dieses /users/home wird auf dem Client als /home/remotehome gemountet. Soweit funktioniert das jetzt (als root auf dem Client :D).
Versteh ich das richtig dass auf dem Server lokale Benutzer angelegt werden, die dann vom Client eingeloggt werden? Was muss beim Benutzeranlegen bei Homeverzeichnis angegeben werden? Ich hab kein vernünftiges How-To finden können.

Vielen Dank für eure Hilfe,
Green Mamba
 

Michael

Re-aktions-Pinguin
Dabei seit
Okt. 2002
Beiträge
3.212
Zuallererst müssen die User auf dem Server und dem Client identisch sein und mit identischen IDs versehen sein. "kdesu kuser" hilft da sehr.
Desweiteren habe ich festgestellt, dass Benutzer, die mit "adduser" angelegt wurden o.g. Fehlermeldung erhalten. Das liegt daran, dass das Home-Verzeichnis die falschen (Benutzer)Rechte bzw. Eigentümer-Rechte hat. Bei Benutzern, die mit "kuser" angelegt wurden, ist das nicht der Fall.

Also: Username (ID 1234) (Group 1234) müssen auf Client und Server gleich sein.

Als nächstes darf in einer NFS-Share kein Unterverzeichnis eines bereits geschareten Verzeichnisses freigegeben sein (z.B. /home/user + /home/user/daten

Ich hoffe, das hilft schonmal

*edit*
Der "DCop-Fehler" kommt von KDE, weil KDE keine Schreib/Lese-Rechte im Verzeichnis ~/.kde hat
 
Zuletzt bearbeitet:
G

Green Mamba

Gast
Vielen Dank schonmal, ich denke wir sind das Problem zu naiv angegangen. :D
Eigentlich wollten wir es aber so haben dass die Benutzer komplett auf dem Server verwaltet werden, geht das überhaupt?
Zitat von Micheal:
Zuallererst müssen die User auf dem Server und dem Client identisch sein und mit identischen IDs versehen sein. "kdesu kuser" hilft da sehr.
Wenn ich dich richtig verstehe, dann müssen auf den Clients ja die gleichen Benutzer angelegt werden, die auf dem Server vorhanden sind!?

Zitat von Micheal:
Als nächstes darf in einer NFS-Share kein Unterverzeichnis eines bereits geschareten Verzeichnisses freigegeben sein (z.B. /home/user + /home/user/daten

Ich dachte mir das so, dass ich auf dem NFS-Server ein Verzeichnis /users/home freigebe, welches dann auf dem Client unter /home/remotehome gemountet wird. Jetzt sind im remotehome-Verzeichnis die home-Verzeichnisse der verschiedenen Benutzer, so dass für jeweils den einzuloggenden Benutzer sein Home zur Verfügung steht.
 

Michael

Re-aktions-Pinguin
Dabei seit
Okt. 2002
Beiträge
3.212
Auf der Client-Seite finden sich aber alle Konfiguartionsdateien in ~/.
Sprich: Du kannst das Homeverzeichnis vom Server unter /home/remotehome mounten, aber der Client schreibt seine Konfigs dann immer noch in ~/. - es nützt Dir also nichts.
Du müßtest die Homeverzeichnisse direkt mounten
share: /home/user1
mount: /home/user1
Wenn User1 aber mal auf dem Server eingloggt ist und gleichzeitig auf einem Client kommen sicherlich Schreibkonflikte auf. Das müßte dann unterbunden werden.

Ich habe es so gelöst, daß ich auf dem Server ein Verzeichnis pro User erstellt habe, welches ich als Unterverzeichnis auf den Clients mounte.
Wenn ich nun einen Client neu aufsetze, muss ich das einmalig einrichten. Wichtige Daten sind immer auf dem Server gespeichert genauso wie Mozilla-Profile etc.

Lokale Configs aber nicht, da ich teilweise auf drei Maschinen gleichzeitig mit dem selben Useraccount arbeite. Somit kommt sich KDE nicht in die Quere - und bei Thunderbird muss ich halt aufpassen, dass ich ihn nur einmal geöffnet habe.

Kannst Du aber davon ausgehen, dass sich User1 nur einmal pro Maschine zur selben Zeit eingeloggt hat, kannst Du die Home-Verzeichnisse auch komplett geshared mounten.
 
G

Green Mamba

Gast
Jetzt hab ich auch schon das nächste Problem. Bei der Anmeldung per KDM ist ein User zu sehen den es auf dem NIS-Server mal gab. Jetzt gibts den nicht mehr, aber er wird dennoch angezeigt. :(
Wie krieg ich den weg? Es gibt doch sicher eine Art Cache wo die NIS-Accounts zwischengespeichert werden!?
 
G

Green Mamba

Gast
So, hab alles ans laufen bekommen, allerdings bin ich von der Performance enttäuscht. Es arbeiten momentan 4 Personen per remote auf dem Server, also so dass ihr Home-Verzeichnis auf dem Server liegt, und per NFS gemountet wird beim einloggen.
Der Server hat auch SuSE 9.2 wie auch alle Clients. Die Kiste hat einen P4 3Ghz HT und mit 1GB Ram. Beim arbeiten kommt es sehr häufig vor dass die komplette KDE für kurze Zeit steht. Ich habe dann den Eindruck dass mein Client auf Daten vom Server wartet. Das kann doch eigentlich nicht sein, oder?
Ich habe die Beobachtung gemacht, dass wenn ich z.B. eine große Datei entpacken will (in meinem remote-Home-Verzeichnis), dass es dann eine halbe Ewigkeit dauert. Ok, die Daten werden erst komprimiert zu meinem Client übertragen, dort dekomprimiert, und anschließend wieder auf die Serverplatte geschrieben.
Komisch ist allerdings, dass wenn ich mich per remote direkt auf den Server einlogge, und die Datei lokal auf dem Server entpacke, dass es dann innerhalb von Sekunden geht.
Meine Frage ist nun, ob man am Server noch irgendwas optimieren kann, so z.B. die Netzwerk-Performance, oder das Cache-Verhalten!? Von den sonstigen Einstellungen steht dort alles auf Standard. Der Server läuft dauerhaft im Runlevel 3, weil ja keine grafische Benutzeroberfläche laufen muss (um RAM zu sparen).
Vielen Dank schonmal für eure Tips. :)

Viele Grüße aus der Softwareschmiede,
Timo

//Edit
Ach ja, wenn ich allein auf dem Server arbeite, ändert sich nichts an dem Problem, also kanns prinzipiell auch nicht an einer Überlastung liegen. Wenn ich allerdings auf meinem Client also lokaler Benutzer eingeloggt bin, funktioniert alles ganz flüssig.
 
Zuletzt bearbeitet:

Michael

Re-aktions-Pinguin
Dabei seit
Okt. 2002
Beiträge
3.212
Check mal die Performance der Netzwerkübertragung und der Platten auf dem Server. Wenn ich wissen will, wie es um die Performance steht, nutze ich dazu unter "X" GKRellm.
Das problem liegt m.E. daran, dass, wie Du schon schriebst, alles doppelt und dreifach über die selbe Netzwerkleitung geschickt werden muss inkl. Lese- und Schreib-Zugriffe auf den Serverplatten (der Serverplatte). Bei einem 100MBit-Netzwerk hast Du maximal 12,5MB/s. Ich tippe mal, dass die Festplatte(n) im Server nicht genug bringen. Vergiss nicht, dass sämtliche Configs im Homeverzeichnis liegen und ständigen Lese-Schreibzugriffen ausgesetzt sind. Kommen dazu noch größere Transfers einzelner Dateien hinzu, kommt man schnell zu der Erkenntnis, das Raid-Verbünde in Servern Sinn machen :D

Aber das ist nur meine Einschätzung. Gewissheit wirst Du erst durch Messung haben.

Zur Frage der Optimierung von Caches etc:
man nfs
man nfsd

Dort gibt es einige Optimierungsmöglichkeiten bezüglich der Performance.
Als letzten Strohhalm noch ein Link zu einem HowTo:
http://publibn.boulder.ibm.com/doc_link/en_US/a_doc_lib/aixbman/prftungd/2365ca3.htm
 
G

Green Mamba

Gast
Super, vielen Dank! :)
Ich werd mal ne Messung machen, und melde mich dann wieder.

//Edit
Ui, das How-To ist ja sehr umfangreich. Ein RAID-Verbund kann ich nicht mehr aufsetzen, das wäre viel zu viel Aufwand. :(
Daher bleibt nur der Weg der Server-Optimierung. Ich werde mich da mal durchkämpfen, und bei Bedarf hier weiter mit Fragen rumnerven. ;)

//Edit
So, wir haben uns für das Chache File System entschieden. Allerdings ist mir nicht ganz klar welches Paket dafür installiert sein muss!? Ich finde nichts im Yast2, und auch nicht bei rpmseek. :(
Weiß da wer mehr drüber? :confused_alt:
Im Howto steht folgendes dazu:
CacheFS is not implemented by default or prompted at the time of the creation of an NFS file system.

Make sure to install fileset level 4.3.1.1 for enhanced CacheFS write performance over NFS in AIX 4.3.1.
Daraus werde ich nicht schlau, ich finde auch kein fileset-Paket oder ähnliches.
 
G

Green Mamba

Gast
Ein neues Problem hat sich aufgetan. Wenn ich in unserem Netzwerk auf dem Server eingeloggt bin, und mein Passwort mit dem Befehl yppasswd ändern möchte, kommt folgende Fehlermeldung:
timo@azrael:~> yppasswd
Anstelle von yppasswd sollte /usr/bin/passwd direkt aufgerufen werden
Changing password for timo.
Old Password:
New password:
Re-enter new password:
yppasswdd läuft nicht auf dem NIS-Master-Server THOR-Server.site
Fehler: Das Passwort wurde nicht geändert.
passwd: Authentication token manipulation error
Woran liegt das? Der Daemon läuft definitiv auf dem Server. :(
 
G

Green Mamba

Gast
Hallo, hat denn niemand ne Idee? :(
Mitlerweile kommt die Meldung mit dem yppasswdd nicht mehr, aber dafür ändert sich das Passwort nicht. Mir ist aber aufgefallen, dass das Passwort welches ich per Yast2 auf dem Server ändere das gleiche ist welches ich per yppasswd ändere. Allerdings ist das ein anderes wie das womit ich ich per remote einlogge. :confused_alt:
 
Top