Re: utilisation de nis et nfs pour un réseau de 32 postes

2024-02-25 Par sujet BERTRAND Joël
Je ne sais pas pourquoi je ne peux pas avoir la copie du mail dans la
réponse. On va donc copier à la main.

>Pour l’architecture globale, si je comprends bien c’est :
Un serveur de fichiers sous un *nix contenant à la fois les boot des
PC et leurs données
Des postes sans disque (pourquoi ?)
un réseau ;-)

Oui. Ça permet d'avoir une solution centralisée de sauvegarde et
d'archivage. Ça permet aussi de considérer le poste de travail comme
jetable, sans aucune donnée des utilisateurs. Changer un poste de
travail qui a claqué, c'est une histoire de deux fichiers à éditer côté
serveur pour le boot réseau.

>Je ne comprends pas bien la notion de PC sans disques, depuis les tests
Sun de stations sans disques écroulant tout réseau je n’en vois pas
l'intérêt

Le réseau n'est jamais écroulé. Au cul du serveur principal, il y a un
switch Cisco, chaque machine étant sur un port particulier. Le goulot
d'étranglement n'est pas là.

>J’aurais tendance à proposer ce qui est largement utilisé dans les
clusters de calculs et les déploiements via réseau c’est à dire :

Un boot PXE pour charger l’initramfs
la diffusion de l’arborescence système via un Netboot
L’OS tourne en RAM avec un disque RAM

Aucun intérêt. Il y a des cibles qui sont des machines pour des clients
avec de l'électronique embarquée et qui arrivent péniblement à 512 Mo de
mémoire. On ne va pas y mettre un OS en RAM.

> Pour ce qui est de l’architecture de l’OS sur le PC j’utiliserais un
disque local et installerai toutes les données système dessus. Encore
une fois, c’est bien plus sur et efficace (voir latence réseau). Du
coup, la home dir de l’utilisateur doit rester locale avec un montage
NFS de ses données réseau dans un sous répertoire. Comme ça les usages
de l’OS dans le répertoire utilisateur ne sont pas ralentis par le
montage NFS et les données restent accessibles.

JE NE VEUX PAS DE DISQUES LOCAUX POUR TOUT UN TAS DE RAISON. Là, j'ai
un seul endroit à surveiller avec les sauvegardes et archivages. Et ça
évite les chouineries du type mon disque a planté et je n'ai pas de
sauvegarde ou j'ai eu des alertes smartd mais j'ai oublié de te le dire.
Ça évite aussi le "j'ai pas de sauvegarde parce qu'elle passe à 23h05 et
que mon poste était coupé".

> Si je comprends bien tu mélange sur un même réseau la 2 technologies
iSCSI qui utilise le mode « block » et Ethernet qui utilise le réseau en
mode caractères.
Ce n’est pa très bon.
L’un, iSCSI, serait plus opérationnel avec des trames « Jumbo » (9000
Oc) pour minimiser le découpage des blocks. L’autre, Ethernet,
fonctionne mieux avec des trames de 1500 Oc. Et il n’est pas raisonnable
de mixer les 2 sur un même commutateur.
L’un, iSCSI, travaille en SAN c’est à dire directement sur un système de
fichiers via réseau. L’autre, NFS, réclame un service de niveau haut
fourni par un serveur (NAS).

Les deux fonctionnent avec des blocs de 1500 octets. Il y a des trames
de 9000 octets sur un autre sous réseau accédant aux NAS. Et ces 1500
octets permettent de swapper à la vitesse maximale. En d'autres termes,
ce n'est pas le facteur limitant et il y a même beaucoup de marge. Le
facteur limitant est le serveur (pour swapper à 1 Gbps, l'occupation CPU
de istgt monte à 40% d'un coeur en état D).

> L’explication est juste au dessus.

Ben non.

> Vrai, il n’était pas vraiment nécessaire de passer à un switch Cisco
(cher) mais c’est vrai.
Un discriminant est de choisir un commutateur managable.

Non plus. Le TPlink était parfaitement manageable.

> On en revient au montage par block d’un système de fichiers via un SAN.

Rien à voir. Je ne peux pas me permettre de créer et retirer à la volée
des volumes racine pour les différents clients. D'autant que certains OS
utilisés ne peuvent utiliser une racine en iSCSI.

JB



signature.asc
Description: OpenPGP digital signature


Re: utilisation de nis et nfs pour un réseau de 32 postes

2024-02-25 Par sujet BERTRAND Joël
zithro a écrit :
> On 24 Feb 2024 23:23, BERTRAND Joël wrote:
>> Un gros serveur sous NetBSD et toutes les stations sont diskless et
>> bootent sur le réseau. Les disques sont en NFS et les swaps en iSCSI.
> 
> Peux-tu expliquer ce choix (NFS vs iSCSI) stp ?

Oui, je peux ;-)

> Si je dis pas de conneries, tu pourrais boot root (/) en iSCSI.

Je pourrais. Mais j'ai un gros volume qui contient les racines de
toutes les machines. Si je voulais traiter en iSCSI, il me faudrait un
système de fichiers distribué et supporté par tous les clients. Il me
faudrait aussi des OS capables de démarrer sur un volume iSCSI.

Pour utiliser iSCSI sereinement, il me faudrait aussi un volume par
client, exporté en tant que tel. Les /home sont sur un autre volume. En
revanche, les points de montage des racines (/srv/machine) ne sont
exportables que sur la bonne machine (verrouillé dans /etc/exports, les
IP étant fournies par DHCP en fonction de l'adresse MAC du client).

> Note que je suis autant interessé par ton raisonnement (ton choix
> pratique) que par le débat NFS vs iSCSI (la théorie) !
> (Y'a pas de solutions toutes faites, le forum de FreeNAS est un bon
> exemple).
> 
>> La qualité du
>> switch est primordiale. Passer d'un TPLink à un Cisco m'a changé la vie.
> 
> Entièrement d'accord avec toi.
> J'en profite pour un coup de gueule, c'est le problème avec le matos
> "grand public".
> Un switch 1Gb/s "grand public" veut dire que tu auras ce débit entre
> DEUX stations ! (Comprendre entre 2 ports physiques).
> Un "vrai" switch 1Gb/s 10 ports devrait tenir au moins 5Gb/s (sans
> uplink) : deux stations à 1Gpbs, fois 5.
> J'ai découvert ce problème par la pratique, chercher "switch backplane"
> sur le net. Même certains switch soit-disant d'entreprise (SOHO) sont
> incapables de tels débits.
> (Mais YMMV comme disent les ricains).

J'ai toutefois été surpris de constater qu'un vieux switch 3Com à 24
ports mettait la pâtée à un TPlink pourtant relativement cher. Comme
j'ai été surpris de constater qu'il était assez intelligent alors qu'il
n'est pas officiellement manageable pour gérer une agrégation de lien de
niveau 2.

>> Le goulot d'étranglement n'est pas le réseau, mais le système de
>> fichier sur les disques exportés. J'ai fait la bêtise d'utiliser FFSv2
>> sur lequel il n'est pas possible de mettre un cache. Lorsque j'aurai le
>> temps, je remplacerai cela par un ZFS+cache.
> 
> AFAIK, le problème de tous réseaux c'est la latence, pas le débit.
> (Toutes proportions gardées).
> Donc améliorer les accès disque(s) n'améliorent pas forcément la
> "réactivité".
> Peux-tu éclairer ma lanterne stp ?

Le NFSv3 n'a pas de cache et travaille en TCP (j'ai essayé UDP, ce
n'est pas franchement mieux). Il est possible de monter les disques en
async, mais je déconseille (côté NetBSD, il vaut mieux ne pas utiliser
async et la journalisation en même temps). Avec l'option async, ça va
nettement plus vite, mais on risque des surprises en cas de coupure de
courant.

Quand il y a des tas de petites écritures, le goulot d'étranglement est
l'accès disque surtout en écriture (là, il vaut mieux des disques CMR
que SMR) parce que le système ne peut pas cacher efficacement ces petits
accès. On s'aperçoit que le paquet ACK met un peu plus de temps à
revenir au client. Ça suffit pour faire tomber les performances.

Sur des lectures, j'atteins sans peine 800 à 900 Mbps. Sur des écriture
de quelques gros fichiers, ça monte à 500 Mbps. Si ce sont des petits
fichiers en écriture, les performances sont ridicules. Un apt install
texlive-full prend des plombes. Attention, je n'attends ces débits
qu'avec des cartes réseau Intel. Les Realtek sont largement moins bonnes
(bon, ça reste utilisable tout de même).

À côté, iSCSI permet d'atteindre 1 Gbps sur le swap.

> PS: j'ai travaillé dans la VoIP, où j'ai -finalement- compris que
> latence et débit n'ont rien à voir. Sans même parler de jitter (la
> variation de latence en bon céfran).

Ben oui, ça n'a rien à voir. Mais le gros problème est d'avoir le
paquet ACK du TCP le plus vite possible. Et ça, ça passe par un cache
côté serveur capable d'accepter les transactions le plus rapidement
possible en résistant aux coupures de courant. C'est pour cela qu'il
faudrait que je teste un ZFS avec un cache sur un SSD sacrificiel.

Bien cordialement,

JB



signature.asc
Description: OpenPGP digital signature


Re: utilisation de nis et nfs pour un réseau de 32 postes

2024-02-25 Par sujet Pierre Malard
Bonjour,

Les commentaires sont dans le mail.

Pour l’architecture globale, si je comprends bien c’est :
Un serveur de fichiers sous un *nix contenant à la fois les boot des PC et 
leurs données
Des postes sans disque (pourquoi ?)
un réseau ;-)

Je ne comprends pas bien la notion de PC sans disques, depuis les tests Sun de 
stations sans disques écroulant tout réseau je n’en vois pas l'intérêt
J’aurais tendance à proposer ce qui est largement utilisé dans les clusters de 
calculs et les déploiements via réseau c’est à dire :
Un boot PXE pour charger l’initramfs
la diffusion de l’arborescence système via un Netboot
L’OS tourne en RAM avec un disque RAM

https://www.it-connect.fr/installation-et-configuration-dun-serveur-pxe/ : 
C’est la solution de Netboot Debian qui est prise en exemple mais on peut 
charger un vrai système. Cela impose suffisamment de RAM…

Pour ce qui est de l’architecture de l’OS sur le PC j’utiliserais un disque 
local et installerai toutes les données système dessus. Encore une fois, c’est 
bien plus sur et efficace (voir latence réseau). Du coup, la home dir de 
l’utilisateur doit rester locale avec un montage NFS de ses données réseau dans 
un sous répertoire. Comme ça les usages de l’OS dans le répertoire utilisateur 
ne sont pas ralentis par le montage NFS et les données restent accessibles.

Même si on reste dans le schéma de démarrer les postes avec un disque iSCSI 
(Boot on SAN) contenant l’OS, ce qui est écrit au dessus reste valable 
vis-à-vis des accès NFS.


> Le 24 févr. 2024 à 23:23, BERTRAND Joël  a écrit :
> 
> Basile Starynkevitch a écrit :
>> 
>> On 2/23/24 12:02, Erwann Le Bras wrote:
>>> 
>>> Bonjour
>>> 
>>> Peut-être faire des essais avec SSHFS? le $HOME des utilisateurs
>>> serait monté sur chaque client au boot.
>>> 
>>> Mais je ne sais pas si c'est plus efficace que NFS.
>>> 
>> 
>> J'aurais tendance à imaginer que c'est moins efficace que NFS, qui est
>> de toute façon lent (car Ethernet est beaucoup plus lent que par exemple
>> une liaison SATA à un disque local, même rotatif).
>> 
>> NFS (à l'époque lointaine où je l'avais utilisé) ne crypte pas les
>> données. SSHFS semble les crypter.
>> 
>> Autrefois (avant 2000) j'avais même utilisé des Sun4/110 dont le swap
>> était une partition NFS distante.
>> 
>> Librement
>> 
> 
>   Bonsoir,
> 
>   J'ai un réseau complet et hétérogène avec NIS+NFS.

Je ne comprends pas bien ce mélange NIS est une base de services comme LDAP, 
NFS un système de partage de fichiers.

> 
>   Un gros serveur sous NetBSD et toutes les stations sont diskless et
> bootent sur le réseau. Les disques sont en NFS et les swaps en iSCSI.

Si je comprends bien tu mélange sur un même réseau la 2 technologies iSCSI qui 
utilise le mode « block » et Ethernet qui utilise le réseau en mode caractères.
Ce n’est pa très bon.
L’un, iSCSI, serait plus opérationnel avec des trames « Jumbo » (9000 Oc) pour 
minimiser le découpage des blocks. L’autre, Ethernet, fonctionne mieux avec des 
trames de 1500 Oc. Et il n’est pas raisonnable de mixer les 2 sur un même 
commutateur.
L’un, iSCSI, travaille en SAN c’est à dire directement sur un système de 
fichiers via réseau. L’autre, NFS, réclame un service de niveau haut fourni par 
un serveur (NAS).

> Ça fonctionne parfaitement bien (ça rame lorsqu'il y a de toutes petites
> écritures en rafale en raison du protocole réseau TCP, mais l'immense
> majorité du temps, ça fonctionne bien).

L’explication est juste au dessus.

> 
>   Le serveur est relié à un switch Cisco au travers de deux liens
> ethernet aggrégés, le reste est en 1 Gbps classique. La qualité du
> switch est primordiale. Passer d'un TPLink à un Cisco m'a changé la vie.

Vrai, il n’était pas vraiment nécessaire de passer à un switch Cisco (cher) 
mais c’est vrai.
Un discriminant est de choisir un commutateur managable.

> 
>   Le goulot d'étranglement n'est pas le réseau, mais le système de
> fichier sur les disques exportés. J'ai fait la bêtise d'utiliser FFSv2
> sur lequel il n'est pas possible de mettre un cache. Lorsque j'aurai le
> temps, je remplacerai cela par un ZFS+cache.

On en revient au montage par block d’un système de fichiers via un SAN.

> 
>   NFS à partir de la version 4 chiffre les données (mais n'est pas
> interopérable pour l'instant avec NetBSD, donc je n'ai pas testé).

Effectivement

> 
>   Bien cordialement,
> 
>   JB

--
Pierre Malard
Responsable architectures système CDS DINAMIS/THEIA Montpellier
IRD - UMR Espace-Dev - UAR CPST - IR Data-Terra
Maison de la Télédétection
500 rue Jean-François Breton
34093 Montpellier Cx 5
France

Tél : +33 626 89 22 68

   « Je n'ai jamais séparé la République des idées de justice sociale,
 sans laquelle elle n'est qu'un mot »
  Jean Jaures - 
1887
   |\  _,,,---,,_
   /,`.-'`'-.  ;-;;,_
  |,4-  ) )-,_. ,\ (  `'-'
 '---''(_/--'  `-'\_)   πr

perl -e '$_=q#: 3|\ 5_,3-3,2_: 

Re: utilisation de nis et nfs pour un réseau de 32 postes

2024-02-24 Par sujet zithro

On 24 Feb 2024 23:23, BERTRAND Joël wrote:

Un gros serveur sous NetBSD et toutes les stations sont diskless et
bootent sur le réseau. Les disques sont en NFS et les swaps en iSCSI.


Peux-tu expliquer ce choix (NFS vs iSCSI) stp ?
Si je dis pas de conneries, tu pourrais boot root (/) en iSCSI.
Note que je suis autant interessé par ton raisonnement (ton choix 
pratique) que par le débat NFS vs iSCSI (la théorie) !
(Y'a pas de solutions toutes faites, le forum de FreeNAS est un bon 
exemple).



La qualité du
switch est primordiale. Passer d'un TPLink à un Cisco m'a changé la vie.


Entièrement d'accord avec toi.
J'en profite pour un coup de gueule, c'est le problème avec le matos 
"grand public".
Un switch 1Gb/s "grand public" veut dire que tu auras ce débit entre 
DEUX stations ! (Comprendre entre 2 ports physiques).
Un "vrai" switch 1Gb/s 10 ports devrait tenir au moins 5Gb/s (sans 
uplink) : deux stations à 1Gpbs, fois 5.
J'ai découvert ce problème par la pratique, chercher "switch backplane" 
sur le net. Même certains switch soit-disant d'entreprise (SOHO) sont 
incapables de tels débits.

(Mais YMMV comme disent les ricains).


Le goulot d'étranglement n'est pas le réseau, mais le système de
fichier sur les disques exportés. J'ai fait la bêtise d'utiliser FFSv2
sur lequel il n'est pas possible de mettre un cache. Lorsque j'aurai le
temps, je remplacerai cela par un ZFS+cache.


AFAIK, le problème de tous réseaux c'est la latence, pas le débit.
(Toutes proportions gardées).
Donc améliorer les accès disque(s) n'améliorent pas forcément la 
"réactivité".

Peux-tu éclairer ma lanterne stp ?

PS: j'ai travaillé dans la VoIP, où j'ai -finalement- compris que 
latence et débit n'ont rien à voir. Sans même parler de jitter (la 
variation de latence en bon céfran).


--
++
zithro / Cyril



Re: utilisation de nis et nfs pour un réseau de 32 postes

2024-02-24 Par sujet BERTRAND Joël
Basile Starynkevitch a écrit :
> 
> On 2/23/24 12:02, Erwann Le Bras wrote:
>>
>> Bonjour
>>
>> Peut-être faire des essais avec SSHFS? le $HOME des utilisateurs
>> serait monté sur chaque client au boot.
>>
>> Mais je ne sais pas si c'est plus efficace que NFS.
>>
> 
> J'aurais tendance à imaginer que c'est moins efficace que NFS, qui est
> de toute façon lent (car Ethernet est beaucoup plus lent que par exemple
> une liaison SATA à un disque local, même rotatif).
> 
> NFS (à l'époque lointaine où je l'avais utilisé) ne crypte pas les
> données. SSHFS semble les crypter.
> 
> Autrefois (avant 2000) j'avais même utilisé des Sun4/110 dont le swap
> était une partition NFS distante.
> 
> Librement
> 

Bonsoir,

J'ai un réseau complet et hétérogène avec NIS+NFS.

Un gros serveur sous NetBSD et toutes les stations sont diskless et
bootent sur le réseau. Les disques sont en NFS et les swaps en iSCSI.
Ça fonctionne parfaitement bien (ça rame lorsqu'il y a de toutes petites
écritures en rafale en raison du protocole réseau TCP, mais l'immense
majorité du temps, ça fonctionne bien).

Le serveur est relié à un switch Cisco au travers de deux liens
ethernet aggrégés, le reste est en 1 Gbps classique. La qualité du
switch est primordiale. Passer d'un TPLink à un Cisco m'a changé la vie.

Le goulot d'étranglement n'est pas le réseau, mais le système de
fichier sur les disques exportés. J'ai fait la bêtise d'utiliser FFSv2
sur lequel il n'est pas possible de mettre un cache. Lorsque j'aurai le
temps, je remplacerai cela par un ZFS+cache.

NFS à partir de la version 4 chiffre les données (mais n'est pas
interopérable pour l'instant avec NetBSD, donc je n'ai pas testé).

Bien cordialement,

JB



signature.asc
Description: OpenPGP digital signature


Re: utilisation de nis et nfs pour un réseau de 32 postes

2024-02-24 Par sujet Michel Verdier
Le 23 février 2024 Erwann Le Bras a écrit :

> Peut-être faire des essais avec SSHFS? le $HOME des utilisateurs serait monté
> sur chaque client au boot.
>
> Mais je ne sais pas si c'est plus efficace que NFS.

J'ai pas mal utilisé sshfs et ça reste assez performant même via
internet pour des postes nomades. Il y a bien sûr le cryptage et la
compression qui demandent un peu plus de CPU, mais la compression
accélère bien le tout. Selon le matériel et le débit en local on peut
désactiver la compression.



Re: utilisation de nis et nfs pour un réseau de 32 postes

2024-02-23 Par sujet Basile Starynkevitch



On 2/23/24 12:02, Erwann Le Bras wrote:


Bonjour

Peut-être faire des essais avec SSHFS? le $HOME des utilisateurs 
serait monté sur chaque client au boot.


Mais je ne sais pas si c'est plus efficace que NFS.



J'aurais tendance à imaginer que c'est moins efficace que NFS, qui est 
de toute façon lent (car Ethernet est beaucoup plus lent que par exemple 
une liaison SATA à un disque local, même rotatif).


NFS (à l'époque lointaine où je l'avais utilisé) ne crypte pas les 
données. SSHFS semble les crypter.


Autrefois (avant 2000) j'avais même utilisé des Sun4/110 dont le swap 
était une partition NFS distante.


Librement

--
Basile Starynkevitch 
(only mine opinions / les opinions sont miennes uniquement)
92340 Bourg-la-Reine, France
web page: starynkevitch.net/Basile/
See/voir:   https://github.com/RefPerSys/RefPerSys



Re: utilisation de nis et nfs pour un réseau de 32 postes

2024-02-23 Par sujet Erwann Le Bras

Bonjour

Peut-être faire des essais avec SSHFS? le $HOME des utilisateurs serait 
monté sur chaque client au boot.


Mais je ne sais pas si c'est plus efficace que NFS.

Le 20/02/2024 à 12:26, Pierre Malard a écrit :

Ou ahh ! NIS, ça ne me rajeuni pas ça ;-)
Et pourquoi pas un LDAP pour l’authentification ?

Pour ce qui du montage direct du répertoire partagé sur la home dir ce 
n’est pas judicieux car ça va ramer dur si on fait une utilisation 
gourmande en entrée sortie.
Si je me souviens de ce qu’on avait fait ici c’est d’utiliser PAM et 
autofs pour gérer les accès sur les postes avec :


  * Création de la home dir à la volée si besoin depuis un squelette
qui contient un point de montage pour NFS
  * Montage du répertoire partagé de l’utilisateur dans $HOME/NFS


Comme ça l’utilisateur n’est pas ralenti dans ses compilations par 
exemple et peut accéder à ses données dans le répertoire ~/NFS



Le 20 févr. 2024 à 08:34, olivier  a 
écrit :


Bonjour,

J'ai un réseau totalement avec débian 11 (que je compte mettre à jour 
avec la version 12), constitué d'un serveur avec deux cartes réseau, 
l'une reliée à l’extérieur par la fibre (DHCP) et l'autre carte 
(Adresse IP fixe 192.168.200.0) reliée à un switch. Ce switch est 
relié à 32 postes (avec IP fixe de 192.168.200.10 à 192.168.200.50, 
adresse de la passerelle 192.168.200.0, masque de sous réseau 
255.255.255.0).


Les 32 postes sont utilisés par une classe d'élèves. J'ai 200 élèves 
à gérer, donc 200 profil différent.


Pour que chaque poste accède à internet, j'ai fais

iptables -t nat -A POSTROUTING -o eth0 -j MASQUERADE

Est ce judicieux ?

J'ai essayé avec NIS avec debian 11, l'authentification à l'air de 
bien fonctionner. Pour l'authentification, NIS est il bien adapté 
pour ce genre de configuration ?


Par contre au niveau de l'export (NFS), cela rame un peu (je me rend 
compte que j'exporte l'ensemble du home serveur sur tous les clients 
et non celui uniquement de l'utilisateur). Comment faire pour 
exporter sur la machine cliente uniquement le profil de l'utilisateur 
et non tous les utilisateurs ?


Sur le serveur, j'ai mis à la fin dans le fichier /etc/exports

/home/NFS_Partage 192.168.200.1/24(rw,sync,no_subtree_check)
mais j'hésite avec

/home/NFS_Partage 
192.168.0.0/24(rw,all_squash,anonuid=1000,anongid=1000,sync,no_subtree_check)


Sur le client, j'ai mis à la fin dans le fichier fstab

DomaineNFS:/home/NFS_Partage /home nfs defaults    0 0

On m'a parlé de LDAP, mais je ne sais pas trop comment m'y prendre. 
Est il préférable d'utiliser LDAP ou NIS pour l'authentification ? 
Existe il un petit manuel simple pour créer 200 utilisateurs.


Mon réseau fonctionne, mais rame beaucoup au delà de 4 utilisateurs ? 
et je n'arrive pas à trouver une solution.


Un grand merci pour votre aide.

Olivier





--
Pierre Malard

  « /La façon de donner vaut mieux que ce que l'on donne /»
                   Pierre Corneille (1606-1684) - Le menteur
|\      _,,,---,,_
/,`.-'`'    -.  ;-;;,_
|,4-  ) )-,_. ,\ (  `'-'
 '---''(_/--' `-'\_)   πr

perl -e '$_=q#: 3|\ 5_,3-3,2_: 3/,`.'"'"'`'"'"' 5-.  ;-;;,_:  |,A-  ) 
)-,_. ,\ (  `'"'"'-'"'"': '"'"'-3'"'"'2(_/--'"'"'  `-'"'"'\_): 
24πr::#;y#:#\n#;s#(\D)(\d+)#$1x$2#ge;print'

- --> Ce message n’engage que son auteur <--


Re: utilisation de nis et nfs pour un réseau de 32 postes

2024-02-20 Par sujet Pierre Malard
Ou ahh ! NIS, ça ne me rajeuni pas ça ;-)
Et pourquoi pas un LDAP pour l’authentification ?

Pour ce qui du montage direct du répertoire partagé sur la home dir ce n’est 
pas judicieux car ça va ramer dur si on fait une utilisation gourmande en 
entrée sortie.
Si je me souviens de ce qu’on avait fait ici c’est d’utiliser PAM et autofs 
pour gérer les accès sur les postes avec :
Création de la home dir à la volée si besoin depuis un squelette qui contient 
un point de montage pour NFS
Montage du répertoire partagé de l’utilisateur dans $HOME/NFS

Comme ça l’utilisateur n’est pas ralenti dans ses compilations par exemple et 
peut accéder à ses données dans le répertoire ~/NFS


> Le 20 févr. 2024 à 08:34, olivier  a écrit :
> 
> Bonjour,
> 
> J'ai un réseau totalement avec débian 11 (que je compte mettre à jour avec la 
> version 12), constitué d'un serveur avec deux cartes réseau, l'une reliée à 
> l’extérieur par la fibre (DHCP) et l'autre carte (Adresse IP fixe 
> 192.168.200.0) reliée à un switch. Ce switch est relié à 32 postes (avec IP 
> fixe de 192.168.200.10 à 192.168.200.50, adresse de la passerelle 
> 192.168.200.0, masque de sous réseau 255.255.255.0).
> 
> Les 32 postes sont utilisés par une classe d'élèves. J'ai 200 élèves à gérer, 
> donc 200 profil différent.
> 
> Pour que chaque poste accède à internet, j'ai fais
> 
> iptables -t nat -A POSTROUTING -o eth0 -j MASQUERADE
> 
> Est ce judicieux ?
> 
> J'ai essayé avec NIS avec debian 11, l'authentification à l'air de bien 
> fonctionner. Pour l'authentification, NIS est il bien adapté pour ce genre de 
> configuration ?
> 
> Par contre au niveau de l'export (NFS), cela rame un peu (je me rend compte 
> que j'exporte l'ensemble du home serveur sur tous les clients et non celui 
> uniquement de l'utilisateur). Comment faire pour exporter sur la machine 
> cliente uniquement le profil de l'utilisateur et non tous les utilisateurs ?
> 
> Sur le serveur, j'ai mis à la fin dans le fichier /etc/exports
> 
> /home/NFS_Partage 192.168.200.1/24(rw,sync,no_subtree_check)
> mais j'hésite avec
> 
> /home/NFS_Partage 
> 192.168.0.0/24(rw,all_squash,anonuid=1000,anongid=1000,sync,no_subtree_check)
> 
> Sur le client, j'ai mis à la fin dans le fichier fstab
> 
> DomaineNFS:/home/NFS_Partage /home nfs defaults0 0
> 
> On m'a parlé de LDAP, mais je ne sais pas trop comment m'y prendre. Est il 
> préférable d'utiliser LDAP ou NIS pour l'authentification ? Existe il un 
> petit manuel simple pour créer 200 utilisateurs.
> 
> Mon réseau fonctionne, mais rame beaucoup au delà de 4 utilisateurs ? et je 
> n'arrive pas à trouver une solution.
> 
> Un grand merci pour votre aide.
> 
> Olivier
> 
> 
> 

-- 
Pierre Malard

  « La façon de donner vaut mieux que ce que l'on donne »
   Pierre Corneille (1606-1684) - Le menteur
   |\  _,,,---,,_
   /,`.-'`'-.  ;-;;,_
  |,4-  ) )-,_. ,\ (  `'-'
 '---''(_/--'  `-'\_)   πr

perl -e '$_=q#: 3|\ 5_,3-3,2_: 3/,`.'"'"'`'"'"' 5-.  ;-;;,_:  |,A-  ) )-,_. ,\ 
(  `'"'"'-'"'"': '"'"'-3'"'"'2(_/--'"'"'  `-'"'"'\_): 
24πr::#;y#:#\n#;s#(\D)(\d+)#$1x$2#ge;print'
- --> Ce message n’engage que son auteur <--



signature.asc
Description: Message signed with OpenPGP


Re: utilisation de nis et nfs pour un réseau de 32 postes

2024-02-20 Par sujet Basile Starynkevitch


On 2/20/24 08:34, olivier wrote:

Bonjour,

J'ai un réseau totalement avec débian 11 (que je compte mettre à jour 
avec la version 12), constitué d'un serveur avec deux cartes réseau, 
l'une reliée à l’extérieur par la fibre (DHCP) et l'autre carte 
(Adresse IP fixe 192.168.200.0) reliée à un switch. Ce switch est 
relié à 32 postes (avec IP fixe de 192.168.200.10 à 192.168.200.50, 
adresse de la passerelle 192.168.200.0, masque de sous réseau 
255.255.255.0).


Les 32 postes sont utilisés par une classe d'élèves. J'ai 200 élèves à 
gérer, donc 200 profil différent.


Pour que chaque poste accède à internet, j'ai fais

iptables -t nat -A POSTROUTING -o eth0 -j MASQUERADE

Est ce judicieux ?

J'ai essayé avec NIS avec debian 11, l'authentification à l'air de 
bien fonctionner. Pour l'authentification, NIS est il bien adapté pour 
ce genre de configuration ?



A l'époque déjà lointaine où j'étais sysadmin occasionnel (au CEA) NIS 
fonctionnait bien. C'était avant 2000, sur des stations Sun.



Par contre (et pour avoir enseigné plus récemment Linux à l'IUT d'Orsay) 
je m'interroge sur la pertinence de mettre (en 2024) le /home sur NFS. 
Ça a un inconvenient colossal en 2024: NFS est plus lent que l'accès au 
disque local de chaque poste. Si on compile des sources sur un serveur 
NFS avec le fichier objet sur un serveur NFS (le même), si on lance un 
exécutable ELF sur un serveur NFS, c'est nettement plus lent.


Ca dépend de quels genres d'enseignements il s'agit. S'il s'agit 
d'enseigner à des débutants complets la programmation avec un langage 
compilé (C, C++, Ada, Fortran, Ocaml) j'aurais tendance à :


 * décider avec les autres enseignants si les étudiants peuvent avoir
   accès (ou non) aux fichiers de leurs camarades. A mon avis c'est
   très utile (pour l'entraide, la détection du plagiat, ...).
 * expliquer aux étudiants ce qu'est NFS et un serveur de fichiers.
 * Ne pas monter NFS le /home mais un autre répertoire, par exemple
   /UnivMontp3et annoncer aux étudiants que le /home n'est pas sauvegardé!
 * expliquer aux étudiants ce qu'est un versionneur de fichiers; leur
   recommander (voir imposer) l'utilisation de git: https://git-scm.com/
 * installer un service git sur le serveur.
 * expliquer à tous les étudiants leurs droits et devoirs (comme
   étudiants). Par exemple, ceux (et ils sont nombreux) qui ont un
   ordinateur portable personnel (à eux, pas payé par l'université),
   ont-ils le droit de l'utiliser en TP? de le connecter au réseau? d'y
   installer Linux? d'accéder le serveur de l'université depuis la
   salle de cours ou de leur chambre d'étudiant? d'imprimer sur
   l'imprimante de la classe leurs fichiers source (ou d'autres)?





Par contre au niveau de l'export (NFS), cela rame un peu (je me rend 
compte que j'exporte l'ensemble du home serveur sur tous les clients 
et non celui uniquement de l'utilisateur). Comment faire pour exporter 
sur la machine cliente uniquement le profil de l'utilisateur et non 
tous les utilisateurs ?



Ca doit être possible par une configuration de PAM. 
https://fr.wikipedia.org/wiki/Pluggable_Authentication_Modules mais 
j'ignore les détails! Il y a probablement des universités qui peut-être 
utilisent rsync à la connection de l'étudiant pour recopier sur le 
disque local des fichiers depuis le serveur.




Sur le serveur, j'ai mis à la fin dans le fichier /etc/exports

/home/NFS_Partage 192.168.200.1/24(rw,sync,no_subtree_check)
mais j'hésite avec

/home/NFS_Partage 
192.168.0.0/24(rw,all_squash,anonuid=1000,anongid=1000,sync,no_subtree_check)


Sur le client, j'ai mis à la fin dans le fichier fstab

DomaineNFS:/home/NFS_Partage /home nfs defaults 0 0

On m'a parlé de LDAP, mais je ne sais pas trop comment m'y prendre. 
Est il préférable d'utiliser LDAP ou NIS pour l'authentification ? 
Existe il un petit manuel simple pour créer 200 utilisateurs.



La création de 200 utilisateurs est probablement faisable en GNU bash ou 
Python ou Ocaml ou C++ en quelques dizaines de lignes.




Mon réseau fonctionne, mais rame beaucoup au delà de 4 utilisateurs ? 
et je n'arrive pas à trouver une solution.


A mon avis, NIS pour chaque accès aux fichiers de l'étudiant va ramer 
énormément! Pourquoi pas un /home local à la machine pour l'étudiant, 
qui serait par exemple recopié depuis le serveur NFS au login, et 
recopié (par rsync) vers le serveur NFS puis effacé (localement) au logout?



Variante: l'étudiant liste sur son $HOME/.mes-depots-git (ou dans une 
carte NIS maison?) tous les répertoires git à cloner au login.



A l'IUT d'Orsay il y avait même un applicatif sur le PC de l'enseignant 
qui permettait d'éteindre simultanément tous les PCs (de l'université) 
dans la salle de TP utilisés par les étudiants.




Un grand merci pour votre aide.



Espérant avoir un peu aidé!


Librement





--
Basile Starynkevitch
(only mine opinions / les opinions sont miennes uniquement)
92340 Bourg-la-Reine, France
web page: starynkevitch.net/Basile/

utilisation de nis et nfs pour un réseau de 32 postes

2024-02-19 Par sujet olivier

Bonjour,

J'ai un réseau totalement avec débian 11 (que je compte mettre à jour 
avec la version 12), constitué d'un serveur avec deux cartes réseau, 
l'une reliée à l’extérieur par la fibre (DHCP) et l'autre carte (Adresse 
IP fixe 192.168.200.0) reliée à un switch. Ce switch est relié à 32 
postes (avec IP fixe de 192.168.200.10 à 192.168.200.50, adresse de la 
passerelle 192.168.200.0, masque de sous réseau 255.255.255.0).


Les 32 postes sont utilisés par une classe d'élèves. J'ai 200 élèves à 
gérer, donc 200 profil différent.


Pour que chaque poste accède à internet, j'ai fais

iptables -t nat -A POSTROUTING -o eth0 -j MASQUERADE

Est ce judicieux ?

J'ai essayé avec NIS avec debian 11, l'authentification à l'air de bien 
fonctionner. Pour l'authentification, NIS est il bien adapté pour ce 
genre de configuration ?


Par contre au niveau de l'export (NFS), cela rame un peu (je me rend 
compte que j'exporte l'ensemble du home serveur sur tous les clients et 
non celui uniquement de l'utilisateur). Comment faire pour exporter sur 
la machine cliente uniquement le profil de l'utilisateur et non tous les 
utilisateurs ?


Sur le serveur, j'ai mis à la fin dans le fichier /etc/exports

/home/NFS_Partage 192.168.200.1/24(rw,sync,no_subtree_check)
mais j'hésite avec

/home/NFS_Partage 
192.168.0.0/24(rw,all_squash,anonuid=1000,anongid=1000,sync,no_subtree_check)


Sur le client, j'ai mis à la fin dans le fichier fstab

DomaineNFS:/home/NFS_Partage /home nfs defaults    0 0

On m'a parlé de LDAP, mais je ne sais pas trop comment m'y prendre. Est 
il préférable d'utiliser LDAP ou NIS pour l'authentification ? Existe il 
un petit manuel simple pour créer 200 utilisateurs.


Mon réseau fonctionne, mais rame beaucoup au delà de 4 utilisateurs ? et 
je n'arrive pas à trouver une solution.


Un grand merci pour votre aide.

Olivier