Re: XFS soft quota e NFS

2022-11-09 Per discussione Giuseppe Sacco
Ciao Diego,

Il giorno mer, 09/11/2022 alle 12.23 +0100, Diego Zuccato ha scritto:
> Tanto per aggiungere qualche altro dato:
> 
> redacted: $ quota -i
> Disk quotas for user redacted (uid 2126002096):
>   Filesystem   space   quota   limit   grace   files   quota   limit 
>    grace
> 137.204.x.y:/srv/nfs/str957-cluster/home/
>   51288M* 51200M  76800M   6days   70425   0   0
> 
> redacted: :~$ echo test > testfile
> -bash: testfile: Disk quota exceeded
[...]

Che succede se lo stesso utente scrive direttamente sul server NFS, cioè sul
file system XFS? Giusto per essere sicuri che sia un problema di NFS e non di
XFS.

Ciao,
Giuseppe



Re: Failed to start Proxmox VE replication runner

2022-11-09 Per discussione Diego Zuccato

Il 09/11/2022 14:06, Piviul ha scritto:

anch'io ero arrivato a quella conclusione cioé che venivano 
ridirezionati verso l'ultimo mac address che aveva usato il bond (avevo 
detto ip ma in effetti non è giusto, il bond non sa nulla degli ip...) e 
se il bond contemporaneamente è utilizzato da più macchine con mac 
address differenti succedeva che alcuni pacchetti venivano ridirezionati 
al mac address sbagliato e quindi ignorati e mano a mano che il traffico 
aumentava i pacchetti persi aumentavano a dismisura... ma in effetti non 
dovrebbe succedere nulla se il bond viene usato da una macchina sola... 
mi sa che ci riproverò.
Mi sa che ci fosse qualche problema di altro genere. A meno che tu non 
avessi VM che condividevano l'IP e che fossero in esecuzione su due 
Proxmox diversi.
Se hai un solo Proxmox, anche con tante VM, i MAC address "saltellano" 
un po' tra le due interfacce ma al limite lo switch a monte inoltra i 
pacchetti ad entrambe (sprechi metà della banda in ricezione e la VM 
riceve pacchetti duplicati).
Se hai più Proxmox, ma con VM che lavorano su IP diversi, semplicemente 
si affiancano situazioni del singolo Proxmox, e ancora non dovresti 
perdere nulla.
Se invece hai p.e. 2 OPNSense in VM e usi un singolo VIP, se metti le 
due VM su due Proxmox gli switch si vedono arrivare un MAC address da 4 
interfacce diverse e potrebbero non gradire...


la banda è sempre un problema ;) e in assenza di standard legarsi ad una 
tipologa di switch che immagino siano anche molto costosi... anche no, 
grazie!
Non posso che condividere. Ma magari puoi valutare soluzioni di bonding 
diverse, con diverse opzioni per l'hashing.


--
Diego Zuccato
DIFA - Dip. di Fisica e Astronomia
Servizi Informatici
Alma Mater Studiorum - Università di Bologna
V.le Berti-Pichat 6/2 - 40127 Bologna - Italy
tel.: +39 051 20 95786



Re: Failed to start Proxmox VE replication runner

2022-11-09 Per discussione Piviul

On 09/11/22 11:41, Diego Zuccato wrote:

Il 09/11/2022 08:29, Piviul ha scritto:

io perdevo proprio dei pacchetti perché venivano ridirezionati 
all'ultimo ip che aveva usato il bond. È passato qualche anno ma mi 
sembra di ricordare proprio così...
Uh? Gli switch dovrebbero al limite ridirezionarli all'ultimo MAC che 
ha usato il bond, e questo non provoca la perdita di pacchetti (a meno 
di guasti): il bond, in ricezione, dovrebbe essere interface-agnostic.


anch'io ero arrivato a quella conclusione cioé che venivano 
ridirezionati verso l'ultimo mac address che aveva usato il bond (avevo 
detto ip ma in effetti non è giusto, il bond non sa nulla degli ip...) e 
se il bond contemporaneamente è utilizzato da più macchine con mac 
address differenti succedeva che alcuni pacchetti venivano ridirezionati 
al mac address sbagliato e quindi ignorati e mano a mano che il traffico 
aumentava i pacchetti persi aumentavano a dismisura... ma in effetti non 
dovrebbe succedere nulla se il bond viene usato da una macchina sola... 
mi sa che ci riproverò.





Una soluzione ancora migliore sarebbe l'aggregazione con LACP, ma 
pochi switch permettono di gestire uno "switch virtuale" con bond 
LACP e connessioni a due switch fisici differenti.
questo è molto interessante... Quindi gli switch quale standard 
dovrebbero seguire per poter gestire uno "switch virtuale" per fare 
una bond LACP con switch differenti?
Non mi risulta esistere uno standard. Mi pare che lo facessero alcuni 
HP di fascia alta, configurando uno "switch virtuale" che utilizza più 
switch fisici: a quel punto basta definire un trunk LACP inserendogli 
porte di due switch fisici diversi. Altrimenti, se la banda non è un 
problema, basta un semplice failover.


la banda è sempre un problema ;) e in assenza di standard legarsi ad una 
tipologa di switch che immagino siano anche molto costosi... anche no, 
grazie!


Grazie ancora

Piviul




Re: XFS soft quota e NFS

2022-11-09 Per discussione Diego Zuccato

Ciao Marco.

Da quel che vedo, warnquota funziona solo su filesystem locali (e ho già 
uno script sul server che ogni domenica mi manda un report di quanto 
stanno usando), non su NFS. E il problema che ho riscontrato è che 
appena l'utente raggiunge il soft limit (50G), NFS gli impedisce di 
scrivere come se avesse raggiunto l'hard limit (75G) :(


Se può servire, uso NFS v3.

Diego

Il 09/11/2022 08:16, Marco Gaiarin ha scritto:

Mandi! Diego Zuccato
   In chel di` si favelave...


Quello che volevo ottenere era di ricevere io un avviso con un discreto
margine, per segnalare all'utente che sta occupando troppo disco, non
impedirgli di lavorare...


'warnquota'?

Al superamento della 'soft limit' (su spazio o inode) warnquota dovrebbe
iniziare a scassare gli zebedei agli uteti per il tempo stabilito.

Solo quando si superano le hard quota, o quando si superano le soft quota
per un tempo superiore al stabilito,l'accesso in scrittura al FS è
interrotto...



--
Diego Zuccato
DIFA - Dip. di Fisica e Astronomia
Servizi Informatici
Alma Mater Studiorum - Università di Bologna
V.le Berti-Pichat 6/2 - 40127 Bologna - Italy
tel.: +39 051 20 95786



Re: XFS soft quota e NFS

2022-11-09 Per discussione Diego Zuccato

Tanto per aggiungere qualche altro dato:

redacted: $ quota -i
Disk quotas for user redacted (uid 2126002096):
 Filesystem   space   quota   limit   grace   files   quota   limit 
  grace

137.204.x.y:/srv/nfs/str957-cluster/home/
 51288M* 51200M  76800M   6days   70425   0   0

redacted: :~$ echo test > testfile
-bash: testfile: Disk quota exceeded

Da una parte vede che l'utente ha superato solo la soft quota, ma poi 
non fa scrivere... Ci sto uscendo pazzo.


Diego

Il 09/11/2022 12:00, Diego Zuccato ha scritto:

Ciao Marco.

Da quel che vedo, warnquota funziona solo su filesystem locali (e ho già 
uno script sul server che ogni domenica mi manda un report di quanto 
stanno usando), non su NFS. E il problema che ho riscontrato è che 
appena l'utente raggiunge il soft limit (50G), NFS gli impedisce di 
scrivere come se avesse raggiunto l'hard limit (75G) :(


Se può servire, uso NFS v3.

Diego

Il 09/11/2022 08:16, Marco Gaiarin ha scritto:

Mandi! Diego Zuccato
   In chel di` si favelave...


Quello che volevo ottenere era di ricevere io un avviso con un discreto
margine, per segnalare all'utente che sta occupando troppo disco, non
impedirgli di lavorare...


'warnquota'?

Al superamento della 'soft limit' (su spazio o inode) warnquota dovrebbe
iniziare a scassare gli zebedei agli uteti per il tempo stabilito.

Solo quando si superano le hard quota, o quando si superano le soft quota
per un tempo superiore al stabilito,l'accesso in scrittura al FS è
interrotto...





--
Diego Zuccato
DIFA - Dip. di Fisica e Astronomia
Servizi Informatici
Alma Mater Studiorum - Università di Bologna
V.le Berti-Pichat 6/2 - 40127 Bologna - Italy
tel.: +39 051 20 95786



Re: Failed to start Proxmox VE replication runner

2022-11-09 Per discussione Diego Zuccato

Il 09/11/2022 08:29, Piviul ha scritto:

io perdevo proprio dei pacchetti perché venivano ridirezionati 
all'ultimo ip che aveva usato il bond. È passato qualche anno ma mi 
sembra di ricordare proprio così...
Uh? Gli switch dovrebbero al limite ridirezionarli all'ultimo MAC che ha 
usato il bond, e questo non provoca la perdita di pacchetti (a meno di 
guasti): il bond, in ricezione, dovrebbe essere interface-agnostic.


Una soluzione ancora migliore sarebbe l'aggregazione con LACP, ma 
pochi switch permettono di gestire uno "switch virtuale" con bond LACP 
e connessioni a due switch fisici differenti.
questo è molto interessante... Quindi gli switch quale standard 
dovrebbero seguire per poter gestire uno "switch virtuale" per fare una 
bond LACP con switch differenti?
Non mi risulta esistere uno standard. Mi pare che lo facessero alcuni HP 
di fascia alta, configurando uno "switch virtuale" che utilizza più 
switch fisici: a quel punto basta definire un trunk LACP inserendogli 
porte di due switch fisici diversi. Altrimenti, se la banda non è un 
problema, basta un semplice failover.


--
Diego Zuccato
DIFA - Dip. di Fisica e Astronomia
Servizi Informatici
Alma Mater Studiorum - Università di Bologna
V.le Berti-Pichat 6/2 - 40127 Bologna - Italy
tel.: +39 051 20 95786



Re: Failed to start Proxmox VE replication runner

2022-11-09 Per discussione Piviul

On 09/11/22 08:21, Diego Zuccato wrote:

[...]
Te lo chiedo perché avevo fatto un po' di prove anche con bond alb ma 
perdevo dei pacchetti. Mi sembra di ricordare però che la causa 
l'avevo imputata al fatto che avendo messo in bond alb le interfacce 
dedicate alla lan e siccome più vm le usavano con ip diversi nel caso 
di traffico contemporaneo di più vm hosts il routing dei pacchetti si 
incasinava... avevo archiviato quindi il bond alb ma in questo caso 
tutto il traffico è generato da un solo IP, dovrebbe funzionare... è 
plausibile no?
L'unico "problema" che ho rilevato è stato il flapping segnalato da 
ArpWatch e OpnSense perché vedono gli IP saltellare da un MAC all'altro.


io perdevo proprio dei pacchetti perché venivano ridirezionati 
all'ultimo ip che aveva usato il bond. È passato qualche anno ma mi 
sembra di ricordare proprio così...



Una soluzione ancora migliore sarebbe l'aggregazione con LACP, ma 
pochi switch permettono di gestire uno "switch virtuale" con bond LACP 
e connessioni a due switch fisici differenti.


questo è molto interessante... Quindi gli switch quale standard 
dovrebbero seguire per poter gestire uno "switch virtuale" per fare una 
bond LACP con switch differenti?


mille grazie

Piviul