Re: Debian 11 e SELinux

2021-08-11 Per discussione Alessandro Baggi



Il 11/08/21 14:53, Alessandro Baggi ha scritto:

Il 11/08/21 13:48, Alessandro Baggi ha scritto:

Un saluto a tutta la lista.

Ho installato su una macchina virtuale KVM Debian 11 (non ancora 
rilasciata) e ho attivato SELinux. Come riportato su 
https://wiki.debian.org/SELinux/Setup ho rimosso AppArmor e 
installato selinux-basics selinux-policy-default e auditd, ho 
lanciato selinux-activate e ho riavviato. Il sistema, giustamente, ha 
effettuato un relabel di tutto. Successivamente ho modificato la 
configurazione di SELinux da permissive a enforcing.


Il problema è che non mi permette di loggarmi via ssh con utente 
normale dandomi come errore:


/bin/bash: permission denied

Ho usato SELinux su distro della famiglia RPM ma non sono esperto in 
quanto ho solo configurato dei contesti, qualche boolean e confinato 
qualche user e non riesco a capire come risolvere questo problema.


Ho provato ad assegnare ad un utente il ruolo user_u con "usermod -Z 
user_u username" e riesco ad effettuare il login via ssh ma ho notato 
che lanciando "su -" non mi permette di leggere/scrivere file che 
sono soggetti ad altri contesti, come se l'utente root fosse 
confinato. Questa cosa non accade però se il login viene effettuato 
da console. Purtroppo la documentazione di Debian non mi è di alcun 
aiuto.


In rete non sono riuscito a trovare granchè ma solo problemi relativi 
ad anni dimenticati


Qualcuno ha qualche suggerimento?

Grazie in anticipo.

Dopo aver spulciato qualche boolean di SELinux ho abilitato 
ssh_sysadm_login (impostato a on) e permette agli utenti non confinati 
di effettuare il login su ssh.


Non capisco perche se effettuo il login da utente confinato se lancio 
id -Z ho:


    user_u:user_r:user_t:s0

e dopo "su - root" mantiene lo stesso contesto dell'utente semplice e 
non unconfined. Può essere che la transazione da un contesto user_t 
non puo essere effettuata verso unconfined?



Continuando la ricerca ho capito che: se si necessità di avere solo i 
servizi pubblicati su internet come confinati non ha senso usare il 
mapping degli user con gli user SELinux. Inoltre se viene abilitato il 
boolean ssh_sysadm_login, agli utenti non confinati è permesso il login, 
mentre ad un utente lo confiniamo con "user_u", è permesso il login ssh 
ma è confinato quindi nel caso in cui lanciasse un "su -" e ottenesse la 
root ha comunque il contesto dell'utente confinato e quindi non può fare 
nulla.


Quello che  non mi è chiaro è che se un utente lo mappo all'user SELinux 
staff_u (dalla doc di gentoo: SELinux user with direct system 
administrative role assigned), permette di fare il login ma non permette 
di lanciare comandi amministrativi ne da utente normale (credo sia 
normale) ne da utente root (con su -) perche il contesto rimane lo 
stesso di staff_u. A questo punto a che serve se non puo lanciare 
comandi amministrativi tipo apt?




Re: Debian 11 e SELinux

2021-08-11 Per discussione Alessandro Baggi

Il 11/08/21 13:48, Alessandro Baggi ha scritto:

Un saluto a tutta la lista.

Ho installato su una macchina virtuale KVM Debian 11 (non ancora 
rilasciata) e ho attivato SELinux. Come riportato su 
https://wiki.debian.org/SELinux/Setup ho rimosso AppArmor e installato 
selinux-basics selinux-policy-default e auditd, ho lanciato 
selinux-activate e ho riavviato. Il sistema, giustamente, ha 
effettuato un relabel di tutto. Successivamente ho modificato la 
configurazione di SELinux da permissive a enforcing.


Il problema è che non mi permette di loggarmi via ssh con utente 
normale dandomi come errore:


/bin/bash: permission denied

Ho usato SELinux su distro della famiglia RPM ma non sono esperto in 
quanto ho solo configurato dei contesti, qualche boolean e confinato 
qualche user e non riesco a capire come risolvere questo problema.


Ho provato ad assegnare ad un utente il ruolo user_u con "usermod -Z 
user_u username" e riesco ad effettuare il login via ssh ma ho notato 
che lanciando "su -" non mi permette di leggere/scrivere file che sono 
soggetti ad altri contesti, come se l'utente root fosse confinato. 
Questa cosa non accade però se il login viene effettuato da console. 
Purtroppo la documentazione di Debian non mi è di alcun aiuto.


In rete non sono riuscito a trovare granchè ma solo problemi relativi 
ad anni dimenticati


Qualcuno ha qualche suggerimento?

Grazie in anticipo.

Dopo aver spulciato qualche boolean di SELinux ho abilitato 
ssh_sysadm_login (impostato a on) e permette agli utenti non confinati 
di effettuare il login su ssh.


Non capisco perche se effettuo il login da utente confinato se lancio id 
-Z ho:


    user_u:user_r:user_t:s0

e dopo "su - root" mantiene lo stesso contesto dell'utente semplice e 
non unconfined. Può essere che la transazione da un contesto user_t non 
puo essere effettuata verso unconfined?





Debian 11 e SELinux

2021-08-11 Per discussione Alessandro Baggi

Un saluto a tutta la lista.

Ho installato su una macchina virtuale KVM Debian 11 (non ancora 
rilasciata) e ho attivato SELinux. Come riportato su 
https://wiki.debian.org/SELinux/Setup ho rimosso AppArmor e installato 
selinux-basics selinux-policy-default e auditd, ho lanciato 
selinux-activate e ho riavviato. Il sistema, giustamente, ha effettuato 
un relabel di tutto. Successivamente ho modificato la configurazione di 
SELinux da permissive a enforcing.


Il problema è che non mi permette di loggarmi via ssh con utente normale 
dandomi come errore:


/bin/bash: permission denied

Ho usato SELinux su distro della famiglia RPM ma non sono esperto in 
quanto ho solo configurato dei contesti, qualche boolean e confinato 
qualche user e non riesco a capire come risolvere questo problema.


Ho provato ad assegnare ad un utente il ruolo user_u con "usermod -Z 
user_u username" e riesco ad effettuare il login via ssh ma ho notato 
che lanciando "su -" non mi permette di leggere/scrivere file che sono 
soggetti ad altri contesti, come se l'utente root fosse confinato. 
Questa cosa non accade però se il login viene effettuato da console. 
Purtroppo la documentazione di Debian non mi è di alcun aiuto.


In rete non sono riuscito a trovare granchè ma solo problemi relativi ad 
anni dimenticati


Qualcuno ha qualche suggerimento?

Grazie in anticipo.



Re: migrazione dati da mysql a postgress

2021-07-14 Per discussione Alessandro Baggi

Il 14/07/21 11:45, marco ha scritto:
Buon giorno lista; qualcuno di voi ha mai fatto la migrazione dati da 
mysql a postgress? Se si come si deve fare?



CIao Marco,

la domanda non è strettamente relativa a Debian e spero non si generi un 
flame per questo OT.


Comunque, non l'ho mai fatto ma procederei cosi (prendilo come spunto):

1. Creare il db, tabelle, relazioni con tutto quello che serve (tipi 
campi, chiavi, indici, procedure, ecc)


2. Con uno script in python (va bene anche php o linguaggio che conosci) 
leggerei il contenuto di tutte le tabelle rispettando l'ordine delle 
relazioni (magari tabella 1 dipende da tabella 2 quindi devi prima 
popolare tabella 2) e ripopolare le tabelle sul db postgres. In questo 
passaggio è importante mantenere la consistenza del db altrimenti 
potresti avere dei problemi con l'applicazione che deve leggere i dati. 
Per evitare problemi, se non conosci il db ti consiglio di analizzarlo 
attentamente.


3. Sicuramente ci sarà un'applicazione che usuifrerà di questi dati, 
quindi devi cambiare tutte le chiamate per recuperare/inserire le 
informazioni sul db. In base alla versione che usi, sul sito di 
PostgreSQL c'è un'esauriente documentazione.


Sicuro utenti più esperti ti risponderanno a breve e in maniera più 
adeguata.



Un saluto.



Re: presentazione

2020-12-18 Per discussione Alessandro Baggi



Il 17/12/20 10:41, Marco Ciampa ha scritto:

Buongiorno lista, sono nuovo nuovo per cui perdonate se faccio errori
clamorosi.

Sono un traduttore (GIMP, Midnight Commander, KiCad ecc.).


Benvenuto e granzie per il grandioso lavoro.



Re: considerazioni sulla virtualizzazione

2020-08-16 Per discussione Alessandro Baggi



Il 14/08/20 14:45, Marco Gaiarin ha scritto:

NON è un ''filesystem condiviso'', NON è possibile montare lo stesso device
iSCSI su due macchine diverse, ma in un cluster PVE ti permette di migrare
le macchine da un nodo all'altro senza problemi, perchè il device iSCSI è
visto da tutte.


Ciao,

corretto, non è possibile montare lo stesso iSCSI su più macchine se si 
usano filesystem canonici (ext4,xfs). È possibile farlo se si usa GFS2 o 
OCFS come fs.



Un saluto.



Re: considerazioni sulla virtualizzazione

2020-08-09 Per discussione Alessandro Baggi



Il 08/08/20 15:49, Marco Gaiarin ha scritto:

Se la tua idea è esportare due dischi in iSCSI e farci sul 'client iSCSI' il
RAID-1, mi sa che stai a fare una ca%%ata...;-)

+1



Re: Debian e downgrade di un pacchetto

2020-08-06 Per discussione Alessandro Baggi



Il 06/08/20 09:42, Alessandro Baggi ha scritto:


Il 06/08/20 07:33, Paolo Redælli ha scritto:


Il 05/08/20 21:45, Davide Prina ha scritto:

On 04/08/20 11:18, Paolo Redælli wrote:


Il 04/08/20 11:05, Alessandro Baggi ha scritto:


Volevo sapere se su debian è possibile fare un downgrade di un 
determinato pacchetto con apt.



apt-get --allow-downgrades install nomepacchetto/versione


ma questo non dovrebbe funzionare perché i pacchetti di versioni 
precedenti dovrebbero essere tolti dal repository ufficiali e messi 
su snapshot.debian.net... a meno che mi sono perso qualcosa accaduto 
di recente.


In effetti è come dici tu, perché la stragrande maggioranza delle 
persone ha elencato nelle fonti di apt una sola release tra stabile, 
testing, unstable eccetera


Non avevo tenuto presente che non sono tanti a fare come me che ho 
stable, testing, unstable ed **experimantal** tra le fonti...


Vedi 
https://monodes.com/predaelli/2020/02/23/debian-programmi-da-stable-testing-unstable-ed-anche-experimental-senza-traumi/ 



Scusate ma non ho capito se --allow-downgrades install 
nomepacchetto/versione funziona e come faccio a determinare quale 
versione posso installare.


Rieccomi,

per vedere quali versioni di un pacchetto sono disponibili, si può usare 
'apt policy thunderbird".





Re: Debian e downgrade di un pacchetto

2020-08-06 Per discussione Alessandro Baggi



Il 06/08/20 07:33, Paolo Redælli ha scritto:


Il 05/08/20 21:45, Davide Prina ha scritto:

On 04/08/20 11:18, Paolo Redælli wrote:


Il 04/08/20 11:05, Alessandro Baggi ha scritto:


Volevo sapere se su debian è possibile fare un downgrade di un 
determinato pacchetto con apt.



apt-get --allow-downgrades install nomepacchetto/versione


ma questo non dovrebbe funzionare perché i pacchetti di versioni 
precedenti dovrebbero essere tolti dal repository ufficiali e messi 
su snapshot.debian.net... a meno che mi sono perso qualcosa accaduto 
di recente.


In effetti è come dici tu, perché la stragrande maggioranza delle 
persone ha elencato nelle fonti di apt una sola release tra stabile, 
testing, unstable eccetera


Non avevo tenuto presente che non sono tanti a fare come me che ho 
stable, testing, unstable ed **experimantal** tra le fonti...


Vedi 
https://monodes.com/predaelli/2020/02/23/debian-programmi-da-stable-testing-unstable-ed-anche-experimental-senza-traumi/ 



Scusate ma non ho capito se --allow-downgrades install 
nomepacchetto/versione funziona e come faccio a determinare quale 
versione posso installare.




Re: Debian e downgrade di un pacchetto

2020-08-04 Per discussione Alessandro Baggi



Il 04/08/20 11:18, Paolo Redælli ha scritto:


Il 04/08/20 11:05, Alessandro Baggi ha scritto:

Salve ragazzi,

leggendo le problematiche legate ai fix del BootHole su sistemi della 
famiglia RHEL, tra le soluzioni viene proposto il downgrade dei 
pacchetti interessati.



Volevo sapere se su debian è possibile fare un downgrade di un 
determinato pacchetto con apt.


Certo che si può. E non solo di un determinato pacchetto, per inciso. 
Anni fa son passato da experimental a testing (ma ci ha messo tipo 
8-10 ore!).


apt-get --allow-downgrades install nomepacchetto/versione

oppure

apt-get --allow-downgrades install nomepacchetto/release


Ciao Paolo e grazie per la risposta.

è possibile vedere quante e quali versioni sono disponibili per un 
determinato pacchetto in modo tale da poter fornire la version corretta?




Debian e downgrade di un pacchetto

2020-08-04 Per discussione Alessandro Baggi

Salve ragazzi,

leggendo le problematiche legate ai fix del BootHole su sistemi della 
famiglia RHEL, tra le soluzioni viene proposto il downgrade dei 
pacchetti interessati.



Volevo sapere se su debian è possibile fare un downgrade di un 
determinato pacchetto con apt.


Grazie in anticipo.

Un saluto.



Re: comparazione fra files

2020-08-03 Per discussione Alessandro Baggi



Il 03/08/20 17:43, Piviul ha scritto:
Ciao a tutti, dati 2 o più files con migliaia di righe ordinate dovrei 
riuscire ad estrapolare le righe uguali.


Non c'è altro modo dii farlo se non controllando riga per riga se è 
presente negli altri files? Non esiste un diff al contrario?


Grazie

Piviul


Ciao Piviul,

ti do uno spunto. Prova con: sort file1 file2 file3 | uniq -d

Questo dovrebbe darti le rige uguali in tutti i file specificati.


Un saluto.




Aggiornamento: Debian Buster (10.4) e GIMP

2020-07-27 Per discussione Alessandro Baggi

Il 12/06/20 23:18, Davide Prina ha scritto:

On 12/06/20 09:01, Alessandro Baggi wrote:


non uso Wayland ma Xorg.


Wayland is intended as a simpler replacement for X, easier to develop 
and maintain. GNOME and KDE are expected to be ported to it.


È vero che ci sono cose che non funzionano (es: bisogna imposare delle 
variabili di sistema alla chiamata dell'applicativo) o danno problemi 
con wayland, ma con il passare del tempo stanno sistemando.


Ciao
Davide


Salve ragazzi,

ricordate il problema di GIMP su debian 10.4 dove non funzionava il 
color picker?


Il problema sembra risolversi quando utilizzo come motore di rendering 
XRender. Con OpelGL 3.1  e 2.0 mi da quel problema.


Non ho molta conoscenza sui motori di rendering ma Xrender è valido?



Re: [OT] Backup dati

2020-07-10 Per discussione Alessandro Baggi



Il 10/07/20 15:54, Bertorello, Marco ha scritto:

Il 09/07/2020 15:58, Alessandro Baggi ha scritto:

Un saluto esteso a tutta la lista.

Come da oggetto ho necessità di mettere su un server di backup

[...]

Avete dei consigli al riguardo?


Non sto seguendo il thread, scusate, ma questo è stato rilasciato oggi
in Beta, magari vi interessa:

https://pbs.proxmox.com/wiki/index.php/Main_Page


Ciao e grazie per la risposta.

Grazie per aver condiviso, è molto interessante. +1



Re: [OT] Backup dati

2020-07-10 Per discussione Alessandro Baggi

Il 10/07/20 14:54, Giulio Turetta ha scritto:

backuppc

E' pacchettizzato per Debian, è solido e versatile.

Unica pecca? Non cripta i backup ma se la criptazione della partizione
che li contiene può essere sufficiente te lo consiglio.

Se invece la criptazione è un must vai un occhio a duplicity

Happy hack!

G.


Ciao Giulio,

grazie per la risposta e per il suggerimento.

Un saluto, Alessandro.



Re: [OT] Backup dati

2020-07-10 Per discussione Alessandro Baggi



Il 10/07/20 12:21, Mauro Morichi ha scritto:



Il 10/07/2020 10:27, Alessandro Baggi ha scritto:

mile al tuo, con checksum, quota, notifiche e comunicazioni.
Come hai implementato il checksum nel tuo script? Io sto provando a 
trovare una soluzione utilizzando l'md5 di rsync che si può ottenere 
usando l'opzione --output-format="%C e altri format per altre info". 
Questo è ottimo perche cmq l'hash lo calcola direttamente rsync e si 
risparmia un po di tempo, quindi per ogni file scaricato inserisco il 
rispettivo md5 in un manifest unico per il client contenente tutti i 
checksum dei file scaricati precedentemente. Il problema è che usando 
gli hardlink e utilizzando il prune, mi ritrovo a dover aggiornare 
una lista molto lunga ogni volta che effettuo un prune e questo 
richiede molto tempo. Al momento mi sono affidato a ZFS ma se non ho 
capito male il controllo di zfs consiste nel controllare se la copia 
live è cambiata rispetto a quella della parità senza che il file sia 
stato modificato nella copia live (anche perche se il file viene 
modificato nella copia live viene comunque aggiornato anche nel 
parity) (se sbaglio correggetemi).
anche se piu' lentamente utilizzo il tool esterno. Ogni volta genero 
un file con l'elenco di tutti gli md5 piu' altre info utili come 
spazio occupato, spazio disponibile, numero di backup presenti un 
po' di info leggibili, insomma.


Anche io ho provato con un tool esterno (sha512/256sum) ma quando sono 
molti file (tipo il primo backup o un aggiornamento di qualche giga) ci  
mette un po. Per esempio il primo backup scarica circa 60 file e  il 
processo per calcolare il checksum di ogni file richiede un bel po di 
tempo mentre invece utilizzando il checksum (md5 al momento) di rsync si 
perde solo il tempo di sincronizzazione dei file.




Re: [OT] Backup dati

2020-07-10 Per discussione Alessandro Baggi


Il 09/07/20 21:48, Mauro ha scritto:

Il 09/07/2020 15:58, Alessandro Baggi ha scritto:

Un saluto esteso a tutta la lista.



ricambio con piacere.



Per un ambiente lavorativo stavo pensado a qualcosa di più
professionale che supporti la compressione, deduplicazione (non che
sia necessaria al momento), cifratura dei backup e controllo di
integrità dei backup.

Facendo un ricerca in rete ho trovato:

1) rsnapshot: non più mantenuto in quanto lo sviluppatore principale è
passato a borgbackup.
2) dirvish: non più mantenuto dal 2014.
3) bacula: letteralmente un mostro (che ho usato in passato)
4) bareos: è il fork di bacula quindi come sopra
5) amanda: non so
6) borgbackup: tool veramente interessante ma supporta solo il push
nativamente quindi dovrei usarlo con rsync + borg in locale. Anche in
questo caso uno script bash è necessario per mantenere più client.
7) restic: simile a borgbackup

e altri.

Avete dei consigli al riguardo?



Ciao Mauro e grazie per la risposta

La mia situazione che e' un mix di robe di lavoro e personali alla fine
mi hanno portato a usare due tools (tralascio quelli per gli ambienti
misti winz):

il primo, uno script che ogni giorno cresce un po' che si basa su rsync,
simile al tuo, con checksum, quota, notifiche e comunicazioni.
Come hai implementato il checksum nel tuo script? Io sto provando a 
trovare una soluzione utilizzando l'md5 di rsync che si può ottenere 
usando l'opzione --output-format="%C e altri format per altre info". 
Questo è ottimo perche cmq l'hash lo calcola direttamente rsync e si 
risparmia un po di tempo, quindi per ogni file scaricato inserisco il 
rispettivo md5 in un manifest unico per il client contenente tutti i 
checksum dei file scaricati precedentemente. Il problema è che usando 
gli hardlink e utilizzando il prune, mi ritrovo a dover aggiornare una 
lista molto lunga ogni volta che effettuo un prune e questo richiede 
molto tempo. Al momento mi sono affidato a ZFS ma se non ho capito male 
il controllo di zfs consiste nel controllare se la copia live è cambiata 
rispetto a quella della parità senza che il file sia stato modificato 
nella copia live (anche perche se il file viene modificato nella copia 
live viene comunque aggiornato anche nel parity) (se sbaglio correggetemi).

il secondo un bacula che sta diventando in questi giorni un bareos.
Quest'ultima soluzioni l'avevo scelta qualche anno fa perche' dovevo
lavorare in ambienti misti (linux,bsd e windows) e mi sembrava una
valida alternativa da mettere in mano con apposita interfaccia a utenti
meno smaliziati a cui, al massimo, dovevo far premere un tasto soltanto.

Effettivamente Bareos/Bacula sono di una complessita' che rasenta la
follia. Per carita' stabili, ma laddove ho thera e thera di file piccoli
(documenti office) andare a cercare qualcosa sta diventando una tortura.
Concordo. Bacula è una cosa allucinante, l'ho usato in passato con 
successo ma è troppo complesso e macchinoso (magari in altre realtà è la 
salvezza ed è necessario che sia cosi). Prima cosa è un pò confusionario 
il modo in cui i client vengono configurati, cioè si parte da un file di 
configurazione che contiene le direttive ma poi una parte delle info 
viene memorizzata sul database (la parte riguardante ai pool, volumi, 
job, file e host). Non c'è niente di male in questo ma se provi cambiare 
le config dei pool, volumi ecc devi cmq aggiornarle sul DB con la 
bconsole, se elimini un client dalla configurazione poi devi andare ad 
eliminare il client dal DB, idem se fai modifiche ai pool/volumi, idem 
se cancelli un volume o un job (esiste un tool per fare questo, o meglio 
un tool che si occupa di eliminare i record orfani ma non ha mai 
funzionato per me..sarò io). Poi ci sta il mantenimento del DB che 
potrebbe diventare gigante e quindi le query per vedere quale file è 
memorizzato in quale volume richiedo un tempo maggiore e poi ti ritrovi 
a fare un backup del db (di bacula) molto grande (ci sono diverse 
direttive per questo ma si può sempre omettere qualcosa o sbagliare il 
retention period). Oltre a questo non mi piace come gestisce i volumi 
sui backup con storage su disco e non su TAPE (su TAPE penso che sia 
formidabile questo approccio) ma su disco è più un problema che una 
soluzione. Per esempio, mi capitava che un job fallisse per un motivo ma 
il volume era già stato allocato e marcato come usato. Avendo il maximum 
volume jobs = 1, Maximum Volumes = N e le retention policy praticamente 
distruggeva il ciclo di backup del client perche ti trovavi con un 
volume in meno  (praticamente non usato) ma che cmq ti sballava il 
ciclo. E vai a manina a cambiare il numero di pool per fargli fare il 
backup e poi eliminare quello vecchio. Forse lo usavo male io, ma per 
backup su disco non è il massimo. Poi per carità ha delle funzioni 
spettacolari come il migration su un secondo storage come replica, 
backup virtuali ecc...forniscono supporto a chi ne ha bisogno ma il 
gioco non vale la ca

[OT] Backup dati

2020-07-09 Per discussione Alessandro Baggi

Un saluto esteso a tutta la lista.

Come da oggetto ho necessità di mettere su un server di backup per 
effettuare il backup di un NAS (debian) con ~1TiB, qualche VPS 
(potrebbero aumentare di numero) e una workstation. Sono tutti dati, 
quindi niente immagini di VM o container.


Al momento ho in mano uno script (bash) da me scritto anni fa che 
utilizza rsync per il backup di molteplici host tramite SSH. Utilizza 
gli hardlink con l'opzione --link-dest e per ogni backup crea uno 
snapshot a se stante. Inoltre ho la possibilità di poter lanciare degli 
script di pre/post job (sempre script in bash) sui target remoti per 
operazioni (ES: lvm snapshot, backup di db, start/stop di servizi...), 
ha il mailing, ha il pruning dei vecchi job, ha un'impostazione per il 
QUOTA e il relativo controllo, crea un catalogo dei file con alcune 
informazioni (su file) per ogni snapshot, permette il restore dei backup 
sempre con rsync in un determinato path sul target. Niente di complesso 
ma funziona. A casa lo uso con ZFS dove è abilitata la compressione e 
dove ogni tanto lancio uno scrub per verificare se ci sono degli errori. 
La cosa che mi piace è che i file sono memorizzati nella stessa modalità 
in cui sono scaricati, quindi accessibili con qualsiasi tool disponibile 
sulla distro a non dipendono da uno specifico software di backup ma solo 
dal filesystem. Ha alcuni svantaggi come il limite degli hardlink, il 
gran numero di file salvati singolarmente e non in un archivio per 
backup il che potrebbe creare problemi con fsck. Oltre a queste non 
supporta la compressione, la cifratura e il controllo di integrità 
nativamente ma al momento posso ovviare al problema grazie a ZFS e 
comunque essendo uno script in bash preferirei gestire queste 
funzionalità in maniera più appropriata.


Per un ambiente lavorativo stavo pensado a qualcosa di più professionale 
che supporti la compressione, deduplicazione (non che sia necessaria al 
momento), cifratura dei backup e controllo di integrità dei backup.


Facendo un ricerca in rete ho trovato:

1) rsnapshot: non più mantenuto in quanto lo sviluppatore principale è 
passato a borgbackup.

2) dirvish: non più mantenuto dal 2014.
3) bacula: letteralmente un mostro (che ho usato in passato)
4) bareos: è il fork di bacula quindi come sopra
5) amanda: non so
6) borgbackup: tool veramente interessante ma supporta solo il push 
nativamente quindi dovrei usarlo con rsync + borg in locale. Anche in 
questo caso uno script bash è necessario per mantenere più client.

7) restic: simile a borgbackup

e altri.

Avete dei consigli al riguardo?

Scusate la lunghezza e grazie.

Alessandro.




[RISOLTO] Re: Ho fatto un casino con i DE (fork(Debian Buster (10.4) e GIMP)

2020-06-17 Per discussione Alessandro Baggi




Il 15/06/20 18:56, Alessandro Baggi ha scritto:



Il 15/06/20 17:57, Davide Prina ha scritto:

On 15/06/20 08:55, Alessandro Baggi wrote:

Esiste un modo sicuro per eliminare GNOME ed XFCE senza distruggere 
l'installazione?


guardi cosa ha effettivamente installato e rimuovi qui pacchetti:

/var/log/apt/history.log

Io ho rimosso gnome su un eeepc dove avevo messo xfce e non ho avuto 
problemi.


Ciao
Davide



Grazie mille proverò.

Un saluto.


Ciao Davide,
ho effettuato l'eliminazione dei pacchetti riportati nel log di apt. 
Tutto è andato per il meglio.


Grazie ancora.

Un saluto.



[RISOLTO] Re: Debian Buster (10.4) e GIMP

2020-06-16 Per discussione Alessandro Baggi




Il 12/06/20 23:18, Davide Prina ha scritto:

On 12/06/20 09:01, Alessandro Baggi wrote:


non uso Wayland ma Xorg.


Wayland is intended as a simpler replacement for X, easier to develop 
and maintain. GNOME and KDE are expected to be ported to it.


È vero che ci sono cose che non funzionano (es: bisogna imposare delle 
variabili di sistema alla chiamata dell'applicativo) o danno problemi 
con wayland, ma con il passare del tempo stanno sistemando.


Ciao
Davide



Salve Ragazzi,
inaspettatamente il problema non si presenta più.

Qualche giorno fa ho lanciato un upgrade senza notare cosa venisse 
aggiornato. Il log di apt riporta questo:


Start-Date: 2020-06-12  09:03:30
Commandline: apt-get upgrade
Upgrade: linux-image-4.19.0-9-amd64:amd64 (4.19.118-2, 
4.19.118-2+deb10u1), linux-libc-dev:amd64 (4.19.118-2, 
4.19.118-2+deb10u1), libgnutls-openssl27:amd64 (3.6.7-4+deb10u3, 
3.6.7-4+deb10u4), nodejs:amd64 (10.19.0~dfsg1-1, 
10.21.0~dfsg-1~deb10u1), linux-compiler-gcc-8-x86:amd64 (4.19.118-2, 
4.19.118-2+deb10u1), linux-headers-4.19.0-9-common:amd64 (4.19.118-2, 
4.19.118-2+deb10u1), thunderbird-l10n-it:amd64 (1:68.8.0-1~deb10u1, 
1:68.9.0-1~deb10u1), linux-headers-4.19.0-9-amd64:amd64 (4.19.118-2, 
4.19.118-2+deb10u1), lightning:amd64 (1:68.8.0-1~deb10u1, 
1:68.9.0-1~deb10u1), thunderbird:amd64 (1:68.8.0-1~deb10u1, 
1:68.9.0-1~deb10u1), nodejs-doc:amd64 (10.19.0~dfsg1-1, 
10.21.0~dfsg-1~deb10u1), libgnutls30:amd64 (3.6.7-4+deb10u3, 
3.6.7-4+deb10u4), libnode64:amd64 (10.19.0~dfsg1-1, 
10.21.0~dfsg-1~deb10u1), ca-certificates:amd64 (20190110, 
20200601~deb10u1), linux-kbuild-4.19:amd64 (4.19.118-2, 
4.19.118-2+deb10u1), libgnutls-dane0:amd64 (3.6.7-4+deb10u3, 
3.6.7-4+deb10u4)

End-Date: 2020-06-12  09:03:54

ma non so da cosa possa essere dipeso.

Grazie a tutti per il supporto.



Re: Ho fatto un casino con i DE (fork(Debian Buster (10.4) e GIMP)

2020-06-15 Per discussione Alessandro Baggi




Il 15/06/20 17:57, Davide Prina ha scritto:

On 15/06/20 08:55, Alessandro Baggi wrote:

Esiste un modo sicuro per eliminare GNOME ed XFCE senza distruggere 
l'installazione?


guardi cosa ha effettivamente installato e rimuovi qui pacchetti:

/var/log/apt/history.log

Io ho rimosso gnome su un eeepc dove avevo messo xfce e non ho avuto 
problemi.


Ciao
Davide



Grazie mille proverò.

Un saluto.



Re: leggere dati smart in dischi SAS

2020-06-15 Per discussione Alessandro Baggi




Il 15/06/20 08:32, Piviul ha scritto:


Il 13/06/20 21:46, Marco Taschin ha scritto:

Ciao,

prova con questi tools: https://downloads.linux.hpe.com/SDR/project/mcp/
sai che non sono riuscito a trovare un tool in grado di leggere i dati 
smart dell'hd? E smartctl quindi non è supportato?


Piviul


Ciao Piviul,

Leggi qui: 
https://www.smartmontools.org/wiki/FAQ#MySCSISASdriveisnotinthesmartctlsmartddataba




Ho fatto un casino con i DE (fork(Debian Buster (10.4) e GIMP)

2020-06-15 Per discussione Alessandro Baggi

Buongiorno lista,
non so se avete letto la mia problematica con GIMP, ma per verificare se 
dipendesse dai driver nvidia o dal DE, ho installato (oltre a Plasma) 
anche GNOME e XFCE. Alla fine il problema si presenta su Plasma ma al 
momento non so ancora da cosa dipenda.


Ora il problema è che mi ritrovo con 3 DE. Da mie vecchie esperienze, la 
disinstallazione di xfce non dovrebbe creare problemi ma la rimozione 
completa di GNOME mi ha sempre rovinato l'installazione.


Esiste un modo sicuro per eliminare GNOME ed XFCE senza distruggere 
l'installazione?


Un saluto e grazie in anticipo.



Re: zfs pool degraded

2020-06-12 Per discussione Alessandro Baggi

Ciao Piviul,
sembra il caso di cambiarlo, magari qualcuno con più esperienza potrebbe 
confermare la diagnosi.



Il 12/06/20 14:44, Piviul ha scritto:

Ciao Alessandro...

Alessandro Baggi ha scritto il 12/06/20 alle 11:09:

[...]
I valori THRESH dello smart del disco riportano qualcosa di strano?
Non riesco a leggerli né da iLO4 né da smartctl, non so infatti dove 
trovare le informazioni da inserire nell'opzione --device di smartctl :(


I log di sistema hanno riportato qualcosa al riguardo del disco come 
errore I/O ecc (anche dmesg al momento dell'errore)?

No, non ci ho guardato ma l'ho fatto ora; ecco cosa riportano:
Jun 11 08:23:34 pve02 kernel: [63208.585107] sd 2:0:2:0: [sdc] tag#128 
FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Jun 11 08:23:34 pve02 kernel: [63208.585126] sd 2:0:2:0: [sdc] tag#128 
Sense Key : Illegal Request [current] Jun 11 08:23:34 pve02 kernel: 
[63208.585132] sd 2:0:2:0: [sdc] tag#128 Add. Sense: Logical block 
address out of range
Jun 11 08:23:34 pve02 kernel: [63208.585139] sd 2:0:2:0: [sdc] tag#128 
CDB: Write(10) 2a 00 b7 e8 13 10 00 05 28 00
Jun 11 08:23:34 pve02 kernel: [63208.585146] blk_update_request: 
critical target error, dev sdc, sector 3085439760 op 0x1:(WRITE) flags 
0x700 phys_seg 12 prio class 0
Jun 11 08:23:34 pve02 kernel: [63208.585252] zio pool=zfspool 
vdev=/dev/sdc1 error=121 type=2 offset=1579744108544 size=675840 
flags=40080c80
Jun 11 08:23:48 pve02 kernel: [63223.328731] sd 2:0:2:0: [sdc] tag#162 
FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Jun 11 08:23:48 pve02 kernel: [63223.328751] sd 2:0:2:0: [sdc] tag#162 
Sense Key : Illegal Request [current] Jun 11 08:23:48 pve02 kernel: 
[63223.328757] sd 2:0:2:0: [sdc] tag#162 Add. Sense: Logical block 
address out of range
Jun 11 08:23:48 pve02 kernel: [63223.328764] sd 2:0:2:0: [sdc] tag#162 
CDB: Write(10) 2a 00 c3 39 fa 18 00 02 60 00
Jun 11 08:23:48 pve02 kernel: [63223.328771] blk_update_request: 
critical target error, dev sdc, sector 3275356696 op 0x1:(WRITE) flags 
0x700 phys_seg 6 prio class 0
Jun 11 08:23:48 pve02 kernel: [63223.328878] zio pool=zfspool 
vdev=/dev/sdc1 error=121 type=2 offset=1676981579776 size=311296 
flags=40080c80
Jun 11 08:24:28 pve02 kernel: [63263.323315] sd 2:0:2:0: [sdc] tag#141 
FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Jun 11 08:24:28 pve02 kernel: [63263.323334] sd 2:0:2:0: [sdc] tag#141 
Sense Key : Medium Error [current] Jun 11 08:24:28 pve02 kernel: 
[63263.323340] sd 2:0:2:0: [sdc] tag#141 Add. Sense: Unrecovered read 
error
Jun 11 08:24:28 pve02 kernel: [63263.323347] sd 2:0:2:0: [sdc] tag#141 
CDB: Read(10) 28 00 00 00 00 00 00 01 00 00
Jun 11 08:24:28 pve02 kernel: [63263.323353] blk_update_request: 
critical medium error, dev sdc, sector 0 op 0x0:(READ) flags 0x0 
phys_seg 32 prio class 0
Jun 11 08:25:37 pve02 kernel: [63331.416500] sd 2:0:2:0: [sdc] tag#143 
FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Jun 11 08:25:37 pve02 kernel: [63331.416507] sd 2:0:2:0: [sdc] tag#143 
Sense Key : Medium Error [current] Jun 11 08:25:37 pve02 kernel: 
[63331.416510] sd 2:0:2:0: [sdc] tag#143 Add. Sense: Unrecovered read 
error
Jun 11 08:25:37 pve02 kernel: [63331.416516] sd 2:0:2:0: [sdc] tag#143 
CDB: Read(10) 28 00 00 00 00 00 00 01 00 00
Jun 11 08:25:37 pve02 kernel: [63331.416522] blk_update_request: 
critical medium error, dev sdc, sector 0 op 0x0:(READ) flags 0x0 
phys_seg 32 prio class 0
Jun 11 11:44:58 pve02 kernel: [75292.560537] sd 2:0:2:0: [sdc] 
Unaligned partial completion (resid=4056, sector_sz=512)
Jun 11 11:44:58 pve02 kernel: [75292.560549] sd 2:0:2:0: [sdc] tag#769 
CDB: Read(10) 28 00 00 00 00 00 00 01 00 00
Jun 11 11:44:58 pve02 kernel: [75292.560558] sd 2:0:2:0: [sdc] tag#769 
FAILED Result: hostbyte=DID_ABORT driverbyte=DRIVER_OK
Jun 11 11:44:58 pve02 kernel: [75292.560562] sd 2:0:2:0: [sdc] tag#769 
CDB: Read(10) 28 00 00 00 00 00 00 01 00 00
Jun 11 11:44:58 pve02 kernel: [75292.560567] blk_update_request: I/O 
error, dev sdc, sector 0 op 0x0:(READ) flags 0x0 phys_seg 32 prio class 0
Jun 11 11:44:58 pve02 kernel: [75292.560694] sd 2:0:2:0: [sdc] tag#770 
FAILED Result: hostbyte=DID_ABORT driverbyte=DRIVER_OK
Jun 11 11:44:58 pve02 kernel: [75292.560697] sd 2:0:2:0: [sdc] tag#770 
CDB: Read(10) 28 00 00 00 08 00 00 01 00 00
Jun 11 11:44:58 pve02 kernel: [75292.560700] blk_update_request: I/O 
error, dev sdc, sector 2048 op 0x0:(READ) flags 0x0 phys_seg 32 prio 
class 0
Jun 11 11:44:58 pve02 kernel: [75292.688448] sd 2:0:2:0: [sdc] tag#799 
FAILED Result: hostbyte=DID_NO_CONNECT driverbyte=DRIVER_SENSE
Jun 11 11:44:58 pve02 kernel: [75292.688456] sd 2:0:2:0: [sdc] tag#799 
Sense Key : Illegal Request [current] Jun 11 11:44:58 pve02 kernel: 
[75292.688460] sd 2:0:2:0: [sdc] tag#799 Add. Sense: Logical unit not 
supported
Jun 11 11:44:58 pve02 kernel: [75292.688466] sd 2:0:2:0: [sdc] tag#799 
CDB: Read(10) 28 00 00 00 00 00 00 01 00 00
Jun 11 11:44:58 pve02 kernel: [75292.688471] blk_update_request: I/O

Re: zfs pool degraded

2020-06-12 Per discussione Alessandro Baggi

Ciao Piviul,
non so se iLO riporta questo tipo di errori. Cercando in rete ho trovato 
(http://h20628.www2.hp.com/km-ext/kmcsdirect/emr_na-c03580889-1.pdf) che 
iLO4 riporta tra le tante cose un Disk Failure.


I valori THRESH dello smart del disco riportano qualcosa di strano?

I log di sistema hanno riportato qualcosa al riguardo del disco come 
errore I/O ecc (anche dmesg al momento dell'errore)?


Se non trovi nessun problema (ed è strano) proverei a riaggiungere il 
disco al pool di zfs e vedere se riaccade. Se riaccade sta a te valutare 
in base al ruolo del server e all'importanza dei dati che ha memorizzati 
se è il caso di acquistare un nuovo disco.


Potresti fare un'altra prova ma è rischiosa, non l'ho mai fatto e non so 
se è possibile. Se dico qualche ca___ta perdonatemi. Se il tuo pool 
supporta un duplice guasto (raizd2) o se hai dischi spare (anche non 
collegati) perche non invertire due dischi? Potrebbe essere il bay ad 
avere il problema (so che è remota come possibilità). Se fallisce sempre 
lo stesso disco sai che è quel disco altrimenti se fallisce il disco nel 
bay "incriminato" sai che il problema dipende dal bay.
Se hai il raidz2 puoi scollegare due device insieme altrimenti sei 
obbligato a scollegare il disco corrotto, fare un replace con un disco 
nuovo e aspettare il resilvering. Se tutto va bene scolleghi un disco 
del pool e inserisci quello che ti da problemi e aspetti il manifestarsi 
del problema.
Anche in questo caso, dipende dal ruolo di questo specifico server. Può 
essere spento e avere un downtime per il resilvering?


Non smetterò mai di consigliarlo: backup, backup e backup.

Nota: mi è capitato in passato, quando ero un novizio ed ero affiancato 
da "un esperto", che su alcuni server HP in raid5 (hardware non ricordo 
il controller) ogni tanto un disco veniva marcato come faulted e il 
tutto si risistemava scollegando il disco e ricollegandolo (a fronte 
però della ricostruzione).


Un saluto.

Aggiungo che il server è un proliant hp e iLO4 dice che lo stato di 
salute del server è ottimo, non vengono rilevati problemi. Se un HD 
dovesse avere problemi il server proliant non dovrebbe accorgesene?


Grazie

Piviul

Il 11/06/20 13:04, Piviul ha scritto:
Ciao a tutti, zfs si è arrabbiato e mi ha fatto uscire un HD dal raid. 
Ora io essendoci ancora cose non essenziali sul server ho dato un 
zpool clear sul server ma mi piacerebbe testare l'hd; con uno smartctl 
-a /dev/sd? mi dice :

smartctl 7.1 2019-12-30 r5022 [x86_64-linux-5.4.41-1-pve] (local build)
Copyright (C) 2002-19, Bruce Allen, Christian Franke, 
www.smartmontools.org


/dev/sd?: requires option '-d cciss,N'
Please specify device type with the -d option.

Use smartctl -h to get a usage summary


se gli aggiungo un -d scsi mi restituisce:

smartctl 7.1 2019-12-30 r5022 [x86_64-linux-5.4.41-1-pve] (local build)
Copyright (C) 2002-19, Bruce Allen, Christian Franke, 
www.smartmontools.org


User Capacity:    2,000,398,934,016 bytes [2.00 TB]
Logical block size:   512 bytes
Rotation Rate:    7202 rpm
Form Factor:  3.5 inches
Logical Unit id:  0x5000c5004e1c339a
Serial number:    Z1P3KYTT
Device type:  disk
Local Time is:    Thu Jun 11 13:03:46 2020 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
Temperature Warning:  Disabled or Not Supported

=== START OF READ SMART DATA SECTION ===
SMART Health Status: OK
Current Drive Temperature: 32 C
Drive Trip Temperature:    0 C

Error Counter logging not supported

Device does not support Self Test logging

Voi cosa fareste?

Piviul







Re: Debian Buster (10.4) e GIMP

2020-06-12 Per discussione Alessandro Baggi




Il 11/06/20 21:29, Davide Prina ha scritto:

On 11/06/20 10:29, Alessandro Baggi wrote:

Ho installato xfce4 e rilanciato la sessione utente con XFCE e GIMP 
funziona come di dovere.


Sembra che il problema derivi da KDE.

Come potrei identificare cosa causa la problematica su KDE Plasma?


secondo me il problema è in una libreria specifica di KDE

$ dpkg -l | grep wayland

penso che siano qt quelle che potrebbero darti problemi

Io guarderei se per qualcuna di quelle di KDE c'è aperto qualche bug su 
wayland.


Una strada che potrebbe essere più complessa è quella di fare il debug 
di gimp con gdb e cercare di capire cosa stampa i messaggi di errore


https://wiki.debian.org/HowToGetABacktrace

Ciao
Davide


Ciao Davide,
non uso Wayland ma Xorg.

root  1128  0.1  0.3 193472 50680 tty1 Sl+  08:51   0:00 
/usr/lib/xorg/Xorg vt1 -displayfd 3 -auth /run/user/122/gdm/Xauthority 
-background none -noreset -keeptty -verbose 3


Proverò con il debug di gimp.

Grazie



Re: Debian Buster (10.4) e GIMP

2020-06-11 Per discussione Alessandro Baggi

Il 10/06/20 21:49, Davide Prina ha scritto:

On 03/06/20 16:28, Alessandro Baggi wrote:

ho riscontrato un problema con GIMP su Debian 10 con il color picker 
del selezionatore di colore di primo piano nel pannello degli 
strumenti o da Menu->Finestre->Pannelli Agganciabili->Colori.


In sostanza qualsiasi colore io selezioni mi da sempre nero


su testing funziona correttamente.

Di solito problemi di questo tipo sono causati da un supporto per 
wayland non corretto.


infatti qui è segnalato il problema che hai indicato tu (però marcato 
come risolto):

https://bugs.launchpad.net/ubuntu/+source/gimp/+bug/1705188
però penso che dovrebbe essere risolto sulla versione che hai...

Qui è riportato l'errore
https://www.kubuntuforums.net/showthread.php/76021-Gimp-2-10-8-color-picker-issue 



e indicato che se lo fai partire da un terminale Gnome funziona, mentre 
se parte da Konsole non funziona...


Ciao
Davide



Ciao Davide.
grazie per la tua risposta.
La tue indicazione sull'uso di un altro DE è stata utile.

Ho installato xfce4 e rilanciato la sessione utente con XFCE e GIMP 
funziona come di dovere.


Sembra che il problema derivi da KDE.

Come potrei identificare cosa causa la problematica su KDE Plasma?

Grazie in anticipo.



Re: Debian Buster (10.4) e GIMP

2020-06-07 Per discussione Alessandro Baggi



Il 07/06/20 15:03, liste DOT girarsi AT posteo DOT eu ha scritto:

Il 05/06/20 09:48, Alessandro Baggi ha scritto:


Ciao, io sapevo che KDE, GNOME ecc sono DE mentre Xorg o Wayland sono i
server grafici.

Comunque i driver sono installati dal repo di debian (non-free).
Backports disabilitati.

Il fatto è che il problema è riscontrato solo con GIMP mentre con
kcolorchooser funziona a dovere.

Un saluto.


Scusa, hai ragione, faccio spesso confusione, comunque, io sono su una
testing/sid, e la mia versione è più recente, ho la 2.10.18-1, però il
tuo problema non lo riscontro ho desktop KDE e pure i driver proprietari
(presenti nei repository non-free).

Quindi probabile sia un bug di gimp.

Hai già provato, per esempio a fare un riempimento di un cerchio, per
vedere se mantiene l'assenza di colore?

Dubito un problema ai driver nvidia, perchè succede solo lì.

Guardando il changelog [0], ci sono diversi fix sui colori nelle varie
versioni precedenti, forse questo ha influito, però è solo un'idea senza
supporto tecnico a disposizione, per mio limite.

Poi ho trovato questi [1] [2], vedi se ti son di aiuto, anche se non ne
ho idea e le risposte sono simili.



[0]
https://metadata.ftp-master.debian.org/changelogs//main/g/gimp/gimp_2.10.8-2_changelog


[1]
https://graphicdesign.stackexchange.com/questions/85548/cant-use-any-colors-other-than-black-in-gimp-image

[2]
https://graphicdesign.stackexchange.com/questions/100160/gimp-will-only-fill-with-black


Ciao,

grazie per i suggerimenti. Proverò appena ho un po di tempo.

Grazie mille. Se risolvo lo riporto in lista (magari può servire a qualcuno)

Un saluto



Re: Debian Buster (10.4) e GIMP

2020-06-07 Per discussione Alessandro Baggi



Il 07/06/20 15:39, WinterMute ha scritto:

il Fri, 5 Jun 2020 09:48:23 +0200
Alessandro Baggi  ha scritto:

| [...]

buon pomeriggio,

provando a cercare con le keyword "gimp color picker not working" escono diversi
risultati (per altro ci sono segnalazioni del medesimo comportamento anche su 
win), non ho
modo di approfondire ma ti conviene provare a seguire qualcuna delle 
segnalazioni
presenti per vedere se trovi qualche spunto utile.

non ho al momento modo di controllare in prima persona ma parrebbe che ci sia 
un qualche
collegamento tra questo anomalo comportamento e l'utilizzo di wayland.

comunque, come dicevo prima, prova ad eseguire una ricerca con quelle keywords 
magari
riesci a trovare il bandolo della matassa (o qualche info utile per risolvere il
problema).

saluti.

***
[-> WinterMute <-] -> https://www.debian.org/  «-branch-» [bullseye/sid]
|GNU  Project| -> https://www.gnu.org/
|Kernel  Archives| -> https://www.kernel.org/
|GPG  FingerPrint| -> 38A4 5354 30C5 E86F 9AA8  B234 7227 D71D A547 39E0
***


Ciao,e  grazie per la risposta.

Ho provato a cercare con le stesse keyword prima di postare ma non 
vedevo nulla di relativo a debian con la mia versione.


Continuerò la mia ricerca.

Grazie.



Re: Debian Buster (10.4) e GIMP

2020-06-05 Per discussione Alessandro Baggi



Il 04/06/20 19:20, liste DOT girarsi AT posteo DOT eu ha scritto:

Il 04/06/20 08:24, Alessandro Baggi ha scritto:

Ciao Simone,

# apt info gimp
Package: gimp
Version: 2.10.8-2
Priority: optional
Section: graphics
Maintainer: Debian GNOME Maintainers

Installed-Size: 19,5 MB
.
...

Server grafico Xorg (con Plasma e Nvidia driver)

Alessandro.


Io intendevo come server grafco, KDE, GNOME, XLDE, ecc..

Se hai plasma presumo KDE, però per i driver grafici NVidia, è tutto un
programma, hai quelli proprietari scaricati dal sito NVidia o quelli dei
repository? quelli recenti o i legacy?

Hai pure i repository backports attivati immagino visto i driver
proprietari.

Temo un problema legato ai driver NVidia, però dipende dalla scheda
grafica e se i driver sono i suoi; poi bisogna vedere se il problema c'è
solo con gimp, in tal caso è possibile un bug di gimp.


Ciao, io sapevo che KDE, GNOME ecc sono DE mentre Xorg o Wayland sono i 
server grafici.


Comunque i driver sono installati dal repo di debian (non-free). 
Backports disabilitati.


Il fatto è che il problema è riscontrato solo con GIMP mentre con 
kcolorchooser funziona a dovere.


Un saluto.



Re: Debian Buster (10.4) e GIMP

2020-06-04 Per discussione Alessandro Baggi

Il 03/06/20 16:32, liste_girarsi ha scritto:

Il 3 Giugno 2020 16:28:39 CEST, Alessandro Baggi  
ha scritto:

Salve ragazzi,
ho riscontrato un problema con GIMP su Debian 10 con il color picker
del
selezionatore di colore di primo piano nel pannello degli strumenti o
da
Menu->Finestre->Pannelli Agganciabili->Colori.

In sostanza qualsiasi colore io selezioni mi da sempre nero (anche la
notazione HTML). Ho provato anche su macchine diverse ma il problema
persiste.

Qualcuno presenta lo stesso problema?

Al momento uso kcolorchooser per ovviare al problema.

Un saluto.

che versione di gimp?

che serve grafico hai di sistema?

--simone girardelli--
##
Inviato dal mio dispositivo Android con K-9 Mail. Perdonate la brevità.


Ciao Simone,

# apt info gimp
Package: gimp
Version: 2.10.8-2
Priority: optional
Section: graphics
Maintainer: Debian GNOME Maintainers 


Installed-Size: 19,5 MB
.
...

Server grafico Xorg (con Plasma e Nvidia driver)

Alessandro.



Debian Buster (10.4) e GIMP

2020-06-03 Per discussione Alessandro Baggi

Salve ragazzi,
ho riscontrato un problema con GIMP su Debian 10 con il color picker del 
selezionatore di colore di primo piano nel pannello degli strumenti o da 
Menu->Finestre->Pannelli Agganciabili->Colori.


In sostanza qualsiasi colore io selezioni mi da sempre nero (anche la 
notazione HTML). Ho provato anche su macchine diverse ma il problema 
persiste.


Qualcuno presenta lo stesso problema?

Al momento uso kcolorchooser per ovviare al problema.

Un saluto.



Re: ZFS e consumo di RAM

2020-05-31 Per discussione Alessandro Baggi



Il 28/05/20 15:27, Piviul ha scritto:

Piviul ha scritto il 28/05/20 alle 09:21:
Ciao a tutti, in rete molti dicono che ZFS consuma tutta la RAM - 1GB. 
Forse all'inizio era così... io ricordo invece di aver letto, ma non 
ricordo dove, che il consumo di RAM (ARC) era proporzionale alla 
quantità di dati presenti nel pool zfs ma non ricordo nel dettaglio 
questa proporzionalità. Qualcuno mi sa indirizzare dove potermi 
documentare?
come al solito continuo il mio monologo sperando che a qualcuno sia 
utile e che a qualcun altro non dia fastidio :)


Documentazione[¹] credo[²] attendibile darebbe manforte a chi sostiene 
che ZFS consumi tutta la RAM meno 1GB; infatti si legge che il valore di 
default sia impostato al "75% of memory on systems with less than 4 GB 
of memory physmem minus 1 GB on systems with greater than 4 GB of 
memory". Però a me non torna:

# arc_summary | grep -A9 ^ARC\ size
ARC size (current):    94.4 %   59.4 GiB
    Target size (adaptive):   100.0 %   62.9 GiB
    Min size (hard limit):  6.2 %    3.9 GiB
    Max size (high water):   16:1   62.9 GiB
    Most Frequently Used (MFU) cache size:  0.7 %  386.3 MiB
    Most Recently Used (MRU) cache size:   99.3 %   56.2 GiB
    Metadata cache size (hard limit):  75.0 %   47.2 GiB
    Metadata cache size (current):  6.1 %    2.9 GiB
    Dnode cache size (hard limit): 10.0 %    4.7 GiB
    Dnode cache size (current): 0.2 %   10.5 MiB


che è circa la metà della ram presente sul sistema:

# free -h
  total    used    free  shared  buff/cache   
available
Mem:  125Gi    64Gi    60Gi   104Mi   
903Mi    59Gi

Swap: 8.0Gi  0B   8.0Gi


E a questo punto non mi resta altro che pensare che zfs in solaris si 
comporta diversamente che su linux...


O no?

Piviul

[¹] https://docs.oracle.com/cd/E26502_01/html/E29022/chapterzfs-3.html
[²] credo perché si riferisce a zfs in solaris ma non dovrebbero esserci 
differenza




Ciao Piviul,
sono nuovo con ZFS ma da quello che so hai ragione, è tutta la ram - 
1GiB. Se necessiti di RAM (magari un VM o altro), puoi tranquillamente 
impostare zfs_arc_max ad un valore ragionevole. La ARC permette di 
accedere ai file in maniera più veloce. Ovviamente avere una ARC più 
grande ti permette di avere più file in cache. Abbassarla non comporta 
nessun problema per ZFS, ma ho letto consigli di non abbassarla sotto i 
4GiB (non ho capito perche ma credo sia un fatto di prestazioni).


Per la deduplicazione, anche se non l'ho ancora usata, ho letto che ZFS 
richiede 1 GiB di RAM per 1 TiB di dati, e questo credo si vada a 
sommare alla memoria usata dalla ARC, quindi attivare la deduplicazione 
solo se zdb riporta un rate di deduplicazione ragionevole.


Dato il grande utilizzo di RAM da parte di ZFS (ARC e Deduplicazione) 
l'utilizzo di ram ECC sarebbe indicato, ma al momento lo sto provando su 
una macchina con RAM non ECC, chissa che succederà in caso di qualche 
bit corrotto.


Hai qualche problema in particolare con l'utilizzo della RAM?

PS. Le tue avventure con PROXMOX e ZFS e Debian le trovo stimolanti dal 
punto di vista tecnico.


Un saluto.



Re: postgres upgrade interrotto

2020-05-19 Per discussione Alessandro Baggi


consiglio spassionato... quando fai queste cose, soprattutto da remoto... usa 
screen o tmux (il primo super rodato, il secondo notevole, secondo me). così, a 
meno che non si spenga proprio la macchina, recuperi sempre la tua sessione di 
lavoro.


+100



Re: [OT] La scorsa notte ho avuto un incubo

2020-05-14 Per discussione Alessandro Baggi

Bellissima la GIF.

Che dire...

Il 11/05/20 20:11, Felipe Salvador ha scritto:

https://giphy.com/gifs/hungry-systemd-5xtDarAgrjoOrBxSVYk





Re: Aggiunta HDD in un raid.

2020-05-03 Per discussione Alessandro Baggi

Ciao Alessandro...

in relatà non ho mai fatto il backup della nas, quindi non ho nulla da
verificare come integrità dei  precedenti backup.
il backup che farò, in prima battuta, è della sola parte utente
"/home" e "/root", della parte di sistema, mi interessano solo un paio
di configurazioni, che mi copierò esplicitamente (non copio tutta
/etc, per intenderci.

in ogni caso, ho intenzione di attivare uno snapshot del sistema,
prima di procedere al backup, per non trovarmi con file/direcotry
bloccate, ma qui, devo chiarirmi un po' le idee prima...

Ho sempre fatto un po' di confusione su quello che devo andare a
copiare... se lo snapshot o la directory nativa...

In quale modo mi suggerisci di verificare poi l'integrità del backup?

E' mia intenzione di usare un banale rsync, in quanto i due HDD su cui
faccio il backup, non mi coprono l'intera struttura, devo quindi
spezzarli sui due dischi separatamente e in tempi diversi
(probabilmente addiritura in tempi diversi, visto che per ora ho solo
una sola interfaccia usb da collegare).


Ciao e buona domenica.

Se usi rsync, il primo consiglio che mi sento di darti è quello di 
generare uno storico dei backup. Se continui ad eseguire il sync/backup 
solo tra due dir hai solo l'ultima versione e non i pregressi tipo (con 
hardlink per salvare spazio):


(in maniera molto semplificata)

mkdir -p /mnt/backup/{archive,dataset}
rsync -av --delete src/ /mnt/backup/dataset/
mkdir /mnt/backup/archive/backup-$(date "+%d_%m_%Y")
cp -al /mnt/backup/dataset/* /mnt/backup/archive/backup-date

per quanto riguarda l'ultimo comando rsync ha un'opzione per usare gli 
hardlink ma io preferisco dividere il processo di sync dal processo di 
"snapshot".


Per il discorso dell'integrità generalmente un controllo con checksum 
dovrebbe essere sufficiente. Ricalcolare un checksum di un intero 
dataset (molto grande) potrebbe essere una lunga operazione. Per fortuna 
rsync ci viene in aiuto con l'opzione --out-format attraverso la quale 
possiamo stampare l'output in maniera personalizzata tra cui l'md5sum 
del file sincronizzato tipo rsync -av --out-format="%n;%C" che fa 
stampare (se non erro) il nome del file e il relativo md5sum, che potrai 
salvare nel modo che preferisci (NOTA: l'md5 viene riportato solo per i 
file quindi nell'output di rsync dovresti eliminare tutto tranne i file. 
Per semplificare l'operazione potresti inserire nell'out-format anche il 
%i che simula l'itemize-change e attraverso il quale potresti estrarre 
il tipo di file.) Una volta salvato il "manifest" con gli md5 potresti 
eseguire un controllo sui file riportati iterando il tutto.


Nota: md5 ahime è quello che rsync al momento supporta, e per un 
controllo di integrità dei file puo andare bene.


So che puo sembrare macchinoso ma è un'idea.

Potresti usare anche altri sistemi come borgbackup (che sto testando per 
un mio uso). È semplice, crei un repo (cifrato se preferisci e remoto se 
preferisci), lanci borg create . e fa il backup con deduplicazione 
(molto più efficiente degli hardlink perche è la deduplicazione è sui 
blocchi). Per il controllo lanci semplicemente un borg check sul 
repository o sull'archivio e ti riporta lo stato del tutto. Anche qui 
hai bisogno di creare il tuo script bash per fare il tutto ma è molto 
piccolo. L'unica cosa che non mi fa impazzire di borg è che non supporta 
nativamente il pull backup...per il resto è molto efficiente e puoi 
usare ssh (come con rsync) per repository remoti. Ora la mia paura di 
borg è che aggiungere deduplicazione, compressione e cifratura (3 
livelli) rende il tutto (in particolare i file dove tutto viene salvato) 
molto complesso e se qualcosa si rompe...sarebbe dura recuperarlo.


Non vorrei andare off-topic ma qualcuno con più esperienza con rsync, 
borg o altri sistemi di backup potrebbe aiutarci in maniera più precisa 
magari con altre soluzioni migliori.


Un saluto.




Re: Futuro di debian

2020-04-30 Per discussione Alessandro Baggi



Il 30/04/20 13:37, Federico Di Gregorio ha scritto:

On 4/30/20 1:33 PM, marco wrote:
Buon giorno: prima atto reso inutilizzabile qemu-utils, poi hanno 
tolto dai repository kvm e inoltre post installazione non e' piu' 
possibile utilizzare apt-get in quanto nella directory etc non e' 
piu' presente (alcuni hanno trovato lo stratagemma di ricrearselo); 
secondo voi e' l'inizio della morte di questa distro?




Posso chiederti gentilmente di cosa ^!?£%$"! stai parlando? Post 
installazione di cosa?


federico


Mi accodo...cosa ha che non va debian?

Kvm tolto dai repository? (prova con apt-cache -n search qemu-kvm)

Parlare di morte di debian mi sembra assurdo (anche per il modo in cui 
la community e il suo sviluppo è gestito)  soprattutto considerato che è 
la mamma di mille mila distro.


Troll?




Re: Aggiunta HDD in un raid.

2020-04-29 Per discussione Alessandro Baggi

Il 25/04/20 19:27, Gollum1 ha scritto:

Sono riuscito a trovare degli HDD su cui fare il backup, appena ordino
il secondo disco da sostituire nel raid, spengo, tiro fuori uno dei
dischi, mandando quindi in degraded il raid, e vediamo se lo spare
viene usato correttamente, o se perdo tutto... Se dovessi perdere
tutto, compro gli altri dischi mancanti e rifaccio tutto il raid e
ripristino tutto sulla nuova serie di dischi...

(sperando che il backup non sia fallato)


Ciao,
per quanto riguarda il backup, prima di fare il tutto avvia 
un'operazione di verifica di integrità dell'ultimo backup/snapshot o 
ciclo di backup in modo tale da avere almeno la certezza che quello che 
hai salvato sia integro come nel momento in cui l'hai salvato (ovvio 
potresti aver salvato dati già corrotti nel target quindi l'integrità 
verifica solo che il backup sia consistente).


Se posso, che soluzione di backup stai utilizzando?

Un saluto.



Re: qemu e permessi

2020-04-09 Per discussione Alessandro Baggi



Il 08/04/20 18:22, Sabrewolf ha scritto:

Ciao, sul mio sistema non ho nè sudo nè tunctl perchè cerco sempre di
evitare di installare cose superflue o obsolete. Con systemd-networkd
avevo specificato "group=kvm" nella sezione [Tap] del file *.netdev ma a
quanto pare non è bastato. Alla fine direi che la soluzione che ho
indicato prima è la migliore e cioè:

- con systemd-networkd configurare un bridge br0 (10.0.0.1/24)

- con nft impostare il mascheramento di 10.0.0.1/24 in postrouting

- settare "chmod u+s" su /usr/lib/qemu/qemu-bridge-helper e "allow br0"
in /etc/qemu/bridge.conf

- avviare qemu usando "-netdev
tap,id=net0,br=br0,helper=/usr/lib/qemu/qemu-bridge-helper"

- settare 10.0.0.1 come gateway nel sistema guest

Rimango col dubbio se il bridge br0 è necessario oppure no.

Ciao, se usi il bridge br0 non ha necessità di mascherare nulla. Assegni 
l'indizzo ip (della tua rete) alla VM con il metodo che preferisci ed è 
fatta.


Ovviamente il bridge deve avere un'interfaccia slave altrimenti è tutto 
vano.


Io utilizzo virt-install per installare le macchine virtuali su 
kvm+libvirt (ci sarebbe anche virt-manager ma lo uso poco), per la rete 
basta --network=bridge:br0 (ovvio sempre un bridge valido deve essere 
configurato)


Un saluto.



Re: lvm2 check

2020-03-23 Per discussione Alessandro Baggi



Il 23/03/20 17:42, Sabrewolf ha scritto:

Ciao, prima di riavviare devi controllare l'UUID della partizione (blkid
/dev/sda3)

Il valore deve coincidere con quello indicato in pvdisplay (pvdisplay
/dev/sda3)

Non so se è necessario, magari lvm si basa solo sul nome del
dispositivo, chissà...Non so dirti come funziona esattamente lvm al suo
interno, ma se l'UUID non coincide io mi preoccuperei parecchio.

Per quanto riguarda il kernel che non vede le nuove partizioni puoi
provare a usare partprobe o kpartx.

Ciao!

Il 23/03/20 16:34, Alessandro Baggi ha scritto:

Posso concludere che non ho fatto danni e che al riavvio non troverò
sorprese legate alla mia distrazione?



Occhio al quoting, la richiesta era di Piviul



Re: lvm2 check

2020-03-23 Per discussione Alessandro Baggi



Il 23/03/20 15:16, Piviul ha scritto:
veramente un sintomo che qualcosa forse non va ce l'ho; se con gdisk 
su sda creo la partizione n. 4, salvo ed esco poi non trovo il device 
/dev/sda4...


è grave?

Piviul

Piviul ha scritto il 23/03/20 alle 14:59:
Ciao a tutti, oggi per distrazione ho cercato in tutti i modi di 
eliminare un PV LVM che per fortuna era legato ad una VG in uso.
nel dettaglio con gdisk ho eliminato la partizione (/dev/sda3) e ne 
ho creta un'altra sullo stesso disco poi quando mi sono accorto che 
la partizione eliminata era utilizzata come PV di un VG che conteneva 
il LV su cui era installato il sistema operativo oltre (si avete 
capito bene!!!) non ho fatto altro che eliminare la partizione creata 
e ricreare la partizione che conteneva il PV con le stesse dimensioni.
Ora sembra, per fortuna, che il sistema non se ne sia nemmeno accorto 
però non ho avuto il coraggio di riavviare il PC per paura che in 
realtà qualche problema salterà fuori al prossimo riavvio. Ho provato 
a dare un pvck sul pv sda3 e sembra tutto a posto, vgck sembra 
anch'esso risponda senza errori, pvs, vgs e lvs sembrano rispondere 
tutti correttamente...


Posso concludere che non ho fatto danni e che al riavvio non troverò 
sorprese legate alla mia distrazione?


Grazie!

Piviul



Ciao, non sono un esperto di LVM (potrei dire inezie) ma provo ad 
aiutarti. Forse un riavvio potrebbe esserti fatale. A questo punto potresti:


1) Se hai spazio sufficiente sui rimanenti PV del volume in questione 
potresti migrare i dati sugli altri pv dello stesso volume (che hanno 
spazio disponibile) in modo tale che i dati non siano più sul pv di 
sda3, riaggiungere la partizione come pv e poi distribuire di nuovi i dati.
2) Se non hai spazio puoi aggiungere un disco nuovo, lo aggiungi al 
volume logico, ridistribuisci i dati (facendo in modo sempre che i dati 
non risiedano più su sda3), reimposti sda3 e lo riaggiungi al volume, 
sposti di nuovo i dati e rimuovi il disco aggiunto.


3) Backup! Backup! Backup! (A proposito che sistema di backup usi? :D)

Un saluto.



Re: ot system.d al rogo

2020-03-18 Per discussione Alessandro Baggi



Il 18/03/20 10:56, Lucio Marinelli ha scritto:
Il giorno mer 18 mar 2020 alle ore 10:54 Portobello 
mailto:c.portobe...@fastwebnet.it>> ha 
scritto:


Cioè mi spiego. Quando non riesco a trovare soluzioni, spengo tutto e
vado a fare una passeggiata nel parco.
Più è lunga la passeggiata e più aumentano le probabilità di
trovare una
soluzione.


Beato te che hai un parco privato in cui passeggiare...

--
Lucio Marinelli



+1

Il mio parco è il mio balcone.



Re: ot system.d al rogo

2020-03-18 Per discussione Alessandro Baggi



Il 18/03/20 10:33, Paolo Redaelli ha scritto:

Il 18/03/20 10:25, Alessandro Baggi ha scritto:

Il 17/03/20 18:13, Marco Pirola ha scritto:

Per quale motivo se tolgo il package network-manager e imposto in
/etc/resolv.conf nameserver 8.8.8.8 non riesco a combina nulla? Tra
l'altro ho installato bridge-utils con un interfaces adoc
perfettamente funzionante con debian streatch; in debian buster o
nelle prossime release stable c'e' ci saranno la possibilita' di
scegliere il proprio inizializzatore di sistema? Grazie a tutti e una
buona serata

Buongiorno Marco,
anche io non gradisco molto configurare la rete con NetworkManager
anche se devo dire che non è poi cosi difficile da usare.

Solo una nota: se per caso hai rimosso network-manager perché non volevi
usare una GUI per configurare il tutto puoi sempre usare nmtui che è
un'interfaccia "a terminale" (curses), oppure nmcli che è proprio a
linea di comando.

Se poi vuoi proprio editare dei file di testo guarda dentro ad
/etc/NetworkManager

Questo non per obbligarti ad usare nm, ma solo per mostrarti che non è
poi così brutto come lo dipingono :)


+1



Re: ot system.d al rogo

2020-03-18 Per discussione Alessandro Baggi

Il 17/03/20 18:13, Marco Pirola ha scritto:
Per quale motivo se tolgo il package network-manager e imposto in 
/etc/resolv.conf nameserver 8.8.8.8 non riesco a combina nulla? Tra 
l'altro ho installato bridge-utils con un interfaces adoc 
perfettamente funzionante con debian streatch; in debian buster o 
nelle prossime release stable c'e' ci saranno la possibilita' di 
scegliere il proprio inizializzatore di sistema? Grazie a tutti e una 
buona serata


Buongiorno Marco,
anche io non gradisco molto configurare la rete con NetworkManager anche 
se devo dire che non è poi cosi difficile da usare. So che distro come 
RHEL/CentOS lo hanno adottato di default al posto del vecchio servizio 
network-scripts. Ed è qui il bello di debian: hai sempre una scelta.


Al di fuori di questo, hai disintallato il pacchetto network manager o 
lo hai solo disabilitato?


Se lo hai solo disabilitato /etc/resolv.conf risulta essere un link ad 
un file di NM generato automaticamente, quindi rimuovi il link e ricrea 
il file. Se lo hai disinstallato prova a verificare con systemd se c'è 
un servizio tipo "networking" da abilitare (magari con la rimozione di 
NM non è stato riabilitato).


Un consiglio che posso darti è quello di tirare su la rete un pezzo per 
volta per vedere dove c'è l'inghippo.


Esempio:

1) tira su una scheda di rete configurata normalmente e vedi se riesci a 
comunicare con altri host in lan
2) verifica se riesci a contattare un host su internet senza risoluzione 
dns (tipo ping 8.8.8.8)

3) Configura il dns e verifica.
4) Aggiungi il bridge e fai altre verifiche e cosi via.

Spero di esserti stato utile, per il momento non mi viene in mente altro.

Un saluto, Alessandro.




[OT] Consiglio per backup

2020-03-13 Per discussione Alessandro Baggi

Salve ragazzi,
devo mettere su un server di backup per un NAS con circa 1,5 TB e 
diversi server remoti (alcuni VPS e 2 dedicati) non troppi dati. 
Preferirei che il tutto sia centralizzato.


Cosa mi consigliate?

Grazie in anticipo.





Debian Buster e nftables

2020-02-04 Per discussione Alessandro Baggi

Un saluto a tutta la lista.

Come da oggetto, sulla Buster si ha la possibilità di usare iptables ed 
nftables e, non ricordo dove l'ho letto, viene consigliato vivamente di 
usare quest'ultimo.


Il passaggio delle regole iptables a nftables non è stato molto doloroso 
grazie ad alcuni tool che permettono di tradurre le regole iptables a 
nftables (anche se è meglio sempre controllare se sono state tradotte in 
maniera corretta, nel mio caso nessun problema perche è un set di regole 
molto semplice). Ho installato il pacchetto nftables per avere all'avvio 
di sistema il caricamento delle regole. Fin qui tutto bene. Ho provato 
anche partendo da zero ma il risultato è stato pessimo.


Quindi, consapevole del fatto di dover studiare il nuovo sistema, mi 
sono messo a leggere un pò di documentazione per la creazione delle 
regole e anche se è molto simile ad iptables (correggetemi se sbaglio) 
ho notato un gran cambiamento nella sintassi e con tante nuove keyword.


Qualcuno gia usa nftables? Quali sono le vostre sensazione su questo 
nuovo strumento?


Grazie in anticipo,
un saluto.

Alessandro.



Messaggio di errore KVM

2018-09-15 Per discussione Alessandro Baggi

Un saluto a tutta la lista,
ho una debian9.5 con diverse macchine virtuali su kvm + libvirt.
Ho notato che quando avvio una macchina virtuale nel dmesg ottengo 
errori come questo:


[ 6568.396936] kvm [14697]: vcpu0, guest rIP: 0xbac595e2 
unhandled rdmsr: 0x64e


L'unica cosa che ho trovato è che viene richiamata un'istruzione non 
supportata dalla cpu..


Le macchine virtuali sono comunque funzionanti.

Devo considerare tale errore come grave?

Grazie in anticipo.



Re: Sostituire disco LVM con GlusterFS

2018-08-22 Per discussione Alessandro Baggi

Il 20/08/2018 13:11, Marco Bertorello ha scritto:

Buongiorno a tutti,

ho due macchine identiche, rispettivamente con 1 disco SSD per OS e 
cache di LVM e 2 dischi da 3TB.


Ho un solo VG, formato dai 2 dischi da 3TB e da una partizione dell'SSD :

└─sda4                      8:4    0 45.9G  0 part
   ├─VG01-LV01_cache_meta  253:0    0    8M  0 lvm
   ├─VG01-LV01_cache_cdata 253:3    0   40M  0 lvm
   │ └─VG01-LV01           253:6    0  5.5T  0 lvm  /gluster/replicated
   └─VG01-LV01_cache_cmeta 253:4    0    8M  0 lvm
     └─VG01-LV01           253:6    0  5.5T  0 lvm  /gluster/replicated
sdb                         8:16   0  2.7T  0 disk
└─sdb1                      8:17   0  2.7T  0 part
   └─VG01-LV01_corig       253:5    0  5.5T  0 lvm
     └─VG01-LV01           253:6    0  5.5T  0 lvm  /gluster/replicated
sdc                         8:32   0  2.7T  0 disk
└─sdc1                      8:33   0  2.7T  0 part
   └─VG01-LV01_corig       253:5    0  5.5T  0 lvm
     └─VG01-LV01           253:6    0  5.5T  0 lvm  /gluster/replicated

Utilizzo GlusterFS per replicare (replica 3 con arbiter; l'arbiter è un 
raspberry) il volume tra i due nodi.


Su una macchina, un disco (sdc) sta cominciando a dare errori SMARTe 
vorrei sostituirlo.
Qual'è secondo voi la procedura migliore per evitare di perdere dati (va 
benissimo ricostruire dal nodo sano di gluster)?


grazie molte,

--
Marco Bertorello
System Administrator



Buongiorno Marco,
premetto che non ho mai avuto una problematica del genere.
Da quanto hai scritto non ci sono dischi in raid. Con il raid 
probabilmente avresti avuto meno problemi.


Non avendo mai usato gluster in produzione ma solo in ambiente di test 
non mi ritengo un esperto. Nella tua configurazione hai un 2 + 1 
(arbiter) quindi lo split-brain non avviene ed è un punto a tuo favore. 
Potresti degradare (scollegare dalla rete credo basti) il nodo (brick) 
di gluster dove hai il problema, sostituire il disco danneggiato (magari 
se hai abbastanza spazio sposta i dati sul disco rimanente del volume 
LVM) e poi ricollegare il brick a gluster in modo tale che il nodo 
master risincronizzi quello appena collegato. Durante questa operazione 
gluster dovrebbe comunque funzionare e garantire l'accesso ai dati.


Penso che questo servizio sia funzionante in un'azienda per cui non 
stopperei tutte e due le macchine primo perche con gluster non avrebbe 
senso, se ha un problema su un host disattivare tutti gli host equivale 
ad avere solo un host. In secondo luogo lo eviterei per evitare, nel 
momento in cui riavvii gluster e nel caso in cui il primo brick sia 
desincronizzato rispetto al secondo, che si generino dei problemi nel 
mantenere i brick sincronizzati magari prende il brick meno aggiornato 
come master e rischi di perdere qualcosa.



Prima di fare tutto, oltre al solito backup dei dati, magari fa qualche 
prova su macchine virtuali onde evitare disastri.



Magari qualche utente con più esperienza potrà fornirti maggiori 
indicazioni.


Un saluto.



Re: PARATIA LATERALE CASE...INFO

2018-07-29 Per discussione Alessandro Baggi

Il 29/07/2018 15:09, developermailist@Vincenzo Gianfelice ha scritto:

Il 29 Luglio 2018 15:00:24 CEST, Luca Costantino  ha 
scritto:

I distanziali che reggono la schea madre di dovrebbero trovare anche
più
corti...

Sono gia corti abbastanza... infatti gia con l attacco del dissippatore nel 
retro della mobo tocca sulla parte metallica del case... e ci va giusto giusto. 
Ci avevo gia pensato a queta cosa



Purtroppo di pannelli pronti non credo ci siano. Se conosci qualcuno con 
una stampante 3D potresti provare a vedere se è fattibile.


Oppure puoi modificare il pannello che hai, per esempio lo fai diventare 
con finestra e il pannello in plexi o altra plastica lo installi 
rialzato. Devi sempre trovare qualcuno che taglia il metallo.


Su che cpu l'hai montato e che tipo di operazioni svolge? È 
overcloccato? Magari basta anche un dissipatore meno performante e 
quindi con dimensioni più ridotte. Il Cryorig R1 Ultimate è bello grosso 
come il Noctua NH-D15.


Un saluto.



Re: PARATIA LATERALE CASE...INFO

2018-07-29 Per discussione Alessandro Baggi
Il Dom 29 Lug 2018, 13:15 developermailist@Vincenzo Gianfelice <
developer.vincenzomail...@gmail.com> ha scritto:

> Salve ragazzi...so che non é il posto adatto ma sto da piu di un mese cosi
> e non so piu a chi altro chiedere. Nel mio paese e dintorni purtroppo gia
> ho visto ma niente... ho chiesto anche ad alcuni su internet dato che
> vedevo qualche loro video su youtube che lo avevano gia fatto, ma non ho
> ricevuto risposta. Il mio problema é che avendo comprato il dissippatore
> della cryorig r1 e montato in un case della cooler master n200, sporge
> esattamente di 2-3 millimetri impedendomi appunto di chiudere la paratia
> laterale correttamente. E per questo motivo stavo cercando qualcuno che
> magari costruisce ( per professione o passione) dei case su misura. Se
> qualcuno e disponibile(e dopo manderó le foto e dettagli) che si faccia
> avanti.
>
> Grazie
> --
> Inviato dal mio dispositivo con K-9 Mail. Perdonate non la brevità, ma la
> prolissitá 樂.
>
> Se solo potreste vedere il mondo come lo vedo io



Ciao Vincenzo,
su che cpu l'hai installato? Magari, se sei ancora in tempo puoi recedere
dall'acquisto e prenderne uno che entri nell' n200.


Re: Scheduler

2018-01-02 Per discussione Alessandro Baggi

Il 23/12/2017 08:40, valerio ha scritto:

Il 23/12/2017 08:11, leo ha scritto:

[...]


impostare per i processi la politica FIFO.


??

ciao,
in elettronica si riferisce alla memoria: lifo o fifo. ultimo ad entrare 
  primo ad uscire, o primo ad entrare e primo ad uscire.

o hai due porte o hai una porta sola...

altro non saprei.

valerio


Ciao ciao leo






In programmazione fanno riferimento a strutture come le code (FIFO) e 
stack (LIFO).





Re: [OT - FLAME END - riguardo il codice di condotta su questa ML] era [Live chat su cms]

2016-12-04 Per discussione Alessandro Baggi

Il 03/12/2016 20:12, Mario ha scritto:


Perdonate se mi permetto di inserirmi in questo thread che ho letto con
una certa amarezza.
Per quello che può valere, concordo con Dario in tutto, nella forma e
nella sostanza.

Alessandro sembra continuare a non (voler) capire le regole basi di
questa ML. Il danno lo fa soprattutto a sé.
Ancora non risponde quotando come richiesto e ribatte come se non fosse
abbastanza chiaro quanto da lui scritto.
E vuole avere l'ultima parola.
Scommetto che non resiste a rispondere... una birretta? ;)

Spero che il tempo speso da Dario a rispolverare la filosofia e lo scopo
di questa ML serva - ormai forse non in questo caso - almeno per i
prossimi...
Grazie, Dario, per l'impegno e l'onestà.

Ovviamente il tutto IMHO. :)

buona vita a tutti!
Mario




Ciao Mario,
se permetti, quando vengo preso in causa rispondo, poi vedila come 
preferisci, ovviamente stai parlando per partito preso e le tue 
conclusioni non sembrano molto oggettive. Il tuo è solo un commento di 
repressione e non fai altro che favorire il comportamento che non 
vorremmo ci sia in lista.
Fare una guerra punica per il quoting...può dare fastidio...ma.è una 
ml e si parla di quoting (qui nessuno ha offeso nessuno). Se non hai 
altro da pensare che al quoting forse la birretta (qualche litro) 
servirebbe a te.
Ho gia "chiarito" con Dario in privato e non c'è modo che questa 
discussione vada avanti (salvo che altri vogliano dire la loro).
Poi se lo stato della ML è arrivato su un livello persecutorio e 
oppressivo per cosi poco...(se questo errore è da considerare tanto, non 
oso immaginare il peggio)...


Mi fa pensare al "Pannocchia" e agli amici del 39.

Sono in lista dal 2009, non mi sono mai permesso e mai mi verrebbe in 
mente di fare spam e di creare problemi alla community. Quindi basta 
dire cagate, lo spam non era voluto.


Tendo ad avere l'ultima parola in questo caso, in quanto la problematica 
è uscita da:


1. una mia richiesta
2. una risposta non apprezzata (non dal punto di vista tecnico)

Se permetti (sempre se permetti) cerco solo di chiarire e bloccare 
questo pippone.


Se per te, poi, non va bene




Re: [OT - FLAME END - riguardo il codice di condotta su questa ML] era [Live chat su cms]

2016-12-03 Per discussione Alessandro Baggi

Caro Dario,
premetto che non ho niente contro di te e non sono qui a criticare le 
tue capacità tecniche (cosa che nessuno dovrebbe fare per questioni di 
umiltà e rispetto) pero permettimi di mostrare il mio disappunto.
Se inizi a parlare di un utente in terza persona mentre gli rispondi, a 
paragonare un utente ad uno "scimpanzè", che in qualche modo va a 
degradare quel relativo utente (forse anche denigrare), è da considerare 
come un'offesa (ricevere un'offesa non consinste solo ricevere parole 
come "brutto figlio di". Se detto con parole consone "figlio di madre 
ignota" credo che abbia lo stesso significato, quindi per offesa ci si 
riferisce non solo al linguaggio usato ma al significato che vuoi 
attribuire a quelle parole, a quello che l'altra parte percepisce e 
sopratutto se è fatto di proposito).


In seconda battuta, se rispondi aprendo un flame, non ha più senso 
rispondere a domande su specifiche e varie perche il flame trascende lo 
scopo della ML, e quindi non ha più senso, forse non sono io a non 
capire, il discorso si è spostato su un altro livello e da due mail, sto 
dimostrando il mio disappunto sul tuo comportamento.


Inoltre, non capisco perchè continui a parlare di SPAM come se volessi 
pubblicizzare un prodotto o chissà quale scopo avessi (lo stai 
ingigantendo un pò), poi se vuoi rimanere fisso su questa cosa


Sembra anche un pò esagerato dire che si reca offesa ai membri di 
debian-italian per non aver rispettato il regolamento della ML. In 
realtà con quello che ho scritto (anche se con formula errata) non mi 
sembra di aver offeso o in qualche modo degradato lo stato degli altri 
utenti e soprattutto il tuo. Forse è più corretto dire "non sei stato 
corretto rispetto agli altri utenti nell'osservare le canoniche regole 
di condotta della ml. Mettiti in linea con gli altri", ma non è quello 
che è successo.


Concordo in pieno per la non tolleranza allo SPAM e sul rispetto delle 
regole della ML, e su questo sono stato abbastanza chiaro e lo 
ribadisco: nessuno vuole recare danno alla community, a debian, all'open 
source, al propositivo Max e a tutto il resto. Il non tollerarlo però 
non giustifica l'utilizzo di questo genere di "comportamenti". Non mi 
interessa che in molte altre liste accade di peggio, non dovrebbero 
proprio accadere questo tipo di discussioni (intendo il tuo tipo di 
flame). Bastava non essere offensivi e scrivere in altro modo e in un 
certo qual senso, è stato il tuo flame a "sporcare" la lista, in effetti 
senza il tuo flame non ci saremmo dilungati in questa "epopea".


Inoltre, non è il caso di dire ad un membro della lista "se non ti 
stanno bene utenti come me, sei libero di rivolgerti altrove", perche si 
non ho rispettato il regolamento e accetto la critica, ma puo essere 
anche che il modo di fare che hai assunto in questa discussione (nella 
parte iniziale) non sia consono ed educato. In fondo, potrebbe essere il 
modo in cui ti relazioni a essere sbagliato oppure potrebbero essere gli 
altri utenti che non tollerano facilmente questo tipo di comportamenti. 
A questo punto, dato che la ml non è moderata, bisogna adattarsi sia da 
una parte che dall'altra, come io dovrò rispettare le linee guida della 
ml te dovrai imparare a relazionarti in maniera meno offensiva su questo 
tipo di eventi, perche altrimenti, e dico forse, dovresti essere te a 
rivolgerti altrove.


Inoltre se ad ogni utente che arriva o che in qualche modo fa qualcosa 
che non dovrebbe fare, inizio ad attribuirgli appellativi o parole poco 
educate (non il tuo caso), tutti i buoni propositi delle regole e il 
resto sono aria fritta.


Io apprezzo i tuoi consigli, ma permettimi di dartene uno: invece di 
violare ulteriormente il regolamento aprendo un flame, cerca di dare  il 
buono esempio su come rispettarlo (ed è ben diverso quello che hai fatto).


Comunque, concordo con te nel chiudere questa discussione e spero 
finisca qui. Ora stiamo veramente sporcando la ml con argomenti poco 
pertinenti.


Per quanto riguarda la problematica riporta all'inizio, mi farò vivo al 
momento giusto con le modalità corrette.



Il 03/12/2016 14:03, Dario ha scritto:

Il 03/12/2016 09:31, Alessandro Baggi ha scritto:


Spero che questo episodio, possa far anche riflettere (oltre a me per lo
spam) anche ad altri per le modalità che alcuni usano sentendosi chissa
chi o cosa.


Alessandro per quanto mi riguarda la chiudo qui, inutile parlare con
un muro di gomma (aggiungilo alle "offese" come le chiami te).

Questo thread è "PATTUMIERA-SPAM".

Per non so quante volte ti ho invitato a riportare le tue
reali esigenze, a cui non hai mai risposto.
Ti ho anche chiesto se hai valutato alternative opensource,
e non hai risposto.
E per l'ennesima, ti invito a leggere [1].


Alessandro> Vi siete scagliati


Puoi aspettarti anche di peggio. Il tuo non è "un semplice errore".
Prova

[OT] Re: Live chat su cms [Risposta inerente a Live chat + OT riguardo il codice di condotta su questa ML]

2016-12-03 Per discussione Alessandro Baggi

Buongiorno Dario,

ripeto, avrò espresso male il concetto e ok, avrò fatto "spam" senza 
volerlo e ok, ma non giustifica la tua "rappresaglia" e la modalità in 
cui hai affrontato in seguito la discussione, offendendo deliberatamente 
(non mi sembra coerente offendere deliberatamente e poi chiedere scusa).
Nella tua prima risposta, credevo che ne sarebbe uscito qualcosa di 
produttivo per il mio caso, considerato anche il valore delle risposte 
che si ottengono su questa ML (un valore aggiunto).
Non cercare di gistuficare la tua seconda risposta, che definirei quasi 
"persecutoria" e offensiva, con un era "doveroso". Era doveroso 
rispondere (per difendere il software libero e forse anche debian se hai 
percepito dei pericoli) ma con toni che sempre ho letto su 
debian-italian e non il tuo (relativo alla tua risposta), semplicemente 
senza scrivere tutta quel poema, e offendere in primo luogo (senza 
rispettare le regole della ML) e semplicemente scrivere:


"Questa lista è dedicata a debian:

1) Leggi il regolamento;
2) Non parliamo di prodotti proprietari come nel tuo caso.
3) Se vuoi un aiuto, spiegati meglio e dacci più specifiche."

Hai preferito lo scontro. Credo anche che il tono di risposta che hai 
usato sia stato scatenato da "SLACKWARE" e da il nome di un prodotto (SPAM).


Ripeto troppo esagerato. Io posso esprimere un parere, anche sbagliato 
per chi legge, questo non ti da il diritto di scrivere cosi. Se non 
vieni offeso non offendere, non mi conosci e se non hai elementi chiari 
non fare azzardi.


Dal momento in cui hai iniziato la seconda mail, il topic (gia scarico 
di contenuti) ha perso del tutto il suo interesse privando tutta la ml 
del valore aggiunto che una tua risposta senza flame poteva dare.


In questo momento, non mi intereressa della live chat, dell'off topic o 
di qualsiasi altra cosa tecnica.


Rimango basito del fatto di queste reazioni su questa ml per aver 
riportato semplicemente il prodotto che stavo provando e non scelto (non 
per niente ho scritto "ora è tutto in stallo" e nessuno ha detto che ho 
escluso quanto riportato da Max)


Il 03/12/2016 02:51, Marco Bodrato ha scritto:
> Scuse accettate, dando per scontato che implichino il classico "non lo
> farò più".

Forse mi sembra un pò troppo impositivo.

Vi siete scagliati su di me, perche ho fatto spam (figurati che spam), 
spiattelando la motivazione che la gente spende del tempo sulla ml, 
ripeto se il topic è offtopic, e ritenete che è tempo perso o di non 
voler rispondere, non fatelo, cancellatela, lasciatela li morta. Non 
serve agire come ha fatto Dario.


Avete "condannato" un utente per questa CAZZATA, ma non si fa cenno ai 
flame e alle offese semplicemente per...? Bo, non so per cosa, spero che 
oltre al mio "NON LO FARO PIÙ", si prenda anche in considerazione le 
errate modalità che A VOLTE si intraprendono per rispondere in questa 
lista (perche realmente non ho offeso Dario) e che questo modo di fare 
non diventi parte dello spirito della ML.


Per come la vedo io, tecnicamente o non, quando rispondi in quella 
maniera, tutto quello che scrivi non ha più valore.


Spero che questo episodio, possa far anche riflettere (oltre a me per lo 
spam) anche ad altri per le modalità che alcuni usano sentendosi chissa 
chi o cosa.




Il 03/12/2016 00:27, Dario ha scritto:

Il 02/12/2016 14:31, Alessandro Baggi ha scritto:

Io credo che sei andato troppo oltre (sprecando risorse :D)
Chiedevo solo un consiglio, come molti altri in ML e a volte anche con
link riportati.

Concordo pienamente sul fatto dello OT, SPAM (non era mia intenzione) e
della regole di condotta in ML e chiedo scusa per il "disagio".


Alessandro era facilmente prevedibile il contenuto di una tua replica.

"L'andare oltre", usando le tue parole, era doveroso.
Chi si identifica come proveniente da ambiente "Slackware"
a onor di logica dovrebbe sposare quanto meno il software
libero.

La tua "era" una semplice richiesta fino a quando non hai
replicato insinuando che la "migliore soluzione", quella
più "papabile/spendibile" era una a pagamento e proprietaria,
etichettando un'alternativa di software libero che ti hanno
proposto come improponibile e troppo costosa.

Se non te ne sei accorto, indirettamente hai messo sotto
esame una soluzione software libero come "improponibile".
Ora capisci l'animosità nel risponderti? Spero di si.

Non hai dato né le tue reali esigenze, né tempo materiale
agli iscritti in lista per proporti alternative opensource,
o esprimersi al riguardo.
Hai bloccato qualsiasi proseguo affermando che "tutto è fermo"
più in là si vedrà, dopo quante ore dal tuo primo messaggio?

Vabè lasciamo perdere. Il fatto che hai capito, di per se,
mi soddisfa per il tempo che ho speso a farti capire.

Rammenta che questa ML ha lettura da persone che lavor

Re: Live chat su cms [Risposta inerente a Live chat + OT riguardo il codice di condotta su questa ML]

2016-12-02 Per discussione Alessandro Baggi

Io credo che sei andato troppo oltre (sprecando risorse :D)
Chiedevo solo un consiglio, come molti altri in ML e a volte anche con 
link riportati.


Concordo pienamente sul fatto dello OT, SPAM (non era mia intenzione) e 
della regole di condotta in ML e chiedo scusa per il "disagio".


Hai detto che stai perdendo tempo e che non ha utilità. Perche l'hai 
fatto? Hai perso veramente del tempo e non ha nessuna utilità (oltre 
alla parte finale). Quindi mi chiedo: perche?


Se per spam consideri riportare il nome di un prodotto, che ho riportato 
per far capire quale è...dai...se scrivi ms fai spam, se scrivi rh fai 
spam, se scrivi ogni parola di un prodotto fai spam...è esagerato. 
Considerei più spam se avessi piantato i link dei due prodotti e non 
solo il nome. Se scrivessi "sto usando un software per una live chat che 
si appoggia su un servizio esterno, avete esperienze in merito? lo 
conoscete gia quello che sto provando?" Mi dici che come faccio ad avere 
un riscontro senza specificare info sul prodotto? Poi vabbe, se hai 
necessità di sfogarti, fatti una corsa.


Vedo che rispondi anche con molto accanimento, offensivo e anche (da un 
certo punto di vista) sbruffone. Scrivi, scrivi per far vedere cosa? 
Scrivere una email cosi lunga solo per smerdare qualcuno è tutto tempo 
sprecato, piuttosto da dei consigli senza fare un processo..credo che 
hai altro di meglio da fare.


> Con questo che voglio dire? Che sono più bravo? Assolutamente no.

Io credo che la tua risposta (per intero), risponda in pieno a quello 
che hai scritto sopra.


Può darsi che abbia riportato informazioni parziali sulla mia necessità, 
ricorda ho chiesto solo un consiglio (può succedere di non riportare 
tutto). Chi avesse voluto aiutare veramente, lo avrebbe potuto chiedere.


Altro fatto importante. Che senso ha fare quello che hai fatto, quando 
realmente potevi ignorare/cancellare il messaggio e chiedere agli admin, 
dato che non ho rispettato il regolamento, di cancellarmi direttamente? 
O meglio perche non hai dato consigli per aiutarmi a gestire questa cosa 
invece di accanirti per una cappelata? Ps ricordati che è una ML.


Ho visto che fai riferimento sempre alla pubblicità. Ho avuto veramente 
esperienza di manager che per evitare di gestire alcune cose sono andati 
in outsourcing.


Poi ti permetti di commentare discorsi sulla banda, hardware ecc..senza 
sapere niente della situazione. Se non hai riferimenti per sparlare, 
chiedili e non inventarli. Parlavo di portare tutto in casa e non solo 
il servizio di chat live.


Io non so cos'altro dirti, hai parlato tanto, hai perso tempo che non 
volevi perdere (ragionamento a prova di scimpanzè), hai offeso e hai 
fatto la tua figura. Spero che almeno questo ti abbia dato soddisfazione.


Ah, ps il compilare il monitor era una battuta, e non si riferiva a 
compilare il firmware. Se avessi avuto intenzione di dire una cosa del 
genere non avrei detto solo monitor. Dato che un monitor (fisico) non 
può essere compilato (o tu l'hai fatto?), e data l'insensatezza della 
cosa, credevo che potessi anche intendere (data l'esperienza passata con 
slackware) che sono abituato a dover fare le cose da me. Ripeto ho 
chiesto solo consiglio in lista e le esperienze degli altri.


Credo che questo polverone alzato da Dario, possa essere messo a tacere 
(almeno da parte mia) e continuare con l'affrontare il "topic" con scopi 
costruttivi.




Il 02/12/2016 01:23, Dario ha scritto:

Il 30/11/2016 11:45, Alessandro Baggi ha scritto:

Ciao Dario,
la problematica sono i costi.


Prima di risponderti con questa corposa email, mi sono posto
la domanda: Ma cosa mi importa? E di che utilità potrà essere in
lista la mia replica? Risposta: nessuna.
E allora che rispondo a fare? Me lo sto ancora chiedendo mentre premo
"invia".

Ci dimentichiamo spesso, mi includo per non fare parzialità,
che il tempo altrui ha valore. Scrivere in una ML comporta
non solo dispendio di risorse, sopratutto di tempo altrui.

Onde evitare di consumare vista e tempo altrui, invito chi
ha interesse strettamente limitato all'oggetto di questo thread,
ad accomodarsi direttamente in fondo, nella sezione *LINK*,
saltando a pièpari tutto il resto. "Uomo/Donna avvisato/a .."

--- INIZIO OT ---

La ML Debian dedicata agli utenti italiani ha delle finalità
https://www.debian.org/MailingLists/index.it.html:
" Si è tutti incoraggiati ad aiutare lo sviluppo
 di Debian e a diffondere la parola del software libero. "

Nella sezione "Codice di condotta" si elencano diverse voci,
tra le quali:

 * Le liste di messaggi esistono per favorire
   lo sviluppo e l'uso di Debian. L'invio di
   messaggi fuori tema o non costruttivi, così
   come qualsiasi altro tipo di abuso non sono
   i benvenuti.
 * Non inviare spam; ...
 * Ci si assicuri di utilizzare la lista corretta.
 * Non inviare mai i messaggi in HTML;
   si usi testo semplice piuttosto.
 * Quando si rispo

Re: Live chat su cms

2016-11-30 Per discussione Alessandro Baggi

Il 29/11/2016 16:04, Dario ha scritto:

Il 28/11/2016 17:07, Alessandro Baggi ha scritto:

Ora zopin offre il servizio in varie modalità...supponendo di scegliere
quello a 14 $ al mese (168 annui), perche un utente dovrebbe andare a
comprare metallo o affitare risorse su un cloud, prendere un dedicato
quando gia solo per ottenere le risorse hardware spendi molto di più?
Poi mettici altri costi come il tecnico, la licenza (se presente), se
hai hardware tuo devi calcolare i danneggiamenti dei componenti,
l'energia consumata, la banda, se vai in housing ti ammazzano, se
prendi un dedicato costa sempre di più rispetto al piano scelto...

Da un punto di vista economico ho le mani legate


Alessandro penso tu abbia già fatto una stima di costi
per le "risorse hardware" che ti servirebbero giusto?
A quanto ammontano le spese che hai preventivato?
E a quanto ammontano le risorse richieste in termini
di CPU-HDD-RAM-Banda?

Prendendo il tuo esempio, 168 dollari annui, sicuro che
non ci sono alternative migliori?

Ti pongo queste domande perché molte volte si ha la tendenza
a dare per scontato determinati assunti senza nemmeno essersi
accertati realmente dei costi.

Poi magari hai ragione te, ma avere delle stime può tornare utile
magari ad altri che leggeranno in lista, visto che in teoria
dovremmo parlare per lo meno di un mondo che ruota intorno a Debian,
dove un utente medio di Debian cerca di "fare da se" ed essere più
"smart" piuttosto che cercare servizi "già pronti".


Il 28/11/2016 15:31, maxlinux duemila ha scritto:

cmq vedi tu... ma se vuoi pagare qualcuno, allora ti faccio la stessa
offerta e ti monto una live chat allo stesso prezzo  :D :D


Max si è offerto di fornirti lui la stessa identica soluzione
agli stessi costi. Perché pagare azienda estera in dollari, quando
puoi pagare in euro stesso servizio, favorendo imprenditore italiano?

:-D




Ciao Dario,
la problematica sono i costi.

Se passiamo il servizio in sede...solo per la banda superiamo di molto i 
168$ annui. Ovviamente passeremo tutto il parco in casa ma aumentano 
anche i costi per l'hw (impensabile per lo stato attuale).


Se pensiamo a un dedicato, superiamo di molto i 168 annui.
Se pensiamo ad un vps decente (da 10 al  mese su netsons o 13 su aruba, 
relativamente 120 o 156 annui) siamo quasi allo stesso prezzo e 
aumentano i costi di gestione per il personale (tecnico e operatore).


Se pensiamo al servizio di zopin, sono 168 annui e l'operatore. Dal 
punto di vista di un manager (non informatico) è la soluzione più 
semplice da gestire. Paghi -> usi e non la deve gestire dal punto di 
vista informatico (cosa che occupa risorse umane, quindi tempo, quindi 
soldi).


Non credo serva un prospetto (quasi si vede ad occhio).

Sai quante volte ho proposto in un ambiente molto più grande (con molti 
fondi a disposizione) da dipendente, soluzioni interne con costi 
relativamente bassi usando debian con tanto di progetti, stime e costi 
(solo il costo del dipendente che lavora...in termini di tempo) e mi è 
stato detto di no perche preferivano gestirlo da fuori per non avere la 
rogna di doverlo gestire? Mi ci sono battuto ma alla fine puoi dirgli 
quello che vuoi e non cambia nulla. So che è un discorso del piffero ma 
purtroppo a volte è cosi.


Il discorso è semplice, non comando io.

> visto che in teoria
> dovremmo parlare per lo meno di un mondo che ruota intorno a Debian,
> dove un utente medio di Debian cerca di "fare da se" ed essere più
> "smart" piuttosto che cercare servizi "già pronti".

Io vengo da ambiente Slackware e se fosse per me compilerei anche il 
monitor se possibile. Purtroppo non sempre si è liberi di fare quello 
che si deve (anche se è la cosa giusta).


Cmq per il momento è tutto fermo in quanto ci sono altre priorità, poi 
si vedrà come evolverà la situazione.


Alessandro.



Re: Live chat su cms

2016-11-28 Per discussione Alessandro Baggi

Il 28/11/2016 15:31, maxlinux duemila ha scritto:

il belo di rocket.chat è che puoi farti un server tuo, creare una app
android, collegarla al tuo server, e quando un cliente si collega alla
live chat, ti arriva un messaggio push al cellulare e tu puoi
rispondere da li.

Cosí non devi stare per forza davandto al computer e puoi andare a
"lavorare" nel bar mentre ti prendi una birra :)

Inoltre R.C. lo puoi usare come una chat interna per l'impresa.

cmq vedi tu... ma se vuoi pagare qualcuno, allora ti faccio la stessa
offerta e ti monto una live chat allo stesso prezzo  :D :D

ciao
MaX


On 28/11/2016, Alessandro Baggi <alessandro.ba...@gmail.com> wrote:

Grazie Max.

A chi può interessare, ho trovato un altro fornitore il cui prodotto si
chiama zendesk chat (zopin) che è fatto veramente bene e i costi non
sono alti.






hehe Max,
non me ne volere ma l problema è che ci servirebbe una macchina nuova 
per questa cosa in quanto il server attuale è intoccabile. Il costo di 
una qualsiasi altra soluzione (discreta) in casa, costerebbe più del 
canone annuale per il servizio e se il gioco non vale la candela è 
difficile far uscire i mezzi per procedere.


Non mi va nemmeno di far spendere bei soldi per un qualcosa di cui si 
dovrà verificare la reale efficacia (parlo dell'e-commerce), quindi per 
il momento:


1) la live chat è in stallo;
2) se dovesse essere, l'investimento per quel tipo di servizio è ridotto 
dato il suo costo. In caso di "malasorte" la perdita sarabbe esigua.
3) Se tutto funzionerà come deve, allora potremmo pensare di usare altri 
tipi di strumenti.


Purtroppo con tutti questi servizi (cloud e amici), se non parliamo di 
cose grosse, la gente passa direttamente per quei servizi senza dover 
affittare risorse o acquistarle, o acquistare software che garantiscono 
un qualcosa ecc...


Ora zopin offre il servizio in varie modalità...supponendo di scegliere 
quello a 14 $ al mese (168 annui), perche un utente dovrebbe andare a 
comprare metallo o affitare risorse su un cloud, prendere un dedicato 
quando gia solo per ottenere le risorse hardware spendi molto di più? 
Poi mettici altri costi come il tecnico, la licenza (se presente), se 
hai hardware tuo devi calcolare i danneggiamenti dei componenti, 
l'energia consumata, la banda, se vai in housing ti ammazzano, se 
prendi un dedicato costa sempre di più rispetto al piano scelto...


Da un punto di vista economico ho le mani legate




Re: Live chat su cms

2016-11-28 Per discussione Alessandro Baggi

Grazie Max.

A chi può interessare, ho trovato un altro fornitore il cui prodotto si 
chiama zendesk chat (zopin) che è fatto veramente bene e i costi non 
sono alti.


Lo sto provando e non è male.


Il 28/11/2016 12:43, maxlinux duemila ha scritto:

Rocket.chat fa al tuo caso

Ciao,
MaX


El 28 nov. 2016 12:34 p. m., "Alessandro Baggi"
<alessandro.ba...@gmail.com <mailto:alessandro.ba...@gmail.com>> escribió:

Buongiorno ragazzi,
mi servirebbe inserire su un sito di e-commerce una chat live per i
clienti.

Al momento sto provando il servizio di "provide support". Funziona
bene, è personalizzabile. Qualcuno lo conosce e ha avuto esperienze?

Un problema che ho riscontrato è che, dato che il portale supporta
multilingue, il servizio che sto provando non integra la gestione di
multiple lingue, ma permette di tradurre tutte le label nella lingua
desiderata. Quindi servirebbe anche la possibilità di gestire le
multilingue.

Avete altri suggerimenti sia per soluzioni di servizi esterni, sia
da integrare direttamente sul server?

Grazie in anticipo.

Alessandro.






Live chat su cms

2016-11-28 Per discussione Alessandro Baggi

Buongiorno ragazzi,
mi servirebbe inserire su un sito di e-commerce una chat live per i clienti.

Al momento sto provando il servizio di "provide support". Funziona bene, 
è personalizzabile. Qualcuno lo conosce e ha avuto esperienze?


Un problema che ho riscontrato è che, dato che il portale supporta 
multilingue, il servizio che sto provando non integra la gestione di 
multiple lingue, ma permette di tradurre tutte le label nella lingua 
desiderata. Quindi servirebbe anche la possibilità di gestire le 
multilingue.


Avete altri suggerimenti sia per soluzioni di servizi esterni, sia da 
integrare direttamente sul server?


Grazie in anticipo.

Alessandro.



Re: SSL e CSR

2016-11-18 Per discussione Alessandro Baggi

Il 18/11/2016 17:12, Luca De Andreis ha scritto:

Il 18 novembre 2016 17:07:46 CET, Alessandro Baggi <alessandro.ba...@gmail.com> 
ha scritto:

Salve ragazzi,
sono in contatto con una società per ottenere dei certificati SSL per
apache.



Mi è stato richiesto di inviare (testo) oltre alla documentazione
richiesta la "chiave CSR( in formato txt)".

Ho già creato diverse volte dei certificati self-signed / signed ma
durante queste procedure ho sempre visto il formato pem e "in formato
txt" mi ha rincoglionito.

Ora io non capisco cosa intende con "in formato txt".

Quando genero la csr con:

 openssl req -new -key server.key -out server.csr

genera il file server.csr con al suo interno le informazioni hash/pem
del csr.

Chiedo informazioni riguardo al "formato txt" e mi risponde, che devo
"esportare il csr su un file di testo con chiave di nbit".

Di solito, durante la creazione di altri certificati per scopi di test,

io prendo la csr cosi come generata e genero il certificato usando il
certificato della CA e la chiave della CA.

Ora, con "in formato txt" intende un semplice file tipo server.csr con
dentro la csr in formato pem oppure vuole un file tipo server_csr.txt
oppure vuole l'output di " openssl req -text -noout -in server.csr" (ha

senso? bha)? Oppure intende un file non compresso? Oppure cosa?

Cmq sono andato sul sito della società dove spiegano la loro procedura
con la relativa documentazione riguardo la creazione della csr
ma...ripeto: non capisco che vuole.

Bho, sarò diventato rincoglionito ma non capisco cosa vuole.
Non basta inviare direttamente il server.csr?

Che ne pensate?


Secondo me non devi preoccuparti di nulla.
Generi la tua chiave privata a 2048 bit, quindi generi da questa il csr.

Semplicemente vorranno dire che è un file di testo (vabbè).

Quanto hai scritto è corretto.

Ciao
Luca



Ciao Luca,
grazie per la risposta.

Ragionamento del venerdi sera: secondo wikipedia un file di testo 
contiene "testo immediatamente comprensibile a un essere 
umano"quindi un csr non dovrebbe essere considerato un file di testo 
perche non si capisce in prima battuta cosa contiene (oltre a lettere e 
numeri (ps quelle lettere e numeri hanno ,singolarmente e in serie, un 
significato)).



Se per file di testo significa avere file i cui valori sono tradotti a 
schermo in simboli, numeri e caratteri, dove ognuno dei quali ha un 
significato, allora sono tutti file di testo.


Il 90% dei file li apro con vim, quindi sono tutti file di testo, anzi 
il file di testo non esiste affatto, è solo un formato per il maledetto 
notepad.



Buon fine settimana a tutti.



SSL e CSR

2016-11-18 Per discussione Alessandro Baggi

Salve ragazzi,
sono in contatto con una società per ottenere dei certificati SSL per 
apache.




Mi è stato richiesto di inviare (testo) oltre alla documentazione 
richiesta la "chiave CSR( in formato txt)".


Ho già creato diverse volte dei certificati self-signed / signed ma 
durante queste procedure ho sempre visto il formato pem e "in formato 
txt" mi ha rincoglionito.


Ora io non capisco cosa intende con "in formato txt".

Quando genero la csr con:

 openssl req -new -key server.key -out server.csr

genera il file server.csr con al suo interno le informazioni hash/pem 
del csr.


Chiedo informazioni riguardo al "formato txt" e mi risponde, che devo 
"esportare il csr su un file di testo con chiave di nbit".


Di solito, durante la creazione di altri certificati per scopi di test, 
io prendo la csr cosi come generata e genero il certificato usando il 
certificato della CA e la chiave della CA.


Ora, con "in formato txt" intende un semplice file tipo server.csr con 
dentro la csr in formato pem oppure vuole un file tipo server_csr.txt 
oppure vuole l'output di " openssl req -text -noout -in server.csr" (ha 
senso? bha)? Oppure intende un file non compresso? Oppure cosa?


Cmq sono andato sul sito della società dove spiegano la loro procedura 
con la relativa documentazione riguardo la creazione della csr 
ma...ripeto: non capisco che vuole.


Bho, sarò diventato rincoglionito ma non capisco cosa vuole.
Non basta inviare direttamente il server.csr?

Che ne pensate?



Re: RAID10 software

2016-11-16 Per discussione Alessandro Baggi

Il 16/11/2016 16:27, Luca De Andreis ha scritto:

Il 16 novembre 2016 16:14:26 CET, Mario Vittorio Guenzi
 ha scritto:



Il 16/11/2016 16:06, Piviul ha scritto:

stefano gozzi ha scritto il 16/11/2016 alle 15:56:

RAID10 con due dischi è tecnicamente impossibile. Con due
dischi puoi
solo RAID0 (striping, solo uso desktop ovviamente) o RAID1
(mirroring).

beh se leggi l'articolo che ho postato consiglia, per questioni di
performance, il RAID 10 facendo 2 partizioni



ma scusa un po
se un disco va a $escort secondo te lo fa per partizioni?




No, ma se le due partizioni sono l'equivalente del disco 1 della coppia
1 e 2 e le due partizioni sul secondo disco l'equivalente del disco 2
della coppia 1 e 2, va bene lo stesso.
Lo trovo eccessivo, mentalmente frustrante Fai un raid 1!

Ciao
Luca


e se vuoi prestazioni usa ssd sata o m.2.



Re: RAID10 software

2016-11-16 Per discussione Alessandro Baggi

Il 16/11/2016 16:09, Mario Vittorio Guenzi ha scritto:



Il 16/11/2016 15:51, Piviul ha scritto:

Luca De Andreis ha scritto il 16/11/2016 alle 15:27:

No, uso RAID10 hardware, ma il succo non cambia.

Con 2 dischi fai solo RAID1.

Se hai 4,6,8,10,12.. dischi puoi fare RAID10.

veramente qui[¹] mi sembra di capire che affermi che conviene sempre
RAID10 (con qualch epiccolo accorgimento), anche con 2 dischi...

Piviul

[¹]
https://blog.a2o.si/2014/09/07/linux-software-raid-why-you-should-always-use-raid-10-instead-of-raid-1/


Qualcosa non mi torna o forse non ho capito bene leggendo.
raid 10 e' in soldoni un raid 0 di n raid 1 o se preferiamo e' uno
stripping di mirroring.
quindi se non sbaglio a contare il minimo possibile sara' 4 dischi in 2
volumi raid 1 e quindi un unico volume che comprende i 2 volumi precedenti.
Quindi o io non capito un piffero (possibile) o questo signore mi deve
spiegare come fa con 2 dischi a fare un raid 10



È un raid software che richiede almeno una partizione per ogni disco che 
utilizzi. Se crei più partizioni puoi farlo.


in poche parole:

sda -> sda1 e sda2
sdb -> sdb1 e sdb2

quindi il mirror avviene tra sda1 e sdb1 e tra sda2 e sdb2 e su questi 
due mirror crea lo stripe.


Come dici te, ne servono 4 per garantire una giusta ridondanza e 
prestazioni ma nel caso citato un raid10 con 2 dischi è possibile 
l'importante è non avere i device del mirror sullo stesso disco.


Il problema è che fare un RAID10 su due dischi per ottenere prestazioni 
più elevate ormai è quasi inutile (senza considerare la vera utilità del 
RAID), ci sono unità ssd molto performanti.


Un saluto.



Re: RAID in pericolo...

2016-11-16 Per discussione Alessandro Baggi

Il 15/11/2016 23:48, Gollum1 ha scritto:

Il 15 novembre 2016 23:12, Vincenzo Villa  ha scritto:

Il giorno mar, 15/11/2016 alle 21.33 +0100, Gollum1 ha scritto:


Ho un grosso problema, più di due anni fa, avevo realizzato una
macchina con un disco di sistema e 4 dischi da 2 TB in raid 5.
ho errori sull'intera struttura RAID, più di un disco presentano
problemi


Mi insospettisce il fatto che più di un disco ha problemi, e (mi sembra
di capire) il tutto si è manifestato contemporaneamente.

Non potrebbe essere altro ad avere problemi? Nello specifico
l'alimentatore.

Prima di fare lunghi esperimenti che mettono a rischio i dati e
stressano i dischi, proverei a cambiare l'alimentatore, soprattutto se
non di tipo server-grade o più vecchio di due anni.

[ovviamente la cosa deriva da una mia esperienza recente sul mio
serverino casalingo 3 x 1.5TB, debian stable: problemi di I/O + continue
segnalazioni smart su tutti i dischi. Cambiare alimentatore e risolvere
tutto è stata una sola cosa. Ora i dischi vanno che è una favola, da due
mesi...]


A questo non avevo pensato. Domani ci provo... grazie per
l'informazione, speriamo che sia effettivamente questo...

almeno mi salvo i dati.. .:D

Tnx



Ciao Gollum1,
non hai un backup efficaci del dataset? Effettui dei backup?

Alessandro,



Re: Problemi pc All in One con Linux

2016-10-26 Per discussione Alessandro Baggi

Il 24/10/2016 14:55, gino ha scritto:

Ringrazio delle risposte di gerlos, alessandro e altri. Parto da qui
perché non riuscivo a rispondere direttamente alle risposte ricevute.
Il problema di Woindows 10 è stato risolto. Bisognava scaricare da Asus
i driver audio ed installarli.
Per linux è un disastro: niente funziona, nessuna distro. Adesso quando
metto un DVD nel lettore non parte più niente.
In alto a sinistra del monitor, tutto scuro, appare una lineetta che
continua a tremolare e basta, tutto qui.
Da pennetta inizialmente Ubuntu 16.04 parte bene fino alla scelta di
lanciare Live o l’installazione e poi si blocca e appare sul lato
sinistro in alto quella famosa lineetta che lampeggia intermettente e
devo chiudere il computer.
Non so esattamente cosa fare.
Qui sotto descrivo le caratteristiche di questo ALL IN ONE, che mi sono
state richieste:
Asus V230ICGK-BC099X;
Processore Intel i5-6400T;
RAM 8GB;
Hars Disk 1TB SSD;
Grafica NVIDIA GeFor ce GT930M con 2 GB dedicati;
Wifi 802.11n (a/c);
Bluetooth 4.0;
Gigabit LAN;
DVD-RW;
Schermo 23” FullHD 1920x1080;
4xUSB3.0 2xUSB 3.1 CardReader;
Mouse e tastiera.
Ringrazio della vostra attenzione.
Gino.


Ciao Gino,
so che me ne vorranno, ma hai provato ad avviare la chiavetta con Ubuntu 
o una live su un altro sistema? Come si comporta?.


Se su un altro sistema parte, la chiavetta e la iso vanno bene.

Da quello che ho capito hai giocato un po con UEFI.
Per prima cosa entra in EUFI e resetta la configurazione. 
Successivamente, trova la sezione relativa al Secure Boot e attivalo per 
"Other OS". Salva. Collega la chiavetta e riavvia.
Al riavvio rientra di nuovo in EUFI e seleziona tra i dispositivi 
avviabili la chiavetta in questione ma con la dicitura EUFI.


Mi capitò, con la prima macchina uefi e avviando con legacy si bloccava 
tutto.


Oltre a questo, sembra che la macchina funzioni anche perche 
l'innominabile ci gira.


Ora, tutte le distro sotto la 4.8 non supportano a pieno skylake e i 
relativi chipset, ma questo non significa che non riescano ad avviarsi. 
Magari avrai problemi sulla gestione energetica o sulla iGPU o il wifi e 
l'interfaccia di rete, ma la macchina con l'os si deve avviare.


Io ho installato su una z170 sia debian (con problemi con intel hd530, 
ma funziona bene) che una centos (abilitando i915.preliminary_mode=1) e 
funziona senza problemi.


Alessandro.



Re: Problemi vari con All in ONE Asus

2016-10-24 Per discussione Alessandro Baggi

Il 24/10/2016 11:42, gino ha scritto:

Porgo i miei saluti a tutti.
Ho bisogno dei vostri consigli da esperti quali siete. Ho acquisito due
giorni fa un pc ALL IN ONE Asus con queste caratteristiche:
Processore Intel I5-6400T;
Ram 8GB;
Har Disk I TB SSD;
Grafica NVIDIA GeForce GT930M con 2 GB dedicati;
Wifi 802.11n (a/c);
Bluetooh 4.0; Gigabit Lan;
DVD-RW;
Schermo LED 23”;
Ecc.ecc.Usb, CardReader, mouse e tastiera; FullHD 1920x1080.
Sono sorpreso e deluso per alcune per alcuni problemi . Alcuni li ho
risolti.
Ma questi non sono riuscito: Audio assente totalmente su windows 10,
nessuna distribuzione linux, provate, funzionano!
Mi avevano detto che questo computer era compatibile con linux! Tipo
Debian 8 parte, mi chiede se voglio la Live oppure l’installazione.
Lancio la Live..sembra che si avvia..ma dopo un po’ si blocca e non
succede più niente”! Così dicasi con Ubuntu 16.04, Rosa R8, ecc.
Forse devo fare qualcosa di opportuno per fare l’installazione di linux?
Non so cosa fare. Sono entrato nel Bios  e ho disattivato “secure boot”
(altrimenti non partiva neanche Windows 10). Cosi ho anche disattivato
UEFI.  Io non voglio stare con un computer dove linux non
funziona!...Altrimenti tornerei a un altro computer tradizionale, sui
quali ho sempre installato varie distro linux.
Mi sapete dare qualche consiglio in merito? Io non mi sento esperto in
materia.
Chiedo scusa della lunga esposizione.., ma è dovuta alla grande
delusione in atto.
Gino.



Ciao Gino,
servirebbero gli errori di boot che debian riporta durante l'avvio della 
live. Se hai disabilitato EUFI, devi avviare in modalità legacy per la 
live, viceversa UEFI se uefi è abilitato. Hai detto che hai provato 
anche ad avviare Ubuntu ma si blocca.


Consideriamo per un momento solo Windows 10 che si avvia. Si avvia ma 
non funziona l'audio. Ma l'AIO ha delle casse incluse? Se si, 
funzionano? Hai provato con le cuffie? La scheda audio è abilitata nel 
"BIOS".


Per debian avvia l'installer senza GUI, magari riesci ad avere più info.

Ripeto, servono gli errori che ricevi durante l'avvio.

Alessandro.



Il disco sta partendo?

2016-10-20 Per discussione Alessandro Baggi

Salve ragazzi,
vi riporto qualche dato smart:

ID# ATTRIBUTE_NAME  FLAG VALUE WORST THRESH TYPE 
UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate 0x000f   100   100   050Pre-fail 
Always   -   0/4754882
  5 Retired_Block_Count 0x0033   100   100   003Pre-fail 
Always   -   0
  9 Power_On_Hours_and_Msec 0x0032   000   000   000Old_age 
Always   -   17337h+11m+24.440s
 12 Power_Cycle_Count   0x0032   099   099   000Old_age 
Always   -   1965
171 Program_Fail_Count  0x0032   000   000   000Old_age   Always 
  -   0
172 Erase_Fail_Count0x0032   000   000   000Old_age   Always 
  -   0
174 Unexpect_Power_Loss_Ct  0x0030   000   000   000Old_age 
Offline  -   780
177 Wear_Range_Delta0x   000   000   000Old_age 
Offline  -   3
181 Program_Fail_Count  0x0032   000   000   000Old_age   Always 
  -   0
182 Erase_Fail_Count0x0032   000   000   000Old_age   Always 
  -   0
187 Reported_Uncorrect  0x0032   100   100   000Old_age   Always 
  -   0
194 Temperature_Celsius 0x0022   033   042   000Old_age   Always 
  -   33 (Min/Max 15/42)
195 ECC_Uncorr_Error_Count  0x001c   120   120   000Old_age 
Offline  -   0/4754882
196 Reallocated_Event_Count 0x0033   100   100   003Pre-fail  Always 
  -   0
201 Unc_Soft_Read_Err_Rate  0x001c   120   120   000Old_age 
Offline  -   0/4754882
204 Soft_ECC_Correct_Rate   0x001c   120   120   000Old_age 
Offline  -   0/4754882
230 Life_Curve_Status   0x0013   100   100   000Pre-fail  Always 
  -   100
231 SSD_Life_Left   0x0013   100   100   010Pre-fail  Always 
  -   0
233 SandForce_Internal  0x   000   000   000Old_age 
Offline  -   6585
234 SandForce_Internal  0x0032   000   000   000Old_age   Always 
  -   6885
241 Lifetime_Writes_GiB 0x0032   000   000   000Old_age   Always 
  -   6885
242 Lifetime_Reads_GiB  0x0032   000   000   000Old_age   Always 
  -   6244


É di un corsair force gt da 120Gb.

Che ne pensate?



Re: LVM e guasti

2016-10-14 Per discussione Alessandro Baggi

Il 14/10/2016 12:15, Gian Uberto Lauri ha scritto:

"AB" == Alessandro Baggi <alessandro.ba...@gmail.com> writes:


AB> Mi è gia capitato di dover spostare due dischi in raid con mdadm
AB> da una macchina all'altra e all'avvio tutto viene visto. Con LVM è
AB> la stessa cosa oppure bisogna eseguire qualche altra operazione?

Un disco rimovibile è un problema analogo.

vgscan ed una volta che i logical volumes sono noti al sistema puoi
montarli.



Grazie ragazzi per le info.
Appena posso farò qualche prova.
Un saluto.



LVM e guasti

2016-10-14 Per discussione Alessandro Baggi

Salve ragazzi,
sto studiando lvm, ho creato dei volumi su un raid software in mirror. 
Tutto funziona molto bene e soprattutto LVM è fenomenale.


Ora mi sto ponendo un problema. Cosa succede se la macchina si guasta?

Lasciando stare i backup, cosa succede se io prendo i due dischi in lvm 
+ raid1 e li collego ad un'altra macchina?


Mi è gia capitato di dover spostare due dischi in raid con mdadm da una 
macchina all'altra e all'avvio tutto viene visto. Con LVM è la stessa 
cosa oppure bisogna eseguire qualche altra operazione?


Grazie in anticipo.

Alessandro.



Re: Skylake

2016-09-15 Per discussione Alessandro Baggi

Ciao Vincenzo,
so di essere OT ma ho installato su una z170-P e un i3-6300 una centos 7 
che ha un kernel 3.10 e solamente aggiungendo in grub 
i915.preliminary_hw_support=1 funziona una meraviglia.


Purtroppo non ho provato con debian (appena ho un momento libero posso 
provare e farti sapere).


Come ha detto Lorenzo, prova la testing o unstable, altrimenti prova a 
verificare se qualche distro "bleeding edge" come arch faccia eccezione.


Un saluto.



Il 09/09/2016 15:13, Lorenzo "Palinuro" Faletra ha scritto:

ciao, hai provato con kernel piu recenti come il 4.7 o il 4.8?

gli skylake non sono supportati gran che da linux, ed il supporto sembra
essere arrivato solo di recente, tutta la parte della microarchitettura
classica è supportata credo già dai 4.4 e precedenti, ma per la parte
video so poco e non mi sorprenderebbe scoprire che sia supportata
correttamente solo dal 4.7 in poi

bisogna anche vedere se la versione di xorg di jessie ci sappia
lavorare, infatti se fossi in te farei un primo tentativo con debian
testing o distro derivate da testing (kali o parrot) o addirittura
vedere come si comporta ubuntu, una volta scoperto chi funziona si può
andare a vedere perchè funzioni e cosa ha di diverso rispetto a jessie,
ed eventualmente si vede se dai backports di jessie si può adattare
qualcosa


On 2016-09-09 05:07, Vincenzo Villa wrote:

Ciao

Ieri mi è arrivato il nuovo portatile (cpu skylake i7-6700HQ con grafica
integrata HD 530) e ovviamente ho subito installato Debian. Sono partito
da Jessie (che vorrei tenere) e installato alcune cose da backports, in
particolare il kernel (4.6) e firmware-misc-nonfree

Purtroppo la grafica va solo in emulazione software.

Ho provato ad inserire in grub i915.preliminary_hw_support=1 (anche se
inutile con il kernel 4.6) e a rimuovere i vari xorg intel. Ho provato
anche ad installare l'ultima versione debian di xserver-xorg-video-intel
(peraltro sconsigliata)

Purtroppo su google si trovano un sacco di informazioni contraddittorie,
in particolare sul supporto dei kernel debian di skylak. (Ubuntu 16.04
con kernel 4.4 sembra andare bene out-of-the-box)

Esperienze?

Grazie






Re: ssd

2016-09-15 Per discussione Alessandro Baggi

Il 15/09/2016 16:13, Luca De Andreis ha scritto:

Il 15 settembre 2016 16:03:37 CEST, "Nicola Ferrari (#554252)"
 ha scritto:

On 14/09/2016 20:52, Pol Hallen wrote:

Qualcuno che mi può consigliare un modello pienamente compatibile?


Io uso Samsung 840/850 Pro e non ho rilevato particolari problematiche.

Ciao,
N



Idem, sia 840 evo/pro che 850 evo/pro con firmware aggiornati, nessun
problema.

Almeno questi su macchine non con il ruolo di server, sui server il
discorso cambia e gli Intel di fascia enterprise sono molto quotati.

Luca


Ciao Pol,

se cerchi qualcosa di fascia piu bassa prova con Corsair Force LE da 
480G (prezzo circa 130.00 euro).


Non sono come i samsung ma credo che non siano pessimi.

Io ho due corsair force gt da 120 in raid e senza usare nessuna 
precauzione, vanno una favola e ce li ho da 3 anni.


Un saluto.



Re: NVIDIA Optimus

2016-08-25 Per discussione Alessandro Baggi

Il 23/08/2016 21:20, Federico Di Gregorio ha scritto:

On 23/08/16 15:57, Alessandro Baggi wrote:

Salve ragazzi,
ho una debian 8.5 su un portatile Asus con NVIDIA Optimus.
Ho configurato il tutto seguendo
https://wiki.debian.org/it/Bumblebee#Installation.

Premetto che ho usato bumblebee-nvidia.

Cmq una volta installato, optirun viene lanciato senza problemi.
L'unico problema è sulle prestazioni. Se lancio:

vblank_mode=0 glxgears

ottengo tipo:

22979 frames in 5.0 seconds = 4595.707 FPS

Se lancio:

vblank_mode=0 optirun glxgears

ottengo:

12046 frames in 5.0 seconds = 2409.192 FPS.


Quindi risulta che le prestazioni sono migliori usando la intel
integrata nella cpu che la GT540M.

Non so dove sbattere la testa. Qualcuno ha esperienza?


Ciao,

non preoccuparti, è tutto OK e la NVIDIA sta funzionando benissimo.

Il fatto è che la tecnologia Optimus ha un overhead nel portare i pixel
dal server X "headless" (quello della NVIDIA) a quello collegato al
display.

glxgears impegna talmente poco la scheda che in questo caso quello che
rallenta la grafica è la sincronia tra i due server X ma non appena usi
un 3D più pesante questo overhead scompare e la NVIDIA funziona
decisamente meglio della Intel.

Ciao,

federico


Grazie mille ragazzi per le delucidazioni.

Un saluto.



NVIDIA Optimus

2016-08-23 Per discussione Alessandro Baggi

Salve ragazzi,
ho una debian 8.5 su un portatile Asus con NVIDIA Optimus.
Ho configurato il tutto seguendo 
https://wiki.debian.org/it/Bumblebee#Installation.


Premetto che ho usato bumblebee-nvidia.

Cmq una volta installato, optirun viene lanciato senza problemi.
L'unico problema è sulle prestazioni. Se lancio:

vblank_mode=0 glxgears

ottengo tipo:

22979 frames in 5.0 seconds = 4595.707 FPS

Se lancio:

vblank_mode=0 optirun glxgears

ottengo:

12046 frames in 5.0 seconds = 2409.192 FPS.


Quindi risulta che le prestazioni sono migliori usando la intel 
integrata nella cpu che la GT540M.


Non so dove sbattere la testa. Qualcuno ha esperienza?

Grazie in anticipo.

Alessandro.



Re: [OT] C e inotify

2016-07-26 Per discussione Alessandro Baggi

Il 22/07/2016 22:07, Mattia ha scritto:

Il 22 luglio 2016 17:32, Alessandro Baggi <alessandro.ba...@gmail.com>
ha scritto:

La modifica del file, modifica attributi e spostamento vengono rilevati
mentre la cancellazione (con rm, unlink) non viene rilevato con evento
IN_DELETE_SELF ma IN_ATTRIB.

[...]

Dato che su questo specifico file è aperto un file descriptor, e avendo
letto che il delete_self non viene rilevato con un fd aperto sul file, ho
provato anche a non aprire il file in lettura (per altre operazioni) senza
esito positivo.


Non riesco a riprodurre il tuo problema, quello che vedo io è questo:
$ touch file
$ ./a.out file
$ rm file
file 0004: IN_ATTRIB
file 0400: IN_DELETE_SELF
file 8000: IN_IGNORED
Cioè, vedo anche io un IN_ATTRIB, ma seguito come mi aspetto da IN_DELETE_SELF
e IN_IGNORED. Non è che in uscita dalla read() leggi solo il primo e
scarti gli altri?


Ho notato anche che la modifica del file con un editor (nel mio caso vi) non
riporta un evento modify ma un move e un attrib (forse perche vi crea un
file in /tmp e poi lo sposta sul'originale?)

Quasi. Al momento di salvare il file, vim lo rinomina in 'nomefile~', crea un
nuovo file 'nomefile' e se tutto va a buon fine elimina 'nomefile~'.
Per questo motivo, non puoi aspettarti un IN_MODIFY perchè una volta che vim
ha fatto rename(), il tuo processo continuerà ad osservare 'nomefile~' che non
verrà toccato se non per fare unlink() alla fine.
La sequenza che vedo salvando un file con vim è questa:
$ ./a.out file
file 0800: IN_MOVE_SELF
file 0004: IN_ATTRIB
file 0400: IN_DELETE_SELF
file 8000: IN_IGNORED
cioè il risultato di rename() e unlink()

Ti allego il file sorgente con cui ho fatto le prove: vedi sulla tua macchina
come si comporta.

Ciao
Mattia



Salve ragazzi,
scusate il ritardo per la risposta. Ha ragione Mattia, leggo solo il 
primo evento "buttando" via i successivi.


Grazie a tutti per l'aiuto.

PS. Sono iscritto a tante ML, ma in nessuna si riceve l'aiuto che si 
riceve qui. Grandi ragazzi.




[OT] C e inotify

2016-07-22 Per discussione Alessandro Baggi

Salve ragazzi,
stavo scrivendo un po' di codice per tenere d'occhio un file.
Ho pensato di utilizzare inotify per tracciare gli eventi su un singolo 
file.


Il mio obiettivo è tracciare quattro tipi di eventi: modifica attributi, 
modifica, cancellazione del file e spostamento del file usando 
rispettivamente i flag IN_ATTRIB, IN_MODIFY, IN_DELETE_SELF e 
IN_MOVE_SELF. Inoltre il file è aperto in lettura.


La modifica del file, modifica attributi e spostamento vengono rilevati 
mentre la cancellazione (con rm, unlink) non viene rilevato con evento 
IN_DELETE_SELF ma IN_ATTRIB.


Ho notato anche che la modifica del file con un editor (nel mio caso vi) 
non riporta un evento modify ma un move e un attrib (forse perche vi 
crea un file in /tmp e poi lo sposta sul'originale?)



Ho effettuato alcune prove per verificare questo comportamento. Ho 
rimosso il flag IN_ATTRIB dai flag e non inotify non riesce nemmeno a 
rilevare l'evento.


Ho provato anche a cambiare il flag da IN_DELETE_SELF in IN_DELETE (per 
le dir) ma nulla.


Dato che su questo specifico file è aperto un file descriptor, e avendo 
letto che il delete_self non viene rilevato con un fd aperto sul file, 
ho provato anche a non aprire il file in lettura (per altre operazioni) 
senza esito positivo.


Ho provato anche a cambiare la tipologia di "watch",ovvero monitorare la 
directory invece del singolo file e cambiando IN_MOVE_SELF e 
IN_DELETE_SELF con IN_DELETE e IN_MOVE e tutto funziona a dovere.
L'unico problema è che il watch su tutta la directory non "traccia" solo 
il file interessato ma tutti gli altri quindi poi devo andare a 
controllare in struct event -> name se il file è quello interessato. 
Dato che potrebbero esserci molti file vorrei evitare che ad ogni evento 
sulla dir, il programma debba controllare molte volte per quale file è 
stato ricevuto l'evento.



Al momento per la cancellazione del file ho tralasciato la problematica 
dell'IN_DELETE_SELF, e considero solo il FLAG IN_ATTRIB. Quindi se 
ricevo l'evento per ATTRIB verifico anche se il file esiste (con access) 
e cosi via.


Ho cercato, girato e sudato ma non ho trovato nulla. Qualcuno sa da cosa 
può dipendere il problema della cancellazione?


Inoltre, vi viene in mente qualche modo esotico di moficare le proprietà 
(elencate sopra) di un file?


Scusate la lunghezza e grazie in anticipo.

Alessandro.



Re: SSD "comodo" per debian

2016-07-18 Per discussione Alessandro Baggi

Il 17/07/2016 17:28, Leandro Noferini ha scritto:

Ciao a tutti,

devo cambiare un vecchio disco che sta in un desktop piuttosto nuovo (i5
e 8 giga di ram) rimasto lì dal cambio di scheda madre bruciata e vorrei
metterci un disco ssd: le necessità familiari sono normali-basse come
capienza e prestazioni. Avete qualche consiglio?



A basso costo Corsair LE da 480GB.
Se necessiti di qualcosa di più affidabile e prestante devi cambiare 
modello o marca, ma i prezzi salgono.





Re: Backup Remoto [secondo atto]

2016-06-05 Per discussione Alessandro Baggi

Il 04/06/2016 20:32, Gollum1 ha scritto:

Il 04 giugno 2016 18:49:08 CEST, Luca De Andreis  ha scritto:

Personalmente amo questa soluzione per i backup (anche remoti a bassa
banda):

DAR

-) DAR backup full, estrazione dei descrittori in un file inventario,
lascio il file inventario sul server remoto e lavoro di differenziali.
-) Quando i differenziali diventano importanti come dimensione, creo
sul
server di stoccaggio locale un backup sintentico, collassando il
vecchio
full, con l'ultimo differenziale, quindi estraggo il catalogo, lo copio

sul server remoto, e ricomincio con i differenziali (questa volta
facendo riferimento al nuovo full, che di fatto non transita tra il
server locale e remoto perchè creato sinteticamente).

Ciao

Luca


Praticamente il full transita sulla rete solo la prima volta, poi si tratta 
sempre di backup incrementali... buona l'idea... mi ricorda qualcosa :-P



Potrei fare la stessa cosa con rsync?
Nel senso, mantengo allineate i data set con gli incrementali di rsync e 
poi creo un archivio del backup.


Può funzionare?



Backup Remoto [secondo atto]

2016-06-04 Per discussione Alessandro Baggi

Buongiorno ragazzi,
rieccoci con i backup :D.
Ho un server remoto con una partizione da 200GB (al momento quasi 
vuota). A questo server è collegato un disco esterno da 1 tb per dei 
backup effettuati con bacula. Purtroppo questo disco dopo circa 2 mesi 
si è danneggiato con conseguente perdita dei backup. Il disco è stato 
ripristinato e le procedure di backup lavorano di nuovo. Dato lo 
spiacevole inconveniente, mi è stato richiesto un backup locale dei db e 
dati (su partizione da 200GB).


La banda locale è 8/2 mbps.
Con pochi dati il problema non si pone, ma quando questa partizione sarà 
popolata iniziano i dolori.


Fare un backup remoto, con strumenti tipo bacula, di 100GB è 
improponibile data la velocità di connessione...anche perche un full o 
un differenziale porterebbe via una miriade di tempo e dato che il 
backup richiede lo spegnimento di alcuni servizi sarebbe un problema.


PS. Tempo fa mi era stato consigliato di fare un LVM, bloccare i 
servizi, fare lo snapshot e  procedere con il backup. Purtroppo questo 
non è possibile per diversi motivi.


La prima cosa che mi è venuta in mente è rsync, efficace e leggero.

All'inizio avevo pensato di copiare direttamente i pool di backup e il 
db, poi mi sono messo a ridere.
Opterò per: blocco i servizi, backup dei db, backup dei dati e riavvio 
dei servizi.


Avete altre idee?


Grazie in anticipo.



[OT] CPU dissipatori

2016-05-15 Per discussione Alessandro Baggi

Buongiorno ragazzi,
circa 2 anni fa comprai un Corsair h100i per sostituire un vecchio 
Zalman CNPSX11. Appena montato avevo notato un leggero aumento della 
temperatura della cpu (in idle). Mi fidai delle recensioni sui 
fantomatici AIO per il water cooling.


Circa due settimane fa, stufo del rumore del kit, ho deciso di 
acquistare un Noctua NH-D15 e tornare ad aria.


CPU i7-2600K

Prima di montare il nuovo, ho lanciato prime95 con torture test Small 
FFTs con la seguente configurazione:


CPU i7-2600K
Pasta artic silver 5.
Corsair h100i (pompa a 2300~ rpm)


In idle: 32°
In full con prime95, dopo due minuti 62°


Monto il nuovo dissipatore e rieseguo il test con la seguente 
configurazione:


CPU i7-2600K
Pasta noctua
NH-D15

in idle: 27°
in full con prime95 per circa 10 min 50°.

Oltre alle temperature la rumorosità è molt differente.

Dopo qualche tempo (oggi), volevo verificare questa problematica sull'h100i.

Monto il tutto su un i3-6300.

Prima configurazione:
CPU i3-6300
Pasta artic silver 5
Corsair h100i (pompa a 2300~ rpm)

in idle: 24°
in full con prime95 62/65°


Seconda configurazione:

CPU i3-6300
Pasta artic silver 5
Zalman CNPS11X

in idle: 22°
in full con prime95 52°

Ora in base a questi risultati, non so cosa pensare sul Corsair.

Inoltre ho notato che sulla vecchia mobo, c'era un piccolo alone vicino 
al socket che mi ha fatto pensare ad una piccola perdita di liquido.


Non so se è danneggiato o se le prestazioni siano realmente quelle 
riportate. Su molti benchmark sembra che l'h1001 e il noctua D15 se la 
giocano...e lo scarto è di 2 gradi circa, ma qui si parla di +10.

Per non parlare dello Zalman cnpsx11

Che ne pensate?



[OT] httpd + tomcat

2016-04-08 Per discussione Alessandro Baggi

Salve ragazzi,
ho un piccolo problema che non riesco a comprendere. Non mi considero un 
esperto..perdonatemi se dico ca...te.


Ho un server, su cui è stata installata un'applicazione che necessita di 
tomcat.
Inoltre sono stati creati due contesti con questa applicazione, una per 
test e l'altra per la produzione (futura).


apache e tomcat comunicano con mod_proxy (in questo caso ajp).

Mi è stato richiesto di configurare i due accessi con due dns separati, 
ovvero dns1.it/produzione e dns2.it/test.


Sul sistema ho trovato un file con dentro due virtual host per le 
relative suite e le relative direttive ProxyPass ProxyPassReverse fuori 
dai virtualhost gia configurati.


In questa maniera le due suite sono raggiungibili da:

dns1.it/produzione
dns1.it/test
dns2.it/produzione
dns2.it/test

mentre il risultato desiderato dovrebbe essere

dns1.it/produzione
dns2.it/test

Prima di mettere mani sul server, ho creato una piccola installazione 
con httpd e tomcat, replicando la stessa configurazione  ma utilizzando 
gli example di tomcat.


Inserendo le direttive Proxy* fuori dai virtual host, ho lo stesso 
comportamento del server di produzione, se invece le inserisco 
all'interno del relativo virtual host, ottengo il risultato desiderato.


Tornando al server, ho questo file di configurazione:

ProxyPass /produzione  ajp://localhost:8009/produzione
ProxyPassReverse  /produzione  ajp://localhost:8009/produzione


ServerAdmin email
ServerName dns1.it
DocumentRoot /var/www/html
DirectoryIndex index.htm index.html
Options FollowSymLinks
ErrorLog /var/log/httpd/errors.log
CustomLog /var/log/httpd/web_access.log combined
LogLevel error
Alias /produzione "/opt/tomcat/webapps/produzione"





ProxyPass /test  ajp://localhost:8009/test
ProxyPassReverse  /test  ajp://localhost:8009/test



ServerAdmin email
ServerName dns2.it
DocumentRoot /var/www/html
DirectoryIndex index.htm index.html
Options FollowSymLinks
ErrorLog /var/log/httpd/errors.log
CustomLog /var/log/httpd/web_access.log combined
LogLevel error
Alias /test "/opt/tomcat/webapps/test/"

...



Oltre al fatto che le direttive ProxyPassReverse sono sbagliate 
(https://httpd.apache.org/docs/2.4/mod/mod_proxy_ajp.html), se inserisco 
le direttive all'interno del relativo virtual host ottengo una 
separazione con i dns, ma in compenso ottengo un bel "bad 
request..". Sui log non sono riuscito a trovare nulla di utile 
(anche con livello debug). Ho provato a modificare le direttive 
proxypassreverse in:


ProxyPassReverse /produzione http://dns1.it/produzione

senza avere risultato.
Ho provato ad utilizzare il mod_proxy_http invece di ajp, senza 
risultato. Ne ho provate tante..senza risultato, sempre il "bad request".


Non riesco a capire da cosa dipende.
Idee?

Grazie in anticipo e scusate la lunghezza.



Re: [OT] Quesito su backup

2016-03-25 Per discussione Alessandro Baggi

Il 24/03/2016 16:06, Paolo Miotto ha scritto:

Il giorno gio, 24/03/2016 alle 13.32 +0100, Alessandro Baggi ha
scritto:

Vi viene in mente altro?


Spostare i filesystem di db e dati app su LVM.

Prima del backup, fermi db e servizi, fai un snapshot LVM e fai
ripartire i servizi.

Poi monti lo snapshot su un altro mountpoint e con calma ne fai il
backup.

Terminato il backup rimuovi lo snapshot a caldo senza downtime.




Grande, non avevo pensato ad LVM.

Grazie.

Alessandro.



[OT] Quesito su backup

2016-03-24 Per discussione Alessandro Baggi

Salve ragazzi,
scusate per la lunghezza.
Ho per le mani un server dedicato sul quale sono presenti diverse 
applicazioni. Sempre sul server ho una partizione di circa 200G dove 
andranno tutti  i file delle applicazioni.
Il programma utilizzato per i backup è bacula e il backup viene 
effettuato su un disco usb3 esterno.
Come prerequisito del backup, mi è stato richiesto che il db non deve 
essere inconsistente rispetto ai file, quindi devo spegnere il servizio 
(tomcat) per evitare caricamenti durante il backup.
Al momento non ci sono problemi sulle tempistiche in quanto non ci sono 
tanti dati da backuppare, quindi il downtime del servizio è molto basso.
I miei dubbi cominciano ad affiorare pensando al backup FULL di 150/180 
GB di dati. In questo caso in 1 o 2 ore dovrebbe farcela, e anche in 
questo caso il downtime non crea problemi al cliente.


Al momento essendo pochi dati su un massimo di 200GB ho pianificato:
1 full al mese,
1 differenziale ogni fine settimana (4 diff)
e per i giorni da lunedi al sabato incrementali.

In futuro però, se il progetto cresce, potrebbe essere necessario 
cambiare macchina e aumentare la dimensione della partizione che devo 
backuppare.



Supponiamo che la partizione sia da 1TB e che debba backuppare circa 750 
GB e che il backup venga effettuato, non sul disco esterno, ma su un 
altro server nella stessa rete. In questo caso i tempi per un backup 
full (prendiamo in considerazione solo il full perche è il più oneroso) 
aumentano e aumentano anche il downtime del servizio.


E qui sorge il problema. Come affrontarlo?

La prima cosa che mi viene in mente è quella di allungare gli archi 
temporali dei backup


1 full ogni 6 mesi (anche 12)
1 diff ogni mese
e tutti incrementali.

In questa maniera avrei solo un downtime lungo anche se le dimensioni 
dei differenziali potrebbero aumentare di parecchio e anche questa 
soluzione potrebbe portare a disservizi lunghi.


Un'altra soluzione che mi viene in mente è l'High Availability. Non sono 
esperto su HA, ho configurato qualcosina ma niente di complesso, quindi 
perdonatemi se dico idiozie.
Due macchine in master/slave, stessi servizi, filesystem gfs replicati 
con glusterfs e montanti su tutte e due le macchine, db in replica tra loro.
Quando devo fare il backup "freezo" la macchina master, lo slave prende 
il controllo (spero con tutti i dati sincronizzati tra db e fs) e il 
servizio prosegue sullo slave. Effettuo il backup dei dati dal server 
freezato, finito il backup, riattivo il server che diventa il nuovo 
slave, i db e gli fs si risincronizzano. Pero anche qui mi sorgono dei 
dubbi: che succede con la risincronizzazione tra i due fs dopo questa 
operazione? Con drbd, ricordo che se le macchine erano tutte e due 
master e tutti e due  i drbd0 erano montati avevo problemi con la 
sincronizzazione (se non sbaglio split-brain). Come garantire che tutto 
(dati e db) siano sincronizzati tra le due macchine al momento del 
backup? Come risincronizzare i db?



So che il caso al momento non è reale, ma se tra qualche tempo dovrò 
affrontare una configurazione HA, vorrei studiarlo più a fondo.



Vi viene in mente altro?

Grazie in anticipo e scusate la lunghezza.



Re: route

2016-03-06 Per discussione Alessandro Baggi

Il 03/03/2016 21:36, Pol Hallen ha scritto:

'sera a tutti :)

il server ha 8 interfacce di rete e diverse macchine virtuali. Su una VM
(eth6 - rete 192.168.50.0) c'è una vpn (client) connessa alla tap0 del
server (10.10.20.0/24). Sempre su questa VM la sua interfaccia di rete
(192.168.1.0/24) ha come gw 192.168.1.1 e da li internet.

come instrado i client connessi alla vpn su quella rete?

grazie per l'aiuto!

Pol



Ciao Pol,
non ho capito bene.
Te vuoi che i client connessi alla vpn vedano la 192.168.1.0/24?

Non avendo capito bene ti espongo un problema di diverso tempo fa. Avevo 
un utente che doveva connettersi dall'esterno. I servizi si trovavano su 
diverse macchine virtuali, virtualizzate su un singolo server. Creai 
un'altra vm per la vpn e installai OpenVPN con TUN (routed vpn anche se 
il server non era un nodo/router della rete). Una volta che il client 
remoto si connetteva, riceveva le rotte per la rete interna. Il client 
riusciva a mandare i pacchetti ma non riusciva a riceverli perche le 
altre vm non sapevano a chi rimandare i pacchetti, in quanto il 
pacchetto arrivava con ip della vpn (in questo caso il client 
10.10.20.5) e non locale (192.168.1.x) . Ho inserito una regola di nat 
sul server vpn, dove le comunicazione generate dal client (supponiamo 
10.10.20.5) per la rete 192.168.1.0/24 dovevano essere translate con 
l'indirizzo del server(su rete 192.168.1.x) . Fatto questo il nat 
permetteva alle macchine di rimandare il pacchetto al server vpn (su 
rete locale) che a sua volta ritraslava i pacchetti e li routava 
direttamente al client.


I server (VM) erano debian mentre la vpn era su OpenBSD con qualche 
regola di pf per il nat e filtraggio. Ovviamente non routavo tutta la 
rete ma solo alcune delle VM e solo i servizi a cui doveva avere accesso.


Inoltre la connessione era 1:N e non N:N, quindi il problema del 
conflitto degli indirizzamenti tra reti non si era presentato.


Spero di esserti stato utile.

Alessandro.



Re: [OT] informazioni porta SFP

2016-02-26 Per discussione Alessandro Baggi

Il 26/02/2016 15:16, Piviul ha scritto:

Ciao a tutti, secondo voi posso collegare 2 switch TL-SG2424P[¹] tramite
una delle porte SFP presenti in entrambi gli switch con un cavo in rame
di classe 6?

Scusate la niubbità ma non ho ancora capito se le porte SFP possono
essere utilizzate per collegare switch fra loro con cavi di rame classe 6...

Grazie mille

Piviul

[¹] http://www.tp-link.com/il/products/details/cat-40_TL-SG2424P.html



Ciao Piviul,
anche io sono un pò niubbo e mi è capitato di averci a che fare, anche 
se è passato un po di tempo.
Dove stavo io li usavamo per collegare le fibre degli switch di piano 
con il ced (su switch fibra).


Secondo me puoi collegarli tra loro perche cmq sono porte combo che 
possono essere usate per fibra o altro con moduli appositi.


per rj45:
http://ecx.images-amazon.com/images/I/81BIB6WbUDL._SY355_.jpg

per fibra:
https://www.perlesystems.it/productimages/sfp-transceiver-lg.jpg

A questo punto se non hai una necessità specifica perche non usare una 
porta normale?


Saluti, Alessandro.



Re: Recupero Dati da HD danneggiato

2016-02-19 Per discussione Alessandro Baggi

Il 19/02/2016 11:59, Temax ha scritto:

Salve a tutti,
nonostante le molte guide che ci sono in rete, non sono riuscito a
risolvere il problema.
Mi si è rotto l'HD e la partizione dedicata a Debian (ext4), dove avevo
tutti i miei file importanti, non è più accessibile, non si riesce a
montare, e di conseguenza non posso recuperare niente.
Ho provato con GParted, Scalpel, Testdisk, ma senza risultati.
Qualcuno ha consigli in merito prima di rivolgermi a qualche centro
spedcializzato?
Grazie

Max





Ciao Max,
il sistema vede il disco oppure non viene nemmeno riportato?
Che tipo di danno ha subito e da cosa è stato causato?




Re: Debian LTS

2016-02-18 Per discussione Alessandro Baggi

Il 18/02/2016 19:22, Gollum1 ha scritto:

Il 18 febbraio 2016 18:44:13 CET, Alessandro Baggi <alessandro.ba...@gmail.com> 
ha scritto:


ad oggi, che io sappia, se esce un update "minor release" si aggiorna
tranquillamente, ma se devi effettuare l'aggiornamento della major
release non è possibile come con debian.



Che significa che con debian non si può aggiornare la major release? Fino ad 
ora, il grosso dei problemi di aggiornamento sono dati dalle interfacce 
grafiche, che sui server non dovrebbero esistere... le altre cose, se non si 
lascia passare troppo tempo, vanno via relativamente lisce.

Byez

Ciao Gollum, il post era per CentOS. La mia ultima frase "non è 
possibile come con debian" è scritta male. Con debian si puo passare 
dalla 7 alla 8. Con Centos non c'è una procedura ufficiale (con yum) per 
passare dalla 7 alla 8 ma solo da 7.1 a 7.x.





Re: Debian LTS

2016-02-18 Per discussione Alessandro Baggi

Il 18/02/2016 18:59, dea ha scritto:

Il Thu, 18 Feb 2016 18:44:13 +0100, Alessandro Baggi scrisse

Il 18/02/2016 18:39, dea ha scritto:



Sbaglio o il mondo RH non supporta (o supportava) l'aggiornamento da versione
precedente a versione nuova ed è (era) obbligatorio reinstallare ?


Ciao Luca,
ad oggi, che io sappia, se esce un update "minor release" si
aggiorna tranquillamente, ma se devi effettuare l'aggiornamento
della major release non è possibile come con debian. Ci sono how-to
in giro ma non sembra una procedura "ufficiale" rh/centos.


Questo potrebbe giustificare il rimanere nel medioevo, magari reinstallare
quando si cambia hardware.



È possibile, non avendo una procedura di aggiornamento tra major
release, cercano di compensare con i 10 anni.



Era proprio quello che ricordavo e pensavo.

Tra l'altro il mondo RH è pesantemente ibridato (non voglio scatenare flame),
ma vive grazie al supporto che le aziende danno con moduli spesso proprietari
per il proprio hardware (server e componenti per server).
E' per questo che un kernel 2.6.18 è ancora in vita.

Mha.

Tradotto, la potenza della pacchettizzazione DEB rispetto a quella RPM si vede
da questo.
Come vengono gestiti i pacchetti e le dipendenze da Debian rispetto al mondo 
RPM.

Sicuramente se uso una distro che NON posso aggiornare a caldo (scusate se
sono abituato troppo bene) è mio interesse che copra tutta la vita
dell'hardware e 10 anni sono anche troppi per la vita di un server.

Luca




 +1



Re: Debian LTS

2016-02-18 Per discussione Alessandro Baggi

Il 18/02/2016 18:46, stefanogo...@gmail.com ha scritto:

Retrofittare i bug è costoso e spero che la comunità spenda risorse nel 
guardare avanti,
non indietro. Apt su debian è avanti a tutti e gli upgrade di versione sono 
generalmente facili.
Credo che 5 anni sia un tempo ultra accettabile anche per i più prudenti.
Se poi si tiene presente che oggi tutto gira virtualizzato, almeno in ambienti 
produttivi,
è a maggior ragione più facile tenersi aggiornati...


Concordo è costoso. Un esempio? Rh dà 10 anni di supporto. Oltre al 
costo annuale della licenza Rh, si può superare i 10 anni di LTS, se 
richiesto e pagando ulteriormente.





Re: Debian LTS

2016-02-18 Per discussione Alessandro Baggi

Il 18/02/2016 18:30, Pol Hallen ha scritto:

Beh 5 anni di supporto vanno più che bene. Con i 10 di Centos si rischia
di rimanere nel medioevo secondo me.


mhmh...
perchè? meglio avere un supporto di sicurezza decennale che essere
obbligato ad aggiornare per forza.

Dopotutto, se usi un server di 10 anni fa e non hai necessità di avere
versioni attuali (magari perchè è un server specifico per qualcosa) un
supporto del genere ti "salva" dai lavoracci di migrazione.

E in ogni caso sei sempre tu a decidere in base alle necessità. Avendo
un supporto "limitato", sei purtroppo obbligato a scendere a compromessi.

Pol


I lavoracci di migrazione prima o poi li si deve affrontare, con 10 anni 
riesci solo a posticipare il processo ma non si riesce a semplificarlo, 
anzi potrebbe peggiorare. Il problema è che se vado a migrare un 
software installato 10 anni fa (e questo significa che quella specifica 
versione di quel software ne avrà almento 12/13) rischi di trovare dei 
cambiamenti giganteschi..che so, database completamente cambiato, 
funzionalità che non esistono più ma a cui gli utenti sono affezionati, 
o altri cambiamenti imponenti. Sono proprio quei grandi cambiamenti che 
creano grandi problemi con la migrazione. Invece migrando ogni 5 anni (a 
4 anni cominci gia a testare la migrazione magari) potresti avere 
qualche fastidio in meno secondo me. Purtroppo capita di dover mettere 
mani su server dimenticati (anche oltre la data di scadenza dell'OS).


Mi ricordo una migrazione di una versione di Moodle modificata da una 
Ubuntu 7.04 fatta nel 2013. Quando provammo ad effettuare il 
riadattamento dei dati del db mediante la gui di moodle scoppiò una 
bomba (ovviamente non sulla macchina di produzione). Ci volle un po di 
tempo, ma alla fine è andata. I dolori sono stati peggiori rispetto da 
versione 1 a 10 che da 1 a 2, da 2 a 3, da 3 a 5 ecc..


Un altro esempio è Owncloud. Installi la 7, poi aggiorni alla 8 e ci si 
riesce senza il minimo sforzo. Non oso immaginare cosa succederebbe 
passare dalla 7 alla 14.


Inoltre, parlando sempre di migrazione, è un processo che si pianifica e 
non credo che la pianificazione cominci un giorno prima la cessazione 
dell'LTS o dopo un mese la cessazione.




Re: Debian LTS

2016-02-18 Per discussione Alessandro Baggi

Il 18/02/2016 18:39, dea ha scritto:



Sbaglio o il mondo RH non supporta (o supportava) l'aggiornamento da versione
precedente a versione nuova ed è (era) obbligatorio reinstallare ?


Ciao Luca,
ad oggi, che io sappia, se esce un update "minor release" si aggiorna 
tranquillamente, ma se devi effettuare l'aggiornamento della major 
release non è possibile come con debian. Ci sono how-to in giro ma non 
sembra una procedura "ufficiale" rh/centos.





Questo potrebbe giustificare il rimanere nel medioevo, magari reinstallare
quando si cambia hardware.




È possibile, non avendo una procedura di aggiornamento tra major 
release, cercano di compensare con i 10 anni.







Re: Debian LTS

2016-02-18 Per discussione Alessandro Baggi

Il 18/02/2016 18:01, Pol Hallen ha scritto:

 > Come sta evolvendo l'esperimento/progetto riguardo al support LTS?

Qualcuno sta utilizzando il supporto LTS?


direi bene :-)

ho 8 server (oldstable) e sono iscritto alla lista.
I membri sono davvero velocissimi a correggere i bug. Mai nessun
problema (fin'ora)...

peccato che a fine mese scade il supporto :-/


Pol




Beh 5 anni di supporto vanno più che bene. Con i 10 di Centos si rischia 
di rimanere nel medioevo secondo me.




Debian LTS

2016-02-18 Per discussione Alessandro Baggi

Salve ragazzi,
da tempo ormai si vedono diverse distro con LTS.
Ubuntu 5 anni, Centos 10 anni e cosi via.
Debian ad oggi ha un supporto di 3 anni ed è stato aggiunto un supporto 
ulteriore di 2 anni attraverso il lavoro del team LTS.


https://wiki.debian.org/it/LTS

Al momento l'unica release sotto LTS è squeeze mentre credo che wheezy e 
jessie il support LTS debba ancora essere avviato.


Come sta evolvendo l'esperimento/progetto riguardo al support LTS?
Qualcuno sta utilizzando il supporto LTS?

Grazie in anticipo.

Alessandro.



Re: [MASSMAIL]Samba 4 AD + share

2016-02-07 Per discussione Alessandro Baggi

Il 07/02/2016 10:34, dea ha scritto:




Rieccomi, dal DC ho verificare la presenza degli utenti (cosa gia
fatta con altre guide) ma il wbinfo riporta gli utenti del dominio
mentre getent non riporta niente. Ovviamente il sistema non
riuscendo a vedere gli utenti del dominio non permette di dare i
permessi per gli share sulla macchina DC.



OK, allora il problema è li (almeno uno è li).

Se getent passwd non ti fa vedere in elenco gli utenti AD con il loro UID-GID
non potrai usarli come utenti Unix di cui potrai specificare i permessi.

1) Spesso questo accade perchè non hai installato la libreria libnss-winbind
2) Hai modificato la configurazione di winbind ?

Luca


Ciao Luca,
sul sistema ho installato la versione di Sernet, che ha tutta una serie 
di pacchetti.


> 2) Hai modificato la configurazione di winbind ?

No, non ho modificato nulla.



Re: [MASSMAIL]Samba 4 AD + share

2016-02-07 Per discussione Alessandro Baggi

Il 07/02/2016 09:47, Alessandro Baggi ha scritto:

Il 06/02/2016 19:18, dea ha scritto:



Guarda, la scorsa settimana ho configurato 3 DC con 3 file server
Debian Samba
4.1 (Debian) in join con il DC e con i permessi estesi attivati.

Non so xfs, ma ext4 usa di default i permessi estesi, che devi poi
specificare
in Samba per la gestione.

Gli utenti gli erediti dal DC con UID e GID specifici (io li uso dal
1 in
su), puoi impostare l'owner dell'utente di rete.

wbinfo -u (devi vedere gli utenti dal file server che ti passa il DC)
getent passwd (devi visualizzarti in coda gli utenti che ti passa il DC
compresi uid e gid).

Luca



Ciao Luca,
grazie per la risposta. Da quello che ho capito la tua configurazione
consiste in un file server che joina un DC gia esistente. Io invece ho
configurato il dc e sullo stesso dc uno share basilare.
È possibile effettuare una configurazione simile o devo avere il dc da
un lato e dall'altro un fileserver che joina il dc?




Rieccomi, dal DC ho verificare la presenza degli utenti (cosa gia fatta 
con altre guide) ma il wbinfo riporta gli utenti del dominio mentre 
getent non riporta niente. Ovviamente il sistema non riuscendo a vedere 
gli utenti del dominio non permette di dare i permessi per gli share 
sulla macchina DC.


Per quanto riguarda xfs, sul wiki di samba non riporta nessuna opzione 
di montaggio per le operazioni canoniche.




Re: [MASSMAIL]Samba 4 AD + share

2016-02-07 Per discussione Alessandro Baggi

Il 07/02/2016 10:48, Alessandro Baggi ha scritto:

Il 07/02/2016 10:34, dea ha scritto:




Rieccomi, dal DC ho verificare la presenza degli utenti (cosa gia
fatta con altre guide) ma il wbinfo riporta gli utenti del dominio
mentre getent non riporta niente. Ovviamente il sistema non
riuscendo a vedere gli utenti del dominio non permette di dare i
permessi per gli share sulla macchina DC.



OK, allora il problema è li (almeno uno è li).

Se getent passwd non ti fa vedere in elenco gli utenti AD con il loro
UID-GID
non potrai usarli come utenti Unix di cui potrai specificare i permessi.

1) Spesso questo accade perchè non hai installato la libreria
libnss-winbind
2) Hai modificato la configurazione di winbind ?

Luca


Ciao Luca,
sul sistema ho installato la versione di Sernet, che ha tutta una serie
di pacchetti.

 > 2) Hai modificato la configurazione di winbind ?

No, non ho modificato nulla.


Sempre riguardo a winbind, usando sernet ho dimenticato di avviare il 
winbind di sernet. Avviandolo però non ottengo nulla in quanto mi dice 
di passare nella modalità "classic"




Re: [MASSMAIL]Samba 4 AD + share

2016-02-07 Per discussione Alessandro Baggi

Il 06/02/2016 19:18, dea ha scritto:



Guarda, la scorsa settimana ho configurato 3 DC con 3 file server Debian Samba
4.1 (Debian) in join con il DC e con i permessi estesi attivati.

Non so xfs, ma ext4 usa di default i permessi estesi, che devi poi specificare
in Samba per la gestione.

Gli utenti gli erediti dal DC con UID e GID specifici (io li uso dal 1 in
su), puoi impostare l'owner dell'utente di rete.

wbinfo -u (devi vedere gli utenti dal file server che ti passa il DC)
getent passwd (devi visualizzarti in coda gli utenti che ti passa il DC
compresi uid e gid).

Luca



Ciao Luca,
grazie per la risposta. Da quello che ho capito la tua configurazione 
consiste in un file server che joina un DC gia esistente. Io invece ho 
configurato il dc e sullo stesso dc uno share basilare.
È possibile effettuare una configurazione simile o devo avere il dc da 
un lato e dall'altro un fileserver che joina il dc?





Re: [MASSMAIL]Samba 4 AD + share

2016-02-07 Per discussione Alessandro Baggi

Il 07/02/2016 11:33, dea ha scritto:



Per curiosità, utilizzi la versione rilasciata da debian o la sernet?


Tutto Debian.

Prima di fare ulteriori modifiche devi ottenere l'elenco deli utenti AD con
getent passwd, dove vedi relativo UID e GID. Se non visualizzi quello, è
inutile cercare problemi altrove.



Ok, un'ultima cosa, prima hai detto che preferisci evitare la AIO tra AD 
e share. Potrei sapere la motivazione della tua scelta?


Ulteriormente girando sul wiki di samba ho notato che riporta due howto. 
Il primo fa riferimento a come configurare un AD server, dove non parla 
di utenti, winbind ecc, e il secondo riporta come configurare samba come 
membro del dominio con le relative configurazioni winbind, nsswitch. 
(sul wiki fanno riferimento a CentOS 7)





Re: [MASSMAIL]Samba 4 AD + share

2016-02-07 Per discussione Alessandro Baggi

Il 07/02/2016 11:17, dea ha scritto:





Ciao Luca,
sul sistema ho installato la versione di Sernet, che ha tutta una
serie di pacchetti.

  > 2) Hai modificato la configurazione di winbind ?

No, non ho modificato nulla.




Non hai fatto le cose in modalità tradizionale :)


Ammetto di essere in uno stato confusionale.


Se non modifichi la configurazione di nsswitch e se non hai installata la
libreria che ti ho detto, il comportamento è quello che hai tu.

nsswitch.conf deve essere modificato così:

passwd: files winbind
shadow: files winbind
group: files winbind

getent passwd deve darti l'elenco degli users locali più quelli AD con il
relativo UID-GID

Luca



Per quanto riguarda la configurazione consigliata, avendo preso spunto 
dalla tua ultima email, ho configurato la nsswitch con files winbind

ma purtroppo non riesco ancora ad avere gli effetti desiderati.

La libnss è installata sul sistema.

Per curiosità, utilizzi la versione rilasciata da debian o la sernet?



Re: [MASSMAIL]Samba 4 AD + share

2016-02-07 Per discussione Alessandro Baggi

Il 07/02/2016 11:52, dea ha scritto:



Ok, un'ultima cosa, prima hai detto che preferisci evitare la AIO
tra AD e share. Potrei sapere la motivazione della tua scelta?


Perchè ho bisogno di avere più AD distinti per affidabilità.
Perchè gestisco in modo diverso i backup.
Perchè se una macchina mi da problemi l'altra è indipendente.
Perchè essendo VM se devo fare un rollback di un DC non tocco il file server.

Io non ho miscelato DC e file server, ma penso non sia affatto un problema
farlo, se vuoi.

Luca



Al momento non necessito di un bdc e come configurazione rimango 
sull'"AIO". L'unica cosa che non capisco è come mai tra gli utenti 
locali, non riesco a vedere gli utenti del dominio nonostante la 
configurazione di winbind tra nsswitch.conf e sopratutto non riesco ad 
immaginare come risolvere il problema.




Samba 4 AD + share

2016-02-06 Per discussione Alessandro Baggi

Salve ragazzi,
premetto che sull'argomento non solo molto serrato ma veniamo al dunque.
Ho un samba 4 configurato come AD server. Inoltre ho configurato uno 
share basilare.
La macchina win riesce a joinare il dominio, riesce a connettersi allo 
share ma non riesce ad effettuare nessuna operazione sullo share per via 
dei permessi.

Impostando i permessi sulla dir a 777, funziona.
Su molte guide ho visto che si parla del gruppo 'Domain Users' e che 
assegnano con chmod e chgrp i permessi sullo share.

È come se il sistema non riuscisse a vedere gli user/group di samba.

Ho provato a cercare in rete qualcosa riguardo all'assegnazione dei 
permessi delle directory ma nulla.


Il filesystem è xfs.

Cosa sto sbagliando?

Grazie in anticipo.



  1   2   3   >