[rlug] Arhitectura arm64

2023-04-18 Fir de Conversatie Catalin Bucur

Salut,


Avand niste servere web+mail care se incadreaza in limite omenesti, 
Debian based, fara aplicatii custom instalate, as vrea sa le migrez 
(datorita pretului de hosting, la performante nu cred ca obtin ceva in 
plus) de pe arhitectura x86_64 pe arm64.


Ceva pareri pro/contra, lucruri la care trebuie sa am grija?

Multumesc.


Numai bine,
--
Catalin Bucur

___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug_lists.lug.ro



Re: [rlug] debian news

2023-02-07 Fir de Conversatie Catalin Bucur

On 07/02/2023 12:22, Alex 'CAVE' Cernat wrote:
si acum formuland intrebarea: avem debianisti sa recomande vreo sursa 
(rss, site, mailing list, orice) unde sa gasesc si sa fiu anuntat de 
schimbarile "majore" (da, stiu, e un termen subiectiv), plus idei despre 
"planuri de viitor"? ca altfel, dupa cum ziceam, nu e deloc distractiv 
sa "aduni firmituri"


Salut, La multi ani !

Nu am mare vechime in Debian, nu pot sa dau prea multe info, dar parca 
si mie mi se pare ca Debian s-a mai "muiat" in comparatie cu Ubuntu.


O discutie cu ceva legatura cu subiectul: vad ca multe servere incep sa 
fie "acaparate" din ce in ce mai mult de Ubuntu (in detrimentul Debian), 
o solutie pe care am ocolit-o cu incapatanare, in primul rand de frica a 
ce s-a intamplat cu CentOS :-)
Mai exista vreo garantie in momentul de fata ca daca te bazezi pe 
Debian/Ubuntu/YouNameIt ai sanse mai mari sa nu dispara in viitorul 
apropiat?


Numai bine,
Catalin Bucur

___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug_lists.lug.ro



Re: [rlug] Containers - to be or not to be

2020-05-24 Fir de Conversatie Catalin Bucur

On 24/05/2020 10:42, Mihai Badici wrote:


Eu unul pentru produse stabile ca nginx sau mysql as merge tot pe 
pachete

din distributie. Avantajul containerelor incepe sa apara cand vrei ceva
bleeding edge sau care nu are pachet in distro (sau vrei simultan 
versiuni

diferite ale aceleiasi aplicatii). Also, uita de idei conform carora
containerele aduc in sine un avantaj de performanta (as zice chiar din
contra dar YMMV).

Eu am acum pe mana o infrastructura unde exista si kubernetes si masini
separate standalone. Au fost surprinzator de multe situatii unde dupa ce
ne-am gandit bine am decis ca scoatem unele aplicatii de pe k8s si le 
punem
direct pe OS. Exista si situatia inversa, aplicatii pe care voiam sa 
le tin

separat si mi-am dat seama ca sunt maintained in principal ca containere
asa ca e cu mai putina bataie de cap. Ba chiar zilele astea ma uit sa 
punc

docker pe un server extern ca sa pot pune acolo cateva aplicatii care
prefera sa fie containere.

Of course, daca vrei sa pui docker "ca sa-ti faci mana", go ahead, dar
nu-ti vinde ideea ca e mai bine asa :)

Aici subscriu. Evident că docker introduce propriul overhead. Ceea ce e 
vândut că avantaj de performanţă poate funcţiona dacă ai flexibilitatea 
să te întinzi pe mai multe servere la nevoie. Totuşi de cele mai multe 
ori flexibilitatea asta e aparentă ( ok, ridici mai multe containere 
care servesc conţinut static, dar nu de acolo vine load-ul în principal) 
. Până la urmă la aplicaţiile web în genere botleneck-ul e tot între php 
şi baza de date (sau ce platforme or mai fi în zilele noastre),  iar ca 
să scapi de el nu poţi pune pur şi simplu "încă un server", trebuie să 
ai infrastructura adecvată, să poţi să replici baza de date ca să o poţi 
accesa independent de pe fiecare container etc.    Dimpotrivă, vorbind 
de performanţă, mai degrabă poţi invers, să îl limitezi pe un client la 
anumiţi parametri, ceea ce poate fi util ca să nu mănânce toate 
resursele. Ceea ce e de reţinut e separarea ( dacă ai un site compromis 
în container îl izolezi uşor şi nici nu e foarte simplu să ajungă în 
celelalte containere) . Şi faptul că poţi rula versiuni diferite de 
servicii, aplicaţii destul de uşor - poţi să o faci şi fără docker dar e 
mai mult de muncă - e un avantaj destul de bun. Asta zisă de Petre cu 
faptul că ai aplicaţii gata împachetate e iar un avantaj major ( acum 
trec în "moşulică mode" şi zic că aplicaţiile din zilele noastre nu prea 
merg  decât în mediul în care au fost create, din motive de 
"programatorii din zilele noastre". Eu am cam cedat să încerc să le 
instalez altfel, de fiecare dată e un pachet incompatibil orice ai face, 
şi eu am instalat chestii pe slackware, nu mă descurajez uşor, dar spre 
deosebire de acele vremuri, acum pachetele astea sunt aşa de obscure că 
nu poţi face nimic pentru ele  :) ) .



Multumesc pentru confirmari, si eu sunt de acord ca nu poti aduce niciun 
plus de performanta avand un server fizic si mai multe containere care 
sa imparta acelasi scop, dimpotriva.
Inclinam spre LXC-uri in ideea securitatii, sa separ site-urile intre 
ele, sau pentru viitor pentru scalabilitate, dar daca pun pe primul loc 
perfomanta mai bine ma bazez pe OS-ul instalat pe serverul fizic si 
refac configuratia cand va fi cazul.


Numai bine
--
Catalin Bucur

___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug_lists.lug.ro


[rlug] Containers - to be or not to be

2020-05-23 Fir de Conversatie Catalin Bucur

Salutare,


Am un server (fizic) pe care va rula un site destul de accesat ce va 
consuma resurse maricele, dar nimic exagerat, poate ceva mai mult pe 
perioade scurte.


Din experienta voastra merita "efortul" sa-l configurez pe baza de 
containere, de exemplu unul pentru nginx, altul pentru mysql? Ma gandesc 
ca poate mi-ar aduce avantaje in viitor in cazul in care mai apare un 
site de aceeasi anvergura pe acelasi server, sau poate daca intru in 
zona fail-over/load-balancing.


Daca raspunsul este da, avand in vedere ca nu e "marea clusterizare" sau 
cine-stie-ce configuratie, ce ar fi mai ok sa aleg? LXC sau Docker?
Pentru orchestration sa ma incurc cu Kubernetes sau e un monstru pentru 
ceea ce vreau sa fac?


Mersi de idei.


Numai bine,
--
Catalin Bucur

___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug_lists.lug.ro


Re: [rlug] Redirectare spam-uri catre gmail

2019-10-26 Fir de Conversatie Catalin Bucur

On 25/10/2019 23:42, Bogdan-Stefan Rotariu wrote:

Salut,

Aceeasi problema si aici, mail-urile de la tine nu au fost acceptate fiindca 
contin informatii cu domenii blocate prin spamhaus si prin alte curti mai mici 
sau mai mari.

Nu am mai facut de ceva vreme bricolaje prin postfix, dar poti face drop-ul cu 
header_checks:

/etc/postfix/header_checks:
/^X-Spam-Level: \*{5,}.*/ DISCARD spam

si header_checks = regexp:/etc/postfix/header_checks in main.cf

Asta ai incercat sa faci si nu iti iese?


Merg filtrele legate de *_checks, dar - cum spuneam anterior - ideal ar 
fi sa nu blochez tot ce inseamna X-Spam-Score>5 sau X-Spam-Flag:YES. 
Pentru ca sunt si mailuri de genul asta care intra catre conturile 
userilor si nu sunt forwardate mai departe, astea ar trebui sa nu fie 
blocate. Apoi mai sunt mailuri pe care le trimit userii si poate sunt 
marcate gresit ca spam, iarasi o sa fie blocate si astea.


Un filtru util ar fi ca la una din conditiile de mai sus sa fie cumulata 
cu faptul daca mesajul e forwardat, ceea ce nu cred ca posibil fara sa 
complic situatia inutil.


Mersi,
Catalin Bucur

___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug_lists.lug.ro


[rlug] Redirectare spam-uri catre gmail

2019-10-25 Fir de Conversatie Catalin Bucur

Salutare,


Am urmatoarele alias-uri in postfix:

off...@alabala.ro e redirectat catre gma...@gmail.com
off...@alfabeta.ro e redirectat catre gma...@gmail.com
s.a.m.d.

Pe conturile de office@ vin spam-uri de diverse forme si marimi, care - 
normal - sunt redirectate catre conturile alea de gmail. Gmail le 
blocheaza inainte sa le primeasca, probabil au servere in fata care fac 
verificarea antispam inainte sa le accepte. Ca urmare raman in coada mea 
de mesaje si se tot aduna:



D0BB8AC910826919 Thu Oct 17 11:46:49  odbi...@0kazje.pl
(host alt1.gmail-smtp-in.l.google.com[209.85.233.26] said: 421-4.7.0 
[116.203.240.40  15] Our system has detected that this message is 
421-4.7.0 suspicious due to the nature of the content and/or the links 
within. 421-4.7.0 To best protect our users from spam, the message has 
been blocked. 421-4.7.0 Please visit 421 4.7.0 
https://support.google.com/mail/answer/188131 for more information. 
c30si5315298lfp.146 - gsmtp (in reply to end of DATA command))

 gma...@gmail.com

D9D6DAC93BC 6557 Sun Oct 13 22:04:04  flyingarealpl...@sciencen.xyz
(host alt1.gmail-smtp-in.l.google.com[209.85.233.26] said: 421-4.7.0 
[116.203.240.40  15] Our system has detected that this message is 
421-4.7.0 suspicious due to the nature of the content and/or the links 
within. 421-4.7.0 To best protect our users from spam, the message has 
been blocked. 421-4.7.0 Please visit 421 4.7.0 
https://support.google.com/mail/answer/188131 for more information. 
8si3046115lfj.109 - gsmtp (in reply to end of DATA command))

 gma...@gmail.com


Mesajele trec prin amavisd, sunt verificate de spamassassin si marcate 
ca spam, dar nu pot sa le fac DROP inainte de FORWARD in functie de 
marcajul antispam din headere.
Ideea e ca as vrea ca mesajele sa fie livrate in conturile locate, chiar 
daca sunt marcate ca spam, doar cele forward-ate sa fie blocate.


Am vreo varianta simpla de rezolvare in afara un script care sa verifice 
regulat coada si sa stearga mizeriile astea?



Multumesc,
--
Catalin Bucur

___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug_lists.lug.ro


Re: [rlug] OpenVPN + iproute2

2017-10-03 Fir de Conversatie Catalin Bucur
On 03/10/2017 10:35, Iulian Murgulet wrote:
> 
> Ciudat. Asta pt ca si eu folosesc ovpn, cu push-route de pe server pe
> client, si merge.
> Mai nou experimentez cu ospf care infinge/scoate route dupa cum tunelul
> ovpn este up/down si mi se pare mai OK.
> Dar fiecare varianta are dus si intors, nu-i asa ?

Probabil nu folosesti Source Based Routing ca sa trimiti doar un anumit 
trafic din "spatele" serverului prin client mai departe. Rutare "banala" 
merge fara probleme.

--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] OpenVPN + iproute2

2017-09-27 Fir de Conversatie Catalin Bucur
Cu ajutorul colegului Serafin Rusu care mi-a dat o idee am gasit o 
solutie. Nu prea am rezolvat, mai degraba am ocolit problema pentru care 
nu gasesc in continuare explicatie.
Rezolvarea a fost sa inversez rolurile capetelor de tunel 
(client-server). Astfel, specificand in ccd-ul aferent clientului prin 
iroute ca exista o clasa 172.24.100.0/24 in "spatele" GW-ului, a reusit 
si openvpn-ul sa inteleaga ce vreau si sa ruteze pachetele.

Probabil ca "iroute" pe client e mult mai important pentru creierul 
openvpn-ului decat "push route" pe server (bug sau feature).

--
Catalin Bucur


On 25/09/2017 17:05, Catalin Bucur wrote:
> Salutare,
> 
> 
> Intr-un mediu virtual de test am 5 VM-uri cu CentOS:
> P1, P2, P3 - provideri de net
> GW - configurat cu 3 tabele de rutare iproute2
> HOST - in "spatele" GW-ului, incerc sa-l rutez prin P3
> am configurat un policy based routing relativ basic. Sa zicem ca am 2
> provideri de net P1 si P2 la care am configurat fail-over si un al
> treilea "provider" P3. Intre P3 si GW e configurat un vpn (OpenVPN) prin
> care vreau sa trimit traficul de la un anumit ip, indiferent daca P1 sau
> P2 sunt alive.
> 
> Chestiunea cu fail-over intre P1 si P2 e rezolvata, durerea intervine la
> rutarea traficului prin P3. Dintr-un anumit motiv pentru care nu gasesc
> inca explicatie, source based routing-ul functioneaza (pachetele sunt
> trimise prin vpn pe GW), dar nu ajung in celelalt capat (P3). Daca in
> loc de OpenVPN folosesc un tunel IPIP problema e rezolvata.
> 
> Incerc sa dau ceva detalii fara sa creez un cearsaf, mai pot reveni cu
> suplimentari daca e cazul.
> 
> 172.24.100.254 e HOST-ul pe care vreau sa-l rutez prin vpn
> 10.13.0.2 e GW-ul pe care e configurat iproute2
> 10.13.0.1 e P3
> 10.111.0.0/24 e clasa de vpn intre GW si P3 (10.111.0.4 e pe P3)
> 
> ==  CONFIG OpenVPN Server (GW) ==
> port 1194
> proto udp
> dev tun
> ca keys/ca.crt
> cert keys/server.crt
> key keys/server.key  # This file should be kept secret
> dh keys/dh2048.pem
> topology subnet
> server 10.111.0.0 255.255.255.0
> ifconfig-pool-persist ipp.txt
> push "route 172.24.100.0 255.255.255.0"
> keepalive 10 120
> tls-auth keys/ta.key 0 # This file is secret
> cipher AES-256-CBC
> persist-key
> persist-tun
> status openvpn-status.log
> log-append  /var/log/openvpn.log
> verb 3
> ==
> 
> ==  CONFIG OpenVPN Client (P3)  ==
> client
> dev tun
> proto udp
> remote 10.13.0.2 1194
> resolv-retry infinite
> nobind
> persist-key
> persist-tun
> ca client/ca.crt
> cert client/client.crt
> key client/client.key
> remote-cert-tls server
> tls-auth client/ta.key 1
> cipher AES-256-CBC
> verb 3
> ==
> 
> Legat de iproute2 eu zic ca e totul functional, asa cum vad si in rute:
> 
> [root@IPR2-GW ~]# ip route get to 8.8.8.8 from 172.24.100.254 iif eth3
> 8.8.8.8 from 172.24.100.254 via 10.111.0.4 dev tun0
>   cache  iif *
> 
> Dar nu vad niciun pachet venind dinspre GW catre interfata de vpn de pe P3.
> Folosind un tunel IPIP simplu cu aceleasi ip-uri, interfete etc:
> 
> Pe GW:
> ip tunnel add tun0 mode ipip remote 10.13.0.1 local 10.13.0.2
> ip link set tun0 up
> ip addr add 10.111.0.1/24 dev tun0
> 
> Pe P3:
> ip tunnel add tun0 mode ipip remote 10.13.0.2 local 10.13.0.1
> ip link set tun0 up
> ip addr add 10.111.0.4/24 dev tun0
> 
> totul functioneaza foarte bine, vad pachetele pe interfata de tunneling
> de pe P3, mai departe pot face ce vreau cu traficul respectiv.
> 
> 
> Configuratia de OpenVPN e simpla/clasica, nu-mi dau seama ce vrea de la
> mine ca sa nu imi blocheze acel trafic.
> Daca aveti idei va rog sa mi le impartasiti, eu m-am saturat de facut
> tot felul de teste :-)
> 
> 
> Mersi,
> 
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


[rlug] OpenVPN + iproute2

2017-09-25 Fir de Conversatie Catalin Bucur
Salutare,


Intr-un mediu virtual de test am 5 VM-uri cu CentOS:
   P1, P2, P3 - provideri de net
   GW - configurat cu 3 tabele de rutare iproute2
   HOST - in "spatele" GW-ului, incerc sa-l rutez prin P3
am configurat un policy based routing relativ basic. Sa zicem ca am 2 
provideri de net P1 si P2 la care am configurat fail-over si un al 
treilea "provider" P3. Intre P3 si GW e configurat un vpn (OpenVPN) prin 
care vreau sa trimit traficul de la un anumit ip, indiferent daca P1 sau 
P2 sunt alive.

Chestiunea cu fail-over intre P1 si P2 e rezolvata, durerea intervine la 
rutarea traficului prin P3. Dintr-un anumit motiv pentru care nu gasesc 
inca explicatie, source based routing-ul functioneaza (pachetele sunt 
trimise prin vpn pe GW), dar nu ajung in celelalt capat (P3). Daca in 
loc de OpenVPN folosesc un tunel IPIP problema e rezolvata.

Incerc sa dau ceva detalii fara sa creez un cearsaf, mai pot reveni cu 
suplimentari daca e cazul.

172.24.100.254 e HOST-ul pe care vreau sa-l rutez prin vpn
10.13.0.2 e GW-ul pe care e configurat iproute2
10.13.0.1 e P3
10.111.0.0/24 e clasa de vpn intre GW si P3 (10.111.0.4 e pe P3)

==  CONFIG OpenVPN Server (GW) ==
port 1194
proto udp
dev tun
ca keys/ca.crt
cert keys/server.crt
key keys/server.key  # This file should be kept secret
dh keys/dh2048.pem
topology subnet
server 10.111.0.0 255.255.255.0
ifconfig-pool-persist ipp.txt
push "route 172.24.100.0 255.255.255.0"
keepalive 10 120
tls-auth keys/ta.key 0 # This file is secret
cipher AES-256-CBC
persist-key
persist-tun
status openvpn-status.log
log-append  /var/log/openvpn.log
verb 3
==

==  CONFIG OpenVPN Client (P3)  ==
client
dev tun
proto udp
remote 10.13.0.2 1194
resolv-retry infinite
nobind
persist-key
persist-tun
ca client/ca.crt
cert client/client.crt
key client/client.key
remote-cert-tls server
tls-auth client/ta.key 1
cipher AES-256-CBC
verb 3
==

Legat de iproute2 eu zic ca e totul functional, asa cum vad si in rute:

[root@IPR2-GW ~]# ip route get to 8.8.8.8 from 172.24.100.254 iif eth3
8.8.8.8 from 172.24.100.254 via 10.111.0.4 dev tun0
 cache  iif *

Dar nu vad niciun pachet venind dinspre GW catre interfata de vpn de pe P3.
Folosind un tunel IPIP simplu cu aceleasi ip-uri, interfete etc:

Pe GW:
ip tunnel add tun0 mode ipip remote 10.13.0.1 local 10.13.0.2
ip link set tun0 up
ip addr add 10.111.0.1/24 dev tun0

Pe P3:
ip tunnel add tun0 mode ipip remote 10.13.0.2 local 10.13.0.1
ip link set tun0 up
ip addr add 10.111.0.4/24 dev tun0

totul functioneaza foarte bine, vad pachetele pe interfata de tunneling 
de pe P3, mai departe pot face ce vreau cu traficul respectiv.


Configuratia de OpenVPN e simpla/clasica, nu-mi dau seama ce vrea de la 
mine ca sa nu imi blocheze acel trafic.
Daca aveti idei va rog sa mi le impartasiti, eu m-am saturat de facut 
tot felul de teste :-)


Mersi,
-- 
Catalin Bucur

___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] procmail rules

2017-08-29 Fir de Conversatie Catalin Bucur
Eu am facut un "trim" la linia aia cu tr ca sa ma apropii exact de ce 
voiam sa intreb :-)
De fapt, in acea linie verific daca exista foderul respectiv (case 
insensitive) si daca da vreau sa scriu in el mesajul. Daca nu, creez 
folder si scriu in el. Din cauza asta variabila MATCH nu prea ma ajuta 
dupa ce ajunge in al doilea filtru.

E bash 4, dar am rezolvat-o altfel:

:0:
* ^Subject: alabala.*
| VAR=`echo $MATCH | tr [:lower:] [:upper:]`; mkdir -p $VAR ; \
cat > $VAR/$VAR-`date +%s`.eml

Nu mi-am dat seama ca pot face 'cat' la mesaj la final si acolo il pot 
directiona cum vreau.

Chestia cu variabila insa cred ca nu se prea poate, am tot cautat pe net 
si nu gasesc nimic.


Multumesc,

Catalin Bucur


On 29/08/2017 13:38, Petru Rațiu wrote:
> Auzi, da' nu mai bine ii zici tu lui procmail sa fie sigur ca are ca shell
> un bash 4 sau mai nou si sa faci ceva gen:
> 
> :0
>| ${MATCH^^}/${MATCH^^}-`date`-bla
> 
> ?
> 
> (Disclaimer, e pe super netestatelea, da' echo ${VAR^^} face cam ce face
> tr-ul tau de acolo).
> 
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


[rlug] procmail rules

2017-08-29 Fir de Conversatie Catalin Bucur
Salutare,


Incerc sa rulez ca user obisnuit o regula de procmail, astfel incat 
pentru fiecare mesaj nou sa creez un folder nou si in el sa salvez mesajul.

In concluzie scriptul arata cam asa:

:0c:
   * ^Subject: alabala.*
   | VAR=`echo $MATCH | tr [:lower:] [:upper:]`; mkdir -p $VAR

:0
   $VAR/$VAR-`date +%s`.eml

Doar ca variabila VAR nu vrea sa fie globala in niciun fel am incercat. 
Probabil ruleaza intr-un environment prima regula, apoi in momentul in 
care vrea sa salveze mesajul totul se petrece intr-un alt environment, 
asa ca VAR este blank.

Cum il pot "pacali" sa inteleaga ce vreau?


Mersi,
-- 
Catalin Bucur

___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] OpenVPN + iproute2

2017-02-14 Fir de Conversatie Catalin Bucur
On 14/02/2017 00:32, Catalin Muresan wrote:
> --multihome
> Configure a multi-homed UDP server. This option can be used when OpenVPN
> has been configured to listen on all interfaces, and will attempt to bind
> client sessions to the interface on which packets are being received, so
> that outgoing packets will be sent out of the same interface. Note that
> this option is only relevant for UDP servers and currently is only
> implemented on Linux.
> Note: clients connecting to a --multihome server should always use the
> --nobind option.

Mersi, merge.
Cam alambicate optiunile, dar e bine ca exista pentru toate gusturile 
:-)  Cred ca e lucrul cel mai important pe care-l are openvpn-ul asta.

Numai bine,
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] OpenVPN + iproute2

2017-02-13 Fir de Conversatie Catalin Bucur
On 13/02/2017 19:28, Catalin(ux) M. BOIE wrote:
> Un tcpdump pe ambele interfete, ar putea sa-ti arate chestii interesante:
> conexiunea din exterior vine pe un IP, dar pleaca cu o sursa incorecta.
>
> Astept cu nerabdare exact configuratia pe care ai facut-o si trace-urile
> de tcpdump.


N-am vrut sa insir vreun cearsaf pe aici, dar se pare ca n-am incotro 
:-) Eu am facut deja cam toate lucrurile pe care le-ai spus. O sa incerc 
sa le expun si aici si sa minimizez cat pot.

Am "float" in configuratia de openvpn, altfel nu mergea in varianta cu 
default route setat.

Configuratia de iproute2:

IF0="enp4s0"
IF1="enp0s25"
IF2="enp4s2"
IP0="172.24.100.1"
IP1=“1.1.1.1”
IP2=“2.2.2.2”
P1=“1.1.1.254”
P2=“2.2.2.254”
P0_NET="172.24.100.0/24"
P1_NET=“1.1.1.0/24"
P2_NET=“2.2.2.0/24”

ip route flush table T1
ip route flush table T2
ip rule del from $IP1 table T1
ip rule del from $IP2 table T2

ip route add $P1_NET dev $IF1 src $IP1 table T1
ip route add default via $P1 table T1
ip route add $P2_NET dev $IF2 src $IP2 table T2
ip route add default via $P2 table T2

ip rule add from $IP1 table T1
ip rule add from $IP2 table T2

ip route add $P0_NET dev $IF0 table T1
ip route add $P2_NET dev $IF2 table T1
ip route add 127.0.0.0/8 dev lo table T1
ip route add $P0_NET0 dev $IF0 table T2
ip route add $P1_NET dev $IF1 table T2
ip route add 127.0.0.0/8 dev lo table T2


Cred ca e destul de clar, IF0 e interfata interna, celelalte 2 catre cei 
2 provideri.

Cu ruta default setata prin P2 ma conectez la openvpn prin P1:
   Mon Feb 13 18:45:20 2017 UDPv4 link local: [undef]
   Mon Feb 13 18:45:20 2017 UDPv4 link remote: [AF_INET]1.1.1.1:1194
   Mon Feb 13 18:45:20 2017 TLS: Initial packet from 
[AF_INET]2.2.2.2:1194, sid=d2a8840d f02fe16c
Dupa cum vezi asta spune si in loguri, n-are rost sa mai dau detalii din 
tcpdump, intra pachetele pe o interfata, se intorc pe cealalta (default 
route) - cu 'float' setat.

Acum sterg ruta default si ma conectez in acelasi mod la openvpn prin P1 
(de la ip-ul public 9.9.9.9):

# tcpdump -i enp0s25 -nn port 1194
23:41:58.709140 IP 9.9.9.9.37307 > 1.1.1.1.1194: UDP, length 42
23:42:00.892050 IP 9.9.9.9.37307 > 1.1.1.1.1194: UDP, length 42
23:42:04.166071 IP 9.9.9.9.37307 > 1.1.1.1.1194: UDP, length 42
23:42:12.880868 IP 9.9.9.9.37307 > 1.1.1.1.1194: UDP, length 42
23:42:28.337031 IP 9.9.9.9.37307 > 1.1.1.1.1194: UDP, length 42
23:43:00.184881 IP 9.9.9.9.40322 > 1.1.1.1.1194: UDP, length 42
23:43:02.307497 IP 9.9.9.9.40322 > 1.1.1.1.1194: UDP, length 42
23:43:06.552837 IP 9.9.9.9.40322 > 1.1.1.1.1194: UDP, length 42
23:43:15.045645 IP 9.9.9.9.40322 > 1.1.1.1.1194: UDP, length 42
23:43:31.338430 IP 9.9.9.9.40322 > 1.1.1.1.1194: UDP, length 42
[etc]

Ascultand si pe celelalte interfete - chiar si pe cea interna :-)) - pe 
portul 1194 nu apare niciun pachet in toata perioada asta.

In schimb daca de exemplu fac un test pe portul 25 (tot fara default route):
# telnet 1.1.1.1 25
Trying 1.1.1.1...
Connected to 1.1.1.1.
Escape character is '^]'.
220 mail.localhost.localdomain ESMTP Postfix

# tcpdump -i enp0s25 -nn port 25
00:02:27.365936 IP 9.9.9.9.35082 > 1.1.1.1.25: Flags [S], seq 
3989728965, win 29200, options [mss 1460,sackOK,TS val 3423415060 ecr 
0,nop,wscale 7], length 0
00:02:27.365959 IP 1.1.1.1.25 > 9.9.9.9.35082: Flags [S.], seq 
794810362, ack 3989728966, win 28960, options [mss 1460,sackOK,TS val 
92128016 ecr 3423415060,nop,wscale 7], length 0
00:02:27.409897 IP 9.9.9.9.35082 > 1.1.1.1.25: Flags [.], ack 1, win 
229, options [nop,nop,TS val 3423415104 ecr 92128016], length 0
00:02:27.434864 IP 1.1.1.1.25 > 9.9.9.9.35082: Flags [P.], seq 1:37, ack 
1, win 227, options [nop,nop,TS val 92128085 ecr 3423415104], length 36
00:02:27.479003 IP 9.9.9.9.35082 > 1.1.1.1.25: Flags [.], ack 37, win 
229, options [nop,nop,TS val 3423415173 ecr 92128085], length 0


Sper sa nu fi scurtat prea mult povestea asta, mai dau detalii daca mai 
trebuie. Rezolvare alternativa probabil ca este, de exemplu sa pun un 
script care sa schimbe default route pe celelalt provider cand pica cel 
initial. In cazul asta ar merge openvpn tot timpul. Dar daca teoria 
spune ca ar trebui sa mearga fara default route (si asa poate ar fi si 
logic) atunci ce e in neregula?


Mersi de ajutor,
Catalin Bucur

___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


[rlug] OpenVPN + iproute2

2017-02-13 Fir de Conversatie Catalin Bucur
Salutare,


Incerc sa configurez un gen de fail-over intre 2 provideri folosind 
openvpn. Mai concret:
  - pe serverul unde am 2 provideri am configurat 2 tabele de rutare, la 
pachetele care vin pe o interfata le raspund prin aceeasi interfata si 
invers
  - serviciul de openvpn e configurat pe acelasi server sa asculte pe 
toate interfetele
  - exista ruta default setata catre unul din provideri (P1)

Daca incerc sa ma conectez cu un client de openvpn din exterior prin P1 
totul se desfasoara normal. Daca ma conectez prin provider P2, pachetele 
ajung prin interfata respectiva si pleaca prin ruta default inapoi (prin 
cealalta interfata).
Daca sterg ruta default, pachetele vin, dar de raspuns nu mai raspunde 
serverul pe nicio interfata. Fenomenul are loc doar pe portul de UDP 
(1194) pe care ruleaza openvpn. Orice altceva incerc sa testez (ssh, 
telnet s.a.) catre oricare din interfetele serverului imi raspunde 
corect pe aceeasi interfata de unde vin pachetele si serviciile sunt 
functionale. Openvpn-ul insa nu vrea sa conlucreze.

Mon Feb 13 18:44:16 2017 SIGUSR1[soft,tls-error] received, process 
restarting
Mon Feb 13 18:44:16 2017 Restart pause, 2 second(s)
Mon Feb 13 18:44:18 2017 Socket Buffers: R=[212992->212992] 
S=[212992->212992]
Mon Feb 13 18:44:18 2017 UDPv4 link local: [undef]
Mon Feb 13 18:44:18 2017 UDPv4 link remote: [AF_INET]5.100.100.100:1194
Mon Feb 13 18:45:18 2017 TLS Error: TLS key negotiation failed to occur 
within 60 seconds (check your network connectivity)
Mon Feb 13 18:45:18 2017 TLS Error: TLS handshake failed

Ce imi scapa?


Multumesc,
-- 
Catalin Bucur

___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Postfix master.cf override main.cf

2016-06-08 Fir de Conversatie Catalin Bucur
On 08/06/16 16:24, Catalin Bucur wrote:
> submission  inet  n -   n   -   -   smtpd
> -o syslog_name=postfix/submission
> -o smtpd_etrn_restrictions=reject
> -o smtpd_enforce_tls=yes
> -o smtpd_tls_auth_only=yes
> -o smtpd_sasl_auth_enable=yes
> -o smtpd_use_tls=yes
> -o receive_override_options=no_address_mappings
> -o
> smtpd_client_restrictions=permit_mynetworks,permit_sasl_authenticated,reject
>
>
>
> Jun  8 16:20:21 mail postfix/submission/smtpd[3746]: connect from
> unknown[213.233.85.145]
> Jun  8 16:20:21 mail postfix/submission/smtpd[3746]: NOQUEUE: reject:
> CONNECT from unknown[213.233.85.145]: 554 5.7.1
> <unknown[213.233.85.145]>: Client host rejected: Access denied; proto=SMTP
>
>
> Doar daca scot linia cu smtpd_client_restrictions din master.cf imi
> functioneaza trimiterea.


Am gasit raspunsul pana la urma:


"> smtpd_delay_reject = no

http://www.postfix.org/postconf.5.html#smtpd_delay_reject

Here, most likely. Ran into something very similar last week, and this 
was the cause.

I suspect that if you were to increase logging detail, you'd find that 
'permit_sasl_authenticated' evaluates to zero during the client 
restrictions stage because of a delay in getting back an answer from 
whatever SASL backend you have in use. Postfix evaluates the rest of the 
client restrictions, and denies you access.

Try setting 'smtpd_delay_reject' to yes, which is the default, and 
consolidate all your restrictions under 'smtpd_recipient_restrictions' 
instead."


Intr-adevar aveam setat pe no smtpd_delay_reject pentru alte restrictii. 
Am revenit pe yes deocamdata si s-a rezolvat si problema initiala.


Numai bine,
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Postfix master.cf override main.cf

2016-06-08 Fir de Conversatie Catalin Bucur
On 08/06/16 16:07, Catalin Muresan wrote:
> Tu ai citit ce am scris eu ? Ai uitat sa pui   -o smtpd_enforce_tls=yes
> si nu face SASL auth pentru ca nu are cum si primeste reject.
> Setarile din master.cf se aplica doar la submission, ce ai in main.cf se
> aplica la smtpd
> Deaia ai submission si smtps de ex. si in main.cf ai lmtp, smtp, smtpd
> (alte nume).


submission  inet  n -   n   -   -   smtpd
 -o syslog_name=postfix/submission
 -o smtpd_etrn_restrictions=reject
 -o smtpd_enforce_tls=yes
 -o smtpd_tls_auth_only=yes
 -o smtpd_sasl_auth_enable=yes
 -o smtpd_use_tls=yes
 -o receive_override_options=no_address_mappings
 -o 
smtpd_client_restrictions=permit_mynetworks,permit_sasl_authenticated,reject


Jun  8 16:20:21 mail postfix/submission/smtpd[3746]: connect from 
unknown[213.233.85.145]
Jun  8 16:20:21 mail postfix/submission/smtpd[3746]: NOQUEUE: reject: 
CONNECT from unknown[213.233.85.145]: 554 5.7.1 
<unknown[213.233.85.145]>: Client host rejected: Access denied; proto=SMTP


Doar daca scot linia cu smtpd_client_restrictions din master.cf imi 
functioneaza trimiterea.


--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Postfix master.cf override main.cf

2016-06-08 Fir de Conversatie Catalin Bucur
On 08/06/16 13:34, Catalin Muresan wrote:
> On 8 June 2016 at 11:24, Catalin Muresan <catalin.mure...@gmail.com> wrote:
>
> sau poate ca ai (mult mai plauzibil pentru ca e cam default prin toate
> exemplele):
>
> smtpd_tls_auth_only = yes
>
> Oricum e simplu de verificat, daca dai telnet mail.server.com 587 nu ar
> trebui sa vezi AUTH decit dupa ce conexiunea e SSL.
>
> 220 mail ESMTP Postfix
> ehlo me
> 250-mail
> 250-PIPELINING
> 250-SIZE 20480
> 250-VRFY
> 250-ETRN
> *250-STARTTLS*
> 250-ENHANCEDSTATUSCODES
> 250-8BITMIME
> 250 DSN


Erau prin main.cf setarile astea, e ok din punctul asta de vedere, nu se 
poate face AUTH decat dupa SSL.
Dar revenind la problema initiala, daca smtpd_client_restrictions ramane 
asa cum e in main.cf (cu  restrictii de rbl) atunci comunicatia pe 
submission e blocata:

Jun  8 15:36:43 mail postfix/submission/smtpd[29802]: connect from 
unknown[213.233.85.145]
Jun  8 15:37:03 mail postfix/submission/smtpd[29802]: NOQUEUE: reject: 
CONNECT from unknown[213.233.85.145]: 554 5.7.1 Service unavailable; 
Client host [213.233.85.145] blocked using zen.spamhaus.org; 
https://www.spamhaus.org/query/ip/213.233.85.145; proto=SMTP


Daca in master.cf fac override la setarile din main.cf:

 -o 
smtpd_client_restrictions=permit_mynetworks,permit_sasl_authenticated,reject


Atunci ma rejecteaza cu access denied:

Jun  8 15:53:58 mail postfix/submission/smtpd[32450]: connect from 
unknown[213.233.85.145]
Jun  8 15:53:58 mail postfix/submission/smtpd[32450]: NOQUEUE: reject: 
CONNECT from unknown[213.233.85.145]: 554 5.7.1 
<unknown[213.233.85.145]>: Client host rejected: Access denied; proto=SMTP


Ceva nu fac bine pe undeva.


Mersi,
--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


[rlug] Postfix master.cf override main.cf

2016-06-07 Fir de Conversatie Catalin Bucur
Salutare,


Se da:
# cat /etc/centos-release
CentOS Linux release 7.2.1511 (Core)
# uname -a
Linux mail 3.10.0-327.10.1.el7.x86_64 #1 SMP Tue Feb 16 17:03:50 UTC 
2016 x86_64 x86_64 x86_64 GNU/Linux
# rpm -qa|grep postfix
postfix-2.10.1-6.el7.x86_64

In main.cf am diverse restrictii obisnuite:
smtpd_client_restrictions = hash:/etc/postfix/access,
 permit_mynetworks,
 permit_sasl_authenticated,
 reject_rbl_client zen.spamhaus.org,
 reject_rbl_client bl.spamcop.net, [etc]

Ideea e ca pentru trimiterea de mailuri (prin portul de submission de 
exemplu) sa nu faca verificarile de mai sus. Daca ma autentific sa fie 
de ajuns sa accepte mailul si sa-l trimita, fara sa ma streseze de 
exemplu ca ip-ul public de la care trimit este prin vreun blacklist. In 
master.cf am facut asa:

submission  inet  n -   n   -   -   smtpd
 -o syslog_name=postfix/submission
 -o smtpd_etrn_restrictions=reject
 -o smtpd_sasl_auth_enable=yes
 -o receive_override_options=no_address_mappings
 -o 
smtpd_client_restrictions=permit_mynetworks,permit_sasl_authenticated,reject
 -o 
smtpd_recipient_restrictions=permit_mynetworks,permit_sasl_authenticated,reject

Si chiar vad procesul de postfix pentru submission pornit ca atare:

postfix   6717  0.0  0.1 106752  5780 ?S01:20   0:00  \_ 
smtpd -n submission -t inet -u -o stress= -s 2 -o 
syslog_name=postfix/submission -o smtpd_etrn_restrictions=reject -o 
smtpd_sasl_auth_enable=yes -o 
receive_override_options=no_address_mappings -o 
smtpd_client_restrictions=permit_mynetworks,permit_sasl_authenticated,reject 
-o 
smtpd_recipient_restrictions=permit_mynetworks,permit_sasl_authenticated,reject

In schimb cand incerc sa trimit mail:

Jun  8 01:17:16 mail postfix/submission/smtpd[6260]: connect from 
unknown[213.233.85.145]
Jun  8 01:17:16 mail postfix/submission/smtpd[6260]: NOQUEUE: reject: 
CONNECT from unknown[213.233.85.145]: 554 5.7.1 
<unknown[213.233.85.145]>: Client host rejected: Access denied; proto=SMTP
Jun  8 01:17:47 mail postfix/submission/smtpd[6276]: connect from 
unknown[213.233.85.145]
Jun  8 01:17:47 mail postfix/submission/smtpd[6276]: NOQUEUE: reject: 
CONNECT from unknown[213.233.85.145]: 554 5.7.1 
<unknown[213.233.85.145]>: Client host rejected: Access denied; proto=SMTP
Jun  8 01:18:17 mail postfix/submission/smtpd[6276]: lost connection 
after UNKNOWN from unknown[213.233.85.145]
Jun  8 01:18:17 mail postfix/submission/smtpd[6276]: disconnect from 
unknown[213.233.85.145]
Jun  8 01:18:18 mail postfix/smtpd[6315]: connect from 
unknown[213.233.85.145]
Jun  8 01:18:38 mail postfix/smtpd[6315]: NOQUEUE: reject: CONNECT from 
unknown[213.233.85.145]: 554 5.7.1 Service unavailable; Client host 
[213.233.85.145] blocked using zen.spamhaus.org; 
https://www.spamhaus.org/query/ip/213.233.85.145; proto=SMTP

Din teorie, ce scrie in master.cf face override la ce e in main.cf dar 
la mine nu :-) Imi scapa ceva, dar nu stiu ce, asa ca daca aveti vreo 
idee...


Mersi,

-- 
Catalin Bucur

___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Kernel modules

2016-03-09 Fir de Conversatie Catalin Bucur
On 09/03/16 22:26, wo...@prolinux.ro wrote:
> e ciudat, e prima oara ca aud de asa ceva. Incearca sa setezi si
> parametrul care configureaza eliminarea modulelor la oprirea iptables
> a.i. sa nu le mai dea unload. O sa testez si eu  dar abia in WE sau
> sapt viitoare. Intre timp iti propun sa intrebi si pe forumul CentOS
> si/sau pe #centos.

Scuze, am uitat prin /etc/modprobe.d un fisier .conf prin cate tot
testam chestii, de aici ciudateniile. Merg setarile din
/etc/sysconfig/iptables-config foarte bine. Ramane sa vad daca mai
dispar modulele din memorie in continuare.

Mersi,
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Kernel modules

2016-03-09 Fir de Conversatie Catalin Bucur
On 09/03/16 20:04, wo...@prolinux.ro wrote:
> IIRC, /etc/sysconfig/iptables-config e fisierul de configurare pt
> modulele sistemului conntrack

# cat /etc/sysconfig/iptables-config | grep IPTABLES_MODULES
IPTABLES_MODULES="nf_conntrack_proto_gre nf_nat_proto_gre
nf_conntrack_pptp nf_nat_pptp"

# service iptables restart
iptables: Setting chains to policy ACCEPT: mangle filter na[  OK  ]
iptables: Flushing firewall rules: [  OK  ]
iptables: Unloading modules:   [  OK  ]
iptables: Applying firewall rules: [  OK  ]
iptables: Loading additional modules: nf_conntrack_proto_gr[  OK
]_proto_gre nf_conntrack_pptp nf_nat_pptp

# lsmod|grep nf
nf_nat 22676  1 iptable_nat
nf_conntrack_ipv4   9154  18 iptable_nat,nf_nat
nf_conntrack   79206  4 
xt_state,iptable_nat,nf_nat,nf_conntrack_ipv4
nf_defrag_ipv4  1483  1 nf_conntrack_ipv4

Nu s-au incarcat modulele de pptp. Hai sa zicem ca le incarc "manual", 
dar nu prea inteleg de ce dispar de pe o zi pe alta.


--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


[rlug] Kernel modules

2016-03-09 Fir de Conversatie Catalin Bucur
Salutare,


Se da un server linux gateway (iptables nat) cu urmatoarele caracteristici:
# cat /etc/centos-release
CentOS release 6.7 (Final)
# uname -a
Linux localhost.localdomain 2.6.32-573.18.1.el6.x86_64 #1 SMP Tue Feb 9 
22:46:17 UTC 2016 x86_64 x86_64 x86_64 GNU/Linux

Implicit conexiunile prin vpn pptp (client intern, server extern) nu se 
pot realiza pentru ca in kernel nu se incarca automat modulele necesare. 
Daca le incarc manual totul e ok:
modprobe nf_conntrack_proto_gre
modprobe nf_nat_proto_gre
modprobe nf_conntrack_pptp
modprobe nf_nat_pptp

Insa m-a cam lasat memoria si nu imi mai aduc aminte daca nu cumva 
kernelul le face "unload" automat dupa o anumita perioada de 
neutilizare, pentru ca peste noapte au disparut.
Nu vreau nici sa recompilez kernel pentru asta, nici sa fac vreun 
artificiu microsoftist sa pun in cron sa faca modprobe la module mereu.
As vrea doar sa rezolv problema asta elegant, ori sa incarce kernelul 
modulele astea la nevoie, ori sa le incarc eu la boot si sa le lase in 
memorie forever.


Mersi de ajutor,
-- 
Catalin Bucur

___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Debian packages error

2015-07-23 Fir de Conversatie Catalin Bucur
-0wheezy1 - 2015d-0+deb8u1
[UPGRADE] ucf 3.0025+nmu3 - 3.0030
[UPGRADE] unhide 20110113-4 - 20121229-1+b1
[UPGRADE] unrar 1:4.1.4-1 - 1:5.2.7-0.1
[UPGRADE] unzip 6.0-8+deb7u2 - 6.0-16
[UPGRADE] x11-common 1:7.7+3~deb7u1 - 1:7.7+7
===

Log complete.


Dupa care a mai facut asta:
[UPGRADE] hicolor-icon-theme 0.12-1 - 0.13-1
[UPGRADE] libthai-data 0.1.18-2 - 0.1.21-1
[UPGRADE] mime-support 3.52-1+deb7u1 - 3.58
[UPGRADE] xbitmaps 1.1.1-1 - 1.1.1-2

Si in continuare insista doar pe pachetul mime-support sa faca update si
nu reuseste.


--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Debian packages error

2015-07-23 Fir de Conversatie Catalin Bucur
On 07/23/15 15:31, Petru Rațiu wrote:
 Da, linia aia cu stable e problema. Cam toate liniile de [UPGRADE] sunt
 schimbari de pachete de la wheezy (7.x) la jessie (8.x).

Practic ma intereseaza ca distributia sa nu fie end-of-life, cred ca cel
mai bine in situatia in care am ajuns e sa-i fac upgrade. Banuiesc ca
trebuie sa trec intai prin 7 ca sa ajung la 8...

Si sa inteleg ca in sources.list ar fi cel mai bine sa am numele
distributiei in loc de stable.


Multumesc de ajutor,
--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


[rlug] Debian packages error

2015-07-23 Fir de Conversatie Catalin Bucur
Salut,


As avea nevoie de putin ajutor din partea acelora care sunt mai 
familiarizati cu debian-ul, n-as vrea sa sap aiurea, macar nu din prima :-)

Am urmatorul sistem:
# cat /etc/debian_version
6.0.7
# uname -a
Linux ... 3.2.0-4-686-pae #1 SMP Debian 3.2.65-1+deb7u2 i686 GNU/Linux

Update-uri fac regulat folosind 'aptitude safe-upgrade'. Cred ca dupa 
ultimul update s-a intamplat ceva, nu stiu daca numai in db-ul cu 
package-urile, pentru ca a trebuit sa adaug in /etc/ld.so.conf.d liniile:
   /lib/i386-linux-gnu
   /usr/lib/i386-linux-gnu
ca sa imi vada ceva biblioteci (de ex. 
/usr/lib/i386-linux-gnu/libevtlog.so.0.0.0).


Erorile de care ma mai lovesc acum:

Can't load '/usr/lib/perl5/auto/RRDs/RRDs.so' for module RRDs: 
libdbi.so.1: cannot open shared object file: No such file or directory 
at /usr/lib/perl/5.10/DynaLoader.pm line 192.

PHP Warning:  PHP Startup: Unable to load dynamic library 
'/usr/lib/php5/20090626+lfs/snmp.so' - 
/usr/lib/php5/20090626+lfs/snmp.so: cannot open shared object file: No 
such file or directory in Unknown on line 0

# aptitude safe-upgrade
Resolving dependencies...
open: 284; closed: 297; defer: 98; conflict: 240 
 
 
 
  oInternal error: the solver Install(python3 3.4.2-2 devscripts 
2.15.3 - {python3 3.4.2-2}) of a supposedly unresolved dependency is 
already installed in step 683
Internal error: the solver Install(python3 3.4.2-2 devscripts 2.15.3 - 
{python3 3.4.2-2}) of a supposedly unresolved dependency is already 
installed in step 686
open: 445; closed: 466; defer: 131; conflict: 296 
 
 
 
  OThe following packages will be upgraded:
   mime-support
1 packages upgraded, 0 newly installed, 0 to remove and 420 not upgraded.
Need to get 0 B/36.0 kB of archives. After unpacking 14.3 kB will be used.
Do you want to continue? [Y/n/?] y
(Reading database ... 81623 files and directories currently installed.)
Preparing to replace mime-support 3.52-1+deb7u1 (using 
.../mime-support_3.58_all.deb) ...
dpkg: error processing /var/cache/apt/archives/mime-support_3.58_all.deb 
(--unpack):
  triggers ci file contains unknown directive `interest-noawait'
configured to not write apport reports
   Errors were encountered while 
processing:
  /var/cache/apt/archives/mime-support_3.58_all.deb
localepurge: Disk space freed in /usr/share/locale: 0 KiB
localepurge: Disk space freed in /usr/share/man: 0 KiB

Total disk space freed by localepurge: 0 KiB

E: Sub-process /usr/bin/dpkg returned an error code (1)
A package failed to install.  Trying to recover:


Cu ce verificari ar fi mai bine sa incep ca sa fiu sigur ca aduc 
sistemul pe linia de plutire?


Multumesc,
-- 
Catalin Bucur

___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


[rlug] Postfixadmin si diacritice

2015-07-09 Fir de Conversatie Catalin Bucur
Salutare,


In postfixadmin (3.0) ati reusit sa introduceti domenii (eventual
conturi) cu diacritice?

DEBUG INFORMATION:
Invalid query: Illegal mix of collations (latin1_swedish_ci,IMPLICIT)
and (utf8_general_ci,COERCIBLE) for operation '='

Check your error_log for the failed query.

Please check the documentation and website for more information.


Mersi,
-- 
Catalin Bucur

___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Postfixadmin si diacritice

2015-07-09 Fir de Conversatie Catalin Bucur
On 09/07/15 21:31, Alex 'CAVE' Cernat wrote:
 n-am facut, asa ca imi dau cu presupusul :-P
 domeniile oricum trebuie sa le bagi in format punycode, ca altfel nu ti
 le ia nimeni in seama (doar in browsere si clientul de mail o sa vezi
 mâță.ro, in rest va fi un xn--m-SPANAC.ro); in principiu ar trebui
 clientul de mail sa stie sa faca traslatarea din diacritice in puny,
 smtp-ul stie doar de domenii ascii
 ca sa-ti fie mai usor poti sa pui diacritice la descriere (daca nu cumva
 se supara mysql-ul de ce-i bagi in el)
 nu stiu insa cum se rezolva treaba cu diacriticile in adresele de email
 (as in 'contul de mail'), cand m-am mai documentat ultima data despre
 domenii cu diacritice erau discutii destul de aprinse legate de aceste
 chestii, din care nu pot sa zic ca am ajuns la o concluzie
 tldr, la tine pare o problema de mysql, probabil baza e utf8 iar
 clientul vrea latin1_swedish; sfatul meu ar trebui sa lasi utf8 unde
 este si sa fortezi partea cealalta in utf8


Da, ajunsesem si eu la aceeasi concluzie, am testat cu punycode si merge 
pentru nume de domeniu. Acuma peste ce belele oi mai da in timp o sa vad :-)

Thx,
--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Postfixadmin si diacritice

2015-07-09 Fir de Conversatie Catalin Bucur
On 09/07/15 22:14, Alex 'CAVE' Cernat wrote:
 sa imi zici si mie daca apuci sa faci Costică.Ștefănescu@mâță.ro, ca
 sunt curios de feedback
 desi mi se pare dubla durere de cap, o data la admin, ca trebuie sa-si
 bata capul cu toate porcariile astea, si o data la luzerul de rand, care
 va injura cand ii va trimite lu costica
 dar ma rog, rusii, chinezii ( alte natii de asiatici) si arabii sunt
 cei mai fericiti, ca pot sa-si puna hieroglifele in functiune

Am facut user in postfixadmin, dar cand sa trimit din Thunderbird imi da 
cu virgula, cica folosesc non-ascii caractere la username si nu e inca 
suportat lucrul asta :-)

--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Calendar sharing

2015-05-25 Fir de Conversatie Catalin Bucur
On 25/05/15 22:21, mi...@badici.ro wrote:
 Da, nu o aduce.
 De fapt habar n-am cum o aduce exchange. Sa accesezi direct serverul de ldap
 nu mi de pare funny, desi outlook are posibilitatea asta, sa adaugi o agenda
 ldap.
 Eventual mai da si tu o cerere pe lista lor, nu vei fi primul :)

M-am uitat pe liste si deja au intrebat altii, n-are rost sa mai incerc 
si eu. Sunt doar trimiteri catre diverse plugin-uri pe bani.
Agenda am adus-o cu LDAP, chiar si asa are neajunsuri, nu poti rasfoi 
prin ea, bagi parti din nume si face autocomplete, cam atat.

--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Calendar sharing

2015-05-25 Fir de Conversatie Catalin Bucur
On 25/05/15 19:44, mi...@badici.ro wrote:
 Pentru Toma Necredinciosul si balaurul lui Gheorghe :)
 http://mihai.badici.ro/linux/activesync.png

 Din fericire desi nu l-am activat inca mai functioneaza ( nu vreau sa recunosc
 ca folosesc Outlook) :)

 E o versiune mai veche, dar pot oferi conturi de test (pe perioada limitata ca
 faceti spam ) , serverul e functional.

Scuze de delay, ca nu va lasam sa va mai certati :-)
Am configurat si eu cont de Outlook 2013 cu ActiveSync ieri si e ok. 
Singurul lucru suparator este ca nu stie sa aduca si Global Address 
Boook-ul din LDAP prin acelasi protocol, ar fi fost de ajutor.

--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Calendar sharing

2015-05-24 Fir de Conversatie Catalin Bucur
On 24/05/15 13:03, mi...@badici.ro wrote:
 Acum ce sa zic, mie oricum mi se pare mai sanatos asa, altfel ai de intretinut
 doua servere, unul de mail si altul de calendar :)
 Daca ceea ce ai acum e dovecot+postfix, go my way :
 Adica  pasul unu, daca nu ai , pune openldap pentru autentificare ( la limita
 merge si fara, ca in definitiv autentificarea nu are legatura cu suportul de
 calendar.
 Pasul doi: update dovecot pentru suport de metadata
 Pasul trei: adaugare module roundcube ( necesita bibliotecile libkolabxml de
 php)
 pasul patru: serviciile ( syncroton, iRony si ce mai vrei)

 In afara de pasul unu, care sa zicem ca ar fi mai delicat, in rest cam totul 
 ar
 merge fara ca utilizatorii sa fie deranjati.


Deocamdata sa-l vad functional pe un sistem de test CentOS 6.6 fresh, 
apoi ma gandesc la cei 4 pasi :-)

Thx,
--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Calendar sharing

2015-05-24 Fir de Conversatie Catalin Bucur

On 24/05/15 08:18, mi...@badici.ro wrote:
 On Sunday 24 May 2015 07:52:50 Cristi Mitrana wrote:
 kolab e free :)   O vreme au folosit binary connector ( care nu era free)
 pentru Outlook, nu mai stiu in ce stadiu se afla proiectul. Dupa cum ziceam,
 acum pare ca merge cu ActiveSync, cu unele limitari ( un singur calendar, o
 singura agenda). DAr cred ca asta e limitarea ecosistemului Exchange,m asa ca
 nu ar conta :)

Multumesc pentru raspunsuri.

Kolab pare solutia free cea mai reusita, desi fiind all-in-one trebuie 
sa fac implementarile de la zero si sa renunt la ce am acum. Singura 
chestie ar fi ca vreau sa folosesc dovecot vs. cyrus, vad ca exista 
niste patch-uri, sper sa fie ok.
Daca reusesc sa-l integrez si cu Outlook si sa ii conving ca e o solutie 
viabila comparativ cu Exchange... :-)

--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


[rlug] Calendar sharing

2015-05-22 Fir de Conversatie Catalin Bucur
Salutare,

Incerc sa implementez un server de calendar sharing pe linux, care sa 
faca treburile basic, adica userii sa-si poata configura evenimente in 
diverse calendare, sa le vada in clientul de mail (Thunderbird/Outlook), 
pe telefon.
Cerintele cred ca vor fi mai mari de atat, adica de exemplu daca un sef 
vrea sa organizeze o sedinta cu altii din organizatie la o anumita 
data/ora sa il atentioneze calendarul ca unul sau mai multi din cei pe 
care i-a invitat sunt deja ocupati la acea ora cu alte evenimente.

Deocamdata sunt la faza de teste, dar as vrea sa abuzez de experienta 
voastra si sa incep cu ce trebuie, ca sa nu ajung sa imi scoata ochii 
vreun microsoftist ca Exchange sharing calendar face tot si altul nu. 
Din ce-am citit pana acum Davical pare sa fie o optiune.

Multumesc,
-- 
Catalin Bucur

___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Despre PFA

2015-04-30 Fir de Conversatie Catalin Bucur
On 04/30/2015 12:54 PM, Maximilian Ionescu wrote:
 Intrebarea era ce activitati se pot trece pentru CAEN-ul mai sus amintit,
 adica 6202 - activitati de consultanta in tehnologia informatiei.
 Din cate am inteles instalarea si configurarea calculatoarelor nu ar intra
 aici (este alt cod CAEN). Consultanta este insa un termen legal destul de
 ambiguu si de aceea as dori niste lamuriri cu ce se poate face si ce nu,
 presupunand ca s-a mai intalnit cineva cu aceste intrebari si poate a gasit
 un raspuns concret si corect.

Eu am trecut prin asta si am aflat cu greu ca exista niste almanahe
complete si foarte detaliate pe fiecare cod CAEN in parte la Statistica.
Am fost la ei, mi-am cautat codul, prin bunavointa lor mi-au tras la
xerox pagina care ma interesa si in baza ei mi-am definit exact
activitatea. Codurile CAEN erau desfasurare in subdiviziuni, gen 6202.1,
6202.11, 6202.12 in care erau definitii destul de clare.

Am cautat atunci pe net in format electronic nomenclatoarele astea, am
refacut cautarile si acum, dar n-am reusit sa gasesc. Daca stie cineva
mai multe detalii, cred ca ar fi utile multora.

--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] regbot attack : ce este si cum pot investiga

2015-04-24 Fir de Conversatie Catalin Bucur
On 24.04.2015 14:24, Adrian Sevcenco wrote:
 Ce ma sfatuiti? Cum pot sa investighez problema?

https://www.rfxn.com/projects/linux-malware-detect/

Daca ai putin noroc si e ceva ce intra in standarde, dupa o scanare a
directoarelor wordpress o sa gasesti malware-ul instalat.

--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] forcefsck

2015-02-20 Fir de Conversatie Catalin Bucur
On 19.02.2015 18:11, Catalin Bucur wrote:
 On 19.02.2015 16:54, Marius Cornea wrote:
 Incearca asta:

 http://www.freedesktop.org/software/systemd/man/systemd-f...@.service.html
 
 Mda, una e teoria, alta e practica. Nu pare sa fie luati in seama
 parametrii aia. In grub2.cfg am introdus in linia cu kernelul
 fsck.mode=force si fsck.repair=yes
 'Force' face oricum, ca stie ca e buleala. Mai departe insa imi face
 drop in consola ca sa rulez manual fsck.
 

N-am rezolvat problema, dar am inteles macar de ce nu merge fsck-ul in
situatia mea. Problema e legata de systemd-ul din F19 care nu are inca
implementat parametrul fsck.repair, in versiunile ulterioare exista si
functioneaza, am testat. Wasting my time...

Multumesc de ajutor,
--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] forcefsck

2015-02-19 Fir de Conversatie Catalin Bucur
On 19.02.2015 16:46, manuel lonely wolf wolfshant wrote:
 gurile rele zic ca ar functionashutdown -rF now

Nu pare documentata optiunea, nici nu merge:
  Unknown option code 'F'.

Varianta data de Marius pare sa fie legala, citesc si testez. Mersi.

--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] forcefsck

2015-02-19 Fir de Conversatie Catalin Bucur
On 19.02.2015 16:54, Marius Cornea wrote:
 Incearca asta:
 
 http://www.freedesktop.org/software/systemd/man/systemd-f...@.service.html

Mda, una e teoria, alta e practica. Nu pare sa fie luati in seama
parametrii aia. In grub2.cfg am introdus in linia cu kernelul
fsck.mode=force si fsck.repair=yes
'Force' face oricum, ca stie ca e buleala. Mai departe insa imi face
drop in consola ca sa rulez manual fsck.

--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


[rlug] forcefsck

2015-02-19 Fir de Conversatie Catalin Bucur
Salut,


Un Fedora 19 incerc sa il fortez sa faca un fsck la reboot, dar sa
raspunda si cu y la intrebari si sa rezolve automat problemele (chiar
daca sa spunem ca sunt mai grave si in mod normal sistemul m-ar lasa
intr-un shell sa fac eu asta manual).

Pe vremuri existau niste optiuni:
Optiunea 1:
  touch /forcefsck
  echo -y  /fsckoptions
Optiunea 2:
  cat /etc/sysconfig/autofsck:
AUTOFSCK_DEF_CHECK=yes
PROMPT=yes
AUTOFSCK_TIMEOUT=10
AUTOFSCK_OPT=-y

Din cate am testat nu imi merge nimic din ce e mai sus. Scriptul de boot
care interpreta chestiunile astea era /etc/rc.d/rc.sysinit la care s-a
renuntat odata cu integrarea lui systemd. Asa ca inclin sa cred ca asta
ar fi motivul pentru care nu functioneaza. Probabil si pe CentOS 7 e
aceeasi situatie, inca nu am testat.

Stie cineva daca s-a renuntat la optiunile astea si s-au introdus altele
noi? Sau trebuie sa stau intr-un picior si cu mana stanga ridicata dupa
ce dau reboot?



Mersi de ajutor,
-- 
Catalin Bucur

___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] webftp

2015-01-13 Fir de Conversatie Catalin Bucur
On 13/01/15 11:54, Tarhon-Onu Victor wrote:
   DAV in acelasi folder in care ai si fisierele sharuite via ftp?
   Oricum solutia pe care o cauti a venit in urma formularii gresite
 a problemei.

Cu asta am inceput, dar m-am apucat de cautat si altceva cand am vazut 
ca proiectele alea au cam ramas in acelasi stadiu de ani de zile. Nu 
stiu cum va interactiona webdav cu win7/8 etc. Nu vreau sa fac debugging 
pentru M$.
Solutiile propuse de ceilalti colistati (usermin, owncloud) sunt mai 
stufoase decat mi-ar trebui, dar prefer sa le aplic daca solutia cu dav 
nu mai e asa eficienta cum era cand m-am jucat acum multi ani cu ea.

In ce priveste formularea problemei e posibil sa fie eronata, dar daca 
poti reformuleaza putin, poate plec de la niste premise gresite. In 
principiu vreau interfata web peste ftp (ceea ce ar fi DAV), dar poate 
imi dai alta idee :-)


Mersi,
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


[rlug] webftp

2015-01-12 Fir de Conversatie Catalin Bucur
Salut,

Incerc sa gasesc o varianta free optima si simpla s-o instalez pe un
server, astfel incat sa poata fi citite/scrise fisiere pe serverul de
ftp via o interfata web. In loc sa pierd timpul cu
instalarea/configurarea ei o fac cautand ceva potrivit prin zecile de
variante, asa ca daca puteti curmati-mi suferinta si dati-mi cateva idei.

Mersi,
-- 
Catalin Bucur

___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


[rlug] Arhiva mailuri

2014-08-22 Fir de Conversatie Catalin Bucur
Salut,


Pe un server am adunat cateva sute de mii de mailuri aranjate pe ani de
zile, la care se adauga mereu mesajele din fiecare zi. Practic a ajuns
un fel de arhiva in format maildir. Am configurat un dovecot ca sa pot
accesa prin imap arhiva si sa fac ceva cautari (folosind Thunderbird),
insa merge greu spre deloc. Probabil sta mult sa faca indexarea
folderelor (i-am scos optiunea sa le traga si local) ca iti piere cheful
sa mai cauti ceva.

Stie cineva vreo interfata web (sau alta metoda) care sa fie simpla,
eficienta si sa pot face cautari? Adica sa indexeze regulat ce e in
folderele alea, astfel incat sa pot cauta candva relativ repede un mail
dupa subiect/expeditor/destinatar/body. Am gasit o combinatie sa
introduc mailurile alea intr-un mailman, dar nu prea are search.

Banuiesc ca exista idei mai bune ca ale mele, asa ca le astept :-)



Mersi,
-- 
Catalin Bucur

___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Arhiva mailuri

2014-08-22 Fir de Conversatie Catalin Bucur
On 22.08.2014 18:08, Petru Ratiu wrote:
 Noi pe la cateva milioane de mailuri am renuntat la dovecot si le-am bagat
 intr-un mailarchiva ( https://www.mailarchiva.com/downloads ). Da, e java
 da' pentru o aplicatie java crapa suprinzator de rar :)
 
 Search is hard.

Si pana atunci mergea ok cu imap+client de mail? Adica pana intr-o suta
de mii de mailuri per folder ma asteptam sa fie asta o solutie totusi.

--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


[rlug] openvpn force reconnect client

2014-05-30 Fir de Conversatie Catalin Bucur
Salutare,


Exista vreo metoda sa fortez un client de openvpn sa se reconecteze la
server fara sa intervin asupra clientului? Am un client care ramane
agatat uneori; nimic in loguri, totul pare ok in ambele parti dar nu mai
face deloc trafic cand il apuca. Deocamdata fac monitorizare, dar as
vrea sa-l si fortez sa faca si reconectare cand crapa. N-as vrea sa dau
restart la intregul serviciu de openvpn doar pentru asta, decat daca
n-am alta varianta.


Multumesc,
-- 
Catalin Bucur

___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] openvpn force reconnect client

2014-05-30 Fir de Conversatie Catalin Bucur
On 30.05.2014 18:08, Claudiu Nicolaie CISMARU wrote:
 
 Aceasi problema am avut-o si eu. E un feature, nu un bug. De fapt, el 
 incearca 
 sa se reconecteze, dar nu mai poate... rulandu-l la un moment dat in 
 debugging 
 mode, parca, am aflat de ce.
 
 Motivul este: cand il setezi sa faca switch user si sa faca drop privileges, 
 nu mai poate sa treaca inapoi la root sa poata sa refaca tunelul... din cauza 
 aia ramane agatat, sau pur si simplu moare.
 
 Pentru asta, tb sa il setezi sa nu faca drop la privileges... si atunci o sa 
 se reconecteze cum trebuie.

Cred ca e un feature de-al Vindoze-ului :-)
Serverul este pe linux, dar majoritatea clientilor sunt pe Windows
(acelasi SO, aceleasi setari de client), insa nu face chestia asta decat
intr-un singur loc. Am terminat cu incercari gen reinstall alta versiune
de openvpn client, sters tap, apoi recreat etc., asa ca acum caut o
varianta sa-i spun sa se reconecteze cand vreau eu.
Zici sa nu mai folosesc:
  user nobody
  group nobody
in partea de server?

--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] sugestie alegere VPS

2014-05-17 Fir de Conversatie Catalin Bucur
On 17/05/14 10:24, Florin Popovici wrote:
 Eu tocmai mi-am luat un dedicat la Hetzner, i7 750 / 12GB ram / 3 x 1.5TB
 SATA, cu 38euro / luna.

 Grija cu Hetzner totusi, sunt foarte ieftini, dar le pica HDD-urile intr-o
 veselie. De asemenea, mai au sughituri pe partea de retea.

 Eu masina o s-o folosesc pentru owncloudul personal si VM-uri de joaca, asa
 ca pot accepta cele de mai sus.


Pot confirma si eu chestia cu hdd-urile la ei, am patit-o. Dar probabil 
ca de aici ajung preturile asa mici, pentru ca folosesc WD Green :-)

--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] sugestie alegere VPS

2014-05-16 Fir de Conversatie Catalin Bucur
On 16/05/14 15:52, Alex Ionescu wrote:
 retrag intrebarea tampita cu cine se ocupa si raman la:

 vps?/dedicat?(ce furnizor recomanzi?)

Cred ca alegerea trebuie s-o faci singur pana la urma. Daca luam ca 
referinta spatiul de storage, ar trebui sa te indrepti spre dedicat. Un 
dezavantaj ar fi sa zicem downtime-ul in cazul vreunei probleme hardware 
pana rezolva cei din datacenter problema.

Eu am de ceva ani un vps la xservers fara probleme. Alte pareri despre ei?

--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


[rlug] Clona hdd

2014-04-24 Fir de Conversatie Catalin Bucur
Salutare,


Se da un CentOS 5.2 - 32 bit. Incerc sa mut informatiile de pe un server
(vechi) pe altul (nou). N-am vrut sa ma apuc de repartitionari, copieri
de date etc. si m-am gandit ca o clona ar fi o solutie mai simpla.
Pe serverul vechi e un raid 5 hardware, vazut in linux ca /dev/sda,
impartit in sda1 si sda2.
  sda1 e partitia /boot
  sda2 face parte dintr-un LVM cu 2 volume logice:
/dev/VolGroup00/LogVol00 si /dev/VolGroup00/LogVol01 - una reprezinta
partitia root, cealalta swap

Cu Clonezilla s-a facut clonare full pe un hdd simplu, apoi s-a montat
acel hdd pe noul server. Grub-ul porneste, dar kernelul nu vede partitia
root, eroarea e clasica:
 No volume groups found
 Volume group VolGroup00 not found
 Unable to access resume device (/dev/VolGroup00/LogVol01)
 etc.

Imi scapa ceva, dar nu-mi dau seama ce, hdd-ul cel nou e vazut de sistem
tot ca /dev/sda.


TIA,
-- 
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Clona hdd

2014-04-24 Fir de Conversatie Catalin Bucur
On 24/04/14 20:22, Bogdan-Stefan Rotariu wrote:
 Cel mai probabil iti scapa ceva initrd (mkinitrd), ideal ar fi sa il
 faci din rescue centos 5 - 32 bit (merge si din systemrescuecd, nu
 incerca din knoppix sau alte live-uri debian based)

Pai bun, dar care e logica? Am facut o clona tocmai ca sa nu mai fac 
miscari de genul asta. Adica hdd-ul e denumit la fel, volumele sunt la 
fel, ma asteptam ca problemele sa apara dupa ce incepe boot-area 
efectiva (uuid-uri sau mai stiu eu ce), dar nu asa devreme.

--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Clona hdd

2014-04-24 Fir de Conversatie Catalin Bucur
On 24/04/14 21:50, Abibula Aygun wrote:
 Si de ce nu faci clona hard cu hard ?
 Bootezi de clonezilla live CD si clonezi hard cu hard . Apoi rebuild la
 matrice si gata .

 Eu am clonat cu clonezill pina si microsd-uri care aveau sistemul de
 operare android pe ele .
 Da!
 Am dat de o tableta Datamaxx care in loc de flash avea micro-sd . A mers
 clonarea pe un alt card asemanator din Live CD Clonezilla ca uns. Scos
 cardul nou - proaspat clonat si go planet.

 Am facut si la matrici de SAN fara nici o problema . Lucrezi pe alata
 masina , scoti hardurile pe rand si le clonezi pe noile harduri. Le infingi
 in ordinea introbagarii si vezi ce iese. Pe masina in productie poti sa
 inlocuiesti hardurile vechi cu cele nou clonate ca sa vezi daca merg . De
 regula nu trebuie sa ai bube. Dupa aceea muti totul pe noua masina.
 Vezi sa nu fie ceva , vreun modul in kernel are nu se incarca pe masina cea
 noua .
 Daca hardurile clonate merg pe serverul vechi acolo trebuie sa cauti.

 Succes !


Te rog citeste ce am scris inainte sa raspunzi. Am scris ca am facut 
clona bit-by-bit sau cum vrei tu sa-i spui. Destinatie am un hdd, nu 
raid, desi nu cred ca e vreo diferenta.

--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Clona hdd

2014-04-24 Fir de Conversatie Catalin Bucur
On 24/04/14 22:05, Mihai Badici wrote:
 absolut toate kernelele centos au suport de LVM
 Ma refeream la suportul compilat in kernel versus modul si initrd.
 A, si inca ceva, nu cumva noul hard e IDE si e vazut ca hda? :)


Daca ACELASI kernel functiona cu LVM si eu am facut clonare full, de ce 
ar fi disparut suportul de lvm din kernel? Doar nu e magie.
De asta zic, eu incerc sa gasesc o logica in toata povestea asta :-)

--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Clona hdd

2014-04-24 Fir de Conversatie Catalin Bucur
On 24/04/14 21:58, Bogdan-Stefan Rotariu wrote:
 Citez de la tine Pe serverul vechi e un raid 5 hardware, vazut in linux ca 
 /dev/sda,
 impartit in sda1 si sda2., serverul nou == identic hw cu cel vechi ?

 Daca la boot nu se vede discul, nici lvm-ul nu are cum sa mearga, iar daca nu 
 e incarcat la boot noul controller, noul hw, ce ai tu acolo cum te astepti sa 
 mearga?

Repet ce am scris in mailul initial: Cu Clonezilla s-a facut clonare 
full pe un hdd simplu.
Deci pe noul server (care nu e identic hw cu cel initial) nu mai 
discutam de controller-e hardware. E un simplu hdd sata. Si il vede cu 
siguranta.

Posibil sa vrea neaparat sa gaseasca acel controller de raid anterior, 
desi in noua configuratie nu mai are nevoie de el?


--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Clona hdd

2014-04-24 Fir de Conversatie Catalin Bucur
On 24/04/14 22:16, wo...@prolinux.ro wrote:
  Boot in rescue mode, chroot in discul nou si mkinitrd.

E primul pas maine, deja am facut discul de rescue. Pana atunci mai adun 
idei, poate gasesc si logica :-)

Mersi,
--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Clona hdd

2014-04-24 Fir de Conversatie Catalin Bucur
On 24/04/14 22:19, Vali Dragnuta wrote:
 Da, e posibil sa nu-ti incarce driverul pentru controllerul sata .
 Probabil trebuie sa adaugi in /etc/modprobe.conf linii gen :
 alias scsi_hostadapter2 ata_piix
 alias scsi_hostadapter3 ahci
 sau ce controller ai tu in sistem.
 Pe urma trebuie refacut initrd si bootat din nou.

Eu ma gandeam ca totusi kernelul e nostalgic si inca mai cauta 
controller-ul raid si e suparat ca nu-l gaseste. Ca mai vad pe ecran o 
eroare i8042.c: No controller found.

Probabil problema e in initrd totusi, nu vad unde in alta parte. Dar sa 
nu vada un sata clasic...

--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Clona hdd

2014-04-24 Fir de Conversatie Catalin Bucur
On 24/04/14 22:22, Bogdan-Stefan Rotariu wrote:

 Prietene, daca simti ca le stii pe toate de ce ne mai ceri sfaturi ?

 Daca serverul nou nu este identic, inseamna ca nici initrd nu este identic, 
 iar de aici este posibil sa fie problema ta, dar asta poti sa afli doar dupa 
 ce testezi.

 (este epidemie de boala costineasca?)


N-am vrut decat sa subliniez faptul ca specificasem deja ca noul 
hardware nu e identic si ca nu e vorba de raid hardware (nici macar 
raid) pe cel nou. Daca voiam sa ma cert ma duceam in alta parte.

--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Montare automata disc usb pe centos 6.5

2013-12-31 Fir de Conversatie Catalin Bucur
On 31/12/13 12:10, Radu Radulescu wrote:

 problema cu autofs este ca o sa monteze device-ul numai cand incerci sa
 accesezi continutul
 cea mai eleganta solutie este tot cu udev


Pai si de ce-ar vrea sa fie deja montat device-ul daca nu-l foloseste? 
Tocmai asta e ideea folosind autofs.

Paul: in /etc/auto.misc pune linia:

extern1 -fstype=auto  :UUID=1CA057FDA057DBB8

autofs monteaza automat in directorul /misc, nu trebuie sa-i specifici 
calea completa. Si va monta device-ul doar cand faci o cerere catre el, 
de exemplu ii dai:

# ls /misc/extern1

Device-ul se demonteaza automat dupa 5 minute de neaccesare, sau il poti 
demonta manual cu umount. Erorile le gasesti in /var/log/messages ca sa 
vezi ce gresesti in optiunile pe care le pui in auto.misc


--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Montare automata disc usb pe centos 6.5

2013-12-30 Fir de Conversatie Catalin Bucur
On 30/12/13 22:59, Mihai Badici wrote:
 On Monday 30 December 2013 22:48:28 Paul Lacatus wrote:
 Pe serverasul meu de acasa care ruleaza in runlevel 3 as vrea sa se
 monteze automat un anumit disc usb la pornire daca e conectat sau la
 conectare intr-un director fix /mnt/ . Recunoaterea partitiei as
 putea sa o fac dupa UUID , nu pot dupa device pentru ca se poate schimba
 in functie de ce am mai conectat .  Problema e cum triggerez comanda de
 montare la conectare sau la pornire

 Paul



 In zilele noastre asta se face cu udev.
 Prin /etc/udev.d/rules.d se pune o regula pe care o afli din manual :)


Cred ca si autofs e o solutie ok.

--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Montare automata disc usb pe centos 6.5

2013-12-30 Fir de Conversatie Catalin Bucur
On 30/12/13 23:45, Mihai Badici wrote:
 Autofs n-am folosit , posibil sa mearga.


Cu autofs cred ca mai simplu totusi, mai putin lucru manual:

# yum install autofs

# cat /etc/auto.misc
ext -fstype=ext4,rw,user  :/dev/sda4

# service autofs start

# cd /misc/ext


/dev/sda4 il poti inlocui cu un label sau uuid dupa preferinte


--
Catalin Bucur

___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Card USB 3.0 VL805 pe FC12 kernel 2.6.32

2013-10-18 Fir de Conversatie Catalin Bucur
On 18.10.2013 12:38, Mișu Moldovan wrote:
 Procesul nu e perfect, da' de regulă merge fără probleme majore. În
 orice caz, ce au putut „ronțăi” trei zile aptitude/apt-get mă
 depășește, io am un server vechi de 15 ani ce s-a actualizat în vreo
 două-trei ore, IIRC.

http://www.mail-archive.com/rlug@lists.lug.ro/msg28851.html

Tocmai am postat asta acum cateva zile. Merg de cativa ani cu serverul
asta fara probleme de upgrade/update, si acum - deodata - aptitude
ranseste 3 zile continuu pana termina tot ram-ul si crapa partial serverul.

Cred ca e fara sens discutia, probleme vor exista indiferent de
distributie, pana acum - din cate stiu - nu s-a inventat sistemul de
operare perfect care sa faca si upgrade cand dai click pe butonul Next.
Poate sa reuseasca Microsoft-ul in viitorul apropiat...
Faptul ca ai reusit sa faci upgrade-uri la Debian de cate ori ai vrut
fara sa ai probleme majore nu inseamna nimic altceva decat ca te-ai
descurcat foarte bine, coroborat cu faptul ca ai folosit o distributie
decenta si ca ai avut si un dram de noroc. La fel pot sa ma laud si eu
cu cateva servere plecate de la Fedora 5 si ajunse la 18, desi uneori
teoria spunea ca o faci pe riscul tau (uneori chiar asa a fost).

--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Card USB 3.0 VL805 pe FC12 kernel 2.6.32

2013-10-18 Fir de Conversatie Catalin Bucur
On 18.10.2013 16:06, Mișu Moldovan wrote:
 Atâta timp cât unele distribuții au suport built-in pentru actualizare
 de versiuni și la altele e doar un afterthought, degeaba ne scoatem
 unii altora ochii cu exemple personale, diferența rămâne.
 
 Motivul pentru care numărul actualizărilor nereușite pare a fi
 comparabil pentru unii în ce privește RHEL cu Debian cred că e faptul
 că actualizări Debian face toată lumea, e ceva firesc, pe când
 actualizări RHEL fac doar ăia ce știu ce fac și/sau au tupeul necesar.
 
 Nu amestec Fedora în discuție, că aia nu-i distribuție de pus pe un
 server în producție, e pentru testare, învățat, orice altceva. Văd că,
 începând de anul trecut, are  FedUp, un sistem de actualizare a
 versiunii, da' bănuiesc că-i bleeding edge, specialitatea casei. S-ar
 putea să aibă treaba cu zvonurile despre RHEL 7.

Stiu, nu amestec nici eu Fedora cu distributiile decente. Chestia insa
buna - zic eu - a fost ca totusi upgrade-ul cu yum a mers de cele mai
multe ori fara mari batai de cap. Dar si cele putine batai de cap au
fost totusi destul de triste.
Pentru RHEL trebuie sa gasesti totusi niste workaround-uri la momentele
de upgrade, probabil si pentru ca saltul este destul de mare. Dar sa nu
uitam ca saltul este mare si datorita faptului ca EOL-ul este mare.

Si atentie, distributiile cu suport built-in de upgrade nu inseamna ca
au preluat riscul, in documentatia de la Debian scrie: 4.1.1. Back up
any data or configuration information, si nu scrie degeaba.

Poate pentru upgrade-urile live folosind yum au pus niste atentionari
mult mai agresive decat cele care folosesc aptitude, dar asta nu
inseamna ca nu exista risc cand faci asta, iar in momentele alea nu prea
mai are relevanta built-in-ul.

--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


[rlug] aptitude

2013-10-08 Fir de Conversatie Catalin Bucur
Salut,


Am un sistem functional de ani de zile cu Debian instalat. Incerc sa ma
pregatesc de un upgrade la versiunea 7, dar inainte de asta as vrea sa
fac un update la pachete. Din pacate nu prea mai vrea sa faca ce vreau
eu, rasneste intr-una la verificarile de pachete, dependinte, conflicte
etc., cred ca a mers asa si vreo 2 zile, timp in care pare ca sistemul
mai pierde ceva din stabilitate, din cate vad in loguri cam pana cand
termina ram+swap.

root@arad:~# aptitude safe-upgrade
Resolving dependencies...
open: 1212; closed: 2196; defer: 80; conflict: 159

 ^C

# uname -a
Linux linux 2.6.32-5-686 #1 SMP Mon Feb 25 01:04:36 UTC 2013 i686 GNU/Linux

# cat /etc/debian_version
6.0.7

Pana la urma am facut update-uri folosind apt-get, dar as vrea sa stiu
ce nu ii convine, sa nu am vreo surpriza la upgrade-ul de distributie.
Daca are cineva o idee de unde sa incep, please...


Mersi,
-- 
Catalin Bucur

___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] setvcpus

2013-04-14 Fir de Conversatie Catalin Bucur
On 4/13/2013 7:34 PM, Nux! wrote:
 Da, se poate, dar trebuie oprita masina virtuala. Ori faci din
 virt-manager or ad labam cu virsh edit VM parca si modifici acolo nr
 de cpu-uri.

De editat o pot face, cred ca pot pune si 100 cu virsh edit :-)
Am pus 6 si n-a marait nimic, dar maximul setat cand s-a creat guest-ul 
a fost 4, asa ca dupa ce booteaza imi arata tot 4 vcpus.

--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] setvcpus

2013-04-14 Fir de Conversatie Catalin Bucur
On 4/14/2013 11:50 AM, Nux! wrote:
 virsh setvcpus VM01 6 --config --maximum

 De fapt cred ca e nevoie si de
 virsh setvcpus VM01 6 --current

 iti recomand virt-manager, te scapa de bataile astea de cap.

Mda, m-am tot cramponat de mesajul ala de avertizare ca n-am voie sa mai 
modific vcpus daca asa a fost creata initial masina virtuala. Am oprit 
guest-ul si apoi m-a lasat in pace sa modific. Mersi de ajutor.

--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


[rlug] spammeri

2013-02-26 Fir de Conversatie Catalin Bucur
Salut,


Din cand in cand, in functie de timp ma mai bat cu spammerii, asa ca
m-am tot jucat cu optiuni in postfix sa blocheze milioanele alea de
mailuri de angajare care vin bulk la intervale regulate de timp. Pe
langa asta, de mai multa vreme am trecut in bind SPF pe modul strict
(-all), ca sa elimin multe din spamurile care vin de la mine catre mine
(de la domeniul meu catre el insusi).

Acum, uitandu-ma in folderul de spam, vad ca au trecut destule mailuri
de genul asta, pe motivul ca au definite in headere campuri
Return-Path care nu fac parte din domeniul meu. Ca sa fiu mai
explicit, headerele arata asa:

Return-Path: stabilize...@yahoo.nl
Delivered-To: c...@geniusnet.ro
Received: from localhost (localhost [127.0.0.1])
by mail.geniusnet.ro (Postfix) with ESMTP id 49676160646
for c...@geniusnet.ro; Tue, 26 Feb 2013 15:16:03 +0200 (EET)
X-Virus-Scanned: amavisd-new at geniusnet.ro
X-Spam-Flag: YES
X-Spam-Score: 14.567
X-Spam-Level: **
X-Spam-Status: Yes, score=14.567 required=4.25 tests=[BAYES_50=0.8,
FREEMAIL_ENVFROM_END_DIGIT=0.25, FREEMAIL_FROM=0.001,
KB_DATE_CONTAINS_TAB=2.751, KB_FAKED_THE_BAT=2.694, RDNS_NONE=0.793,
TAB_IN_FROM=0.375, T_FILL_THIS_FORM_SHORT=0.01, URIBL_BLACK=1.725,
URIBL_DBL_SPAM=1.7, URIBL_JP_SURBL=1.25, URIBL_PH_SURBL=0.61,
URIBL_WS_SURBL=1.608] autolearn=spam
Received: from mail.geniusnet.ro ([127.0.0.1])
by localhost (cc.geniusnet.ro [127.0.0.1]) (amavisd-new, port 10024)
with LMTP id 3hxR54tFV+cW for c...@geniusnet.ro;
Tue, 26 Feb 2013 15:15:56 +0200 (EET)
Received-SPF: none (yahoo.nl: No applicable sender policy available)
receiver=ns.geniusnet.ro; identity=mailfrom;
envelope-from=stabilize...@yahoo.nl; helo=[181.241.31.249];
client-ip=181.241.31.249
Received: from [181.241.31.249] (unknown [181.241.31.249])
by mail.geniusnet.ro (Postfix) with ESMTP id 093A516063D
for c...@geniusnet.ro; Tue, 26 Feb 2013 15:15:54 +0200 (EET)
Received: from [164.2.139.33] (helo=jwwitgdndjdtao.blkhkaprybabpoh.com)
by  with esmtpa (Exim 4.69)
(envelope-from )
id 1MMYG3-4409dt-8Z
for c...@geniusnet.ro; Tue, 26 Feb 2013 08:15:55 -0500
Date:   Tue, 26 Feb 2013 08:15:55 -0500
From:   c...@geniusnet.ro
X-Mailer: The Bat! (v2.00.6) Personal
X-Priority: 3 (Normal)
Message-ID: 7692231011.k6r3tflv641...@yjneekerylvc.wecmvdskqp.su
To: c...@geniusnet.ro
Subject: [SPAM] Employyment you've been searching!
MIME-Version: 1.0
Content-Type: text/plain;
  charset=iso-8859-1
Content-Transfer-Encoding: 7bit


Deci la campul Received-SPF spune ca a verificat domeniul yahoo.nl in
loc de geniusnet.ro, si asta pentru ca exista acel Return-Path. Dar nu
mi se pare logic, nu ar trebui sa verifice domeniul din campul From?


-- 
Catalin Bucur

___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


[rlug] smartctl

2012-11-28 Fir de Conversatie Catalin Bucur
Salut,


Am o situatie ciudata cu un harddsik. Dupa ce mi-a dat de banuit ca are
bad-uri, i-am dat o verificare cu fsck. Si-a dat seama ca exista
sectoare bulite, chiar mi-a spus ca din unul din ele nu poate extrage
informatia si care e fisierul cu probleme, asa ca m-a intrebat daca sa
faca skip la sector. Normal, i-am dat da.
La final smartctl imi spune asa:

ID# ATTRIBUTE_NAME
  1 Raw_Read_Error_Rate   4
  3 Spin_Up_Time  3866
  4 Start_Stop_Count  13
  5 Reallocated_Sector_Ct 0
  7 Seek_Error_Rate   0
  9 Power_On_Hours4736
 10 Spin_Retry_Count  0
 11 Calibration_Retry_Count   0
 12 Power_Cycle_Count 11
192 Power-Off_Retract_Count   10
193 Load_Cycle_Count  2
194 Temperature_Celsius   34
196 Reallocated_Event_Count   0
197 Current_Pending_Sector0
198 Offline_Uncorrectable 0
199 UDMA_CRC_Error_Count  0
200 Multi_Zone_Error_Rate 0

N-ar fi trebuit sa apara acele sectoare realocate in rubrica respectiva?
Adica doar Raw_Read_Error_Rate=4 mi se pare cam putin.


Toate bune,
-- 
Catalin Bucur

___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] smartctl

2012-11-28 Fir de Conversatie Catalin Bucur
On 28.11.2012 15:08, Dan Borlovan wrote:
 Din smart reiese ca nu ai nici sectoare defecte nici sectoare relocate
 
 Da, relocarea se face la scriere
 
 Dar sectoarele stiute necitibile se vad in variabilele 197, 198
 
 Have to ask: sigur vorbim de discul defect?


E prima intrebare pe care mi-am pus-o si eu. Intr-adevar e un raid 1 din
2 discuri, dar celalalt hdd e nou, abia are cateva ore de functionare,
iar din variabila Power_On_Hours rezulta clar ca ma uit la hdd-ul care
trebuie. De altfel asta zicea si azi noapte kernelul:

Nov 28 02:17:05 ns10 kernel: ata2.00: exception Emask 0x0 SAct 0x0 SErr
0x0 action 0x0
Nov 28 02:17:05 ns10 kernel: ata2.00: BMDMA stat 0x4
Nov 28 02:17:05 ns10 kernel: ata2.00: cmd
25/00:08:2d:09:93/00:00:23:00:00/e0 tag 0 dma 4096 in
Nov 28 02:17:05 ns10 kernel:  res
51/40:00:33:09:93/40:00:23:00:00/e0 Emask 0x9 (media error)
Nov 28 02:17:05 ns10 kernel: ata2.00: status: { DRDY ERR }
Nov 28 02:17:05 ns10 kernel: ata2.00: error: { UNC }
Nov 28 02:17:05 ns10 kernel: ata2.00: configured for UDMA/133
Nov 28 02:17:05 ns10 kernel: ata2: EH complete
Nov 28 02:17:06 ns10 kernel: ata2.00: exception Emask 0x0 SAct 0x0 SErr
0x0 action 0x0
Nov 28 02:17:06 ns10 kernel: ata2.00: BMDMA stat 0x4
Nov 28 02:17:06 ns10 kernel: ata2.00: cmd
25/00:08:2d:09:93/00:00:23:00:00/e0 tag 0 dma 4096 in
Nov 28 02:17:06 ns10 kernel:  res
51/40:00:33:09:93/40:00:23:00:00/e0 Emask 0x9 (media error)
Nov 28 02:17:23 ns10 kernel: ata2.00: status: { DRDY ERR }
Nov 28 02:17:23 ns10 smartd[4268]: Device: /dev/sdb, 1 Currently
unreadable (pending) sectors

Ca sa fie si mai clar :-)

# smartctl -a /dev/sda | egrep (197|198)
197 Current_Pending_Sector  0x0032   200   200   000Old_age   Always
  -   0
198 Offline_Uncorrectable   0x0030   100   253   000Old_age
Offline  -   0
# smartctl -a /dev/sdb | egrep (197|198)
197 Current_Pending_Sector  0x0032   200   200   000Old_age   Always
  -   0
198 Offline_Uncorrectable   0x0030   100   253   000Old_age
Offline  -   0
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] smartctl

2012-11-28 Fir de Conversatie Catalin Bucur
On 28/11/2012 05:48, Radu Anghel wrote:
 Valoarea lui Raw_Read_Error_Rate nu conteaza.

 197 e 0 dupa fsck, nu? HDD-ul e Western Digital? CentOS 6?

 Am patit si eu chestia asta de cateva ori, smartd plange de pending
 sectors, smartctl le vede, dupa fsck sau alte masuri mai disperate
 (gen badblocks -w, dd if=/dev/zero of=/dev/sdX) dispar din pending dar
 nu apar ca reallocated.

 Prima data cand s-a intamplat am tras aceleasi concluzii, HDD cu
 bad-uri, inlocuit, rebuild RAID, RMA HDD.

 A doua oara am inlocuit cablul, doar n-o fi stricat si HDD nou.

 A treia oara google.

 Din cate zic ei pare sa fie ceva bug la kernel, fie e legat de NCQ la
 HDD-urile Western Digital, fie RAID sau SATA (generic sau pt anumite
 chipset-uri, who knows), care apare in general cand discul e folosit
 intens (la mine se intampla in timpul backup-urilor).

 Nu mai tin minte care a fost solutia atunci, dar problemele cu pending
 sectors au disparut, HDD-ul respectiv (care oricum era nou)
 functioneaza fericit.

 Poate un update de kernel ajuta.

Pare sa fie plauzibil ce zici, nici eu n-as da vina neaparat pe hdd. E 
Centos 5.8, WD, dar - nu pot baga mana in foc - nu cred ca 197 avea alta 
valoare decat 0 inainte de fsck. Cert e ca nu facea sync-ul la una din 
partitiile din raid dupa ce am pus hdd-ul nou, asa ca m-am apucat de 
cercetari. Acum, dupa fsck cu badblocks e totul in regula.

--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Upgrade de la FC12 la Centos 6.3

2012-10-30 Fir de Conversatie Catalin Bucur
On 30/10/2012 06:22, Paul Lacatus wrote:
 A incercat cineva asa ceva ? As face-o prin anaconda cu boot de pe dvd
 Centos.  Ce sanse dati ? E vorba de un server micut cu un raid software
 pe care sunt numai date si un disc separat cu fc 12 . Esential pentru
 mine e sa pastrez datele de pe raid pe care nu am unde sa le mut. FC12
 nu mai are suport .

Bineinteles ca se poate cu riscurile de rigoare. :-)
Uite un curajos aici:
http://www.linuxquestions.org/questions/fedora-35/how-to-upgrade-from-fc2-to-centos-5-1-2ways-639140/

Ideea e: de ce ai vrea neaparat sa ii faci upgrade? Doar ca sa-ti 
copie automat niste fisiere de configurare? Mai bine salvezi /etc, 
formatezi partitia de root cu F12 si instalezi de la zero. Oricum 
anaconda nu va reusi sa migreze fisierele de configurare ca sa nu-ti 
mai dea tie bataie de cap, tot manual ajungi sa remediezi problemele.

--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Upgrade de la FC12 la Centos 6.3

2012-10-30 Fir de Conversatie Catalin Bucur
On 30/10/2012 08:21, Paul Lacatus wrote:
 Una e sa mai remediezi cite ceva si alta e sa reiei setarile de la cap
 chiar si cu un /etc salvat . Problema e cu timpul pe care nu-l mai prea
 am . Avind insa  in vedere ca as vrea sa trec si de la mbox la maildir
 posibil e sa trebuiasca sa fac o instalare de la zero desi  tare nu as vrea.

Atunci vorba unui colistas, faci testul asta intai intr-o masina 
virtuala si vezi ce iese. Apoi scrii si pe lista impresii :-)

--
Catalin Bucur
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


[rlug] migrare grub2 (+ raid)

2012-06-13 Fir de Conversatie Catalin Bucur
Salutare,


Scriu mailul asta in ideea de a discuta discutii, nu neaparat am o
problema (inca). Dupa cum stiti, de ceva timp in unele distributii a
inceput sa fie implementat grub2-ul ca boot loader. Ca sa ne referim la
ceva concret, hai sa vorbim de Fedora 16, insa nu cred ca e neaparat
legat de distributia asta.

Asadar daca se instaleaza de la zero F16, vine cu GPT in loc de MBR, asa
ca nu conteaza ce si cum faci, grub2 va functiona ok. Daca insa faci
upgrade de la o versiune anterioara (cu MBR pe hdd), atunci poti fi in
una din urmatoarele 2 situatii (fericita/nefericita):
 - nu ai raid configurat si atunci cel mai probabil grub2-ul va avea
spatiu sa isi puna tot ce are nevoie in primele sectoare din si dupa MBR
 - ai raid (soft/hard) si cel mai probabil la sfarsitul upgrade-ului
grub2 iti arunca o eroare de genul your core.img is unusually large, it
won't fit in the embedding area

Problema e cunoscuta, e chiar considerata un bug. Grub2 nu are loc
destul sa-si puna toate informatiile in primele 62 de sectoare ale
hdd-ului. Ce nu inteleg e de ce nu face installer-ul niste verificari
premergatoare upgrade-ului, ca sa nu ajungi in situatia de a-ti smulge
parul din cap:
http://fedoraproject.org/wiki/Common_F16_bugs#Boot_sometimes_fails_when_installing_to_a_pre-existing_partition_layout_with_complex_boot_configuration_.28e.g._software_or_firmware_RAID-1.29

La o altfel de situatie, alta rezolvare nu am gasit decat sa micsorez
partitia de root si sa o mut mai spre dreapta astfel incat sa fac loc
grub-ului sa scrie ce vrea. Insa e o operatiune ce ia timp, implica
niste riscuri, eventual backup inainte. Dupa vreo 15 minute de la
lansarea chestiunii m-am plictisit de asteptare si am considerat ca imi
ia aproape acelasi timp sa configurez totul de la zero si sa restaurez
datele. Am trecut pe CentOS 6.2, unde am avut grija sa las ceva spatiu
liber la inceputul hdd-ului pentru o eventuala migrare si aici la grub2.
Intrebarea urmatoare care se pune inevitabil este: la upgrade-ul de la
CentOS 6 la 7 (daca va folosi grub2) voi ajunge in aceeasi situatie ca
la F15-16? Sau si mai generic: la orice distributie care va migra catre
grub2 va interveni aceeasi problema legata numarul de sectoare
disponibile la inceputul hdd-ului (ce foloseste MBR-ul)? Au reusit alte
distributii sa gaseasca o rezolvare mai eleganta?

O alta chestie e legata de problema partitiei /boot, RAID si grub2:
http://fedoraproject.org/wiki/Common_F16_bugs#Cannot_boot_with_.2Fboot_partition_on_a_software_RAID_array
Asta mi se pare ca in filmele cu prosti. Documentatia zicea ca nu e
prea bine sa faci partitie separata pentru /boot, insa cei care au
facut-o au fost mai castigati privind prima problema din discutie,
respectiv au migrat /boot-ul in partita de root., apoi au sters
partitia /boot si au folosit spatiul respectiv ca sa lase loc grub2-ului
sa se instaleze linistit.

Eu inteleg ca apar imbunatatiri constante ale distributiilor de linux,
dar ce urmeaza in continuare mi se pare ca da peste cap cam multe
lucruri. Pare sa ajungem intr-un punct (end-of-life-ul distributiei) in
care sa fim aproape obligati sa reinstalam totul de la zero?


Numai bine,
--
Catalin Bucur  mailto:c...@geniusnet.ro
NOC @ Genius Network SRL - Galati - Romania
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] migrare grub2 (+ raid)

2012-06-13 Fir de Conversatie Catalin Bucur
 Ca prima chestie: NICIODATA Redhat nu a recomandat sa se faca upgrade
 intre versiuni majore si nu a oferit suport pt asta ( chiar daca se
 poate si chiar daca am documentat si eu cite ceva la
 http://wiki.centos.org/HowTos/MigrationGuide si paginile mentionate la
 sfirsitul acestui articol )

Da, stiu, am rezolvat si eu intre 4 si 5 fara probleme, si intre 5 si 6 
cu ceva stress. Ma astept insa la o implementare pentru pachetul 
'preupgrade'.

 A doua chestie: Stii ca RHEL 6 ( si implicit Centos ) are suport pina in
 2020, da ? Cit despre sansele sa ai aceeasi problema... poate ca nu,
 avind in vedere ca RHEL 7 va fi bazat pe pe F16/F17 si bugul e mai mult
 sau mai putin rezolvat deja

Stiam ca in general e 5 ani la RHEL/CentOS. N-am mai citit ce zic pentru 
versiunea 6.

 Sau nu folosesti Fedora care de 2 ani incoace se straduieste din ce in
 ce mai tare sa faca rahati tot mai puturosi.

Mda, urmeaza un rahat si mai mare la urmatorul upgrade:
http://fedoraproject.org/wiki/Upgrading_Fedora_using_yum#Fedora_16_-.3E_Fedora_17
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] migrare grub2 (+ raid)

2012-06-13 Fir de Conversatie Catalin Bucur
 Ca fapt divers, tabela GPT de partitii nu implica oricum
 repartitionarea? Si stiam ca daca ai GPT e bine sa-ti faci partitie
 de-aia pt. bootloader, schemele cu emularea mbr sunt cam hackish, Ma
 rog, nu stiu care mai e best practices, eu am pus gpt numai unde a
 fost musai (storage mare) si acolo mi-am facut bootloader partition.


Debian-ul ce parere are de trecerea la grub2? :-)
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] rapunsuri intarziate la ping

2012-01-07 Fir de Conversatie Catalin Bucur
On 07/01/2012 04:31, Adi Pircalabu wrote:
 Cat timp a trecut de la reboot pana cand a inceput sa faca figuri? Ce
 s-a schimbat intre timp in retea? Dar pe server? Vreun update de
 pachete intre timp?

Mai nimic. E 'up' de la ultimul meu post:
# uptime
  17:05:50 up 17 days

Am facut doar niste update-uri la sfarsitul anului, ce a fost important 
printre cele 10 pachete update-ate:
   Dec 29 21:07:16 Updated: iputils-20020927-46.el5.i386
Dar si cu iputils-ul anterior facea aceleasi chestii, inclusiv cu unul 
recompilat de mine. Iar dupa update nu a aparut problema pana ieri.

In ce priveste reteaua vad doar urmatoarele chestiuni in messages:
Jan  4 17:21:15 uranus kernel: eth0: link down.
Jan  4 17:21:22 uranus kernel: eth0: link up.
Jan  4 17:22:00 uranus kernel: eth0: link down.
Jan  4 17:22:03 uranus kernel: eth0: link up.
Insa oricum, au aparut problemele 2 zile mai tarziu. Fizic nu s-a 
schimbat nimic in retea.

 Poate fi vorba de timeout cand citeste de pe socket, pentru care
 trebuie aflat motivele. Ar fi interesant daca ai putea sa faci ceva
 debug in resolver.

Deja intru in chestiuni complexe plecand de la o problema deocamdata 
minora :-)

 grep hosts: /etc/nsswitch.conf
 cat /etc/hosts

# grep hosts: /etc/nsswitch.conf
hosts:  files dns

# cat /etc/hosts
127.0.0.1   localhost.localdomain localhost
::1 localhost6.localdomain6 localhost6


Mersi,
--
Catalin Bucur  mailto:c...@geniusnet.ro
NOC @ Genius Network SRL - Galati - Romania
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] rapunsuri intarziate la ping

2012-01-06 Fir de Conversatie Catalin Bucur
On 19.12.2011 20:52, Dan Borlovan wrote:
 
 Pune-te cu un strace pe ping si vezi exact ce face. Daca e nevoie pune-te si 
 cu ltrace.
 
 Dan


Am intarziat putin cu raspunsul la strace pentru ca sistemul a luat un
reboot atunci si nu mai facea figurile descrise. Acum au aparut din nou.

Din ce spune strace-ul si din comparatia cu ping pe un sistem asemanator
se pare ca are un timeout in linia cu 'poll', dar nu stiu la ce se refera.


write(1, 64 bytes from localhost.localdom..., 81) = 81
gettimeofday({1325863785, 204212}, NULL) = 0
poll([{fd=3, events=POLLIN|POLLERR}], 1, 999) = 0 (Timeout)
gettimeofday({1325863795, 845223}, NULL) = 0
gettimeofday({1325863795, 845281}, NULL) = 0
sendmsg(3, {msg_name(16)={sa_family=AF_INET, sin_port=htons(0),
sin_addr=inet_addr(127.0.0.1)}, msg_iov(1)=[{\10\0h\220\\0\2s\23
\7O\341\345\f\0\10\t\n\v\f\r\16\17\20
\21\22\23\24\25\26\27..., 64}], msg_controllen=0, msg_flags=0},
MSG_CONFIRM) = 64
setitimer(ITIMER_REAL, {it_interval={0, 0}, it_value={1, 0}}, NULL) = 0
recvmsg(3, {msg_name(16)={sa_family=AF_INET, sin_port=htons(0),
sin_addr=inet_addr(127.0.0.1)},
msg_iov(1)=[{E\0\0T\242\221\0\0@\1\332\25\177\0\0\1\177\0\0\1\0\0p\220
\\0\2s\23\7O..., 192}], msg_controllen=20, {cmsg_len=20,
cmsg_level=SOL_SOCKET, cmsg_type=0x1d /* SCM_??? */, ...}, msg_flags=0},
0) = 84


P.S. Secventa de mai sus e exact copiata intre 2 write-uri 64 bytes
from localhost.localdomain

--
Catalin Bucur  mailto:c...@geniusnet.ro
NOC @ Genius Network SRL - Galati - Romania
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] rapunsuri intarziate la ping

2011-12-19 Fir de Conversatie Catalin Bucur
On 19.12.2011 00:21, Calin wrote:
 $ sudo tcpdump -i linx-local-iface -w capture-file.cap -s vezi-mai-jos
 'icmp'
 
 nota: nu mai tin minte care e local iface in linux - in osx e lo0 ...
 
 iar in alt terminal window:
 
 $ ping -s 64 (vezi-mai-sus) 127.0.0.1 - si incearca apoi diverse valori
 pentru -s si chiar -D (don't fragment)
 
 apoi deshide fisierul capture-file.cap in wireshark, si vezi ce se petrece


Reply-ul vine imediat de la interfata, se pare ca e intarziata
trimiterea de pachete:

16:37:38.406200 IP 127.0.0.1  127.0.0.1: ICMP echo request, id 50215,
seq 0, length 64
16:37:38.406232 IP 127.0.0.1  127.0.0.1: ICMP echo reply, id 50215, seq
0, length 64
16:37:39.454648 IP 127.0.0.1  127.0.0.1: ICMP echo request, id 50215,
seq 0, length 64
16:37:39.454668 IP 127.0.0.1  127.0.0.1: ICMP echo reply, id 50215, seq
0, length 64
16:37:40.507563 IP 127.0.0.1  127.0.0.1: ICMP echo request, id 50215,
seq 0, length 64
16:37:40.507582 IP 127.0.0.1  127.0.0.1: ICMP echo reply, id 50215, seq
0, length 64

Fping merge ok fara delay-uri, asa ca am dedus ca e o problema de
utilitar (ping). Am downloadat si compilat:
  http://www.skbuff.net/iputils/iputils-s20071127.tar.bz2
si am facut teste, dar am aceleasi rezultate.

Modificari de packetsize si fragmentare nu schimba situatia.


--
Catalin Bucur  mailto:c...@geniusnet.ro
NOC @ Genius Network SRL - Galati - Romania
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


[rlug] rapunsuri intarziate la ping

2011-12-18 Fir de Conversatie Catalin Bucur
Salut,


Am o problema interesanta pe un sistem cu CentOS 5.7, kernel 
2.6.18-274.12.1.el5. Dupa un anumit timp de la boot (inca n-am depistat 
daca are vreo relevanta), ping-ul incepe sa o ia razna, ceva de genul asta:

# time ping -n -c6 -i1 127.0.0.1
PING 127.0.0.1 (127.0.0.1) 56(84) bytes of data.
64 bytes from 127.0.0.1: icmp_seq=1 ttl=64 time=0.045 ms
64 bytes from 127.0.0.1: icmp_seq=2 ttl=64 time=0.049 ms
64 bytes from 127.0.0.1: icmp_seq=3 ttl=64 time=0.035 ms
64 bytes from 127.0.0.1: icmp_seq=4 ttl=64 time=0.040 ms
64 bytes from 127.0.0.1: icmp_seq=5 ttl=64 time=0.037 ms
64 bytes from 127.0.0.1: icmp_seq=6 ttl=64 time=0.044 ms

--- 127.0.0.1 ping statistics ---
6 packets transmitted, 6 received, 0% packet loss, time 45017ms
rtt min/avg/max/mdev = 0.035/0.041/0.049/0.008 ms

real0m45.020s
user0m0.001s
sys 0m0.001s


Deci trimite pachetele si asteapta raspunsurile cu o intarziere cam de 
10s. Nu conteaza ce host ii dau in loc de 127.0.0.1, comportamentul e 
acelasi. Nu gasesc nimic interesant in loguri. 'service network restart' 
nu rezolva problema. Doar dupa reboot functioneaza normal o perioada.
Inca n-am schimbat kernelul, astept ceva idei daca aveti.


Mersi,
-- 
Catalin Bucur  mailto:c...@geniusnet.ro
NOC @ Genius Network SRL - Galati - Romania
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] rapunsuri intarziate la ping

2011-12-18 Fir de Conversatie Catalin Bucur
On 18/12/2011 08:48, Bogdan-Stefan Rotariu wrote:
 1s e default

  -i interval
 Wait  interval seconds between sending each packet.  The
 default
 is to wait for one second between each packet normally,
 or  not
 to  wait in flood mode. Only super-user may set interval
 to val-
 ues less 0.2 seconds.


 -i 0.0 ce zice ?

Stiu ca e 1s default, voiam doar sa arat concret situatia. Alte exemple 
mai jos, para sa inmulteasca cu 10 timpii din creierul lui:

===
# ping -n -c3 -i0.0 127.0.0.1
PING 127.0.0.1 (127.0.0.1) 56(84) bytes of data.
64 bytes from 127.0.0.1: icmp_seq=1 ttl=64 time=0.040 ms
64 bytes from 127.0.0.1: icmp_seq=2 ttl=64 time=0.025 ms
64 bytes from 127.0.0.1: icmp_seq=3 ttl=64 time=0.014 ms

--- 127.0.0.1 ping statistics ---
3 packets transmitted, 3 received, 0% packet loss, time 0ms
rtt min/avg/max/mdev = 0.014/0.026/0.040/0.011 ms, ipg/ewma 0.144/0.035 ms
===
# ping -n -c3 -i0.1 127.0.0.1
PING 127.0.0.1 (127.0.0.1) 56(84) bytes of data.
64 bytes from 127.0.0.1: icmp_seq=1 ttl=64 time=0.040 ms
64 bytes from 127.0.0.1: icmp_seq=2 ttl=64 time=0.057 ms
64 bytes from 127.0.0.1: icmp_seq=3 ttl=64 time=0.027 ms

--- 127.0.0.1 ping statistics ---
3 packets transmitted, 3 received, 0% packet loss, time 2102ms
rtt min/avg/max/mdev = 0.027/0.041/0.057/0.013 ms
===
# ping -n -c3 -i0.2 127.0.0.1
PING 127.0.0.1 (127.0.0.1) 56(84) bytes of data.
64 bytes from 127.0.0.1: icmp_seq=1 ttl=64 time=0.040 ms
64 bytes from 127.0.0.1: icmp_seq=2 ttl=64 time=0.047 ms
64 bytes from 127.0.0.1: icmp_seq=3 ttl=64 time=0.030 ms

--- 127.0.0.1 ping statistics ---
3 packets transmitted, 3 received, 0% packet loss, time 4205ms
rtt min/avg/max/mdev = 0.030/0.039/0.047/0.007 ms
===

--
Catalin Bucur  mailto:c...@geniusnet.ro
NOC @ Genius Network SRL - Galati - Romania
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] rapunsuri intarziate la ping

2011-12-18 Fir de Conversatie Catalin Bucur
On 18/12/2011 09:31, Vali Dragnuta wrote:
 Poate referinta de timp pe sistemul ala e ametita ? Este cumva vreo
 masina virtuala ? Ora este corecta sau tinde sa o ia mult razna ?


Nu e virtuala masina si pare ok timpul sitem. E activat ntpd-ul si e de 
multa vreme in picioare. Acum arata asa:

# date
Sun Dec 18 21:51:45 EET 2011

--
Catalin Bucur  mailto:c...@geniusnet.ro
NOC @ Genius Network SRL - Galati - Romania
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] reboot F15

2011-09-22 Fir de Conversatie Catalin Bucur
On 9/22/2011 10:04 PM, manuel lonely wolf wolfshant wrote:
 for the record: sistemele care ruleaza  cu acpi=off nu sint chiar cele
 mai fericite

Sunt convins de asta, dar e frustrant ca a functionat cu un kernel mai 
vechi, iar cu unul nou face figura asta.

--
Catalin Bucur  mailto:c...@geniusnet.ro
NOC @ Genius Network SRL - Galati - Romania
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] reboot F15

2011-09-22 Fir de Conversatie Catalin Bucur
On 9/22/2011 10:42 PM, Alex 'CAVE' Cernat wrote:
 de aia se numeste upgrade, nu ?
 oops ... inca nu e vineri :-P

Da, poate trebuie creata o optiune in yum ca cea din aptitude, gen: 'yum 
safe-upgrade' prin care sa nu creeze buleli de genul asta :-))

--
Catalin Bucur  mailto:c...@geniusnet.ro
NOC @ Genius Network SRL - Galati - Romania
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] reboot F15

2011-09-22 Fir de Conversatie Catalin Bucur
On 9/22/2011 10:50 PM, Petru Ratiu wrote:
 Not sure if trolling or serious, so...

 aptitude safe-upgrade nu inseamna decat ca alege solutiile de upgrade
 care nu aduc pachete suplimentare. Tot iti face upgrade la pachetele
 existente, daca n-au dependinte noi. Nu exista mafic flag de
 --without-buleli.

Stai linistit ca nu e vineri :-)
Lucrez cu ambele distributii, asa ca era doar o gluma.

--
Catalin Bucur  mailto:c...@geniusnet.ro
NOC @ Genius Network SRL - Galati - Romania
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] combinatie taste = rulare script

2011-01-25 Fir de Conversatie Catalin Bucur
On 25.01.2011 09:41, Munteanu Alexandru wrote:
 Salut,

   Am o mica problema care nu prea imi iese.
   Am un script care as dori sa ruleze la o cobinatie de taste gen
   ctrl+alt+shift+r

   Mi-am cam prins urechile in cateva tutoriale, daca are cineva o metoda 
 usoara pentru acest lucru astept cu nerabdare un raspuns.


In vremuri de demult, ca sa opresc un firewall de la tastatura fara sa 
ma loghez, utilizand combinatia Ctrl+Alt+Ins, foloseam ceva de genul asta:

In /etc/rc.local:

loadkeys  EOF
keycode 110 = Insert
altgr   control keycode 110 = KeyboardSignal
control alt keycode 110 = KeyboardSignal
EOF


In /etc/inittab:

ce::kbrequest:/etc/init.d/firewall stop


--
Catalin Bucur  mailto:c...@geniusnet.ro
NOC @ Genius Network SRL - Galati - Romania
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Reminder - Invitatie la LOAD / 24 Ianuarie 2011

2011-01-24 Fir de Conversatie Catalin Bucur
On 24/01/2011 19:03, manuel lonely wolf wolfshant wrote:
 Oricum concluzia de baza este ca solutia optima pt a virtualiza masini
 linux e sa folosim Hyper-V, chiar daca driverele ( incluse default in
 kernel incepind cu 2.6.32 ) sint doar in status beta si lente.
 Cel putin asa a incercat sa ne covinga Todi.

Si eu am avut o impresie buna la prima vedere din ce-am butonat, insa 
intr-adevar driverele incluse in kernel sunt beta. Simptomul meu era ca 
se bloca networking-ul, asa ca m-am intors la driverele Microsoft-ului.

Insa am o alta intrebare, poate nu am sapat destul, a rezolvat cineva 
problema time-ului in configuratia Hyper-V + Linux? Situatia mea e 
CentOS 5.5 2.6.18-194.11.3.el5 x64 unde am compilat/instalat Linux 
Integration Services pentru Hyper-V. Singura si cea mai mare problema 
ramane cea a timpului care o ia inainte regulat; chiar daca am 
incercat tot felul de combinatii in grub:  notsc divider=10 clock=pit 
clocksource=acpi_pm

Cu ajutorul combinatiilor si renuntarea la ntpd am reusit sa reduc 
diferentele de timp (la ora 0 il sincronizez manual cu un server de 
timp), dar sunt totusi importante si imi dau peste cap diverse chestii.

A reusit cineva sa gaseasca o solutie mai buna si care sa fie 
functionala? Cu alte distributii se intampla acelasi lucru? :-)

--
Catalin Bucur  mailto:c...@geniusnet.ro
NOC @ Genius Network SRL - Galati - Romania
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] problema partitie

2010-10-14 Fir de Conversatie Catalin Bucur
On 28/10/2009 13:35, Catalin Bucur wrote:
 Salut,


 Am o problema cu o partitie pe care n-o vede kernelul, desi nu e nimic
 deosebit la ea. Ar fi trebuit sa fie partitie de swap, dar in cazul de
 fata n-o pot activa.
 Detalii:

 
 # lsscsi --device 2:0:0:0
 [2:0:0:0]diskATA  WDC WD740GD-00FL 33.0  /dev/sdc [8:32]

 # fdisk -l /dev/sdc
 Disk /dev/sdc: 74.3 GB, 74355769344 bytes
 255 heads, 63 sectors/track, 9039 cylinders
 Units = cylinders of 16065 * 512 = 8225280 bytes
 Disk identifier: 0x35933592
  Device Boot  Start End  Blocks   Id  System
 /dev/sdc1   1 244 1959898+  82  Linux swap / Solaris
 /dev/sdc2   * 245903970645837+  83  Linux

 # ll /dev/sdc*
 brw-rw 1 root disk 8, 32 2009-10-26 23:22 /dev/sdc
 brw-rw 1 root disk 8, 33 2009-10-26 21:28 /dev/sdc1
 brw-rw 1 root disk 8, 34 2009-10-24 14:34 /dev/sdc2

 # mkswap /dev/sdc1
 /dev/sdc1: No such device or address

 # uname -a
 Linux linux 2.6.30.8-64.fc11.i586 #1 SMP Fri Sep 25 04:30:19 EDT 2009
 i686 i686 i386 GNU/Linux
 

 /dev/sdc1 nu exista initial, dar nu-mi dau seama de ce nu l-a creat
 udev-ul automat. L-am creat manual cu MAKEDEV, dar se pare ca nu ajuta
 prea mult. Ceva idei ce sa mai incerc?


Stiu ca e tardiv raspunsul meu, abia acum am reusit sa ma ocup mai 
serios de problema asta, dar poate e bine sa ramana in arhive in caz o 
sa aiba nevoie cineva.
Desi kernelul vedea partitia respectiva la boot, udev refuza sa o creeze 
ca device in /dev, asa ca nu o puteam folosi ca partitie de swap oricate 
chestii am incercat.

Harddisk-ul respectiv a facut parte inainte dintr-un raid hardware (la 
care am fost nevoit sa renunt), drept urmare i-a ramas scrisa metadata 
aferenta. Cu mdadm nu se vedea nimic neobisnuit, insa cu dmraid da. Asa 
ca dupa ce am sters metadata cu comanda 'dmraid -rE' totul a revenit la 
normal.


Numai bine,
--
Catalin Bucur  mailto:c...@geniusnet.ro
NOC @ Genius Network SRL - Galati - Romania
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] DegradedArray event

2010-08-18 Fir de Conversatie Catalin Bucur
On 18/08/2010 10:17, Andrei wrote:

 P.S. --zero-superblock nu strica partitiile si fs-ul, nu era nevoie sa
 repartitionezi hdd-ul.

Da, stiu, informatiile sunt in cu totul alta parte :-)
Doar ca trebuia sa-l fac sa vada sdc1 din nou (recitire partitii) - ori 
cu blockdev cum zicea Petre, ori prin repartitionare. Si am preferat sa 
fac cap-coada tot.

--
Catalin Bucur  mailto:c...@geniusnet.ro
NOC @ Genius Network SRL - Galati - Romania
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] DegradedArray event

2010-08-17 Fir de Conversatie Catalin Bucur
On 15.08.2010 15:50, Catalin Bucur wrote:
  On 15/08/2010 02:35, Petru Ratiu wrote:
  Fa cu mkconf sau de mana mdadm.conf, update-initramfs -u -k all 
reboot.

Avand in vedere ca md0 asteapta in continuare sdc (in loc de sdc1) si ca 
sdc nu dispare subit dupa reboot, as putea folosi ca membru al 
raid-ului intreg discul nepartitionat (sdc)? Cat de impotriva teoriei 
este? :-)

[   10.774460] md: raid1 personality registered for level 1
[   10.785193] md: md0 stopped.
[   10.818937] md: bindsdc
[   10.818937] md: bindsdb1
[   10.818937] md: kicking non-fresh sdc from array!
[   10.818937] md: unbindsdc
[   10.818937] md: export_rdev(sdc)
[   10.818937] md: md0: raid array is not clean -- starting background 
reconstruction
[   10.829643] raid1: raid set md0 active with 1 out of 2 mirrors

--
Catalin Bucur  mailto:c...@geniusnet.ro
NOC @ Genius Network SRL - Galati - Romania
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] DegradedArray event

2010-08-17 Fir de Conversatie Catalin Bucur
On 17.08.2010 11:46, Petru Ratiu wrote:
 Cu teoria stai bine, practica te omoara. Ce faci daca pica sdb? E disc
 de sistem cumva? Iti trebuie sector de boot, tabela de partitii samd?

Nu e disc de boot, e partitia /var pe el.

 mdadm --examine si mdadm --detail pe md0 si pe membrii arrayului ce
 zic? (sorry, mereu uit care e pt. matrice si care pt. partitie).

Existau superblock-uri si pe sdc si pe sdc1, asa ca am facut ce-a spus 
Andrei:
   mdadm --zero-superblock /dev/sdc
   mdadm --zero-superblock /dev/sdc1
apoi refacut tabela partitii si reintrodus in raid sdc1. Astept 
rezultatele dupa reboot-ul de diseara :-)

Mersi,
--
Catalin Bucur  mailto:c...@geniusnet.ro
NOC @ Genius Network SRL - Galati - Romania
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] DegradedArray event

2010-08-17 Fir de Conversatie Catalin Bucur
On 17/08/2010 11:48, Andrei wrote:
 
  un mdadm --zero-superblock /dev/sdc ai incercat?
 
  eventual si pe sdc1 si apoi adaugat din nou la md0

Cred ca asta a fost rezolvarea problemei.

Dupa reboot:
# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sdc1[0] sdb1[1]
   488383936 blocks [2/2] [UU]

Multumesc tututor pentru raspunsuri.


Numai bine,
--
Catalin Bucur  mailto:c...@geniusnet.ro
NOC @ Genius Network SRL - Galati - Romania

___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] DegradedArray event

2010-08-15 Fir de Conversatie Catalin Bucur
On 15/08/2010 01:54, Petru Ratiu wrote:
 Fortarea recitirii tabelei de partitii se poate face si cu blockdev
 --rereadpt /dev/sdc

Ok.

 Pare ca discul ala porneste ceva mai incet si nu apuca sa citeasca
 tabela de partitii de pe el in timp util.

 ceva idei:
 - ai in mdadm.conf arrayul cu uuid-urile corecte?

Nu, e asa cum era si inainte de a schimba discul :-)

# cat /etc/mdadm/mdadm.conf
DEVICE partitions
CREATE owner=root group=disk mode=0660 auto=yes
HOMEHOST system
MAILADDR root


 /usr/share/mdadm/mkconf is your friend. Vezi ca trebuie sa refaci
 initramfs-ul dupa.
 - udev poate fi convins sa astepte putin mai mult (btw, in dmesg iti
 apare detectia lui sdc1 inainte sau dupa faza de raid?)

Nu cred ca il ajuta, detecteaza intai sdc1, apoi md0. Stai ca abia acuma 
vad, am dormit data trecuta:
[   11.643223] md: kicking non-fresh sdc from array!
[   11.643269] md: unbindsdc
[   11.643311] md: export_rdev(sdc)

 - mai e ceva secret cu discul ala? e discul de boot, e mai vechi,
 zice chestii prin hdparm, e scsi, etc? :)

Mi-am adus aminte, s-a schimbat unul din discurile raid-ului. Doar ca 
cel care l-a pus n-a urmat procedura exact, a dat putin cu degetul pe 
langa :-)
L-a scos din raid inainte de a-l scoate din sistem, apoi l-a bagat pe 
cel nou, dar a adaugat cu mdadm tot hdd-ul (sdc), nu l-a partitionat. 
Ulterior l-am scos eu din raid si am facut treaba asta, doar ca se pare 
ca i-a ramas undeva in memorie sdc.

Probabil ca trebuie sa refac mdadm.conf, dar totusi udev de ce nu 
creeaza /dev/sdc1 la boot?


--
Catalin Bucur  mailto:c...@geniusnet.ro
NOC @ Genius Network SRL - Galati - Romania
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] DegradedArray event

2010-08-15 Fir de Conversatie Catalin Bucur
On 15/08/2010 02:35, Petru Ratiu wrote:
 Fa cu mkconf sau de mana mdadm.conf, update-initramfs -u -k all  reboot.

Done.
# cat /etc/mdadm/mdadm.conf
DEVICE partitions
CREATE owner=root group=disk mode=0660 auto=yes
HOMEHOST system
MAILADDR root
ARRAY /dev/md0 level=raid1 num-devices=2 
UUID=8ed1dd0b:f26ba7bf:1173aa02:6fb68803


 Probabil e cumva legata de treaba dinainte (cu sdc membru de raid si nu sdc1).


Se pare ca nu totusi :-)
Dupa reboot:
# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sdb1[1]
   488383936 blocks [2/1] [_U]

unused devices: none


--
Catalin Bucur  mailto:c...@geniusnet.ro
NOC @ Genius Network SRL - Galati - Romania
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Time out sendmail

2010-08-04 Fir de Conversatie Catalin Bucur
On 04.08.2010 12:17, Paul Lacatus wrote:
 De ceva timp  pe un server sendmail am o intirziere la trimiterea
 mesajelor din thunderbird. Thunderbird spune Connected to 
 si asteapta 5.. 10 secunde inainte de a trimite mesajul.  Aceasta
 intirziere nu aparea pina acum sendmail primid instantaneu mesajul.  An
 comentat din sendmail.mc  clamav, apoi spamassassin dar comportarea este
 identica.  In maillog nu apare nimic decind in momentul in care accepta
 mesajul. Asa facea cind sendmail nu rezolva adresa destinatarului . Nu
 stiu cum sa mai investighez.

Sigur e din sendmail? Eu am avut (o am inca oarecum) si e din anumite 
addon-uri ale Thunderbird-ului. Ai incercat sa trimiti si prin alt 
server si e ok?

--
Catalin Bucur  mailto:c...@geniusnet.ro
NOC @ Genius Network SRL - Galati - Romania
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] suexec centos 5.4

2010-05-07 Fir de Conversatie Catalin Bucur
On 07.05.2010 09:04, Bogdan-Stefan Rotariu wrote:
 Nu vad legatura intre suexec si eroare, suexec nu are nici o treaba cu
 htaccess, problema ta cred ca e legata de group-ul apache care nu mai
 are access in ~/public_html/ .

Corect, am si spus ca problema era din alta parte. M-am uitat in 
pachetul .rpm de la nagios si se pare ca linia:
   /usr/sbin/usermod -G nagios,nagiocmd apache
a sters userul apache din toate grupurile si l-a introdus doar in cele 
pe care le voia el (nagios si nagioscmd).

--
Catalin Bucur  mailto:c...@geniusnet.ro
NOC @ Genius Network SRL - Galati - Romania

___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] suexec centos 5.4

2010-05-06 Fir de Conversatie Catalin Bucur
 verifica si ce parere are selinux. asta dupa ce verifici ca drepturile 
 clasice UNIX sint corecte.
 
 ps: ce te face sa crezi ca probleme o sa dispara cind recompilezi din 
 surse ?

selinux era dezactivat, restul drepturilor erau ok.
Compilarea o facusem si initial pentru schimbarea DOC_ROOT la suexec, 
m-am gandit sa reiau procesul, poate imi veneau alte idei cu ocazia 
asta, cele pe care le avusesem expirasera.

Intre timp am observat ca si cu suphp facea aceeasi chestie, asa ca am 
lasat suexec-ul in pace si m-am apucat in alte parti de sapat.
Acum cateva zile am instalat nagios-3.2.1-1.el5.rf, care mi-a ras din 
/etc/group si /etc/gshadow userul 'apache' din toate grupurile. Sincer 
n-am idee de ce a facut asta si nici timp sa mai studiez. Maine mai vad.

Mersi de raspuns,
--
Catalin Bucur  mailto:c...@geniusnet.ro
NOC @ Genius Network SRL - Galati - Romania
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] rbl+romtelecom

2010-03-18 Fir de Conversatie Catalin Bucur
Adi Pircalabu wrote:
 Probabil au listat acel IP la Spamhaus si apoi l-au scos. Acum tre' sa
 mai expire si niste intrari si gata, problema e rezolvata.
 Or fi gresit si ei, errare humanum est vorba poetului, nu? :)
 

Poate n-ai citit cu atentie ce-am scris, pentru _oricare_ ip faci 
interogarea dns iti returneaza eroare (ce-am dat a fost doar de 
exemplu), asta e ca si cum orice ip este blocat in rbl si ca atare nu 
mai primesti _niciun_ mail. Ce fel de eroare umana e asta?

--
Catalin Bucur  mailto:c...@geniusnet.ro
NOC @ Genius Network SRL - Galati - Romania

___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


[rlug] rbl+romtelecom

2010-03-17 Fir de Conversatie Catalin Bucur
Salut,


Nu stiu daca m-am tampit eu sau poate sunt prea obosit, dar:


# dig 12.187.122.86.sbl-xbl.spamhaus.org @193.226.61.1

;  DiG 9.6.2-RedHat-9.6.2-1.fc12 
12.187.122.86.sbl-xbl.spamhaus.org @193.226.61.1
;; global options: +cmd
;; Got answer:
;; -HEADER- opcode: QUERY, status: NXDOMAIN, id: 35452
;; flags: qr rd ra; QUERY: 1, ANSWER: 0, AUTHORITY: 1, ADDITIONAL: 0

;; QUESTION SECTION:
;12.187.122.86.sbl-xbl.spamhaus.org. IN A

;; AUTHORITY SECTION:
sbl-xbl.spamhaus.org.   150 IN  SOA need.to.know.only.
hostmaster.spamhaus.org. 1003171645 3600 600 432000 150

# dig 12.187.122.86.sbl-xbl.spamhaus.org @193.231.100.130

;  DiG 9.6.2-RedHat-9.6.2-1.fc12 
12.187.122.86.sbl-xbl.spamhaus.org @193.231.100.130
;; global options: +cmd
;; Got answer:
;; -HEADER- opcode: QUERY, status: NOERROR, id: 26999
;; flags: qr rd ra; QUERY: 1, ANSWER: 2, AUTHORITY: 13, ADDITIONAL: 11

;; QUESTION SECTION:
;12.187.122.86.sbl-xbl.spamhaus.org. IN A

;; ANSWER SECTION:
12.187.122.86.sbl-xbl.spamhaus.org. 2851 IN A   86.35.3.192
12.187.122.86.sbl-xbl.spamhaus.org. 2851 IN A   86.35.3.193


La prima interogare a serverului ns euroweb, inregistrarea A
12.187.122.86.sbl-xbl.spamhaus.org nu e definita, asta inseamna ca ip-ul
 meu 86.122.187.12 nu e inregistrat in rbl la spamhaus (cum e si normal,
ip-ul e curat).
La a doua interogare a serverului ns romtelecom, inregistrarea A exista
si pointeaza catre 2 ip-uri de-ale lor, ceea ce face ca serviciul de
mail sa rejecteze mailurile care vin de la acest ip pe motivul ca ar fi
listate in rbl la spamhaus.

Partea frumoasa este ca daca interoghez ns-ul romtelecom pentru oricare
alt ip, la fel va apare listat. Ca atare un server de mail care are pus
in config sa verifice rbl-urile si care are in /etc/resolv.conf
193.231.100.130 ca prim ns nu va mai primi niciun mail.
Visez/imi scapa ceva/s-au tembelizat de tot astia de la romtelecom? A
mai avut cineva problema asta?


-- 
Catalin Bucur  mailto:c...@geniusnet.ro
NOC @ Genius Network SRL - Galati - Romania
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] rbl+romtelecom

2010-03-17 Fir de Conversatie Catalin Bucur
Florin Maria wrote:
 :))
 
 Asa-i. chiar nu mai primesc mailuri pe romtelecom.
 
 Oricum, nu-s la prima duma cu DNS-urile.

Credeam ca le-am vazut pe toate la romtelecom pana acum, dar se pare ca 
mai au rezerve de tampenii. Totusi nu inteleg, e facuta intentionat 
treaba, ca eu nu pricep cum au reusit sa bage inregistrarile alea in DNS 
din greseala.

--
Catalin Bucur  mailto:c...@geniusnet.ro
NOC @ Genius Network SRL - Galati - Romania
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] tc

2010-03-10 Fir de Conversatie Catalin Bucur
Claudiu Nicolaie CISMARU wrote:
 Oricum la proiect nu am mai lucrat. Ma batea gandul sa trec pe ifb si 
 hashes... dar nu prea am pentru ce/cine sa mai lucrez... :)

Adica? Nu mai shape-uieste lumea deloc sau foloseste altceva? :-)

--
Catalin Bucur  mailto:c...@geniusnet.ro
NOC @ Genius Network SRL - Galati - Romania
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] e1000e

2010-02-19 Fir de Conversatie Catalin Bucur
Dan Borlovan wrote:
 
 Nu poti sa pui pe on checksumming (si tso)?

tso a mai fost pe on.
O sa le pun pe amandoua pe on, dar deocamdata am facut affinity-ul la 
core-uri si vreau sa vad daca sunt ceva rezultate.

O alta chestie, daca fac NAT pentru toate ip-urile (ca sa zic asa nu mai 
e routing) sistemul se comporta normal.

--
Catalin Bucur  mailto:c...@geniusnet.ro
NOC @ Genius Network SRL - Galati - Romania
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


[rlug] e1000e

2010-02-18 Fir de Conversatie Catalin Bucur
Salutare,


Se da un server Intel S5000VSA, cu 2 placi de retea onboard:
05:00.0 Ethernet controller: Intel Corporation 80003ES2LAN Gigabit 
Ethernet Controller (Copper) (rev 01)
05:00.1 Ethernet controller: Intel Corporation 80003ES2LAN Gigabit 
Ethernet Controller (Copper) (rev 01)

Distributie - Slackware 13.0
Linux darkstar 2.6.29.6-smp #2 SMP Mon Aug 17 00:52:54 CDT 2009 i686 
Intel(R) Xeon(R) CPU   E5345  @ 2.33GHz GenuineIntel GNU/Linux

Traficul e in limite normale in timpul zilei (in jur de 500Mbit/s), apoi 
spre seara, cand incep sa creasca cererile, sistemul incepe sa piarda 
din pachete. Ce se vede ciudat in acele momente este:
  - apar procese ksoftirqd care folosesc mult CPU
  - numarul de intreruperi pe secunda per interfata scade de la 6-7000 
inspre cateva zeci

Placile de retea folosesc modulul e1000e la care am incercat diverse 
optiuni de modificare a InterruptThrottleRate dar fara succes, nici 
macar n-am observat vreo schimbare.

Am testat cu aceleasi rezultate si o alta placa dual Intel si 2 placi 
RTL-8169 - al caror modul care crapa destul de des si nu pot ramane cu 
ele multa vreme, dar din ce se observa numarul de intreruperi per 
interfata ramanea la valori de peste 1.

Sigur am mai uitat cate ceva sa specific, dar puteti intreba. Ideile 
mele de rezolvare s-au indreptat spre driver/kernel, daca stiti ceva 
optiuni din experienta care ar rezolva problema m-as bucura sa aflu.
Daca nu, si rezolvarea ar fi sa schimb placile, spre ce altceva sa ma 
indrept fara sa am emotii?


Numai bine,
-- 
Catalin Bucur  mailto:c...@geniusnet.ro
NOC @ Genius Network SRL - Galati - Romania
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] e1000e

2010-02-18 Fir de Conversatie Catalin Bucur
Dan Borlovan wrote:
 Nu face fata procesorul, ai o tona de reguli de firewall sau o gramada 
 de tc filter sau amindoua?

Nimic, vreo 10 reguli de iptables. Chiar si cu ele jos se comporta la 
fel. La fel, niciun shape pus.

 Limiteaza intreruperile la 3000 per placa si verifica in 
 /proc/interrupts ca asa se intimpla

La 3000 le-am pus din prima cu InterruptThrottleRate, dar cum spuneam, 
fara succes. Scrie si in messages ca a pus optiunea respectiva in modul.

 Optional (?) pune ultimul driver de e1000e de pe sf

E ultimul, 1.1.2.

 Neaparat seteaza din affinity fiecare intrerupere de placa de retea la 
 cite un core

Asta am uitat de ea, incerc.

Mersi,
--
Catalin Bucur  mailto:c...@geniusnet.ro
NOC @ Genius Network SRL - Galati - Romania
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] e1000e

2010-02-18 Fir de Conversatie Catalin Bucur
Manuel lonely wolf Wolfshant wrote:
 Uita de RTL pe masini cu trafic mare. Sint folosite des fiindca sint 
 ieftine. Si sint ieftine fiindca nu fac in hardware mai nimic.

Am uitat de mult, numai ca acum sunt disperat sa testez cu altceva in 
afara de Intel sa nu mai folosesc modulul de e1000e.

Ah, si am pus si un CentOS 5.4 cu kernelul default si crash-uiau 
Intel-urile ceva in stilul RTL. Nu mai am erorile respective, dar 
watchdog-ul spunea ca e transmit timed out pe interfata respectiva si 
restarta modulul:

Feb 18 18:32:45 darkstar kernel: WARNING: at net/sched/sch_generic.c:226 
dev_watchdog+0x1fb/0x210()
Feb 18 18:32:45 darkstar kernel: Hardware name: S5000VSA
Feb 18 18:32:45 darkstar kernel: Modules linked in: r8169 e1000e 
xt_tcpudp iptable_filter iptable_nat nf_nat nf_conntrack_ipv4 
nf_conntrack nf_defrag_ipv4 ip
Feb 18 18:32:45 darkstar kernel: Pid: 0, comm: swapper Not tainted 
2.6.29.6-smp #2
Feb 18 18:32:45 darkstar kernel: Call Trace:
Feb 18 18:32:45 darkstar kernel:  [c0129c07] warn_slowpath+0x87/0xe0
Feb 18 18:32:45 darkstar kernel:  [c06f1b5c] dev_queue_xmit+0xdc/0x580
Feb 18 18:32:45 darkstar kernel:  [c0719d05] ip_finish_output+0x1f5/0x2a0
Feb 18 18:32:45 darkstar kernel:  [c0715e86] ip_forward_finish+0x26/0x40
Feb 18 18:32:45 darkstar kernel:  [c0714916] ip_rcv_finish+0x156/0x310
Feb 18 18:32:45 darkstar kernel:  [c0714700] inet_add_protocol+0x0/0x60
Feb 18 18:32:45 darkstar kernel:  [c06f0b89] netif_receive_skb+0x289/0x510
Feb 18 18:32:45 darkstar kernel:  [c03c7d5f] strlcpy+0x1f/0x60
Feb 18 18:32:45 darkstar kernel:  [c070346b] dev_watchdog+0x1fb/0x210
Feb 18 18:32:45 darkstar kernel:  [f85bc1db] rtl8169_poll+0x18b/0x1f0 
[r8169]
Feb 18 18:32:45 darkstar kernel:  [c0703270] dev_watchdog+0x0/0x210
Feb 18 18:32:45 darkstar kernel:  [c0132f39] run_timer_softirq+0xf9/0x1c0
Feb 18 18:32:45 darkstar kernel:  [c06ef17f] net_rx_action+0xcf/0x190
Feb 18 18:32:45 darkstar kernel:  [f85ba8fc] 
rtl8169_interrupt+0xfc/0x360 [r8169]
Feb 18 18:32:45 darkstar kernel:  [c012ecff] __do_softirq+0x8f/0x130
Feb 18 18:32:45 darkstar kernel:  [c01152b3] ack_apic_level+0x73/0x270
Feb 18 18:32:45 darkstar kernel:  [c012eddd] do_softirq+0x3d/0x50
Feb 18 18:32:45 darkstar kernel:  [c0105528] do_IRQ+0x48/0x90
Feb 18 18:32:45 darkstar kernel:  [c011384b] 
smp_apic_timer_interrupt+0x5b/0x90
Feb 18 18:32:45 darkstar kernel:  [c011384b] 
smp_apic_timer_interrupt+0x5b/0x90
Feb 18 18:32:45 darkstar kernel:  [c0103927] common_interrupt+0x27/0x2c
Feb 18 18:32:45 darkstar kernel:  [c07a00d8] get_cpu_leaves+0x15e/0x198
Feb 18 18:32:45 darkstar kernel:  [c0109dcc] mwait_idle+0x4c/0x60
Feb 18 18:32:45 darkstar kernel:  [c01022e4] cpu_idle+0x64/0x80
Feb 18 18:32:45 darkstar kernel: ---[ end trace c5b76500ff48a9ec ]---

--
Catalin Bucur  mailto:c...@geniusnet.ro
NOC @ Genius Network SRL - Galati - Romania

___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


  1   2   >