[rlug] Arhitectura arm64
Salut, Avand niste servere web+mail care se incadreaza in limite omenesti, Debian based, fara aplicatii custom instalate, as vrea sa le migrez (datorita pretului de hosting, la performante nu cred ca obtin ceva in plus) de pe arhitectura x86_64 pe arm64. Ceva pareri pro/contra, lucruri la care trebuie sa am grija? Multumesc. Numai bine, -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug_lists.lug.ro
Re: [rlug] debian news
On 07/02/2023 12:22, Alex 'CAVE' Cernat wrote: si acum formuland intrebarea: avem debianisti sa recomande vreo sursa (rss, site, mailing list, orice) unde sa gasesc si sa fiu anuntat de schimbarile "majore" (da, stiu, e un termen subiectiv), plus idei despre "planuri de viitor"? ca altfel, dupa cum ziceam, nu e deloc distractiv sa "aduni firmituri" Salut, La multi ani ! Nu am mare vechime in Debian, nu pot sa dau prea multe info, dar parca si mie mi se pare ca Debian s-a mai "muiat" in comparatie cu Ubuntu. O discutie cu ceva legatura cu subiectul: vad ca multe servere incep sa fie "acaparate" din ce in ce mai mult de Ubuntu (in detrimentul Debian), o solutie pe care am ocolit-o cu incapatanare, in primul rand de frica a ce s-a intamplat cu CentOS :-) Mai exista vreo garantie in momentul de fata ca daca te bazezi pe Debian/Ubuntu/YouNameIt ai sanse mai mari sa nu dispara in viitorul apropiat? Numai bine, Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug_lists.lug.ro
Re: [rlug] Containers - to be or not to be
On 24/05/2020 10:42, Mihai Badici wrote: Eu unul pentru produse stabile ca nginx sau mysql as merge tot pe pachete din distributie. Avantajul containerelor incepe sa apara cand vrei ceva bleeding edge sau care nu are pachet in distro (sau vrei simultan versiuni diferite ale aceleiasi aplicatii). Also, uita de idei conform carora containerele aduc in sine un avantaj de performanta (as zice chiar din contra dar YMMV). Eu am acum pe mana o infrastructura unde exista si kubernetes si masini separate standalone. Au fost surprinzator de multe situatii unde dupa ce ne-am gandit bine am decis ca scoatem unele aplicatii de pe k8s si le punem direct pe OS. Exista si situatia inversa, aplicatii pe care voiam sa le tin separat si mi-am dat seama ca sunt maintained in principal ca containere asa ca e cu mai putina bataie de cap. Ba chiar zilele astea ma uit sa punc docker pe un server extern ca sa pot pune acolo cateva aplicatii care prefera sa fie containere. Of course, daca vrei sa pui docker "ca sa-ti faci mana", go ahead, dar nu-ti vinde ideea ca e mai bine asa :) Aici subscriu. Evident că docker introduce propriul overhead. Ceea ce e vândut că avantaj de performanţă poate funcţiona dacă ai flexibilitatea să te întinzi pe mai multe servere la nevoie. Totuşi de cele mai multe ori flexibilitatea asta e aparentă ( ok, ridici mai multe containere care servesc conţinut static, dar nu de acolo vine load-ul în principal) . Până la urmă la aplicaţiile web în genere botleneck-ul e tot între php şi baza de date (sau ce platforme or mai fi în zilele noastre), iar ca să scapi de el nu poţi pune pur şi simplu "încă un server", trebuie să ai infrastructura adecvată, să poţi să replici baza de date ca să o poţi accesa independent de pe fiecare container etc. Dimpotrivă, vorbind de performanţă, mai degrabă poţi invers, să îl limitezi pe un client la anumiţi parametri, ceea ce poate fi util ca să nu mănânce toate resursele. Ceea ce e de reţinut e separarea ( dacă ai un site compromis în container îl izolezi uşor şi nici nu e foarte simplu să ajungă în celelalte containere) . Şi faptul că poţi rula versiuni diferite de servicii, aplicaţii destul de uşor - poţi să o faci şi fără docker dar e mai mult de muncă - e un avantaj destul de bun. Asta zisă de Petre cu faptul că ai aplicaţii gata împachetate e iar un avantaj major ( acum trec în "moşulică mode" şi zic că aplicaţiile din zilele noastre nu prea merg decât în mediul în care au fost create, din motive de "programatorii din zilele noastre". Eu am cam cedat să încerc să le instalez altfel, de fiecare dată e un pachet incompatibil orice ai face, şi eu am instalat chestii pe slackware, nu mă descurajez uşor, dar spre deosebire de acele vremuri, acum pachetele astea sunt aşa de obscure că nu poţi face nimic pentru ele :) ) . Multumesc pentru confirmari, si eu sunt de acord ca nu poti aduce niciun plus de performanta avand un server fizic si mai multe containere care sa imparta acelasi scop, dimpotriva. Inclinam spre LXC-uri in ideea securitatii, sa separ site-urile intre ele, sau pentru viitor pentru scalabilitate, dar daca pun pe primul loc perfomanta mai bine ma bazez pe OS-ul instalat pe serverul fizic si refac configuratia cand va fi cazul. Numai bine -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug_lists.lug.ro
[rlug] Containers - to be or not to be
Salutare, Am un server (fizic) pe care va rula un site destul de accesat ce va consuma resurse maricele, dar nimic exagerat, poate ceva mai mult pe perioade scurte. Din experienta voastra merita "efortul" sa-l configurez pe baza de containere, de exemplu unul pentru nginx, altul pentru mysql? Ma gandesc ca poate mi-ar aduce avantaje in viitor in cazul in care mai apare un site de aceeasi anvergura pe acelasi server, sau poate daca intru in zona fail-over/load-balancing. Daca raspunsul este da, avand in vedere ca nu e "marea clusterizare" sau cine-stie-ce configuratie, ce ar fi mai ok sa aleg? LXC sau Docker? Pentru orchestration sa ma incurc cu Kubernetes sau e un monstru pentru ceea ce vreau sa fac? Mersi de idei. Numai bine, -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug_lists.lug.ro
Re: [rlug] Redirectare spam-uri catre gmail
On 25/10/2019 23:42, Bogdan-Stefan Rotariu wrote: Salut, Aceeasi problema si aici, mail-urile de la tine nu au fost acceptate fiindca contin informatii cu domenii blocate prin spamhaus si prin alte curti mai mici sau mai mari. Nu am mai facut de ceva vreme bricolaje prin postfix, dar poti face drop-ul cu header_checks: /etc/postfix/header_checks: /^X-Spam-Level: \*{5,}.*/ DISCARD spam si header_checks = regexp:/etc/postfix/header_checks in main.cf Asta ai incercat sa faci si nu iti iese? Merg filtrele legate de *_checks, dar - cum spuneam anterior - ideal ar fi sa nu blochez tot ce inseamna X-Spam-Score>5 sau X-Spam-Flag:YES. Pentru ca sunt si mailuri de genul asta care intra catre conturile userilor si nu sunt forwardate mai departe, astea ar trebui sa nu fie blocate. Apoi mai sunt mailuri pe care le trimit userii si poate sunt marcate gresit ca spam, iarasi o sa fie blocate si astea. Un filtru util ar fi ca la una din conditiile de mai sus sa fie cumulata cu faptul daca mesajul e forwardat, ceea ce nu cred ca posibil fara sa complic situatia inutil. Mersi, Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug_lists.lug.ro
[rlug] Redirectare spam-uri catre gmail
Salutare, Am urmatoarele alias-uri in postfix: off...@alabala.ro e redirectat catre gma...@gmail.com off...@alfabeta.ro e redirectat catre gma...@gmail.com s.a.m.d. Pe conturile de office@ vin spam-uri de diverse forme si marimi, care - normal - sunt redirectate catre conturile alea de gmail. Gmail le blocheaza inainte sa le primeasca, probabil au servere in fata care fac verificarea antispam inainte sa le accepte. Ca urmare raman in coada mea de mesaje si se tot aduna: D0BB8AC910826919 Thu Oct 17 11:46:49 odbi...@0kazje.pl (host alt1.gmail-smtp-in.l.google.com[209.85.233.26] said: 421-4.7.0 [116.203.240.40 15] Our system has detected that this message is 421-4.7.0 suspicious due to the nature of the content and/or the links within. 421-4.7.0 To best protect our users from spam, the message has been blocked. 421-4.7.0 Please visit 421 4.7.0 https://support.google.com/mail/answer/188131 for more information. c30si5315298lfp.146 - gsmtp (in reply to end of DATA command)) gma...@gmail.com D9D6DAC93BC 6557 Sun Oct 13 22:04:04 flyingarealpl...@sciencen.xyz (host alt1.gmail-smtp-in.l.google.com[209.85.233.26] said: 421-4.7.0 [116.203.240.40 15] Our system has detected that this message is 421-4.7.0 suspicious due to the nature of the content and/or the links within. 421-4.7.0 To best protect our users from spam, the message has been blocked. 421-4.7.0 Please visit 421 4.7.0 https://support.google.com/mail/answer/188131 for more information. 8si3046115lfj.109 - gsmtp (in reply to end of DATA command)) gma...@gmail.com Mesajele trec prin amavisd, sunt verificate de spamassassin si marcate ca spam, dar nu pot sa le fac DROP inainte de FORWARD in functie de marcajul antispam din headere. Ideea e ca as vrea ca mesajele sa fie livrate in conturile locate, chiar daca sunt marcate ca spam, doar cele forward-ate sa fie blocate. Am vreo varianta simpla de rezolvare in afara un script care sa verifice regulat coada si sa stearga mizeriile astea? Multumesc, -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug_lists.lug.ro
Re: [rlug] OpenVPN + iproute2
On 03/10/2017 10:35, Iulian Murgulet wrote: > > Ciudat. Asta pt ca si eu folosesc ovpn, cu push-route de pe server pe > client, si merge. > Mai nou experimentez cu ospf care infinge/scoate route dupa cum tunelul > ovpn este up/down si mi se pare mai OK. > Dar fiecare varianta are dus si intors, nu-i asa ? Probabil nu folosesti Source Based Routing ca sa trimiti doar un anumit trafic din "spatele" serverului prin client mai departe. Rutare "banala" merge fara probleme. -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] OpenVPN + iproute2
Cu ajutorul colegului Serafin Rusu care mi-a dat o idee am gasit o solutie. Nu prea am rezolvat, mai degraba am ocolit problema pentru care nu gasesc in continuare explicatie. Rezolvarea a fost sa inversez rolurile capetelor de tunel (client-server). Astfel, specificand in ccd-ul aferent clientului prin iroute ca exista o clasa 172.24.100.0/24 in "spatele" GW-ului, a reusit si openvpn-ul sa inteleaga ce vreau si sa ruteze pachetele. Probabil ca "iroute" pe client e mult mai important pentru creierul openvpn-ului decat "push route" pe server (bug sau feature). -- Catalin Bucur On 25/09/2017 17:05, Catalin Bucur wrote: > Salutare, > > > Intr-un mediu virtual de test am 5 VM-uri cu CentOS: > P1, P2, P3 - provideri de net > GW - configurat cu 3 tabele de rutare iproute2 > HOST - in "spatele" GW-ului, incerc sa-l rutez prin P3 > am configurat un policy based routing relativ basic. Sa zicem ca am 2 > provideri de net P1 si P2 la care am configurat fail-over si un al > treilea "provider" P3. Intre P3 si GW e configurat un vpn (OpenVPN) prin > care vreau sa trimit traficul de la un anumit ip, indiferent daca P1 sau > P2 sunt alive. > > Chestiunea cu fail-over intre P1 si P2 e rezolvata, durerea intervine la > rutarea traficului prin P3. Dintr-un anumit motiv pentru care nu gasesc > inca explicatie, source based routing-ul functioneaza (pachetele sunt > trimise prin vpn pe GW), dar nu ajung in celelalt capat (P3). Daca in > loc de OpenVPN folosesc un tunel IPIP problema e rezolvata. > > Incerc sa dau ceva detalii fara sa creez un cearsaf, mai pot reveni cu > suplimentari daca e cazul. > > 172.24.100.254 e HOST-ul pe care vreau sa-l rutez prin vpn > 10.13.0.2 e GW-ul pe care e configurat iproute2 > 10.13.0.1 e P3 > 10.111.0.0/24 e clasa de vpn intre GW si P3 (10.111.0.4 e pe P3) > > == CONFIG OpenVPN Server (GW) == > port 1194 > proto udp > dev tun > ca keys/ca.crt > cert keys/server.crt > key keys/server.key # This file should be kept secret > dh keys/dh2048.pem > topology subnet > server 10.111.0.0 255.255.255.0 > ifconfig-pool-persist ipp.txt > push "route 172.24.100.0 255.255.255.0" > keepalive 10 120 > tls-auth keys/ta.key 0 # This file is secret > cipher AES-256-CBC > persist-key > persist-tun > status openvpn-status.log > log-append /var/log/openvpn.log > verb 3 > == > > == CONFIG OpenVPN Client (P3) == > client > dev tun > proto udp > remote 10.13.0.2 1194 > resolv-retry infinite > nobind > persist-key > persist-tun > ca client/ca.crt > cert client/client.crt > key client/client.key > remote-cert-tls server > tls-auth client/ta.key 1 > cipher AES-256-CBC > verb 3 > == > > Legat de iproute2 eu zic ca e totul functional, asa cum vad si in rute: > > [root@IPR2-GW ~]# ip route get to 8.8.8.8 from 172.24.100.254 iif eth3 > 8.8.8.8 from 172.24.100.254 via 10.111.0.4 dev tun0 > cache iif * > > Dar nu vad niciun pachet venind dinspre GW catre interfata de vpn de pe P3. > Folosind un tunel IPIP simplu cu aceleasi ip-uri, interfete etc: > > Pe GW: > ip tunnel add tun0 mode ipip remote 10.13.0.1 local 10.13.0.2 > ip link set tun0 up > ip addr add 10.111.0.1/24 dev tun0 > > Pe P3: > ip tunnel add tun0 mode ipip remote 10.13.0.2 local 10.13.0.1 > ip link set tun0 up > ip addr add 10.111.0.4/24 dev tun0 > > totul functioneaza foarte bine, vad pachetele pe interfata de tunneling > de pe P3, mai departe pot face ce vreau cu traficul respectiv. > > > Configuratia de OpenVPN e simpla/clasica, nu-mi dau seama ce vrea de la > mine ca sa nu imi blocheze acel trafic. > Daca aveti idei va rog sa mi le impartasiti, eu m-am saturat de facut > tot felul de teste :-) > > > Mersi, > ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
[rlug] OpenVPN + iproute2
Salutare, Intr-un mediu virtual de test am 5 VM-uri cu CentOS: P1, P2, P3 - provideri de net GW - configurat cu 3 tabele de rutare iproute2 HOST - in "spatele" GW-ului, incerc sa-l rutez prin P3 am configurat un policy based routing relativ basic. Sa zicem ca am 2 provideri de net P1 si P2 la care am configurat fail-over si un al treilea "provider" P3. Intre P3 si GW e configurat un vpn (OpenVPN) prin care vreau sa trimit traficul de la un anumit ip, indiferent daca P1 sau P2 sunt alive. Chestiunea cu fail-over intre P1 si P2 e rezolvata, durerea intervine la rutarea traficului prin P3. Dintr-un anumit motiv pentru care nu gasesc inca explicatie, source based routing-ul functioneaza (pachetele sunt trimise prin vpn pe GW), dar nu ajung in celelalt capat (P3). Daca in loc de OpenVPN folosesc un tunel IPIP problema e rezolvata. Incerc sa dau ceva detalii fara sa creez un cearsaf, mai pot reveni cu suplimentari daca e cazul. 172.24.100.254 e HOST-ul pe care vreau sa-l rutez prin vpn 10.13.0.2 e GW-ul pe care e configurat iproute2 10.13.0.1 e P3 10.111.0.0/24 e clasa de vpn intre GW si P3 (10.111.0.4 e pe P3) == CONFIG OpenVPN Server (GW) == port 1194 proto udp dev tun ca keys/ca.crt cert keys/server.crt key keys/server.key # This file should be kept secret dh keys/dh2048.pem topology subnet server 10.111.0.0 255.255.255.0 ifconfig-pool-persist ipp.txt push "route 172.24.100.0 255.255.255.0" keepalive 10 120 tls-auth keys/ta.key 0 # This file is secret cipher AES-256-CBC persist-key persist-tun status openvpn-status.log log-append /var/log/openvpn.log verb 3 == == CONFIG OpenVPN Client (P3) == client dev tun proto udp remote 10.13.0.2 1194 resolv-retry infinite nobind persist-key persist-tun ca client/ca.crt cert client/client.crt key client/client.key remote-cert-tls server tls-auth client/ta.key 1 cipher AES-256-CBC verb 3 == Legat de iproute2 eu zic ca e totul functional, asa cum vad si in rute: [root@IPR2-GW ~]# ip route get to 8.8.8.8 from 172.24.100.254 iif eth3 8.8.8.8 from 172.24.100.254 via 10.111.0.4 dev tun0 cache iif * Dar nu vad niciun pachet venind dinspre GW catre interfata de vpn de pe P3. Folosind un tunel IPIP simplu cu aceleasi ip-uri, interfete etc: Pe GW: ip tunnel add tun0 mode ipip remote 10.13.0.1 local 10.13.0.2 ip link set tun0 up ip addr add 10.111.0.1/24 dev tun0 Pe P3: ip tunnel add tun0 mode ipip remote 10.13.0.2 local 10.13.0.1 ip link set tun0 up ip addr add 10.111.0.4/24 dev tun0 totul functioneaza foarte bine, vad pachetele pe interfata de tunneling de pe P3, mai departe pot face ce vreau cu traficul respectiv. Configuratia de OpenVPN e simpla/clasica, nu-mi dau seama ce vrea de la mine ca sa nu imi blocheze acel trafic. Daca aveti idei va rog sa mi le impartasiti, eu m-am saturat de facut tot felul de teste :-) Mersi, -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] procmail rules
Eu am facut un "trim" la linia aia cu tr ca sa ma apropii exact de ce voiam sa intreb :-) De fapt, in acea linie verific daca exista foderul respectiv (case insensitive) si daca da vreau sa scriu in el mesajul. Daca nu, creez folder si scriu in el. Din cauza asta variabila MATCH nu prea ma ajuta dupa ce ajunge in al doilea filtru. E bash 4, dar am rezolvat-o altfel: :0: * ^Subject: alabala.* | VAR=`echo $MATCH | tr [:lower:] [:upper:]`; mkdir -p $VAR ; \ cat > $VAR/$VAR-`date +%s`.eml Nu mi-am dat seama ca pot face 'cat' la mesaj la final si acolo il pot directiona cum vreau. Chestia cu variabila insa cred ca nu se prea poate, am tot cautat pe net si nu gasesc nimic. Multumesc, Catalin Bucur On 29/08/2017 13:38, Petru Rațiu wrote: > Auzi, da' nu mai bine ii zici tu lui procmail sa fie sigur ca are ca shell > un bash 4 sau mai nou si sa faci ceva gen: > > :0 >| ${MATCH^^}/${MATCH^^}-`date`-bla > > ? > > (Disclaimer, e pe super netestatelea, da' echo ${VAR^^} face cam ce face > tr-ul tau de acolo). > ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
[rlug] procmail rules
Salutare, Incerc sa rulez ca user obisnuit o regula de procmail, astfel incat pentru fiecare mesaj nou sa creez un folder nou si in el sa salvez mesajul. In concluzie scriptul arata cam asa: :0c: * ^Subject: alabala.* | VAR=`echo $MATCH | tr [:lower:] [:upper:]`; mkdir -p $VAR :0 $VAR/$VAR-`date +%s`.eml Doar ca variabila VAR nu vrea sa fie globala in niciun fel am incercat. Probabil ruleaza intr-un environment prima regula, apoi in momentul in care vrea sa salveze mesajul totul se petrece intr-un alt environment, asa ca VAR este blank. Cum il pot "pacali" sa inteleaga ce vreau? Mersi, -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] OpenVPN + iproute2
On 14/02/2017 00:32, Catalin Muresan wrote: > --multihome > Configure a multi-homed UDP server. This option can be used when OpenVPN > has been configured to listen on all interfaces, and will attempt to bind > client sessions to the interface on which packets are being received, so > that outgoing packets will be sent out of the same interface. Note that > this option is only relevant for UDP servers and currently is only > implemented on Linux. > Note: clients connecting to a --multihome server should always use the > --nobind option. Mersi, merge. Cam alambicate optiunile, dar e bine ca exista pentru toate gusturile :-) Cred ca e lucrul cel mai important pe care-l are openvpn-ul asta. Numai bine, Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] OpenVPN + iproute2
On 13/02/2017 19:28, Catalin(ux) M. BOIE wrote: > Un tcpdump pe ambele interfete, ar putea sa-ti arate chestii interesante: > conexiunea din exterior vine pe un IP, dar pleaca cu o sursa incorecta. > > Astept cu nerabdare exact configuratia pe care ai facut-o si trace-urile > de tcpdump. N-am vrut sa insir vreun cearsaf pe aici, dar se pare ca n-am incotro :-) Eu am facut deja cam toate lucrurile pe care le-ai spus. O sa incerc sa le expun si aici si sa minimizez cat pot. Am "float" in configuratia de openvpn, altfel nu mergea in varianta cu default route setat. Configuratia de iproute2: IF0="enp4s0" IF1="enp0s25" IF2="enp4s2" IP0="172.24.100.1" IP1=“1.1.1.1” IP2=“2.2.2.2” P1=“1.1.1.254” P2=“2.2.2.254” P0_NET="172.24.100.0/24" P1_NET=“1.1.1.0/24" P2_NET=“2.2.2.0/24” ip route flush table T1 ip route flush table T2 ip rule del from $IP1 table T1 ip rule del from $IP2 table T2 ip route add $P1_NET dev $IF1 src $IP1 table T1 ip route add default via $P1 table T1 ip route add $P2_NET dev $IF2 src $IP2 table T2 ip route add default via $P2 table T2 ip rule add from $IP1 table T1 ip rule add from $IP2 table T2 ip route add $P0_NET dev $IF0 table T1 ip route add $P2_NET dev $IF2 table T1 ip route add 127.0.0.0/8 dev lo table T1 ip route add $P0_NET0 dev $IF0 table T2 ip route add $P1_NET dev $IF1 table T2 ip route add 127.0.0.0/8 dev lo table T2 Cred ca e destul de clar, IF0 e interfata interna, celelalte 2 catre cei 2 provideri. Cu ruta default setata prin P2 ma conectez la openvpn prin P1: Mon Feb 13 18:45:20 2017 UDPv4 link local: [undef] Mon Feb 13 18:45:20 2017 UDPv4 link remote: [AF_INET]1.1.1.1:1194 Mon Feb 13 18:45:20 2017 TLS: Initial packet from [AF_INET]2.2.2.2:1194, sid=d2a8840d f02fe16c Dupa cum vezi asta spune si in loguri, n-are rost sa mai dau detalii din tcpdump, intra pachetele pe o interfata, se intorc pe cealalta (default route) - cu 'float' setat. Acum sterg ruta default si ma conectez in acelasi mod la openvpn prin P1 (de la ip-ul public 9.9.9.9): # tcpdump -i enp0s25 -nn port 1194 23:41:58.709140 IP 9.9.9.9.37307 > 1.1.1.1.1194: UDP, length 42 23:42:00.892050 IP 9.9.9.9.37307 > 1.1.1.1.1194: UDP, length 42 23:42:04.166071 IP 9.9.9.9.37307 > 1.1.1.1.1194: UDP, length 42 23:42:12.880868 IP 9.9.9.9.37307 > 1.1.1.1.1194: UDP, length 42 23:42:28.337031 IP 9.9.9.9.37307 > 1.1.1.1.1194: UDP, length 42 23:43:00.184881 IP 9.9.9.9.40322 > 1.1.1.1.1194: UDP, length 42 23:43:02.307497 IP 9.9.9.9.40322 > 1.1.1.1.1194: UDP, length 42 23:43:06.552837 IP 9.9.9.9.40322 > 1.1.1.1.1194: UDP, length 42 23:43:15.045645 IP 9.9.9.9.40322 > 1.1.1.1.1194: UDP, length 42 23:43:31.338430 IP 9.9.9.9.40322 > 1.1.1.1.1194: UDP, length 42 [etc] Ascultand si pe celelalte interfete - chiar si pe cea interna :-)) - pe portul 1194 nu apare niciun pachet in toata perioada asta. In schimb daca de exemplu fac un test pe portul 25 (tot fara default route): # telnet 1.1.1.1 25 Trying 1.1.1.1... Connected to 1.1.1.1. Escape character is '^]'. 220 mail.localhost.localdomain ESMTP Postfix # tcpdump -i enp0s25 -nn port 25 00:02:27.365936 IP 9.9.9.9.35082 > 1.1.1.1.25: Flags [S], seq 3989728965, win 29200, options [mss 1460,sackOK,TS val 3423415060 ecr 0,nop,wscale 7], length 0 00:02:27.365959 IP 1.1.1.1.25 > 9.9.9.9.35082: Flags [S.], seq 794810362, ack 3989728966, win 28960, options [mss 1460,sackOK,TS val 92128016 ecr 3423415060,nop,wscale 7], length 0 00:02:27.409897 IP 9.9.9.9.35082 > 1.1.1.1.25: Flags [.], ack 1, win 229, options [nop,nop,TS val 3423415104 ecr 92128016], length 0 00:02:27.434864 IP 1.1.1.1.25 > 9.9.9.9.35082: Flags [P.], seq 1:37, ack 1, win 227, options [nop,nop,TS val 92128085 ecr 3423415104], length 36 00:02:27.479003 IP 9.9.9.9.35082 > 1.1.1.1.25: Flags [.], ack 37, win 229, options [nop,nop,TS val 3423415173 ecr 92128085], length 0 Sper sa nu fi scurtat prea mult povestea asta, mai dau detalii daca mai trebuie. Rezolvare alternativa probabil ca este, de exemplu sa pun un script care sa schimbe default route pe celelalt provider cand pica cel initial. In cazul asta ar merge openvpn tot timpul. Dar daca teoria spune ca ar trebui sa mearga fara default route (si asa poate ar fi si logic) atunci ce e in neregula? Mersi de ajutor, Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
[rlug] OpenVPN + iproute2
Salutare, Incerc sa configurez un gen de fail-over intre 2 provideri folosind openvpn. Mai concret: - pe serverul unde am 2 provideri am configurat 2 tabele de rutare, la pachetele care vin pe o interfata le raspund prin aceeasi interfata si invers - serviciul de openvpn e configurat pe acelasi server sa asculte pe toate interfetele - exista ruta default setata catre unul din provideri (P1) Daca incerc sa ma conectez cu un client de openvpn din exterior prin P1 totul se desfasoara normal. Daca ma conectez prin provider P2, pachetele ajung prin interfata respectiva si pleaca prin ruta default inapoi (prin cealalta interfata). Daca sterg ruta default, pachetele vin, dar de raspuns nu mai raspunde serverul pe nicio interfata. Fenomenul are loc doar pe portul de UDP (1194) pe care ruleaza openvpn. Orice altceva incerc sa testez (ssh, telnet s.a.) catre oricare din interfetele serverului imi raspunde corect pe aceeasi interfata de unde vin pachetele si serviciile sunt functionale. Openvpn-ul insa nu vrea sa conlucreze. Mon Feb 13 18:44:16 2017 SIGUSR1[soft,tls-error] received, process restarting Mon Feb 13 18:44:16 2017 Restart pause, 2 second(s) Mon Feb 13 18:44:18 2017 Socket Buffers: R=[212992->212992] S=[212992->212992] Mon Feb 13 18:44:18 2017 UDPv4 link local: [undef] Mon Feb 13 18:44:18 2017 UDPv4 link remote: [AF_INET]5.100.100.100:1194 Mon Feb 13 18:45:18 2017 TLS Error: TLS key negotiation failed to occur within 60 seconds (check your network connectivity) Mon Feb 13 18:45:18 2017 TLS Error: TLS handshake failed Ce imi scapa? Multumesc, -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] Postfix master.cf override main.cf
On 08/06/16 16:24, Catalin Bucur wrote: > submission inet n - n - - smtpd > -o syslog_name=postfix/submission > -o smtpd_etrn_restrictions=reject > -o smtpd_enforce_tls=yes > -o smtpd_tls_auth_only=yes > -o smtpd_sasl_auth_enable=yes > -o smtpd_use_tls=yes > -o receive_override_options=no_address_mappings > -o > smtpd_client_restrictions=permit_mynetworks,permit_sasl_authenticated,reject > > > > Jun 8 16:20:21 mail postfix/submission/smtpd[3746]: connect from > unknown[213.233.85.145] > Jun 8 16:20:21 mail postfix/submission/smtpd[3746]: NOQUEUE: reject: > CONNECT from unknown[213.233.85.145]: 554 5.7.1 > <unknown[213.233.85.145]>: Client host rejected: Access denied; proto=SMTP > > > Doar daca scot linia cu smtpd_client_restrictions din master.cf imi > functioneaza trimiterea. Am gasit raspunsul pana la urma: "> smtpd_delay_reject = no http://www.postfix.org/postconf.5.html#smtpd_delay_reject Here, most likely. Ran into something very similar last week, and this was the cause. I suspect that if you were to increase logging detail, you'd find that 'permit_sasl_authenticated' evaluates to zero during the client restrictions stage because of a delay in getting back an answer from whatever SASL backend you have in use. Postfix evaluates the rest of the client restrictions, and denies you access. Try setting 'smtpd_delay_reject' to yes, which is the default, and consolidate all your restrictions under 'smtpd_recipient_restrictions' instead." Intr-adevar aveam setat pe no smtpd_delay_reject pentru alte restrictii. Am revenit pe yes deocamdata si s-a rezolvat si problema initiala. Numai bine, Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] Postfix master.cf override main.cf
On 08/06/16 16:07, Catalin Muresan wrote: > Tu ai citit ce am scris eu ? Ai uitat sa pui -o smtpd_enforce_tls=yes > si nu face SASL auth pentru ca nu are cum si primeste reject. > Setarile din master.cf se aplica doar la submission, ce ai in main.cf se > aplica la smtpd > Deaia ai submission si smtps de ex. si in main.cf ai lmtp, smtp, smtpd > (alte nume). submission inet n - n - - smtpd -o syslog_name=postfix/submission -o smtpd_etrn_restrictions=reject -o smtpd_enforce_tls=yes -o smtpd_tls_auth_only=yes -o smtpd_sasl_auth_enable=yes -o smtpd_use_tls=yes -o receive_override_options=no_address_mappings -o smtpd_client_restrictions=permit_mynetworks,permit_sasl_authenticated,reject Jun 8 16:20:21 mail postfix/submission/smtpd[3746]: connect from unknown[213.233.85.145] Jun 8 16:20:21 mail postfix/submission/smtpd[3746]: NOQUEUE: reject: CONNECT from unknown[213.233.85.145]: 554 5.7.1 <unknown[213.233.85.145]>: Client host rejected: Access denied; proto=SMTP Doar daca scot linia cu smtpd_client_restrictions din master.cf imi functioneaza trimiterea. -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] Postfix master.cf override main.cf
On 08/06/16 13:34, Catalin Muresan wrote: > On 8 June 2016 at 11:24, Catalin Muresan <catalin.mure...@gmail.com> wrote: > > sau poate ca ai (mult mai plauzibil pentru ca e cam default prin toate > exemplele): > > smtpd_tls_auth_only = yes > > Oricum e simplu de verificat, daca dai telnet mail.server.com 587 nu ar > trebui sa vezi AUTH decit dupa ce conexiunea e SSL. > > 220 mail ESMTP Postfix > ehlo me > 250-mail > 250-PIPELINING > 250-SIZE 20480 > 250-VRFY > 250-ETRN > *250-STARTTLS* > 250-ENHANCEDSTATUSCODES > 250-8BITMIME > 250 DSN Erau prin main.cf setarile astea, e ok din punctul asta de vedere, nu se poate face AUTH decat dupa SSL. Dar revenind la problema initiala, daca smtpd_client_restrictions ramane asa cum e in main.cf (cu restrictii de rbl) atunci comunicatia pe submission e blocata: Jun 8 15:36:43 mail postfix/submission/smtpd[29802]: connect from unknown[213.233.85.145] Jun 8 15:37:03 mail postfix/submission/smtpd[29802]: NOQUEUE: reject: CONNECT from unknown[213.233.85.145]: 554 5.7.1 Service unavailable; Client host [213.233.85.145] blocked using zen.spamhaus.org; https://www.spamhaus.org/query/ip/213.233.85.145; proto=SMTP Daca in master.cf fac override la setarile din main.cf: -o smtpd_client_restrictions=permit_mynetworks,permit_sasl_authenticated,reject Atunci ma rejecteaza cu access denied: Jun 8 15:53:58 mail postfix/submission/smtpd[32450]: connect from unknown[213.233.85.145] Jun 8 15:53:58 mail postfix/submission/smtpd[32450]: NOQUEUE: reject: CONNECT from unknown[213.233.85.145]: 554 5.7.1 <unknown[213.233.85.145]>: Client host rejected: Access denied; proto=SMTP Ceva nu fac bine pe undeva. Mersi, -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
[rlug] Postfix master.cf override main.cf
Salutare, Se da: # cat /etc/centos-release CentOS Linux release 7.2.1511 (Core) # uname -a Linux mail 3.10.0-327.10.1.el7.x86_64 #1 SMP Tue Feb 16 17:03:50 UTC 2016 x86_64 x86_64 x86_64 GNU/Linux # rpm -qa|grep postfix postfix-2.10.1-6.el7.x86_64 In main.cf am diverse restrictii obisnuite: smtpd_client_restrictions = hash:/etc/postfix/access, permit_mynetworks, permit_sasl_authenticated, reject_rbl_client zen.spamhaus.org, reject_rbl_client bl.spamcop.net, [etc] Ideea e ca pentru trimiterea de mailuri (prin portul de submission de exemplu) sa nu faca verificarile de mai sus. Daca ma autentific sa fie de ajuns sa accepte mailul si sa-l trimita, fara sa ma streseze de exemplu ca ip-ul public de la care trimit este prin vreun blacklist. In master.cf am facut asa: submission inet n - n - - smtpd -o syslog_name=postfix/submission -o smtpd_etrn_restrictions=reject -o smtpd_sasl_auth_enable=yes -o receive_override_options=no_address_mappings -o smtpd_client_restrictions=permit_mynetworks,permit_sasl_authenticated,reject -o smtpd_recipient_restrictions=permit_mynetworks,permit_sasl_authenticated,reject Si chiar vad procesul de postfix pentru submission pornit ca atare: postfix 6717 0.0 0.1 106752 5780 ?S01:20 0:00 \_ smtpd -n submission -t inet -u -o stress= -s 2 -o syslog_name=postfix/submission -o smtpd_etrn_restrictions=reject -o smtpd_sasl_auth_enable=yes -o receive_override_options=no_address_mappings -o smtpd_client_restrictions=permit_mynetworks,permit_sasl_authenticated,reject -o smtpd_recipient_restrictions=permit_mynetworks,permit_sasl_authenticated,reject In schimb cand incerc sa trimit mail: Jun 8 01:17:16 mail postfix/submission/smtpd[6260]: connect from unknown[213.233.85.145] Jun 8 01:17:16 mail postfix/submission/smtpd[6260]: NOQUEUE: reject: CONNECT from unknown[213.233.85.145]: 554 5.7.1 <unknown[213.233.85.145]>: Client host rejected: Access denied; proto=SMTP Jun 8 01:17:47 mail postfix/submission/smtpd[6276]: connect from unknown[213.233.85.145] Jun 8 01:17:47 mail postfix/submission/smtpd[6276]: NOQUEUE: reject: CONNECT from unknown[213.233.85.145]: 554 5.7.1 <unknown[213.233.85.145]>: Client host rejected: Access denied; proto=SMTP Jun 8 01:18:17 mail postfix/submission/smtpd[6276]: lost connection after UNKNOWN from unknown[213.233.85.145] Jun 8 01:18:17 mail postfix/submission/smtpd[6276]: disconnect from unknown[213.233.85.145] Jun 8 01:18:18 mail postfix/smtpd[6315]: connect from unknown[213.233.85.145] Jun 8 01:18:38 mail postfix/smtpd[6315]: NOQUEUE: reject: CONNECT from unknown[213.233.85.145]: 554 5.7.1 Service unavailable; Client host [213.233.85.145] blocked using zen.spamhaus.org; https://www.spamhaus.org/query/ip/213.233.85.145; proto=SMTP Din teorie, ce scrie in master.cf face override la ce e in main.cf dar la mine nu :-) Imi scapa ceva, dar nu stiu ce, asa ca daca aveti vreo idee... Mersi, -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] Kernel modules
On 09/03/16 22:26, wo...@prolinux.ro wrote: > e ciudat, e prima oara ca aud de asa ceva. Incearca sa setezi si > parametrul care configureaza eliminarea modulelor la oprirea iptables > a.i. sa nu le mai dea unload. O sa testez si eu dar abia in WE sau > sapt viitoare. Intre timp iti propun sa intrebi si pe forumul CentOS > si/sau pe #centos. Scuze, am uitat prin /etc/modprobe.d un fisier .conf prin cate tot testam chestii, de aici ciudateniile. Merg setarile din /etc/sysconfig/iptables-config foarte bine. Ramane sa vad daca mai dispar modulele din memorie in continuare. Mersi, Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] Kernel modules
On 09/03/16 20:04, wo...@prolinux.ro wrote: > IIRC, /etc/sysconfig/iptables-config e fisierul de configurare pt > modulele sistemului conntrack # cat /etc/sysconfig/iptables-config | grep IPTABLES_MODULES IPTABLES_MODULES="nf_conntrack_proto_gre nf_nat_proto_gre nf_conntrack_pptp nf_nat_pptp" # service iptables restart iptables: Setting chains to policy ACCEPT: mangle filter na[ OK ] iptables: Flushing firewall rules: [ OK ] iptables: Unloading modules: [ OK ] iptables: Applying firewall rules: [ OK ] iptables: Loading additional modules: nf_conntrack_proto_gr[ OK ]_proto_gre nf_conntrack_pptp nf_nat_pptp # lsmod|grep nf nf_nat 22676 1 iptable_nat nf_conntrack_ipv4 9154 18 iptable_nat,nf_nat nf_conntrack 79206 4 xt_state,iptable_nat,nf_nat,nf_conntrack_ipv4 nf_defrag_ipv4 1483 1 nf_conntrack_ipv4 Nu s-au incarcat modulele de pptp. Hai sa zicem ca le incarc "manual", dar nu prea inteleg de ce dispar de pe o zi pe alta. -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
[rlug] Kernel modules
Salutare, Se da un server linux gateway (iptables nat) cu urmatoarele caracteristici: # cat /etc/centos-release CentOS release 6.7 (Final) # uname -a Linux localhost.localdomain 2.6.32-573.18.1.el6.x86_64 #1 SMP Tue Feb 9 22:46:17 UTC 2016 x86_64 x86_64 x86_64 GNU/Linux Implicit conexiunile prin vpn pptp (client intern, server extern) nu se pot realiza pentru ca in kernel nu se incarca automat modulele necesare. Daca le incarc manual totul e ok: modprobe nf_conntrack_proto_gre modprobe nf_nat_proto_gre modprobe nf_conntrack_pptp modprobe nf_nat_pptp Insa m-a cam lasat memoria si nu imi mai aduc aminte daca nu cumva kernelul le face "unload" automat dupa o anumita perioada de neutilizare, pentru ca peste noapte au disparut. Nu vreau nici sa recompilez kernel pentru asta, nici sa fac vreun artificiu microsoftist sa pun in cron sa faca modprobe la module mereu. As vrea doar sa rezolv problema asta elegant, ori sa incarce kernelul modulele astea la nevoie, ori sa le incarc eu la boot si sa le lase in memorie forever. Mersi de ajutor, -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] Debian packages error
-0wheezy1 - 2015d-0+deb8u1 [UPGRADE] ucf 3.0025+nmu3 - 3.0030 [UPGRADE] unhide 20110113-4 - 20121229-1+b1 [UPGRADE] unrar 1:4.1.4-1 - 1:5.2.7-0.1 [UPGRADE] unzip 6.0-8+deb7u2 - 6.0-16 [UPGRADE] x11-common 1:7.7+3~deb7u1 - 1:7.7+7 === Log complete. Dupa care a mai facut asta: [UPGRADE] hicolor-icon-theme 0.12-1 - 0.13-1 [UPGRADE] libthai-data 0.1.18-2 - 0.1.21-1 [UPGRADE] mime-support 3.52-1+deb7u1 - 3.58 [UPGRADE] xbitmaps 1.1.1-1 - 1.1.1-2 Si in continuare insista doar pe pachetul mime-support sa faca update si nu reuseste. -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] Debian packages error
On 07/23/15 15:31, Petru Rațiu wrote: Da, linia aia cu stable e problema. Cam toate liniile de [UPGRADE] sunt schimbari de pachete de la wheezy (7.x) la jessie (8.x). Practic ma intereseaza ca distributia sa nu fie end-of-life, cred ca cel mai bine in situatia in care am ajuns e sa-i fac upgrade. Banuiesc ca trebuie sa trec intai prin 7 ca sa ajung la 8... Si sa inteleg ca in sources.list ar fi cel mai bine sa am numele distributiei in loc de stable. Multumesc de ajutor, -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
[rlug] Debian packages error
Salut, As avea nevoie de putin ajutor din partea acelora care sunt mai familiarizati cu debian-ul, n-as vrea sa sap aiurea, macar nu din prima :-) Am urmatorul sistem: # cat /etc/debian_version 6.0.7 # uname -a Linux ... 3.2.0-4-686-pae #1 SMP Debian 3.2.65-1+deb7u2 i686 GNU/Linux Update-uri fac regulat folosind 'aptitude safe-upgrade'. Cred ca dupa ultimul update s-a intamplat ceva, nu stiu daca numai in db-ul cu package-urile, pentru ca a trebuit sa adaug in /etc/ld.so.conf.d liniile: /lib/i386-linux-gnu /usr/lib/i386-linux-gnu ca sa imi vada ceva biblioteci (de ex. /usr/lib/i386-linux-gnu/libevtlog.so.0.0.0). Erorile de care ma mai lovesc acum: Can't load '/usr/lib/perl5/auto/RRDs/RRDs.so' for module RRDs: libdbi.so.1: cannot open shared object file: No such file or directory at /usr/lib/perl/5.10/DynaLoader.pm line 192. PHP Warning: PHP Startup: Unable to load dynamic library '/usr/lib/php5/20090626+lfs/snmp.so' - /usr/lib/php5/20090626+lfs/snmp.so: cannot open shared object file: No such file or directory in Unknown on line 0 # aptitude safe-upgrade Resolving dependencies... open: 284; closed: 297; defer: 98; conflict: 240 oInternal error: the solver Install(python3 3.4.2-2 devscripts 2.15.3 - {python3 3.4.2-2}) of a supposedly unresolved dependency is already installed in step 683 Internal error: the solver Install(python3 3.4.2-2 devscripts 2.15.3 - {python3 3.4.2-2}) of a supposedly unresolved dependency is already installed in step 686 open: 445; closed: 466; defer: 131; conflict: 296 OThe following packages will be upgraded: mime-support 1 packages upgraded, 0 newly installed, 0 to remove and 420 not upgraded. Need to get 0 B/36.0 kB of archives. After unpacking 14.3 kB will be used. Do you want to continue? [Y/n/?] y (Reading database ... 81623 files and directories currently installed.) Preparing to replace mime-support 3.52-1+deb7u1 (using .../mime-support_3.58_all.deb) ... dpkg: error processing /var/cache/apt/archives/mime-support_3.58_all.deb (--unpack): triggers ci file contains unknown directive `interest-noawait' configured to not write apport reports Errors were encountered while processing: /var/cache/apt/archives/mime-support_3.58_all.deb localepurge: Disk space freed in /usr/share/locale: 0 KiB localepurge: Disk space freed in /usr/share/man: 0 KiB Total disk space freed by localepurge: 0 KiB E: Sub-process /usr/bin/dpkg returned an error code (1) A package failed to install. Trying to recover: Cu ce verificari ar fi mai bine sa incep ca sa fiu sigur ca aduc sistemul pe linia de plutire? Multumesc, -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
[rlug] Postfixadmin si diacritice
Salutare, In postfixadmin (3.0) ati reusit sa introduceti domenii (eventual conturi) cu diacritice? DEBUG INFORMATION: Invalid query: Illegal mix of collations (latin1_swedish_ci,IMPLICIT) and (utf8_general_ci,COERCIBLE) for operation '=' Check your error_log for the failed query. Please check the documentation and website for more information. Mersi, -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] Postfixadmin si diacritice
On 09/07/15 21:31, Alex 'CAVE' Cernat wrote: n-am facut, asa ca imi dau cu presupusul :-P domeniile oricum trebuie sa le bagi in format punycode, ca altfel nu ti le ia nimeni in seama (doar in browsere si clientul de mail o sa vezi mâță.ro, in rest va fi un xn--m-SPANAC.ro); in principiu ar trebui clientul de mail sa stie sa faca traslatarea din diacritice in puny, smtp-ul stie doar de domenii ascii ca sa-ti fie mai usor poti sa pui diacritice la descriere (daca nu cumva se supara mysql-ul de ce-i bagi in el) nu stiu insa cum se rezolva treaba cu diacriticile in adresele de email (as in 'contul de mail'), cand m-am mai documentat ultima data despre domenii cu diacritice erau discutii destul de aprinse legate de aceste chestii, din care nu pot sa zic ca am ajuns la o concluzie tldr, la tine pare o problema de mysql, probabil baza e utf8 iar clientul vrea latin1_swedish; sfatul meu ar trebui sa lasi utf8 unde este si sa fortezi partea cealalta in utf8 Da, ajunsesem si eu la aceeasi concluzie, am testat cu punycode si merge pentru nume de domeniu. Acuma peste ce belele oi mai da in timp o sa vad :-) Thx, -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] Postfixadmin si diacritice
On 09/07/15 22:14, Alex 'CAVE' Cernat wrote: sa imi zici si mie daca apuci sa faci Costică.Ștefănescu@mâță.ro, ca sunt curios de feedback desi mi se pare dubla durere de cap, o data la admin, ca trebuie sa-si bata capul cu toate porcariile astea, si o data la luzerul de rand, care va injura cand ii va trimite lu costica dar ma rog, rusii, chinezii ( alte natii de asiatici) si arabii sunt cei mai fericiti, ca pot sa-si puna hieroglifele in functiune Am facut user in postfixadmin, dar cand sa trimit din Thunderbird imi da cu virgula, cica folosesc non-ascii caractere la username si nu e inca suportat lucrul asta :-) -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] Calendar sharing
On 25/05/15 22:21, mi...@badici.ro wrote: Da, nu o aduce. De fapt habar n-am cum o aduce exchange. Sa accesezi direct serverul de ldap nu mi de pare funny, desi outlook are posibilitatea asta, sa adaugi o agenda ldap. Eventual mai da si tu o cerere pe lista lor, nu vei fi primul :) M-am uitat pe liste si deja au intrebat altii, n-are rost sa mai incerc si eu. Sunt doar trimiteri catre diverse plugin-uri pe bani. Agenda am adus-o cu LDAP, chiar si asa are neajunsuri, nu poti rasfoi prin ea, bagi parti din nume si face autocomplete, cam atat. -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] Calendar sharing
On 25/05/15 19:44, mi...@badici.ro wrote: Pentru Toma Necredinciosul si balaurul lui Gheorghe :) http://mihai.badici.ro/linux/activesync.png Din fericire desi nu l-am activat inca mai functioneaza ( nu vreau sa recunosc ca folosesc Outlook) :) E o versiune mai veche, dar pot oferi conturi de test (pe perioada limitata ca faceti spam ) , serverul e functional. Scuze de delay, ca nu va lasam sa va mai certati :-) Am configurat si eu cont de Outlook 2013 cu ActiveSync ieri si e ok. Singurul lucru suparator este ca nu stie sa aduca si Global Address Boook-ul din LDAP prin acelasi protocol, ar fi fost de ajutor. -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] Calendar sharing
On 24/05/15 13:03, mi...@badici.ro wrote: Acum ce sa zic, mie oricum mi se pare mai sanatos asa, altfel ai de intretinut doua servere, unul de mail si altul de calendar :) Daca ceea ce ai acum e dovecot+postfix, go my way : Adica pasul unu, daca nu ai , pune openldap pentru autentificare ( la limita merge si fara, ca in definitiv autentificarea nu are legatura cu suportul de calendar. Pasul doi: update dovecot pentru suport de metadata Pasul trei: adaugare module roundcube ( necesita bibliotecile libkolabxml de php) pasul patru: serviciile ( syncroton, iRony si ce mai vrei) In afara de pasul unu, care sa zicem ca ar fi mai delicat, in rest cam totul ar merge fara ca utilizatorii sa fie deranjati. Deocamdata sa-l vad functional pe un sistem de test CentOS 6.6 fresh, apoi ma gandesc la cei 4 pasi :-) Thx, -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] Calendar sharing
On 24/05/15 08:18, mi...@badici.ro wrote: On Sunday 24 May 2015 07:52:50 Cristi Mitrana wrote: kolab e free :) O vreme au folosit binary connector ( care nu era free) pentru Outlook, nu mai stiu in ce stadiu se afla proiectul. Dupa cum ziceam, acum pare ca merge cu ActiveSync, cu unele limitari ( un singur calendar, o singura agenda). DAr cred ca asta e limitarea ecosistemului Exchange,m asa ca nu ar conta :) Multumesc pentru raspunsuri. Kolab pare solutia free cea mai reusita, desi fiind all-in-one trebuie sa fac implementarile de la zero si sa renunt la ce am acum. Singura chestie ar fi ca vreau sa folosesc dovecot vs. cyrus, vad ca exista niste patch-uri, sper sa fie ok. Daca reusesc sa-l integrez si cu Outlook si sa ii conving ca e o solutie viabila comparativ cu Exchange... :-) -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
[rlug] Calendar sharing
Salutare, Incerc sa implementez un server de calendar sharing pe linux, care sa faca treburile basic, adica userii sa-si poata configura evenimente in diverse calendare, sa le vada in clientul de mail (Thunderbird/Outlook), pe telefon. Cerintele cred ca vor fi mai mari de atat, adica de exemplu daca un sef vrea sa organizeze o sedinta cu altii din organizatie la o anumita data/ora sa il atentioneze calendarul ca unul sau mai multi din cei pe care i-a invitat sunt deja ocupati la acea ora cu alte evenimente. Deocamdata sunt la faza de teste, dar as vrea sa abuzez de experienta voastra si sa incep cu ce trebuie, ca sa nu ajung sa imi scoata ochii vreun microsoftist ca Exchange sharing calendar face tot si altul nu. Din ce-am citit pana acum Davical pare sa fie o optiune. Multumesc, -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] Despre PFA
On 04/30/2015 12:54 PM, Maximilian Ionescu wrote: Intrebarea era ce activitati se pot trece pentru CAEN-ul mai sus amintit, adica 6202 - activitati de consultanta in tehnologia informatiei. Din cate am inteles instalarea si configurarea calculatoarelor nu ar intra aici (este alt cod CAEN). Consultanta este insa un termen legal destul de ambiguu si de aceea as dori niste lamuriri cu ce se poate face si ce nu, presupunand ca s-a mai intalnit cineva cu aceste intrebari si poate a gasit un raspuns concret si corect. Eu am trecut prin asta si am aflat cu greu ca exista niste almanahe complete si foarte detaliate pe fiecare cod CAEN in parte la Statistica. Am fost la ei, mi-am cautat codul, prin bunavointa lor mi-au tras la xerox pagina care ma interesa si in baza ei mi-am definit exact activitatea. Codurile CAEN erau desfasurare in subdiviziuni, gen 6202.1, 6202.11, 6202.12 in care erau definitii destul de clare. Am cautat atunci pe net in format electronic nomenclatoarele astea, am refacut cautarile si acum, dar n-am reusit sa gasesc. Daca stie cineva mai multe detalii, cred ca ar fi utile multora. -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] regbot attack : ce este si cum pot investiga
On 24.04.2015 14:24, Adrian Sevcenco wrote: Ce ma sfatuiti? Cum pot sa investighez problema? https://www.rfxn.com/projects/linux-malware-detect/ Daca ai putin noroc si e ceva ce intra in standarde, dupa o scanare a directoarelor wordpress o sa gasesti malware-ul instalat. -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] forcefsck
On 19.02.2015 18:11, Catalin Bucur wrote: On 19.02.2015 16:54, Marius Cornea wrote: Incearca asta: http://www.freedesktop.org/software/systemd/man/systemd-f...@.service.html Mda, una e teoria, alta e practica. Nu pare sa fie luati in seama parametrii aia. In grub2.cfg am introdus in linia cu kernelul fsck.mode=force si fsck.repair=yes 'Force' face oricum, ca stie ca e buleala. Mai departe insa imi face drop in consola ca sa rulez manual fsck. N-am rezolvat problema, dar am inteles macar de ce nu merge fsck-ul in situatia mea. Problema e legata de systemd-ul din F19 care nu are inca implementat parametrul fsck.repair, in versiunile ulterioare exista si functioneaza, am testat. Wasting my time... Multumesc de ajutor, -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] forcefsck
On 19.02.2015 16:46, manuel lonely wolf wolfshant wrote: gurile rele zic ca ar functionashutdown -rF now Nu pare documentata optiunea, nici nu merge: Unknown option code 'F'. Varianta data de Marius pare sa fie legala, citesc si testez. Mersi. -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] forcefsck
On 19.02.2015 16:54, Marius Cornea wrote: Incearca asta: http://www.freedesktop.org/software/systemd/man/systemd-f...@.service.html Mda, una e teoria, alta e practica. Nu pare sa fie luati in seama parametrii aia. In grub2.cfg am introdus in linia cu kernelul fsck.mode=force si fsck.repair=yes 'Force' face oricum, ca stie ca e buleala. Mai departe insa imi face drop in consola ca sa rulez manual fsck. -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
[rlug] forcefsck
Salut, Un Fedora 19 incerc sa il fortez sa faca un fsck la reboot, dar sa raspunda si cu y la intrebari si sa rezolve automat problemele (chiar daca sa spunem ca sunt mai grave si in mod normal sistemul m-ar lasa intr-un shell sa fac eu asta manual). Pe vremuri existau niste optiuni: Optiunea 1: touch /forcefsck echo -y /fsckoptions Optiunea 2: cat /etc/sysconfig/autofsck: AUTOFSCK_DEF_CHECK=yes PROMPT=yes AUTOFSCK_TIMEOUT=10 AUTOFSCK_OPT=-y Din cate am testat nu imi merge nimic din ce e mai sus. Scriptul de boot care interpreta chestiunile astea era /etc/rc.d/rc.sysinit la care s-a renuntat odata cu integrarea lui systemd. Asa ca inclin sa cred ca asta ar fi motivul pentru care nu functioneaza. Probabil si pe CentOS 7 e aceeasi situatie, inca nu am testat. Stie cineva daca s-a renuntat la optiunile astea si s-au introdus altele noi? Sau trebuie sa stau intr-un picior si cu mana stanga ridicata dupa ce dau reboot? Mersi de ajutor, -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] webftp
On 13/01/15 11:54, Tarhon-Onu Victor wrote: DAV in acelasi folder in care ai si fisierele sharuite via ftp? Oricum solutia pe care o cauti a venit in urma formularii gresite a problemei. Cu asta am inceput, dar m-am apucat de cautat si altceva cand am vazut ca proiectele alea au cam ramas in acelasi stadiu de ani de zile. Nu stiu cum va interactiona webdav cu win7/8 etc. Nu vreau sa fac debugging pentru M$. Solutiile propuse de ceilalti colistati (usermin, owncloud) sunt mai stufoase decat mi-ar trebui, dar prefer sa le aplic daca solutia cu dav nu mai e asa eficienta cum era cand m-am jucat acum multi ani cu ea. In ce priveste formularea problemei e posibil sa fie eronata, dar daca poti reformuleaza putin, poate plec de la niste premise gresite. In principiu vreau interfata web peste ftp (ceea ce ar fi DAV), dar poate imi dai alta idee :-) Mersi, Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
[rlug] webftp
Salut, Incerc sa gasesc o varianta free optima si simpla s-o instalez pe un server, astfel incat sa poata fi citite/scrise fisiere pe serverul de ftp via o interfata web. In loc sa pierd timpul cu instalarea/configurarea ei o fac cautand ceva potrivit prin zecile de variante, asa ca daca puteti curmati-mi suferinta si dati-mi cateva idei. Mersi, -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
[rlug] Arhiva mailuri
Salut, Pe un server am adunat cateva sute de mii de mailuri aranjate pe ani de zile, la care se adauga mereu mesajele din fiecare zi. Practic a ajuns un fel de arhiva in format maildir. Am configurat un dovecot ca sa pot accesa prin imap arhiva si sa fac ceva cautari (folosind Thunderbird), insa merge greu spre deloc. Probabil sta mult sa faca indexarea folderelor (i-am scos optiunea sa le traga si local) ca iti piere cheful sa mai cauti ceva. Stie cineva vreo interfata web (sau alta metoda) care sa fie simpla, eficienta si sa pot face cautari? Adica sa indexeze regulat ce e in folderele alea, astfel incat sa pot cauta candva relativ repede un mail dupa subiect/expeditor/destinatar/body. Am gasit o combinatie sa introduc mailurile alea intr-un mailman, dar nu prea are search. Banuiesc ca exista idei mai bune ca ale mele, asa ca le astept :-) Mersi, -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] Arhiva mailuri
On 22.08.2014 18:08, Petru Ratiu wrote: Noi pe la cateva milioane de mailuri am renuntat la dovecot si le-am bagat intr-un mailarchiva ( https://www.mailarchiva.com/downloads ). Da, e java da' pentru o aplicatie java crapa suprinzator de rar :) Search is hard. Si pana atunci mergea ok cu imap+client de mail? Adica pana intr-o suta de mii de mailuri per folder ma asteptam sa fie asta o solutie totusi. -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
[rlug] openvpn force reconnect client
Salutare, Exista vreo metoda sa fortez un client de openvpn sa se reconecteze la server fara sa intervin asupra clientului? Am un client care ramane agatat uneori; nimic in loguri, totul pare ok in ambele parti dar nu mai face deloc trafic cand il apuca. Deocamdata fac monitorizare, dar as vrea sa-l si fortez sa faca si reconectare cand crapa. N-as vrea sa dau restart la intregul serviciu de openvpn doar pentru asta, decat daca n-am alta varianta. Multumesc, -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] openvpn force reconnect client
On 30.05.2014 18:08, Claudiu Nicolaie CISMARU wrote: Aceasi problema am avut-o si eu. E un feature, nu un bug. De fapt, el incearca sa se reconecteze, dar nu mai poate... rulandu-l la un moment dat in debugging mode, parca, am aflat de ce. Motivul este: cand il setezi sa faca switch user si sa faca drop privileges, nu mai poate sa treaca inapoi la root sa poata sa refaca tunelul... din cauza aia ramane agatat, sau pur si simplu moare. Pentru asta, tb sa il setezi sa nu faca drop la privileges... si atunci o sa se reconecteze cum trebuie. Cred ca e un feature de-al Vindoze-ului :-) Serverul este pe linux, dar majoritatea clientilor sunt pe Windows (acelasi SO, aceleasi setari de client), insa nu face chestia asta decat intr-un singur loc. Am terminat cu incercari gen reinstall alta versiune de openvpn client, sters tap, apoi recreat etc., asa ca acum caut o varianta sa-i spun sa se reconecteze cand vreau eu. Zici sa nu mai folosesc: user nobody group nobody in partea de server? -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] sugestie alegere VPS
On 17/05/14 10:24, Florin Popovici wrote: Eu tocmai mi-am luat un dedicat la Hetzner, i7 750 / 12GB ram / 3 x 1.5TB SATA, cu 38euro / luna. Grija cu Hetzner totusi, sunt foarte ieftini, dar le pica HDD-urile intr-o veselie. De asemenea, mai au sughituri pe partea de retea. Eu masina o s-o folosesc pentru owncloudul personal si VM-uri de joaca, asa ca pot accepta cele de mai sus. Pot confirma si eu chestia cu hdd-urile la ei, am patit-o. Dar probabil ca de aici ajung preturile asa mici, pentru ca folosesc WD Green :-) -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] sugestie alegere VPS
On 16/05/14 15:52, Alex Ionescu wrote: retrag intrebarea tampita cu cine se ocupa si raman la: vps?/dedicat?(ce furnizor recomanzi?) Cred ca alegerea trebuie s-o faci singur pana la urma. Daca luam ca referinta spatiul de storage, ar trebui sa te indrepti spre dedicat. Un dezavantaj ar fi sa zicem downtime-ul in cazul vreunei probleme hardware pana rezolva cei din datacenter problema. Eu am de ceva ani un vps la xservers fara probleme. Alte pareri despre ei? -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
[rlug] Clona hdd
Salutare, Se da un CentOS 5.2 - 32 bit. Incerc sa mut informatiile de pe un server (vechi) pe altul (nou). N-am vrut sa ma apuc de repartitionari, copieri de date etc. si m-am gandit ca o clona ar fi o solutie mai simpla. Pe serverul vechi e un raid 5 hardware, vazut in linux ca /dev/sda, impartit in sda1 si sda2. sda1 e partitia /boot sda2 face parte dintr-un LVM cu 2 volume logice: /dev/VolGroup00/LogVol00 si /dev/VolGroup00/LogVol01 - una reprezinta partitia root, cealalta swap Cu Clonezilla s-a facut clonare full pe un hdd simplu, apoi s-a montat acel hdd pe noul server. Grub-ul porneste, dar kernelul nu vede partitia root, eroarea e clasica: No volume groups found Volume group VolGroup00 not found Unable to access resume device (/dev/VolGroup00/LogVol01) etc. Imi scapa ceva, dar nu-mi dau seama ce, hdd-ul cel nou e vazut de sistem tot ca /dev/sda. TIA, -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] Clona hdd
On 24/04/14 20:22, Bogdan-Stefan Rotariu wrote: Cel mai probabil iti scapa ceva initrd (mkinitrd), ideal ar fi sa il faci din rescue centos 5 - 32 bit (merge si din systemrescuecd, nu incerca din knoppix sau alte live-uri debian based) Pai bun, dar care e logica? Am facut o clona tocmai ca sa nu mai fac miscari de genul asta. Adica hdd-ul e denumit la fel, volumele sunt la fel, ma asteptam ca problemele sa apara dupa ce incepe boot-area efectiva (uuid-uri sau mai stiu eu ce), dar nu asa devreme. -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] Clona hdd
On 24/04/14 21:50, Abibula Aygun wrote: Si de ce nu faci clona hard cu hard ? Bootezi de clonezilla live CD si clonezi hard cu hard . Apoi rebuild la matrice si gata . Eu am clonat cu clonezill pina si microsd-uri care aveau sistemul de operare android pe ele . Da! Am dat de o tableta Datamaxx care in loc de flash avea micro-sd . A mers clonarea pe un alt card asemanator din Live CD Clonezilla ca uns. Scos cardul nou - proaspat clonat si go planet. Am facut si la matrici de SAN fara nici o problema . Lucrezi pe alata masina , scoti hardurile pe rand si le clonezi pe noile harduri. Le infingi in ordinea introbagarii si vezi ce iese. Pe masina in productie poti sa inlocuiesti hardurile vechi cu cele nou clonate ca sa vezi daca merg . De regula nu trebuie sa ai bube. Dupa aceea muti totul pe noua masina. Vezi sa nu fie ceva , vreun modul in kernel are nu se incarca pe masina cea noua . Daca hardurile clonate merg pe serverul vechi acolo trebuie sa cauti. Succes ! Te rog citeste ce am scris inainte sa raspunzi. Am scris ca am facut clona bit-by-bit sau cum vrei tu sa-i spui. Destinatie am un hdd, nu raid, desi nu cred ca e vreo diferenta. -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] Clona hdd
On 24/04/14 22:05, Mihai Badici wrote: absolut toate kernelele centos au suport de LVM Ma refeream la suportul compilat in kernel versus modul si initrd. A, si inca ceva, nu cumva noul hard e IDE si e vazut ca hda? :) Daca ACELASI kernel functiona cu LVM si eu am facut clonare full, de ce ar fi disparut suportul de lvm din kernel? Doar nu e magie. De asta zic, eu incerc sa gasesc o logica in toata povestea asta :-) -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] Clona hdd
On 24/04/14 21:58, Bogdan-Stefan Rotariu wrote: Citez de la tine Pe serverul vechi e un raid 5 hardware, vazut in linux ca /dev/sda, impartit in sda1 si sda2., serverul nou == identic hw cu cel vechi ? Daca la boot nu se vede discul, nici lvm-ul nu are cum sa mearga, iar daca nu e incarcat la boot noul controller, noul hw, ce ai tu acolo cum te astepti sa mearga? Repet ce am scris in mailul initial: Cu Clonezilla s-a facut clonare full pe un hdd simplu. Deci pe noul server (care nu e identic hw cu cel initial) nu mai discutam de controller-e hardware. E un simplu hdd sata. Si il vede cu siguranta. Posibil sa vrea neaparat sa gaseasca acel controller de raid anterior, desi in noua configuratie nu mai are nevoie de el? -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] Clona hdd
On 24/04/14 22:16, wo...@prolinux.ro wrote: Boot in rescue mode, chroot in discul nou si mkinitrd. E primul pas maine, deja am facut discul de rescue. Pana atunci mai adun idei, poate gasesc si logica :-) Mersi, -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] Clona hdd
On 24/04/14 22:19, Vali Dragnuta wrote: Da, e posibil sa nu-ti incarce driverul pentru controllerul sata . Probabil trebuie sa adaugi in /etc/modprobe.conf linii gen : alias scsi_hostadapter2 ata_piix alias scsi_hostadapter3 ahci sau ce controller ai tu in sistem. Pe urma trebuie refacut initrd si bootat din nou. Eu ma gandeam ca totusi kernelul e nostalgic si inca mai cauta controller-ul raid si e suparat ca nu-l gaseste. Ca mai vad pe ecran o eroare i8042.c: No controller found. Probabil problema e in initrd totusi, nu vad unde in alta parte. Dar sa nu vada un sata clasic... -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] Clona hdd
On 24/04/14 22:22, Bogdan-Stefan Rotariu wrote: Prietene, daca simti ca le stii pe toate de ce ne mai ceri sfaturi ? Daca serverul nou nu este identic, inseamna ca nici initrd nu este identic, iar de aici este posibil sa fie problema ta, dar asta poti sa afli doar dupa ce testezi. (este epidemie de boala costineasca?) N-am vrut decat sa subliniez faptul ca specificasem deja ca noul hardware nu e identic si ca nu e vorba de raid hardware (nici macar raid) pe cel nou. Daca voiam sa ma cert ma duceam in alta parte. -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] Montare automata disc usb pe centos 6.5
On 31/12/13 12:10, Radu Radulescu wrote: problema cu autofs este ca o sa monteze device-ul numai cand incerci sa accesezi continutul cea mai eleganta solutie este tot cu udev Pai si de ce-ar vrea sa fie deja montat device-ul daca nu-l foloseste? Tocmai asta e ideea folosind autofs. Paul: in /etc/auto.misc pune linia: extern1 -fstype=auto :UUID=1CA057FDA057DBB8 autofs monteaza automat in directorul /misc, nu trebuie sa-i specifici calea completa. Si va monta device-ul doar cand faci o cerere catre el, de exemplu ii dai: # ls /misc/extern1 Device-ul se demonteaza automat dupa 5 minute de neaccesare, sau il poti demonta manual cu umount. Erorile le gasesti in /var/log/messages ca sa vezi ce gresesti in optiunile pe care le pui in auto.misc -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] Montare automata disc usb pe centos 6.5
On 30/12/13 22:59, Mihai Badici wrote: On Monday 30 December 2013 22:48:28 Paul Lacatus wrote: Pe serverasul meu de acasa care ruleaza in runlevel 3 as vrea sa se monteze automat un anumit disc usb la pornire daca e conectat sau la conectare intr-un director fix /mnt/ . Recunoaterea partitiei as putea sa o fac dupa UUID , nu pot dupa device pentru ca se poate schimba in functie de ce am mai conectat . Problema e cum triggerez comanda de montare la conectare sau la pornire Paul In zilele noastre asta se face cu udev. Prin /etc/udev.d/rules.d se pune o regula pe care o afli din manual :) Cred ca si autofs e o solutie ok. -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] Montare automata disc usb pe centos 6.5
On 30/12/13 23:45, Mihai Badici wrote: Autofs n-am folosit , posibil sa mearga. Cu autofs cred ca mai simplu totusi, mai putin lucru manual: # yum install autofs # cat /etc/auto.misc ext -fstype=ext4,rw,user :/dev/sda4 # service autofs start # cd /misc/ext /dev/sda4 il poti inlocui cu un label sau uuid dupa preferinte -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] Card USB 3.0 VL805 pe FC12 kernel 2.6.32
On 18.10.2013 12:38, Mișu Moldovan wrote: Procesul nu e perfect, da' de regulă merge fără probleme majore. În orice caz, ce au putut „ronțăi” trei zile aptitude/apt-get mă depășește, io am un server vechi de 15 ani ce s-a actualizat în vreo două-trei ore, IIRC. http://www.mail-archive.com/rlug@lists.lug.ro/msg28851.html Tocmai am postat asta acum cateva zile. Merg de cativa ani cu serverul asta fara probleme de upgrade/update, si acum - deodata - aptitude ranseste 3 zile continuu pana termina tot ram-ul si crapa partial serverul. Cred ca e fara sens discutia, probleme vor exista indiferent de distributie, pana acum - din cate stiu - nu s-a inventat sistemul de operare perfect care sa faca si upgrade cand dai click pe butonul Next. Poate sa reuseasca Microsoft-ul in viitorul apropiat... Faptul ca ai reusit sa faci upgrade-uri la Debian de cate ori ai vrut fara sa ai probleme majore nu inseamna nimic altceva decat ca te-ai descurcat foarte bine, coroborat cu faptul ca ai folosit o distributie decenta si ca ai avut si un dram de noroc. La fel pot sa ma laud si eu cu cateva servere plecate de la Fedora 5 si ajunse la 18, desi uneori teoria spunea ca o faci pe riscul tau (uneori chiar asa a fost). -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] Card USB 3.0 VL805 pe FC12 kernel 2.6.32
On 18.10.2013 16:06, Mișu Moldovan wrote: Atâta timp cât unele distribuții au suport built-in pentru actualizare de versiuni și la altele e doar un afterthought, degeaba ne scoatem unii altora ochii cu exemple personale, diferența rămâne. Motivul pentru care numărul actualizărilor nereușite pare a fi comparabil pentru unii în ce privește RHEL cu Debian cred că e faptul că actualizări Debian face toată lumea, e ceva firesc, pe când actualizări RHEL fac doar ăia ce știu ce fac și/sau au tupeul necesar. Nu amestec Fedora în discuție, că aia nu-i distribuție de pus pe un server în producție, e pentru testare, învățat, orice altceva. Văd că, începând de anul trecut, are FedUp, un sistem de actualizare a versiunii, da' bănuiesc că-i bleeding edge, specialitatea casei. S-ar putea să aibă treaba cu zvonurile despre RHEL 7. Stiu, nu amestec nici eu Fedora cu distributiile decente. Chestia insa buna - zic eu - a fost ca totusi upgrade-ul cu yum a mers de cele mai multe ori fara mari batai de cap. Dar si cele putine batai de cap au fost totusi destul de triste. Pentru RHEL trebuie sa gasesti totusi niste workaround-uri la momentele de upgrade, probabil si pentru ca saltul este destul de mare. Dar sa nu uitam ca saltul este mare si datorita faptului ca EOL-ul este mare. Si atentie, distributiile cu suport built-in de upgrade nu inseamna ca au preluat riscul, in documentatia de la Debian scrie: 4.1.1. Back up any data or configuration information, si nu scrie degeaba. Poate pentru upgrade-urile live folosind yum au pus niste atentionari mult mai agresive decat cele care folosesc aptitude, dar asta nu inseamna ca nu exista risc cand faci asta, iar in momentele alea nu prea mai are relevanta built-in-ul. -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
[rlug] aptitude
Salut, Am un sistem functional de ani de zile cu Debian instalat. Incerc sa ma pregatesc de un upgrade la versiunea 7, dar inainte de asta as vrea sa fac un update la pachete. Din pacate nu prea mai vrea sa faca ce vreau eu, rasneste intr-una la verificarile de pachete, dependinte, conflicte etc., cred ca a mers asa si vreo 2 zile, timp in care pare ca sistemul mai pierde ceva din stabilitate, din cate vad in loguri cam pana cand termina ram+swap. root@arad:~# aptitude safe-upgrade Resolving dependencies... open: 1212; closed: 2196; defer: 80; conflict: 159 ^C # uname -a Linux linux 2.6.32-5-686 #1 SMP Mon Feb 25 01:04:36 UTC 2013 i686 GNU/Linux # cat /etc/debian_version 6.0.7 Pana la urma am facut update-uri folosind apt-get, dar as vrea sa stiu ce nu ii convine, sa nu am vreo surpriza la upgrade-ul de distributie. Daca are cineva o idee de unde sa incep, please... Mersi, -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] setvcpus
On 4/13/2013 7:34 PM, Nux! wrote: Da, se poate, dar trebuie oprita masina virtuala. Ori faci din virt-manager or ad labam cu virsh edit VM parca si modifici acolo nr de cpu-uri. De editat o pot face, cred ca pot pune si 100 cu virsh edit :-) Am pus 6 si n-a marait nimic, dar maximul setat cand s-a creat guest-ul a fost 4, asa ca dupa ce booteaza imi arata tot 4 vcpus. -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] setvcpus
On 4/14/2013 11:50 AM, Nux! wrote: virsh setvcpus VM01 6 --config --maximum De fapt cred ca e nevoie si de virsh setvcpus VM01 6 --current iti recomand virt-manager, te scapa de bataile astea de cap. Mda, m-am tot cramponat de mesajul ala de avertizare ca n-am voie sa mai modific vcpus daca asa a fost creata initial masina virtuala. Am oprit guest-ul si apoi m-a lasat in pace sa modific. Mersi de ajutor. -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
[rlug] spammeri
Salut, Din cand in cand, in functie de timp ma mai bat cu spammerii, asa ca m-am tot jucat cu optiuni in postfix sa blocheze milioanele alea de mailuri de angajare care vin bulk la intervale regulate de timp. Pe langa asta, de mai multa vreme am trecut in bind SPF pe modul strict (-all), ca sa elimin multe din spamurile care vin de la mine catre mine (de la domeniul meu catre el insusi). Acum, uitandu-ma in folderul de spam, vad ca au trecut destule mailuri de genul asta, pe motivul ca au definite in headere campuri Return-Path care nu fac parte din domeniul meu. Ca sa fiu mai explicit, headerele arata asa: Return-Path: stabilize...@yahoo.nl Delivered-To: c...@geniusnet.ro Received: from localhost (localhost [127.0.0.1]) by mail.geniusnet.ro (Postfix) with ESMTP id 49676160646 for c...@geniusnet.ro; Tue, 26 Feb 2013 15:16:03 +0200 (EET) X-Virus-Scanned: amavisd-new at geniusnet.ro X-Spam-Flag: YES X-Spam-Score: 14.567 X-Spam-Level: ** X-Spam-Status: Yes, score=14.567 required=4.25 tests=[BAYES_50=0.8, FREEMAIL_ENVFROM_END_DIGIT=0.25, FREEMAIL_FROM=0.001, KB_DATE_CONTAINS_TAB=2.751, KB_FAKED_THE_BAT=2.694, RDNS_NONE=0.793, TAB_IN_FROM=0.375, T_FILL_THIS_FORM_SHORT=0.01, URIBL_BLACK=1.725, URIBL_DBL_SPAM=1.7, URIBL_JP_SURBL=1.25, URIBL_PH_SURBL=0.61, URIBL_WS_SURBL=1.608] autolearn=spam Received: from mail.geniusnet.ro ([127.0.0.1]) by localhost (cc.geniusnet.ro [127.0.0.1]) (amavisd-new, port 10024) with LMTP id 3hxR54tFV+cW for c...@geniusnet.ro; Tue, 26 Feb 2013 15:15:56 +0200 (EET) Received-SPF: none (yahoo.nl: No applicable sender policy available) receiver=ns.geniusnet.ro; identity=mailfrom; envelope-from=stabilize...@yahoo.nl; helo=[181.241.31.249]; client-ip=181.241.31.249 Received: from [181.241.31.249] (unknown [181.241.31.249]) by mail.geniusnet.ro (Postfix) with ESMTP id 093A516063D for c...@geniusnet.ro; Tue, 26 Feb 2013 15:15:54 +0200 (EET) Received: from [164.2.139.33] (helo=jwwitgdndjdtao.blkhkaprybabpoh.com) by with esmtpa (Exim 4.69) (envelope-from ) id 1MMYG3-4409dt-8Z for c...@geniusnet.ro; Tue, 26 Feb 2013 08:15:55 -0500 Date: Tue, 26 Feb 2013 08:15:55 -0500 From: c...@geniusnet.ro X-Mailer: The Bat! (v2.00.6) Personal X-Priority: 3 (Normal) Message-ID: 7692231011.k6r3tflv641...@yjneekerylvc.wecmvdskqp.su To: c...@geniusnet.ro Subject: [SPAM] Employyment you've been searching! MIME-Version: 1.0 Content-Type: text/plain; charset=iso-8859-1 Content-Transfer-Encoding: 7bit Deci la campul Received-SPF spune ca a verificat domeniul yahoo.nl in loc de geniusnet.ro, si asta pentru ca exista acel Return-Path. Dar nu mi se pare logic, nu ar trebui sa verifice domeniul din campul From? -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
[rlug] smartctl
Salut, Am o situatie ciudata cu un harddsik. Dupa ce mi-a dat de banuit ca are bad-uri, i-am dat o verificare cu fsck. Si-a dat seama ca exista sectoare bulite, chiar mi-a spus ca din unul din ele nu poate extrage informatia si care e fisierul cu probleme, asa ca m-a intrebat daca sa faca skip la sector. Normal, i-am dat da. La final smartctl imi spune asa: ID# ATTRIBUTE_NAME 1 Raw_Read_Error_Rate 4 3 Spin_Up_Time 3866 4 Start_Stop_Count 13 5 Reallocated_Sector_Ct 0 7 Seek_Error_Rate 0 9 Power_On_Hours4736 10 Spin_Retry_Count 0 11 Calibration_Retry_Count 0 12 Power_Cycle_Count 11 192 Power-Off_Retract_Count 10 193 Load_Cycle_Count 2 194 Temperature_Celsius 34 196 Reallocated_Event_Count 0 197 Current_Pending_Sector0 198 Offline_Uncorrectable 0 199 UDMA_CRC_Error_Count 0 200 Multi_Zone_Error_Rate 0 N-ar fi trebuit sa apara acele sectoare realocate in rubrica respectiva? Adica doar Raw_Read_Error_Rate=4 mi se pare cam putin. Toate bune, -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] smartctl
On 28.11.2012 15:08, Dan Borlovan wrote: Din smart reiese ca nu ai nici sectoare defecte nici sectoare relocate Da, relocarea se face la scriere Dar sectoarele stiute necitibile se vad in variabilele 197, 198 Have to ask: sigur vorbim de discul defect? E prima intrebare pe care mi-am pus-o si eu. Intr-adevar e un raid 1 din 2 discuri, dar celalalt hdd e nou, abia are cateva ore de functionare, iar din variabila Power_On_Hours rezulta clar ca ma uit la hdd-ul care trebuie. De altfel asta zicea si azi noapte kernelul: Nov 28 02:17:05 ns10 kernel: ata2.00: exception Emask 0x0 SAct 0x0 SErr 0x0 action 0x0 Nov 28 02:17:05 ns10 kernel: ata2.00: BMDMA stat 0x4 Nov 28 02:17:05 ns10 kernel: ata2.00: cmd 25/00:08:2d:09:93/00:00:23:00:00/e0 tag 0 dma 4096 in Nov 28 02:17:05 ns10 kernel: res 51/40:00:33:09:93/40:00:23:00:00/e0 Emask 0x9 (media error) Nov 28 02:17:05 ns10 kernel: ata2.00: status: { DRDY ERR } Nov 28 02:17:05 ns10 kernel: ata2.00: error: { UNC } Nov 28 02:17:05 ns10 kernel: ata2.00: configured for UDMA/133 Nov 28 02:17:05 ns10 kernel: ata2: EH complete Nov 28 02:17:06 ns10 kernel: ata2.00: exception Emask 0x0 SAct 0x0 SErr 0x0 action 0x0 Nov 28 02:17:06 ns10 kernel: ata2.00: BMDMA stat 0x4 Nov 28 02:17:06 ns10 kernel: ata2.00: cmd 25/00:08:2d:09:93/00:00:23:00:00/e0 tag 0 dma 4096 in Nov 28 02:17:06 ns10 kernel: res 51/40:00:33:09:93/40:00:23:00:00/e0 Emask 0x9 (media error) Nov 28 02:17:23 ns10 kernel: ata2.00: status: { DRDY ERR } Nov 28 02:17:23 ns10 smartd[4268]: Device: /dev/sdb, 1 Currently unreadable (pending) sectors Ca sa fie si mai clar :-) # smartctl -a /dev/sda | egrep (197|198) 197 Current_Pending_Sector 0x0032 200 200 000Old_age Always - 0 198 Offline_Uncorrectable 0x0030 100 253 000Old_age Offline - 0 # smartctl -a /dev/sdb | egrep (197|198) 197 Current_Pending_Sector 0x0032 200 200 000Old_age Always - 0 198 Offline_Uncorrectable 0x0030 100 253 000Old_age Offline - 0 ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] smartctl
On 28/11/2012 05:48, Radu Anghel wrote: Valoarea lui Raw_Read_Error_Rate nu conteaza. 197 e 0 dupa fsck, nu? HDD-ul e Western Digital? CentOS 6? Am patit si eu chestia asta de cateva ori, smartd plange de pending sectors, smartctl le vede, dupa fsck sau alte masuri mai disperate (gen badblocks -w, dd if=/dev/zero of=/dev/sdX) dispar din pending dar nu apar ca reallocated. Prima data cand s-a intamplat am tras aceleasi concluzii, HDD cu bad-uri, inlocuit, rebuild RAID, RMA HDD. A doua oara am inlocuit cablul, doar n-o fi stricat si HDD nou. A treia oara google. Din cate zic ei pare sa fie ceva bug la kernel, fie e legat de NCQ la HDD-urile Western Digital, fie RAID sau SATA (generic sau pt anumite chipset-uri, who knows), care apare in general cand discul e folosit intens (la mine se intampla in timpul backup-urilor). Nu mai tin minte care a fost solutia atunci, dar problemele cu pending sectors au disparut, HDD-ul respectiv (care oricum era nou) functioneaza fericit. Poate un update de kernel ajuta. Pare sa fie plauzibil ce zici, nici eu n-as da vina neaparat pe hdd. E Centos 5.8, WD, dar - nu pot baga mana in foc - nu cred ca 197 avea alta valoare decat 0 inainte de fsck. Cert e ca nu facea sync-ul la una din partitiile din raid dupa ce am pus hdd-ul nou, asa ca m-am apucat de cercetari. Acum, dupa fsck cu badblocks e totul in regula. -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] Upgrade de la FC12 la Centos 6.3
On 30/10/2012 06:22, Paul Lacatus wrote: A incercat cineva asa ceva ? As face-o prin anaconda cu boot de pe dvd Centos. Ce sanse dati ? E vorba de un server micut cu un raid software pe care sunt numai date si un disc separat cu fc 12 . Esential pentru mine e sa pastrez datele de pe raid pe care nu am unde sa le mut. FC12 nu mai are suport . Bineinteles ca se poate cu riscurile de rigoare. :-) Uite un curajos aici: http://www.linuxquestions.org/questions/fedora-35/how-to-upgrade-from-fc2-to-centos-5-1-2ways-639140/ Ideea e: de ce ai vrea neaparat sa ii faci upgrade? Doar ca sa-ti copie automat niste fisiere de configurare? Mai bine salvezi /etc, formatezi partitia de root cu F12 si instalezi de la zero. Oricum anaconda nu va reusi sa migreze fisierele de configurare ca sa nu-ti mai dea tie bataie de cap, tot manual ajungi sa remediezi problemele. -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] Upgrade de la FC12 la Centos 6.3
On 30/10/2012 08:21, Paul Lacatus wrote: Una e sa mai remediezi cite ceva si alta e sa reiei setarile de la cap chiar si cu un /etc salvat . Problema e cu timpul pe care nu-l mai prea am . Avind insa in vedere ca as vrea sa trec si de la mbox la maildir posibil e sa trebuiasca sa fac o instalare de la zero desi tare nu as vrea. Atunci vorba unui colistas, faci testul asta intai intr-o masina virtuala si vezi ce iese. Apoi scrii si pe lista impresii :-) -- Catalin Bucur ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
[rlug] migrare grub2 (+ raid)
Salutare, Scriu mailul asta in ideea de a discuta discutii, nu neaparat am o problema (inca). Dupa cum stiti, de ceva timp in unele distributii a inceput sa fie implementat grub2-ul ca boot loader. Ca sa ne referim la ceva concret, hai sa vorbim de Fedora 16, insa nu cred ca e neaparat legat de distributia asta. Asadar daca se instaleaza de la zero F16, vine cu GPT in loc de MBR, asa ca nu conteaza ce si cum faci, grub2 va functiona ok. Daca insa faci upgrade de la o versiune anterioara (cu MBR pe hdd), atunci poti fi in una din urmatoarele 2 situatii (fericita/nefericita): - nu ai raid configurat si atunci cel mai probabil grub2-ul va avea spatiu sa isi puna tot ce are nevoie in primele sectoare din si dupa MBR - ai raid (soft/hard) si cel mai probabil la sfarsitul upgrade-ului grub2 iti arunca o eroare de genul your core.img is unusually large, it won't fit in the embedding area Problema e cunoscuta, e chiar considerata un bug. Grub2 nu are loc destul sa-si puna toate informatiile in primele 62 de sectoare ale hdd-ului. Ce nu inteleg e de ce nu face installer-ul niste verificari premergatoare upgrade-ului, ca sa nu ajungi in situatia de a-ti smulge parul din cap: http://fedoraproject.org/wiki/Common_F16_bugs#Boot_sometimes_fails_when_installing_to_a_pre-existing_partition_layout_with_complex_boot_configuration_.28e.g._software_or_firmware_RAID-1.29 La o altfel de situatie, alta rezolvare nu am gasit decat sa micsorez partitia de root si sa o mut mai spre dreapta astfel incat sa fac loc grub-ului sa scrie ce vrea. Insa e o operatiune ce ia timp, implica niste riscuri, eventual backup inainte. Dupa vreo 15 minute de la lansarea chestiunii m-am plictisit de asteptare si am considerat ca imi ia aproape acelasi timp sa configurez totul de la zero si sa restaurez datele. Am trecut pe CentOS 6.2, unde am avut grija sa las ceva spatiu liber la inceputul hdd-ului pentru o eventuala migrare si aici la grub2. Intrebarea urmatoare care se pune inevitabil este: la upgrade-ul de la CentOS 6 la 7 (daca va folosi grub2) voi ajunge in aceeasi situatie ca la F15-16? Sau si mai generic: la orice distributie care va migra catre grub2 va interveni aceeasi problema legata numarul de sectoare disponibile la inceputul hdd-ului (ce foloseste MBR-ul)? Au reusit alte distributii sa gaseasca o rezolvare mai eleganta? O alta chestie e legata de problema partitiei /boot, RAID si grub2: http://fedoraproject.org/wiki/Common_F16_bugs#Cannot_boot_with_.2Fboot_partition_on_a_software_RAID_array Asta mi se pare ca in filmele cu prosti. Documentatia zicea ca nu e prea bine sa faci partitie separata pentru /boot, insa cei care au facut-o au fost mai castigati privind prima problema din discutie, respectiv au migrat /boot-ul in partita de root., apoi au sters partitia /boot si au folosit spatiul respectiv ca sa lase loc grub2-ului sa se instaleze linistit. Eu inteleg ca apar imbunatatiri constante ale distributiilor de linux, dar ce urmeaza in continuare mi se pare ca da peste cap cam multe lucruri. Pare sa ajungem intr-un punct (end-of-life-ul distributiei) in care sa fim aproape obligati sa reinstalam totul de la zero? Numai bine, -- Catalin Bucur mailto:c...@geniusnet.ro NOC @ Genius Network SRL - Galati - Romania ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] migrare grub2 (+ raid)
Ca prima chestie: NICIODATA Redhat nu a recomandat sa se faca upgrade intre versiuni majore si nu a oferit suport pt asta ( chiar daca se poate si chiar daca am documentat si eu cite ceva la http://wiki.centos.org/HowTos/MigrationGuide si paginile mentionate la sfirsitul acestui articol ) Da, stiu, am rezolvat si eu intre 4 si 5 fara probleme, si intre 5 si 6 cu ceva stress. Ma astept insa la o implementare pentru pachetul 'preupgrade'. A doua chestie: Stii ca RHEL 6 ( si implicit Centos ) are suport pina in 2020, da ? Cit despre sansele sa ai aceeasi problema... poate ca nu, avind in vedere ca RHEL 7 va fi bazat pe pe F16/F17 si bugul e mai mult sau mai putin rezolvat deja Stiam ca in general e 5 ani la RHEL/CentOS. N-am mai citit ce zic pentru versiunea 6. Sau nu folosesti Fedora care de 2 ani incoace se straduieste din ce in ce mai tare sa faca rahati tot mai puturosi. Mda, urmeaza un rahat si mai mare la urmatorul upgrade: http://fedoraproject.org/wiki/Upgrading_Fedora_using_yum#Fedora_16_-.3E_Fedora_17 ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] migrare grub2 (+ raid)
Ca fapt divers, tabela GPT de partitii nu implica oricum repartitionarea? Si stiam ca daca ai GPT e bine sa-ti faci partitie de-aia pt. bootloader, schemele cu emularea mbr sunt cam hackish, Ma rog, nu stiu care mai e best practices, eu am pus gpt numai unde a fost musai (storage mare) si acolo mi-am facut bootloader partition. Debian-ul ce parere are de trecerea la grub2? :-) ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] rapunsuri intarziate la ping
On 07/01/2012 04:31, Adi Pircalabu wrote: Cat timp a trecut de la reboot pana cand a inceput sa faca figuri? Ce s-a schimbat intre timp in retea? Dar pe server? Vreun update de pachete intre timp? Mai nimic. E 'up' de la ultimul meu post: # uptime 17:05:50 up 17 days Am facut doar niste update-uri la sfarsitul anului, ce a fost important printre cele 10 pachete update-ate: Dec 29 21:07:16 Updated: iputils-20020927-46.el5.i386 Dar si cu iputils-ul anterior facea aceleasi chestii, inclusiv cu unul recompilat de mine. Iar dupa update nu a aparut problema pana ieri. In ce priveste reteaua vad doar urmatoarele chestiuni in messages: Jan 4 17:21:15 uranus kernel: eth0: link down. Jan 4 17:21:22 uranus kernel: eth0: link up. Jan 4 17:22:00 uranus kernel: eth0: link down. Jan 4 17:22:03 uranus kernel: eth0: link up. Insa oricum, au aparut problemele 2 zile mai tarziu. Fizic nu s-a schimbat nimic in retea. Poate fi vorba de timeout cand citeste de pe socket, pentru care trebuie aflat motivele. Ar fi interesant daca ai putea sa faci ceva debug in resolver. Deja intru in chestiuni complexe plecand de la o problema deocamdata minora :-) grep hosts: /etc/nsswitch.conf cat /etc/hosts # grep hosts: /etc/nsswitch.conf hosts: files dns # cat /etc/hosts 127.0.0.1 localhost.localdomain localhost ::1 localhost6.localdomain6 localhost6 Mersi, -- Catalin Bucur mailto:c...@geniusnet.ro NOC @ Genius Network SRL - Galati - Romania ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] rapunsuri intarziate la ping
On 19.12.2011 20:52, Dan Borlovan wrote: Pune-te cu un strace pe ping si vezi exact ce face. Daca e nevoie pune-te si cu ltrace. Dan Am intarziat putin cu raspunsul la strace pentru ca sistemul a luat un reboot atunci si nu mai facea figurile descrise. Acum au aparut din nou. Din ce spune strace-ul si din comparatia cu ping pe un sistem asemanator se pare ca are un timeout in linia cu 'poll', dar nu stiu la ce se refera. write(1, 64 bytes from localhost.localdom..., 81) = 81 gettimeofday({1325863785, 204212}, NULL) = 0 poll([{fd=3, events=POLLIN|POLLERR}], 1, 999) = 0 (Timeout) gettimeofday({1325863795, 845223}, NULL) = 0 gettimeofday({1325863795, 845281}, NULL) = 0 sendmsg(3, {msg_name(16)={sa_family=AF_INET, sin_port=htons(0), sin_addr=inet_addr(127.0.0.1)}, msg_iov(1)=[{\10\0h\220\\0\2s\23 \7O\341\345\f\0\10\t\n\v\f\r\16\17\20 \21\22\23\24\25\26\27..., 64}], msg_controllen=0, msg_flags=0}, MSG_CONFIRM) = 64 setitimer(ITIMER_REAL, {it_interval={0, 0}, it_value={1, 0}}, NULL) = 0 recvmsg(3, {msg_name(16)={sa_family=AF_INET, sin_port=htons(0), sin_addr=inet_addr(127.0.0.1)}, msg_iov(1)=[{E\0\0T\242\221\0\0@\1\332\25\177\0\0\1\177\0\0\1\0\0p\220 \\0\2s\23\7O..., 192}], msg_controllen=20, {cmsg_len=20, cmsg_level=SOL_SOCKET, cmsg_type=0x1d /* SCM_??? */, ...}, msg_flags=0}, 0) = 84 P.S. Secventa de mai sus e exact copiata intre 2 write-uri 64 bytes from localhost.localdomain -- Catalin Bucur mailto:c...@geniusnet.ro NOC @ Genius Network SRL - Galati - Romania ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] rapunsuri intarziate la ping
On 19.12.2011 00:21, Calin wrote: $ sudo tcpdump -i linx-local-iface -w capture-file.cap -s vezi-mai-jos 'icmp' nota: nu mai tin minte care e local iface in linux - in osx e lo0 ... iar in alt terminal window: $ ping -s 64 (vezi-mai-sus) 127.0.0.1 - si incearca apoi diverse valori pentru -s si chiar -D (don't fragment) apoi deshide fisierul capture-file.cap in wireshark, si vezi ce se petrece Reply-ul vine imediat de la interfata, se pare ca e intarziata trimiterea de pachete: 16:37:38.406200 IP 127.0.0.1 127.0.0.1: ICMP echo request, id 50215, seq 0, length 64 16:37:38.406232 IP 127.0.0.1 127.0.0.1: ICMP echo reply, id 50215, seq 0, length 64 16:37:39.454648 IP 127.0.0.1 127.0.0.1: ICMP echo request, id 50215, seq 0, length 64 16:37:39.454668 IP 127.0.0.1 127.0.0.1: ICMP echo reply, id 50215, seq 0, length 64 16:37:40.507563 IP 127.0.0.1 127.0.0.1: ICMP echo request, id 50215, seq 0, length 64 16:37:40.507582 IP 127.0.0.1 127.0.0.1: ICMP echo reply, id 50215, seq 0, length 64 Fping merge ok fara delay-uri, asa ca am dedus ca e o problema de utilitar (ping). Am downloadat si compilat: http://www.skbuff.net/iputils/iputils-s20071127.tar.bz2 si am facut teste, dar am aceleasi rezultate. Modificari de packetsize si fragmentare nu schimba situatia. -- Catalin Bucur mailto:c...@geniusnet.ro NOC @ Genius Network SRL - Galati - Romania ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
[rlug] rapunsuri intarziate la ping
Salut, Am o problema interesanta pe un sistem cu CentOS 5.7, kernel 2.6.18-274.12.1.el5. Dupa un anumit timp de la boot (inca n-am depistat daca are vreo relevanta), ping-ul incepe sa o ia razna, ceva de genul asta: # time ping -n -c6 -i1 127.0.0.1 PING 127.0.0.1 (127.0.0.1) 56(84) bytes of data. 64 bytes from 127.0.0.1: icmp_seq=1 ttl=64 time=0.045 ms 64 bytes from 127.0.0.1: icmp_seq=2 ttl=64 time=0.049 ms 64 bytes from 127.0.0.1: icmp_seq=3 ttl=64 time=0.035 ms 64 bytes from 127.0.0.1: icmp_seq=4 ttl=64 time=0.040 ms 64 bytes from 127.0.0.1: icmp_seq=5 ttl=64 time=0.037 ms 64 bytes from 127.0.0.1: icmp_seq=6 ttl=64 time=0.044 ms --- 127.0.0.1 ping statistics --- 6 packets transmitted, 6 received, 0% packet loss, time 45017ms rtt min/avg/max/mdev = 0.035/0.041/0.049/0.008 ms real0m45.020s user0m0.001s sys 0m0.001s Deci trimite pachetele si asteapta raspunsurile cu o intarziere cam de 10s. Nu conteaza ce host ii dau in loc de 127.0.0.1, comportamentul e acelasi. Nu gasesc nimic interesant in loguri. 'service network restart' nu rezolva problema. Doar dupa reboot functioneaza normal o perioada. Inca n-am schimbat kernelul, astept ceva idei daca aveti. Mersi, -- Catalin Bucur mailto:c...@geniusnet.ro NOC @ Genius Network SRL - Galati - Romania ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] rapunsuri intarziate la ping
On 18/12/2011 08:48, Bogdan-Stefan Rotariu wrote: 1s e default -i interval Wait interval seconds between sending each packet. The default is to wait for one second between each packet normally, or not to wait in flood mode. Only super-user may set interval to val- ues less 0.2 seconds. -i 0.0 ce zice ? Stiu ca e 1s default, voiam doar sa arat concret situatia. Alte exemple mai jos, para sa inmulteasca cu 10 timpii din creierul lui: === # ping -n -c3 -i0.0 127.0.0.1 PING 127.0.0.1 (127.0.0.1) 56(84) bytes of data. 64 bytes from 127.0.0.1: icmp_seq=1 ttl=64 time=0.040 ms 64 bytes from 127.0.0.1: icmp_seq=2 ttl=64 time=0.025 ms 64 bytes from 127.0.0.1: icmp_seq=3 ttl=64 time=0.014 ms --- 127.0.0.1 ping statistics --- 3 packets transmitted, 3 received, 0% packet loss, time 0ms rtt min/avg/max/mdev = 0.014/0.026/0.040/0.011 ms, ipg/ewma 0.144/0.035 ms === # ping -n -c3 -i0.1 127.0.0.1 PING 127.0.0.1 (127.0.0.1) 56(84) bytes of data. 64 bytes from 127.0.0.1: icmp_seq=1 ttl=64 time=0.040 ms 64 bytes from 127.0.0.1: icmp_seq=2 ttl=64 time=0.057 ms 64 bytes from 127.0.0.1: icmp_seq=3 ttl=64 time=0.027 ms --- 127.0.0.1 ping statistics --- 3 packets transmitted, 3 received, 0% packet loss, time 2102ms rtt min/avg/max/mdev = 0.027/0.041/0.057/0.013 ms === # ping -n -c3 -i0.2 127.0.0.1 PING 127.0.0.1 (127.0.0.1) 56(84) bytes of data. 64 bytes from 127.0.0.1: icmp_seq=1 ttl=64 time=0.040 ms 64 bytes from 127.0.0.1: icmp_seq=2 ttl=64 time=0.047 ms 64 bytes from 127.0.0.1: icmp_seq=3 ttl=64 time=0.030 ms --- 127.0.0.1 ping statistics --- 3 packets transmitted, 3 received, 0% packet loss, time 4205ms rtt min/avg/max/mdev = 0.030/0.039/0.047/0.007 ms === -- Catalin Bucur mailto:c...@geniusnet.ro NOC @ Genius Network SRL - Galati - Romania ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] rapunsuri intarziate la ping
On 18/12/2011 09:31, Vali Dragnuta wrote: Poate referinta de timp pe sistemul ala e ametita ? Este cumva vreo masina virtuala ? Ora este corecta sau tinde sa o ia mult razna ? Nu e virtuala masina si pare ok timpul sitem. E activat ntpd-ul si e de multa vreme in picioare. Acum arata asa: # date Sun Dec 18 21:51:45 EET 2011 -- Catalin Bucur mailto:c...@geniusnet.ro NOC @ Genius Network SRL - Galati - Romania ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] reboot F15
On 9/22/2011 10:04 PM, manuel lonely wolf wolfshant wrote: for the record: sistemele care ruleaza cu acpi=off nu sint chiar cele mai fericite Sunt convins de asta, dar e frustrant ca a functionat cu un kernel mai vechi, iar cu unul nou face figura asta. -- Catalin Bucur mailto:c...@geniusnet.ro NOC @ Genius Network SRL - Galati - Romania ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] reboot F15
On 9/22/2011 10:42 PM, Alex 'CAVE' Cernat wrote: de aia se numeste upgrade, nu ? oops ... inca nu e vineri :-P Da, poate trebuie creata o optiune in yum ca cea din aptitude, gen: 'yum safe-upgrade' prin care sa nu creeze buleli de genul asta :-)) -- Catalin Bucur mailto:c...@geniusnet.ro NOC @ Genius Network SRL - Galati - Romania ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] reboot F15
On 9/22/2011 10:50 PM, Petru Ratiu wrote: Not sure if trolling or serious, so... aptitude safe-upgrade nu inseamna decat ca alege solutiile de upgrade care nu aduc pachete suplimentare. Tot iti face upgrade la pachetele existente, daca n-au dependinte noi. Nu exista mafic flag de --without-buleli. Stai linistit ca nu e vineri :-) Lucrez cu ambele distributii, asa ca era doar o gluma. -- Catalin Bucur mailto:c...@geniusnet.ro NOC @ Genius Network SRL - Galati - Romania ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] combinatie taste = rulare script
On 25.01.2011 09:41, Munteanu Alexandru wrote: Salut, Am o mica problema care nu prea imi iese. Am un script care as dori sa ruleze la o cobinatie de taste gen ctrl+alt+shift+r Mi-am cam prins urechile in cateva tutoriale, daca are cineva o metoda usoara pentru acest lucru astept cu nerabdare un raspuns. In vremuri de demult, ca sa opresc un firewall de la tastatura fara sa ma loghez, utilizand combinatia Ctrl+Alt+Ins, foloseam ceva de genul asta: In /etc/rc.local: loadkeys EOF keycode 110 = Insert altgr control keycode 110 = KeyboardSignal control alt keycode 110 = KeyboardSignal EOF In /etc/inittab: ce::kbrequest:/etc/init.d/firewall stop -- Catalin Bucur mailto:c...@geniusnet.ro NOC @ Genius Network SRL - Galati - Romania ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] Reminder - Invitatie la LOAD / 24 Ianuarie 2011
On 24/01/2011 19:03, manuel lonely wolf wolfshant wrote: Oricum concluzia de baza este ca solutia optima pt a virtualiza masini linux e sa folosim Hyper-V, chiar daca driverele ( incluse default in kernel incepind cu 2.6.32 ) sint doar in status beta si lente. Cel putin asa a incercat sa ne covinga Todi. Si eu am avut o impresie buna la prima vedere din ce-am butonat, insa intr-adevar driverele incluse in kernel sunt beta. Simptomul meu era ca se bloca networking-ul, asa ca m-am intors la driverele Microsoft-ului. Insa am o alta intrebare, poate nu am sapat destul, a rezolvat cineva problema time-ului in configuratia Hyper-V + Linux? Situatia mea e CentOS 5.5 2.6.18-194.11.3.el5 x64 unde am compilat/instalat Linux Integration Services pentru Hyper-V. Singura si cea mai mare problema ramane cea a timpului care o ia inainte regulat; chiar daca am incercat tot felul de combinatii in grub: notsc divider=10 clock=pit clocksource=acpi_pm Cu ajutorul combinatiilor si renuntarea la ntpd am reusit sa reduc diferentele de timp (la ora 0 il sincronizez manual cu un server de timp), dar sunt totusi importante si imi dau peste cap diverse chestii. A reusit cineva sa gaseasca o solutie mai buna si care sa fie functionala? Cu alte distributii se intampla acelasi lucru? :-) -- Catalin Bucur mailto:c...@geniusnet.ro NOC @ Genius Network SRL - Galati - Romania ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] problema partitie
On 28/10/2009 13:35, Catalin Bucur wrote: Salut, Am o problema cu o partitie pe care n-o vede kernelul, desi nu e nimic deosebit la ea. Ar fi trebuit sa fie partitie de swap, dar in cazul de fata n-o pot activa. Detalii: # lsscsi --device 2:0:0:0 [2:0:0:0]diskATA WDC WD740GD-00FL 33.0 /dev/sdc [8:32] # fdisk -l /dev/sdc Disk /dev/sdc: 74.3 GB, 74355769344 bytes 255 heads, 63 sectors/track, 9039 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Disk identifier: 0x35933592 Device Boot Start End Blocks Id System /dev/sdc1 1 244 1959898+ 82 Linux swap / Solaris /dev/sdc2 * 245903970645837+ 83 Linux # ll /dev/sdc* brw-rw 1 root disk 8, 32 2009-10-26 23:22 /dev/sdc brw-rw 1 root disk 8, 33 2009-10-26 21:28 /dev/sdc1 brw-rw 1 root disk 8, 34 2009-10-24 14:34 /dev/sdc2 # mkswap /dev/sdc1 /dev/sdc1: No such device or address # uname -a Linux linux 2.6.30.8-64.fc11.i586 #1 SMP Fri Sep 25 04:30:19 EDT 2009 i686 i686 i386 GNU/Linux /dev/sdc1 nu exista initial, dar nu-mi dau seama de ce nu l-a creat udev-ul automat. L-am creat manual cu MAKEDEV, dar se pare ca nu ajuta prea mult. Ceva idei ce sa mai incerc? Stiu ca e tardiv raspunsul meu, abia acum am reusit sa ma ocup mai serios de problema asta, dar poate e bine sa ramana in arhive in caz o sa aiba nevoie cineva. Desi kernelul vedea partitia respectiva la boot, udev refuza sa o creeze ca device in /dev, asa ca nu o puteam folosi ca partitie de swap oricate chestii am incercat. Harddisk-ul respectiv a facut parte inainte dintr-un raid hardware (la care am fost nevoit sa renunt), drept urmare i-a ramas scrisa metadata aferenta. Cu mdadm nu se vedea nimic neobisnuit, insa cu dmraid da. Asa ca dupa ce am sters metadata cu comanda 'dmraid -rE' totul a revenit la normal. Numai bine, -- Catalin Bucur mailto:c...@geniusnet.ro NOC @ Genius Network SRL - Galati - Romania ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] DegradedArray event
On 18/08/2010 10:17, Andrei wrote: P.S. --zero-superblock nu strica partitiile si fs-ul, nu era nevoie sa repartitionezi hdd-ul. Da, stiu, informatiile sunt in cu totul alta parte :-) Doar ca trebuia sa-l fac sa vada sdc1 din nou (recitire partitii) - ori cu blockdev cum zicea Petre, ori prin repartitionare. Si am preferat sa fac cap-coada tot. -- Catalin Bucur mailto:c...@geniusnet.ro NOC @ Genius Network SRL - Galati - Romania ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] DegradedArray event
On 15.08.2010 15:50, Catalin Bucur wrote: On 15/08/2010 02:35, Petru Ratiu wrote: Fa cu mkconf sau de mana mdadm.conf, update-initramfs -u -k all reboot. Avand in vedere ca md0 asteapta in continuare sdc (in loc de sdc1) si ca sdc nu dispare subit dupa reboot, as putea folosi ca membru al raid-ului intreg discul nepartitionat (sdc)? Cat de impotriva teoriei este? :-) [ 10.774460] md: raid1 personality registered for level 1 [ 10.785193] md: md0 stopped. [ 10.818937] md: bindsdc [ 10.818937] md: bindsdb1 [ 10.818937] md: kicking non-fresh sdc from array! [ 10.818937] md: unbindsdc [ 10.818937] md: export_rdev(sdc) [ 10.818937] md: md0: raid array is not clean -- starting background reconstruction [ 10.829643] raid1: raid set md0 active with 1 out of 2 mirrors -- Catalin Bucur mailto:c...@geniusnet.ro NOC @ Genius Network SRL - Galati - Romania ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] DegradedArray event
On 17.08.2010 11:46, Petru Ratiu wrote: Cu teoria stai bine, practica te omoara. Ce faci daca pica sdb? E disc de sistem cumva? Iti trebuie sector de boot, tabela de partitii samd? Nu e disc de boot, e partitia /var pe el. mdadm --examine si mdadm --detail pe md0 si pe membrii arrayului ce zic? (sorry, mereu uit care e pt. matrice si care pt. partitie). Existau superblock-uri si pe sdc si pe sdc1, asa ca am facut ce-a spus Andrei: mdadm --zero-superblock /dev/sdc mdadm --zero-superblock /dev/sdc1 apoi refacut tabela partitii si reintrodus in raid sdc1. Astept rezultatele dupa reboot-ul de diseara :-) Mersi, -- Catalin Bucur mailto:c...@geniusnet.ro NOC @ Genius Network SRL - Galati - Romania ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] DegradedArray event
On 17/08/2010 11:48, Andrei wrote: un mdadm --zero-superblock /dev/sdc ai incercat? eventual si pe sdc1 si apoi adaugat din nou la md0 Cred ca asta a fost rezolvarea problemei. Dupa reboot: # cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdc1[0] sdb1[1] 488383936 blocks [2/2] [UU] Multumesc tututor pentru raspunsuri. Numai bine, -- Catalin Bucur mailto:c...@geniusnet.ro NOC @ Genius Network SRL - Galati - Romania ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] DegradedArray event
On 15/08/2010 01:54, Petru Ratiu wrote: Fortarea recitirii tabelei de partitii se poate face si cu blockdev --rereadpt /dev/sdc Ok. Pare ca discul ala porneste ceva mai incet si nu apuca sa citeasca tabela de partitii de pe el in timp util. ceva idei: - ai in mdadm.conf arrayul cu uuid-urile corecte? Nu, e asa cum era si inainte de a schimba discul :-) # cat /etc/mdadm/mdadm.conf DEVICE partitions CREATE owner=root group=disk mode=0660 auto=yes HOMEHOST system MAILADDR root /usr/share/mdadm/mkconf is your friend. Vezi ca trebuie sa refaci initramfs-ul dupa. - udev poate fi convins sa astepte putin mai mult (btw, in dmesg iti apare detectia lui sdc1 inainte sau dupa faza de raid?) Nu cred ca il ajuta, detecteaza intai sdc1, apoi md0. Stai ca abia acuma vad, am dormit data trecuta: [ 11.643223] md: kicking non-fresh sdc from array! [ 11.643269] md: unbindsdc [ 11.643311] md: export_rdev(sdc) - mai e ceva secret cu discul ala? e discul de boot, e mai vechi, zice chestii prin hdparm, e scsi, etc? :) Mi-am adus aminte, s-a schimbat unul din discurile raid-ului. Doar ca cel care l-a pus n-a urmat procedura exact, a dat putin cu degetul pe langa :-) L-a scos din raid inainte de a-l scoate din sistem, apoi l-a bagat pe cel nou, dar a adaugat cu mdadm tot hdd-ul (sdc), nu l-a partitionat. Ulterior l-am scos eu din raid si am facut treaba asta, doar ca se pare ca i-a ramas undeva in memorie sdc. Probabil ca trebuie sa refac mdadm.conf, dar totusi udev de ce nu creeaza /dev/sdc1 la boot? -- Catalin Bucur mailto:c...@geniusnet.ro NOC @ Genius Network SRL - Galati - Romania ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] DegradedArray event
On 15/08/2010 02:35, Petru Ratiu wrote: Fa cu mkconf sau de mana mdadm.conf, update-initramfs -u -k all reboot. Done. # cat /etc/mdadm/mdadm.conf DEVICE partitions CREATE owner=root group=disk mode=0660 auto=yes HOMEHOST system MAILADDR root ARRAY /dev/md0 level=raid1 num-devices=2 UUID=8ed1dd0b:f26ba7bf:1173aa02:6fb68803 Probabil e cumva legata de treaba dinainte (cu sdc membru de raid si nu sdc1). Se pare ca nu totusi :-) Dupa reboot: # cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdb1[1] 488383936 blocks [2/1] [_U] unused devices: none -- Catalin Bucur mailto:c...@geniusnet.ro NOC @ Genius Network SRL - Galati - Romania ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] Time out sendmail
On 04.08.2010 12:17, Paul Lacatus wrote: De ceva timp pe un server sendmail am o intirziere la trimiterea mesajelor din thunderbird. Thunderbird spune Connected to si asteapta 5.. 10 secunde inainte de a trimite mesajul. Aceasta intirziere nu aparea pina acum sendmail primid instantaneu mesajul. An comentat din sendmail.mc clamav, apoi spamassassin dar comportarea este identica. In maillog nu apare nimic decind in momentul in care accepta mesajul. Asa facea cind sendmail nu rezolva adresa destinatarului . Nu stiu cum sa mai investighez. Sigur e din sendmail? Eu am avut (o am inca oarecum) si e din anumite addon-uri ale Thunderbird-ului. Ai incercat sa trimiti si prin alt server si e ok? -- Catalin Bucur mailto:c...@geniusnet.ro NOC @ Genius Network SRL - Galati - Romania ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] suexec centos 5.4
On 07.05.2010 09:04, Bogdan-Stefan Rotariu wrote: Nu vad legatura intre suexec si eroare, suexec nu are nici o treaba cu htaccess, problema ta cred ca e legata de group-ul apache care nu mai are access in ~/public_html/ . Corect, am si spus ca problema era din alta parte. M-am uitat in pachetul .rpm de la nagios si se pare ca linia: /usr/sbin/usermod -G nagios,nagiocmd apache a sters userul apache din toate grupurile si l-a introdus doar in cele pe care le voia el (nagios si nagioscmd). -- Catalin Bucur mailto:c...@geniusnet.ro NOC @ Genius Network SRL - Galati - Romania ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] suexec centos 5.4
verifica si ce parere are selinux. asta dupa ce verifici ca drepturile clasice UNIX sint corecte. ps: ce te face sa crezi ca probleme o sa dispara cind recompilezi din surse ? selinux era dezactivat, restul drepturilor erau ok. Compilarea o facusem si initial pentru schimbarea DOC_ROOT la suexec, m-am gandit sa reiau procesul, poate imi veneau alte idei cu ocazia asta, cele pe care le avusesem expirasera. Intre timp am observat ca si cu suphp facea aceeasi chestie, asa ca am lasat suexec-ul in pace si m-am apucat in alte parti de sapat. Acum cateva zile am instalat nagios-3.2.1-1.el5.rf, care mi-a ras din /etc/group si /etc/gshadow userul 'apache' din toate grupurile. Sincer n-am idee de ce a facut asta si nici timp sa mai studiez. Maine mai vad. Mersi de raspuns, -- Catalin Bucur mailto:c...@geniusnet.ro NOC @ Genius Network SRL - Galati - Romania ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] rbl+romtelecom
Adi Pircalabu wrote: Probabil au listat acel IP la Spamhaus si apoi l-au scos. Acum tre' sa mai expire si niste intrari si gata, problema e rezolvata. Or fi gresit si ei, errare humanum est vorba poetului, nu? :) Poate n-ai citit cu atentie ce-am scris, pentru _oricare_ ip faci interogarea dns iti returneaza eroare (ce-am dat a fost doar de exemplu), asta e ca si cum orice ip este blocat in rbl si ca atare nu mai primesti _niciun_ mail. Ce fel de eroare umana e asta? -- Catalin Bucur mailto:c...@geniusnet.ro NOC @ Genius Network SRL - Galati - Romania ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
[rlug] rbl+romtelecom
Salut, Nu stiu daca m-am tampit eu sau poate sunt prea obosit, dar: # dig 12.187.122.86.sbl-xbl.spamhaus.org @193.226.61.1 ; DiG 9.6.2-RedHat-9.6.2-1.fc12 12.187.122.86.sbl-xbl.spamhaus.org @193.226.61.1 ;; global options: +cmd ;; Got answer: ;; -HEADER- opcode: QUERY, status: NXDOMAIN, id: 35452 ;; flags: qr rd ra; QUERY: 1, ANSWER: 0, AUTHORITY: 1, ADDITIONAL: 0 ;; QUESTION SECTION: ;12.187.122.86.sbl-xbl.spamhaus.org. IN A ;; AUTHORITY SECTION: sbl-xbl.spamhaus.org. 150 IN SOA need.to.know.only. hostmaster.spamhaus.org. 1003171645 3600 600 432000 150 # dig 12.187.122.86.sbl-xbl.spamhaus.org @193.231.100.130 ; DiG 9.6.2-RedHat-9.6.2-1.fc12 12.187.122.86.sbl-xbl.spamhaus.org @193.231.100.130 ;; global options: +cmd ;; Got answer: ;; -HEADER- opcode: QUERY, status: NOERROR, id: 26999 ;; flags: qr rd ra; QUERY: 1, ANSWER: 2, AUTHORITY: 13, ADDITIONAL: 11 ;; QUESTION SECTION: ;12.187.122.86.sbl-xbl.spamhaus.org. IN A ;; ANSWER SECTION: 12.187.122.86.sbl-xbl.spamhaus.org. 2851 IN A 86.35.3.192 12.187.122.86.sbl-xbl.spamhaus.org. 2851 IN A 86.35.3.193 La prima interogare a serverului ns euroweb, inregistrarea A 12.187.122.86.sbl-xbl.spamhaus.org nu e definita, asta inseamna ca ip-ul meu 86.122.187.12 nu e inregistrat in rbl la spamhaus (cum e si normal, ip-ul e curat). La a doua interogare a serverului ns romtelecom, inregistrarea A exista si pointeaza catre 2 ip-uri de-ale lor, ceea ce face ca serviciul de mail sa rejecteze mailurile care vin de la acest ip pe motivul ca ar fi listate in rbl la spamhaus. Partea frumoasa este ca daca interoghez ns-ul romtelecom pentru oricare alt ip, la fel va apare listat. Ca atare un server de mail care are pus in config sa verifice rbl-urile si care are in /etc/resolv.conf 193.231.100.130 ca prim ns nu va mai primi niciun mail. Visez/imi scapa ceva/s-au tembelizat de tot astia de la romtelecom? A mai avut cineva problema asta? -- Catalin Bucur mailto:c...@geniusnet.ro NOC @ Genius Network SRL - Galati - Romania ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] rbl+romtelecom
Florin Maria wrote: :)) Asa-i. chiar nu mai primesc mailuri pe romtelecom. Oricum, nu-s la prima duma cu DNS-urile. Credeam ca le-am vazut pe toate la romtelecom pana acum, dar se pare ca mai au rezerve de tampenii. Totusi nu inteleg, e facuta intentionat treaba, ca eu nu pricep cum au reusit sa bage inregistrarile alea in DNS din greseala. -- Catalin Bucur mailto:c...@geniusnet.ro NOC @ Genius Network SRL - Galati - Romania ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] tc
Claudiu Nicolaie CISMARU wrote: Oricum la proiect nu am mai lucrat. Ma batea gandul sa trec pe ifb si hashes... dar nu prea am pentru ce/cine sa mai lucrez... :) Adica? Nu mai shape-uieste lumea deloc sau foloseste altceva? :-) -- Catalin Bucur mailto:c...@geniusnet.ro NOC @ Genius Network SRL - Galati - Romania ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] e1000e
Dan Borlovan wrote: Nu poti sa pui pe on checksumming (si tso)? tso a mai fost pe on. O sa le pun pe amandoua pe on, dar deocamdata am facut affinity-ul la core-uri si vreau sa vad daca sunt ceva rezultate. O alta chestie, daca fac NAT pentru toate ip-urile (ca sa zic asa nu mai e routing) sistemul se comporta normal. -- Catalin Bucur mailto:c...@geniusnet.ro NOC @ Genius Network SRL - Galati - Romania ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
[rlug] e1000e
Salutare, Se da un server Intel S5000VSA, cu 2 placi de retea onboard: 05:00.0 Ethernet controller: Intel Corporation 80003ES2LAN Gigabit Ethernet Controller (Copper) (rev 01) 05:00.1 Ethernet controller: Intel Corporation 80003ES2LAN Gigabit Ethernet Controller (Copper) (rev 01) Distributie - Slackware 13.0 Linux darkstar 2.6.29.6-smp #2 SMP Mon Aug 17 00:52:54 CDT 2009 i686 Intel(R) Xeon(R) CPU E5345 @ 2.33GHz GenuineIntel GNU/Linux Traficul e in limite normale in timpul zilei (in jur de 500Mbit/s), apoi spre seara, cand incep sa creasca cererile, sistemul incepe sa piarda din pachete. Ce se vede ciudat in acele momente este: - apar procese ksoftirqd care folosesc mult CPU - numarul de intreruperi pe secunda per interfata scade de la 6-7000 inspre cateva zeci Placile de retea folosesc modulul e1000e la care am incercat diverse optiuni de modificare a InterruptThrottleRate dar fara succes, nici macar n-am observat vreo schimbare. Am testat cu aceleasi rezultate si o alta placa dual Intel si 2 placi RTL-8169 - al caror modul care crapa destul de des si nu pot ramane cu ele multa vreme, dar din ce se observa numarul de intreruperi per interfata ramanea la valori de peste 1. Sigur am mai uitat cate ceva sa specific, dar puteti intreba. Ideile mele de rezolvare s-au indreptat spre driver/kernel, daca stiti ceva optiuni din experienta care ar rezolva problema m-as bucura sa aflu. Daca nu, si rezolvarea ar fi sa schimb placile, spre ce altceva sa ma indrept fara sa am emotii? Numai bine, -- Catalin Bucur mailto:c...@geniusnet.ro NOC @ Genius Network SRL - Galati - Romania ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] e1000e
Dan Borlovan wrote: Nu face fata procesorul, ai o tona de reguli de firewall sau o gramada de tc filter sau amindoua? Nimic, vreo 10 reguli de iptables. Chiar si cu ele jos se comporta la fel. La fel, niciun shape pus. Limiteaza intreruperile la 3000 per placa si verifica in /proc/interrupts ca asa se intimpla La 3000 le-am pus din prima cu InterruptThrottleRate, dar cum spuneam, fara succes. Scrie si in messages ca a pus optiunea respectiva in modul. Optional (?) pune ultimul driver de e1000e de pe sf E ultimul, 1.1.2. Neaparat seteaza din affinity fiecare intrerupere de placa de retea la cite un core Asta am uitat de ea, incerc. Mersi, -- Catalin Bucur mailto:c...@geniusnet.ro NOC @ Genius Network SRL - Galati - Romania ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] e1000e
Manuel lonely wolf Wolfshant wrote: Uita de RTL pe masini cu trafic mare. Sint folosite des fiindca sint ieftine. Si sint ieftine fiindca nu fac in hardware mai nimic. Am uitat de mult, numai ca acum sunt disperat sa testez cu altceva in afara de Intel sa nu mai folosesc modulul de e1000e. Ah, si am pus si un CentOS 5.4 cu kernelul default si crash-uiau Intel-urile ceva in stilul RTL. Nu mai am erorile respective, dar watchdog-ul spunea ca e transmit timed out pe interfata respectiva si restarta modulul: Feb 18 18:32:45 darkstar kernel: WARNING: at net/sched/sch_generic.c:226 dev_watchdog+0x1fb/0x210() Feb 18 18:32:45 darkstar kernel: Hardware name: S5000VSA Feb 18 18:32:45 darkstar kernel: Modules linked in: r8169 e1000e xt_tcpudp iptable_filter iptable_nat nf_nat nf_conntrack_ipv4 nf_conntrack nf_defrag_ipv4 ip Feb 18 18:32:45 darkstar kernel: Pid: 0, comm: swapper Not tainted 2.6.29.6-smp #2 Feb 18 18:32:45 darkstar kernel: Call Trace: Feb 18 18:32:45 darkstar kernel: [c0129c07] warn_slowpath+0x87/0xe0 Feb 18 18:32:45 darkstar kernel: [c06f1b5c] dev_queue_xmit+0xdc/0x580 Feb 18 18:32:45 darkstar kernel: [c0719d05] ip_finish_output+0x1f5/0x2a0 Feb 18 18:32:45 darkstar kernel: [c0715e86] ip_forward_finish+0x26/0x40 Feb 18 18:32:45 darkstar kernel: [c0714916] ip_rcv_finish+0x156/0x310 Feb 18 18:32:45 darkstar kernel: [c0714700] inet_add_protocol+0x0/0x60 Feb 18 18:32:45 darkstar kernel: [c06f0b89] netif_receive_skb+0x289/0x510 Feb 18 18:32:45 darkstar kernel: [c03c7d5f] strlcpy+0x1f/0x60 Feb 18 18:32:45 darkstar kernel: [c070346b] dev_watchdog+0x1fb/0x210 Feb 18 18:32:45 darkstar kernel: [f85bc1db] rtl8169_poll+0x18b/0x1f0 [r8169] Feb 18 18:32:45 darkstar kernel: [c0703270] dev_watchdog+0x0/0x210 Feb 18 18:32:45 darkstar kernel: [c0132f39] run_timer_softirq+0xf9/0x1c0 Feb 18 18:32:45 darkstar kernel: [c06ef17f] net_rx_action+0xcf/0x190 Feb 18 18:32:45 darkstar kernel: [f85ba8fc] rtl8169_interrupt+0xfc/0x360 [r8169] Feb 18 18:32:45 darkstar kernel: [c012ecff] __do_softirq+0x8f/0x130 Feb 18 18:32:45 darkstar kernel: [c01152b3] ack_apic_level+0x73/0x270 Feb 18 18:32:45 darkstar kernel: [c012eddd] do_softirq+0x3d/0x50 Feb 18 18:32:45 darkstar kernel: [c0105528] do_IRQ+0x48/0x90 Feb 18 18:32:45 darkstar kernel: [c011384b] smp_apic_timer_interrupt+0x5b/0x90 Feb 18 18:32:45 darkstar kernel: [c011384b] smp_apic_timer_interrupt+0x5b/0x90 Feb 18 18:32:45 darkstar kernel: [c0103927] common_interrupt+0x27/0x2c Feb 18 18:32:45 darkstar kernel: [c07a00d8] get_cpu_leaves+0x15e/0x198 Feb 18 18:32:45 darkstar kernel: [c0109dcc] mwait_idle+0x4c/0x60 Feb 18 18:32:45 darkstar kernel: [c01022e4] cpu_idle+0x64/0x80 Feb 18 18:32:45 darkstar kernel: ---[ end trace c5b76500ff48a9ec ]--- -- Catalin Bucur mailto:c...@geniusnet.ro NOC @ Genius Network SRL - Galati - Romania ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug