Salut Mihai, Pe nodul control se ruleaza serviciile care ofera api-uri: keystone, cinder-scheduler, cinder-api, glance-registry, glance-api, nova-api/cert/conductor/console/scheduler In ubuntu 12.04 gasesti logurile /var/log/cinder.glance,keystone,nova,quantum/neutron,rabbitmq.
Pe nodurile compute in general in functie de ce tip de networking ai rulezi serviciile urmatoare : cinder-volume, openv-vswitch, nova-compute,quantum-plugin-openvswitch-agent. Si de obicei pe un al treilea nod rulezi chestiile legate de retea : open-vswitch, dnsmasq, quantum/neutron-dhcp-agent, quantum/neutron-openvswitch-agent, quantum/neutron-metadata-agent, quantum/neutron-l3-agent. Pentru rabbitmq (daca nu folosesti mai multe instante caz in care trebuie specificata fiecare instanta in fisierele de config + mirror queues ) rabbitmqctl status rabbitmqctl list_users rabbitmqctl start_app/stop_app sau In general aici probeleme sunt legate de ce vhost folosesti de parola userului si cate odata daca ai multi clienti de numarul de fisiere deschise in linux. Pentru keystone, sa iti dai seama ca functioneaza urmatoarele comenzi trebuie sa afiseze ceva :) keystone tenant-list keystone user-list keystone endpoint-list Problemele generale sunt legate de tokenurile pe care nu le primesti (pentru serviciile mentionate cat si pentru useri) si de endpoint-uri care nu sunt accesibile. Pentru a valida ca nova atat pentru control cat si pentru compute functioneaza toate serviciile afisate de nova service-list trebuie sa fie up, acelasi lucru si pentru nova host-list. Multe probleme posibile in general legate de integrarea celorlalte api-uri in nova (pt ca nova iti poate face nova volume list sau nova network list) De obicei aici mai uit in principal in 2 loguri la nova-api.log si nova-scheduler.log si ce stacktrace-uri apar. Cinder te intereseaza mai putin la inceput pentru ca poti sa rulezi masini virtuale fara a avea ceva storage atasat. Dar si aici poti sa validez ca cinder iti functioneaza daca urmatoarele comenzi nu arunca erori : cinder-manage host list si pentru a vedea volumele create cinder list --all-tenants Glance este important pentru ca aici iti urci imaginea masinii virtuale in general UEC de la ubuntu cu cloud-init. glance image-list si nova flavor-list sunt comenzile interesante care trebuie sa functioneze. Problemele sunt legate de imaginea de ubuntu (in general sau cirros de test) si felul cum o importi si daca este sa nu publica. Pe partea de retea s-au schimbat multe in kilo si daca folosesti DVR nu stiu cum functioneaza dar in pentru variantele anterioare cu bazate pe open-vswitch si gre sau vxlan urmatoarele comenzi iti valizedeaza ca ai o instalare functionala: quantum/neutron agent-list toti agentii trebuie sa aiba fete zambitoare :) quantum/neutron net-list iti arata toate retele pe care le ai quantum/neutron router-list iti arata toate routerele virtuale create apoi pe nodul unde rulezi procesle de retea trebuie sa validezi ca in interiorul namespace-urilor "ip netns list" si ip netns exec qdhcp-11f2ab96-3615-479a-a9c3-5e983478e10d netstat -nap Aici trebuie sa te uiti la logurile generate de l3 agent si neutron-server. Cum a fost deja mentionat cel mai usor poti sa incepi cu packstack all-in-one garantat sa functioneze (asta se da si prin diverse certificari) sau poti sa folosesti modulele oficiale de aici https://github.com/stackforge/puppet-openstack si iti configurezi tu fiecar serviciu. Stiu ca sunt si module oficiale de ansible si salt tot pentru acelasi task. Eu le-am folosit pe cele de la puppet in productie. Alternativ si manual foloseste cu incredere documentatia de instalare de aici http://docs.openstack.org/kilo/install-guide/install/apt/content/ (poti sa mai cauti pe github scripturi facute de diversi care urmaresc fix pasii din aceasta documentatie) -- Adrian 2015-09-21 16:14 GMT+02:00 Mihai Badici <mi...@badici.ro>: > On Monday 21 September 2015 14:49:31 Nux! wrote: > > Nu te ajuta in cazul de fata, dar din experienta mea cu Openstack: > > - la un moment dat, cu putin noroc vei reusi sa pui pe picioare ceva > aparent > > functional; vei fi probabil tentat sa il pui in productie. NU O FACE! In > > curand ceva se va fute in mod oribil si vei sfarsi uitandu-te la el ca > > vitelul la poarta noua in timp ce clientul urla la tine. > > > > Eu is mai prostovan de fel si YMMV, mai ales ca nu m-am mai uitat la > proiect > > de vreo doi ani, dar parerea mea e ca daca nu esti destul de intim cu > > python si openstack (developer level skills), atunci o sa ai probleme. > > > > Daca vrei musai Openstack, cred ca muritorii/sysamdinii de rand ar > trebui sa > > se uite la distributii gen Mirantis Heat (or fi si altele) unde ai si > > posibilitatea sa cumperi suport, altfel cred ca e o idee buna sa incerci > si > > Cloudstack sau OpenNebula care sunt mai putin complexe/dificile. > Daca il pun in productie, mai intai il pun pentru uz intern si abia daca > prind > curaj .... :) > Sunt destul de defensiv de felul meu, dar o sa vad. Nu e proiectul meu, e > al clientului, pana la urma el decide( si la el urla clientul :) )-- > Mihai Badici[1] > > -------- > [1] http://mihai.badici.ro > _______________________________________________ > RLUG mailing list > RLUG@lists.lug.ro > http://lists.lug.ro/mailman/listinfo/rlug > -- Adrian _______________________________________________ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug