On  2-11-2009, at 16h 49'15", Adrian Sevcenco wrote about "Re: [rlug] comparare 
diverse computere"
> >
> >Pe orice hardware cu distributed memory este la fel. Mai bine rulez 8
> >joburi pe 8 procesoare cite un procesor pe computer, decit 8 joburi pe 8
> >procesoare cite un job pe node. Nu stiu de ce.
> Imi pare rau ... dar asta e stupid! poate sunt prea nou in HPC (nu am 
> decit citiva ani ca admin GRID si HPC) dar nu am auzit de asha ceva .. 
> si nu vreau sa ofensez pe nimeni dar asta e o timpenie! (poate cineva se 
> simte ofensat si imi demonstreaza ca sunt eu timpit .. si e excelent ca 
> mai invat ceva cu totul nou)

Stiu, dar lucrez asa de multi ani de zile, pe vremea cind nu puteam
cumpara PC-cluster de la magazinele de calculatoare ca nu stiau ce-s
alea. Primul l-am construit manual. Nodurile aveau 4U si un singur
procesor. Acum nodurile au 1U si 8 procesoare...

> >Da, aplicatia foloseste mpi si folosesc torque ca job scheduler.
> hmmm ... ajungem la fraza de mai sus (unde ziceam eu de timpenie :) )
> MPI-ul se integreaza direct cu torqueul si cind trimiti un job pe masina 
> foloseste automat toate core-urile de acolo (sa te uiti cu un ps sau top)
> Daca lanasezi 8 joburi pe acelasi node de 8 coreuri o sa ai 8x1 procese.
> daca lansezi 8 joburi pe 8 noduri diferite o sa ai 8x8 procese ;)
> De aia e mai bine asha ;) :D

Nu. Comparam aici 8 noduri cu 8 procesoare care pot rula 8 joburi
independente (fiecare nod un job pe 8 procesoare) sau 8 joburi in care
fiecare job ia un CPU de la fiecare nod. Deci in fiecare caz toate
cele 64 procesoare sint ocupate doar cine cu cine comnunica este
diferit.

> 
> Folosesti cumva rocks? Ce interconect au? e configurat sa fie folosit de 
>  MPI? esti __sigur__ ca mpi-ul foloseste interconectul ala? Daca 
> folosesti rocks iti recomand cu caldura lista lor de mail.
> 

PC-clusterele cu interconectul sint intr-adevar configurate cu rocks.
Nu am access root la ele. Nu stiu prea mult despre rocks asta. Are
rost sa ma interesez?

Mugurel

_______________________________________________
RLUG mailing list
[email protected]
http://lists.lug.ro/mailman/listinfo/rlug

Raspunde prin e-mail lui