Salut Mugurel,
Daca aplicatia ta face calcule de genul inversarilor de matrici, rezolvari de 
sisteme liniare, atunci faptul ca merge bine pe shared memory si asteapta pe 
distributed, suna a partitionare slaba a domeniului de calcul. Este o intreaga 
literatura de specialitate pe tema partitionarii si de obicei este privita 
total separat de partea de rezolvare. Cu alte cuvinte aplicatia ta paralela 
poate sa fie scrisa oricat de bine, daca partea de partitionare o face 
altcineva si n-o face bine, atunci intregul proces va prezenta probleme de 
viteza scazuta de calcul.

Dragos



________________________________
From: Ionel Mugurel Ciobica <[email protected]>
To: [email protected]
Sent: Mon, November 2, 2009 3:30:34 PM
Subject: Re: [rlug] comparare diverse computere

On  2-11-2009, at 16h 06'11", Valentin Cozma wrote about "Re: [rlug] comparare 
diverse computere"
> aplicatia pe care o rulezi a fost gandita spre paralelizare ?

Pina la versiunea 3.8 a fost scrisa in fortran77 si necesita
recompilare de fiecare data cind se executa.
Incepind de la versiunea 4 a fost totul rescris cu fortran90.

Paralelizarea este facuta cu mpi (message passing interface) si
scaleaza excelent pe calculatoare care au shared memory, testele arata
peste 90% rulind pe mii de procesoare. Pe calculatoarele cu
distributed memory, testele arata ca procesoarele stau si se asteapta
unele pe altele, dar chiar daca jumatate stau degeaba tot este mai
ieftin sa iei PC-cluster(e). 

Problema este ca un cluster are 6-7 ani, unul 3-4, unul 1-2 si altul
tocmai este in proces de instalare. Acum, cum se impart astea la 4-5
oameni?


> 
> ( daca a fost, atunci ar trebui sa scaleze bine )
> 

Scaleaza bine pe procesoare mips. Am rulat si eu joburi pe sute de
procesoare odata.

Mugurel

_______________________________________________
RLUG mailing list
[email protected]
http://lists.lug.ro/mailman/listinfo/rlug



      

_______________________________________________
RLUG mailing list
[email protected]
http://lists.lug.ro/mailman/listinfo/rlug

Raspunde prin e-mail lui