Le 8 sept. 05 à 17:10, Nicolas Dorfsman a écrit :
Bof. Le fait de "nicer" un process va lui donner moins de ticks
CPU (si je dis pas de bêtises), mais il n'empêche que quand ton
load average monte à 2xnbCPU, c'est tous process confondu, et ça
veut bel et bien dire que tu as 2 runnable process en attente par
CPU, ce qui commence à faire beaucoup de monde qui attend les CPUs
Bof, autant que la machine serve. J'ai des serveurs de calculs qui
monte à 30 & 2 serveurs web biproc qui tourne couramment à 10 & +.
Dans le premier cas, je dirais que de toute façon je me fous du temps
de réponse. Pour mon serveur web, l'impact est minime sur le temps de
réponse, vu que y a surtout du réseau.
En résumé, rien ne vaut un bon bench, en ayant des objectifs de QOS
pour savoir où est réellement le goulot d'étranglement. Bon une load
qui passe de 0,05 à 25 brutalement, là oui, y a un problème.
Pour revenir sur la notion de load. Pour moi, c'est la runqueue de
LWP. Un process avec deux thread qui attendent pour faire des
calculs : load de 2.
10 process en attente d'IO : load de 0.
Je viens de vérifier. J'ai une octoprocesseur sur laquel il y a un
seul process multi-thread qui tourne. Il fait effectivement beaucoup
de calcul & la load monte facilement à 3 en période de pique.
Pour valider le disque, un peu plus compliqué, pas trop le temps.
Mais si on jette un coup d'œil sur le man de vmstat :
The fields of vmstat's display are
kthr Report the number of kernel threads in each of
the three following states:
r in run queue
b blocked for resources I/O, paging, and so
forth
w swapped
_______________________________________________
Solaris_fr liste de diffusion en français pour Solaris, sur toutes architectures
[email protected]
http://x86.sun.com/mailman/listinfo/solaris_fr