Zdravím, - pro crawlování používáme Xenu (hledá neplatné linky apod). - pro hledání zátěže logujeme časy jednotlivých stránek podle uživatelů. Pak víme jak často se které URL volá.
Takže lze pak použít jen wget a sosat navštívené URL uživateli. On problém simulování je, že některé stránky uživatelé navštěvují častěji a některé ne. Toto nám vždy stačilo - tj. hledali jsme úzká hrdla. nezjišťovali jsem výkonnost aplikace. Petr Ferschmann Petr Gola píše v Čt 22. 02. 2007 v 15:14 +0100: > Zdravím konferenci, > > Mám dynamické webové stránky a potřeboval bych nějaký nástroj, který by mi > > 1) prošel dle odkazů postupně všechny stránky z dané cesty (např. > localhost:80/mojestranky) > 2) simuloval zátěž na serveru,... 10, 100 připojených uživatelů > 3) spočítal propustnost serveru, průměrné a maximalní odezvy při > určitém počtu uživatelů apod. > > Moc se mi líbí JMeter, ale neumí (nebo to neumím) procházet stránky > dynamicky dále ze zadané cesty. Lze jen vyslat pozadavek na urcitou > adresu. Dokonce jsem uvažoval, že si pro něj dopíšu vlastní > pre-procesor (Html Link Parser, který v JMeteru je, je prakticky > nepoužitelný - jednou funguje, jednou ne, chová se nevyzpytatelně), > ale po chvilce prohrabovaní ve zdrojácích mě přešla chuť :) Doteď jsem > nenašel třídu, která je zodpovědná za Html Link Parser, který v > JMeteru již je :)... a protože nechci vymýšlet znovu kolo ... > Neexistuje nějaký jiný nástroj, který se používá? > > S pozdravem > > Petr Gola -- Petr Ferschmann SoftEU s.r.o. ----------------------------------- Sady Petatricatniku 31 301 00 Plzen Czech Republic ----------------------------------- Phone: +420 373 729 300 Fax: +420 373 729 301 Cell: +420 775 638 008 E-mail: [EMAIL PROTECTED]
