Zdravím,

- pro crawlování používáme Xenu (hledá neplatné linky apod).
- pro hledání zátěže logujeme časy jednotlivých stránek podle uživatelů.
Pak víme jak často se které URL volá.

Takže lze pak použít jen wget a sosat navštívené URL uživateli.
On problém simulování je, že některé stránky uživatelé navštěvují
častěji a některé ne. 

Toto nám vždy stačilo - tj. hledali jsme úzká hrdla. nezjišťovali jsem
výkonnost aplikace.

Petr Ferschmann

Petr Gola píše v Čt 22. 02. 2007 v 15:14 +0100:

> Zdravím konferenci,
> 
> Mám dynamické webové stránky a potřeboval bych nějaký nástroj, který by mi
> 
> 1) prošel dle odkazů postupně všechny stránky z dané cesty (např.
> localhost:80/mojestranky)
> 2) simuloval zátěž na serveru,... 10, 100 připojených uživatelů
> 3) spočítal propustnost serveru, průměrné a maximalní odezvy při
> určitém počtu uživatelů apod.
> 
> Moc se mi líbí JMeter, ale neumí (nebo to neumím) procházet stránky
> dynamicky dále ze zadané cesty. Lze jen vyslat pozadavek na urcitou
> adresu. Dokonce jsem uvažoval, že si pro něj dopíšu vlastní
> pre-procesor (Html Link Parser, který v JMeteru je, je prakticky
> nepoužitelný - jednou funguje, jednou ne, chová se nevyzpytatelně),
> ale po chvilce prohrabovaní ve zdrojácích mě přešla chuť :) Doteď jsem
> nenašel třídu, která je zodpovědná za Html Link Parser, který v
> JMeteru již je :)... a protože nechci vymýšlet znovu kolo ...
> Neexistuje nějaký jiný nástroj, který se používá?
> 
> S pozdravem
> 
> Petr Gola

-- 
Petr Ferschmann

SoftEU s.r.o.
-----------------------------------
Sady Petatricatniku 31
301 00 Plzen
Czech Republic
-----------------------------------
Phone: +420 373 729 300
Fax:   +420 373 729 301
Cell:  +420 775 638 008
E-mail: [EMAIL PROTECTED] 

Odpovedet emailem