Fabiano,

o site realmente esta praticamente fora do ar. Estou começando agora com
zope e me apareceu esse site pra dar manutenção.
Valeu pelas dicas.

sds
Gustavo

Em 24/01/08, xiru <[EMAIL PROTECTED]> escreveu:
>
>   Oi Gustavo,
>
> 2008/1/24 Gustavo Queiroz <[EMAIL PROTECTED]<gustavoqueiroz%40gmail.com>
> >:
> >
> >
> >
> >
> >
> >
> > Prezados,
> >
> > No servidor de PRODUÇÃO:
> >
> > HTTP requisição enviada, aguardando resposta...
> > HTTP/1.0 200 OK
> > Date: Thu, 24 Jan 2008 13:32:17 GMT
> > Content-Length: 39427
> >
> > Content-Type: text/html;charset=utf-8
> > Expires: Thu, 24 Jan 2008 13:32:17 GMT
> > Cache-Control: max-age=0, private, must-revalidate
> > Connection: keep-alive
> > Proxy-Connection: keep-alive
> > Server: Zope/(Zope 2.9.8-final, python 2.4.4, linux2) ZServer/1.1
> > Plone/2.5.3-final
> > X-Pagecache: MISS
> > Content-Language:
> >
> > Vary: Accept-Encoding,Accept-Language
> > ETag: ||220i WWW||0|1001595|False|||||333661
> > X-Caching-Rule-Id: plone-containers
> > X-Header-Set-Id: cache-in-memory
> > Tamanho: 39427 (39K) [text/html]
> >
>
> O seu caso é um pouco diferente: ao invez de fazer cache compartilhado
> (no squid) voce esta fazendo cache por e-tag usando memoria RAM,
> atraves do PageCacheManager. Eu pessoalmente nao gosto pq o maximo que
> uma instancia Zope processa assim é 150 request/s e com Squid, da para
> fazer tranquilamente uns 4000 request/s (em maquina xing-ling).
>
> Quando tem um header etag e CacheFu rodando com Squid 2.5, não existe
> cache compartilhado. Cache de etag é suportado apenas em Squid 2.6
> (mas o setup padrao do CacheFu nao faz isso tambem, vide o "private"
> no Cache-Control).
>
> >
> > No servidor de DESENVOLVIMENTO depois de alguns testes(expirando em 1
> minuto
> > e meio) mas acredito que o Cache Fu não está mais funcionando:
> >
> > HTTP requisição enviada, aguardando resposta...
> > HTTP/1.0 200 OK
> > Server: Zope/(Zope 2.9.8-final, python 2.4.4, linux2) ZServer/1.1
> > Plone/2.5.3-final
> > Date: Thu, 24 Jan 2008 13:36:18 GMT
> > Content-Length: 35990
> > Content-Language:
> > Expires: Thu, 24 Jan 2008 13:37:48 GMT
>
> O header Content-Language ta vazio... melhor arrumar :-)
>
> >
> > Content-Type: text/html;charset=utf-8
> > X-Cache: MISS from localhost
> > Connection: keep-alive
> > Tamanho: 35990 (35K) [text/html]
> >
>
> X-Cache: MISS from localhost? Você tem um Squid no localhost?
>
> Esses headers estao estranhos pois tem apenas o Expires e nao tem
> Cache-Control. É melhor revisar...
>
> Espero ter ajudado e, aproveitando, vou fazer uma palestra no FISL
> sobre essas coisas todas. Não deixem de assistir (ou seu site vai cair
> ;-)
>
>
> > sds
> > Gustavo
> >
> >
> >
> > Em 24/01/08, xiru <[EMAIL PROTECTED] <xirumacanudo%40gmail.com>>
> escreveu:
> > >
> > >
> > >
> > >
> > >
> > >
> > >
> > > Oi Gustavo,
> > >
> > > eu ja vi isso acontecer. Daria para postar a saida do wget -S aqui?
> > >
> > > Meu palpite é que tenha algum header max-age setado (provavelmente
> como 0)
> > >
> > > Um abraço,
> > >
> > > Fabiano Weimar
> > >
> > > 2008/1/22 Gustavo Queiroz <[EMAIL PROTECTED]<gustavoqueiroz%40gmail.com>
> >:
> > >
> > > >
> > > >
> > > >
> > > >
> > > >
> > > >
> > > > Saudações,
> > > >
> > > > Estou com um prblema de Cache em um plone site.
> > > > Tenho o Cache Fu instalado mas a Data de Expiração da página é de
> 1998.
> > > >
> > > > Isso faz com que o Cache não funcione?
> > > >
> > > > Encontrei o global_cache_settings em duas pastas dentro de
> portal_skins
> > > > (plone_templates e em cache_setup), mas em nenhum desses dois
> arquivos
> > > > existe a data de 1998. OS dois encontram-se com data de 2000. Para
> > testar
> > > > estou usando o wget -S <url> .
> > > >
> > > > Atenciosamente,
> > > > Gustavo
> > > >
> > > >
> > > >
> > >
> > >
> > > --
> > > Fabiano Weimar dos Santos (xiru)
> > > Weimar Consultoria
> > >
> > > Hospedagem Plone, Zope e Python
> > > http://www.pytown.com
> > >
> > >
> > >
> >
> >
>
> --
> Fabiano Weimar dos Santos (xiru)
> Weimar Consultoria
>
> Hospedagem Plone, Zope e Python
> http://www.pytown.com
>
>  
>

Responder a