Otra anecdota fue que despues de las pruebas había muchas instancias de MagmaSession incluso despues de bajar todo lo relativo a la app y limpiar la pool. Así fue que la imagen quedó en unos 120megas de tamaño en disco. Luego vi un poco más y encontré que MagmaSession tiene un metodo de clase que se llama #cleanUp es medio bestia porque hace de todo para limpiar pero despues de correrlo dejó esa imagen en 27megas.
saludos, Sebastian On 22 out, 15:50, Sebastian <[EMAIL PROTECTED]> wrote: > Aha, ok voy a mirar MagriteGlorp pero el de Gjallar por ahora no me > presentó insuficiencias. > Vale la referencia del memcached. Para mi eso está para más adelante > porque todavía estoy mucho antes de esas optimizaciones. Pero vale > porque así ya estoy avisado jé. Igual lo de lento o rápido es algo que > termina siendo medio subjetivo y en la vida real no encontré nunca > impedimentos para llegar a la usabilidad necesaria o aceptable para el > end user que es lo que realmente pesa en la ecuación. Además la web > tenés más cosas para entretener al usuario mientras se hace algo que > demora un toque más que los que por ejemplo tendrías en una app > desktop. > > Comments: las pruebas que fueron son elementales. > Primero hice una transaccion gigante que no se completaba porque > superaba los 10megas. En la lista de Magma me recordaron lo de hacer > transacciones "medio pequeñas" ni grandes ni microscópicas pero que le > podía cargar duro nomás. Así fue. Cuando hice eso le pude entrar a > cargar pesado hasta que la imagen engordaba. En mis observaciones > entre los 250 y 300 megas de RAM el squeak hace crash (very badly). Lo > comenté a la lista y me dijeron que use #stubOut: que lo que hace es > poner un proxy en lugar de un objeto ayudando a que el GC de squeak > reclame el espacio de esa instancia ayudando a mantener a raya la > "voracidad RAMica" del squeak. Tengo que aprender mejor como usar ese > stubOut: pero al menos ya logré cargarlo con más de 11mil objetos > persona del modelo real que tenian una magma collection cada una con > un par de presupuestos cada una. No es mucha cosa pero es mejor que > usar ImageSegments :) > > saludos, > > Sebastian > > On 20 out, 14:50, "Ramiro Diaz Trepat" <[EMAIL PROTECTED]> wrote: > > > Me alegro mucho que estés haciendo estas pruebas, no dejes de mandar > > tus conculsiones a la lista, una vez que hayas avanzado. > > > Un par de cosas más para comentar: > > > 1. Fijate el connection pool de MagritteGlorp si no te gusta más que > > el de Gjallar. > > 2. Según parece, hoy en día la gran mayoría de las tecnologías > > *chetas* de generación de sitios web dinámicos son super lentas > > (Seaside, Rails, Django, etc), y por lo tanto, para lograr una > > performance decente todas se apoyan en arquitecturas muy similares de > > reverse proxies y distribución de carga en múltples VMs/imágenes, > > utilizando un apache 2.2, haproxy, pound o algo equivalente adelante, > > y por lo general compartiendo un cache de objetos distribuido en el > > famoso memcached para pegarle menos a la base de datos, que suele > > convertirse en el cuello de botella. Yo quería hacer un cliente en > > Squeak para memcached el fin de semana largo pasado, pero cuando me > > disponía a hacerlo me fijé si ya había alguno hecho y justo Philippe > > acababa de subir uno, que parece estar lleno de patterns, mucho más > > prolijo que el que yo tenía en mente :). Aunque no sé si serializa > > bien los objetos o si sólo manda y recibe ByteArrays.... En fin, te > > recomiendo, si aún no lo has hecho, que explores si usando memcached > > en alguna parte de tu aplicación podés mejorar mucho la performance y > > compartir instancias entre diferentes imágenes de Seaside. > > > Saludos --~--~---------~--~----~------------~-------~--~----~ Has recibido este mensaje porque estás suscrito a Grupo "clubSmalltalk" de Grupos de Google. Si quieres publicar en este grupo, envía un mensaje de correo electrónico a [email protected] Para anular la suscripción a este grupo, envía un mensaje a [EMAIL PROTECTED] Para obtener más opciones, visita este grupo en http://groups.google.com/group/clubSmalltalk?hl=es. -~----------~----~----~----~------~----~------~--~---
