El día 20 de diciembre de 2014, 21:10, Eduardo Jorge Gil Michelena <[email protected]> escribió: > Con fecha Martes, 16 de Diciembre de 2014, 02:52:01 p.m., Edwin, > escribió: >> Actualmente para este fin uso PostgreSQL, sin ningun problema, pero >> o que necesito es hacer la aplicacion mas independiente y facil de instalar, >> configurar, etc. >> He pensado en usar XML para cada registro que la aplicacion genera, >> de este modo ya no hay peligro de corrupcion de datos, como podria suceder >> en el caso de SQLite. >> La Pregunta es la siguiente: ¿es pesado (lento) para el procesador >> el tener que leer o copiar cientos o miles de archivos individuales, >> lo pregunto porque me ha pasado que cuando copio alguna carpeta que >> contiene ciento de archivos, todos menores a 10K, el proceso es muy >> muy lento.? > > Te voy a responder la pregunta: SIEMPRE es más pesado usar muchos archivos > chicos que uno grande. Salvo en casos muy puntuales usar archivos > grandes es mejor. > > Por supuesto que hay excepciones y si te das suficiente maña para > programar usando los datos en discos separados o bien sabiendo > exactamente donde apuntar al dato los archivos chicos responden mejor > pero esto es una excepción y no la regla. > > Mira... cuando yo trabajo en video y fotografía profesional manejo archivos > MUY > GRANDES (de video, que pueden llegar a tener 10 GBytes o más) y > archivos "relativamente" chicos (fotografías que rondan los 50 > MBytes). Cuando hago B-Uk veo, ahora sin mucho asombro que los > archivos de video se transfieren casi al límite de la red (es una red > de Giga) usando muy poco microprocesador y cuando paso los archivos > chicos la transferencia se hace mucho más lenta y el uso del micro > salta por las nubes. Si esto sucede en un simple traspaso de datos, > imagínate que podría suceder cuando esos datos deben ser procesados. > > > -- > Saludos, > Eduardo mailto:[email protected] > > > -- > To UNSUBSCRIBE, email to [email protected] > with a subject of "unsubscribe". Trouble? Contact [email protected] > Archive: https://lists.debian.org/[email protected] >
Me he decidido por SQlite en lugar de usar varios archivos separados. Habia hecho algunas pruebas "caseras" copiando unos cuantos cientos de archivos pequeños y realmente el proceso es muy lento, en cambio si por ejemplo comprimo la carpeta contenedora y ese tar comprimido lo copio, entonces la copia es muy rapida. En relacion a SQLite lo he incluido en un micro servidor HTTP para guardar los logs de varios hilos concurrentes y me ha sorpendido ya que no resulta casi nada de peso para la aplicacion, ha funcionado bien, sin perdida de datos. Gracias a todos por sus respuestas, me ha servido de mucho, unas felices navidades y prospero año nuevo 2015. Mis proyectos de software libre en: https://github.com/edwinspire?tab=repositories -- To UNSUBSCRIBE, email to [email protected] with a subject of "unsubscribe". Trouble? Contact [email protected] Archive: https://lists.debian.org/cakazx-q9nzpbw3gywfd-dw68g6pnlazvxmz-u0tdn-fdypy...@mail.gmail.com

