Con fecha Martes, 16 de Diciembre de 2014, 02:52:01 p.m., Edwin, escribió: > Actualmente para este fin uso PostgreSQL, sin ningun problema, pero > o que necesito es hacer la aplicacion mas independiente y facil de instalar, > configurar, etc. > He pensado en usar XML para cada registro que la aplicacion genera, > de este modo ya no hay peligro de corrupcion de datos, como podria suceder en > el caso de SQLite. > La Pregunta es la siguiente: ¿es pesado (lento) para el procesador > el tener que leer o copiar cientos o miles de archivos individuales, > lo pregunto porque me ha pasado que cuando copio alguna carpeta que > contiene ciento de archivos, todos menores a 10K, el proceso es muy > muy lento.?
Te voy a responder la pregunta: SIEMPRE es más pesado usar muchos archivos chicos que uno grande. Salvo en casos muy puntuales usar archivos grandes es mejor. Por supuesto que hay excepciones y si te das suficiente maña para programar usando los datos en discos separados o bien sabiendo exactamente donde apuntar al dato los archivos chicos responden mejor pero esto es una excepción y no la regla. Mira... cuando yo trabajo en video y fotografía profesional manejo archivos MUY GRANDES (de video, que pueden llegar a tener 10 GBytes o más) y archivos "relativamente" chicos (fotografías que rondan los 50 MBytes). Cuando hago B-Uk veo, ahora sin mucho asombro que los archivos de video se transfieren casi al límite de la red (es una red de Giga) usando muy poco microprocesador y cuando paso los archivos chicos la transferencia se hace mucho más lenta y el uso del micro salta por las nubes. Si esto sucede en un simple traspaso de datos, imagínate que podría suceder cuando esos datos deben ser procesados. -- Saludos, Eduardo mailto:[email protected] -- To UNSUBSCRIBE, email to [email protected] with a subject of "unsubscribe". Trouble? Contact [email protected] Archive: https://lists.debian.org/[email protected]

