Hola Mariano, que tal".
Consultas, sencillas, pero tiene que traes todos los datos de la tabla
en cuestion y presentarlos en pantalla mediante labels, text y demas
Deletes muuuyyy raramente (por no deccir nunca)
Inserciones si, pro son muchos mas los updates
concurrentes 15 maximo,
las tablas tienen entre 20 y 50 campos, repartidos entre var char, bool,
int, con como 40 tablas por BD y 5 BD
cantidad de registros por tabla sin contar(las de auditorias) 100000 en
5 años (quizás no tanto, pero..)
Si contamos las tablas de auditorias podrian ser 400000, calculoque
tamaño de estos datos ( por tabla) por su equivalente en access podrian
ser como 10 gb (a grosso modo) pero es solo estimación
Hola Edwin, que tal!
Gracias por la respuesta
Estos datos que me proporcionas es muy facil de conseguir, pero no habrá
problemas para 20 usuarios concurrentes "tirando" a la vez?
Tengo unas dudillas más:
Discos de respaldo, internos, externos, en paralelo, caché de la cpu?
Cor 2 Duo
4Gb Ram
Disco Sata de 160 GB(depende de la cantidad de datos que hay)
Ya!!
Ah! Y Debian Lenny
Una pregunta, que tipo de bases de datos necesitas armar:
* muchas consultas complejas
* alta tasa de actualización (insert, updates y deletes)
* muchas conexiones concurrentes (actualizando o consultando)
* tamaños de las tablas, cantidad de registros, indices, etc.
Yo si el presupuesto lo permite, me inclinaría por más
nucleos/procesadores y discos:
* un quad-core dual
* mínimo dos discos, de 7200RPM con buffers >16MB ( si son scsi 15k RPM mejor)
* UPS
Con dos discos podrías armar redundancia raid-1 (sobre todo si son sata)
Sds
Mariano
--
TIP 10: no uses HTML en tu pregunta, seguro que quien responda no podrá leerlo
--
TIP 10: no uses HTML en tu pregunta, seguro que quien responda no podrá leerlo