Estimada Laura Tomé Si los datos son mayores a la memoria, hay un problema, pero si usted tiene 10 columnas, ¿todas son necesarias?, porque podrÃa importar esos datos csv en una base de dados como mysql, luego como windows no permite, o se podrÃa desde R pero complicado, exportar desde mysql (o la que prefiera) algunas comunas (no las 10), obteniendo un archivo de menos megas que puede llegar a utilizar en su computadora.
Si logra importar los datos podrÃa buscar formas de almacenar (trabajar) consumiendo menos memoria, como sparce matrix (creo que se escribe asÃ). Aunque, para trabajar con GB se necesitan GB de memoria. Javier Marcuzzi El 3 de junio de 2014, 14:37, laura tomé <[email protected]> escribió: > > > > Hola, > > Estoy todavÃa dando mis primeros pasos en R y una de las cosas que tengo > que hacer es trabajar con un csv de 16 GB. Consta de 10 columnas, 7 > númericas > He probado varias cosas entre ellas los paquetes 'colbycol', data.table, > ff , etc, pero nada, mi ordenador de queda frito. Por cierto, tiene 8GB de > RAM y Windows 8 > > ¿Debo trocear previamente el csv,me recomendais algún paquete en especial, > etc para trabajar con un fichero tan pesado, otra solución?... > > Muchas gracias > [[alternative HTML version deleted]] > > > _______________________________________________ > R-help-es mailing list > [email protected] > https://stat.ethz.ch/mailman/listinfo/r-help-es > > [[alternative HTML version deleted]]
_______________________________________________ R-help-es mailing list [email protected] https://stat.ethz.ch/mailman/listinfo/r-help-es
