Estimada Laura Tomé

Si los datos son mayores a la memoria, hay un problema, pero si usted tiene
10 columnas, ¿todas son necesarias?, porque podría importar esos datos csv
en una base de dados como mysql, luego como windows no permite, o se podría
desde R pero complicado, exportar desde mysql (o la que prefiera) algunas
comunas (no las 10), obteniendo un archivo de menos megas que puede llegar
a utilizar en su computadora.

Si logra importar los datos podría buscar formas de almacenar (trabajar)
consumiendo menos memoria, como sparce matrix (creo que se escribe así).

Aunque, para trabajar con GB se necesitan GB de memoria.

Javier Marcuzzi


El 3 de junio de 2014, 14:37, laura tomé <[email protected]> escribió:

>
>
>
> Hola,
>
> Estoy todavía dando mis primeros pasos en R y una de las cosas que tengo
> que hacer es trabajar con un csv de 16 GB. Consta de 10 columnas, 7
> númericas
> He probado varias cosas entre ellas  los paquetes  'colbycol', data.table,
> ff , etc,  pero nada, mi ordenador de queda frito. Por cierto, tiene 8GB de
> RAM y Windows 8
>
> ¿Debo trocear previamente el csv,me recomendais algún paquete en especial,
> etc para trabajar con un fichero tan pesado, otra solución?...
>
> Muchas gracias
>         [[alternative HTML version deleted]]
>
>
> _______________________________________________
> R-help-es mailing list
> [email protected]
> https://stat.ethz.ch/mailman/listinfo/r-help-es
>
>

        [[alternative HTML version deleted]]

_______________________________________________
R-help-es mailing list
[email protected]
https://stat.ethz.ch/mailman/listinfo/r-help-es

Responder a