laura tomé <[email protected]> writes: > Hola, > > Estoy todavía dando mis primeros pasos en R y una de las cosas que tengo que > hacer es trabajar con un csv de 16 GB. Consta de 10 columnas, 7 númericas > He probado varias cosas entre ellas los paquetes 'colbycol', > data.table, ff , etc, pero nada, mi ordenador de queda frito. Por > cierto, tiene 8GB de RAM y Windows 8 > > ¿Debo trocear previamente el csv,me recomendais algún paquete en especial, > etc para trabajar con un fichero tan pesado, otra solución?...
yo la verdad es que no tengo experiencia con ese tipo de datos, pero la cuestión aparece una y otra vez en los foros, stackexchange, etc. Siguiendo este link: http://statcompute.wordpress.com/2014/02/11/efficiency-of-importing-large-csv-files-in-r/ hay varias opciones: bigmemory, data.table, sqldf, etc. pero la función fread de data.table parece la más rápida. Yo probaría primeramente con esa. Aquí hay también algunos consejos: http://stackoverflow.com/questions/1727772/quickly-reading-very-large-tables-as-dataframes-in-r De todas formas, otros de la lista creo que tienen más experiencia con el asunto. Suerte! -- :: Igor Sosa Mayor :: [email protected] :: :: GnuPG: 0x1C1E2890 :: http://www.gnupg.org/ :: :: jabberid: rogorido :: :: _______________________________________________ R-help-es mailing list [email protected] https://stat.ethz.ch/mailman/listinfo/r-help-es
