[R-es] Cargar csv de 16GB en R
Carlos J. Gil Bellosta
cgb en datanalytics.com
Mar Jun 3 19:50:10 CEST 2014
Hola, ¿qué tal?
colbycol tiene un límite no explícito de 2GB, que era una barbaridad
cuando se creó.
Obviamente, no vas a poder leer 16GB de fichero con un ordenador de
8GB. Pero es improbable que necesites toda esa información cargada a
la vez. Es posible que puedas trocear ese fichero con herramientas
externas y trabajarlo por partes.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 3 de junio de 2014, 19:37, laura tomé <tomelaurita en yahoo.es> escribió:
>
>
>
> Hola,
>
> Estoy todavía dando mis primeros pasos en R y una de las cosas que tengo que hacer es trabajar con un csv de 16 GB. Consta de 10 columnas, 7 númericas
> He probado varias cosas entre ellas los paquetes 'colbycol', data.table, ff , etc, pero nada, mi ordenador de queda frito. Por cierto, tiene 8GB de RAM y Windows 8
>
> ¿Debo trocear previamente el csv,me recomendais algún paquete en especial, etc para trabajar con un fichero tan pesado, otra solución?...
>
> Muchas gracias
> [[alternative HTML version deleted]]
>
>
> _______________________________________________
> R-help-es mailing list
> R-help-es en r-project.org
> https://stat.ethz.ch/mailman/listinfo/r-help-es
>
Más información sobre la lista de distribución R-help-es