[R-es] Cargar csv de 16GB en R

Carlos J. Gil Bellosta cgb en datanalytics.com
Mar Jun 3 19:50:10 CEST 2014


Hola, ¿qué tal?

colbycol tiene un límite no explícito de 2GB, que era una barbaridad
cuando se creó.

Obviamente, no vas a poder leer 16GB de fichero con un ordenador de
8GB. Pero es improbable que necesites toda esa información cargada a
la vez. Es posible que puedas trocear ese fichero con herramientas
externas y trabajarlo por partes.

Un saludo,

Carlos J. Gil Bellosta
http://www.datanalytics.com

El día 3 de junio de 2014, 19:37, laura tomé <tomelaurita en yahoo.es> escribió:
>
>
>
> Hola,
>
> Estoy todavía dando mis primeros pasos en R y una de las cosas que tengo que hacer es trabajar con un csv de 16 GB. Consta de 10 columnas, 7 númericas
> He probado varias cosas entre ellas  los paquetes  'colbycol', data.table, ff , etc,  pero nada, mi ordenador de queda frito. Por cierto, tiene 8GB de RAM y Windows 8
>
> ¿Debo trocear previamente el csv,me recomendais algún paquete en especial, etc para trabajar con un fichero tan pesado, otra solución?...
>
> Muchas gracias
>         [[alternative HTML version deleted]]
>
>
> _______________________________________________
> R-help-es mailing list
> R-help-es en r-project.org
> https://stat.ethz.ch/mailman/listinfo/r-help-es
>



Más información sobre la lista de distribución R-help-es