J'ai un fichier csv 5gig (également comme sas datafile, s'il serait plus facile) que je dois mettre dans une base de données SQL pour que je puisse travailler avec elle dans l'affaire R.UNIX Importation GRAND csv dans SQLite
Les noms des variables sont tous contenus dans la première ligne d'observation et sont en double guillemets. Il y a plus de 1000 variables parmi les autres caractères numériques (bien que certaines des variables de caractères soient des chaînes de chiffres, mais je ne suis pas trop inquiet à ce sujet je peux le corriger en R).
Ma question est comment puis-je importer le fichier csv dans une nouvelle table dans ma base de données avec un minimum de douleur?
J'ai trouvé des choses disant de créer votre table d'abord (qui comprend la spécification de toutes les variables, dont j'ai plus de 1000) et ensuite en utilisant ". Import file table" pour apporter les données. Ou, pour utiliser un assistant d'importation gui, ce qui n'est pas une option pour moi. Désolé si c'est sql 101 mais merci pour l'aide.
De combien de RAM avez-vous besoin? –
Nous venons de passer à un nouveau groupe de recherche, je vais devoir vérifier avec l'administrateur sur les détails mais je crois qu'avec les options de soumission de travail par défaut, je reçois 16 Go, et bien sûr je peux en demander plus. –
Assurez-vous simplement de vérifier également l'option de tout laisser en mémoire. enregistrer l'espace de travail de temps en temps à partir de votre programme. 16 Go est plus que suffisant. Pourrait être beaucoup plus rapide et plus facile, et vous avez même la possibilité de demander plus de RAM si nécessaire de votre opérateur. (et vous utilisez LINUX, n'est-ce pas?) – mrsteve