Je dois sauvegarder de très grandes quantités de données (> 500 Go) qui sont en train d'être transférées (800Mb/s) à partir d'un autre périphérique connecté à mon PC. La vitesse exclut l'utilisation d'une base de données, par ex. MySQl/ISAM et je suis à la recherche d'une bibliothèque rapide et légère qui se trouve au dessus de la librairie stdio 'C' (ie fopen/fclose/fwrite) qui me permettra d'écrire/lire un très gros fichier (jusqu'à un disque disponible -espace). En arrière-plan, le fichier volumineux peut être décomposé en fichiers plus petits, par ex. 1 Go et je veux que l'API prenne soin de ces détails.La bibliothèque Fast 'C' gère de manière tranparente les fichiers très volumineux
Les données arrivent au PC dans un format binaire compressé et aucun autre traitement n'est nécessaire avant de l'écrire sur le disque dur.
La bibliothèque doit fonctionner sous Windows et Linux.
Pas vraiment une réponse appropriée, mais la première chose qui vient à l'esprit: 'nc -l | split'' –