Nombreux fichiers ou gros fichier ?
Oliv
-
KX Messages postés 19031 Statut Modérateur -
KX Messages postés 19031 Statut Modérateur -
Bonjour,
C'est peut-être un peu (Ôô) plus général que Java, mais peut-être aussi que Java (et surtout sa classe
Dans un cas de donnée typée chaîne de caractères stockée sur une ligne, avec beaucoup de ces données, et beaucoup de traitements concurentiels à faire en lecture, tant sur l'ensemble de données que sur chacune sans aucun lien avec les autres, et ce de manière continue (à la demande) :
Est-ce qu'il vaut mieux créer un fichier de 300 000 lignes (aïe les
Des pièges autre que la synchronisation dans les deux cas ?
Merci de bien vouloir m'éclairer un peu, beaucoup, fruit de la passion et nommément. :)
C'est peut-être un peu (Ôô) plus général que Java, mais peut-être aussi que Java (et surtout sa classe
Scanner) à des arguments à lui. Et c'est en Java que le ou les fichiers sont traités. Donc :
Dans un cas de donnée typée chaîne de caractères stockée sur une ligne, avec beaucoup de ces données, et beaucoup de traitements concurentiels à faire en lecture, tant sur l'ensemble de données que sur chacune sans aucun lien avec les autres, et ce de manière continue (à la demande) :
Est-ce qu'il vaut mieux créer un fichier de 300 000 lignes (aïe les
Thread), ou 300 000 fichiers d'une ligne (aïe la mémoire) ?
Des pièges autre que la synchronisation dans les deux cas ?
Merci de bien vouloir m'éclairer un peu, beaucoup, fruit de la passion et nommément. :)
Configuration: Windows / Chrome 86.0.4240.183
A voir également:
- Nombreux fichiers ou gros fichier ?
- Fichier bin - Guide
- Fichier epub - Guide
- Comment réduire la taille d'un fichier - Guide
- Fichier rar - Guide
- Fichier .dat - Guide
1 réponse
Bonjour,
"beaucoup de traitements concurentiels à faire en lecture"
S'il n'y a que de la lecture il n'y a pas de problème de concurrence.
Sinon, l'idéal serait de passer par une base de données, dont la gestion des transactions est plus performante que n'importe quel traitement à la main que tu pourrais mettre en place.
"beaucoup de traitements concurentiels à faire en lecture"
S'il n'y a que de la lecture il n'y a pas de problème de concurrence.
Sinon, l'idéal serait de passer par une base de données, dont la gestion des transactions est plus performante que n'importe quel traitement à la main que tu pourrais mettre en place.
Dans le doute, je pense que je vais faire 300 000 fichiers de 300 000 lignes, ce sera plus suûrÛr¡
Par exemple, si chaque ligne "avec beaucoup de ces données" possède 3'000 caractères en moyenne. Charger 300'000 lignes intégralement en mémoire, ça ne fait jamais que 1Go... C'est tout à fait abordable.