PhpMyadmin import de gros fichier .xls
patrick646
Messages postés
43
Statut
Membre
-
mpmp93 Messages postés 7217 Statut Membre -
mpmp93 Messages postés 7217 Statut Membre -
Bonjour,
Un dernier petit problème pour la route! :)
Bon j'essaye d'importer un très très très gros fichiers *.xls sur phpMyadmin et en retour j'ai un tres tres tres gros probleme avec,:)...Il affiche l'erreur suivante :
fatal error allowed memory size of
Pour info, je suis deja aller sur php.ini et changer memory_limit par 24M, upload_max_filesize=64M et post_max_limit=60M...Mais le problème est encore la!
En passant le fichier est de 45Mo et meme si je le converti en csv,c'est la même chose.
Alors, les supers informaticiens!! donnée moi une information ou une procédure pour régler ce problème.
Je vous remercie d'avance et j'attend une reponse avec impatience!
Merci.
Un dernier petit problème pour la route! :)
Bon j'essaye d'importer un très très très gros fichiers *.xls sur phpMyadmin et en retour j'ai un tres tres tres gros probleme avec,:)...Il affiche l'erreur suivante :
fatal error allowed memory size of
Pour info, je suis deja aller sur php.ini et changer memory_limit par 24M, upload_max_filesize=64M et post_max_limit=60M...Mais le problème est encore la!
En passant le fichier est de 45Mo et meme si je le converti en csv,c'est la même chose.
Alors, les supers informaticiens!! donnée moi une information ou une procédure pour régler ce problème.
Je vous remercie d'avance et j'attend une reponse avec impatience!
Merci.
A voir également:
- PhpMyadmin import de gros fichier .xls
- Fichier bin - Guide
- Fichier epub - Guide
- Fichier rar - Guide
- Comment réduire la taille d'un fichier - Guide
- Fichier .dat - Guide
2 réponses
Bonjour,
Il n'y a pas de solution pour avaler un très gros fichier CSV...
Il y a cependant UNE SOLUTION, la seule: découper votre CSV de 24Mo en 12 fichiers de 2M0 chacun environ...
L'autre solution, c'est de charger sur le serveur le fichier CSV, puis de faire un premier script:
- lire 1000 lignes, les mettres dans un fichier annexe tampon.csv par exemple,
- lire toutes les autres lignes et les mettre dans un fichier atraiter.csv
- faire une fonction qui charge en BDD le contenu de tampon.csv
- itérer tant que atraiter.csv contient des lignes
A+
Il n'y a pas de solution pour avaler un très gros fichier CSV...
Il y a cependant UNE SOLUTION, la seule: découper votre CSV de 24Mo en 12 fichiers de 2M0 chacun environ...
L'autre solution, c'est de charger sur le serveur le fichier CSV, puis de faire un premier script:
- lire 1000 lignes, les mettres dans un fichier annexe tampon.csv par exemple,
- lire toutes les autres lignes et les mettre dans un fichier atraiter.csv
- faire une fonction qui charge en BDD le contenu de tampon.csv
- itérer tant que atraiter.csv contient des lignes
A+
Un logiciel SGBD?ou autre?
De ce fait, plus de limitation de memory_size au niveau serveur
je t'es fait un screen (comme quoi tu peux importer tes fichiers en gzip, bzip2, zip)
https://imageshack.com/
autre facon de faire : c'est importer le meme fichier plusieurs fois et a chaque fois phpmyadmin debutera l'importation la ou il s'est arreté la derniere fois ( on peut le voir dans la partie "PARTIAL IMPORT" dans le screen).