PhpMyadmin import de gros fichier .xls
Fermé
patrick646
Messages postés
35
Date d'inscription
vendredi 9 octobre 2009
Statut
Membre
Dernière intervention
18 juin 2012
-
9 août 2011 à 18:21
mpmp93 Messages postés 6648 Date d'inscription mercredi 13 avril 2011 Statut Membre Dernière intervention 28 septembre 2015 - 10 août 2011 à 09:37
mpmp93 Messages postés 6648 Date d'inscription mercredi 13 avril 2011 Statut Membre Dernière intervention 28 septembre 2015 - 10 août 2011 à 09:37
A voir également:
- PhpMyadmin import de gros fichier .xls
- Fichier rar - Guide
- Comment réduire la taille d'un fichier - Guide
- Comment ouvrir un fichier epub ? - Guide
- Ouvrir fichier .bin - Guide
- Fichier iso - Guide
2 réponses
Utilisateur anonyme
Modifié par ammmmmine le 9/08/2011 à 21:00
Modifié par ammmmmine le 9/08/2011 à 21:00
salut,
compresse ton fichier aumaximum sous l'un de ces formats : gzip, bzip2, zip
compresse ton fichier aumaximum sous l'un de ces formats : gzip, bzip2, zip
mpmp93
Messages postés
6648
Date d'inscription
mercredi 13 avril 2011
Statut
Membre
Dernière intervention
28 septembre 2015
1 340
10 août 2011 à 09:37
10 août 2011 à 09:37
Bonjour,
Il n'y a pas de solution pour avaler un très gros fichier CSV...
Il y a cependant UNE SOLUTION, la seule: découper votre CSV de 24Mo en 12 fichiers de 2M0 chacun environ...
L'autre solution, c'est de charger sur le serveur le fichier CSV, puis de faire un premier script:
- lire 1000 lignes, les mettres dans un fichier annexe tampon.csv par exemple,
- lire toutes les autres lignes et les mettre dans un fichier atraiter.csv
- faire une fonction qui charge en BDD le contenu de tampon.csv
- itérer tant que atraiter.csv contient des lignes
A+
Il n'y a pas de solution pour avaler un très gros fichier CSV...
Il y a cependant UNE SOLUTION, la seule: découper votre CSV de 24Mo en 12 fichiers de 2M0 chacun environ...
L'autre solution, c'est de charger sur le serveur le fichier CSV, puis de faire un premier script:
- lire 1000 lignes, les mettres dans un fichier annexe tampon.csv par exemple,
- lire toutes les autres lignes et les mettre dans un fichier atraiter.csv
- faire une fonction qui charge en BDD le contenu de tampon.csv
- itérer tant que atraiter.csv contient des lignes
A+
9 août 2011 à 21:30
9 août 2011 à 21:37
9 août 2011 à 22:02
Un logiciel SGBD?ou autre?
9 août 2011 à 22:07
De ce fait, plus de limitation de memory_size au niveau serveur
9 août 2011 à 22:11
je t'es fait un screen (comme quoi tu peux importer tes fichiers en gzip, bzip2, zip)
https://imageshack.com/
autre facon de faire : c'est importer le meme fichier plusieurs fois et a chaque fois phpmyadmin debutera l'importation la ou il s'est arreté la derniere fois ( on peut le voir dans la partie "PARTIAL IMPORT" dans le screen).