[php] problème de memory limit
Fermé
Bonjour,
Je suis en train d'importer un dump mysql plutôt énorme avec un script php (il prend plusieurs jours...). Mais voilà, au bout d'un certain temps, j'obtiens ce message d'erreur :
Integer overflow in memory_limit check detected
Pourtant dans mon php.ini, la variable memory_limit est à -1.
Auriez-vous des idées ?
Merci d'avance pour votre aide :)
Je suis en train d'importer un dump mysql plutôt énorme avec un script php (il prend plusieurs jours...). Mais voilà, au bout d'un certain temps, j'obtiens ce message d'erreur :
Integer overflow in memory_limit check detected
Pourtant dans mon php.ini, la variable memory_limit est à -1.
Auriez-vous des idées ?
Merci d'avance pour votre aide :)
A voir également:
- [php] problème de memory limit
- Windows memory cleaner - Télécharger - Optimisation
- Easy php - Télécharger - Divers Web & Internet
- 552 size limit exceeded ✓ - Forum Réseaux sociaux
- Retour a la ligne php ✓ - Forum PHP
- Tampon size limit 20 - Forum TV & Vidéo
6 réponses
Zempachi
Messages postés
7472
Date d'inscription
vendredi 14 octobre 2005
Statut
Contributeur
Dernière intervention
5 juin 2020
906
30 juil. 2007 à 15:44
30 juil. 2007 à 15:44
Salut,
Essaye en découpant ton dump: crée plusieurs scripts à partir de l'original.
Essaye en découpant ton dump: crée plusieurs scripts à partir de l'original.
Merci pour ta réponse, Zempachi.
Le dump que j'importe permet de peupler les tables Mysql de Wikipédia.
Je n'ose pas me lancer dans des bidouilles de ce style. En plus le fichier fait près de 700 Mo, pas facile à manipuler, les éditeurs de texte genre kate ou kwrite font la tête... En plus, vu que c'est un dump fourni par Wikipédia, normalement ça devrait marcher sans avoir à modifier ou découper le dump. J'ai plutôt l'impression qu'il y a quelque chose à configurer dans php, mais je ne sais pas quoi...
Le dump que j'importe permet de peupler les tables Mysql de Wikipédia.
Je n'ose pas me lancer dans des bidouilles de ce style. En plus le fichier fait près de 700 Mo, pas facile à manipuler, les éditeurs de texte genre kate ou kwrite font la tête... En plus, vu que c'est un dump fourni par Wikipédia, normalement ça devrait marcher sans avoir à modifier ou découper le dump. J'ai plutôt l'impression qu'il y a quelque chose à configurer dans php, mais je ne sais pas quoi...
Vous n’avez pas trouvé la réponse que vous recherchez ?
Posez votre question
Zempachi
Messages postés
7472
Date d'inscription
vendredi 14 octobre 2005
Statut
Contributeur
Dernière intervention
5 juin 2020
906
1 août 2007 à 16:01
1 août 2007 à 16:01
regarde la limite en upload
Sinon passe par la ligne de commande comme cela tu ne seras pas embêté par les limites du php car 700Mo c'est quand même un peu balaise...
Sinon passe par la ligne de commande comme cela tu ne seras pas embêté par les limites du php car 700Mo c'est quand même un peu balaise...
Bonjour,
700Mo via un script PHP me font sourire. Le plus simple si c'est un dump au format SQL, c'est de l'importer directement via mysql ça prendra quelques minutes ou heures selon la machine mais pas des jours :)
https://dev.mysql.com/doc/
700Mo via un script PHP me font sourire. Le plus simple si c'est un dump au format SQL, c'est de l'importer directement via mysql ça prendra quelques minutes ou heures selon la machine mais pas des jours :)
https://dev.mysql.com/doc/