Sql loader grand fichier
alice
-
swed -
swed -
Bonjour,
j'essai de charger un fichier dans une table dans oracle 10g XE en utilisant sqlldr,
le souci c'est que j'ai reussi a charger un petit fichier (24 lignes) mais lorsque j'essai de charger un grand fichier (contenant 200000 lignes) sa plante.
voila la commande cmd:
sqlldr system/alice@XE control = customer.ctl
et le message : Point de validation (COMMIT) atteint - nombre d'enregis. logiques 64
mais la table reste toujours vide : select * from customer; ==> no data found
aidez moi SVP
j'essai de charger un fichier dans une table dans oracle 10g XE en utilisant sqlldr,
le souci c'est que j'ai reussi a charger un petit fichier (24 lignes) mais lorsque j'essai de charger un grand fichier (contenant 200000 lignes) sa plante.
voila la commande cmd:
sqlldr system/alice@XE control = customer.ctl
et le message : Point de validation (COMMIT) atteint - nombre d'enregis. logiques 64
mais la table reste toujours vide : select * from customer; ==> no data found
aidez moi SVP
A voir également:
- Sql loader grand fichier
- Fichier bin - Guide
- Fichier epub - Guide
- Fichier rar - Guide
- Comment réduire la taille d'un fichier - Guide
- Fichier .dat - Guide
1 réponse
Bonjour,
A mon avis, c'est du à la limite de la taille de ton ROLLBACK segment.
A chaque fois que tu fais une modification de la base sans faire le COMMIT, la modification est temporairement stockée dans ce ROLLBACK SEGMENT, jusqu'à ce que tu COMMIT.
D'après la documentation, tu peux spécifier l'option "rows=50" par exemple, pour que l'import fasse le COMMIT tous les 50 enregistrements. Ce qui videra le segment au fur et à mesure ; et tu ne devrais plus avoir ce problème.
Si tu es administrateur de la base, tu peux aussi augmenter la taille de ce segment.
Cordialement, M.
A mon avis, c'est du à la limite de la taille de ton ROLLBACK segment.
A chaque fois que tu fais une modification de la base sans faire le COMMIT, la modification est temporairement stockée dans ce ROLLBACK SEGMENT, jusqu'à ce que tu COMMIT.
D'après la documentation, tu peux spécifier l'option "rows=50" par exemple, pour que l'import fasse le COMMIT tous les 50 enregistrements. Ce qui videra le segment au fur et à mesure ; et tu ne devrais plus avoir ce problème.
Si tu es administrateur de la base, tu peux aussi augmenter la taille de ce segment.
Cordialement, M.