[AWK/SED] Supprimer lignes en double

Résolu
JC -  
 yomanyo -
Bonjour,

je souhaite n'afficher qu'une seule fois les lignes d'un fichier qui apparaissent une ou plusieurs fois.

Je pense que c'est faisable avec AWK ou SED mais je ne vois pas comment...

merci à tous!
A voir également:

5 réponses

dubcek Messages postés 18789 Date d'inscription   Statut Contributeur Dernière intervention   5 637
 
hello avec awk:
awk '{if (x[$0] != "") next ; print $0 ; x[$0]=$0}' < fichier.txt 
17
fabien.dz
 
et si les lignes en question doivent rester en état (pas de tri possible) ! faut il faire une boucle ?
0
DeviantKarot > fabien.dz
 
Une solution un peu alambiquée :
- numéroter les lignes (cat -n)
- trier les lignes sans prendre en compte le premier champ -le numéro de ligne- (sort -k2)
- ne garder qu'un seul exemplaire des lignes triées, toujours sans prendre en compte le premier champ (uniq -f 1)
- réarranger les lignes dans l'ordre initial en triant par numéro de ligne (sort -n -k1,1)
- et enfin, supprimer les numéros de lignes (cut -d' ' -f2-) (ou avec sed si jamais des tas d'espaces ont été ajoutés avant le numéro de ligne)

Sauf erreur de ma part, en pipant tout ça, ça devrait aller, si ce n'est que ce ne sera pas forcément la première occurence des doublons qui sera conservée (et maintenant que j'en suis là, je me rends compte que ça casse tout ^^ )
0
Stéphane Ascoët > DeviantKarot
 
Mettre le numéro de ligne comme deuxième champ de tri lors du premier "sort -k2" serait peut-être la solution?
0
yomanyo
 
Un petit script bash pour supprimer les lignes en doubles d'un fichier sans changer la position des autres. Seule la première occurence est conservée.

FICHIER=adressedufichier
DOUBLONS="$(cat $FICHIER | sort | uniq -d)"
if [ "$DOUBLONS" != "" ]; then
for line in $(seq 1 $(echo "$DOUBLONS" | wc -l)); do
TXTASUPPRIMER=$(echo "$DOUBLONS" | sed $line!d)
LIGNESASUPPRIMER=$(grep -n "$TXTASUPPRIMER" $FICHIER | sed -e 1d -e 's/\([0-9]*\):.*/-e \1d/')
sed $LIGNESASUPPRIMER -i $FICHIER
done
fi
0
asevere Messages postés 13095 Date d'inscription   Statut Webmaster Dernière intervention   426
 
Une autre solution peut-être:
sort -u test|xargs -I line -L1 grep -m1 "^line$" test
Attention, les commutateur pour xargs sont ceux d'OS X, a adapter pour linux (a priori, -i line ou -i tout seul et une paire d'accollade {})

Ca trie le fichier en ne conservant qu'une occurence de chaque chaine, puis ça cherche la première chaine complête identique dans le fichier...

A plus
9
jipicy Messages postés 40842 Date d'inscription   Statut Modérateur Dernière intervention   4 896
 
Salut,

Et pourquoi pas avec "sort -u" tout simplement ? A moins qu'il ne faille pas trier le fichier avant ?
3
JC
 
j'ai trouvé ça marche avec sort -u

mais ça doit etre possible avec awk
1

Vous n’avez pas trouvé la réponse que vous recherchez ?

Posez votre question
Stéphane Ascoët
 
Pourquoi ne pas essayer avec tr -d ?
0
jipicy Messages postés 40842 Date d'inscription   Statut Modérateur Dernière intervention   4 896
 
Parce que "tr" n'est pas fait pour ça...
tr copie son entrée standard sur sa sortie standard en effectuant l'une
       des manipulations suivantes :

              ·  transposer, et éventuellement réunir les caractères dupliqués
              de la chaîne résultante
              · réunir les caractères dupliqués
              · supprimer des caractères
              · supprimer des caractères, et éventuellement  réunir  les  car-
              actères dupliqués de la chaîne résultante
pas des lignes en double.
0