[AWK/SED] Supprimer lignes en double [Résolu/Fermé]

Signaler
-
 yomanyo -
Bonjour,

je souhaite n'afficher qu'une seule fois les lignes d'un fichier qui apparaissent une ou plusieurs fois.

Je pense que c'est faisable avec AWK ou SED mais je ne vois pas comment...

merci à tous!

5 réponses

Messages postés
18238
Date d'inscription
lundi 15 janvier 2007
Statut
Contributeur
Dernière intervention
21 novembre 2020
5 102
hello avec awk:
awk '{if (x[$0] != "") next ; print $0 ; x[$0]=$0}' < fichier.txt 
15
Merci

Quelques mots de remerciements seront grandement appréciés. Ajouter un commentaire

CCM 76687 internautes nous ont dit merci ce mois-ci

et si les lignes en question doivent rester en état (pas de tri possible) ! faut il faire une boucle ?
> fabien.dz
Une solution un peu alambiquée :
- numéroter les lignes (cat -n)
- trier les lignes sans prendre en compte le premier champ -le numéro de ligne- (sort -k2)
- ne garder qu'un seul exemplaire des lignes triées, toujours sans prendre en compte le premier champ (uniq -f 1)
- réarranger les lignes dans l'ordre initial en triant par numéro de ligne (sort -n -k1,1)
- et enfin, supprimer les numéros de lignes (cut -d' ' -f2-) (ou avec sed si jamais des tas d'espaces ont été ajoutés avant le numéro de ligne)

Sauf erreur de ma part, en pipant tout ça, ça devrait aller, si ce n'est que ce ne sera pas forcément la première occurence des doublons qui sera conservée (et maintenant que j'en suis là, je me rends compte que ça casse tout ^^ )
> DeviantKarot
Mettre le numéro de ligne comme deuxième champ de tri lors du premier "sort -k2" serait peut-être la solution?
Un petit script bash pour supprimer les lignes en doubles d'un fichier sans changer la position des autres. Seule la première occurence est conservée.

FICHIER=adressedufichier
DOUBLONS="$(cat $FICHIER | sort | uniq -d)"
if [ "$DOUBLONS" != "" ]; then
for line in $(seq 1 $(echo "$DOUBLONS" | wc -l)); do
TXTASUPPRIMER=$(echo "$DOUBLONS" | sed $line!d)
LIGNESASUPPRIMER=$(grep -n "$TXTASUPPRIMER" $FICHIER | sed -e 1d -e 's/\([0-9]*\):.*/-e \1d/')
sed $LIGNESASUPPRIMER -i $FICHIER
done
fi
Messages postés
13074
Date d'inscription
lundi 28 janvier 2002
Statut
Webmaster
Dernière intervention
12 novembre 2020
416
Une autre solution peut-être:
sort -u test|xargs -I line -L1 grep -m1 "^line$" test
Attention, les commutateur pour xargs sont ceux d'OS X, a adapter pour linux (a priori, -i line ou -i tout seul et une paire d'accollade {})

Ca trie le fichier en ne conservant qu'une occurence de chaque chaine, puis ça cherche la première chaine complête identique dans le fichier...

A plus
Messages postés
40805
Date d'inscription
jeudi 28 août 2003
Statut
Modérateur
Dernière intervention
10 août 2020
4 809
Salut,

Et pourquoi pas avec "sort -u" tout simplement ? A moins qu'il ne faille pas trier le fichier avant ?
j'ai trouvé ça marche avec sort -u

mais ça doit etre possible avec awk

Pourquoi ne pas essayer avec tr -d ?
Messages postés
40805
Date d'inscription
jeudi 28 août 2003
Statut
Modérateur
Dernière intervention
10 août 2020
4 809
Parce que "tr" n'est pas fait pour ça...
tr copie son entrée standard sur sa sortie standard en effectuant l'une
       des manipulations suivantes :

              ·  transposer, et éventuellement réunir les caractères dupliqués
              de la chaîne résultante
              · réunir les caractères dupliqués
              · supprimer des caractères
              · supprimer des caractères, et éventuellement  réunir  les  car-
              actères dupliqués de la chaîne résultante
pas des lignes en double.