Load average élevé [Résolu/Fermé]

Signaler
-
Messages postés
18227
Date d'inscription
lundi 15 janvier 2007
Statut
Contributeur
Dernière intervention
14 octobre 2020
-
Bonjour,
j'ai une machine debian SARGE qui consomme énormément en load average, mais je ne vois pas d'ou vient le problème ?
quelq'un pourrait me donner une idée de la direction ou chercher ? on dirait que le swap n'est jamais utilisé ?
Merci de vos réponse, voici le resultat de la commande top:

top - 12:32:09 up 7 days, 17:16, 1 user, load average: 18.38, 18.84, 21.00
Tasks: 189 total, 2 running, 187 sleeping, 0 stopped, 0 zombie
Cpu(s): 19.9% us, 2.0% sy, 0.0% ni, 74.8% id, 2.7% wa, 0.0% hi, 0.7% si
Mem: 906736k total, 739844k used, 166892k free, 87096k buffers
Swap: 979924k total, 0k used, 979924k free, 203004k cached

9 réponses

Messages postés
2094
Date d'inscription
mercredi 18 juin 2008
Statut
Contributeur
Dernière intervention
2 décembre 2010
198
salut
A priori, le swap est pas utilisé parce qu'il y a de la memoire libre. Mais avec un load average comme celà, elle doit être morte ta machine ? .
La question est de savoir ce qu'il y a derriere et quels sont les processus qui bouffent de la puissance.
Messages postés
18227
Date d'inscription
lundi 15 janvier 2007
Statut
Contributeur
Dernière intervention
14 octobre 2020
5 035
top indique le % de cpu et la taille mémoire de chaque process
C'est un serveur de mail (assez léger c'est vrai), proc: model name : Intel(R) Xeon(TM) CPU 3.00GHz
Mon problème vient peut etre des ecritures, j'ai un montage NFS sur lequel je vois parfois des erreurs du type:
Nov 20 11:04:54 debian kernel: nfs: server debian-mail not responding, timed out


top - 10:51:20 up 8 days, 15:35, 1 user, load average: 27.44, 25.96, 19.44
Tasks: 170 total, 3 running, 167 sleeping, 0 stopped, 0 zombie
Cpu(s): 64.3% us, 4.0% sy, 0.0% ni, 1.7% id, 29.3% wa, 0.0% hi, 0.7% si
Mem: 906736k total, 647268k used, 259468k free, 76960k buffers
Swap: 979924k total, 0k used, 979924k free, 156688k cached

PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ TIME COMMAND
24348 www-data 17 0 27468 16m 18m S 2.0 1.8 0:01.51 0:01 apache2
3014 root 15 0 2464 912 2100 S 0.7 0.1 5:48.13 5:48 authdaemond.mys
19727 vmail 18 0 4032 1536 3636 R 0.7 0.2 0:00.24 0:00 imapd
23774 postfix 15 0 8192 3552 6768 S 0.3 0.4 3:49.46 3:49 qmgr
16247 root 15 0 1708 676 1412 S 0.3 0.1 1:58.27 1:58 syslogd
28750 postfix 15 0 7616 3232 6960 S 0.3 0.4 0:00.37 0:00 smtpd
1 root 16 0 1520 520 1364 S 0.0 0.1 0:00.86 0:00 init
2 root 34 19 0 0 0 S 0.0 0.0 0:00.40 0:00 ksoftirqd/0
3 root 5 -10 0 0 0 S 0.0 0.0 0:00.09 0:00 events/0
4 root 15 -10 0 0 0 S 0.0 0.0 0:00.00 0:00 khelper
5 root 15 -10 0 0 0 S 0.0 0.0 0:00.00 0:00 kacpid
35 root 5 -10 0 0 0 S 0.0 0.0 0:11.07 0:11 kblockd/0
46 root 15 0 0 0 0 S 0.0 0.0 3:55.98 3:55 pdflush
48 root 5 -10 0 0 0 S 0.0 0.0 0:00.00 0:00 aio/0
47 root 15 0 0 0 0 S 0.0 0.0 0:51.38 0:51 kswapd0
190 root 25 0 0 0 0 S 0.0 0.0 0:00.00 0:00 kseriod
241 root 5 -10 0 0 0 S 0.0 0.0 2:52.54 2:52 reiserfs/0
1506 root 15 0 0 0 0 S 0.0 0.0 0:00.00 0:00 khubd
2610 daemon 16 0 1636 468 1460 S 0.0 0.1 0:05.29 0:05 portmap
2622 root 15 0 0 0 0 S 0.0 0.0 2:46.52 2:46 rpciod
2623 root 17 0 0 0 0 S 0.0 0.0 0:00.00 0:00 lockd
2976 root 16 0 2588 1528 1356 S 0.0 0.2 0:00.05 0:00 klogd
2995 amavis 16 0 16392 14m 3532 S 0.0 1.6 0:00.12 0:00 amavisd-new
2998 amavis 17 0 16392 14m 3532 S 0.0 1.6 0:00.00 0:00 amavisd-new
2999 amavis 17 0 16392 14m 3532 S 0.0 1.6 0:00.00 0:00 amavisd-new
3006 root 16 0 1692 480 1376 S 0.0 0.1 0:00.00 0:00 courierlogger
3007 root 16 0 2416 660 2052 S 0.0 0.1 0:00.00 0:00 authdaemond.mys
3012 root 15 0 2464 912 2100 S 0.0 0.1 5:46.30 5:46 authdaemond.mys
3013 root 15 0 2464 912 2100 S 0.0 0.1 5:40.72 5:40 authdaemond.mys
3015 root 15 0 2464 912 2100 S 0.0 0.1 5:43.76 5:43 authdaemond.mys
3016 root 15 0 2464 912 2100 S 0.0 0.1 5:50.05 5:50 authdaemond.mys
3018 root 16 0 1804 568 1488 S 0.0 0.1 0:05.46 0:05 couriertcpd
3021 root 16 0 1696 476 1376 S 0.0 0.1 0:06.79 0:06 courierlogger
3044 root 15 0 1812 580 1488 S 0.0 0.1 2:17.15 2:17 couriertcpd
3046 root 15 0 1692 472 1376 S 0.0 0.1 2:39.86 2:39 courierlogger
Messages postés
2773
Date d'inscription
jeudi 17 janvier 2008
Statut
Contributeur
Dernière intervention
3 avril 2009
293
Bizarre, ton processus le plus gourmand est le serveur Web apache2.. avec seulement 2% du CPU.
On est loin du total.
Tu l'as lancé en root, ton "top"?
oui oui, lancé en root, et trié sur le %CPU, c'est pour ça que je ne comprends pas...
Messages postés
2773
Date d'inscription
jeudi 17 janvier 2008
Statut
Contributeur
Dernière intervention
3 avril 2009
293
Essaie avec "htop" (à installer si besoin est).
Mais j'avoue que c'est assez mystérieux.. Regarde ton syslog (/var/log/syslog) pour voir s'il n'y aurait pas des problèmes à répétition (le montage NFS par exemple ^^)
Messages postés
2773
Date d'inscription
jeudi 17 janvier 2008
Statut
Contributeur
Dernière intervention
3 avril 2009
293
Exact dubcek, je viens de RTFM et c'est bien ça!
Donc tout est normal, un load average élevé n'est pas synonyme de ressources insuffisantes. :)
Messages postés
56
Date d'inscription
mardi 20 novembre 2007
Statut
Membre
Dernière intervention
19 juin 2009
13
il faut aussi prendre en compte le nombre de cpu (ou de core) pour comparer une load average.

cela dit, 18 c'est beacoup trop pour un fonctionnement normal.
Messages postés
18227
Date d'inscription
lundi 15 janvier 2007
Statut
Contributeur
Dernière intervention
14 octobre 2020
5 035

12:28:30 up 8 days, 17:12, 2 users, load average: 44.05, 35.29, 34.32

c'est vrai que ces valeurs dans uptime sont très élevées
https://fr.wikipedia.org/wiki/Load_average
si top ne montre pas de process tournant 99% de cpu,voir du coté des I/o avec iostat
hello, non je n'ai vraiment pas de process qui me mange toutes mes ressources CPU, voilà le resultat d'iostat:

iostat -kx
Linux 2.6.8-2-386 (debian) 11/21/08

avg-cpu: %user %nice %sys %iowait %idle
17.38 0.01 6.14 10.17 66.29

Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s rkB/s wkB/s avgrq-sz avgqu-sz await svctm %util
cciss/c0d0 1.38 163.63 9.86 60.07 119.40 1790.23 59.70 895.12 27.31 4.24 60.67 1.79 12.50
Messages postés
13073
Date d'inscription
lundi 28 janvier 2002
Statut
Webmaster
Dernière intervention
22 août 2020
416
Salut Dubeck, tous,

Pas besoin d'I/O stat dans son cas :)

29.3% wa

Pour peu que apache envoie ses logs sur le montage NFS, la solution est là :)

Edit: Politesse... l'est parti un peu vite mon post
>
Messages postés
13073
Date d'inscription
lundi 28 janvier 2002
Statut
Webmaster
Dernière intervention
22 août 2020

Apache n'ecrit pas sur le montage NFS, mais postfix, oui ...et j'ai environ 25 à 30 000 mails reçus par jour (avec des heures de pointe bien sur).
le problème est bien là alors, les I/O ?
Messages postés
2773
Date d'inscription
jeudi 17 janvier 2008
Statut
Contributeur
Dernière intervention
3 avril 2009
293 > chris
Y'a des chances, oui. Un montage NFS c'est fait pour tenir la route, mais faut pas t'étonne que ça augmente ton load average.
>
Messages postés
2773
Date d'inscription
jeudi 17 janvier 2008
Statut
Contributeur
Dernière intervention
3 avril 2009

OK merci pour vos réponses.
Messages postés
18227
Date d'inscription
lundi 15 janvier 2007
Statut
Contributeur
Dernière intervention
14 octobre 2020
5 035
iostat permet de surveiller ces IO et de repérer des surcharges sur un device ou NFS, etc
iostat -n
Displays the NFS-directory statistic.
Messages postés
18227
Date d'inscription
lundi 15 janvier 2007
Statut
Contributeur
Dernière intervention
14 octobre 2020
5 035
que répond uptime du load avarage ?
top - 10:51:20 up 8 days, 15:35, 1 user, load average: 27.44, 25.96, 19.44
les 3 derniers chiffres ne sont pas des %, ce sont, il me semble, le nombre de process en attente de cpu les 5, 10 et 15 dernières minutes
htop me retourne les memes infos que top (en ° joli), rien de special de le sylog, et uptime:

uptime
12:28:30 up 8 days, 17:12, 2 users, load average: 44.05, 35.29, 34.32