[AV-COMPARATIVES] Proactive Test Novembre 09 - Page 2

Résolu
Précédent
  • 1
  • 2
The Lion King Messages postés 11136 Date d'inscription   Statut Contributeur Dernière intervention   1 137
 
Si tu le dis.
0
Lyonnais92 Messages postés 25708 Statut Contributeur sécurité 1 537
 
Bonjour,

tu proposes quelle autre méthode ?
0
The Lion King Messages postés 11136 Date d'inscription   Statut Contributeur Dernière intervention   1 137
 
J'en ai déjà proposé une.

Post #16

"Et je serai prêt à faire un test s'il était possible:

100 personnes, choisies au hasard le plus total.

Pour reprendre ton exemple, 50 avec Avast, et 50 avec Kasperky.

Rajouté: Tous les antivirus a tester en même temps.

6 mois de surf habituel. On verrait le résultat. Ça c'est un test. Et réel. Il inclut la capacité a s'adapter au surf de l'antivirus, la rapidité des MAJ, la puissance du scanner, la potentialité de destruction et/ou de blocage."

Rajouté: Puis, sur une base de données virale prise indépendamment des BDD des anti-virus, faire un autre test à l'instar du mien.

Synthétiser les deux sous une forme textuelle en présentant les résultats.

On obtiendrait alors l'antivirus le plus adapté au web, mélangeant prévention et détection.

Mais je le répète, débat clos...
0
Lyonnais92 Messages postés 25708 Statut Contributeur sécurité 1 537
 
Re,

aucun apport positif par rapport au test de novembre de Av comparative

plein d'inconvénients :

- le fait d'être dans un test est de nature à modifier les habitudes (donc il faudrait adapter une méthode de double aveugle qui va être compliquée à mettre en oeuvre et ne devrait pas permettre de contrôler le "toute chose égale par ailleurs sur le système d'exploitation, les autres outils tels parefeu ou antispyware)

- il faudrait masquer le nom de l'antivirus (sa réputation, vraie ou fausse est de nature à modifier aussi les comportements)

- il faudra calculer la variance d'échantillonage (100 est probablement 10 fois trop faible, on retient un nombre minimal d'environ 1000 individus ; passer de 1000 à 100 multiplie par trois l'intervalle de confiance)

- refaire le test de AV avec le scanner en fin de période est certainement supérieur pour contrôler la vitesse de réaction (dans ta méthode, on peut espérer que, si il se fait infecter sur un site, il n'y retournera pas, donc tu biaises le test d'adaptation)

===

Je ne vois pas comment on peut améliorer le tableau sur les taux de détection.

je vois comment on peut (et il faudrait améliorer) le tableau sur les faux positifs

On peut remettre en cause le tableau de passage des pourcentages à la note synthétique;

===

Au passage, mais c'est un autre sujet, le test sur les capacités curatives des AV du même AV comparative ne vaut pas grand chose.
0

Vous n’avez pas trouvé la réponse que vous recherchez ?

Posez votre question
The Lion King Messages postés 11136 Date d'inscription   Statut Contributeur Dernière intervention   1 137
 
Ce genre de discussion st toujours très bête, car l'un est aussi buté que l'autre...
Ras le képi, en ce moment.
Allez, bonne soirée.
0
Précédent
  • 1
  • 2