AccueilActualités informatiqueEtude : les gens trouvent souvent les visages deepfake plus dignes de...

Etude : les gens trouvent souvent les visages deepfake plus dignes de confiance que les vrais

Une étude des universités de Lancaster et de Californie suggère que les gens ont du mal à distinguer les vrais visages sur les photos de ceux créés artificiellement. Les participants à l’étude devaient regarder des photos de portraits, dont certaines étaient réelles et d’autres créées à l’aide d’une intelligence artificielle (deepfake). Les participants devaient ensuite décider quelles photos étaient réelles et lesquelles étaient artificielles – et se trompaient souvent.

Sommaire

Dans la première partie de l’étude, 315 participants ont eu pour tâche de classer chacun 128 visages sur des photos comme étant réels ou artificiels. Les sujets ont reconnu les photos correctement à 48 %, ce qui est proche du taux aléatoire de 50 %. Dans la deuxième partie, 219 nouveaux sujets ont d’abord été entraînés à distinguer les visages réels des visages artificiels. Ensuite, ils ont eu la même tâche que le premier groupe, mais n’ont pu augmenter le taux de réussite qu’à 59 %.

Les images des deux rangées supérieures ont été le plus souvent correctement classées, tandis que celles des rangées inférieures l’ont été le moins souvent. (R) correspond à des photos réelles, (S) à des photos générées par l’IA.

(Image : Sophie J. Nightingale, and Hany Farid PNAS 2022;119:8:e2120481119)

Une troisième expérience a suivi : 223 personnes devaient évaluer la fiabilité des 128 visages qui leur étaient présentés à l’aide d’une échelle à sept niveaux. Les visages de l’IA ont obtenu de bien meilleurs résultats, puisqu’ils ont été jugés en moyenne 7,7 % plus dignes de confiance que les visages réels. Peut-être, selon les auteurs de l’étude, parce que les visages artificiels ont une apparence plus moyenne en raison de leur création.

Les quatre visages supérieurs ont été jugés les plus dignes de confiance, tandis que les quatre visages inférieurs ont été jugés les moins dignes de confiance. En moyenne, les visages générés par l’IA (S) ont été considérés comme plus dignes de confiance que les visages réels (R).

(Image : Sophie J. Nightingale, and Hany Farid PNAS 2022;119:8:e2120481119)

Pour l’ensemble de l’étude, il y avait un pool de 800 photos au total, dont 400 représentaient des personnes réelles et 400 des visages artificiels. Les visages artificiels ont été générés à l’aide de l’algorithme StyleGAN2 et sont très variés (sexe, âge, apparence). Les 400 photos réelles proviennent de la base de données avec laquelle l’algorithme StyleGAN2 a appris. Elles ont été sélectionnées de manière à ce qu’une photo réelle ressemble à une photo générée artificiellement.

Un pool de 800 photos a servi de base à l’étude. Il y a à chaque fois une photo réelle (R) et une photo artificielle (S) qui se ressemblent.

(Image : Sophie J. Nightingale, and Hany Farid PNAS 2022;119:8:e2120481119)

Le Dr Sophie Nightingale (Lancaster University) et le professeur Hany Farid (University of California, Berkeley) ont mené l’étude. Pour eux, les résultats de l’étude indiquent que les IA sont désormais capables de créer des visages impossibles à distinguer des vrais et qui semblent en outre plus fiables. Les IA auraient ainsi dépassé la « uncanny valley », c’est-à-dire l’effet selon lequel les humains trouvent un personnage généré artificiellement effrayant à partir d’un certain degré de ressemblance avec un être humain.

Selon Nightingale et Farid, ces deepfakes réalistes pourraient avoir de nombreux effets négatifs, du revenge porn aux campagnes de désinformation ciblées en passant par la fraude. De même, des images et des vidéos réelles pourraient être présentées comme artificielles ou justement l’inverse – la plupart des gens ne le reconnaîtraient pas.

En raison des risques, Nightingale et Farid mettent en garde contre le fait de continuer à développer la technologie des deepfakes simplement parce que cela est possible. Ils recommandent de peser les risques et les avantages et de développer des mesures de protection adaptées parallèlement à la technologie. Il pourrait s’agir par exemple de filigranes pour la création et de directives pour la diffusion des deepfakes. De même, la disponibilité des technologies de deepfake devrait être limitée, selon les chercheurs.

La technologie deepfake est déjà utilisée dans les contextes les plus divers. Par exemple pour des parodies et des films, mais aussi pour du revenge porn ou à des fins publicitaires, comme l’a récemment montré Bruce Willis. L’année dernière, une étude de l’UE a conclu que les deepfakes pouvaient mettre en danger la démocratie.

Plus d'articles