La première étape consiste à prendre son temps. Toute la journée, des tonnes de contenus nous inondent et nous n'avons besoin que de treize millisecondes pour traiter les informations d’une image. Ce délai est peut-être suffisant pour réaliser de quoi traite cette dernière, mais pas assez pour se questionner sur son authenticité. Une image vous surprend lorsqu'elle contredit ce que vous savez être vrai, faites donc confiance à votre instinct.
« La prochaine fois que nous verrons un contenu intéressant ou amusant, reste à espérer que nous prendrons le temps de nous arrêter un instant et d’y réfléchir », explique Siwei Lyu. « Si nous venons à soupçonner quelque chose de louche, il sera question de ne pas retweeter immédiatement, de sorte à participer à la résolution du problème plutôt que de faire partie de celui-ci. »
Les programmes d'intelligence artificielle sont entraînés à créer des images réalistes en examinant un grand nombre de contenus visuels réels. D’après Siwei Lyu, le « talon d'Achille » de ces programmes est qu’ils ne connaissent que ce qu'on leur a montré et ne savent pas à quels détails prêter attention. Il en résulte des « artefacts », des anomalies dans l'image qui paraissent évidentes lorsqu'on la regarde de plus près. Par exemple, dans les vidéos de deepfake, les personnes clignent rarement des yeux car les IA sont souvent formées avec des images sur lesquelles les individus ont les yeux ouverts.
« Les coutures sont souvent des indices révélateurs », explique Paulo Ordoveza, développeur web et expert en vérification d'images qui gère le compte Twitter @picpedant. Il s'agit par exemple d'une « manche froissée qui se fond dans la chair » sans distinction claire entre les deux. Il recommande également de faire attention aux « mèches de cheveux, aux lunettes, aux couvre-chefs, aux bijoux et à l'arrière-plan » pour cette même raison.
Si une personne est représentée sur une image, Siwei Lyu préconise de regarder ses mains et ses yeux.
Les programmes d'intelligence artificielle actuels ne parviennent pas à créer des mains réalistes : les doigts peuvent être au nombre de six, de même longueur ou dans une position étrange. En mars, une image du pape François portant une doudoune Balenciaga, générée par l’IA, est devenue virale. Si vous regardez attentivement sa main, vous verrez qu'il tient son café par la languette du couvercle, ce qui reste étrange, même si le gobelet est vide.
Qu'en est-il des yeux ? Les humains sont très sensibles aux moindres caractéristiques du visage. En utilisant un oculomètre, appareil permettant d’analyser les mouvements oculaires, il est possible de constater que les personnes regardent les yeux de leur interlocuteur, l’un après l’autre, afin de récolter des informations sur celui-ci. Selon David Matsumoto, professeur de psychologie à l'université d'État de San Francisco et expert en micro-expressions, nous avons évolué pour parvenir à cela. Il indique que c'est ainsi que nous distinguons l'ami de l'ennemi et que nous évaluons l'état émotionnel de ceux que nous rencontrons. Il nous faut jauger cela rapidement afin de décider comment y répondre ou, le cas échéant, fuir.
Les humains possèdent presque toujours des pupilles circulaires, mais l'intelligence artificielle intègre souvent des ombres de forme étrange au centre de l'œil. La lumière qui se reflète sur les yeux doit également se trouver au même endroit sur chaque œil, ce que l'IA a encore actuellement des difficultés à reproduire.
C’est le cas pour la lumière et les ombres en général. En particulier si l’image contient une fenêtre ou une surface réfléchissante : de la lumière ou de l'ombre peuvent apparaître là où il ne devrait pas y en avoir. Plus largement, l'intelligence artificielle rencontre des difficultés avec les lois de la physique, comme la gravité.
De nombreuses images de synthèse sont étrangement lisses là où elles devraient être texturées et des éléments qui devraient être droits sont légèrement courbés. Pour en revenir à l'image du pape générée par l'IA, la croix qu’il porte en collier semble avoir des bords incurvés et plane légèrement au-dessus de sa poitrine, comme s’il n’y avait aucune gravité.
Ces « indices » sur les contenus générés par l’intelligence artificielle ont toutefois un revers. Hany Farid, professeur à l'université de Californie de Berkeley et spécialiste des preuves visuelles (images apportées en tant que preuves dans une instruction judiciaire), nous l’explique : « Quoi que je vous dise aujourd'hui, cela ne sera plus valable dans un mois. En réalité, la technologie évolue très, très rapidement. À vrai dire, vous ne pouvez pas vous fier uniquement à votre acuité visuelle ».
La méthode la plus pragmatique et la plus durable consiste à se méfier des médias en règle générale, à remettre en question leurs sources et à vérifier leur véracité, poursuit-il.
Un outil facile à utiliser est la recherche d'image inversée de Google qui permet aux utilisateurs de télécharger une image et de vérifier si des conversations en ligne évoquent sa création. Cette méthode fonctionne pour une image qui a été largement diffusée, comme celle du pape, mais n'est pas forcément utile pour des créations moins connues ou bien uniques.
Dans ces situations, des entreprises telles que Reality Defender proposent aux professionnels des services payants de détection de contenus générés par l'intelligence artificielle. Selon Daniela Rus, directrice du laboratoire de recherche en informatique et intelligence artificielle du MIT (CSAIL), ces entreprises mènent des « recherches approfondies » sur des méthodes telles que le filigrane. « Ces techniques sophistiquées s'avèrent efficaces », indique-t-elle.
Selon Hany Farid, les créateurs d'IA devraient être tenus de s'assurer que leur contenu porte une sorte de filigrane ou d'empreinte digitale permettant d'identifier qu'il a été généré par ordinateur, en particulier une fois qu'il a été partagé en ligne. Par exemple, à l’origine, cette photo du pape a été partagée par une communauté de créateurs d'IA, sans intention de tromper qui que ce soit. Elle s'est toutefois rapidement répandue sur Internet, sans que ce contexte qui a son importance ne soit communiqué.
« On sait très bien ce qui va se passer en permettant aux gens de créer des contenus audios, des vidéos et des images très sophistiqués. Ils vont faire de mauvais choix avec », déplore-t-il. « Ces entreprises pourront dire : “Ne nous blâmez pas, nous ne faisons que fabriquer la technologie”. Je ne crois tout simplement pas à cet argument. »
À l'heure actuelle, les ressources gratuites permettant d'identifier les contenus générés par l'intelligence artificielle sont rares et peu fiables.
Siwei Lyu et son équipe ont mis au point un programme en ligne gratuit appelé DeepFake-o-meter, mais celui-ci n'est pas encore accessible au public.
Selon Siwei Lyu, le problème réside en partie dans le fait que les investisseurs se pressent pour financer la création d'IA, mais pas les contre-mesures. « Notre travail attire beaucoup moins l'attention. Et nous sommes pratiquement à court de ressources », explique-t-il. « Nous ne générons pas de revenus directement, nous essayons d'empêcher les gens de perdre de l'argent ou d'être dupés », contrairement aux programmes à l'origine des deep-fakes.
À mesure que l'intelligence artificielle progresse, Siwei Lyu estime que nous aurons besoin de davantage de programmes en ligne gratuits de détection de contenus générés par l'IA, ainsi que d'autres outils capables de révéler les signatures de ceux-ci, invisibles à l'œil nu, de la même manière qu'un appareil à rayons X dévoile le fonctionnement interne du corps humain. L’utilisation de tels programmes nécessite aujourd'hui un certain degré d'expertise et ces derniers ne sont pas toujours gratuits ou financièrement accessibles.
Néanmoins, même sans ces ressources, vous pouvez dès aujourd'hui commencer à vous méfier des images générées par l'intelligence artificielle. Restez sur vos gardes : vérifiez d'abord avant de croire ce que vous voyez.