internet

Ne plus croire tout ce qu’on voit

On peut désormais trafiquer des vidéos pour mettre le visage de n’importe qui sur le corps de n’importe quelle autre personne. Ces fausses images servent à faire des plaisanteries et des canulars, mais peuvent aussi être des outils d’humiliation ou de chantage et devenir un puissant moyen de désinformation.

« Nous entrons dans une ère où nos ennemis pourront faire croire que n’importe qui dit n’importe quoi n’importe quand », prévient Barack Obama, en fixant le téléspectateur. Le décor, le ton, le regard et le phrasé syncopé caractéristique de l’ex-président donnent l’impression d’une allocution officielle. Ce qui détonne, c’est qu’il utilise un terme très vulgaire pour traiter Donald Trump d’idiot.

Obama n’a jamais prononcé ce court discours qu’on trouve facilement sur YouTube et qui a été vu au moins 5 millions de fois. Il s’agit d’une création du site Buzzfeed et de l’humoriste américain Jordan Peele. Ce n’est toutefois pas un canular. Disons plutôt un avertissement, une manière percutante de rappeler aux gens qu’on ne peut pas se permettre de croire tout ce qu’on voit sur l’internet.

« La technologie a évolué, et même la vidéo, on ne peut plus s’y fier », résume Jean-Hugues Roy, professeur à l’École des médias de l’Université du Québec à Montréal (UQAM). Depuis environ un an, l’ancien journaliste aiguise le sens critique de ses étudiants en leur montrant des « deepfake », c’est-à-dire des vidéos d’un réalisme parfois confondant où le visage d’une personne est manipulé en temps réel ou carrément posé sur le corps d’une autre personne.

L’ère du faux

Ce n’est pas d’hier que des professionnels comme les gens de cinéma peuvent trafiquer des images. Ce qui a changé, c’est la facilité avec laquelle il est possible de le faire grâce à des logiciels apparemment simples d’utilisation comme FakeApp, qui a notamment été utilisé pour fabriquer de fausses vidéos pornos mettant en vedette des célébrités comme Katy Perry, Scarlett Johansson et Daisy Ridley. Ce sont d’ailleurs de telles séquences, publiées l’an dernier sur Reddit, qui ont attiré l’attention sur le phénomène des « deepfake ».

Le mot « deepfake » est né de la fusion de « fake » (faux) et de « deep learning », une forme d’intelligence artificielle.

Ce qui suscite l’inquiétude depuis un an, c’est le risque de voir ces « deepfakes » devenir un puissant vecteur d’infox, c’est-à-dire de fausses nouvelles. « Nous sommes très inquiets que la technologie deepfake puisse être déployée bientôt par des acteurs malveillants », ont dit en septembre des membres du Congrès américain au directeur du renseignement national dans une lettre où ils évoquaient notamment la désinformation et le chantage visant des individus (politiques ou non).

« Comment allons-nous croire ce qu’on voit désormais ? Il s’agit selon moi d’une véritable menace pour la démocratie », tranche aussi un spécialiste de l’informatique interviewé par le Wall Street Journal. Éric Paquette, professeur au département de génie logiciel et des TI à l’École de technologie supérieure (ETS), est d’accord : « Quand on est capable de faire tenir un discours à quelqu’un et que les lèvres ont l’air de dire la bonne chose et que le non-verbal suit – un petit sourire, par exemple –, il y a des enjeux éthiques, c’est assez clair. »

Inquiet lui aussi, Jean-Hugues Roy se montre toutefois moins alarmiste. « Si on créait une vidéo de François Legault affirmant vouloir enfermer tous les musulmans, mettons, François Legault lui-même dirait rapidement que c’est faux. Même si la technologie est là, quelque chose me dit que les victimes de ces falsifications seront toujours là pour identifier ces faussetés », dit-il.

Le professeur de journalisme rappelle en outre qu’on a appris à vivre avec Photoshop, qui permet pourtant de faire des retouches indétectables. « On finit toujours par savoir qu’il y a eu manipulation », fait-il valoir, tout en convenant que le risque de confusion pourrait être plus élevé là où les régimes manipulent l’information et où la littératie numérique est faible.

Un détecteur de vidéo mensonge ?

Même si Éric Paquette affirme que les technologies vraiment efficaces ne sont pas à la portée de tous (« les prototypes relativement convaincants sont encore en développement dans les laboratoires de recherche », dit-il), ce n’est qu’une question de temps avant qu’on puisse faire une vidéo confondante avec pas grand-chose.

« Avec un simple téléphone cellulaire, loin d’être aussi puissant qu’un ordinateur doté d’une carte graphique comme celles utilisées en intelligence artificielle, on peut déjà rajouter des cheveux ou des moustaches de lapin sur une vidéo en temps réel », observe-t-il. Il ne doute pas qu’une application de « fake visage » facile d’utilisation émergera sous peu. « On ne parle pas de décennies, prévient-il, mais d’années avant que ça fonctionne sur un téléphone cellulaire. »

Pourra-t-on les détecter ? C’est la grande question. L’intelligence artificielle, qui contribue à créer ces fausses vidéos, pourrait aussi aider à les débusquer. « La machine pourrait soulever des doutes sur l’authenticité de certains passages », croit Éric Paquette. Jean-Hugues Roy juge que, plutôt que de s’en remettre à une technologie de détection des vidéos mensongères, on pourrait miser sur une infrastructure inspirée des chaînes de blocs (blockchains permettant d’authentifier et de certifier l’identité du producteur d’un contenu et de son diffuseur. « Ce serait une façon de s’assurer de la provenance de l’information », explique-t-il.

« On aura plus que jamais besoin de vérificateurs de faits ! », lance par ailleurs le professeur de journalisme. Malgré tout, il est optimiste et croit que si on doute davantage des vidéos, des photos et des enregistrements audio, « peut-être qu’on va de plus en plus déplacer notre confiance vers les humains qui nous transmettent des informations ». Bref, là où d’autres voient un péril, il voit une occasion pour le journalisme de qualité.

« Il y a une éducation à l’information, pas seulement aux médias, à faire, ajoute cependant Jean-Hugues Roy. Ça repose en partie sur les citoyens qui doivent se tourner les pouces sept fois avant de partager de l’information. Puisque les citoyens sont devenus des vecteurs de propagation de l’information, ils ont aussi une responsabilité dans la diffusion des faussetés. »

Ce texte provenant de La Presse+ est une copie en format web. Consultez-le gratuitement en version interactive dans l’application La Presse+.