Ce contenu vous est offert gratuitement, il ne vous reste plus de contenu à consulter.
Créez votre compte pour consulter 3 contenus gratuits supplémentaires par jour.
Marie-Ève Martel
La Voix de l'Est
Marie-Ève Martel
Aussi divertissant soit-il, le <em>deep fake</em> est aussi une source inquiétante de désinformation.
Aussi divertissant soit-il, le <em>deep fake</em> est aussi une source inquiétante de désinformation.

La terrifiante illusion

Article réservé aux abonnés
CHRONIQUE / Plusieurs personnes semblent s’être amusées au cours des derniers jours avec la nouvelle application Deep Nostalgia, où en téléchargeant une photo d’un membre de notre famille, on peut voir celui-ci s’animer le temps de quelques secondes, la plupart du temps de manière plutôt convaincante.

Dans certains cas, de voir bouger pour la première fois un aïeul qu’on n’a pas connu peut être un moment très émouvant. C’est d’ailleurs sur cette émotivité que mise My Heritage, l’entreprise derrière l’application, pour inviter les internautes à l’utiliser, moyennant une inscription gratuite où certaines informations vous seront demandées en contrepartie...

Comme l’application pour voir de quoi on aurait l’air si on appartenait au sexe opposé ou quand on aura 80 ans, cette technologie sera divertissante pendant quelque temps avant de sombrer dans l’oubli.

On s’en rappellera dans un an ou deux, quand notre fil d’actualités nous proposera cette publication en souvenir du jour.

Entre vous et moi, ce genre d’avancée technologique, aussi formidable soit-elle, m’inquiète beaucoup.

Certes, on voit immédiatement les avantages que permettent ces nouvelles applications et le bonheur, voire les fous rires, qu’elles apportent à ceux qui les utilisent. Et pas seulement avec des membres de leur famille, mais aussi avec des personnalités historiques ou des célébrités.

J’ai vu, par hasard, une photo animée de la chanteuse américaine Beyoncé qui est loin, mais alors là très loin, d’être présentée sous son meilleur jour. Le résultat, qui montre l’artiste généralement auréolée de perfection grimacer, est tout simplement hilarant.

Non, moi, ce qui m’inquiète, c’est la facilité déconcertante avec laquelle ces technologies sont accessibles, y compris à des personnes mal intentionnées qui leur découvrent un potentiel parfois insoupçonné par leurs créateurs. Parce que tout ça est très drôle jusqu’à ce que ça ne soit plus drôle du tout.

Désormais, il est facile de faire dire n’importe quoi à un politicien, y compris des déclarations complètement contraires à son idéologie, le tout pour le discréditer.

Il faut le voir pour le croire, veut l’adage: maintenant, on ne peut même plus faire confiance à ses yeux...

L’effet est stupéfiant. Si stupéfiant qu’on n’y voit que du feu, même quand un internaute averti se méfie.

Bref, aussi divertissant soit-il, le deep fake, comme s’appelle ce phénomène qui a recours à l’intelligence artificielle, est aussi une source inquiétante de désinformation, voire de manœuvres politiques malhonnêtes. Une désinformation qui profite à ceux qui maîtrisent cette technologie et qui ne fait qu’alimenter des théories du complot.

Si l’outil est formidable pour obtenir des effets spéciaux à moindre coût dans les films ou des publicités, je crains que cela ne nous coûte cher, comme société, avec son application dans la vraie vie.

Les vidéos en deep fake ne sont apparus que tout récemment dans nos appareils électroniques et dans nos vies. Pourtant, elles en ont déjà brisé quelques-unes.

Il suffit de penser à ces femmes et ces jeunes filles — je l’écris ainsi parce que ce sont majoritairement celles-ci qui sont affectées — dont le visage est superposé de façon beaucoup trop réaliste à des vidéos pornos, laissant croire à quiconque que la personne qu’on y reconnaît a vraiment pris part à « l’événement ». D’autres personnes qui se font prêter des propos racistes, diffamatoires ou autres qu’elles n’auraient jamais prononcé, mais dont le rendu est tellement crédible qu’on ne peut conclure autrement qu’à une vidéo légitime.

Il faut le voir pour le croire, veut l’adage: maintenant, on ne peut même plus faire confiance à ses yeux...

Comme c’est le cas avec la plupart des nouvelles innovations qu’on retrouve en ligne, il n’existe pas encore de réglementation ou de balises qui encadrent la production de deep fake. Pour reprendre l’expression: c’est le Far Web.

Quels recours aurait une personne victime d’un hypertrucage pour faire respecter ses droits? Et ça, c’est quand la personne en question est encore vivante, parce que maintenant, les défunts peuvent venir nous hanter grâce à la technologie...

Les questions de droit d’auteur, de droit à la vie privée et à la dignité, de droit à l’image et de diffamation sont au cœur de ce phénomène récent, mais aucun mécanisme précis n’existe encore pour le contrecarrer.

Parce que non seulement il faut prouver que le contenu est faux, mais encore faut-il retrouver le coupable. Et même si celui-ci est épinglé, le cauchemar est loin d’être terminé.

Une fois téléversé sur le Web, on perd le contrôle du contenu, qui peut aller se répandre comme une traînée de poudre en ligne, aussi bien dans le cercle social de la personne y étant faussement en vedette qu’auprès d’inconnus du monde entier, et ce, avec tous les dommages collatéraux qu’on ne soupçonne pas toujours.

Atteinte à la réputation, perte d’emploi, honte et dépression: ce ne sont que quelques effets ressentis par des personnes ayant été victimes d’un trucage vidéo ultraréaliste qu’elles n’ont jamais demandé.

Il me semble que la vraie vie donne suffisamment de fil à retordre à bien du monde sans qu’on en rajoute dans une autre dimension...