Quand l'IA menace nos urnes

Décryptages
Outils
TAILLE DU TEXTE

Tribune de Mathilde Croze, Managing partner de Lerins.

L'exemple récent d'Amandine Le Pen, une influenceuse fictive “deepfake” générée par IA et diffusant des messages d'extrême droite sur TikTok, illustre parfaitement les risques auxquels nous sommes confrontés. Ce phénomène, bien que surprenant, est loin d'être isolé. Au début de l’année, une annonce générée par IA imitant Joe Biden, invitant les votants à ne pas voter dans le New Hampshire et à "garder" leur vote pour le scrutin présidentiel de novembre, a été utilisée.  

La manipulation électorale via l’IA n’est plus une intrigue dystopique mais une réalité tangible et s'exerce de différentes façons : la création et la diffusion massive de vidéos fictives avec des avatars ou non véhiculant des messages politiques, donner de fausses informations sur les modalités de l'élection, décourager les votants de se rendre aux urnes, faire douter les électeurs sur la sincérité des votes, répandre des rumeurs de falsification, etc.

À la veille du second tour des élections législatives françaises, des élections au Royaume-Uni ou aux États-Unis, il est crucial de s’interroger sur l’utilisation d’IA génératives de voix, de vidéos et d'images dans les campagnes politiques et leur impact sur la démocratie. En 2024, plus de la moitié de la population mondiale sera appelée à voter, à une époque où l’IA générative connaît une explosion sans précédent. La menace est lourde et il est urgent de créer des garde-fous.

Certes, des régulations existent déjà, comme le Digital Services Act (DSA) en France et l’AI Act au niveau européen, ou la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information a instauré un devoir de coopération, applicable aux plateformes de partage de contenus. Elles ont notamment l'obligation de prévoir des mesures pour lutter contre la diffusion de fausses informations susceptibles de troubler l'ordre public ou d'altérer la sincérité d'un des scrutins, l'ARCOM veillant au respect de ces principes.

Les fournisseurs d’IA tentent de prendre des mesures pour limiter les risques. Par exemple, OpenAI a mis en place des actions pour les élections de 2024, et ElevenLabs a interdit la reproduction de voix de personnalités publiques, pendant que d'autres proposent des mesures de « watermarking » (marquage sous forme d'un fichier permettant d’identifier du contenu généré par une IA). Cependant, ces mesures restent insuffisantes face à l’ampleur du défi, à des régulations qui n'ont pas anticipé ces nouveaux modes de désinformation et au nombre important d'IA génératives de voix, de vidéos et d'images librement disponibles, à faible cout et relativement simples d'utilisation.

Il est impératif de renforcer les régulations existantes et d'en élaborer de nouvelles ainsi que mettre en œuvre des mesures techniques efficaces pour prévenir les dérives de ces IA dans le domaine politique qui permettront aussi de limiter les risques de désinformation et plus généralement la génération et la prolifération de deepfakes. Par ailleurs, s'agissant du contenu qui est proposé aux visiteurs, une transparence spécifique des algorithmes doit être envisagée au-delà de celle imposée par le DSA afin de détecter et de corriger les biais potentiels dans le contexte du risque électoral et de désinformation.

L’identification des contenus générés par l’IA imposé par l'IA Act permettant aux utilisateurs de distinguer les contenus créés par les humains des créations artificielles est au cœur de cette problématique. En juillet 2023, Meta, Microsoft, Google, Open AI et Amazon se sont déjà engagés auprès de la Maison Blanche à signaler des contenus générés par l’IA. Continuons dans cette voie et travaillons sur des mesures d'identification fiables et robustes pour un marquage par filigrane ou autre pour tous les contenus vidéos, audios ou créées par l’IA. 

Mettons en place des mécanismes de surveillance rigoureux pour détecter directement depuis les plateformes les usages abusifs de l’IA et appliquer des sanctions dissuasives aux contrevenants et aux fournisseurs d'IA qui n'encadrent pas correctement l'utilisation de leurs outils ou tentent de se s'abriter derrière leurs CGV et les utilisateurs. Notons qu'il existe déjà des outils pour identifier les audios générés par une IA (Ircam Amplify). 

Sensibilisons les citoyens sur les risques liés à l’IA et apprenons à rester toujours critique des contenus qui nous sont proposés ou qu'on ne relaie en masse pour ne pas être les soldats manipulés par les technologies de l'hypervitesse que dénonce Asma Mhalla.

Cela pose en particulier la question de savoir si ces systèmes d'IA Gen (qui se sont en général entrainés sur des données sur lesquelles elles n'avaient pas de droits) ne devraient pas entrer dans la qualification d'IA à haut risque, voire de bien à double usage et leur utilisation cantonnée à des professionnels tant que les mesures d'identification de ces contenus et des filtres ne seront pas pleinement efficaces.   « Mes pires craintes sont que nous... l'industrie de la technologie, causions des dommages importants au monde. Je pense que si cette technologie se développe mal, cela peut très mal tourner », a déclaré Sam Altman, PDG d'Open AI, devant la Commission judiciaire du Sénat en mai dernier.

Il est de notre responsabilité collective de veiller à ce que l'IA soit utilisée conformément à la réglementation, de manière éthique et transparente, afin de préserver les fondements mêmes de notre démocratie. Les exemples concrets de dérives doivent nous inciter à agir rapidement et fermement. Il en est de même dans le domaine de la création pour qu'elle n'appartienne pas au passé… à suivre. 

Mathilde Croze, Managing partner de Lerins


Lex Inside - L’actualité juridique - Émission du 20 décembre 2024 :

Lex Inside - L’actualité juridique - Émission du 18 décembre 2024 :

Lex Inside - L’actualité juridique - Émission du 13 décembre 2024 :