Monde

Président Biden victime de deepfake : le spectre de la désinformation AI

Published

on

La Menace de la Désinformation par Intelligence Artificielle lors de la Course à la Maison Blanche 2024

La course à la Maison Blanche de 2024 est confrontée à la perspective d’une avalanche de désinformation alimentée par l’intelligence artificielle, avec un appel automatisé se faisant passer pour le président américain Joe Biden suscitant déjà une vive inquiétude quant aux deepfakes audio.

L’appel Robocall Suscite la Controverse

Ce message téléphonique, imitant numériquement la voix de Biden et reprenant l’une de ses expressions caractéristiques, a exhorté les habitants du New Hampshire à ne pas voter lors des primaires démocrates le mois dernier, incitant les autorités de l’État à ouvrir une enquête pour possible suppression de vote. Cette situation a également conduit les militants à demander des règles plus strictes concernant les outils d’intelligence artificielle générative ou un interdiction pure et simple des appels automatisés.

Les craintes autour de l’Utilisation Généralisée de l’IA

Les chercheurs en désinformation redoutent une utilisation massive d’applications alimentées par l’IA au cours d’une année électorale décisive, grâce à la prolifération d’outils de clonage vocal bon marché, faciles à utiliser et difficiles à tracer. Vijay Balasubramaniyan, PDG et co-fondateur de la société de cybersécurité Pindrop, déclare que “c’est certainement la partie émergée de l’iceberg” et prévoit de voir “beaucoup plus de deepfakes tout au long de ce cycle électoral”.

Analyse Approfondie des Pratiques et Technologies Utilisées

Une analyse détaillée publiée par Pindrop indique qu’un système de synthèse de la parole développé par la startup de clonage vocal ElevenLabs a été utilisé pour créer l’appel Robocall imitant Biden. Cette affaire survient alors que les campagnes des deux bords politiques aux États-Unis exploitent des outils avancés d’IA pour une efficacité accrue de leurs messages de campagne, et que les investisseurs technologiques injectent des millions de dollars dans les startups de clonage vocal.

Les Réponses et Réactions des Acteurs Impliqués

Les régulateurs américains envisagent de rendre illégaux les appels automatisés générés par l’IA, avec la fausse communication téléphonique de Biden donnant un nouvel élan à cette initiative. Robert Weissman, président du groupe de défense Public Citizen, déclare que “le moment des deepfakes politiques est arrivé” et appelle les décideurs à mettre en place des protections rapidement, sous peine de risquer le chaos électoral.

Les Inquiétudes des Chercheurs en Désinformation et les Solutions Propositions

Les chercheurs redoutent l’impact des outils d’IA permettant de créer des vidéos et des textes si réels que les électeurs pourraient avoir du mal à discerner la vérité de la fiction, sapant ainsi la confiance dans le processus électoral. Tim Harper, analyste politique senior au Center for Democracy & Technology, souligne que “de toutes les surfaces – vidéo, image, audio – pour lesquelles l’IA peut être utilisée pour la suppression de vote, l’audio est la plus grande vulnérabilité”, en raison de sa facilité de clonage et de sa difficulté à être identifié.

Les experts recommandent d’intégrer des filigranes audio ou des signatures numériques dans les outils d’intelligence artificielle comme protection potentielle, ainsi que la réglementation pour les rendre accessibles uniquement aux utilisateurs vérifiés.

Conclusion

La montée en puissance des outils audio basés sur l’IA par rapport aux logiciels de détection suscite des inquiétudes croissantes. Alors que la Chine a récemment dévoilé StreamVoice, un outil d’IA permettant la conversion en temps réel de la voix d’un utilisateur en une alternative désirée, la nécessité de réglementations renforcées et de technologies de détection fiables se fait de plus en plus pressante.

La situation actuelle met en lumière le besoin urgent de trouver des solutions pour contrer la désinformation alimentée par l’IA, afin de préserver l’intégrité des élections et la confiance du public dans le processus démocratique.

Leave a Reply

Your email address will not be published. Required fields are marked *

Tendance

Exit mobile version