"Aujourd'hui, on a la capacité de faire une interaction intelligente pour de vrai" : les deepfakes audio de plus en plus difficiles à détecter

L'intelligence artificielle générative a ouvert une nouvelle ère de désinformation avec la prolifération de deepfakes, et notamment des voix clonées. S'il est difficile de détecter le vrai du faux simplement à l'oreille, comment savoir les repérer ?

Article rédigé par Pauline Pennanec'h
Radio France
Publié
Temps de lecture : 4min
Une main robotisée tenant un combiné à profil humain en audio-ondes. Image d'illustration. (GETTY IMAGES)
Une main robotisée tenant un combiné à profil humain en audio-ondes. Image d'illustration. (GETTY IMAGES)

Vous êtes-vous déjà fait duper par une voix, qui ressemblait étrangement à celle d’une personne, mais qui finalement n’était pas réelle ? Le phénomène des deepfakes n'est pas nouveau : le premier deepfake "grand public", en 2018, mettait en scène l'ancien président américain Barack Obama insultant Donald Trump. Une vidéo vue des millions de fois et qui mettait en lumière le phénomène.

Depuis, des campagnes de désinformation à grande échelle utilisent l'intelligence artificielle pour tromper les internautes, comme cette fausse allocution du président ukrainien Volodymyr Zelensky annonçant sa défaite face à l’armée russe. En septembre 2024, un deepfake de l'ancien Premier ministre Michel Barnier était devenu lui aussi viral sur les réseaux sociaux, et beaucoup d'internautes y avaient cru.

Un arsenal qui les rend "cruellement efficaces"

Les deepfakes vidéo peuvent être plus facilement détectables, mais qu'en est-il des deepfakes audio ? Pour en générer il ne suffit que de quelques secondes d'enregistrement pour créer un clone grâce à divers logiciels d'IA générative, comme ElevenLabs, où l'internaute peut choisir l'intonation, la vitesse d'élocution, les tics de langage. "Ces contenus jouent avec nos émotions, nous emmènent dans le domaine de la réaction plutôt que la réflexion, que ce soit la surprise, l'humour, le choc, explique Camille Salinesi, professeur en informatique, co-responsable de l'Observatoire de l'IA à l’Université Paris 1 Panthéon-Sorbonne. On est dans un espace qui nous empêche de réfléchir et de nous interroger sur le contenu, sur la raison pour laquelle ce contenu nous arrive, à qui il bénéficie, etc."

Mais si cela fonctionne aussi bien, ce n'est pas seulement grâce à la technologie de production de fakes, car cette technologie se retrouve "combinée avec des algorithmes de recommandation, avec des technologies de personnalisation, poursuit le spécialiste. On utilise aussi des technologies d'IA qui vont permettre de s'assurer que c'est le bon contenu qui arrive à la bonne personne par des techniques de microciblage. C'est tout cet arsenal d'intelligence artificielle qui rend finalement les deepfakes cruellement efficaces."

Détecter les deepfakes grâce à l'intelligence artificielle ?

S'il est difficile de détecter le vrai du faux simplement à l'oreille, il existe aujourd'hui des logiciels d'intelligence artificielle qui peuvent le faire à notre place. C'est d'ailleurs le cas de logiciels existants comme Sensity AI. Mais ils atteignent aussi leurs limites. "Le problème, c'est que meilleurs sont les détecteurs, meilleurs sont les IA génératives, met en garde Camille Salinesi, car le principe de la création des IA génératives, c'est que ce sont les détecteurs qui les entraînent."

"Une intelligence artificielle générative qui crée des contenus pas parfaitement difficiles à détecter continuera de s'entraîner, jusqu'à ce que les détecteurs ne sachent plus faire la différence entre un contenu réel et un contenu factice."

Camille Salinesi, co-responsable de l'Observatoire de l'IA à l’Université Paris 1 Panthéon-Sorbonne

à franceinfo

Il existe aujourd'hui des entreprises qui utilisent des assistants vocaux pour répondre au téléphone, gérer des réservations ou bien donner des renseignements. Pour cela, des éditeurs de robots conversationnels proposent leurs services à leurs clients. "Aujourd'hui on a la capacité de faire une interaction intelligente pour de vrai, explique Katya Lainé, directrice de l'entreprise TalkR. Après, il faut être conscient que même si nous allons mettre des procédés en place pour dire au public que c'est un assistant virtuel avec lequel il interagit, il y a des personnes qui ne le feront pas."

Il faut donc informer et sensibiliser le public sur ces usages problématiques de l'intelligence artificielle à des fins de manipulation, que ce soit pour les désinformer ou même les escroquer.


Retrouvez "Les voies de l'IA", un podcast original franceinfo en partenariat avec l'Observatoire de l'intelligence artificielle de l'université Paris 1 Panthéon-Sorbonne et Sorbonne TV, sur le site de franceinfo, l'application Radio France, Sorbonne TV, et plusieurs autres plateformes comme Apple podcasts, Podcast Addict, Spotify, ou Deezer.

Commentaires

Connectez-vous ou créez votre espace franceinfo pour commenter.