L'État français fait appel aux compétences du grand public pour créer un détecteur de contenus artificiels

En amont du Sommet pour l'Action sur l'IA de février 2025, deux services de l'Etat (PEReN et Viginum) ouvrent un projet collaboratif pour élaborer un méta détecteur de publications générées par des intelligences artificielles.

Article rédigé par Nicolas Arpagian
Radio France
Publié
Temps de lecture : 3min
L'IA est-elle une menace pour la diffusion de fausses nouvelles à partir d’images ou de vidéos fabriquées de toutes pièces par des modèles mathématiques ? (CFOTO / GETTY IMAGES)
L'IA est-elle une menace pour la diffusion de fausses nouvelles à partir d’images ou de vidéos fabriquées de toutes pièces par des modèles mathématiques ? (CFOTO / GETTY IMAGES)

La France accueille le Sommet pour l’Action sur l’IA les 10 et 11 février 2025. D'ici là, plusieurs projets émergent à l’initiative de l’État pour concrétiser des usages de l’intelligence artificielle. L’IA exige une mobilisation de ressources sans précédent afin d’élaborer des solutions innovantes et pertinentes qui répondent à des besoins précis. Un des sujets critiques est la création et la diffusion de fausses nouvelles à partir d’images ou de vidéos fabriquées de toutes pièces par des modèles mathématiques.

Une démarche collaborative

Pour tenter d’apporter une réponse opérationnelle à cette menace, deux services de l’État s’allient : PEReN et Viginum. PEReN est un service interministériel à compétence nationale placé sous l’autorité conjointe des ministres de l’Économie, de la Culture et du Numérique pour exploiter la science des données dans le domaine de la régulation numérique. Et Viginum est le service technique de l’État chargé de la vigilance et de la protection contre les ingérences numériques étrangères.

Ces services viennent d’ouvrir un projet collaboratif afin d'élaborer un méta détecteur de contenus artificiels. Il s’agit de créer à partir de l’expertise cumulée de particuliers un outil permettant de déceler ces images et contenus utilisés à des fins de désinformation. Or, si certaines plateformes d’IA insèrent automatiquement des filigranes dans leurs productions, cela ne suffit pas à assurer que l’on pourra déceler à coup sûr les documents nés du travail des algorithmes.

Un appel ouvert à l'expertise

C’est une pratique bien connue dans la communauté des logiciels open source, lorsque chacun peut contribuer en fonction de son expertise à la rédaction de quelques lignes de code. Ces éléments sont rassemblés sur une page qui reste accessible à tous à des fins de commentaire ou de modification. L’idée est que c’est la somme des savoirs qui permet d’obtenir un résultat de qualité et fiable. En l’espèce, certains sont peut-être plus à même de concevoir des détecteurs de visages tandis que d’autres seront plus performants pour analyser des paysages. Idem pour les textes ou les traductions.

Ce qui est intéressant dans cette méthode c’est que les briques logicielles ainsi produites seront ensuite en libre accès, et devront être faciles d’utilisation. Ce type de protocole ne constitue pas la réponse universelle aux enjeux technologiques à venir, notamment sur la lutte contre les usages malveillants de l’IA, mais témoigne d’une nouvelle manière d’appréhender les difficultés dans un environnement technologique qui exige des compétences très diverses.

Commentaires

Connectez-vous ou créez votre espace franceinfo pour commenter.