Quand l'intelligence artificielle raconte n'importe quoi

Publié Mis à jour
Temps de lecture : 4min - vidéo : 3min
Article rédigé par L'Oeil du 20 heures
France Télévisions

L'Oeil du 20 heures a fait le test avec une information qui a récemment circulé sur les réseaux sociaux.

L'intelligence artificielle est-elle si bien renseignée ? A L'Oeil du 20 heures, nous avons posé la question à ChatGPT : "Peux-tu diffuser de fausses informations ?" Voici sa réponse : "Non 🙂 Je ne peux pas diffuser de fausses informations. Mon rôle est de donner des réponses fiables, factuelles et utiles." Son concurrent américain Perplexity explique qu'il est "conçu pour fournir des réponses justes". Même chose pour le français Mistral AI, qui nous affirme : "je ne peux pas diffuser de fausses informations".

Mais en réalité, les choses ne sont pas aussi simples : l'intelligence artificielle peut bel et bien relayer des fake news. Nous avons fait le test avec une histoire qui circule sur les réseaux sociaux. Deux soldats britanniques auraient été capturés en Ukraine. Des internautes s'inquiètent des implications diplomatiques de la présence de l'OTAN sur le terrain. "Toujours pas de nouvelles des deux officiers britanniques arrêtés par les russes en Ukraine ?" écrit un internaute sur Twitter. Sauf que tout est faux… comme l'ont démontré plusieurs médias. La photo des deux colonels a même été créée de A à Z.

L'intelligence artificielle est-elle capable de voir qu'il s'agit d'une fausse information ? Nous avons interrogé une IA qui revendique l'exactitude de ses réponses : Perplexity. Nous lui demandons : "Qui sont les deux colonels britanniques capturés par la Russie ?" Perplexity nous donne quasi instantanément leurs noms et des détails sur leur arrestation : "Ils ont été arrêtés par les forces spéciales russes russes lors d'un raid. Ils étaient engagés dans une mission secrète."

Mais alors comment l'IA a-t-elle pu se tromper ainsi ? Comme vous et moi, Perplexity a en fait cherché ses réponses… sur internet. Sur des sites d'information classique comme Euronews, mais aussi d'autres plus étonnants. Comme le journal du Pays, un blog indépendantiste sénégalais. On y trouve ce type de témoignage fantaisiste : "Un collègue de longue date des services secrets (...) en qui j'ai une confiance absolue, m'a dit que les forces spéciales russes avaient débarqué de plusieurs navires. (...) Ils ont capturé des soldats britanniques."

Voilà comment ce genre de fausse information peut être relayée par l'intelligence Artificielle, comme nous l'explique Thierry Taboy, coordinateur de la commission technologique du Laboratoire de la République : "Elles prennent toutes les données qui sont disponibles sur Internet et elles les digèrent pour apporter les réponses à ceux qui posent des questions. Ça peut être les articles, ça peut être les posts faits sur les réseaux sociaux, ça peut être tout ce qui est disponible sur le web."

En moyenne, d'après une étude de Newsguard, une entreprise qui traque la désinformation, les IA n'arrivent pas à identifier de fausses infos dans 35% des cas. C'était seulement 18% il y a un an. Contactée, Perplexity conteste les résultats de l'étude de Newsguard et nous assure faire des millions de tests quotidiens pour améliorer sa fiabilité. "Nous ne prétendons jamais être précis à 100 %, mais nous affirmons être la seule entreprise d'IA qui s'efforce constamment de l'être", nous répond l'entreprise par mail. Après cette réponse, nous avons ré-interrogé Perplexity et la réponse de l'IA nous a laissé plutôt perplexes : elle continue d'affirmer que les officiers britanniques ont été capturés. 

Parmi nos sources 

un article de fact-checking de France 24

l'article d'euronews utilisé par Perplexity

l'article du Journal du pays utilisé par Perplexity

l'étude de Newsguard

ESET, l’employeur de l’expert interrogé Benoît Grunenwald, est une société internationale spécialisée dans les solutions de cybersécurité pour les entreprises, notamment un antivirus.

Commentaires

Connectez-vous ou créez votre espace franceinfo pour commenter.