Open AI a stoppé 18 opérations de détournement de Chat GPT pour désinformer ou créer des arnaques depuis le début de l'année 2025

Dix-huit groupes d'utilisateurs de Chat GPT qui ont essayé d'utiliser cette IA dans un but malveillant depuis le début de l'année ont été désactivés par Open AI.

Article rédigé par Armêl Balogog
Radio France
Publié Mis à jour
Temps de lecture : 3min
L'intelligence artificielle générative peut être utilisée comme un outil pour désinformation (photo d'illustration). (GUILLAUME SALIGOT / OUEST-FRANCE / MAXPPP)
L'intelligence artificielle générative peut être utilisée comme un outil pour désinformation (photo d'illustration). (GUILLAUME SALIGOT / OUEST-FRANCE / MAXPPP)

Des faux articles qui piègent l'insoumis Manuel Bompard, des réseaux entiers de faux sites d'informations, des fausses images générées à l'envi… L'intelligence artificielle générative peut être utilisée comme un outil pour désinformation ou, en général, à des fins malveillantes. Open AI a stoppé 18 opérations importantes de détournement de Chat GPT par plusieurs groupes d'utilisateurs depuis le début de l'année 2025, selon des rapports publiés en février et en juin.

Ces comptes étaient principalement rattachés, de plus ou moins près, à la Chine, la Russie, la Corée du Nord, l'Iran, mais aussi le Cambodge, le Ghana et les Philippines. Open AI les a tous désactivés.

Les IA utilisées pour désinformer

Il s'agissait majoritairement de campagnes qui utilisait cette intelligence artificielle pour créer des textes et des images afin de désinformer. Ces groupes d'utilisateurs ont utilisé Chat GPT pour générer une multitude de textes très courts, d'une dizaine de mots, sur différents sujets, qu'ils ont ensuite publié avec de faux comptes en commentaire sous des publications sur les réseaux sociaux, notamment X, BlueSky, Facebook ou TikTok.

C'est le cas notamment d'une opération faite par des Philippins en faveur de leur président. Ils ont généré plus de 20 000 commentaires via Chat GPT puis les ont tous publiés sous une même publication TikTok. Cela a l'effet de saturer les conversations et de faire croire que tout le monde pense de la même manière. Une façon d'essayer de gagner la guerre de l'opinion.

D'autres opérations ont consisté à demander à Chat GPT de créer de faux articles, qui se sont retrouvés sur des sites de désinformation, comme le réseau russe Pravda. Les désinformateurs utilisent aussi cette IA pour créer des infox dans d'autres langues, en espagnol, en allemand, en chinois ou même en ourdou, la langue officielle du Pakistan.

Espionnage, arnaques et virus informatique

D'autres utilisations sont plus surprenantes ou plus spécialisées. Par exemple, des acteurs semblant proches de la Corée du Nord demandent à Chat GPT de créer de fausses personnes et de les aider à se faire recruter en télétravail dans des entreprises françaises, faux CV à l'appui. L'IA leur permet même de faire des entreprises d'embauche en visio sans se faire repérer. Le but, selon Open AI, est de capter leurs salaires au bénéfice de la Corée. Il peut aussi s'agir de faire de l'espionnage industriel.

Plusieurs opérations apparentées cambodgiennes utilisent aussi cette intelligence artificielle comme un outil pour créer des arnaques, aux sentiments, à l'investissement ou au faux travail. Là aussi, il s'agit d'utiliser l'IA pour générer des textes et des personnages cohérents.

L'opération la plus étonnante est celle d'un groupe de comptes qui utilisaient Chat GPT pour perfectionner le virus informatique qu'ils avaient créé pour infecter des ordinateurs Windows.

Commentaires

Connectez-vous ou créez votre espace franceinfo pour commenter.