Intelligence artificielle : la Californie régule les "chatbots", après plusieurs suicides d'adolescents

Le gouverneur démocrate de Californie a signé une série de lois pour vérifier l'âge des utilisateurs, afficher des messages d'avertissement et imposer des protocoles de prévention du suicide.

Article rédigé par franceinfo avec AFP
France Télévisions
Publié Mis à jour
Temps de lecture : 2min
Le gouverneur de Californie, Gavin Newsom, s'exprime avant de signer une loi visant à améliorer la nutrition et la santé des enfants en Californie, le 8 octobre 2025, à Los Angeles, en Californie. (MARIO TAMA / GETTY IMAGES NORTH AMERICA / AFP)
Le gouverneur de Californie, Gavin Newsom, s'exprime avant de signer une loi visant à améliorer la nutrition et la santé des enfants en Californie, le 8 octobre 2025, à Los Angeles, en Californie. (MARIO TAMA / GETTY IMAGES NORTH AMERICA / AFP)

Il s'agit d'une première aux Etats-Unis. La Californie a promulgué, lundi 13 octobre, une législation régulant pour la première fois aux Etats-Unis les agents conversationnels, ou chatbots, d'intelligence artificielle (IA), après une série de suicides d'adolescents ayant noué des relations fictives intimes avec ces outils, a annoncé le gouverneur Gavin Newsom. Défiant la pression de la Maison Blanche, qui s'oppose à la régulation de l'IA, le gouverneur démocrate a signé une série de lois qui imposent, entre autres, de vérifier l'âge des utilisateurs, d'afficher des messages d'avertissement réguliers et de prévoir des protocoles de prévention du suicide.

"Nous avons vu des exemples vraiment horribles et tragiques de jeunes qui ont été victimes de technologies peu régulées, et nous ne resterons pas les bras croisés pendant que des entreprises exercent sans limites et sans rendre de comptes", a déclaré Gavin Newson dans un communiqué publié après la promulgation de ce paquet législatif. Un des principaux textes, la loi SB243, concerne la régulation des chatbots susceptibles de jouer un rôle de compagnon ou confident, tels que ceux développés par des plates-formes comme Replika ou Character.AI.

"Protéger nos enfants tout au long du chemin"

Character.AI a été une des premières plateformes poursuivie en justice par les parents d'un adolescent américain de 14 ans, Sewell, qui s'est tué en 2024 après avoir noué une relation amoureuse avec un chatbot inspiré de la série Game of Thrones et soupçonné de l'avoir renforcé dans ses pensées suicidaires. "Nous pouvons continuer à être leader dans le domaine de l'IA (...) mais nous devons agir de façon responsable, en protégeant nos enfants tout au long du chemin", a expliqué le gouverneur de Californie, qui abrite la Silicon Valley et les principaux géants du développement de modèles d'IA comme OpenAI (ChatGPT), Google (Gemini) ou xAI (Grok).

Outre la vérification de l'âge, cette loi impose d'afficher des messages réguliers pour rappeler à l'utilisateur que son interlocuteur est une machine (toutes les trois heures pour les mineurs). Elle oblige les entreprises à prévoir une détection des pensées suicidaires, à fournir un accès à des programmes de prévention et à transmettre des statistiques sur le sujet aux autorités.

Commentaires

Connectez-vous ou créez votre espace franceinfo pour commenter.