Chaque personne sujette à une décision prise par une IA a le droit de savoir sur quels fondements l'algorithme s'est prononcé

La multiplication des processus automatisés de prise de décision n'exonère par les organisations de leur obligation d'expliquer, de manière compréhensible par tous, les actions confiées à des algorithmes. La Cour de Justice de l'UE vient d'affirmer ce droit.

Article rédigé par Nicolas Arpagian
Radio France
Publié
Temps de lecture : 5min
La Cour de Justice de l'Union européenne, au Luxembourg. (HORST GALUSCHKA / DPA / MAXPPP)
La Cour de Justice de l'Union européenne, au Luxembourg. (HORST GALUSCHKA / DPA / MAXPPP)

L’intelligence artificielle (IA) s’invite de plus en plus dans notre vie quotidienne et professionnelle. Les entreprises, et même certaines administrations, utilisent désormais l'IA pour compiler des données et formuler une analyse à partir de celles-ci. Dans certains cas, cela va jusqu’à transférer à ces programmes des actions qui peuvent avoir un effet dans la vie très réelle. Au risque de ressembler à des "boîtes noires" qui agissent par elles-mêmes.

Il n’est évidemment pas satisfaisant pour la personne qui subit une position prise par une telle machinerie de s’entendre répondre pour seule explication qu’il s’agit du choix d’un ordinateur. La Cour de Justice de l’Union européenne, qui siège au Luxembourg, a rendu le 27 février 2025 un arrêt : un individu a le droit de se faire expliquer comment la décision qui le concerne a été prise à son égard, même s’il s’agit d’un mécanisme automatisé.

L'octroi d'un crédit arbitré par un algorithme

Une citoyenne autrichienne s’est vue refuser la signature d’un contrat de téléphonie mobile car elle a été jugée insuffisamment solvable. Cette évaluation avait été conduite par un modèle mathématique qui détermine le facteur de risque financier. Pour information, ici il s’agissait d’un abonnement mensuel de 10 euros. Mais ce montant n’est pas en question.

Le tribunal autrichien, saisi initialement, a conclu que par ses méthodes, le prestataire (la société Dun & Bradstreet) avait violé le Règlement Général sur la Protection des Données (RGPD). La Cour de Justice de l’UE a donc été sollicitée pour interpréter le RGPD et la Directive européenne sur le Droit des Affaires dans le cas où ce sont des algorithmes qui traitent des dossiers.

Les magistrats européens imposent la transparence

La Cour établit que le responsable du traitement doit décrire la procédure et les principes concrètement appliqués. Ainsi la personne concernée doit pouvoir comprendre lesquelles de ses données à caractère personnel ont été utilisées, et de quelle manière lors de la prise de décision automatisée.

Ce qui est intéressant (bienvenue en Europe !), c’est que les magistrats qui exigent la transmission des informations "utiles" ayant conduit à la prise de décision considèrent que les différentes acceptions linguistiques de cet adjectif "utile" doivent être prises en compte.

Ainsi, il faudra que les explications fournies soient "utiles" (au sens français, néerlandais et portugais du terme), "pertinentes" (au sens roumain), "importantes" (au sens espagnol et polonais) et "intelligibles" (au sens anglais et allemand). En clair, la Cour demande aux opérateurs d’être le plus pédagogue possible dans les éléments qu’ils fourniront aux personnes demandeuses.

Apprendre à expliquer la technologie

La découverte par le grand public de l’intelligence artificielle remonte à la fin 2022, avec la mise en service de ChatGPT. Il est donc important, à l’échelle de l’Europe, que soit clairement établi le fait que les citoyens, consommateurs et même salariés que nous sommes puissent être éclairés sur l’usage qui est fait de nos données pour générer des modèles algorithmiques. Modèles qui vont de plus en plus contribuer à des décisions ayant un effet très direct sur nos existences.

Là encore il ne s’agit pas de transformer chacun en ingénieur en IA mais de relever le niveau collectif de connaissances sur les mécanismes et les informations qui alimentent et structurent ces services automatisés. Et de rendre accessibles et compréhensibles des technologies, certes complexes, mais qui vont peupler et agir sur notre quotidien. Cela correspond en outre à l’obligation posée par un autre texte européen, l’AI Act, d’encadrer la manière dont on explique des modèles utilisés.

Le secret des affaires perdure

Au cas où les informations à fournir seraient protégées au titre du secret des affaires, notamment parce qu’elles contiendraient par exemple des éléments considérés comme déterminant pour la compétitivité de l’entreprise, c’est une juridiction nationale qui établira alors l’étendue du droit d’accès. Toujours l’équilibre recherché entre l’exercice de différents droits : celui des individus et celui des organisations.

Commentaires

Connectez-vous ou créez votre espace franceinfo pour commenter.