Un manager peut-il reconnaître un travail accompli avec ChatGPT ?

Un salarié qui utilise ChatGPT a-t-il intérêt à le dire à son manager ? Et s’il ne le fait pas, quels sont les risques et les pertes pour l’employeur ? Une étude d’HEC s’est penchée sur le sujet.

Article rédigé par Sarah Lemoine
Radio France
Publié
Temps de lecture : 3min
Les managers d'un cabinet d'audit n'ont pas su distinguer les contenus réalisés avec ou sans IA, lors d'une expérience menée par des chercheurs d'HEC. (ERIC AUDRAS / MAXPPP)
Les managers d'un cabinet d'audit n'ont pas su distinguer les contenus réalisés avec ou sans IA, lors d'une expérience menée par des chercheurs d'HEC. (ERIC AUDRAS / MAXPPP)

Trois chercheurs d’HEC ont mené une expérimentation en collaboration avec un cabinet d’audit qui facture ses clients à l’heure. Pour ce faire, ils ont demandé à des analystes juniors de rédiger 8 notes courtes et longues, pour des appels d’offres, avec et sans ChatGPT. Ces documents ont ensuite été remis à 130 managers du cabinet d’audit qui ne savaient pas qu’ils servaient de cobayes. Leur tâche consistait à évaluer, d’après leur expérience, si ces notes avaient été écrites par des humains ou par ChatGPT, dans le cadre d’une fausse session de formation.

Impossible de reconnaître un contenu écrit avec ou sans IA

D'après les résultats, les managers ont estimé que 77% des notes avaient été élaborées avec ChatGPT alors que ce n’était pas vrai dans la moitié des cas. De plus, quand ils ont eu connaissance des notes écrites intégralement par des humains, ils étaient encore 44% à douter, persuadés qu’un robot était passé par là. "Cela montre que les managers sont incapables de distinguer ce qui a été produit ou non par ChatGPT, et qu'ils sont méfiants" souligne David Restrepo Amariles, l’un des chercheurs d’HEC.

Autre enseignement intéressant : quand un manager ne sait pas que l’IA a été utilisée, il juge le contenu de meilleure qualité. Et quand il sait que l’IA a été utilisée, il estime que le consultant y a passé moins de temps, en travaillant, par exemple, seulement 1 heure au lieu de 3 heures.

Donner du travail en plus ?

Dans ce contexte, un consultant a-t-il un quelconque intérêt à dire à son manager qu’il se sert de l’intelligence artificielle ? Aucun, concluent les chercheurs puisque le manager n’y voit que du feu, et qu’il pourrait potentiellement donner plus de travail au collaborateur qui utilise ChatGPT en toute transparence.

Mais à ce petit jeu, l’entreprise est perdante, à double titre, soulignent les auteurs. D’abord parce qu’elle est en première ligne face aux risques de fuites de données ou d’erreurs des IA génératives vis-à-vis des clients. Ensuite, parce que le gain de productivité réalisé individuellement par le salarié ne bénéficie ni à son équipe, ni à l’organisation dans son entier.

Alors comment changer la donne ? Les 3 chercheurs conseillent aux directions d’imposer la transparence dans le recours à l’IA, mais avec des mesures incitatives pour les salariés. Le temps gagné avec l’intelligence artificielle pourrait être récompensé par des formations, une hausse de salaire ou un passage à la semaine de 4 jours, suggère David Restrepo Amariles. Mais pas par du travail en plus…

Commentaires

Connectez-vous ou créez votre espace franceinfo pour commenter.