Baccalauréat 2025 : est-ce une bonne idée d'utiliser des intelligences artificielles pour réviser avant les épreuves ?
Pour le meilleur et (surtout) pour le pire, de nombreux lycéens ont déjà recours à des intelligences artificielles comme ChatGPT et Gemini tout au long de l'année. Et pour se préparer avant le bac, y a-t-il de "bonnes manières" de se servir des IA ?
Pourquoi ne pas utiliser une intelligence artificielle (IA) générative comme ChatGPT ou Gemini pour réviser les épreuves du baccalauréat ? Que ce soit pour la philosophie, l'histoire-géographie, les mathématiques ou la physique, pour les lycéens les plus studieux comme pour ceux qui ont été moins appliqués au cours de leur année de terminale, la tentation peut être grande à l'approche des épreuves.
D'autant que l'IA s'invite déjà dans le quotidien des enseignants comme des élèves, au point que nombre de professeurs redoutent notamment de nouvelles formes de triche. Mais cette habitude n'engendre-t-elle pas un risque d'apprendre des choses complètement fausses, voire de ne rien retenir du tout ? Y a-t-il vraiment de bonnes manières d'utiliser des IA pour préparer le bac ? Quels sont les dangers à éviter ? Franceinfo a posé ces questions à des experts.
Les IA maîtrisent-elles le programme du bac ? Plus ou moins
Avant de rentrer dans le vif du sujet, quelques révisions s'imposent. Les IA génératives comme ChatGPT ne sont pas "intelligentes". Elles ne "savent" pas et elles ne vont pas non plus fouiller dans une base de données pour trouver la référence la plus adaptée à la question posée.
A la base, ce sont des logiciels qui ont été entraînés sur des milliards de phrases pour analyser les enchaînements de mots les plus probables, et qui génèrent la suite de mots la plus plausible par rapport à la question posée. Ce qui peut donner une affirmation vraie aussi bien qu'une totalement fausse, à l'image de la suggestion automatique de mots sur les smartphones. Le principe est ensuite amélioré, mais le fonctionnement de base demeure, et le risque d'erreur aussi.
Autre point important, "les principales IA génératives ne connaissent pas tous les détails du programme du bac en France en 2025", rappelle Ari Kouts, expert IA au sein du cabinet de conseil Viseo. Il rappelle que "les IA sont entraînées sur des données du monde entier, souvent en anglais, et la France ne représente qu'une petite partie" qui ne pèse pas bien lourd quand le logiciel calcule sa réponse. "Et les données utilisées pour entraîner ces IA s'arrêtent souvent en 2024", précise-t-il. Les nouveautés du programme de 2025 ont donc de fortes chances de passer à la trappe.
"Il ne faut jamais prendre ce qui est écrit par ChatGPT pour argent comptant."
Ari Kouts, expert IA au sein du cabinet de conseil Viseoà franceinfo
Il ne faut pas non plus croire que, quand les IA font des erreurs, celles-ci sont toujours évidentes, du type "2+2 = 5". "Sur des questions politiques autour de la Seconde Guerre mondiale, par exemple, ChatGPT peut présenter les choses d'une manière biaisée ou 'trop nuancée', que seul un spécialiste pourrait repérer", avertit Margarida Romero, professeure des universités à l'Université Côte d'Azur. Ça tombe bien, ce sont des spécialistes qui ont écrit les manuels scolaires, donc "mieux vaut toujours vérifier dans ses leçons ensuite", insiste la co-éditrice du livre blanc intitulé "Enseigner et apprendre à l'ère de l'intelligence artificielle".
Les IA peuvent-elles expliquer des concepts de philo, d'histoire ou de maths ? Pas forcément
C'est l'un des usages les plus évidents des IA génératives : demander d'expliquer des notions mal comprises. Le devoir selon Kant, l'analyse combinatoire ou la guerre froide… Les IA semblent avoir réponse à tout et pouvoir les expliquer en détail inlassablement.
"On peut lui demander d'expliquer et de reformuler autant de fois qu'on veut. Et de différentes manières : par exemple 'comme si j'avais 10 ans', ou 'avec des métaphores'."
Margarida Romero, professeure à l’Université Côte d’Azurà franceinfo
Ari Kouts recommande de préciser son "prompt" (la question qu'on pose à l'IA) autant que possible pour l'adapter au besoin. Un exemple rapide : "Tu es un professeur d'université expert en philosophie. Tu maîtrises notamment la philosophie de l'art et les rapports entre nature humaine et culture. Tu accompagnes toujours tes explications d'un exemple concret et d'une citation de philosophe sur le sujet. Explique-moi la pensée de Platon sur l'art et la beauté."
Mais encore une fois, ChatGPT ne sait pas tout. Même plein d'assurance, le logiciel peut être à côté de la plaque, et même inventer les citations ou les titres de livres qu'il donne. Un exemple ? En réponse au "prompt" de franceinfo, ChatGPT attribue à Platon une citation qui reprend bien une idée du philosophe, mais pas dans ses mots. Même constat du côté de Gemini, l'IA de Google. Il faut donc toujours aller lire ses manuels, leçons ou livres appropriés pour vérifier si la réponse est vraie, et si "l'explication de la morale selon Kant pour un enfant de 10 ans" correspond à la version réelle.
Les réponses des IA sont-elles justes quand on leur donne des sources fiables ? Pas toujours
Il y a plusieurs moyens de limiter la casse. Le principal : fournir à l'IA des documents qu'elle va utiliser comme sources, comme les leçons ou des manuels de la matière choisie. Elle pourra ainsi rapprocher ses réponses du programme officiel. De préférence chapitre par chapitre, et pas tout un manuel d'un coup, pour éviter que la bonne réponse ne soit noyée dans la masse. "L'IA NotebookLM de Google est très bonne pour ça, assure Ari Kouts. Elle renvoie même aux citations précises des documents qu'elle a utilisés."
Mais même ainsi, le fonctionnement de base de l'IA peut discrètement prendre le pas sur les sources pour influencer la réponse, avertit Margarida Romero. Et si vous demandez à une IA de lire ou de créer une carte ou un graphique, c'est à vos risques et périls. "Ça marche relativement bien avec des modèles comme GPT-4o", souligne Ari Kouts. "Mais il y a davantage d'erreurs qu'à l'écrit, et il suffit qu'il décode mal une nuance de couleur ou un titre, ou des symboles qui se ressemblent, ou une carte faite à la main…"
Une autre possibilité sur ChatGPT consiste à piocher dans une banque de "GPT" pré-programmés par des utilisateurs pour jouer un rôle particulier, avec le "prompt" et les bases de données adaptés. En théorie, du moins : un GPT dédié à la philosophie interrogé par franceinfo a, lui aussi, donné des citations qui n'existent pas, et impossible de savoir si les sources fournies à ces GPT sont aussi fiables que l'affirment leurs créateurs. La même prudence s'impose donc.
Une IA peut-elle faire des fiches de révision ? Plutôt oui, mais ce n'est pas la meilleure façon d'apprendre
Les IA génératives peuvent résumer un document de nombreuses manières. Avec des puces, avec des exemples ou non, des dates importantes en gras… "NotebookLM peut générer une frise chronologique avec les dates importantes en histoire, cite Ari Kouts, et même résumer le cours sous forme de podcast ."
Les conseils précédents valent toujours : donner des documents de cours pour "guider" l'IA, procéder partie par partie pour éviter la surcharge d'informations inutiles, et vérifier absolument tout. Ce qui est en principe plus facile, puisqu'on peut explorer les sources utilisées par l'IA.
"Faire des fiches de révision est une bonne idée", appuie pour franceinfo Colin de la Higuera, enseignant-chercheur en informatique à l'Université de Nantes. Mais il tempère aussitôt : "Ça n'est que la moitié de l'exercice, c'est un peu comme lire des annales du bac. Ça n'est pas parce qu'on a les mêmes leçons avec un habillage plus joli qu'on a appris quelque chose."
"Concevoir une fiche de révision soi-même, c'est déjà réviser. Si je demande à une IA de le faire, ça m'enlève ce travail d'appropriation."
Colin de la Higuera, enseignant-chercheur à l'Université de Nantesà franceinfo
Une autre faiblesse de l'IA, c'est qu'"on retient beaucoup moins d'informations quand on lit ou écrit sur un écran que sur du papier", rappelle Margarida Romero. Et recopier les "bullet points" de l'IA sur une feuille sans réfléchir ne changera pas grand-chose. "On peut avoir la sensation d'avoir fait un effort, mais on n'est pas passé par les mêmes phases de questionnement" qu'en faisant la fiche soi-même, insiste Margarida Romero. Par exemple : "Est-ce que cette idée peut être utilisée pour ce thème, est-ce que je peux dire ça d'une autre manière ?" On se souvient généralement mieux des moyens mnémotechniques (jeux de mots, images mentales…) qui viennent de son propre cerveau.
Une IA peut-elle créer des exercices pour s'entraîner ? Oui, mais pas dans toutes les matières
C'est l'usage pour lequel les spécialistes interrogés par franceinfo semblent plus enthousiastes. "Pour apprendre avec une IA, il faut l'utiliser comme un partenaire qui nous questionne, pas comme quelqu'un qui fait l'effort à notre place", propose Margarida Romero. "Par exemple, lui demander : 'Pose-moi des questions sur ça', 'Est-ce que tu peux générer d'autres questions probables sur ce sujet ?', 'Est-ce que tu as des pistes pour améliorer ma réponse' ?…"
Mais là encore, pas n'importe comment. Les conseils précédents (documents sources, "prompt" précis, vérification, pas trop d'indices afin de réfléchir par soi-même...) valent toujours. "NotebookLM a un bouton QCM [questionnaire à choix multiples] directement intégré pour créer un questionnaire à partir de documents sources", rappelle Ari Kouts. "Ça peut aussi être utile pour les langues comme l'anglais ou l'espagnol, pour imiter un dialogue et demander un retour en direct", note Colin de la Higuera – même si l'anglais écrit par les IA n'est pas toujours le même que l'anglais courant, avec une utilisation exagérée de certains mots, comme le rappelle Numerama.
Sur les sciences dures, comme les maths ou la physique, demander à ChatGPT des exercices sur mesure, c'est prendre le risque d'être déçu. "Les IA peuvent expliquer des théories, mais ça ne veut pas dire qu'elles savent les utiliser", avertit Ari Kouts. Les exercices créés par des humains, dans des manuels, des annales ou sur internet, sont donc en principe plus fiables.
"Si vous demandez à ChatGPT de créer un problème de maths, il y a des chances pour que ce problème n'ait aucune bonne solution."
Ari Koutsà franceinfo
Pour les matières plus littéraires, c'est contrasté. On peut demander à une IA des exemples de sujets de dissertation sur les thèmes du programme de philosophie, et essayer de les faire soi-même (même s'il existe déjà de nombreux exemples de vrais sujets sur internet). "On peut aussi demander à une IA de générer 20 plans possibles pour un même sujet de dissertation, d'en approfondir un en particulier, de donner des exemples…", évoque Ari Kouts.
Mais si, après avoir fait l'exercice, on veut demander un corrigé, on retombe sur les problèmes de fiabilité ou d'originalité déjà évoqués. Et si on demande directement le corrigé, c'est pire, insiste Colin de la Higuera : "C'est encore moins bien que si on s'était trompé en faisant un vrai exercice soi-même !"
"Si on demande une réponse trop rapidement, on ne passe pas par les étapes de réflexion importantes. Il faut accepter de se faire un peu mal à la tête à faire des erreurs !"
Colin de la Higueraà franceinfo
Pour résumer, impossible de se prononcer dans l'absolu sur l'utilisation de l'IA pour réviser de manière générale. Tout dépend de l'IA choisie, du "prompt" qu'on lui soumet, des documents fournis, de la méthode… Et surtout de la réflexion menée par l'élève et de ce qu'il en retire. Mais les risques sont nombreux, et tester chaque méthode prend un temps considérable qui peut aussi être utilisé autrement. "Est-ce qu'un élève qui n'a pas envie de lire ses notes apprendra plus avec l'IA qu'en ne faisant rien du tout ? Probablement, même s'il y a des choses fausses dans le lot", lâche Ari Kouts. Mais on est loin du remède miracle. Et en cas de mauvaise note, impossible de blâmer ChatGPT.
À regarder
-
Une tornade près de Paris, comment c'est possible ?
-
La taxe Zucman exclue du prochain budget
-
Un ancien président en prison, une première
-
Normes : à quand la simplification ?
-
La Terre devient de plus en plus sombre
-
Cambriolage au Louvre : d'importantes failles de sécurité
-
Louis Aliot, vice-président du RN, et les "deux sortes de LR"
-
Nicolas Sarkozy incarcéré à la prison de la Santé
-
Décès d'une femme : les ratés du Samu ?
-
Louvre : cambriolages en série
-
Grues effondrées : tornade meurtrière dans le Val d'Oise
-
De nombreux sites paralysés à cause d'une panne d'Amazon
-
Hong Kong : un avion cargo quitte la piste
-
Quand Red Bull fait sa pub dans les amphis
-
Ces agriculteurs américains qui paient au prix fort la politique de Trump
-
ChatGPT, nouveau supermarché ?
-
Eléphants : des safaris de plus en plus risqués
-
Concours de vitesse : à 293 km/h sur le périphérique
-
Églises cambriolées : que deviennent les objets volés ?
-
Quel était le système de sécurité au Louvre ?
-
La Cour des comptes révèle les failles de sécurité du musée du Louvre
-
Cambriolage du Louvre : ces autres musées volés
-
Cambriolage au Louvre : l'émotion et la colère de Stéphane Bern
-
Famille royale : Andrew, le prince déchu
-
Promeneurs, joggeurs : la peur des chiens
-
Vol des bijoux au Louvre : sept minutes pour un casse spectaculaire
-
Au cœur de la traque des migrants
-
Mouvement "No Kings" aux États-Unis : sept millions d'Américains sont descendus dans les rues contre Donald Trump
-
Allocations familiales : vers un coup de rabot ?
-
Un braquage a eu lieu au Louvre dimanche matin à l'ouverture
Commentaires
Connectez-vous ou créez votre espace franceinfo pour commenter.
Déjà un compte ? Se connecter