ChatGPT rend-il bête ? Une étude du MIT Media Lab

Une étude conduite par des chercheurs associés au MIT Media Lab évalue pour la première fois l’impact de ChatGPT sur nos capacités d’apprentissage, pour le pire et le meilleur. Non, ChatGPT ne rend pas bête, mais il peut nous aider à le rester !

Le 29 juillet 2025, OpenAI a annoncé que ChatGPT va désormais proposer un mode « Étudier et apprendre », ou « Study Mode » en anglais, qui permettra à ses utilisateurs étudiants ou élèves de faire leur devoir avec une assistance étape par étape, plutôt que de disposer immédiatement d’une réponse toute faite et définitive. Ce mode « Étudier et apprendre » favorise donc, selon OpenAI, « une pédagogie active » imaginée en collaboration avec des neuroscientifiques. Cette annonce est peut-être une réponse aux risques d’abêtissement liés à l’usage intensif de l’intelligence artificielle générative dans la période d’apprentissage, ou plus simplement une réponse à la concurrence, puisque Google fournit déjà une application de Gemini dédiée à l’aide aux devoirs, « LearnLM ».

Reste que le recours aux agents conversationnels intelligents pour l’aide aux devoirs suscite des interrogations dans la communauté éducative. Si les productions écrites des élèves et des étudiants sont nettement meilleures en termes de syntaxe, de qualité d’expression, de structuration du propos, la question se pose souvent pour le correcteur : l’étudiant a-t-il véritablement compris ce que dit l’écrit qu’il m’a rendu ? Puis-je inférer de ce que je lis que l’étudiant est capable, véritablement, de reproduire une telle performance ? Et de quelle performance parle-t-on ? De la capacité technique de l’étudiant à utiliser intelligemment l’IAg pour présenter des textes solides et cohérents, quand bien même il serait incapable de les produire seul ? Ou de la capacité, justement, à les produire seul, à maîtriser l’expression, la structure du propos, les inférences logiques, etc. ?

À l’évidence, il n’est pas toujours nécessaire de maîtriser soi-même, seul, ce que l’on peut maîtriser avec l’aide de l’IAg. Une note de synthèse est intéressante pour celui à qui elle est adressée, mais ce n’est pas un problème si la personne qui l’a produite n’en maîtrise pas tous les tenants et aboutissants. Son travail assisté par l’IAg aura été utile. Le problème apparaît seulement si cette personne est amenée, par la suite, à devoir juger elle-même de la pertinence et de l’intérêt des notes de synthèse qu’elle a produites ou de celles d’autres salariés. C’est cette prise de responsabilité qui suppose un vrai « plus » par rapport à la seule utilisation efficace de l’outil IAg, qui doit être complétée dans ce cas d’une capacité de compréhension ou d’analyse, des compétences que l’annonce d’OpenAI semble favoriser. Sans elles, ChatGPT rendrait-il bête, c’est-à-dire transformerait-il ses utilisateurs en agents efficaces pour autrui, mais inconscients de leur propre efficacité, car incapables d’évaluer la pertinence des contenus qu’ils produisent avec l’IAg ?

Ces questionnements guide une étude très médiatisée – « Votre cerveau sur ChatGPT » – rendue publique en preprint le 10 juin 2025 et dirigée par huit chercheurs, le plus souvent issus du MIT Media Lab, et dont l’auteur de contact est la Française Nataliya Kosmyna. Cette étude a fait l’objet de très nombreux commentaires, souvent pour souligner que l’IAg risque de nous rendre plus bêtes qu’auparavant, notamment parce qu’elle entraverait le développement de nos capacités cognitives. Ce n’est pas tout à fait ce que dit l’étude, et c’est surtout une généralisation qui se méprend sur la nature de la recherche scientifique. Cette étude est un « cas », une expérimentation de taille limitée, qui ouvre des pistes de recherche plus qu’elle ne clôt un débat sur les risques ou non des IAg dans l’éducation. Ses premières conclusions devront donc être testées dans d’autres configurations, sur des périmètres plus larges, et être globalement évaluées par la communauté scientifique quand elle pourra s’appuyer sur un ensemble suffisamment large d’études de ce type. En attendant, toutes les assertions catégoriques sur les premiers résultats obtenus ou les critiques sur la taille trop restreinte de l’échantillon sont déplacées, car étrangères aux logiques qui sont celles de la recherche scientifique. En effet, cet aspect-là a été évidemment souligné par les auteurs, qui espèrent très probablement de nouvelles initiatives reposant sur leur approche plutôt qu’un monopole sur le sujet qui serait le signe d’un désintérêt de la communauté scientifique pour leur travail.

L’étude repose sur trois expériences. Concrètement, cinquante-quatre étudiants ont été recrutés, issus des universités de Boston et de sa région, dont six post-doctorants. Les étudiants ont été répartis en trois groupes auxquels il a été demandé, lors de trois sessions organisées sur une période de quatre mois, de produire un essai identique à celui demandé pour les examens d’entrée à l’université. Le premier groupe, baptisé « LLM group », devait utiliser ChatGPT 4.0 de manière exclusive. Le deuxième, baptisé « Search engine group », pouvait utiliser tous les sites web qu’il souhaitait pour s’informer, en passant notamment par les moteurs de recherche pour trouver les sites les plus utiles. Le troisième groupe, enfin, est le « Brain-only group », celui où les étudiants n’ont pas accès à internet ni à une IAg et doivent utiliser uniquement leur cerveau. À chaque fois, leur activité cérébrale a été enregistrée afin d’identifier les zones du cerveau sollicitées et celles qui ne le sont pas. Leurs écrits ont été ensuite évalués par des enseignants et une IAg, et les étudiants ont dû répondre à un questionnaire sur leur travail et sur ce qu’il leur a apporté, donc sur l’« effet » perçu du dispositif.

Il s’agit donc bien de trois expériences distinctes qui laissent voir quelles zones du cerveau sont activées quand on travaille sans assistance, avec le web ou avec une IAg. Dans la « vraie vie », chacun expérimente régulièrement l’une de ces trois situations : si un dispositif limite le développement de certaines capacités et en renforce d’autres, il est certain que toutes les capacités peuvent être développées si les situations d’apprentissage varient suffisamment pour se retrouver à tour de rôle dans ces trois configurations. L’étude permet donc de statuer sur les zones du cerveau sollicitées selon les situations, mais elle ne permet pas, sur la base d’une comparaison, de statuer sur le « meilleur » des dispositifs d’un point de vue éducatif puisque aucun étudiant ne sera jamais 100 % Brain-only ou LLM-only ou Search engine-only.

Quels enseignements tirer de ces trois expériences ? Selon la situation, ce ne sont pas les mêmes compétences qui sont mobilisées ; le cerveau n’est pas sollicité de la même manière. Pour le groupe LLM, le mode cognitif « automatisé et structuré » (p. 136) l’emporte. Autrement dit, avec ChatGPT, le cerveau se concentre sur l’utilisation efficace de l’outil et ne cherche pas à comprendre le sens du texte produit ni à le mémoriser. Pour le groupe Search engine, le cerveau va activer fortement les activités de recherche visuelle d’information (le cortex visuel) et de hiérarchisation des contenus. Il est donc attentif au sens des informations rassemblées pour pouvoir, ensuite, produire un contenu synthétique original, mais après une phase de repérage visuel (identifier les sources d’information dans les listes de liens hypertextes, évaluer leur utilité, en proposer une synthèse, ce qui suppose de solliciter sa mémoire). Ici, la maîtrise procédurale de l’outil a moins besoin d’être développée. Enfin, le groupe sans écran, qui utilise son seul cerveau, va activer des capacités sémantiques et de création d’idées qui révèlent un engagement cognitif profond. L’étude nous dit donc que les configurations différentes conduisent à une mobilisation différenciée des capacités cognitives. Elle peut sembler établir un classement, mais qui ne doit pas être compris comme tel. D’ailleurs, tous les essais obtiennent de bonnes notes, avec des stratégies différentes parce que l’aide apportée par l’outil change la donne.

La variable « outil » est donc discriminante, si l’on évalue non pas la qualité des devoirs produits, mais le degré d’activation des fonctions cérébrales. Selon les configurations, l’activité cérébrale sera, en effet, plus ou moins élevée, le nombre de connexions neuronales plus ou moins important. L’activité est la plus élevée quand aucun outil n’est disponible (groupe Brain-only) ; elle baisse, entre 34 et 48 %, pour les utilisateurs des moteurs de recherche et de 55 % pour le groupe ayant accès à ChatGPT 4.0. Ces résultats indiquent donc que les configurations d’apprentissage font fortement varier l’engagement cérébral et les compétences développées par notre cerveau. Elles pourraient donc avoir des effets négatifs, par exemple la sous-utilisation des capacités de notre cerveau, si et seulement si un mode d’apprentissage est ultra-favorisé chez les étudiants, par exemple si les étudiants décident de ne plus se passer de Google ou de ChatGPT pour réaliser leurs devoirs. Ils vont, dans ce cas, surdévelopper leurs capacités d’analyse visuelle et de contrôle procédural et sous-développer leurs capacités sémantiques et créatives.

Ce risque a été mis en considération dans l’étude grâce à une quatrième expérience réunissant dix-huit participants issus des groupes Brain-only et groupe LLM (avec ChatGPT). L’exercice était toujours le même, mais les rôles ont été inversés. Les résultats permettent ici une comparaison. Les étudiants qui ont, dans un premier temps, utilisé ChatGPT ont eu plus de mal à rédiger leur essai en autonomie, parce qu’ils peinent à activer pleinement leurs capacités cérébrales. À l’inverse, le groupe Brain-only va profiter de ChatGPT pour sursolliciter son activité cérébrale et enrichir ainsi le texte produit. Cette quatrième expérience souligne donc deux choses. L’utilisation d’une technique est toujours ambivalente, elle conduit au pire comme au meilleur. ChatGPT, quand il est utilisé par défaut, limite le développement des capacités cognitives profondes, notamment la mémoire : le questionnaire a ainsi révélé, lors des trois premières expériences, que les étudiants ayant recours à ChatGPT sont ceux qui se souviennent le moins du texte qu’ils ont rendu. Ils peinent donc ensuite à produire un essai en mobilisant des savoirs acquis et mémorisés. Les auteurs parlent ici de « dette cognitive », un processus qui conduit à transférer à l’IA le soin de stocker l’information et de la reproduire, au point de « remplacer les processus cognitifs exigeants nécessaires à la réflexion indépendante » (p. 150). Les bénéfices à court terme du recours à l’IA se payent donc par des coûts à long terme pour les étudiants qui feraient ce choix-là. À l’inverse, une fois les capacités cognitives développées, le recours à ChatGPT est un accélérateur d’activité cérébrale pour les étudiants du groupe Brain-only. L’IAg n’est donc pas nécessairement une malédiction dans le domaine éducatif… Au moins pourrait-elle ne pas l’être, puisque ces conclusions reposent sur un panel extrêmement réduit de dix-huit étudiants.

En synthèse, l’étude nous apprend que ChatGPT ne nous rend pas bête mais qu’elle peut nous conduire à le rester si, dans le processus d’apprentissage, aucun moment n’est consacré au développement des capacités cérébrales qui nous permettent de penser de manière autonome, donc aussi critique.

Sources :

  • Wiggers Kyle, « LearnLM is Google’s new family of AI models for education », techcrunch.com, May 14,  2024.
  • Kosmyna Natalya, Hauptmann Eugene, Yuan Ye Tong, Situ Jessica, Liao Xian-Hao, Beresnitzky Ashly Vivian, Braunstein Iris, Maes Pattie « Your Brain on ChatGPT: Accumulation of cognitive debt when using an AI assistant for essay writing task », arXiv: 2506.08872, June 10, 2025.
  • Le Grand Continent, « ChatGPT est-il en train de casser le cerveau humain ? 5 points sur le preprint du MIT sur les effets de l’IA », legrandcontinent.eu, 19 juin 2025.
  • Boone Joséphine, « Des chercheurs alertent sur l’impact de ChatGPT sur notre cerveau », Les Échos, 24 juin 2025.
  • Doré Elsa, « ChatGPT nous rendra-t-il tous idiots ? », Le Figaro, 26 juin 2025.
  • Belot Laure, « L’utilisation de ChatGPT aurait des conséquences sur le fonctionnement cérébral, elon une étude du MIT », lemonde.fr, 1er juillet 2025.
  • Lawler Daniel, « «Écrire, c’est penser» : les étudiants apprennent-ils moins bien avec ChatGPT ? », AFP, Le Devoir, 2 juillet 2025.
  • Benbouzid Bilel, « IA génératives et éducation », aoc.media, 16 juillet 2025.
  • Gable Pauline, « Face aux critiques, OpenAI transforme ChatGPT en professeur particulier », Le Figaro, 30 juillet 2025.
  • Alcaraz Marina, « ChatGPT veut aider les élèves à faire leurs devoirs sans les bâcler », Les Échos, 30 juillet 2025.