Apprendre à apprendre
Intelligence humaine - l'IA pour les Ressources Humaines #28
Nous sommes Maxime Le Bras, Responsable du Recrutement d’Alan, et Charles Gorintin, Cofondateur et CTO d’Alan, pour vous donner de la tech et du RH. Ceci est une newsletter portant sur l’utilisation de l’Intelligence Artificielle (IA) par les spécialistes des ressources humaines. C’est promis, elle n’est pas générée par ChatGPT.
“Comprendre, c’est inventer.” — Jean Piaget, Six études de psychologie, 1964
Piaget a passé sa vie à observer comment les enfants apprennent. Sa conclusion : l’enfant n’est pas un récipient qu’on remplit comme le dit la maxime. Il construit activement sa compréhension du monde. Chaque concept, il doit le réinventer pour lui-même. L’enseignant peut guider, montrer, expliquer. Mais le travail de compréhension, personne ne peut le faire à la place de l’enfant.
Comprendre, c’est inventer.
Cette idée influence d’après moi fortement la façon dont on peut penser l’IA dans l’éducation.
Le paradoxe de l’IA
L’IA peut tout expliquer. Elle peut reformuler cent fois, adapter son niveau, donner des exemples infinis. Elle est patiente, disponible, personnalisée.
Mais expliquer ne suffit pas.
Si l’enfant reçoit la réponse sans avoir cherché, il n’a rien construit. Si l’IA fait le travail à sa place, l’enfant n’apprend pas. Il consomme.
Le risque n’est pas que l’IA soit mauvaise pédagogue. Le risque est qu’elle soit trop efficace. Qu’elle court-circuite l’effort. Qu’elle donne la solution avant que l’enfant ait eu le temps de buter, d’essayer, de se tromper.
Or c’est précisément dans cet effort que se construit la compréhension.
L’apprenant doit rester acteur
La question n’est pas : comment l’IA peut-elle mieux expliquer ?
La question est : comment l’IA peut-elle aider l’enfant à inventer lui-même ?
Un bon tuteur ne donne pas la réponse. Il pose la bonne question au bon moment. Il crée les conditions pour que l’élève trouve. Il dose le défi : assez difficile pour qu’il y ait effort, pas trop pour qu’il y ait découragement.
C’est exactement ce que l’IA peut faire à grande échelle.
Adapter le niveau de difficulté en temps réel. Détecter quand l’enfant est bloqué et lui donner un indice, pas la solution. Proposer un autre angle quand le premier ne fonctionne pas. Savoir quand laisser chercher et quand intervenir.
L’IA ouvre un environnement d’apprentissage, ce ne doit pas être un distributeur de réponses.
Pas forcément un écran
Quand on parle d’IA dans l’éducation, on imagine un enfant devant une tablette, seul face à un chatbot.
Cette image inquiète, peut-être à raison (les parents ne sont pas forcément mieux). Les parents s’alarment déjà du temps d’écran. Ce n’est pas clair que la réponse soit un tuteur IA sur la tablette.
Mais l’IA peut être invisible.
Invisible pour l’élève, présente pour l’enseignant. Une correction assistée qui prend une heure au lieu de quatre. Une analyse qui repère les erreurs récurrentes d’une classe. Une génération d’exercices adaptés au niveau de chacun.
L’enfant travaille sur papier. Il écrit, il dessine, il rature. L’enseignant photographie les copies, l’IA analyse. Elle identifie que Marie confond toujours “a” et “à”, que Lucas a compris le concept mais fait des erreurs de calcul, que la moitié de la classe bute sur le même problème.
L’enfant ne voit jamais l’IA. Il voit son enseignant qui lui rend sa copie le lendemain avec des commentaires précis. Il voit un exercice adapté à sa difficulté. Il voit quelqu’un qui comprend où il en est.
C’est ça, le vrai gain : la boucle raccourcie.
Un élève qui fait une erreur et ne le découvre que deux semaines plus tard a déjà ancré l’erreur. Le feedback tardif est un feedback affaibli. Mais quand l’enseignant peut corriger le soir même, l’élève ajuste le lendemain. L’erreur est corrigée avant de se fossiliser.
Plus la boucle est courte, plus l’enfant peut ajuster, réessayer, construire.
Et paradoxalement, l’IA peut permettre moins d’écran, pas plus. Si le prof gagne du temps sur la correction et la préparation, il peut faire plus d’oral en classe, plus d’interaction, plus de travail en groupe. Le temps gagné par la machine est réinvesti dans l’humain.
Le rôle de l’enseignant
L’IA peut créer les conditions. Mais l’enseignant reste celui qui donne le sens.
Pourquoi apprendre ça ? À quoi ça sert ? Est-ce que j’en suis capable ? L’IA peut répondre à ces questions. L’enseignant le fait mieux. Il voit la frustration, la fierté, le déclic. Il sait quand pousser et quand encourager. Il incarne la raison d’apprendre.
L’IA libère du temps. L’enseignant investit ce temps là où il fait la différence : inspirer, accompagner, donner confiance. L’enseignant peut aider à faire.
Le suivi que les parents attendent
Il y a une dimension dont on parle peu : le suivi.
Les parents veulent comprendre où en est leur enfant. Pas juste une note sur vingt, mais une vraie compréhension de ce qu’il maîtrise et de ce qui lui manque.
Aujourd’hui, ce suivi est fragmentaire. Un bulletin trimestriel. Quelques commentaires lapidaires. “Peut mieux faire.” “Ensemble satisfaisant.”
Ces formules ne disent rien. Elles ne permettent pas d’accompagner.
L’IA permet un suivi continu et précis. Tel enfant maîtrise les multiplications mais bute sur les fractions. Tel autre a compris le concept mais fait des erreurs d’inattention. Tel autre encore a besoin de plus d’exemples concrets avant de passer à l’abstraction.
Ce niveau de détail était impossible à produire manuellement. Il devient automatique.
Et cela ouvre la possibilité d’avoir une vraie collaboration entre le corps enseignant et les parents pour le bien de l’enfant.
Comment en parler aux enfants
Une question revient souvent : comment présenter l’IA aux enfants ?
On peut leur dire ceci : l’IA est un outil puissant. Elle peut t’aider à aller plus vite sur certaines choses. Mais elle ne peut pas comprendre à ta place. Elle ne peut pas avoir d’idées à ta place. Elle ne peut pas être curieux à ta place.
Comprendre, c’est inventer. Et inventer, c’est toi qui le fais.
Si tu demandes la réponse à l’IA, tu l’as. Mais tu n’as rien appris. Si tu utilises l’IA pour t’aider à chercher, à vérifier, à aller plus loin, alors tu construis quelque chose.
La différence entre consommer et apprendre, c’est l’effort que tu mets.
À nous de faire les bons choix
L’IA dans l’éducation peut être le meilleur ou le pire.
Le pire : des enfants qui reçoivent des réponses sans chercher, qui consomment du contenu sans construire, qui perdent le goût de l’effort parce que tout est facile.
Le meilleur : des enfants qui ont accès à un environnement adapté à leur rythme, qui reçoivent le bon défi au bon moment, qui restent acteurs de leur apprentissage avec un feedback immédiat.
La différence n’est pas dans la technologie. Elle est dans la façon dont on l’utilise.
Piaget nous l’a appris il y a soixante ans : on n’apprend pas en recevant, on apprend en construisant.
L’IA peut créer les meilleures conditions pour cette construction.
Mais c’est l’enfant qui construit.
Trois questions pour un expert
— Pouvez-vous vous présenter brièvement, ainsi que Korabench.ai ?
Je suis Mathilde Collin. J’ai cofondé Front en 2013 et en ai été la CEO jusqu’en 2024.
En 2025, j’ai cofondé KORA, une association à but non lucratif. KORA c’est le premier benchmark dédié à l’évaluation de la sureté des modèles d’intelligence artificielle pour les enfants.
Nous définissons une typologie précise des risques, puis nous évaluons les modèles pour permettre aux parents, aux développeurs, aux décideurs publics et aux autres parties prenantes de voir, de manière transparente, comment un modèle se comporte face à chaque catégorie de risque.
L’objectif c’est de tirer l’ensemble des modèles vers le haut et de contribuer à l’émergence d’IA toujours plus sûres pour les enfants et les adolescents.
— Comment l’IA transforme-t-elle fondamentalement la façon dont on apprend ? Qu’est-ce qui change au-delà d’“aller plus vite” ?
L’un des enseignements majeurs de KORA est que les modèles d’IA échouent massivement sur ce que nous appelons l’« intégrité éducative et de la connaissance » (ils échouent dans plus de 70 % des cas).
On pourrait penser que la solution consiste à améliorer les modèles (par exemple en limitant les réponses « clés en main »). Mais ma conviction c’est qu’il faut adapter les méthodes d’enseignement aux outils, et pas l’inverse.
Il faut accepter que les élèves auront presque toujours accès à l’IA (hors conditions d’examen très spécifiques). Ils auront donc accès à une forme de « professeur » qui, malgré ses erreurs possibles, est souvent plus informé et plus expert que la plupart des enseignants. Dans ce contexte, le rôle de l’enseignant doit s’adapter.
La question devient alors : que peut offrir l’enseignant que la machine ne peut pas ? Une relation de confiance avec l’élève, une source de motivation et de récompense, une ouverture proactive sur de nouveaux horizons, s’éloigner du cours magistral (ou plutôt le déléguer à la machine) pour accompagner l’étudiant sur des projets / travaux pratiques.
Les enseignants pourront davantage se consacrer à « former des esprits » qu’à « transmettre des contenus », ce qui est une super opportunité.
— Dans un monde où ChatGPT peut résoudre la plupart des exercices, comment évaluer si quelqu’un a réellement appris ? Que reste-t-il à tester ?
De manière pratique, je suis pour l’evaluation sans ordinateur. Certaines universités (Sciences Po je crois) font déjà ça. On pourrait aussi généraliser les entretiens oraux, éventuellement conduits par une IA, avec une “relecture” par un enseignant.
Si on prend du recul, je pense aussi qu’il faut apprendre à évaluer les compétences que l’IA peut fragiliser : l’esprit critique, le pouvoir d’agir (la capacité à se fixer ses propres objectifs, à les réaliser et à évaluer ce que l’on a accompli), la mémorisation.
Dans le monde de l’IA ce mois-ci…
Ces derniers jours, nous avons trouvé intéressant :
[🇬🇧] Cet article sur un logiciel développé sans une seule ligne de code venant d’un ingénieur.
[🇫🇷] Cette note du Conseil de l’IA et du Numérique sur les agents IA.
[🇫🇷] L’impact de Claude dans vos présentations / tableurs.
👋 Rendez-vous dans un mois,
— Charles & Maxime





Excellente posture philosophique. Et la philosophie est essentielle à la société.
Excellent article qui résonne forcément pour un passionné et praticien de l'apprentissage et du développement des talents.
Les travaux de Piaget restent un socle de référence et de manière intéressante... tout ce qui est décrit est aussi transposable en "andragogie" et formation des "adultes" et professionnels: à la fois les mécanismes et le rapport à l'IA, en adaptant
- les leviers de motivation - intrinsèques/extrinsèques
- et la perception de valeur de "l'effort d'apprentissage": "what"s in it for me"?