L'IA et le sens critique : de la confiance aveugle à la vigilance éclairée
Intelligence humaine - l'IA pour les Ressources Humaines #14
Nous sommes Maxime Le Bras, Responsable du Recrutement d’Alan, et Charles Gorintin, Cofondateur et CTO d’Alan, pour vous donner de la tech et du RH. Ceci est une newsletter portant sur l’utilisation de l’Intelligence Artificielle (IA) par les spécialistes des ressources humaines. C’est promis, elle n’est pas générée par ChatGPT.
“Ce n'est pas parce qu'ils sont nombreux à avoir tort qu'ils ont raison.” — Coluche
Récemment, j'ai remarqué quelque chose d'intéressant. Un membre de l'équipe m'a envoyé une analyse générée par une IA.
Le document était impeccablement formaté, avec une structure claire et un style professionnel. Pourtant, en y regardant de plus près, certaines conclusions ne tenaient pas la route. Le plus frappant ? Personne n'avait remis en question ces conclusions, tant la présentation était convaincante.
Cette situation illustre un défi majeur de notre époque : l'IA est devenue si douée pour produire du contenu d'apparence professionnelle que nous risquons de désactiver notre sens critique.
C'est ce que j'appelle "l'illusion d'autorité" de l'IA - comme un magicien qui détourne notre attention avec des effets spectaculaires pendant que le véritable tour se joue ailleurs.
Le piège de la forme parfaite
L'IA excelle dans l'art de la présentation. Elle peut générer des documents structurés, des analyses qui semblent rigoureuses, des réponses qui paraissent exhaustives. Cette perfection formelle crée une illusion de compétence qui peut endormir notre vigilance. C'est d'autant plus dangereux que, contrairement aux erreurs humaines souvent évidentes (fautes d'orthographe, incohérences flagrantes), les erreurs de l'IA sont subtiles et bien camouflées sous une forme impeccable.
Les nouveaux muscles du sens critique
Face à cette réalité, nous devons développer de nouveaux réflexes critiques. Il ne s'agit plus seulement de repérer les incohérences évidentes, mais d'apprendre à:
Questionner systématiquement le raisonnement sous-jacent, pas seulement les conclusions
Identifier les sources et leur fiabilité, même quand l'IA les présente avec assurance
Repérer les indices typiques des hallucinations d'IA (assertions trop précises, données trop rondes, ou les “titres systématiquement capitalisés”)
Maintenir une trace claire de nos propres réflexions et de leur origine
Au-delà du vrai/faux
L'enjeu n'est pas de rejeter les productions de l’IA ni de les accepter aveuglément, mais de développer une "troisième voie" : celle du dialogue critique avec l'IA. Chez Alan, nous encourageons nos équipes à voir l'IA comme un "sparring partner" intellectuel - quelqu'un avec qui on peut débattre, qu'on peut challenger, et qui nous aide à affiner notre propre pensée.
Cette approche nécessite un changement culturel. Il faut créer un environnement où il est non seulement acceptable mais encouragé de questionner les productions de l'IA, même (et surtout) quand elles viennent de nos outils internes. C'est un muscle collectif à développer.
La responsabilité des leaders
En tant que leaders, nous avons une responsabilité particulière. Nous devons :
Montrer l'exemple en explicitant notre propre processus de questionnement
Valoriser ceux qui osent remettre en question les conclusions trop évidentes
Créer des espaces sûrs pour le débat et la contradiction
Investir dans la formation au sens critique adapté à l'ère de l'IA
Le paradoxe vertueux
Il y a quelque chose de paradoxal et de beau dans tout cela : plus nous utilisons l'IA, plus nous devons développer des compétences profondément humaines - le jugement, l'esprit critique, la capacité à débattre et à raisonner.
C'est peut-être ça, finalement, l'intelligence augmentée : non pas une délégation de notre pensée à la machine, mais un renforcement de notre capacité à penser par nous-mêmes, avec l'IA comme partenaire de réflexion.
La vraie victoire ne sera pas d'avoir des équipes qui savent utiliser l'IA, mais des équipes qui savent penser avec l'IA, tout en gardant leur indépendance intellectuelle.
Et c’est vrai pour la société toute entière.
Trois questions pour un expert

— Comment Alan combine-t-elle l'analyse de données par l'IA et l'expertise humaine dans ses prises de décision ?
Je vais peut-être prendre un peu de recul sur cette question, parce qu'avant même de parler d'IA, il y a des écueils fondamentaux dans l'utilisation des données qu'il est important de comprendre. Un principe fondamental chez Alan est d'être 'défensif' face aux données : en effet, il y a une seule façon d'avoir raison, mais un million de se tromper. Dans mes années d'expérience universitaire, je me suis vu surexcité tellement de fois par des résultats 'incroyables' qui s'avéraient être des bugs dans mon code. Ça m'a appris à rester humble face aux données.
Mais attention, cette prudence ne doit pas paralyser l'action. C'est une erreur d'attendre d'avoir toutes les données pour décider. Nous devons combiner données quantitatives, interviews qualitatives et expertise terrain. L'important est d'avoir une hypothèse claire avant de plonger dans les chiffres.
— Pouvez-vous partager un exemple concret où les recommandations de l'IA ont contredit l'intuition humaine ?
Notre expérience avec Mo, notre IA médicale, est révélatrice. Mo, est un assistant médical piloté par l'intelligence artificielle, déployé au sein de la Clinique digitale d'Alan. Lorsqu’un utilisateur a question, nous lui proposons soit de parler immédiatement à Mo, soit d'attendre un médecin humain : plus de 80% choisissent Mo.
Ce résultat nous a sincèrement surpris. Je crois que cette adoption s'explique simplement : nous avons pris le temps d'écouter nos utilisateurs et de construire un parcours qui répond à leurs besoins. En nous concentrant sur deux priorités - apporter une valeur immédiate et construire la confiance - nous avons constaté que les réticences initiales s'estompaient naturellement.
— Quelles compétences les managers doivent-ils développer pour utiliser efficacement l'IA ?
Il faut avant tout penser 'produit', même pour des outils internes. Chez Alan, que nous développions un outil pour nos équipes RH ou pour nos membres, l'approche est la même : partir des besoins réels et s'intégrer dans les habitudes existantes.
Je crois que les managers en général doivent cultiver un mélange d'esprit critique et d'ouverture. Il faut savoir questionner les résultats tout en restant réceptif aux possibilités. Mais surtout, il faut se débarrasser des fantasmes, qu'ils soient positifs ou négatifs.
La clé n'est pas de dire 'utilisons l'IA parce que c'est cool', mais de se demander 'comment pouvons-nous résoudre ce problème concret de manière plus efficace ?' La meilleure technologie est celle qu'on oublie au profit de la valeur qu'elle apporte.
Notre objectif n'est pas d'impressionner avec de l'IA, mais de résoudre des problèmes réels. Quand nos équipes ou nos membres utilisent nos outils, ils ne devraient même pas penser à la technologie sous-jacente. Ils devraient juste se dire 'Tiens, c'est plus simple maintenant'.
Dans le monde de l'IA ce mois-ci…
Ces derniers jours, nous avons trouvé intéressant :
COPY//ARTIFACT, un outil complètement gratuit pour créer des images d’une qualité excellente.
Cette technologie développée par des chercheurs de ByteDance capable d’animer des photos avec des expressions réalistes.
La vidéo de lancement d’o-3, le nouveau modèle d’OpenAI qui bat tous les benchmarks.
👋 Rendez-vous dans un mois,
— Charles & Maxime