L'IA, alliée pour l'égalité et la diversité
Intelligence humaine - l'IA pour les Ressources Humaines #16
Nous sommes Maxime Le Bras, Responsable du Recrutement d’Alan, et Charles Gorintin, Cofondateur et CTO d’Alan, pour vous donner de la tech et du RH. Ceci est une newsletter portant sur l’utilisation de l’Intelligence Artificielle (IA) par les spécialistes des ressources humaines. C’est promis, elle n’est pas générée par ChatGPT.
"La technologie n'est ni bonne ni mauvaise, ni même neutre." - Première loi de Kranzberg.
L’historien des technologies nous rappelle que toute technologie porte en elle des conséquences qui dépassent les intentions de ses créateurs. L'IA n'échappe pas à cette règle - elle n'est pas un simple outil neutre, mais une force qui interagit avec nos contextes sociaux, économiques et culturels de façon complexe. C’est à nous d’en faire ce que nous souhaitons.
Par son entraînement probabiliste sur les écrits ou images humaines disponibles, l'intelligence artificielle est un miroir de nos sociétés.
Certains en déduisent une critique évidente de l’IA, accusée de refléter ou d’amplifier les biais de sociétés imparfaites.
Si nous changions de perspective ? Et si l'IA était en réalité un puissant levier pour l'égalité et la diversité ?
Au-delà des débats stériles sur les biais initiaux
Les discussions sur les biais algorithmiques se focalisent souvent sur la "première réponse" donnée par l'IA : si vous demandez une image de PDG, est-ce que ce sera un homme blanc ? Ces “preuves” faciles sur les réseaux sociaux ne valent rien (elles sont en plus aisément falsifiables). Ces débats passent à côté de l'essentiel.
La vraie révolution de l'IA générative ne réside pas dans sa capacité à reproduire fidèlement la distribution statistique de nos sociétés, mais dans sa capacité à créer ce que nous lui demandons. L'important n'est pas tant le biais immédiat, mais la possibilité de construire les représentations que l'on souhaite.
La liberté de création plutôt que la correction des biais
Contrairement aux médias traditionnels où la production de contenu diversifié est coûteuse et limitée, l'IA générative rend cette diversité accessible à tous, sans coût supplémentaire. Il ne coûte rien de demander une image avec une personne d'une origine, d'un genre ou d'une apparence spécifique.
L'essentiel est que la base d'entraînement soit suffisamment riche et diverse pour rendre ces créations possibles - et c'est le cas. Cette technologie nous offre une liberté sans précédent pour représenter le monde tel que nous voulons le voir, et non pas seulement tel qu'il est.
Les pièges de la surcompensation
Les tentatives bien intentionnées de corriger les biais peuvent parfois mener à des surcompensations contre productives. On se souvient de feu « Google Bard » (maintenant Gemini) qui, par souci d'inclusion, présentait un roi d'Angleterre sur quatre comme étant d'une minorité ethnique — une représentation tellement anhistorique que c’en était devenu risible.
Ces approches, bien que partant d'une bonne intention, manquent leur cible. Tout "biais" est inévitablement politique. Le “biais naturel” est sans doute le choix le moins politique.
L'objectif ne doit donc pas être d'éliminer tout biais, mais de permettre à chacun de créer selon ses besoins et ses valeurs.
L'inclusion comme possibilité, pas comme obligation
L'inclusion véritable ne consiste pas à forcer la présence de tous en permanence. On risquerait d'être serrés dans la boîte à sardines, pour paraphraser Patrick Sébastien.
L’inclusion, c’est de s'assurer que chacun puisse avoir accès aux outils et représentations qui répondent à ses besoins spécifiques.
L'IA nous permet de personnaliser l'expérience à une échelle sans précédent, offrant ainsi des solutions adaptées à la diversité des profils (voir l’exemple d’Olivier Goy en fin de billet). Elle ne nous impose pas une vision unique de la diversité, mais nous donne la liberté de créer nos propres représentations.
L'adoption comme enjeu central d'inclusion
Le véritable enjeu d'inclusion aujourd'hui n'est pas tant dans la première réponse de l'IA, mais dans l'accès et l'adoption de ces technologies. Ceux qui resteront en marge de cette révolution technologique risquent d'être les véritables exclus de demain (j’en parlais déjà ici).
L'IA permet à chacun de créer et d'innover, indépendamment de sa formation initiale ou de son poste. C'est une véritable démocratisation des compétences et des opportunités. C'est précisément pour cette raison qu'il est essentiel d'adopter un regard optimiste de se rendre compte du potentiel humaniste de ces technologies.
Au lieu de céder aux peurs irrationnelles ou aux critiques stériles, nous pouvons réaliser le potentiel émancipateur de l'IA et travailler à en faire un outil accessible à tous. Cette technologie peut niveler le terrain des opportunités, mais seulement si nous facilitons son adoption large et équitable.
Vers une IA d'émancipation
Pour que l'IA soit véritablement une alliée de l'égalité et de la diversité, nous devons donc :
Garantir un accès large et équitable à ces technologies
Former chacun à exploiter pleinement son potentiel créatif et à se simplifier la vie
Encourager la diversité des usages plutôt que d'imposer une vision unique de la "correction"
Maintenir des bases d'entraînement ouvertes, riches et diverses pour permettre toutes les représentations
L'IA n'est pas parfaite, mais elle offre une opportunité unique de construire un monde où chacun peut se représenter et être représenté comme il le souhaite.
À nous de saisir cette opportunité et de façonner non pas l'IA elle-même, mais ses usages, selon nos valeurs d'égalité et de diversité.
Et pour revenir à Kranzberg, sa sixième loi est particulièrement pertinente : "La technologie est une activité profondément humaine". L'IA n'existe pas en dehors des contextes humains qui la créent et l'utilisent - c'est donc sur ces contextes que nous devons agir.
Trois questions pour un experte

Pouvez-vous vous présenter brièvement ainsi que "France Positive" ?
Je m’appelle Julie Martinez, j’ai 31 ans et je suis DPO au sein d’une entreprise tech américaine. En parallèle de cette activité, je suis directrice générale de France Positive, un think tank transpartisan qui rassemble des experts issus de la société civile, des hauts fonctionnaires et des acteurs engagés pour penser et construire les réformes nécessaires à la réussite du pays.
France Positive, c’est à la fois un laboratoire d’idées et un mouvement de terrain. Pour nourrir nos travaux, nous auditionnons des acteurs clefs, français et étrangers et nous organisons des conférences à travers la France, au plus près des citoyens.
Nous publions également des essais thématiques dans la collection France Positive chez Flammarion. Notre ambition ? Faire émerger des idées nouvelles et fédératrices, capables de répondre aux défis de notre époque avec pragmatisme et ambition, pour nourrir le débat public.
Dans le monde du travail, quels sont pour vous les principaux dangers de l’IA?
L’intelligence artificielle est en train de bouleverser nos façons de travailler, et pourtant, le principal danger qu’elle pose n’est pas technologique, mais humain. Une IA incomprise par l’humain est une IA mal utilisée – soit parce qu’on la rejette par peur ou méconnaissance, soit parce qu’on l’adopte sans en saisir les limites et les risques.
Dans les deux cas, l’impact est majeur au travail : pour les employés, qui peuvent se retrouver marginalisés, et pour les entreprises, qui risquent des erreurs coûteuses. Heureusement, il est possible d’accompagner cette transition, à condition d’adresser ces deux écueils dès maintenant.
— “Bof, je ne vois pas vraiment à quoi ça sert”
Dans le monde du travail, l’IA est encore trop souvent perçue comme un gadget ou une menace. J’en ai fait l’expérience lors d’un micro-trottoir réalisé à Paris avant le Sommet sur l’IA : à la question “Utilisez-vous l’IA générative au travail ?”, la réponse la plus fréquente était “Bof, ça sert à quoi ?”. Ce désintérêt peut sembler anodin, mais il traduit une réalité inquiétante : de nombreux salariés ne perçoivent pas l’intérêt pratique de ces outils pour leur quotidien professionnel. Ce rejet peut évidemment s’expliquer de plusieurs manières.
Certains redoutent que l’IA les remplace et, par réflexe de protection, refusent de l’adopter.
D’autres ne voient tout simplement pas en quoi elle pourrait leur être utile, faute de formation ou d’exemples concrets d’application.
Pourtant on le sait, ceux qui maîtrisent ces outils gagnent en efficacité et peuvent profiter de ce temps pour être plus compétitifs sur le reste. L’enjeu n’est donc pas simplement d’introduire l’IA dans l’entreprise, mais de donner envie aux salariés de s’en saisir, de les accompagner dans des divers cas d’usage. Installer Le Chat en interne ne suffira pas si personne n’a envie, ni ne sait, comment l’utiliser de manière pertinente. C’est en instaurant une culture de la curiosité que l’on permettra aux employés de comprendre ce que l’IA peut faire pour eux, et non contre eux.
— “L’IA, c’est top, ça va me faire gagner un temps fou pour tout !”
Plus important encore, l’excès inverse existe aussi : celui de l’adoption trop rapide, trop naïve. Là encore, lors de mon micro-trottoir, une RH m’indiquait l’utiliser pour prioriser les CV reçus en fonction de critères pré-déterminés par elle (ce sur quoi elle insistait avec gravité), selon le profil recherché. A la question de savoir quelles étaient les modalités de classement et surtout quelles étaient les garanties qui lui avaient été données contre les biais, la réponse donnée a été plus vague : « des garanties classiques de fournisseurs, je crois, ça a été validé en interne donc ça doit être bon ».
L’IA est puissante, mais elle n’est pas infaillible. Nourrie par des données du passé, l’IA peut évidemment hériter de rapports de domination trop longtemps établis. C’est simple, elle apprend à partir des données qu’on lui donne et, si ces données sont biaisées ou ne sont pas assez diversifiées par rapport aux finalités posées, elle reproduit ces biais. Des algorithmes de recrutement mal calibrés ont déjà été pointés du doigt pour avoir favorisé certains profils au détriment d’autres (on pense aux Etats-Unis à l’objet de la plainte dans l’affaire Mobley vs. Workday, Inc.), sans que personne dans l’entreprise ne s’en soit rendu compte initialement. Or, une décision erronée prise par une IA ne disparaît pas d’un simple clic : elle peut avoir des conséquences lourdes, juridiques et humaines. La question de la représentativité et de la diversité dans la conception des modèles et leur entraînement est toute aussi importante que la question de leur utilisation. Il ne faudrait pas reproduire par l’IA les biais que l’on essaie d’éviter depuis des années dejà.
L’enjeu est donc double : donner envie d’expérimenter l’IA, pour ne pas être laissé sur le carreau face aux mutations du marché tout en encadrant son usage, pour éviter les erreurs, les biais et les risques liés aux données utilisées.
Pour les professionnels des ressources humaines, quelle posture adopter dans ce contexte ?
Comme toute technologie puissante, l’IA n’a de valeur que si elle est comprise et maîtrisée. Pour les professionnels des ressources humaines, la posture à adopter ne doit être ni celle de l’enthousiasme naïf, ni celle du rejet frileux. La curiosité et l’éthique doivent les guider. En pratique, je crois que l’IA ne doit pas être une boîte noire laissée aux mains des seuls fournisseurs de solutions RH.
Pour cela, il est crucial que les équipes RH comprennent les mécanismes sous-jacents des outils qu’elles utilisent, les jeux de données qui les nourrissent et les risques qu’ils
comportent. Cela implique de pouvoir les accompagner par un dialogue constant avec les équipes techniques et juridiques visant à s’assurer que les algorithmes utilisés ne reproduisent pas des biais discriminants et respectent la protection des données personnelles. Un professionnel RH qui ne comprend pas comment fonctionne un algorithme de tri de CV risque de se fier aveuglément à ses résultats, au détriment des principes d’équité et de diversité requis dans son quotidien.
Je crois que les professionnels des ressources humaines doivent cultiver une approche expérimentale et critique, en testant régulièrement les outils avant leur déploiement à grande échelle et en remettant régulièrement en question leurs résultats : plutôt que d’adopter directement un logiciel de tri de candidatures basé sur l’IA, pourquoi ne pas comparer ses recommandations avec une sélection humaine ? Si les écarts sont significatifs, il faut investiguer et ajuster de manière assez régulière.
Dans le monde de l'IA ce mois-ci…
Ces derniers jours, nous avons trouvé intéressant :
La formidable histoire d’Olivier Goy, atteint de la maladie de Charcot.
Ce post sur l’inflation du mot “Agent IA” dans les outils de recrutement.
OpenAI introduit Deep Research, concurrent de NotebookLM (Google).
👋 Rendez-vous dans un mois,
— Charles & Maxime