CE26 - Innovation, travail 2020

Comprendre et faciliter la confiance dans les vérités scientifiques: approche expérimentale – TrustSciTruths

Comprendre et faciliter la confiance dans les vérités scientifiques: approche expérimentale

Nous menons des expériences contrôlées pour identifier les déterminants de la confiance accordée aux experts et processus scientifiques. Un 1er axe de recherche s'intéresse à l'efficacité et à la perception des algorithmes utilisés pour recruter des travailleurs . Un 2ème axe étudie l'impact du genre et du statut d'expert d'un conseiller sur le suivi de recommandation. Un 3ème axe regarde si le fait que la conclusion d'un raisonnement soit plaisante affecte la capacité à raisonner.

Comprendre et renforcer la confiance dans les vérités scientifiques : Aversion aux algorithmes, perception des experts et raisonnement motivé

Les avancées récentes en intelligence artificielle et en machine learning ont transformé de nombreux domaines, y compris ceux impliquant des décisions humaines complexes. Alors que l’automatisation affectait principalement les emplois routiniers, l’IA a désormais un impact sur les professions hautement qualifiées, dépassant parfois l’humain dans des tâches comme le diagnostic médical, les décisions judiciaires ou encore le recrutement. Dans les domaines où le public ne dispose pas des connaissances nécessaires pour prendre des décisions éclairées, la confiance dans les experts est cruciale. La confiance dans les scientifiques est corrélée avec le respect du climat, et avec le respect des mesures Covid-19. La confiance dans les vérités scientifiques dépend aussi de la capacité à analyser les informations disponibles, ce qui façonne notamment l'interprétation des liens de causalité entre elles. Ce projet de recherche explore la confiance dans les vérités scientifiques en s’appuyant sur l’économie expérimentale et des expériences en ligne et de terrain. Il se structure autour de trois axes principaux : L’efficacité et l’aversion pour les algorithmes Nous analysons la méfiance du public envers les décisions algorithmiques dans le recrutement. Une première étude examine les facteurs influençant la préférence ou l’aversion pour l’embauche algorithmique, notamment la transparence et l’utilisation de certaines variables comme le genre. Une seconde étude en collaboration avec une entreprise de microfinance compare l’efficacité du recrutement algorithmique et managérial, en utilisant des mesures comportementales et psychologiques pour prédire la productivité des employés. La confiance dans les experts La confiance du public dans les experts joue un rôle clé dans l’adhésion aux recommandations scientifiques, notamment en matière de climat ou de santé publique. Cependant, les experts médiatisés sont majoritairement des hommes, ce qui peut affecter la perception de leur crédibilité. Une expérience menée dans ce projet vise à identifier si la confiance dans un conseiller varie selon son genre et son statut d’expert. Le raisonnement motivé et l’acceptation des vérités scientifiques La confiance dans les vérités scientifiques repose également sur la capacité à raisonner à partir des informations disponibles, influençant notamment la manière dont ces informations sont interprétées et reliées sur le plan causal. Nous étudions si la capacité de raisonnement des individus est influencée par la désirabilité de la conclusion. En collaboration avec Jérémy Celse, une expérience teste si les participants raisonnent différemment lorsque la conclusion d’un raisonnement est agréable ou non. L’objectif global de ce projet est d’améliorer la compréhension des déterminants de la confiance dans la science et d’identifier des leviers pour la renforcer, dans des contextes où les décisions scientifiques ont des implications sociétales majeures.

Pour comprendre la confiance dans la science et les processus scientifiques, il ne suffit pas d’observer ce qui se passe dans la société. Il faut des expériences contrôlées qui permettent de distinguer clairement les causes des effets. L'économie expérimentale est une méthode qui nous aide à tester ces questions dans un cadre structuré, en éliminant les biais qui pourraient fausser les résultats. Grâce à des expériences en laboratoire ou en ligne, nous pouvons notamment mesurer les croyances des participants et mieux comprendre comment ils perçoivent la fiabilité des informations scientifiques.

 

Notre projet s'organise en trois axes :

 

La confiance dans les algorithmes de recrutement

Nous cherchons à comprendre pourquoi certaines personnes se méfient des algorithmes lorsqu'ils sont utilisés pour recruter des employés. Une première expérience en ligne met en situation des participants jouant le rôle de travailleurs et de recruteurs. Nous analysons leur préférence pour que les décisions de recrutement soient prises par un algorithme ou par des participants dans le rôle de managers. Nous testons également l'impact de la transparence sur l’algorithme, des critères qu’il utilise pour sélectionner des candidats et pour les managers, d'une information sur la qualité de leurs décisions de recrutement.

Une deuxième expérience est menée en collaboration avec une entreprise de microfinance. Nous comparons l’efficacité d’un recrutement effectué par une intelligence artificielle utilisant des données comportementales sur les candidates à un recrutement réalisé par des managers. Les candidats sont répartis au hasard entre deux groupes : l’un où l’IA prend la décision finale, l’autre où ce sont les recruteurs humains.

 

La perception des experts selon leur genre

Les experts jouent un rôle clé dans la transmission des connaissances scientifiques, mais les femmes sont bien moins présentes dans les médias que les hommes. Nous nous demandons si cette différence est liée à une moindre confiance du public envers les recommandations émises par des femmes. Pour le vérifier, nous menons une expérience où nous contrôlons strictement la manière dont une recommandation est exprimée. Cela nous permet d’isoler l’effet du genre et du statut d’expert sur la confiance accordée à la recommandation.

 

Le raisonnement motivé

Enfin, nous explorons si les individus raisonnent différemment selon que la conclusion d’un raisonnement leur est favorable ou non. Nous utilisons un problème logique inspiré des "Dirty Faces" (Weber, 2001), où les participants doivent déduire une information sur eux-mêmes. En variant les conditions expérimentales, nous testons si leur capacité à raisonner change en fonction de la conclusion à laquelle ils doivent parvenir.

 

Grâce à ces expériences, notre projet vise à mieux comprendre pourquoi certaines décisions scientifiques sont acceptées ou rejetées et comment renforcer la confiance du public dans la science et les technologies.

Les données collectées pour le premier projet montrent que la perception des algorithmes de recrutement varie selon les critères qu’ils utilisent. Lorsque les travailleurs doivent choisir entre un algorithme et un manager pour décider de leur embauche, leur préférence pour l’algorithme diminue si celui-ci prend en compte le genre en plus des performances passées. Ce résultat reflète une sensibilité aux principes de non-discrimination, en accord avec les réglementations interdisant le profilage basé sur le sexe ou d’autres critères d’appartenance.

 

Du côté des managers, nos résultats confirment un biais bien documenté : ils délèguent trop rarement les décisions d’embauche à l’algorithme, surestimant leur propre capacité à sélectionner les meilleurs candidats. Cependant, lorsque les managers reçoivent un retour sur la qualité de leurs décisions, ils sont plus enclins à s’appuyer sur l’algorithme pour améliorer la pertinence de leurs recrutements.

 

Dans une autre étude, nous testons l’efficacité d’un algorithme de recrutement basé sur des mesures psychologiques et comportementales combinées à des variables démographiques en collaborant avec une entreprise de microfinance. Malgré un échantillon d'entraînement biaisé (composé uniquement d’employés recrutés par les ressources humaines) et des réponses stratégiques de certains candidats, un algorithme de type random forest parvient à prédire avec précision les performances des nouveaux employés. Dans une expérience de terrain menée avec cette même entreprise, nous testons un système de recrutement algorithmique. Tous les candidats ont répondu à des questions mesurant divers traits psychologiques et comportementaux. Notre algorithme et les ressources humaines donnent une recommandation de recrutement pour chaque candidat. Les candidats sélectionnés par l’algorithme ont eu de meilleures performances que les autres, confirmant la robustesse des prédictions algorithmiques malgré les biais d’échantillonnage et certaines tentatives des candidats d’influencer leur sélection.

 

Dans un 2ème axe de recherche, nous examinons l’impact du sexe et du statut d’expert sur la confiance accordée aux recommandations et sur le choix d’un conseiller. Nos résultats montrent que présenter un conseiller comme un expert réduit l’écart de confiance entre les sexes en faveur des conseillères, suggérant que ce statut peut atténuer, voire inverser, certains préjugés. Nous observons également une asymétrie dans le choix des conseillers : les femmes privilégient nettement les conseillères, tandis que les hommes n’ont pas de préférence marquée. Enfin, les hommes qui choisissent une conseillère sont plus enclins à suivre ses recommandations, ce parce qu'ils diffèrent des hommes choisissant un conseiller.

Nous allons poursuivre nos recherches en approfondissant nos travaux en cours jusqu'à leur publication.

 

En particulier, notre projet avec Jérémy Celse sur le raisonnement motivé nécessite encore du travail. Nous espérons qu'il ouvrira la voie à d'autres collaborations. Nos discussions nous ont amenés à explorer des sujets connexes, comme le biais de confirmation ou la tendance à ignorer certains éléments dans un raisonnement. Une piste intéressante serait d’influencer les convictions des participants à l’aide de techniques d’auto-persuasion (Schwardmann et al. 2022). Cela nous permettrait d’étudier de manière plus précise comment nos croyances influencent notre capacité à raisonner.

 

À plus long terme, nous souhaitons également approfondir nos recherches sur l’utilisation des algorithmes et la confiance qu’on leur accorde. Notre collaboration avec Rustamdjan Hakimov et Dorothea Kübler, soutenue par un financement de l’ANR, se poursuivra très probablement. Par ailleurs, j’ai commencé à échanger avec un chercheur spécialisé en interaction humain-machine pour une éventuelle collaboration future.

Au 1er mai 2022, le projet sur la confiance dans les expert(e)s (pour lequel des données ont déjà été collectées) a été présenté dans des groupes de travail, séminaires et conférences (congrès annuel de l'AFSE 2021, ASFEE 2021, ESA world meeting 2021).

La confiance insuffisante dans les vérités scientifiques peut avoir des conséquences dramatiques. La rationalité étant limitée, une confiance dans les experts et dans les processus qu'ils mettent en place est nécessaire. La confiance dans un expert peut dépendre de ses caractéristiques. La confiance dans un processus peut être affectée par le fait que le résultat du processus nous plaise ou non. Notre projet s'articule autour de 4 axes.
Le premier axe étudie l'aversion pour les algorithmes, c'est-à-dire la méfiance du public à l'égard d'une procédure scientifique visant à atteindre un résultat. Nous nous intéressons au contexte de l'allocation d'étudiants dans des universités.
Le deuxième axe étudie la confiance dans les experts en fonction de leur genre et des stéréotypes de genre associés au domaine d'expertise. Suit-on plus volontiers la recommandation d'un expert que d'une experte quand le domaine d'expertise est perçu comme masculin ? Préfère-t-on alors également recevoir une recommandation d'un expert que d'une experte ? La réponse à ces questions est-elle modifiée quand le domaine d'expertise est perçu comme féminin ?
Le troisième axe s'intéresse à la confiance que nous avons dans le raisonnement humain selon que nous sommes d'accord ou non avec la conclusion. Est-il plus difficile de percevoir des failles dans un raisonnement logique quand on est d'accord avec sa conclusion que quand on ne l'est pas ?
Le quatrième axe proposera un mode théorique qui visera à approfondir la compréhension de l'interaction et de la dynamique entre la confiance dans un processus scientifique - l'algorithme de matching - et le résultat de ce processus - l'affectation des étudiants dans les universités. Le modèle pourrait également nous permettre d'évaluer la performance des algorithmes selon une nouvelle dimension en distinguant ceux pour lesquels il existe un équilibre de confiance élevé de ceux pour lesquels la confiance n'est pas un résultat soutenable.

Coordination du projet

Marie-Pierre Dargnies (Dauphine Recherches en Management)

L'auteur de ce résumé est le coordinateur du projet, qui est responsable du contenu de ce résumé. L'ANR décline par conséquent toute responsabilité quant à son contenu.

Partenariat

DRM Dauphine Recherches en Management

Aide de l'ANR 119 880 euros
Début et durée du projet scientifique : octobre 2020 - 48 Mois

Liens utiles

Explorez notre base de projets financés

 

 

L’ANR met à disposition ses jeux de données sur les projets, cliquez ici pour en savoir plus.

Inscrivez-vous à notre newsletter
pour recevoir nos actualités
S'inscrire à notre newsletter