| Date | - |
| Heure | 14h30 - 17h00 |
| Contact | |
| Lien | https://www.univ-orleans.fr/fr/univ/recherche/agenda-actualites |
Cette thèse étudie l’textit{Homo Numericus}, dont les décisions économiques sont de plus en plus médiées par des plateformes numériques, et analyse comment des systèmes algorithmiques (recommandation, classement, personnalisation) façonnent la prise de décision tout en collectant des données personnelles. À travers quatre essais expérimentaux, j’identifie quand et comment les risques de confidentialité et les interventions de transparence via des explications significatives influencent les comportements, croyances et l’acceptation des recommandations algorithmiques. Le premier essai mesure l’arbitrage rendement-fuite de données : dans une tâche d’investissement, les allocations réagissent davantage aux écarts de rendement qu’aux probabilités de fuite ; les fuites personnelles ont un effet faible, tandis que l’observation de fuites chez des pairs réduit durablement la prise de risque en matière de confidentialité. Le deuxième essai vise à déterminer si la transparence algorithmique améliore l’adhésion aux recommandations dans des décisions financières à forts enjeux. L'essai contrôlé randomisé intégré à l’interface d’un robot-conseiller (4,645 contrats), montre que des explications graphiques du score de risque n’augmentent pas l’adhésion ni l’engagement en moyenne, mais que les effets varient avec le contexte numérique et l’expérience des utilisateurs. Le troisième essai montre que, dans la recommandation musicale, les explications améliorent les croyances sur le fonctionnement du système sans effet moyen robuste sur l’écoute, avec une forte hétérogénéité selon l’attention portée aux explications. Le dernier essai montre que les explications génèrent une augmentation faible mais détectable de la volonté de déléguer à des algorithmes. Ces effets s’expliquent principalement par une amélioration des attitudes envers les systèmes, tandis que les effets directs et les changements de croyances jouent un rôle secondaire. Au total, la transparence et les explications modifient surtout les croyances et les attitudes : incitations, contexte d’usage et apprentissage social dominent souvent les comportements, ce qui plaide pour des politiques d’explicabilité et de confidentialité évaluée empiriquement et adaptées aux usages.