Le

01

déc.

2021

De 09:00 à 12:00

Paris time

JM John-Mathews soutient sa thèse

Titre :Éthique de l’intelligence artificielle en pratique. Enjeux et limites

Directrice de thèse : Christine Balagué

Résumé :

Alors que l’Intelligence Artificielle (IA) est de plus en plus critiquée en raison des enjeux éthiques qu’elle pose, un ensemble d’outils et de méthodes ont émergé ces dernières années pour la normer, tels que les algorithmes de mitigation des biais, les métriques d’équité, la génération d’explications, etc.). Ces méthodes, dites de l’IA responsable, doivent s’adapter à des algorithmes qui s’alimentent de données de plus en plus granulaires, volumineuses et comportementales.

Dans ce travail de recherche, nous décrivons comment l’IA prétend calculer le "monde" sans l’usage des catégories normatives que nous utilisons habituellement pour formuler des critiques. Comment normaliser une IA qui prétend justement se positionner en deçà des normes ?

Pour répondre à cette question, nous avons développé, à partir de la littérature technique dans la discipline de l’éthique de l’IA, un dispositif pour normer les modèles afin de faire face aux enjeux de discriminations, d’opacité et de vie privée. Ensuite, nous avons formulé quatre critiques empiriques et théoriques pour souligner les limites des outils techniques de l’éthique.

Premièrement, nous montrons les limites des méthodes de génération d’explications a posteriori de décisions émanant d’IA dites « boîte noire ». Deuxièmement, nous montrons la difficulté de normer l’IA avec des méthodes d’explication dîtes empiriques, supposant la capacité des IA à dévoiler d’elles-mêmes leurs propres biais. Nous montrons ensuite, en s’inspirant de la sociologie pragmatique de Boltanski, que les méthodes pour lutter contre les discriminations tendent vers un système de domination experte dans lequel l’IA modifie constamment les contours de la réalité sans offrir une prise à la critique. Enfin, nous montrons que l’IA s’insère plus généralement dans un mouvement d’extension diluant le rôle des institutions qui ont le pouvoir de stabiliser les critiques sociales tout en donnant une prise sur le monde.

Ces quatre critiques empiriques et théoriques nous permettent finalement d’ajuster notre première proposition pour normer l’IA. En partant d’un outil technique, nous proposons finalement une enquête ouverte et matérielle permettant de réactualiser constamment la question des fins et des moyens au sein des collectifs de l’IA.

Retour à l'agenda