Skip to main content

L'explicabilité de l'IA opaque comme moment dans l'histoire de la bureaucratie : sur la dépersonnalisation sans formalisation de la décision

Séminaire / Chaire Ethique et IA

On May 30, 2022

Maël Pégny
Chercheur postdoctorant en Éthique de l’IA à l’Université de Tübingen

Après une thèse sur les fondements de la calculabilité et de la complexité soutenue en 2013, Maël Pégny a orienté ses travaux vers l'histoire et la philosophie de l'informatique. Durant ces dernières années, il a consacré l'essentiel de son travail aux enjeux éthiques de l'IA compris dans une perspective historique de temps long, comme un nouveau moment de l'histoire des techniques cognitives au service des institutions bureaucratiques.

Résumé de l'intervention :

L'algorithmisation de la décision, et en particulier l'algorithmisation menée par des systèmes d'IA, doivent être comprises comme des moments dans l'histoire longue de la décision bureaucratique et de ses liens avec les techniques cognitives. L'informatique, comprise comme technique cognitive globale affectant la communication, l'archivage et le raisonnement, bouleverse les pratiques bureaucratiques en même temps qu'elle hérite des propriétés et représentations des institutions gourmandes de ces techniques.

Si ces évolutions se lisent à de multiples niveaux, elles sont particulièrement sensibles dans les processus d'automatisation partielle ou complète des prises de décision bureaucratiques par des algorithmes. En particulier, les problèmes récents autour de l'explicabilité des décisions prises par des IAs opaques doivent être plongés dans le contexte de ces évolutions bureaucratiques, pour comprendre comment l'emploi de ces dispositifs prolonge certaines tendances anciennes de la bureaucratie, notamment la dépersonnalisation de la prise de décision, en même temps qu'elle provoque une rupture par rapport à l'état des pratiques, notamment en ne fournissant pas de formalisation des critères guidant une décision. Nous tâcherons de montrer comment cette conceptualisation de la dépersonnalisation sans formalisation permet d'illuminer les enjeux pratiques autant qu'épistémiques de l'explicabilité de l'IA.

Exposé liminaire de 30 à 45 m, suivi d’une discussion avec les participant.es. Le séminaire constitue un espace de travail, l’objectif est de mettre collectivement en travail des hypothèses, plutôt que d’exposer des résultats.

 



Références
-    Issam Ibnouhsein, Maël Pégny : « Quelle transparence pour les algorithmes d’apprentissage machine ? » Revue d’Intelligence Artificielle, 32(4), Special Volume
« Ethique et Intelligence Artificielle » (Décembre 2018).
-    Maël Pégny, Issam Ibnouhsein Eva Thelisson), “The Right to An Explanation: An
Interpretation and Defense”, Delphi, 2(4), pp.161-166, Décembre 2019.
-    Maël Pégny, Anna Zielinska, « L’épineuse question des données numériques de
santé », 9 Mars 2020, The Conversation.
-    Maël Pégny, « Pour un développement des IAs respectueux de la vie privée », 23 Novembre 2021, Blog Binaire, Le Monde
-    Maël Pégny, « Pour un développement des IAs respectueux de la vie privée dès la conception », 9 Janvier 2021, HAL hal-03104692

 

Séance animée par Louis Devillaine
Doctorant PACTE, CNRS-UGA, chaire éthique&IA

Date

On May 30, 2022
Complément date

10h - 12h

Localisation

Complément lieu

Par visioconférence uniquement (à titre exceptionnel)
Participer à la réunion Zoom :
https://grenoble-inp.zoom.us/j/4743811375 
ID de réunion : 474 381 1375
Code secret : 698063
 

Submitted on May 23, 2022

Updated on October 23, 2024