Contenu | Navigation |

Suivez-nous

Vous êtes iciSéMINAIRE / CHAIRE ETHIQUE ET IA

Séminaire / Chaire Ethique et IA

Séminaire / Chaire Ethique et IA

Les reconfigurations du « travail du patient », des rôles professionnels et de la relation thérapeutique lors de l’intégration d’un dispositif de télésurveillance médicale en diabétologie

le 3 octobre 2022
12h30 -14h
Alexandre MATHIEU-FRITZ Professeur de Sociologie Laboratoire LATTS – Université Gustave Eiffel
L’utilisation des dispositifs de télésurveillance médicale s’accompagne de toute une série de bouleversements et de tensions dont l’importance demeure souvent méconnue ou sous-estimée. L’analyse de la mise en œuvre d’un dispositif en télé-diabétologie montre en quoi ses usages contribuent à transformer en profondeur la prise en charge, mais également le « travail du patient », son expérience de l’autosurveillance glycémique et de la relation thérapeutique. Les patients développent diverses formes de travail supplémentaires caractéristiques de l’appropriation du dispositif. La mise à l’épreuve du nouvel outil et de ses calculs va contribuer à construire la confiance en celui-ci et à stabiliser son usage, de même que la relation régulière avec le professionnel situé à distance. Les tâches de calcul des doses d’insuline étant confiées à un algorithme, les soignantes sont confrontées au flou qui entoure l’accompagnement thérapeutique, la relation avec les patients tendant à se repositionner autour de l’écoute, du soutien et de la réassurance. Si les praticiennes sont privées de toute une série d’éléments d’information clinique, les usages du dispositif entraînent une visibilisation et une (re)découverte de la diversité et de l’ampleur des tâches inhérentes au « travail du patient ».

Modalités
Chaque séance du programme dure 1h30. Elle commence par un exposé de 30 à 45 min, suivi d’une discussion avec les participants.
Ce programme constitue un espace de travail et d’échanges pluri et interdisciplinaires. L’objectif est de présenter une éthique en cours d’élaboration, basée sur les pratiques, plutôt que d’exposer des résultats.


Alexandre MATHIEU-FRITZ est professeur de sociologie à l’Université Gustave Eiffel, chercheur au Laboratoire Techniques Territoires et Sociétés (LATTS – UMR CNRS 8134), sociologue du travail, des organisations et des groupes professionnels. Ses travaux se situent à la croisée des sociologies de l’activité, des technologies de l’information et de la communication, et de l’innovation, et sont consacrés à l’étude de l’intégration des outils numériques dans le monde de la santé. Un ouvrage présentant ses travaux de recherche a été publié en 2021 : Le praticien, le patient et les artefacts. Genèse des mondes de la télémédecine, Paris, Presses des Mines. Il est aussi l’auteur de plusieurs articles, dont : « L’intelligence artificielle en médecine : des promesses aux usages… en passant par la conception. Commentaire », in Sciences sociales et santé 2021/2 (Vol. 39). Il démarre actuellement deux recherches : une sur l’utilisation d’outils connectés d’autosurveillance de la mucoviscidose, l’autre sur le développement des usages de l’IA (en tant qu’outil d’aide au diagnostic) dans le domaine de la dermatologie.

 

Localisation

En visioconférence :

Participer à la réunion Zoom
https://univ-grenoble-alpes-fr.zoom.us/j/97746560254?pwd=KzUwRVhlMlhDY2l...
ID de réunion : 977 4656 0254
Code secret : 431868
Mis à jour le 12 juillet 2022
Séminaire / Chaire Ethique et IA

Éthique située de la technologie et de l’IA et rôle de la communication transactionnelle et du co-design : application au domaine de la santé

le 20 septembre 2022
12h30 -14h00
 
Manuel ZACKLAD Professeur en Sciences de l’Information et de la Communication Laboratoire Dicen-IdF - Conservatoire National des Arts et Métiers

Dans cette présentation nous défendrons une approche particulière de l’éthique des technologies dénommée « éthique située » (Zacklad & Rouveroy 2022). Cette approche prend radicalement le contre-pied des approches basées sur l’acceptabilité des technologies et montre qu’il existe souvent des « conflits de narratif total » (Zacklad 2022) qui ne peuvent être résolus que par une approche dialogique ou transactionnelle de la communication, mise en oeuvre dans des approches de Codesign au sens fort (Zacklad et al. 2021, Zacklad à paraître).

Dans le domaine de la santé, comme dans celui de l’éducation, du droit ou des politiques publiques, pour ne prendre que quelques exemples, la tentation technosolutionniste est particulièrement destructrice, car la performance des activités est notamment liée aux processus relationnels de subjectivation réciproque. Certaines politiques sanitaires technosolutionnistes (Ellul, sacralisation de la technique et propagande sociologique, Illich, monopole radical d’un moyen technique…) se retournent contre la santé de la population, comme certaines phases de gestion de la crise sanitaire récente l’ont montré. Dans cet épisode récent, la crise technosolutionniste est aussi apparue comme l’autre versant d’une crise des sciences et de leur relation à des média totalement ignorants de leur dynamique. La prise en compte de l’éthique située se révèle ici être en prise directe avec des enjeux d’éthique institutionnelle touchant notamment aux phénomènes de corruption qui sont particulièrement sensibles dans l’univers médical et pharmaceutique.

Il ne s’agit pas pour autant de rejeter les technologies en bloc. Diverses approches alternatives existent comme le recours aux low tech distinguées des high tech (Abrassart, Jarrige, Bourg, 2020). Mais nous pensons aussi que les approches dispositives de la technologie que nous cherchons à développer, d’abord dans le champ des dispositifs d’information et de communication et du numérique mais plus largement ensuite dans tous les secteurs de la technologie, sont susceptibles de fournir des pistes heuristiques et opérationnelles pour réconcilier high tech et low tech (dont les applications basées sur des modules d’IA) pour aller vers des développements maîtrisés et compatibles avec les enjeux de la transition, en renouvelant le vieux logiciel de la sociologie des techniques. 

Modalités
Chaque séance du programme dure 1h30. Elle commence par un exposé de 30 à 45 min, suivi d’une discussion avec les participants.
Ce programme constitue un espace de travail et d’échanges pluri et interdisciplinaires. L’objectif est de présenter une éthique en cours d’élaboration, basée sur les pratiques, plutôt que d’exposer des résultats

Localisation

En visioconférence :
Participer à la réunion Zoom
https://univ-grenoble-alpes-fr.zoom.us/j/99155086575?pwd=RHcrVHJBMkV5SFl1Z09aREU4T2h6dz09
ID de réunion : 991 5508 6575
Code secret : 325212
 
Mis à jour le 12 juillet 2022
Séminaire / Chaire Ethique et IA

Pour un design de technologies d’IA en santé ancré dans des pratiques situées et des usages signifiants

le 4 juillet 2022
13h00 - 14h30
Sylvie GROSJEAN Titulaire de la chaire de recherche en francophonie internationale sur les technologies numériques de santé Université d’Ottawa (Canada)
(…) les questionnements sur les aspects sociaux de l’IA sont trop souvent réduits à des considérations éthiques. De telle sorte que la formule « éthique de l’IA » a tendance à devenir un mot-valise, le pendant « social » en quelque sorte de ce que « l’IA » représente aujourd’hui dans le domaine technologique, où il est de plus en plus souvent utilisé comme métonymie (Velkowska & Relieu, 2021)
 
L’IA en santé fait couler beaucoup d’encre depuis ces dernières années, l’accent étant souvent mis sur les potentialités dans le diagnostic, la prise de décision clinique et les récents développements alimentent aussi une vision d'une médecine personnalisée et prédictive (Lee & Yoon, 2021; Davenport & Kalakota, 2019). Or, parallèlement au développement de technologies de santé utilisant l’IA, de nombreux travaux interrogent les conséquences sociales de la diffusion des algorithmes d’apprentissage dans le domaine de la santé. Ces travaux tentent d’identifier les lacunes et les limites de l’IA, mais aussi ses implications sur les patients et les professionnels de la santé (Caruana et al., 2015; Sabelli et al., 2011; Broadbent et al., 2016). Tout en ayant le potentiel d’offrir des services plus personnalisés et centrés sur le patient, ces technologies transforment indéniablement la manière dont les systèmes de santé interagissent avec les patients et leur utilisation dans le contexte réel des soins pose des défis à la fois sociaux, communicationnels et émotionnels que nous ne pouvons pas négliger. En fait, l'intégration des technologies de santé utilisant l'IA dans les pratiques cliniques et dans la vie quotidienne des patients reste un problème majeur (Barrett et al., 2019; Neuhauser et al., 2013). Nombreux sont ceux qui parlent de « AI chiasm » (Aristidou et al., 2022) ou de « vérité dérangeante sur l'IA dans les soins de santé » (Panch et al., 2019) parce que l'usage de l’IA en contexte réel de soins interroge la relation que des professionnels de la santé et des patients entretiennent avec ces technologies et avec les données générées par ces technologies. Par conséquent, il s’agit de penser la conception de technologies d’IA situées dans des pratiques de soins afin de reconnaître le « travail » que les professionnels de la santé et les patients entreprennent autour et avec les données de santé produites via ces algorithmes. Par exemple, à mesure que davantage de données numériques sur la santé sont saisies et agrégées par les patients en dehors de l’hôpital, le travail de production de données et de création de sens se déplace vers les patients ou vers d'autres intermédiaires (Oudshoorn, 2008, 2011). Ainsi, les données générées par ces algorithmes ne doivent pas être vues comme des données immuables, mais plutôt pensées comme imbriquées dans un réseau de relations fait d’individus aux statuts différents, de matérialité et se manifestant à travers des pratiques situées (Grosjean et al., 2019). Ces technologies d’IA s’inscrivent donc dans un enchevêtrement d’acteurs, d’objets, de discours et de pratiques situés dans des environnements et des temporalités différents (à l’hôpital, à la maison). Il est donc nécessaire pour le développement d’une « éthique de l’usage » de l’IA en santé de voir ces technologies comme « constituées par » des pratiques situées et des usages incarnés dans des réalités sociales multiples et complexes.
 
L’objectif de cette communication sera donc de discuter de l’importance de proposer une approche de codesign (ou design participatif) ancrée dans des pratiques de soins afin de mieux comprendre les « intégrations astucieuses » des technologies d’IA dans des activités cliniques ou d’auto-soins. Les approches de conception actuelles sont principalement basées sur un paradigme techno-déterministe, même s'il existe des approches d'IA centrées sur l'utilisateur dont le but est d’inclure « l'humain dans la boucle » (Li & Etchemendy, 2018; Baumer, 2017; Xu, 2019). Or, les enjeux communicationnels, sociaux et émotionnels soulevés par l'usage de l'IA en contexte de soins n'ont pas été clairement pris en compte et certains problèmes de conception apparaissent avec les méthodes utilisées actuellement (Choudhury et al., 2020; Yang et al., 2020). Par exemple, des cadres et des lignes directrices pour une conception de technologies d'IA centrée sur l'humain ont été proposés dans la littérature afin de concevoir des technologies plus acceptables et éthiquement responsables. Or, les chercheurs identifiés au domaine de l’interaction homme-machine (IHM) ou en conception centrée sur l'utilisateur soulignent les limites des approches existantes qui se concentrent sur le niveau de l'interface ou utilisent des méthodes de prototypage limitées qui ne conviennent pas pour étudier l'expérience de l'utilisateur telle qu'elle est incarnée et située dans des contextes spécifiques (Yang et al., 2020; Auernhammer, 2020). La conception de technologies d'IA en santé met ces questions au premier plan, ce qui nous pousse à repenser nos façons de concevoir ces technologies pour en améliorer l'intégration dans des pratiques sociale et les rendre signifiantes. En effet, ces technologies intègrent des algorithmes de plus en plus complexes issus de l'apprentissage machine, du traitement du langage naturel (NLP) et de domaines connexes qui vont « faire une différence » dans les mondes sociaux des futurs utilisateurs.
 
Pour aborder ces enjeux de conception de technologies de eSanté utilisant l’IA, nous prendrons appui sur deux projets de recherche en santé. Une recherche menée avec des soignants impliqués dans la conception d’une technologie intégrant un algorithme d’apprentissage dans le but de réduire les surcharges cognitive et informationnelle à l’hôpital (Grosjean et al., 2019). Et, une autre recherche impliquant des personnes vivant avec la maladie de Parkinson pour lesquelles une application de eSanté (intégrant un système de recommandation) est en phase de développement afin de leur permettre de prendre en charge leur maladie à la maison et de bénéficier de conseils de santé personnalisés (Grosjean et al., 2022). Ces deux cas soulèvent des enjeux quant à l’intégration de ces technologies dans des pratiques signifiantes et viennent interroger les démarches de conception afin qu’il y ait une meilleure intégration des usages en contextes réels.

Modalités
Chaque séance du programme dure 1h30. Elle commence par un exposé de 30 à 45 min, suivi d’une discussion avec les participants.
Ce programme constitue un espace de travail et d’échanges pluri et interdisciplinaires. L’objectif est de présenter une éthique en cours d’élaboration, basée sur les pratiques, plutôt que d’exposer des résultats.
Entrée libre et gratuite sur inscription par envoi d’un courriel à ambre.davat@univ-grenoble-alpes.fr.
 

Localisation

Par visioconférence  : https://univ-grenoble-alpes-fr.zoom.us/j/98996925467?pwd=Y1RvNVU2WWxOdUYyR3lubTZuNnBhUT09
ID de réunion : 989 9692 5467
Code secret : 886656
 
Mis à jour le 7 juin 2022
Séminaire / Chaire Ethique et IA

Quelles étapes pour une implémentation réussie de l’intelligence artificielle en imagerie cardiaque ?

le 21 juin 2022
12h30 -14h00
Gilles BARONE-ROCHETTE Professeur des Universités et Praticien Hospitalier Cardiologie interventionnelle et imagerie cardiaque CHU de Grenoble
Le service de cardiologie du CHU de Grenoble Alpes est spécialisé dans la prise en charge de la maladie coronaire. Pour prendre au mieux en charge les patients, des technologies innovantes sont développées en particuliers en imageries non invasives et invasives.
 
L’application de l’intelligence artificielle à ce domaine semble très prometteuse et un projet d’observatoire de données de santé numérique cardiovasculaire est en construction.
 
Nous vous proposons de vous décrire les différentes étapes de ce projet et les difficultés que nous rencontrons et les solutions misent en place pour le succès de ce projet d’intelligence artificielle pour le bien de nos patients.
 

Localisation

En présentiel : Amphi inférieur Sud - Bâtiment Jean Roget
(Faculté de médecine de Grenoble, Domaine de la Merci, 38700 La Tronche)

Et par visioconférence : https://univ-grenoble-alpes-fr.zoom.us/j/97942539129?pwd=c3FZU2dxMXJpM1N2TG1OV2taaWdiUT09
ID de réunion : 979 4253 9129
Code secret : 025748

 
Mis à jour le 7 juin 2022
Séminaire / Chaire Ethique et IA

L'explicabilité de l'IA opaque comme moment dans l'histoire de la bureaucratie : sur la dépersonnalisation sans formalisation de la décision

le 30 mai 2022
10h - 12h
Résumé de l'intervention : L'algorithmisation de la décision, et en particulier l'algorithmisation menée par des systèmes d'IA, doivent être comprises comme des moments dans l'histoire longue de la décision bureaucratique et de ses liens avec les techniques cognitives. L'informatique, comprise comme technique cognitive globale affectant la communication, l'archivage et le raisonnement, bouleverse les pratiques bureaucratiques en même temps qu'elle hérite des propriétés et représentations des institutions gourmandes de ces techniques. Si ces évolutions se lisent à de multiples niveaux, elles sont particulièrement sensibles dans les processus d'automatisation partielle ou complète des prises de décision bureaucratiques par des algorithmes. En particulier, les problèmes récents autour de l'explicabilité des décisions prises par des IAs opaques doivent être plongés dans le contexte de ces évolutions bureaucratiques, pour comprendre comment l'emploi de ces dispositifs prolonge certaines tendances anciennes de la bureaucratie, notamment la dépersonnalisation de la prise de décision, en même temps qu'elle provoque une rupture par rapport à l'état des pratiques, notamment en ne fournissant pas de formalisation des critères guidant une décision. Nous tâcherons de montrer comment cette conceptualisation de la dépersonnalisation sans formalisation permet d'illuminer les enjeux pratiques autant qu'épistémiques de l'explicabilité de l'IA. Exposé liminaire de 30 à 45 m, suivi d’une discussion avec les participant.es. Le séminaire constitue un espace de travail, l’objectif est de mettre collectivement en travail des hypothèses, plutôt que d’exposer des résultats.
Maël Pégny
Chercheur postdoctorant en Éthique de l’IA à l’Université de Tübingen

Après une thèse sur les fondements de la calculabilité et de la complexité soutenue en 2013, Maël Pégny a orienté ses travaux vers l'histoire et la philosophie de l'informatique. Durant ces dernières années, il a consacré l'essentiel de son travail aux enjeux éthiques de l'IA compris dans une perspective historique de temps long, comme un nouveau moment de l'histoire des techniques cognitives au service des institutions bureaucratiques.

Références
-    Issam Ibnouhsein, Maël Pégny : « Quelle transparence pour les algorithmes d’apprentissage machine ? » Revue d’Intelligence Artificielle, 32(4), Special Volume
« Ethique et Intelligence Artificielle » (Décembre 2018).
-    Maël Pégny, Issam Ibnouhsein Eva Thelisson), “The Right to An Explanation: An
Interpretation and Defense”, Delphi, 2(4), pp.161-166, Décembre 2019.
-    Maël Pégny, Anna Zielinska, « L’épineuse question des données numériques de
santé », 9 Mars 2020, The Conversation.
-    Maël Pégny, « Pour un développement des IAs respectueux de la vie privée », 23 Novembre 2021, Blog Binaire, Le Monde
-    Maël Pégny, « Pour un développement des IAs respectueux de la vie privée dès la conception », 9 Janvier 2021, HAL hal-03104692

 
Séance animée par Louis Devillaine
Doctorant PACTE, CNRS-UGA, chaire éthique&IA

Localisation

Par visioconférence uniquement (à titre exceptionnel)
Participer à la réunion Zoom :
https://grenoble-inp.zoom.us/j/4743811375 
ID de réunion : 474 381 1375
Code secret : 698063
 
Mis à jour le 23 mai 2022
Séminaire / Chaire Ethique et IA

Enjeux et limites de la technologie de santé : le cas des ainés

le 13 juin 2022
13h-14h30
Eloria VIGOUROUX-ZUGASTI Maître de conférences en Sciences de l’Information et de la Communication Université Grenoble Alpes, Laboratoire GRESEC
Les sociétés occidentales se trouvent aujourd’hui confrontées au vieillissement de leur population, sous le double effet du papy-boom et de l’allongement de la vie, en plus ou moins bonne santé. Ce contexte pose la question de la prise en charge de la perte d’autonomie des personnes retraitées : coût et disponibilité de places en maison de retraite, bientraitance / maltraitance en EHPAD, prise en charge des maladies chroniques, gestion de la dépendance par les familles et par les politiques publiques, etc. En parallèle, nous assistons à un développement sans précédent des réponses technologiques à ces problèmes sociaux et politiques, par le biais de nombreux produis numériques et connectés, notamment dans le cadre de la Silver Economy. Néanmoins, ces offres ne semblent pas toujours prendre en considération les contraintes, les contextes de vie et les littératies des publics qu’elles visent.
 
Alliant les sciences de l’information et de la communication (SIC) à la sociologie, nous proposons dans ce programme de revenir sur une étude prospective, réalisée pour notre doctorat et prolongée depuis, visant à appréhender et à comprendre les actuels modes d’appropriation des technologies chez les publics aînés, appliqués à la santé au sens de l’OMS (bien être complet - physique, psychique et social). Le but de cette démarche est de mettre en lumière les logiques d’usage, d’appropriation et d’adaptation à/de l’environnement technologique, notamment dans le cadre d’une pandémie, aussi bien auprès des patients qu’au sein des établissements de santé les prenant en charge.
 

Localisation

En présentiel : Maison de la Création et de l’Innovation, salle 210
(Université Grenoble Alpes, 339, avenue centrale 38400, Saint-Martin-d'Hères)
Et par visioconférence : participer à la réunion Zoom
https://univ-grenoble-alpes-fr.zoom.us/j/91505010269?pwd=c1o4WFBDaElmSG5nWGZKNGpaOHJtUT09
ID de réunion : 915 0501 0269
Code secret : 845663
Mis à jour le 12 mai 2022
Séminaire / Chaire Ethique et IA

Transparence

le 6 décembre 2021
14h -16h
 
Dans le cadre du séminaire de la chaire éthique&IA (1er semestre 2021-22) Les concepts de la computer ethics
Tyler Reigeluth, maître de conférences de philosophie à l’Université Catholique de Lille, Laboratoire ETHICS : à l’occasion de la prochaine parution du volume collectif qu’il a coordonné avec Seddik Benlaksira : « Intelligence artificielle : que faire de la transparence technique », Pistes. Revue de philosophie contemporaine, n°2-2021, Librairie Philosophique J. Vrin.

Les discours autour de la transparence des systèmes algorithmiques ont au moins deux versants : du point de vue du design, il s’agit de rendre ces systèmes fluides, ergonomiques et imperceptibles pour l’utilisateur ; du point de vue critique, il s’agit de pouvoir ouvrir la boîte-noire et débusquer les normes qui structureraient leur fonctionnement. Je propose d’exposer certaines tensions et limites liées à cette juxtaposition, et d’explorer des alternatives qui nous permettraient de la dépasser. Faire une place aux machinations du machine learning, sans tomber dans une pensée magique de ses performances, peut nous amener à repenser nos rapports sociaux et épistémiques avec nos machines apprenantes en y voyant une forme de « pénombre psychique » (A. Leroi-Gourhan) ou d’« inconscient technologique » (N. Thrift) où ce qu’il y a d’humain dans la machine et ce qu’il y a de machine dans l’humain se rencontrent.


Chaque séance du séminaire dure 2 h. Exposé liminaire de 30 à 45 m, suivi d’une discussion avec les participant.es. Le séminaire constitue un espace de travail, l’objectif est de mettre collectivement en travail des hypothèses, plutôt que d’exposer des résultats.

Localisation

Maison de la Création et de l’Innovation
Université Grenoble Alpes
339, avenue centrale 38400
Saint-Martin-d'Hères
Salle 208

En visio-conférence (via Zoom) :
 
https://univ-grenoble-alpes-fr.zoom.us/j/7387844858?pwd=U1BPOXFBckY3U2FJSG1XQkh4NzRPdz09
ID de réunion : 738 784 4858
Code secret : 7R4xfq
 
Mis à jour le 16 novembre 2021
Séminaire / Chaire Ethique et IA

Responsabilité

le 29 novembre 2021
10h - 12h
 
Dans le cadre du séminaire de la chaire éthique&IA (1er semestre 2021-22) Les concepts de la computer ethics
Alexandre Bretel, doctorant IPhiG & chaire éthique&IA

Dans les rapports et conférence sur l'intelligence artificielle, la problématique de la responsabilité des acteurs est de plus en plus mise en avant. Les déclarations d'intentions pour davantage de responsabilité adoptent une conception volontariste du développement technique, qu'il convient d'interroger. Il s'agit notamment de questionner la part de responsabilité que peuvent réellement assumer les agents de ces déploiements technologiques. Au cours de cette présentation, il s'agira d'éclairer la notion de responsabilité vis-à-vis de notre société technologique, en prenant appui sur la philosophie de la technique. Comment se porter responsable des menaces, des risques et des préjudices causés par les technologies numériques avancées ? Comment évaluer les dangers envers les aspects sociétaux de ces technologies, que ce soit via l'exploitation d'une main d'œuvre humaine ou la perte d'un rapport humain authentique ? Faut-il attribuer une responsabilité mobilisant les notions d'intentions, de culpabilité, de négligence ou d'assurance ? Nous esquisserons des réponses à ces interrogations en vue d'une redéfinition de la notion de responsabilité, adaptée aux enjeux de l'IA. 


Chaque séance du séminaire dure 2 h. Exposé liminaire de 30 à 45 m, suivi d’une discussion avec les participant.es. Le séminaire constitue un espace de travail, l’objectif est de mettre collectivement en travail des hypothèses, plutôt que d’exposer des résultats.

Localisation

Maison de la Création et de l’Innovation
Université Grenoble Alpes
339, avenue centrale 38400
Saint-Martin-d'Hères
Salle 210

En visio-conférence (via Zoom) :
 
https://univ-grenoble-alpes-fr.zoom.us/j/7387844858?pwd=U1BPOXFBckY3U2FJSG1XQkh4NzRPdz09
ID de réunion : 738 784 4858
Code secret : 7R4xfq salle 210
Mis à jour le 16 novembre 2021
Séminaire / Chaire Ethique et IA

Equité

le 22 novembre 2021
14h - 16h
Dans le cadre du séminaire de la chaire éthique&IA (1er semestre 2021-22) Les concepts de la computer ethics
Thierry Ménissier, professeur de philosophie, IPhiG & chaire éthique&IA

La notion d’équité (Fairness) occupe une place singulière dans le catalogue des concepts de l’éthique algorithmique. Elle peut en effet être définie de manière minimale à partir de son « sens faible » qui renvoie au fait de traquer, de juguler et d’éradiquer les divers biais possibles dans la conception, le fonctionnement et l’utilisation des algorithmes. Ce sens n’est « faible » qu’à proportion de l’exigence intrinsèque du concept d’équité, qui, entendu à partir de son « sens fort », exprime une des plus hautes ambitions de l’éthique et de la philosophie politique : construire le cadre théorique d’un monde juste, où chacune et chacun se voit attribuer ce qui lui est dû (les humains mais également les vivants et l’environnement).
L’importance de la tâche désignée par le « sens faible » ne saurait être sous-estimée. Il importe même de souligner le caractère indispensable au niveau de la conception des algorithmes d’une démarche que l’on pourrait qualifier de « Fairness by design », destinée à éduquer les algorithmes et à éclairer-guider leurs concepteurs. Toutefois, considérer l’équité en regard de son sens fort ouvre un angle de vue sur l’ambition de ce que devrait être une éthique de l’IA plus complète : comment, sur un continuum qui va de la conception à l’usage, promouvoir pour le système technique de l’IA (à la fois particulier et exceptionnel parmi les systèmes techniques conçus jusqu’ici), une véritable équité, garante de justice à l’aide de ce système technique valable pour une société démocratique ? Cette question servira de fil directeur à notre présentation.
 


Chaque séance du séminaire dure 2 h. Exposé liminaire de 30 à 45 m, suivi d’une discussion avec les participant.es. Le séminaire constitue un espace de travail, l’objectif est de mettre collectivement en travail des hypothèses, plutôt que d’exposer des résultats.

Localisation

Maison de la Création et de l’Innovation
Université Grenoble Alpes
339, avenue centrale 38400
Saint-Martin-d'Hères
Salle 210

En visio-conférence (via Zoom) :
 
https://univ-grenoble-alpes-fr.zoom.us/j/7387844858?pwd=U1BPOXFBckY3U2FJSG1XQkh4NzRPdz09
ID de réunion : 738 784 4858
Code secret : 7R4xfq
Mis à jour le 16 novembre 2021
Séminaire / Chaire Ethique et IA

Explicabilité

le 15 novembre 2021
13h30 - 15h30
Dans le cadre du séminaire de la chaire éthique&IA (1er semestre 2021-22) Les concepts de la computer ethics
Louis Devillaine
 
Doctorant PACTE UGA & chaire éthique&IA 
 
Les avancées technologiques récentes en matière de collecte de données et de puissance calculatoires ont permis de construire des algorithmes très puissants capables de réaliser de nombreuses tâches avec peu d’erreurs. Parmi eux, les algorithmes d’apprentissage machine (ou machine learning) produisent des modèles dont la complexité est telle qu’il n’est pas toujours évident, même pour leurs concepteurs, d’expliciter les raisons qui permettent d’aboutir à certains résultats. Cela pose problème lorsqu’il s’agit de prendre des décisions assistées par ces outils. Pour y répondre, un nouveau champ de recherche émerge, celui de l’intelligence artificielle explicable, qui se donne pour objectif d’expliquer ces modèles algorithmiques opaques à l’entendement. Nous tenterons au cours de cette présentation de définir l’explicabilité en apprentissage machine sous un angle épistémologique, en considérant l’explication comme un processus à la fois cognitif et social. Nous proposerons de définir des critères d’explicabilité et verrons qu’elle tient plutôt d’un idéal inatteignable que d’une propriété à acquérir.

Chaque séance du séminaire dure 2 h. Exposé liminaire de 30 à 45 m, suivi d’une discussion avec les participant.es. Le séminaire constitue un espace de travail, l’objectif est de mettre collectivement en travail des hypothèses, plutôt que d’exposer des résultats.
 

 

Localisation

Maison de la Création et de l’Innovation
Université Grenoble Alpes
339, avenue centrale 38400
Saint-Martin-d'Hères

En visio-conférence (via Zoom) :
 
https://univ-grenoble-alpes-fr.zoom.us/j/7387844858?pwd=U1BPOXFBckY3U2FJSG1XQkh4NzRPdz09
ID de réunion : 738 784 4858
Code secret : 7R4xfq
Mis à jour le 10 novembre 2021

Pages