Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.
Le lundi 5 mai 2025

Les systèmes d’intelligence artificielle (IA), malgré les bénéfices potentiels qu’ils peuvent apporter en santé, comme l’amélioration des diagnostics, la réduction des temps d’attente et l’assistance aux professionnels de la santé, ne sont pas sans enjeux. L’un des défis les plus discutés est la difficulté d’expliquer par quels processus les modèles d’IA génèrent leurs résultats. Plus ces systèmes deviennent complexes, moins il est évident d’expliquer la manière dont ils arrivent à une conclusion quelconque. Cela devient particulièrement inquiétant lorsqu’il s’agit de prise de décision automatisée, étant donné que ces systèmes jouent un rôle de plus en plus important dans des décisions cruciales pour la santé des individus, sans nécessairement savoir exactement quelle approche a été utilisée. Plusieurs juridictions tentent de répondre à ces défis en instaurant des lois et des lignes directrices pour assurer le droit à l’explicabilité pour les patients. Le Québec est la première province canadienne à actualiser sa législation sur la vie privée pour répondre aux défis posés par les avancées en IA et a adopté des lois, comme le projet de loi no 64 sur la protection des renseignements personnels et le projet de loi no 3 concernant les données en santé, permettant ainsi d’avancer dans la réglementation sur l’explicabilité de l’IA. Toutefois, on observe dans la littérature et dans notre étude un désaccord entre chercheurs sur l’importance de l’explicabilité des systèmes, des régulations manquant de clarté ainsi qu’un écart entre les critères d’explicabilité attendus et en pratique. Nous avons analysé les informations disponibles sur l’explication de l’IA dans la documentation fournie par les manufacturiers d’outils médicaux et d’applications médicales. L’analyse révèle un manque d’informations liées à l’IA. Un travail de collaboration multidisciplinaire est crucial pour déterminer les informations à divulguer aux patients concernant l’utilisation des outils et des applications d’IA.

/
Sur place et en ligne
Ajouter à mon horaire

Colloque

Section 400 - Sciences sociales

Responsables

Afficher tous les résumés

Avant-midi

09 h 00 à 12 h 00
Communication orale
Communications orales
Le droit à l’explicabilité et l’intelligence artificielle dans le domaine de la santé : quels enjeux dans le contexte de la prise de décision automatisée?
/ Sur place et en ligne
Bâtiment : Bâtiment F
Local : F-3042
Présidence/Animation : Ma'n Zawati (Université McGill)
Discutant·e : Vincent Gautrais (UdeM - Université de Montréal), Hazar Haidar (UQAR - Université du Québec à Rimouski), James Tsui (Université McGill), Ma'n Zawati (Université McGill)
09 h 00
Accueil des participants
09 h 05
Mot de bienvenue
09 h 10
Clarifier le droit à l'explicabilité : la législation et la prise de décision clinique automatisée
Ma'n Zawati (Université McGill), Sarah Bouhouita-Guermech (Université de Montréal), Maushumi bhattacharjee (McGill University)
09 h 40
“Nous ne devrions pas utiliser le problème de la “boîte noire” pour éviter l’adoption de l'IA”: Une étude qualitative avec les professionnels de la santé canadiens sur l’IA
Hazar Haidar (UQAR - Université du Québec à Rimouski), Sarah Bouhouita-Guermech (McGill University)
10 h 10
Pause
10 h 30
Le droit à l'explicabilité de l'IA: une étude comparée entre l'Amérique et l'Europe
Vincent Gautrais (UdeM - Université de Montréal)
11 h 00
Les enjeux liés à l’explicabilité de l’IA dans le domaine de la santé, appliqués à la médecine personnalisée
James Tsui (Université McGill)
11 h 30
Discussion
11 h 55
Mot de clôture