420 - Le droit à l’explication et l’Intelligence artificielle dans le domaine de la santé: quels enjeux dans le contexte de la prise de décision automatisée?
- Lundi 5 mai 2025
Responsables
-
Ma'n Zawati
Université McGill
-
Sarah Bouhouita-Guermech
UdeM - Université de Montréal
Les systèmes d’intelligence artificielle (IA), malgré les bénéfices potentiels qu’ils peuvent apporter en santé, comme l’amélioration des diagnostiques, la réduction des temps d’attente et l’assistance aux professionnels de la santé, ne sont pas sans enjeux. L’un des défis les plus discutés est la difficulté d’expliquer par quels processus les modèles d’IA générent leurs résultats. Plus ces systèmes deviennent complexes, moins il est évident d’expliquer la manière dont ils arrivent à une conclusion quelconque. Cela devient particulièrement inquiétant lorsqu’il s’agit de prise de décision automatisée, étant donné que ces systèmes jouent un rôle de plus en plus important dans des décisions cruciales pour la santé des individus, sans nécessairement savoir exactement quelle approche a été utilisée. Plusieurs juridictions tentent de répondre à ces défis en instaurant des lois et des lignes directrices pour assurer le droit à l’explicabilité pour les patients. Le Québec est la 1ère province canadienne à actualiser sa législation sur la vie privée pour répondre aux défis posés par les avancées en IA et a adopté des lois, comme le projet de loi 64 sur la protection des renseignements personnels et le projet de loi 3 concernant les données en santé, permettant ainsi d'avancer dans la réglementation sur l'explicabilité de l'IA. Toutefois, on observe dans la littérature et dans notre étude un désaccord entre chercheurs sur l’importance de l’explicabilité des systèmes, des régulations manquant de clarté, ainsi qu’un écart entre les critères d’explicabilité attendus et en pratique. Nous avons analysé les informations disponibles sur l’explication de l’IA dans la documentation fournie par les manufacturiers d’outils médicaux et d’applications médicales. L’analyse révèle un manque d’informations liées à l’IA. Un travail de collaboration multidisciplinaire est crucial pour déterminer les informations à divulguer aux patients concernant l’utilisation des outils et applications d’IA.
Appel à communications
Appel de communications
Titre : Le droit à l’explication et l’Intelligence artificielle dans le domaine de la santé: quels enjeux dans le contexte de la prise de décision automatisée?
Dans le cadre du 92e Congrès de l’Acfas
Responsables du colloque :
- Ma’n Zawati,
- Sarah Bouhouita-Guermech,
Date et lieu : 5 mai 2024 – en personne (au campus de l’École de technologie supérieure) et en ligne
Description
Les systèmes d’intelligence artificielle (IA), malgré les bénéfices potentiels qu’ils peuvent apporter en santé, comme l’amélioration des diagnostiques, la réduction des temps d’attente et l’assistance aux professionnels de la santé, ne sont pas sans enjeux. L’un des défis les plus discutés est la difficulté d’expliquer par quels processus les modèles d’IA génèrent leurs résultats. Plus ces systèmes deviennent complexes, moins il est évident d’expliquer la manière dont ils arrivent à une conclusion quelconque. Cela devient particulièrement inquiétant lorsqu’il s’agit de prise de décision automatisée, étant donné que ces systèmes jouent un rôle de plus en plus important dans des décisions cruciales pour la santé des individus, sans nécessairement savoir exactement quelle approche a été utilisée. Plusieurs juridictions tentent de répondre à ces défis en instaurant des lois et des lignes directrices pour assurer le droit à l’explicabilité pour les patients. Toutefois, on observe dans la littérature un désaccord entre chercheurs sur l’importance de l’explicabilité des systèmes, des normes manquant de clarté, ainsi qu’un écart entre les critères d’explicabilité attendus et en pratique. Un travail de collaboration multidisciplinaire est crucial pour déterminer les informations à divulguer aux patients concernant l’utilisation des outils et applications d’IA.
Informations pour soumettre vos propositions
Veuillez soumettre vos propositions d'ici le 7 février 2024 via l’adresse courriel suivant : sarah.bouhouita-guermech@mcgill.ca
Voici les critères à tenir compte :
- Format de la proposition (orale, par affiche)
- Titre de la proposition : 180 caractères maximum, espaces comprises
Résumé de la proposition : 1 500 caractères, espaces compris
PDF