Les systèmes d’intelligence artificielle (IA), malgré les bénéfices potentiels qu’ils peuvent apporter en santé, comme l’amélioration des diagnostiques, la réduction des temps d’attente et l’assistance aux professionnels de la santé, ne sont pas sans enjeux. L’un des défis les plus discutés est la difficulté d’expliquer par quels processus les modèles d’IA générent leurs résultats. Plus ces systèmes deviennent complexes, moins il est évident d’expliquer la manière dont ils arrivent à une conclusion quelconque. Cela devient particulièrement inquiétant lorsqu’il s’agit de prise de décision automatisée, étant donné que ces systèmes jouent un rôle de plus en plus important dans des décisions cruciales pour la santé des individus, sans nécessairement savoir exactement quelle approche a été utilisée. Plusieurs juridictions tentent de répondre à ces défis en instaurant des lois et des lignes directrices pour assurer le droit à l’explicabilité pour les patients. Le Québec est la 1ère province canadienne à actualiser sa législation sur la vie privée pour répondre aux défis posés par les avancées en IA et a adopté des lois, comme le projet de loi 64 sur la protection des renseignements personnels et le projet de loi 3 concernant les données en santé, permettant ainsi d'avancer dans la réglementation sur l'explicabilité de l'IA. Toutefois, on observe dans la littérature et dans notre étude un désaccord entre chercheurs sur l’importance de l’explicabilité des systèmes, des régulations manquant de clarté, ainsi qu’un écart entre les critères d’explicabilité attendus et en pratique. Nous avons analysé les informations disponibles sur l’explication de l’IA dans la documentation fournie par les manufacturiers d’outils médicaux et d’applications médicales. L’analyse révèle un manque d’informations liées à l’IA. Un travail de collaboration multidisciplinaire est crucial pour déterminer les informations à divulguer aux patients concernant l’utilisation des outils et applications d’IA.
Le lundi 5 mai 2025