Revue de portée sur le concept de la responsabilité en intelligence artificielle (IA) en santé montre une grande diversité en termes de définitions et de thématiques de discussion
L’IA est de plus en plus adoptée par les systèmes de santé. Cependant, des enjeux (éthiques, juridiques, sociaux et politiques) émergent pour diverses parties prenantes. L’enjeu qui nous intéresse est la responsabilité. Nous nous intéressons à savoir comment ce concept est discuté, défini et abordé dans la littérature relative à l’utilisation de l’IA en santé.
Méthode :
Nous avons effectué une revue de portée de la littérature sur la responsabilité de l’IA en santé (janvier 2017 et janvier 2022, inclusivement). Six bases de données électroniques (par ex : Ovid et Scopus) ont été utilisées et plusieurs articles ont été retrouvés indépendamment.
Résultats :
Notre stratégie de recherche nous a permis de sélectionner 145 articles. Les données ont été regroupées en 4 thèmes : 1) les types de responsabilités et les principes liés; 2) les groupes impliqués et leurs rôles vis-à-vis de la responsabilité; 3) les barrières d’établir des cadres normatifs sur la responsabilité; et 4) quelques recommandations pour assurer une imputabilité dans chaque stade de vie de l’IA en santé.
Discussion :
Les articles rassemblés ont démontré à la fois que le principe de la responsabilité est primordial pour une IA responsable et qu’il y ait un grand manque de lignes directrices sur le sujet. Ainsi, il est essentiel de faire ressortir les enjeux de responsabilités et préciser l’utilisation du terme durant toutes les discussions afin d’établir une gouvernance de l’IA éthiquement acceptable.
Connexion requise
Pour ajouter un commentaire, vous devez être connecté.