Engager les populations vulnérables dans le développement des modèles prédictifs en soins de santé primaires pour une IA inclusive et équitable: Un protocole de recherche
Les modèles prédictifs peuvent présenter des biais entraînant de l'injustice et des recommandations pouvant mettre en danger les utilisateurs. Il est donc important de clarifier les paramètres médicaux et éthiques assurant la sécurité des utilisateurs. Ce projet vise à identifier des modèles prédictifs, décrire les sources de biais, émettre des recommandations et développer un outil d’aide à l’identification de biais pour les projets en santé primaire. Le devis de recherche mixte comprend les activités suivantes: 1) Effectuer un scan environnemental des modèles prédictifs basés sur l’IA en santé primaire dans la littérature publiée et en effectuant des entrevues avec des acteurs clés; 2) Former des groupes de réflexion incluant des experts cliniques, éthiques et du savoir expérientiel des populations vulnérables qui travailleront à identifier et évaluer les biais dans les modèles prédictifs; 3) Implanter des recommandations du groupe de travail dans un modèle, recueillir l’expérience des développeur•es et utilisateur•rices, évaluer l’acceptabilité, la faisabilité et la pertinence des paramètres et la fidélité de l’implantation des recommandations. Les outils qui seront développés pourront orienter les développeurs, les chercheurs et décideurs quant aux stratégies à privilégier pour réduire les risques de biais dans les programmes et services en soins de santé primaires afin de protéger les groupes vulnérables et ne pas exacerber davantage les inégalités.