Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

Informations générales

Événement : 88e Congrès de l'Acfas

Type : Colloque

Section : Section 600 - Colloques multisectoriels

Description :

Les progrès de l’intelligence artificielle (IA) — et les implications sociales et éthiques qui y sont associées — font de façon croissante l’objet de discussions dans les médias, ce qui a conduit à une attention accrue des pouvoirs publics et à un investissement concomitant dans la recherche pour mieux cibler les différents défis (sociaux, techniques, gouvernance, réglementation, etc.) et solutions possibles. Dans cette foulée s’inscrit la création récente, grâce à un financement du Fonds de recherche du Québec, de l’Observatoire international des impacts sociaux de l’intelligence artificielle et du numérique (OBVIA), qui a pour mandat de soutenir et de stimuler la recherche sur les conséquences sociétales de l’IA et du numérique, et qui est appuyé par plus d’une douzaine de cégeps et d’universités et qui rassemble plus de 160 chercheur.se.s.

La question des valeurs et des principes devant guider le développement, la commercialisation et l’utilisation de l’IA se trouve au cœur des réflexions des chercheur.se.s associés à l’OBVIA. À cet égard, des principes normatifs ont été élaborés afin de guider l’IA, notamment la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle. Si ces principes constituent une première étape importante pour favoriser une IA responsable, l’étape suivante consiste maintenant à voir comment ces principes peuvent s’actualiser dans la pratique et, à l’inverse, comment ils peuvent sans cesse être actualisés pour mieux répondre aux enjeux pratiques.

Dans cette perspective, ce colloque cherche à connaître les enjeux et les situations problématiques concrets rencontrés en IA, à examiner les cadres normatifs existants et à proposer des outils pour faciliter la prise de décision ainsi que l’élaboration de politiques en matière d’IA. Bref, il s’agit de stimuler une réflexion conjointe entre chercheur.se.s et praticien.ne.s afin de penser ensemble, dans une perspective d’éthique pratique, des approches à la fois novatrices, pertinentes et satisfaisantes pour tous les intervenants concernés afin de favoriser l’innovation responsable en IA.

Remerciements :

Nous remercions les Fonds de recherche du Québec (FRQ) ainsi que l'Observatoire international des impacts sociétaux de l'intelligence artificielle et du numérique (OBVIA) pour leur support.

Dates :

Format : Uniquement en ligne

Responsables :

Programme

Communications orales

Enjeux éthiques de l’IA et du numérique : état des lieux à partir de la littérature

Salle : En ligne — Bâtiment : En ligne
  • Communication orale
    Éthique et IA: Présentation des résultats d'une revue de littérature
    antoine Boudreau Leblanc, Allison Marchildon (Université de Sherbrooke), Bryn Williams-Jones (UdeM)

    L'objectif de cette première séance est de faire un état des lieux des discussions actuelles et de jeter les bases des discussions futures sur l'éthique et l'IA. Pour ce faire, seront présentés les résultats d'une revue de la littérature visant à cartographier l'état des connaissances et les domaines nécessitant plus de recherche seront identifiés. Une attention particulière sera accordée aux défis pratiques et à une approche d’éthique appliquée face à ces questions.


Communications orales

Enjeux des usages de l’IA et du numérique : les robots et leur acceptabilité sociale

Salle : En ligne — Bâtiment : En ligne
Discutant·e·s : Maude Josée Blondin (UdeS - Université de Sherbrooke), Brahim Chaib-Draa (Université Laval)
  • Communication orale
    Une « machine morale » ? Pourquoi? Comment?
    Georges-A. Legault (UdeS - Université de Sherbrooke)

    Lorsque le romancier Azimov a créé les trois lois de la robotique, il cherchait à illustrer non seulement la nécessité de circonscrire les actions des robots pour garantir l’acceptabilité sociale mais aussi pour montrer la complexité impliquée d’un tel processus. Évaluer l’acceptabilité sociale exige à la fois une connaissance des impacts des actions, mais aussi des critères permettant d’établir l’acceptabilité. L’analyse d’impacts dépend du lien entre trois variables: les caractéristiques de l’action, l’identification de l’enjeu qui subit l’impact et le degré de probabilité que l’impact se réalise. L’évaluation exige un processus pour établir l’acceptabilité sociale.
    Dans un premier temps nous analyserons, la complexité inhérente à l’analyse d’impacts, notamment le problème de la diversité des actions de l’IA et la difficulté que soulève la détermination des probabilités d’impact. Dans un second temps analyserons la complexité de l’évaluation éthique sous-entendue dans la détermination de l’acceptabilité sociale. Enfin, nous analyserons la complexité technique impliquée dans la mise en place de « verrous » éthiques pour rendre les machines morales. Au cœur de ce processus, ce sont les notions de morales et d’éthique que sont interpellées.

  • Communication orale
    Pour un usage responsable en robotique: critères d'acceptabilité de personnes âgées à l'égard de robots d'assistance dans leur vie quotidienne
    Charles-Étienne Daniel (UdeS - Université de Sherbrooke), Georges-A. Legault (UdeS - Université de Sherbrooke), Monelle Parent (UdeS - Université de Sherbrooke), Johane Patenaude (UdeS - Université de Sherbrooke)

    Pour certaines personnes âgées, la perte d’autonomie qui pourrait survenir en raison de limitations causées par l’apparition de déficiences susceptibles d’affecter leur capacité à effectuer les activités de la vie quotidienne peut générer beaucoup d’inquiétude.

    Des solutions technologiques ont été proposées pour tenter de répondre à ces difficultés; parmi celles-ci, les « robots d’assistance » semblent constituer une avenue prometteuse.

    Toutefois, le recours à cette technologie n’est pas sans soulever des enjeux, notamment l’acceptabilité, par les personnes concernées, d’une telle forme d’assistance. Il est donc essentiel de s’assurer que les solutions proposées répondront adéquatement aux besoins et aux attentes de ces personnes. Des activités menées dans des résidences nous ont permis d’identifier (par vote, à l’aide de cartons de couleur), les perceptions des participants face à la perspective d’être assisté par un robot dans les activités quotidiennes. Toutefois, si l’analyse des résultats obtenus par cette première cueillette de données a permis d’identifier des perceptions, elle ne nous permet pas de comprendre ce qui motive ces perceptions (valeurs, arguments, etc.). Afin de documenter davantage cet aspect, nous avons organisé un entretien de groupe focalisé (Focus Group) auquel ont été conviées des personnes désirant poursuivre davantage la discussion à ce sujet. Les résultats de cette activité seront présentés lors de cette communication.

  • Communication orale
    Difficultés rencontrées dans l’évaluation du développement de l’IA et de la robotique
    Jean-Pierre Béland (UQAC - Université du Québec à Chicoutimi)

    L’exposé vise à mettre en lumière les difficultés de l’évaluation dans la mise en place d’une gouvernance responsable de l’intelligence artificielle et de la robotique. La première grande difficulté est de comprendre la complexité du processus d’évaluation pour arriver à une décision d’interdire, de limiter ou encore de favoriser la transformation humaine impliquée par ce développement technologique. Quel type d’évaluation choisir : l’évaluation morale, l’évaluation juridique ou l’évaluation éthique? Chacun de ces types d’évaluation nous renvoie à des conclusions différentes : la décision morale est de l’ordre de l’interdiction, la décision juridique est de l’ordre de la régulation (interdire, limiter), la décision éthique est de l’ordre de la meilleure chose à faire (interdire, limiter ou favoriser). Cela nécessite alors d’identifier les principes et les valeurs ainsi que leurs rôles dans l’évaluation. L’autre grande difficulté est de comprendre les difficultés d’opérationnaliser ce processus pour chacun des cas de transformation humaine. Partant du «processus simplifié d’analyse d’impact et d’acceptabilité» (Béland, 2019) dans le cadre de référence du groupe de recherche InternE3LS, il s’agira de montrer comment les principes et les valeurs s’articulent dans les différentes évaluations, ainsi que les difficultés liées à l’opérationnalisation de ces évaluations, et ce à partir de quatre exemples de produits qui sont en voies de commercialisation ou en développement.


Communications orales

Préoccupations de la population et importance de la confiance autour des enjeux éthiques dans le développement de l’IA

Salle : En ligne — Bâtiment : En ligne

Communications orales

Éthique de l’intelligence artificielle : les grands défis pour la gestion des organisations

Salle : En ligne — Bâtiment : En ligne
  • Communication orale
    Défis de l’intégration des considérations éthiques au sein des entreprises mobilisant l’informatique affective
    Frédérique Romy Godin (HEC Montréal), Joé T. Martineau (HEC Montréal)

    Les systèmes et objets dotés de technologies d’intelligence artificielle se multiplient et se diversifient. Le développement accéléré de ces technologies n’épargne pas le domaine de l’informatique affective, qui s’intéresse aux systèmes et applications variées qui mobilisent et exploitent les données émotionnelles des utilisateurs, à différentes fins. Cette conférence s’attardera aux différentes considérations éthiques que soulèvent le développement de ces technologies et la gouvernance de ce type de données sensibles, ainsi qu’au niveau d’intégration, très variable, de ces considérations au sein des organisations qui créent, développent et déploient ces solutions d’intelligence artificielle.

  • Communication orale
    Apprentissage automatique et les enjeux de la reddition de compte algorithmique
    Dominic Martin (UQAM - Université du Québec à Montréal)

    Dans cette présentation, je m’intéresserai à l’obligation de rendre des comptes sur les effets et sur l’usage des systèmes d’apprentissage automatiques dans les organisations privées et publiques. Je montrerai, dans un premier temps, que la reddition de compte est une notion complexe qui doit être mieux définie. Je discuterai ensuite de quatre enjeux soulevés par cette forme d’obligation : composer avec les limites épistémiques, établir les bons mécanismes de sanctions, éviter les effets contreproductifs et établir le bon rapport entre les coûts et les bénéfices de la reddition de compte.

  • Communication orale
    Analyse du processus par lequel les employés d’une organisation de services financiers font sens des nouveaux enjeux éthiques induits par l’adoption des technologies de l’IA
    Aude Marie Marcoux (UQAM - Université du Québec à Montréal)

    Un certain pan de la littérature en éthique organisationnelle adopte une conception dynamique et une perspective pragmatiste de l’éthique. Certains auteurs ont d’ailleurs fait ressortir le fait que la sensibilité et le jugement éthique (et donc les actions qui s’en suivent) ne sont pas un « objet » en soi, une chose que l’on accepte ou pas, mais plutôt une compétence qui se « constitue » à travers la pratique. Une littérature qui pourrait nous aider à comprendre ces processus de sensibilisation éthique est celle liée à la construction de sens. Certes, diverses études ont mobilisé le concept de construction de sens éthique en organisation. Mais qu’en est-il de situations entièrement nouvelles, où aucune balise formelle sur le plan éthique n’existe, comme c’est le cas avec les acteurs organisationnels faisant face à de nouveaux enjeux éthiques induits par l’adoption de l’intelligence artificielle? Cette conférence présentera l’approche et les résultats d’une étude exploratoire visant à analyser le processus par lequel les employés d’une organisation de services financiers font sens des nouveaux enjeux éthiques induits par l’adoption des technologies de l’intelligence artificielle.

  • Communication orale
    Activer et concrétiser l’innovation et l’intelligence artificielle responsables en santé : Élaboration collective et participative d’une checkliste et d’un guide au CHUM
    Camille Blanckaert (CHUM), Annie Passalacqua (Polytechnique), Cécile Petitgand (Centre de recherche du Centre hospitalier de l'université de Montréal)

    Depuis septembre 2020, le Centre hospitalier de l’Université de Montréal (CHUM) et son pôle d’innovation et d’intelligence artificielle (IA) en santé ont mobilisé une équipe pluridisciplinaire et multisectorielle composée de patients, chercheurs, gestionnaires, éthiciens, juristes, développeurs et décideurs de diverses organisations publiques et privées, afin d’activer et concrétiser l’innovation et l’IA responsables en santé. L’équipe s’appuie sur les dix principes de la Déclaration de Montréal pour un développement responsable de l’IA ainsi que d’autres travaux (i.e. Lehoux et al.; Morch et al., 2019) pour produire deux livrables visant à aider les innovateurs à développer des pratiques responsables et inclusives, alignées sur les besoins des populations: une checkliste pour favoriser la pratique réflexive des développeurs d’une part, et un guide pour orienter ces mêmes personnes tout au long du cycle de vie d’une innovation en santé, d’autre part. Les travaux de cette équipe mobilisée par le CHUM ont d’ores et déjà attiré l’attention du groupe de travail organisé par l’Organisation mondiale de la santé en vue de développer des standards pour favoriser l’IA responsable à travers le monde. Ils seront présentés aux participants du colloque en vue de susciter réactions et commentaires et de venir bonifier la démarche adoptée pour l’élaboration des livrables et leur diffusion auprès du plus grand nombre d’acteurs dans le réseau de la santé et des services sociaux, et au-delà.


Communications orales

Impacts de l’IA sur le travail : enjeux éthiques, défis et pistes de solution

Salle : En ligne — Bâtiment : En ligne
Présidence : Dominic Martin (UQAM - Université du Québec à Montréal)
  • Communication orale
    Intelligence artificielle et travail : automatisation, inégalités et précarité
    David Rocheleau-Houle (Commission de l'éthique en science et en technologie)

    Le développement de l’intelligence artificielle (IA) constitue un progrès technologique majeur qui permet d’engendrer des bénéfices sociaux en améliorant les conditions de vie, la santé, la justice, en créant de la richesse et en renforçant la sécurité publique. Mais ce développement présente aussi des risques non négligeables dans la mesure où les machines artificiellement intelligentes peuvent influencer de manière indésirable les choix des individus et des groupes, et affecter l’environnement et le climat. L’une des plus importantes préoccupations ayant trait au développement de l’IA est sans contredit celle de son impact sur le monde du travail. D’abord, ces machines artificiellement intelligentes promettent d’automatiser un nombre de plus en plus important de tâches, mettant ainsi à risque certains travailleurs. Aussi, ce développement risque de faire en sorte que les travailleurs devront collaborer de manière plus intensive avec des machines, modifiant ainsi le contenu des emplois et, possiblement, le sens du travail. Cette présentation introduira les travaux de la Commission de l’éthique en science et en technologie sur les effets de l’IA sur les inégalités socio-économiques et la précarité, en plus d’explorer quelques solutions à considérant advenant le cas que les développements technologiques liés à l’IA participent à creuser les inégalités.

  • Communication orale
    Quels rôles pour les syndicats dans le développement éthique et responsable de l’IA?
    Julie (m.-É) Garneau (Université Laval), Christian Lévesque (HEC Montréal)

    Cette communication s’intéresse aux répertoires d’action développés par les syndicats pour agir sur le déploiement éthique et responsable de l’IA. À partir de données recueillies au cours de la dernière année auprès de représentants syndicaux au Québec, nous esquissons un premier portrait des principaux changements associés au déploiement de l’IA et du numérique sur les lieux du travail pour ensuite dresser un bilan provisoire des craintes et des espoirs que l’IA suscite chez les travailleurs (charge de travail, autonomie et formes de contrôle, qualifications et compétences, risques sociaux et économiques, transparence des nouveaux systèmes, vie privée, etc.). Des pistes d’actions syndicales pour composer avec ces changements complèteront ce portrait. Cette présentation sera ainsi l’occasion de faire ressortir les enjeux éthiques et les grands défis organisationnels susceptibles d’animer les discussions et les négociations autour de « l’organisation numérique du travail » et ce faisant, d’amener les acteurs syndicaux à puiser à travers les répertoires traditionnels d’actions collectives (conventions collectives, judiciarisations et représentations politiques, etc.), tout en mobilisant un répertoire plus créatif sous forme d’expérimentations avec les institutions qui les entourent afin de produire de nouvelles normes et règles pour traiter les enjeux soulevés par ce tournant numérique.


Communications orales

Éthique et responsabilité sociale dans la commercialisation de l’IA et du numérique : regards croisés d’entrepreneur.e.s et de chercheur.se.s

Salle : En ligne — Bâtiment : En ligne
  • Communication orale
    Conception de projets technologiques en IA : accompagner les chercheurs et entrepreneurs dans la prise en compte des enjeux sociaux
    Isabelle Lacroix (UdeS - Université de Sherbrooke), Céline Verchère (UdeS - Université de Sherbrooke)

    L’exposé visera à mettre en lumière les initiatives mises en œuvre au sein de l’Institut Interdisciplinaire d’innovation technologique (3IT), dans le but de favoriser la conversation entre les chercheurs en Sciences Humaines et Sociales et les chercheurs en Génie sur la question des impacts sociaux et de la notion de responsabilité. À partir d’une perspective ancrée dans l’éthique et la sociologie appliquées, nous expliciterons notre approche. Celle-ci vise à accompagner très en amont les projets technologiques et les travaux de recherche, afin d’identifier et analyser au plus tôt les conditions d’une « mise en société » réussie (les valeurs sont alors explicitées) et positionner les projets en termes d’usages responsables (UR). Après avoir présenté les fondements de l’approche, nous reviendrons succinctement sur deux projets réalisés. Ces cas pratiques nous permettront de faire un premier bilan de ce type d’accompagnement et d’ouvrir le débat avec la salle.

  • Communication orale
    EmoScienS, une jeune pousse pour relever le défi éthique de l’IA en informatique affective
    Frédérique Romy Godin (HEC Montréal), Pierrich Plusquellec (UdeM - Université de Montréal)

    L’apprentissage profond a connu des développements impressionnants ces dernières années, en particulier dans le domaine de l’analyse d’images. L’une des conséquences de ces développements fulgurants a été la naissance d’un champ de recherche à forte valeur ajoutée pour les organisations : l’informatique affective. Pionnière dans le domaine de l’analyse automatique des expressions faciales, M. S. Bartlett a lancé une jeune pousse, qui a été achetée par Apple. En 2017, le iPhone 10 est lancé avec la possibilité de reproduire votre expression faciale sur un animoji. La technologie de reconnaissance automatique d’émotions à partir de vos visages est donc bien présente dans nos vies, et cette intrusion soulève des enjeux éthiques puisque les média nous rappellent quotidiennement que les GAFA utilisent nos données sans grande considération. Souhaitant mettre à profit cette technologie pour soutenir le bien-être de ses utilisateurs, nous avons donc lancé en 2019, EmoScienS, une jeune pousse technologique visant à échantillonner les expressions faciales d’émotions de ses utilisateurs pour ensuite leur retourner, à eux seuls, ces données sous la forme d’un bilan émotionnel hebdomadaire, assorti de contenu pour comprendre ce bilan. Au cours de cette présentation, un bref portrait d’EmoScienS sera dressé, les enjeux éthiques et de responsabilité sociale auxquels cette jeune pousse fait face seront abordés, et les moyens de les adresser dans le paysage actuel québécois seront discutés.

  • Communication orale
    Utiliser l’éthique pour combler l’écart entre la pratique manuelle et l’utilisation de l’IA
    Emily Charry Tissier (Whale Seeker)

    L’IA a le potentiel de révolutionner la manière dont tous les domaines opèrent. Cepandant, malgré la faisabilite technique, plusieurs industries ou secteurs ne profitent pas de ces dernières innovations. Qu’est-ce qui retient les responsables d’intégrer l’IA a leurs outils? Comment une utilisation responsable et éthique de l’IA peut-elle les inciter à adopter cette nouvelle solution et à prendre ce risque?

  • Communication orale
    Vie privée dès la conception: une approche favorisant la découverte en IA collaborative
    Alexandre Le Bouthillier (Imagia)

Communications orales

L'histoire de LINK: la Déclaration de Montréal racontée

Salle : En ligne — Bâtiment : En ligne
  • Communication orale
    L'histoire de LINK: la Déclaration de Montréal racontée
    Gabrielle Veilleux-Verreault

    Si vous vous intéressez à l’IA responsable, vous avez fort probablement entendu parler de la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle. Et si vous n’en avez effectivement qu’entendu parler, il est maintenant temps de vous y initier! Dans une présentation amicale et décontractée, venez découvrir les détails de cet important document d’éthique de l’IA en assistant aux aventures d’un charmant robot qui va à la découverte des 10 principes de la Déclaration de Montréal.


Communications orales

Des déclarations de principes aux pratiques: quelle gouvernance pour un développement responsable de l’IA et du numérique?

Salle : En ligne — Bâtiment : En ligne
  • Communication orale
    Le rôle de l’éthique dans la mise en place d’une gouvernance responsable de l’IA à la lumière de l’éthique de l’information
    Frédérick Bruneault (Cégep André-Laurendeau), Andréane Sabourin Laflamme (Cégep André-Laurendeau)

    La publication de la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle s’inscrit dans le sillage d’une mouvance globalisée vers la recherche de principes permettant une gouvernance responsable de l’intelligence artificielle (IA). Ces initiatives visent à répondre à des besoins exprimés tant par la société civile que par les acteurs œuvrant au développement technologique de l’IA. Face à la multiplication des déclarations et des guides en éthique de l’IA, il semble opportun de se questionner sur le rôle de l’éthique dans l’élaboration d’une politique de l’IA. Nous nous proposons donc de réfléchir à ces questions en prenant appui sur l’éthique de l’information développée par Luciano Floridi. Après un bref survol des caractéristiques communes des principales déclarations élaborées ces dernières années en éthique de l’IA, nous présenterons les principales difficultés rencontrées dans l’interprétation et la mise en œuvre des principes généraux dans les milieux de pratique, difficultés qui reposent en dernière instance sur les conditions sociales particulières des milieux propres au développement de l’IA. Nous pourrons alors montrer en quoi la distinction proposée par Floridi entre soft ethics et hard ethics permet de repenser la relation entre l’éthique, la réglementation et la gouvernance et ainsi examiner l’apport (et les limites) des différentes composantes de la réflexion éthique à une gouvernance responsable de l’IA.

  • Communication orale
    La place et le rôle du « droit mou » dans la gouvernance du développement responsable de l’intelligence artificielle et de la robotique
    Charles-Etienne Daniel (UdeS - Université de Sherbrooke)

    Face aux nombreux enjeux techniques, éthiques, légaux et sociaux entraînés par l’essor de l’intelligence artificielle (IA) et de ses applications, différents organismes, instances et acteurs du domaine public et privé ont soulevé la nécessité d’adopter un encadrement socialement responsable de leur développement. En réponse à cet objectif, plusieurs instruments normatifs comme des guides ou chartes de conduite éthique, des lignes directrices ou des déclarations – telles que la Déclaration de Montréal – ont récemment été adoptés. La nature normative de ces instruments est toutefois à géométrie variable et certains d’entre eux comportent une certaine visée régulatoire, ce qui interpelle en retour la place qu’occupe le droit positif dans la gouvernance du développement de l’IA. Comment comprendre la portée et la nature de l’encadrement normatif qu’ils offrent ? Dans cette communication, nous proposons d’identifier dans un premier temps le rôle dévolu au droit positif et ses limites pour encadrer les enjeux du développement de l’IA et de la robotique. Par la suite, nous analyserons les forces et les limites de la régulation qu’offrent plus spécifiquement certains instruments normatifs qualifiés de « droit mou » pour accompagner le droit dans la mise en œuvre d’une gouvernance responsable de ces technologies.

  • Communication orale
    La Déclaration de Montréal: entre principes et application
    Yves Boisvert (ENAP), Steve Jacob (Université Laval), Allison Marchildon (UdeS - Université de Sherbrooke), Aude-Marie Marcoux (UQAM)

    Dans le but de répondre à la demande d'organisations développant ou utilisant des systèmes d'intelligence artificielle souhaitant intégrer les principes de la Déclaration de Montréal à leurs processus d'évaluation et d'implantation de ces technologies, notre équipe de chercheur.e.s a construit une grille de réflexion inspirée de celle-ci.

    Nous présenterons ici les résultats de l'enquête par questionnaire que nous avons menée auprès d'une trentaine de chercheur.e.s universitaires de différentes disciplines ayant pour but de tester et améliorer cette grille de réflexion inspirée de la Déclaration de Montréal. Nous en exposerons ainsi les principaux constats, de même que certaines différences marquées entre les réponses des répondants oeuvrant en IA, les chercheur.e.s d'autres disciplines s'intéressant aux enjeux éthiques de l'IA, ainsi que les chercheur.e.s ayant participé à l'élaboration de la Déclaration de Montréal.

  • Communication orale
    La mise en pratique d’une gouvernance décentrée concernant les IA et les banques données, un projet concernant les eaux usées et la Covid 19
    Alain Létourneau (UdeS - Université de Sherbrooke)

    Quelques rappels de base seront brièvement faits sur l’IA et ses caractéristiques, notamment les liens avec ce qui concerne le big data. Une pluralité impressionnante de phénomènes sont concernés quand nous nous interrogeons sur « l’éthique et l’IA », avec les différents problèmes qui vont de pair. Si, dans une approche pragmatiste, nous pensons que la réflexion éthique gagne à mener sa réflexion en partant des pratiques particulières et des problèmes qui sont posés en celles-ci, il est cohérent de s’arrêter à un cas ou une situation typique avec ses questions plutôt que de s’en tenir à des énoncés généraux, ou à des grands principes. Et la problématique de la gouvernance, si l’on prend le temps d’en fournir un concept adéquat, s’avère potentiellement très féconde pour avancer dans la réflexion éthique. Plus concrètement, nous regarderons les questions posées par le projet soutenu par le FRQ (2021) et dirigé par un sous-groupe de CentrEau, concernant l’analyse des eaux usées considérée comme outil visant à aviser la Santé publique au sujet des fluctuations de la Covid 19. Nous reviendrons sur les enjeux posés eu égard au traitement des big data dans ce projet de recherche comprenant plusieurs pôles institutionnels, et plusieurs angles disciplinaires qui visent à contribuer ensemble à faciliter certaines prises de décision de la santé publique.

  • Communication orale
    L’IA à travers ses usages : de la confiance à l’autorité ?
    Thierry Ménissier (Université Grenoble Alpes)

    Lorsqu’on tente de définir l’éthique pertinente pour l’IA, trois difficultés majeures apparaissent pour savoir (1) à qui cette éthique s’adresse, (2) quelles sont ses finalités, (3) quelles sont les modalités théoriques adéquates pour ce faire dans le répertoire de la théorie morale et politique. Cette triple difficulté constitue pour le questionnement philosophique une véritable opportunité. Pour commencer à la résoudre, on interrogera le rôle dévolu aux systèmes d’IA en poursuivant deux objectifs : à partir des cas offerts par les usages des systèmes contemporains d’IA, nous voulons d’une part caractériser les relations de confiance à l’égard de ces outils ; de l’autre, conceptualiser l’autorité qu’ils sont en train d’acquérir. Le constat de départ est que le déploiement contemporain de l’IA repose sur des formes de confiance envers les machines, véritable « ciment » des usages. Or, du point de vue des usagers, cette confiance s’adresse moins à des outils considérés comme neutres qu’à des entités personnalisées. Bien qu’encore mal qualifiées sur le plan de l’anthropologie ou de l’ontologie, ces entités ne sont plus des outils passifs mais gagnent à être conçues comme des agents. Ceux-ci exercent une influence sur les comportements qu’il convient de documenter et de conceptualiser. Notre contribution vise à examiner s’il s’agit d’une forme d’autorité, et, simultanément, entend envisager les transformations de la notion d’autorité dans le contexte de l’essor mondial de l’IA.


Panel / Atelier

IA et numérique : quels enjeux éthiques et démocratiques?

Salle : En ligne — Bâtiment : En ligne
Participant·e·s : Yves Jacquier, Lyse Langlois (Université Laval), Jocelyn Maclure (Université Laval), Marguerite Mendell (Université Concordia)