Il est essentiel de poser un regard critique distancié sur ces objets pour mieux évaluer les choix collectifs à venir, prévenir certaines dérives et pondérer les discours tant alarmistes que jovialistes.
Ce texte a été publié une première fois dans le quotidien Le Devoir, le 20 octobre 2018, au sein d'un cahier spécial.
L’accumulation massive de données, la construction d’ordinateurs de plus en plus puissants, le développement d’algorithmes s’inspirant des « réseaux de neurones » du cerveau, l’apprentissage automatique et autres avancées dans le traitement des données ont spectaculairement accéléré la pénétration du numérique dans la vie privée et publique. Toutes ces techniques sont aujourd’hui regroupées sous ce qu’il est convenu d’appeler « l’intelligence artificielle » (IA).
Des investissements massifs, tant publics — issus de processus de décision parfois opaques — que privés, ont récemment propulsé l’IA au rang de secteur vedette, annonçant des bouleversements notables au sein de la société.
Cet engouement soulève des questions importantes : comment distinguer les effets d’annonce des avancées réelles? Comment les personnes s’approprient-elles ces innovations? Quels sont les impacts sur les individus et la vie sociale de l’usage d’algorithmes pour la prise de décision? Si les commentateurs parlent de « tsunami » ou encore de « révolution », c’est bien aussi parce que ce nouvel environnement technologique façonne autant d’espoirs que de craintes et donne lieu, de la part de ses promoteurs, à des prévisions optimistes et à un ensemble de discours que les sociologues regroupent sous l’expression « économie de la promesse ». Il est donc essentiel de poser un regard critique distancié sur ces objets pour mieux évaluer les choix collectifs à venir, prévenir certaines dérives et pondérer les discours tant alarmistes que jovialistes.
Cet objectif guide deux unités de recherche de l’UQAM regroupant une centaine de chercheuses et de chercheurs représentant plusieurs disciplines (histoire informatique, droit, communications, philosophie, management). Le Centre interuniversitaire de recherche sur la science et la technologie (CIRST) est, au Canada, le principal regroupement consacré à l’étude des dimensions historiques, sociales, politiques, philosophiques et économiques de l’activité scientifique et technologique. Affilié au CIRST, HumanIA rassemble des chercheuses et chercheurs soucieux de réfléchir au développement humaniste de l’IA dans une perspective critique. Ses membres sont issus des sciences humaines, mais également des sciences informatiques, mathématiques, biologiques et du génie, chacun nourrissant les réflexions du groupe des particularités de sa discipline.
L’engouement récent pour l’IA n’a rien de nouveau pour ces chercheurs, qui ont observé au cours du XXe siècle d’autres phénomènes semblables. Le domaine de l’éducation a ainsi vu passer les prédictions de « révolution » pédagogique que devaient engendrer radio, télévision, ordinateurs et tablettes électroniques… De même, la génomique et les nanotechnologies ont fait l’objet, au début des années 2000, d’annonces allant de la technophilie à la technophobie. Les discours récents entourant l’IA ne sont donc pas inédits dans leur structure. De façon générale, les applications de ces développements technologiques ont été plus prosaïques que ce qui avait été annoncé et rien ne permet de croire que l’IA échappera à cette logique, malgré le démenti prévisible de ses plus ardents promoteurs.
Politiques publiques et conflits d’intérêts
Récemment, les prophéties les plus diverses sur l’avenir des technologies issues de l’IA ont entraîné la multiplication de déclarations de principes éthiques sur la robotique et le développement de l’IA, telles Asilomar AI Principles (jan. 2017), Robot Ethics COMEST/UNESCO (sept. 2017), IEEE General Principles of Ethical Autonomous and Intelligent Systems (déc. 2017), Toronto Declaration on protecting the rights to equality and non-discrimination in machine learning systems (mai 2018) ou encore la Déclaration de Montréal IA responsable (juin 2018). Or, au-delà de ces interventions « généreuses » et consensuelles, il importe de replacer l’IA dans son contexte social, économique et politique pour en restituer la portée et les limites.
L’élaboration de politiques publiques touchant le numérique et l’IA devra se fonder sur des données d’enquêtes effectuées par des organisations autonomes, crédibles et exemptes de conflits d’intérêts (réels ou apparents). Ainsi, on comprend aisément que, malgré leur expertise, on ne demande pas aux chercheurs de Monsanto (ou de Bayer) d’évaluer la toxicité réelle du glyphosate… Cependant, des concepteurs de l’IA s’improvisent aujourd’hui sociologues, philosophes ou encore éthiciens, utilisant la crédibilité acquise dans leur domaine très spécialisé pour diffuser un discours le plus souvent dénué d’ancrage épistémologique et fort éloigné de leur champ de compétence. Leur indispensable contribution devrait plutôt se concentrer sur l’explication de leurs travaux, du fonctionnement réel des algorithmes qu’ils développent, de leurs capacités et limitations.
En s’éloignant des dangers de conflits d’intérêts, ces acteurs de l’IA retrouveraient une crédibilité scientifique permettant des échanges utiles avec les organismes indépendants qui examinent les algorithmes et les conséquences de leur usage du point de vue des sciences humaines et sociales. Il est en effet largement démontré que la crédibilité de toute proposition d’action politique ou sociale se fonde sur la rigueur des analyses, mais surtout sur l’autonomie réelle et perçue des organismes qui les formulent. Il ne peut en être autrement dans le domaine de la recherche et de l’analyse des impacts sociaux des nouvelles technologies issues de l’IA et du numérique.
Il est en effet largement démontré que la crédibilité de toute proposition d’action politique ou sociale se fonde sur la rigueur des analyses, mais surtout sur l’autonomie réelle et perçue des organismes qui les formulent.
Note de la rédaction : Les textes publiés et les opinions exprimées dans Découvrir n’engagent que les auteurs, et ne représentent pas nécessairement les positions de l’Acfas.
- Yves Gingras
Université du Québec à Montréal
Yves Gingras est professeur à l’Université du Québec à Montréal (UQAM) depuis 1986. Sociologue et historien des sciences, il est aujourd’hui directeur scientifique l’Observatoire des sciences et des technologies et titulaire de la Chaire de recherche du Canada en histoire et sociologie des sciences.
- Marie-Jean Meurs
Université du Québec à Montréal
Marie-Jean Meurs est professeure à l'Université du Québec à Montréal (UQAM). Ses travaux de recherche portent sur l'intelligence artificielle et notamment sur le traitement automatique du langage naturel. Elle est coordinatrice du regroupement de recherche HumanIA qu'elle a cofondé en 2017.
Vous aimez cet article?
Soutenez l’importance de la recherche en devenant membre de l’Acfas.
Devenir membreVous pourriez aimer aussi
Commentaires
Articles suggérés
Infolettre