L’intelligence artificielle (IA) s’immisce dans tous les pans de la vie sociale : chaque jour apporte son lot d’exemples d’usages de l’IA, qu’ils soient positifs ou négatifs pour la société et les individus. L’émergence de l’IA générative vient par exemple bousculer le milieu de la culture et remettre en cause le modèle économique. Les usages en santé sont prometteurs, mais encore faut-il que les avantages que l’on peut en tirer profitent à toutes et tous. Il est, quoi qu’il en soit, clair que les technologies d’IA génèrent des risques d’atteinte à la confidentialité, à la vie privée, mais aussi des risques de biais qui peuvent être facteurs de discrimination. En conséquence, on admet aujourd’hui de plus en plus la nécessité d’encadrer les usages de l’IA par des solutions éthiques, techniques et surtout juridiques.
Alors que le Canada et l’Union européenne ont présenté respectivement leurs projets de loi sur l’intelligence artificielle, de nombreuses questions demeurent : Les règles proposées sont-elles adaptées? Sont-elles suffisamment précises et efficaces? N’y a-t-il pas à l’inverse de risques d’obsolescence rapide? Tient-on correctement compte des spécificités techniques pour s’assurer de bien capter l’objet de droit?
Cette analyse est menée suivant une méthodologie de droit comparé et une approche pluridisciplinaire en intégrant l’éthique, le droit et les sciences de l’IA (informatiques et mathématiques). Plus spécialement, les définitions et le régime de l’IA, en particulier les modèles de fondation, dont l’IA générative, sont interrogés par les éthiciens, les juristes et les scientifiques. Ils méritent de faire l’objet d’un dialogue pluridisciplinaire afin d’en appréhender pleinement le sens et la portée pour évaluer la nécessité de règles spéciales.
L’évaluation critique et comparative des projets de loi doit aussi interroger la pertinence de solutions alternatives.à