Veuillez choisir le dossier dans lequel vous souhaitez ajouter ce contenu :
Membre a labase
Jean-Pierre Béland : UQAC-Université du Québec à Chicoutimi
L’exposé vise à mettre en lumière les difficultés de l’évaluation dans la mise en place d’une gouvernance responsable de l’intelligence artificielle et de la robotique. La première grande difficulté est de comprendre la complexité du processus d’évaluation pour arriver à une décision d’interdire, de limiter ou encore de favoriser la transformation humaine impliquée par ce développement technologique. Quel type d’évaluation choisir : l’évaluation morale, l’évaluation juridique ou l’évaluation éthique? Chacun de ces types d’évaluation nous renvoie à des conclusions différentes : la décision morale est de l’ordre de l’interdiction, la décision juridique est de l’ordre de la régulation (interdire, limiter), la décision éthique est de l’ordre de la meilleure chose à faire (interdire, limiter ou favoriser). Cela nécessite alors d’identifier les principes et les valeurs ainsi que leurs rôles dans l’évaluation. L’autre grande difficulté est de comprendre les difficultés d’opérationnaliser ce processus pour chacun des cas de transformation humaine. Partant du «processus simplifié d’analyse d’impact et d’acceptabilité» (Béland, 2019) dans le cadre de référence du groupe de recherche InternE3LS, il s’agira de montrer comment les principes et les valeurs s’articulent dans les différentes évaluations, ainsi que les difficultés liées à l’opérationnalisation de ces évaluations, et ce à partir de quatre exemples de produits qui sont en voies de commercialisation ou en développement.
Les progrès de l’intelligence artificielle (IA) — et les implications sociales et éthiques qui y sont associées — font de façon croissante l’objet de discussions dans les médias, ce qui a conduit à une attention accrue des pouvoirs publics et à un investissement concomitant dans la recherche pour mieux cibler les différents défis (sociaux, techniques, gouvernance, réglementation, etc.) et solutions possibles. Dans cette foulée s’inscrit la création récente, grâce à un financement du Fonds de recherche du Québec, de l’Observatoire international des impacts sociaux de l’intelligence artificielle et du numérique (OBVIA), qui a pour mandat de soutenir et de stimuler la recherche sur les conséquences sociétales de l’IA et du numérique, et qui est appuyé par plus d’une douzaine de cégeps et d’universités et qui rassemble plus de 160 chercheur.se.s.
La question des valeurs et des principes devant guider le développement, la commercialisation et l’utilisation de l’IA se trouve au cœur des réflexions des chercheur.se.s associés à l’OBVIA. À cet égard, des principes normatifs ont été élaborés afin de guider l’IA, notamment la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle. Si ces principes constituent une première étape importante pour favoriser une IA responsable, l’étape suivante consiste maintenant à voir comment ces principes peuvent s’actualiser dans la pratique et, à l’inverse, comment ils peuvent sans cesse être actualisés pour mieux répondre aux enjeux pratiques.
Dans cette perspective, ce colloque cherche à connaître les enjeux et les situations problématiques concrets rencontrés en IA, à examiner les cadres normatifs existants et à proposer des outils pour faciliter la prise de décision ainsi que l’élaboration de politiques en matière d’IA. Bref, il s’agit de stimuler une réflexion conjointe entre chercheur.se.s et praticien.ne.s afin de penser ensemble, dans une perspective d’éthique pratique, des approches à la fois novatrices, pertinentes et satisfaisantes pour tous les intervenants concernés afin de favoriser l’innovation responsable en IA.
Titre du colloque :
Thème du colloque :