Veuillez choisir le dossier dans lequel vous souhaitez ajouter ce contenu :
Membre a labase
Georges-A. Legault : Université de Sherbrooke
Lorsque le romancier Azimov a créé les trois lois de la robotique, il cherchait à illustrer non seulement la nécessité de circonscrire les actions des robots pour garantir l’acceptabilité sociale mais aussi pour montrer la complexité impliquée d’un tel processus. Évaluer l’acceptabilité sociale exige à la fois une connaissance des impacts des actions, mais aussi des critères permettant d’établir l’acceptabilité. L’analyse d’impacts dépend du lien entre trois variables: les caractéristiques de l’action, l’identification de l’enjeu qui subit l’impact et le degré de probabilité que l’impact se réalise. L’évaluation exige un processus pour établir l’acceptabilité sociale.
Dans un premier temps nous analyserons, la complexité inhérente à l’analyse d’impacts, notamment le problème de la diversité des actions de l’IA et la difficulté que soulève la détermination des probabilités d’impact. Dans un second temps analyserons la complexité de l’évaluation éthique sous-entendue dans la détermination de l’acceptabilité sociale. Enfin, nous analyserons la complexité technique impliquée dans la mise en place de « verrous » éthiques pour rendre les machines morales. Au cœur de ce processus, ce sont les notions de morales et d’éthique que sont interpellées.
Les progrès de l’intelligence artificielle (IA) — et les implications sociales et éthiques qui y sont associées — font de façon croissante l’objet de discussions dans les médias, ce qui a conduit à une attention accrue des pouvoirs publics et à un investissement concomitant dans la recherche pour mieux cibler les différents défis (sociaux, techniques, gouvernance, réglementation, etc.) et solutions possibles. Dans cette foulée s’inscrit la création récente, grâce à un financement du Fonds de recherche du Québec, de l’Observatoire international des impacts sociaux de l’intelligence artificielle et du numérique (OBVIA), qui a pour mandat de soutenir et de stimuler la recherche sur les conséquences sociétales de l’IA et du numérique, et qui est appuyé par plus d’une douzaine de cégeps et d’universités et qui rassemble plus de 160 chercheur.se.s.
La question des valeurs et des principes devant guider le développement, la commercialisation et l’utilisation de l’IA se trouve au cœur des réflexions des chercheur.se.s associés à l’OBVIA. À cet égard, des principes normatifs ont été élaborés afin de guider l’IA, notamment la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle. Si ces principes constituent une première étape importante pour favoriser une IA responsable, l’étape suivante consiste maintenant à voir comment ces principes peuvent s’actualiser dans la pratique et, à l’inverse, comment ils peuvent sans cesse être actualisés pour mieux répondre aux enjeux pratiques.
Dans cette perspective, ce colloque cherche à connaître les enjeux et les situations problématiques concrets rencontrés en IA, à examiner les cadres normatifs existants et à proposer des outils pour faciliter la prise de décision ainsi que l’élaboration de politiques en matière d’IA. Bref, il s’agit de stimuler une réflexion conjointe entre chercheur.se.s et praticien.ne.s afin de penser ensemble, dans une perspective d’éthique pratique, des approches à la fois novatrices, pertinentes et satisfaisantes pour tous les intervenants concernés afin de favoriser l’innovation responsable en IA.
Titre du colloque :