Veuillez choisir le dossier dans lequel vous souhaitez ajouter ce contenu :
Membre a labase
Charles-Etienne Daniel : Université de Sherbrooke
Face aux nombreux enjeux techniques, éthiques, légaux et sociaux entraînés par l’essor de l’intelligence artificielle (IA) et de ses applications, différents organismes, instances et acteurs du domaine public et privé ont soulevé la nécessité d’adopter un encadrement socialement responsable de leur développement. En réponse à cet objectif, plusieurs instruments normatifs comme des guides ou chartes de conduite éthique, des lignes directrices ou des déclarations – telles que la Déclaration de Montréal – ont récemment été adoptés. La nature normative de ces instruments est toutefois à géométrie variable et certains d’entre eux comportent une certaine visée régulatoire, ce qui interpelle en retour la place qu’occupe le droit positif dans la gouvernance du développement de l’IA. Comment comprendre la portée et la nature de l’encadrement normatif qu’ils offrent ? Dans cette communication, nous proposons d’identifier dans un premier temps le rôle dévolu au droit positif et ses limites pour encadrer les enjeux du développement de l’IA et de la robotique. Par la suite, nous analyserons les forces et les limites de la régulation qu’offrent plus spécifiquement certains instruments normatifs qualifiés de « droit mou » pour accompagner le droit dans la mise en œuvre d’une gouvernance responsable de ces technologies.
Les progrès de l’intelligence artificielle (IA) — et les implications sociales et éthiques qui y sont associées — font de façon croissante l’objet de discussions dans les médias, ce qui a conduit à une attention accrue des pouvoirs publics et à un investissement concomitant dans la recherche pour mieux cibler les différents défis (sociaux, techniques, gouvernance, réglementation, etc.) et solutions possibles. Dans cette foulée s’inscrit la création récente, grâce à un financement du Fonds de recherche du Québec, de l’Observatoire international des impacts sociaux de l’intelligence artificielle et du numérique (OBVIA), qui a pour mandat de soutenir et de stimuler la recherche sur les conséquences sociétales de l’IA et du numérique, et qui est appuyé par plus d’une douzaine de cégeps et d’universités et qui rassemble plus de 160 chercheur.se.s.
La question des valeurs et des principes devant guider le développement, la commercialisation et l’utilisation de l’IA se trouve au cœur des réflexions des chercheur.se.s associés à l’OBVIA. À cet égard, des principes normatifs ont été élaborés afin de guider l’IA, notamment la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle. Si ces principes constituent une première étape importante pour favoriser une IA responsable, l’étape suivante consiste maintenant à voir comment ces principes peuvent s’actualiser dans la pratique et, à l’inverse, comment ils peuvent sans cesse être actualisés pour mieux répondre aux enjeux pratiques.
Dans cette perspective, ce colloque cherche à connaître les enjeux et les situations problématiques concrets rencontrés en IA, à examiner les cadres normatifs existants et à proposer des outils pour faciliter la prise de décision ainsi que l’élaboration de politiques en matière d’IA. Bref, il s’agit de stimuler une réflexion conjointe entre chercheur.se.s et praticien.ne.s afin de penser ensemble, dans une perspective d’éthique pratique, des approches à la fois novatrices, pertinentes et satisfaisantes pour tous les intervenants concernés afin de favoriser l’innovation responsable en IA.
Titre du colloque :
Thème du colloque :