Veuillez choisir le dossier dans lequel vous souhaitez ajouter ce contenu :
Membre a labase
Cécile Petitgand : Data Lama
Depuis septembre 2020, le Centre hospitalier de l’Université de Montréal (CHUM) et son pôle d’innovation et d’intelligence artificielle (IA) en santé ont mobilisé une équipe pluridisciplinaire et multisectorielle composée de patients, chercheurs, gestionnaires, éthiciens, juristes, développeurs et décideurs de diverses organisations publiques et privées, afin d’activer et concrétiser l’innovation et l’IA responsables en santé. L’équipe s’appuie sur les dix principes de la Déclaration de Montréal pour un développement responsable de l’IA ainsi que d’autres travaux (i.e. Lehoux et al.; Morch et al., 2019) pour produire deux livrables visant à aider les innovateurs à développer des pratiques responsables et inclusives, alignées sur les besoins des populations: une checkliste pour favoriser la pratique réflexive des développeurs d’une part, et un guide pour orienter ces mêmes personnes tout au long du cycle de vie d’une innovation en santé, d’autre part. Les travaux de cette équipe mobilisée par le CHUM ont d’ores et déjà attiré l’attention du groupe de travail organisé par l’Organisation mondiale de la santé en vue de développer des standards pour favoriser l’IA responsable à travers le monde. Ils seront présentés aux participants du colloque en vue de susciter réactions et commentaires et de venir bonifier la démarche adoptée pour l’élaboration des livrables et leur diffusion auprès du plus grand nombre d’acteurs dans le réseau de la santé et des services sociaux, et au-delà.
Les progrès de l’intelligence artificielle (IA) — et les implications sociales et éthiques qui y sont associées — font de façon croissante l’objet de discussions dans les médias, ce qui a conduit à une attention accrue des pouvoirs publics et à un investissement concomitant dans la recherche pour mieux cibler les différents défis (sociaux, techniques, gouvernance, réglementation, etc.) et solutions possibles. Dans cette foulée s’inscrit la création récente, grâce à un financement du Fonds de recherche du Québec, de l’Observatoire international des impacts sociaux de l’intelligence artificielle et du numérique (OBVIA), qui a pour mandat de soutenir et de stimuler la recherche sur les conséquences sociétales de l’IA et du numérique, et qui est appuyé par plus d’une douzaine de cégeps et d’universités et qui rassemble plus de 160 chercheur.se.s.
La question des valeurs et des principes devant guider le développement, la commercialisation et l’utilisation de l’IA se trouve au cœur des réflexions des chercheur.se.s associés à l’OBVIA. À cet égard, des principes normatifs ont été élaborés afin de guider l’IA, notamment la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle. Si ces principes constituent une première étape importante pour favoriser une IA responsable, l’étape suivante consiste maintenant à voir comment ces principes peuvent s’actualiser dans la pratique et, à l’inverse, comment ils peuvent sans cesse être actualisés pour mieux répondre aux enjeux pratiques.
Dans cette perspective, ce colloque cherche à connaître les enjeux et les situations problématiques concrets rencontrés en IA, à examiner les cadres normatifs existants et à proposer des outils pour faciliter la prise de décision ainsi que l’élaboration de politiques en matière d’IA. Bref, il s’agit de stimuler une réflexion conjointe entre chercheur.se.s et praticien.ne.s afin de penser ensemble, dans une perspective d’éthique pratique, des approches à la fois novatrices, pertinentes et satisfaisantes pour tous les intervenants concernés afin de favoriser l’innovation responsable en IA.
Titre du colloque :
Thème du colloque :