pen icon Colloque
quote

Vers une IA scientifique : une approche non agentique pour des systèmes sécuritaires et éthiques

PS

Membre a labase

Pierre-Luc St-Charles : Mila

Résumé de la communication

L’intelligence artificielle (IA) joue un rôle croissant dans la recherche scientifique, mais son développement suscite des préoccupations, notamment en matière d’alignement et de perte de contrôle. L’approche agentique, qui vise à créer des IA autonomes aux objectifs propres, peut poser des risques de comportements imprévisibles et de décisions non alignées sur les valeurs humaines. Pour répondre à ces défis, nous proposons une alternative : l’approche non agentique, fondée sur le concept d'IA scientifique. Cette approche privilégie le développement de modèles capables de raisonner de manière bayésienne et causale, imitant le processus scientifique humain sans chercher à atteindre l’autonomie décisionnelle.

L'IA scientifique agit comme un assistant analytique, facilitant la découverte et l’expérimentation tout en restant sous le contrôle humain. Cette méthode garantit une meilleure transparence et prévisibilité, cruciales pour maintenir la confiance des utilisateurs et la sécurité des systèmes. En réduisant les risques associés à l’autonomie mal contrôlée, l’approche non agentique offre une voie plus sécuritaire pour intégrer l’IA dans la recherche scientifique, tout en respectant les principes éthiques et en maximisant les bénéfices pour la société.

Résumé du colloque

L’automatisation consiste à utiliser des machines pour effectuer des tâches que les humains soit ne veulent pas faire, par exemple lorsque les tâches sont monotones, répétitives, de longue durée ou dangereuses, ou ne peuvent pas faire, par exemple lorsque les tâches sont effectuées dans des conditions trop difficiles ou dans des endroits difficilement accessibles.

Dans l’automatisation avancée, les machines sont dotées de capacités de traitement avancées, par exemple des programmes dits d’intelligence artificielle. Les tâches effectuées peuvent alors s’apparenter à la perception et à la cognition humaines, par exemple la vision, l’audition, le toucher, le raisonnement et l’expression orale, écrite ou artistique.

Pour que les humains aient confiance en ces machines, ils doivent les concevoir et les développer de façon à pouvoir définir leur champ d’action et anticiper, comprendre et expliquer leur comportement dans les différentes situations où elles seront utilisées.

Dans ce cadre, la question qui se pose est de savoir quelle est la meilleure façon de répartir les rôles entre les humains et les machines, non seulement dans la réalisation des tâches mais surtout dans la conception et le développement des machines.

Contexte

section icon Date : 7 mai 2025

Découvrez d'autres communications scientifiques

Autres communications du même congressiste :