Veuillez choisir le dossier dans lequel vous souhaitez ajouter ce contenu :
Membre a labase
Marie-Jean MEURS : UQAM - Université du Québec à Montréal
L'application des outils de traitement automatique du langage naturel au domaine du droit est souvent difficile. En effet, les décisions de justice utilisent un vocabulaire spécifique, peu présent dans les corpus publics habituels et la plupart des notes de travail utiles au montage des dossiers sont privées. Il faut de grande quantité de données pour entrainer les algorithmes dédiés à ce domaine, or l'accès à ces données est limité. Pour des raisons à la fois financières et de protection de la vie privée, il est souvent possible de consulter des décisions à la pièce mais pas de les télécharger en lot. De plus, les documents ne sont pas annotés, ce qui limite les possibilités de traitement par des modèles d'apprentissages. Parmi les outils en plein essor figurent les robots conversationnels dont les apports au domaine juridique peuvent être multiples. Assistants personnels des citoyens, aides pour les avocats et les juges, ces outils permettent d'aborder des tâches complexes de façon personnalisable. Cependant, leur création nécessite également la disponibilité de données, ce qui peut limiter leur développement.
Les outils présentés utilisent des données personnelles tant pour leur développement que pour leur fonctionnement ultérieur. Il est donc crucial de prendre en compte les enjeux de société liés à leur implantation, depuis les risques pour la vie privée jusqu'à la reproduction voire au renforcement des biais existants dans les données.
Les développements récents en intelligence artificielle (IA) et particulièrement dans le domaine de l’apprentissage machine ont mené à des percées technologiques importantes (Le Cun, Bengio et Hinton). L’IA permet de créer des systèmes de traitement du langage naturel, de reconnaissance de la voix, de l’image ou de reconnaissance faciale. Elle permet aussi de créer de la musique, des textes littéraires ou d’autres contenus artistiques. Elle trouve des applications en transport, en droit, en finance ou en médecine.
Par exemple, le Naval Medical Center de San Diego et Google AI auraient récemment développé un système capable de détecter des cellules cancéreuses du sein avec une fiabilité de 99 %, un taux supérieur ou équivalent à celui des pathologistes humains dans bien des cas. Dans leur livre The Second Machine Age, Erik Brynjolfsson et Andrew McAfee montrent comment l’IA peut transformer le monde du commerce en permettant d’automatiser ou d’optimiser des procédés existants, mais aussi en créant des modèles d’affaires complètement nouveaux, comme pouvaient l’être Facebook ou Google à leur époque.
Bref, l’IA nous promet une hausse de la productivité, de meilleurs soins de santé ou l’accès à de nouveaux savoirs. Mais elle n’est pas sans soulever des enjeux importants. Premièrement, on en sait peu sur les incidences de l’IA et sur la transformation de la dynamique sociétale. Deuxièmement, ce qu’on sait soulève des inquiétudes : comment rendre des comptes de l’usage d’une technologie dont la complexité interne dépasse parfois la capacité de compréhension des êtres humains? Comment éviter la discrimination algorithmique, les violations de la vie privée ou l’opacité souvent associées à l’usage de ces technologies? Comment réduire l’accroissement des inégalités économiques et l’apparition d’une nouvelle fracture numérique? Finalement, comment s’assurer de la juste appropriation de ces technologies par tous les acteurs impliqués, incluant ceux de la société civile?
Titre du colloque :
Thème du colloque :