Veuillez choisir le dossier dans lequel vous souhaitez ajouter ce contenu :
Membre a labase
Jacques Ducloy : Université de Lorraine
Avec le soutien du programme ISTEX, le démonstrateur Wicri expérimente l’élaboration d’informations de synthèse en explorant des corpus scientifiques. Son socle est un réseau de wikis sémantiques (Semantic MediaWiki). Les corpus sont traités dans des plateformes de curation et d’exploration, fabriquées, sous Unix, avec une bibliothèque de composants XML ou PHP. Avec un haut niveau de personnalisation, la version actuelle permet de fusionner des métadonnées hétérogènes (ISTEX, HAL, Pascal/Francis, PubMed, PubMed Central) avec réduction des doublons et homogénéisation des données. Il est possible ensuite d’exploiter le texte intégral.
Le rédacteur, humaniste numérique, est le véritable pilote d’une étude. Il bénéficie des performances de MediaWiki pour rédiger un texte scientifique en mode collaboratif. Il assemble des briques XML pour obtenir des modèles wiki contenant des cartes et des tableaux de résultats qu’il introduira dans les pages wiki. Il manipule l’environnement sémantique pour exprimer les règles utilisées dans la curation des données.
Cette infrastructure, encore expérimentale, est notamment utilisée pour des travaux dirigés dans des Master en science de l’information. Sur des sujets en rapport avec le contenu des wikis thématiques (environnement, linguistique, informatique…) ou régionaux (Allemagne, France, Brésil, Lorraine…), un groupe d’étudiants peut ainsi analyser un ensemble de plusieurs milliers de documents et rédiger des observations synthétiques.
À l’ère d’Internet, l’accès à un volume conséquent de publications a des incidences sur le travail des chercheurs, leur positionnement dans la communauté internationale, l’évaluation de la recherche et les modèles économiques sous-jacents.
Le développement des données en libre accès (open data) ainsi que les bibliothèques, archives et musées en ligne ne sont que quelques exemples illustrant l’évolution de la notion de texte ou de document, sa diversité et sa prolifération.
Des collections issues de bibliothèques traditionnelles sont maintenant accessibles librement, comme Gallica et Digital Public Library of America. À ce type de bibliothèques numériques s’ajoutent les publications savantes, qui sont une part importante des publications numériques. Des acteurs francophones importants ont vu le jour aussi bien au Canada qu’en France (Persée, Cairn.info, HAL et Érudit). De récentes initiatives nationales ont également permis le développement d’importantes archives scientifiques (ISTEX en France, Swissbib en Suisse, GBV en Allemagne et Scholars Portal en Ontario) ou muséales (Europeana et Musée virtuel du Canada).
Parallèlement, les méthodes automatisées de traitement se diversifient et se spécialisent : fouille de texte, méthodes d’apprentissage profond (deep learning) pour traiter des données massives et transformation d’informations en données liées. Cependant, de nombreuses questions restent en suspens, notamment en ce qui concerne la gestion de gros corpus multithématiques. Pouvoir disposer d’outils d’analyse efficaces capables de s’adapter à de gros volumes de données, souvent de nature hétérogène et non toujours structurés, dans des langues variées et des domaines très spécialisés, reste un défi.
Le traitement des données numériques implique de multiples domaines (traitement automatique des langues, intelligence artificielle, linguistique, statistiques et informatique), permettant des applications diversifiées : recherche d’information, veille, évaluation de programmes de recherches, prospective, etc.
Titre du colloque :
Thème du colloque :