Résultats de recherche

filters logos

Filtrer les résultats

arrow down
Années
exclamation icon
Type de contenu
Exporter les résultats Sauvegarder les résultats
13 résultats de recherche
pen icon Colloque
Vers le forage conceptuel
quote

La lecture et l’analyse de texte assistée par ordinateur (LATAO) a , dans ses origines, commencé par l’extraction des concordances. Plus récemment , elle s’est orientée vers la fouille de textes( text mining) pour l’extraction de thème (analyse thématique, etc.). Mais les lecteurs et analystes experts des divers domaines disciplinaires demeurent insatisfaits de la généralité produite par ces outils. Aussi doit-on explorer des stratégies qui permettent l’approfondissement de ces approches devenues classiques. L’une d’entre elles porte sur l’analyse conceptuelle assistée par ordinateur (LACTAO). Mais encore là , celle-ci ne réussit que partiellement à détecter les diverses formes que peut prendre …

quote
pen icon Colloque
Action, computation et système dynamique
quote

Les théories classiques de l'action fondent l'action dans une certaine intentionnalité (désir, volonté, etc.). Certaines lectures récentes tentent de traduire celle-ci en termes de tendances naturelles fondées dans la corporéité physique. Dans ces théories œuvrent deux concepts importants : computationnalité et système dynamique. Comment ces deux concepts interagissent-ils dans le cadre des théories de l'action ? L'un est-il opposé à l'autre ? L'un est-il une version de l'autre ? Où se positionne dans ces cadres la liberté (de l'action), et sa finalité ?

quote
pen icon Colloque
Condensés et résumés automatiques de textes par des méthodes numériques
quote

Étant donné que l'information sous forme électronique est déjà un standard, et que la variété et la quantité de l'information deviennent de plus en plus grandes, des méthodes d'obtention de résumés, ou condensation automatique de textes, constituent une phase critique de l'analyse de textes. La forme la plus connue et la plus visible des condensés de textes est le résumé, ou représentation abrégée et exacte du contenu d'un document. On reconnaît trois types de résumés : l'indicatif, l'informatif et le critique. Peu d'applications ont besoin de résumés critiques, et l'état de l'art ne permet pas d'obtenir d'autres types de résumés …

quote
pen icon Colloque
Utilisation de SATIM pour le repérage de termes clés dans le domaine des télécommunications
quote

Mis en branle depuis mai 2001, le projet GDST (Gestion et Diffusion du Savoir en Télécommunications), dans lequel sont impliqués l'UQÀM, les HEC et le LUB, vise à construire un prototype d'ontologie sur les télécommunications sans fil entre ordinateurs, plus spécialement celles basées sur le protocole 802.11. Pour ce faire, quelques 141 documents traitant de ce domaine ont été recensés sur Internet afin d'identifier les concepts et les mots-clés qui feront partie de cette ontologie. Extraire à la main des concepts et des termes-clés d'une base de documents plus ou moins volumineuse peut s'avérer une tâche à la fois ardue …

quote
pen icon Colloque
L'analyse multidimensionnelle de l'information : du texte au multimédia
quote

Depuis peu de temps le multilinguisme devient une contrainte dont il faut tenir compte dans le développement de chaînes de traitement dédiées à l'analyse et au traitement de l'information textuelle. Si les classifications numériques ont prouvé leur efficacité dans le traitement de gros corpus, aucune réflexion sérieuse n'a été entamée quant à leur capacité à traiter des corpus peu importe leur langue. La principale limite rencontrée étant relative au choix du mot comme paramètre privilégié de l'opération de "tokenisation". Ce choix induit deux contraintes majeures : (i) la définition computationnelle du mot. Celle-ci s'avère très difficile à mettre en oeuvre …

quote
pen icon Colloque
SATIM : une architecture modulaire pour l'analyse et le traitement de l'information multidimensionnelle : application au texte
quote

Les systèmes informatiques ont développé depuis plusieurs années des outils d'assistance au traitement intelligent de l'information. On y a introduit divers paradigmes qui vont de MA classique aux réseaux neuroniques. Dans certaines tâches, ces systèmes deviennent des outils précieux dans l'assistance à l'analyse, mais à la condition d'offrir une grande flexibilité dans l'architecture de ce traitement. Les systèmes antérieurs étaient surtout dédiés à des tâches déterminées. SATIM est une plate-forme de type atelier génie logiciel. Elle est flexible, modulaire et permet la construction rapide et efficace de chaînes diverses de traitement de données informationnelles. Répondant ainsi aux besoins spécifiques des …

quote
pen icon Colloque
La catégorisation automatique : une application en philosophie
quote

La catégorisation automatique de textes est une technologie qui a une foule d'applications commerciales ; cependant l'application qui fera le sujet de cet exposé est de nature philosophique. Après avoir connu des heures de gloire avec les philosophies analytiques du langage, après avoir fait miroité la possibilité de naturaliser les concepts philosophiques (représentation, connaissance, signification), l'analyse conceptuelle n'a pas réalisé ses promesses et est tombée progressivement en désuétude. La cause peut en être cherchée dans la trop grande confiance en l'introspection - le phénomène d'affabulation - et la négligence de la nature prototypique (Lakoff, Rosch) d'un grand nombre de concepts. …

quote
quote
pen icon Communication
Réseaux de neurones et classification textuelle
quote

Le problème auquel doit pallier l'extraction des connaissances terminologiques est celui du traitement d'une quantité importante de documents d'une manière rapide et efficace. La classification de documents pose des problèmes quand les textes sont dynamiques, et ce dans le cas par exemple du traitement des données du cyberespace. Une approche connexionniste est utilisée pour résoudre ce problème. Nous proposons la méthode Classphères, une variante originale des modèles de classification connexionniste. Intégrée à des processus linéaires rapides de pré-traitement du texte, elle produit en sortie des regroupements pouvant avoir des interprétations sémantiques. Nous avons comparé cette méthode avec d'autres méthodes connexionnistes …

quote
pen icon Colloque
Traitement de l'information textuelle et systèmes dynamiques
quote

En raison de l'amplitude des données textuelles non formatées que doivent manipuler les technologies de l'information (Internet, Intranet, Extranet), le traitement informatique de ce type de données doit se fonder de plus en plus sur des modèles numériques. Un des modèles dominants est de type vectoriel et matriciel. (Salton, 1973), à savoir: un texte est retraduit en un espace vectoriel qui est alors analysée de manière statistique (corrélation, tendances, probabilité, clustering, factorisation , etc.) Un des problèmes majeurs des ces approches de type statistique est leur limitation dans le traitement de corpus dynamiques. À chaque nouvel intrant (segment de texte …

quote