Veuillez choisir le dossier dans lequel vous souhaitez ajouter ce contenu :
Membre a labase
Anne Lehmans : Université de Bordeaux
Le développement des open data en France, confirmé par les politiques récentes, conduit les acteurs à s’interroger sur les stratégies et les pratiques de gestion des données à mettre en place dans les organisations concernées. Un projet de recherche sur la culture des données, à partir d’une analyse des discours et d’une enquête qualitative sur les pratiques de gestion des données, montre que, face aux demandes, aux risques et aux avantages perçus dans l’agenda de l’ouverture et de la diffusion des données publiques, des stratégies variées de gouvernance des données s’installent, avec des effets sur le management de l’information et la gestion des connaissances. Elles remettent en question les modes d’organisation et la répartition des “compétences métiers” par rapport à la production, à l’organisation et à la mise en circulation de données ouvertes pour leur réutilisation. Dans ce contexte de dialogue entre un projet politique d’ouverture et de transparence et la réalité d’une gouvernance en construction, des formes de “bricolages” se mettent en place pour fournir leur épaisseur aux données, une épaisseur qui reflète la complexité des processus pour assurer la durabilité de la donnée à travers la qualité, la sécurité, l’usabilité, et la légalité.
Le sujet de ce colloque porte sur les méthodes et stratégies de gestion de l'information par les organisations dans un contexte de production de données massives (big data). Nombreuses sont les organisations qui cherchent des méthodes, stratégies afin de « faire parler » ces données et ainsi orienter leurs stratégies, leurs prise de décision, etc. Les big data fascinent du fait des potentialités qu’elles laissent entrevoir en terme de performance organisationnelle. Cependant, cela soulève des enjeux techniques, méthodologiques, organisationnels, communicationnels et éthiques auxquels il faut réfléchir. Face à l’accumulation de données massives en milieu organisationnel, l’approche privilégiée pour en tirer un sens est celle de l’analyse quantitative en vue de s’en servir pour la prise de décision. Ceci conduit à l’idée dangereuse que des données statistiques seraient plus utiles et objectives et contribueraient à rendre les organisations plus efficaces et rentables. Toutefois, cette accumulation de données chiffrées analysées statistiquement est limitée par l’absence d’un contexte significatif riche, qui pour sa part est généré par une accumulation d’éléments non chiffrés, non quantifiables, non structurés et donc difficilement mesurables, de type socio-culturel (thick data), qui doivent être étudiés par une analyse qualitative. Cette rencontre entre les big data et les thick data peut générer l’information actionnable et compléter la perspective qu’une organisation doit avoir de son environnement et l’aider à mieux orienter ses voies d’action. La gestion des données massives n’est pas uniquement une question d’outils mais de stratégies et cela nécessite qu’une réflexion soit menée sur les stratégies et méthodes mises en œuvre par les organisations pour traiter, visualiser et « faire sens » de leurs données afin de pouvoir agir.
Titre du colloque :