Veuillez choisir le dossier dans lequel vous souhaitez ajouter ce contenu :
Membre a labase
Xavier Malet : Université Laval
Du fait de la volumétrie qu’elles représentent, les données LiDAR sont actuellement stockées et traitées par tuile. Ceci tient principalement au fait que le traitement de ces données se fait actuellement sur de simples postes de travail et ne tire pas bénéfice de la scalabilité horizontale que procure l’infonuagique (cloud computing). Ainsi, le traitement de volumes de données LiDAR équivalent à celui d’une ville ou d’un bassin versant est difficile voire impossible, même si de telles analyses sont requises. Elles imposent de devoir traiter des recollements entre les tuiles, celles-ci étant traitées les unes après les autres. Le traitement des données LiDAR fait donc face au même défi que les bases de données géospatiales dans les années 90, où celles-ci étaient encore découpées en feuillets cartographiques. Les systèmes de gestion de données spatiales ont permis de changer de paradigme et de traiter le territoire non plus en feuillet (ou tuile) mais comme un continuum (une base de données).
L’objet de la présentation est ici d’introduire des travaux réalisés au CRDIG et concernant la conception d’un engin de lac de données géospatiales capables de gérer une telle volumétrie de données et son traitement performant.
L’observation de la Terre (OT) a depuis longtemps fait ses preuves en appui à la prise de décisions éclairées dans de multiples champs, dont l’agriculture, l’hydrologie, la foresterie et la sécurité civile. Par ailleurs, au cours de la dernière décennie, un essor technologique et conceptuel intense a amené une multiplication des capteurs, un raffinement majeur des résolutions autant spatiales que temporelles, certes signes précurseurs de développement, mais aussi d’enjeux sociétaux.
S’inscrivant dans la foulée du colloque Acfas 2021, L’observation de la Terre à l’ère de la 4e révolution industrielle, cette édition se concentre sur quatre tendances clés : 1) l’introduction de nouveaux capteurs et plateformes innovantes; 2) les défis posés par les données massives; 3) l’utilisation de l’intelligence artificielle; et 4) la démocratisation de l’accès et de l’analyse des données.
En premier lieu, les nouveaux capteurs (LiDAR, hyperspectral) et plateformes (drones, CubeSat) repoussent les frontières radiométriques et spatiales, permettent la concrétisation de séries temporelles fiables et encouragent l’entrée de nouveaux joueurs dans le milieu. La multiplication des données d’OT nécessite quant une gestion de mégadonnées pour lesquelles les requêtes et l’analyse exigent des compétences complexes et un savoir-faire unique. Par ailleurs, l’IA s’étant rapidement imposée comme incontournable en OT, ses capacités d’automatisation et d’analyse révolutionnent le domaine du traitement des images, mais, en contrepartie, provoquent des questionnements éthiques et sociétaux importants. Enfin, l’accès et l’analyse de données d’OT se sont démocratisés grâce à l’infonuagique : ce nouveau paradigme ouvre la porte à une nouvelle clientèle de praticiens et praticiennes multidisciplinaires.
Ces avancées scientifiques et techniques constituent des tremplins d’innovation et de collaboration d’une valeur inestimable pour notre communauté et sont, comme il est déjà possible de l’observer, une voie d’avenir prometteuse.
Titre du colloque :