Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

Informations générales

Événement : 88e Congrès de l'Acfas

Type : Colloque

Section : Section 200 - Sciences naturelles, mathématiques et génie

Description :

L’observation de la Terre (OT) concerne l’acquisition et la production d’informations sur notre milieu de vie, notamment les ressources naturelles, l’environnement, l’atmosphère et les infrastructures, à l’aide des technologies de télédétection par satellites ou par d’autres moyens aériens (avions, drones). On assiste de plus en plus à un développement fulgurant des différents types de plateformes d’acquisition par les agences spatiales à travers le monde, mais également par le secteur privé. Cette effervescence est motivée par les défis et les possibilités énormes liés, entre autres, à la gestion des espaces territoriaux, à la gestion des ressources naturelles ou au changement climatique. Les différentes plateformes permettent d’imager les territoires à des échelles temporelles et spatiales inédites, contribuant ainsi à une compréhension de plus en plus raffinée de notre environnement de vie. Ces technologies sont incontournables pour le Québec et le reste du Canada, compte tenu des énormes étendues territoriales peu habitées. Avec la multiplication des plateformes, l’OT est l’une des plus grandes sources de mégadonnées. Elle cumule jour après jour des quantités phénoménales de données. Se pose alors le défi de l’exploitation de ces données massives à l’ère de la 4e révolution industrielle pour produire de l’information décisionnelle. Les progrès importants en intelligence artificielle influencent grandement les approches utilisées en télédétection, sur le plan tant des traitements que de l’utilisation de ces données. Ainsi, le colloque proposé s’interroge sur la place de l’OT dans cette nouvelle ère, les tendances dans l’archivage, les traitements et l’exploitation des données. Il s’interroge sur les changements de paradigmes, et en particulier sur l’impact sur la compréhension fondamentale des données d’OT face à des méthodes d’extraction automatisée. Le colloque s’intéresse à l’OT sous différents angles (mégadonnées, IA, etc.).

Remerciements :

Nous tenons à remercier les conférenciers (professeurs, chercheurs et étudiants) qui ont répondu à notre invitation afin de mettre en place ce colloque de l'édition 2020 du congrès de l'Acfas, en partageant leur temps et résultats de recherche. Nous remercions également le CARTEL et les responsables de l'Acfas qui ont permis la réalisation de ce bel événement.

Dates :

Format : Uniquement en ligne

Responsables :
  • Kalifa Goïta (UdeS - Université de Sherbrooke)
  • Yacine Bouroubi (UdeS - Université de Sherbrooke)
Partenaire :

Programme

Communications orales

Intelligence artificielle en OT : les grands défis

Salle : En ligne — Bâtiment : En ligne
Présidence : Kalifa Goïta (UdeS - Université de Sherbrooke)
Discutant·e·s : Justine Boulent (UdeS - Université de Sherbrooke), Samuel Foucher (Centre de recherche informatique de Montréal), Étienne Lauzier-Hudon (UdeS - Université de Sherbrooke), Yvan Ouellet (horoma AI), Pierre-Luc St-Charles (Mila), Mathieu Turgeon-Pelchat (UdeS - Université de Sherbrooke)
  • Communication orale
    L'apprentissage profond appliqué à l'observation de la terre: défis et perspectives
    Samuel Foucher (Centre de recherche informatique de Montréal)

    Les techniques d'apprentissage profond ont révolutionné l'état de l'art dans plusieurs domaines scientifiques comme la vision par ordinateur, le traitement de la parole et du langage, etc. Un impact similaire est attendu dans les domaines de l'observation de la terre et des sciences du climat. Cette présentation propose un survol de quelques applications récentes. Finalement, après un bref résumé des défis rencontrés, nous tenterons de donner quelques directions sur les développements futurs.

  • Communication orale
    Apprentissage automatique en observation de la Terre: applications d'aujourd'hui et impacts futurs
    Pierre-Luc St-Charles (Mila)

    L’introduction des nouvelles méthodes d’intelligence artificielle dans le domaine de l'apprentissage machine bouleverse de plus en plus des approches classiques. Depuis une dizaine d'années, cette révolution affecte et métamorphose de nombreuses applications reliées à l'analyse et à l'interprétation de tous les types d'imagerie. En observation de la Terre, de nombreuses tâches ardues qui nécessitaient auparavant les efforts d'experts en photo-interprétation peuvent maintenant être complètement automatisées. Dans certains cas, les résultats fournis par des réseaux de neurones profonds sont même meilleurs que ceux de nombreux experts. Dans cette conférence, nous survolerons les types de problèmes qui sont actuellement les mieux maîtrisés en analyse d'images, tout en identifiant les diverses solutions proposées en apprentissage automatique. Nous discuterons ensuite de quelques aspects intéressants des modèles convolutifs profonds appliqués aux problèmes d'observation de la Terre. Enfin, nous survolerons quelques axes de recherche qui devraient bientôt permettre de repousser encore plus loin les limites des solutions d'aujourd'hui.

  • Communication orale
    Détection d'anomalies de culture
    Yvan Ouellet (horoma AI)

    horoma AI présentera une revue de sa collaboration avec NorthStar Ciel & Terre pour le développement de solutions d’agriculture de précision. En utilisant l'IA, les données hyperspectrales ainsi que les capacités de fusion de données de NorthStar, ce partenariat vise à détecter les anomalies de culture. Le produit veut offrir une mesure de la productivité et de la santé des cultures pour permettre une meilleure profitabilité et de meilleurs rendements tout en maintenant des pratiques agricoles durables.

  • Communication orale
    D’un cépage à l’autre : vers une détection automatique et pluri-cépages d’une maladie de la vigne, la flavescence dorée, en utilisant des techniques d’apprentissage profond.
    Justine Boulent (UdeS - Université de Sherbrooke)

    La flavescence dorée (FD) est une maladie de la vigne qui affecte les vignobles européens. Elle génère beaucoup d’inquiétudes dans le secteur viticole du fait de sa diffusion rapide et de son caractère irréversible. Malgré des mesures de lutte importantes, la maladie continue de se propager. Les prospections partielles voire inexistantes résultant en un arrachage incomplet des vignes contaminées sont notamment mises en cause. L’objectif de ce projet est de développer un outil de détection automatique de la FD qui pourrait par la suite être déployé pour réaliser des prospections automatisées. Pour cela, nous nous sommes servis de techniques d’apprentissage profond, et plus particulièrement de réseaux pleinement convolutifs. En plus de présenter les résultats obtenus avec le modèle développé, nous abordons les questions de sa robustesse à la réalité du milieu applicatif et de sa capacité d’utilisation sur plusieurs cépages. Pour ce faire, nous utilisons deux techniques de visualisation : Guided Grad-Cam et UMAP, qui nous permettent d’identifier des pistes d’amélioration de notre modèle afin d’aboutir à la création d’un outil de prospection au service des viticulteurs.

  • Communication orale
    Adaptation des architectures ADDA et semi-ADDA pour la détection d'objets par apprentissage profond sur les images satellites THR
    Yacine Bouroubi (UdeS - Université de Sherbrooke), Étienne Lauzier-Hudon (UdeS - Université de Sherbrooke)

    Malgré les performances impressionnantes des CNNs en analyse d’images d’OT, de récentes publications soulignent leurs lacunes de généralisation lorsqu’appliqués à de nouvelles régions géographiques jamais ou très peu vues lors de l’entraînement. Le champ de recherche essayant de résoudre ce problème est celui de l’adaptation de domaine (DA, domain adaptation). Récemment, une nouvelle méthode de DA basée sur l’apprentissage adverserielle nommée Adversarial Discriminative Domain Adaptation (ADDA) s’est attaquée à ce problème avec succès. Peu après, une amélioration (semi-ADDA) fut proposée pour rendre le processus semi-supervisé. Or, bien que les performances atteintes par ADDA et semi-ADDA soient supérieures à celles des autres méthodes de DA, la tâche visée en est une de classification. Dans le cadre du travail présenté ici, les architectures ADDA et semi-ADDA sont modifiées pour passer de la classification à la détection d’objets, et ce en remplaçant l’architecture de classification de ADDA par l’architecture de détection d’objets Faster R-CNN. L’adaptation de domaine est effectuée pour deux classes des jeux de données xView (domaine source) et GeoImageNet (domaine cible). Les images de ces jeux de données ne proviennent ni du même territoire, ni du même capteur, ce qui constitue une tâche complexe de DA. Les résultats montrent l’efficacité de ADDA et semi-ADDA, même lorsqu’étendus à la détection d’objets, améliorant significativement les performances sur le domaine cible.

  • Communication orale
    Classification automatique de nuages de points issus du lidar aéroporté par apprentissage profond
    Mathieu Turgeon-Pelchat (UdeS - Université de Sherbrooke)

    Les données lidar sont utilisées dans la planification urbaine et l’aide à la décision en situation d’urgences. L’importance de ces données mène à une croissance dans la disponibilité des nuages de points issus de lidar aéroporté. Pour en permettre l’analyse, il est nécessaire de faire la classification de ces données, soit d’associer une classe d’occupation du sol à chacun des points. Pour certaines classes d’occupation du sol, les algorithmes de classification automatique ne parviennent pas à obtenir des résultats dont la qualité se rapproche de ce qu’une personne qualifiée peut obtenir. Ce faisant, cette étape nécessite une intervention manuelle importante afin de corriger les résultats des processus automatiques, ce qui augmente le coût de valorisation de ces données. Les caractéristiques des nuages de points varient énormément selon les spécifications d’acquisition, le capteur utilisé et les conditions de la zone à couvrir au moment de l’acquisition, ce qui augmente la difficulté d’automatisation de l'étape de classification. Cette recherche vise à vérifier l’applicabilité d’une méthode de classification basée sur l’apprentissage profond, à des nuages de points issus du lidar aéroporté dans différents contextes, de superficies importantes (>200km2). Les résultats ont été évalués quantitativement et qualitativement sur la capacité à classifier les points de bâtiments, de végétation et de plan d’eau, sur des sites d'études au Québec et au Nouveau-Brunswick.


Communications orales

Intelligence artificielle en OT : applications

Salle : En ligne — Bâtiment : En ligne
Présidence : Samuel Foucher (Centre de recherche informatique de Montréal)
Discutant·e·s : Pier-Marc Comtois-Rivet (Institut du vehicule innovant.), Samuel Foucher (Centre de recherche informatique de Montréal), Yvan Ouellet (horoma AI), Michaël Prince (horoma AI), Jean-Daniel Sylvain (Ministère de la forêt de la faune et des parcs)
  • Communication orale
    Cartographie des attributs biophysiques des écosystèmes forestiers à l’aide des données d’observation de la terre et de l’intelligence artificielle.
    Nicolas Brown (Ministère de la forêt de la faune et des parcs), Guillaume Drolet (Ministère de la forêt de la faune et des parcs), Jean-Daniel Sylvain (Ministère de la forêt de la faune et des parcs)

    Le secteur forestier québécois génère 58 000 emplois et 2% du PIB (6 092 M$). Pour soutenir le développement économique tout en maintenant l’intégrité des écosystèmes forestiers, le gouvernement du Québec s'est doté en 2015 d’une stratégie d'aménagement durable des forêts (SADF). Or, la mise en place et l’application de cette stratégie requièrent une connaissance approfondie et un système de suivi des écosystèmes forestiers adapté à la superficie qu’ils occupent sur le territoire (761 100 km ²). Les données d'observation de la terre permettent d’assurer un suivi en continu du couvert forestier et demeurent, à ce sous utilisées dans la gestion forestière. Depuis 2017, notre équipe de recherche développe différentes approches opérationnelles pour la cartographie des attributs biophysiques en combinant des données provenant de capteurs aéroportés et satellitaires à des techniques issues des récents développements en intelligence artificielle et en vision par ordinateur. En plus de soutenir les activités d’aménagement forestier, l es produits cartographiques découlant de nos travaux visent à supporter l’étude de l'effet du climat, des attributs biophysiques et des perturbations naturelles et anthropiques sur la productivité et la vulnérabilité des écosystèmes forestiers. Ces connaissances apparaissent d ’autant plus importantes dans un contexte où les changements globaux exerceront une pression accrue sur la productivité et le maintien de ce s écosystèmes.

  • Communication orale
    IA pour la mesure de la vulnérabilité de réseaux de distribution électrique liée à la végétation
    Yvan Ouellet (horoma AI)

    La grande majorité des pannes sur les réseaux de distribution électriques sont liées à des bris d'arbres soumis à des phénomènes météo extrèmes tels le verglas ou un épisode de grand vent. Chaque espèce d'arbres a des propriétés mécaniques qui lui sont propres et définissent comment ils sont le plus susceptibles de briser lorsque soumis à un grand stress. L'objet de cette présentation sera le modèle de classification de la végétation et de proximité du réseau développé par horoma AI en collaboration avec l'IREQ à partir d'images et de données LiDAR permet l'inventaire géoréférencé de tous les arbres qui posent une menace pour le réseau de distribution électrique. Cet inventaire détaillé permet la planification stratégique d'activités d'émondage pour réduire le risque de panne.

  • Communication orale
    Automatisation de l'inventaire de l'usage du territoire par l'IA
    Michaël Prince (horoma AI)

    Les dernières techniques d'apprentissage profond en IA sont particulièrement bien appliquées à l'inventaire de l'usage du territoire. Cette présentation passera en revue la mécanique et les enjeux derrière le développement du modèle entrainé par horoma AI. Ces travaux, effectués avec la collaboration de cinq municipalités en Estrie, visait la classification de plus de 7 500 km2 de territoire. Le produit permet l’identification automatique de bâtiments, piscines, terrains perméable et imperméable, forêt, champs de culture, friche, etc,…

  • Communication orale
    Évaluation d'un CNN comme un estimateur d'information polarimétrique
    Mario Beaulieu (Centre de recherche informatique de Montréal), François Cavayas (Centre de recherche informatique de Montréal), Samuel Foucher (Centre de recherche informatique de Montréal)

    L'estimation des propriétés de diffusion de cibles étendues à partir de données PolSAR à simple vue (SLC) reste un problème difficile. Ce défi est particulièrement aigu sur les images complexes à simple vue, où peu d'information sur le processus de diffusion peut être tirée d'une matrice de covariance de rang 1. Les techniques d'apprentissage approfondi ont été couronnées de succès pour de nombreuses tâches de vision par ordinateur et montrent des résultats prometteurs lorsqu'elles sont appliquées à des données polarimétriques. Toutefois, les propriétés d'un réseau neuronal convolutif (CNN) en tant qu'estimateur restent à explorer. L'objectif de cette présentation est d'évaluer la qualité d'un réseau neuronal convolutif en tant qu'estimateur des informations polarimétriques par rapport à une simple moyenne d'échantillon et à un ensemble de filtres de speckle. Des expériences sont menées en utilisant des données PolSAR simulées et les résultats montrent que le CNN peut avoir des qualités d'estimateur supérieures en termes de biais et de variance sur différents paramètres polarimétriques calculés à partir de la matrice de covariance filtrée.

  • Communication orale
    Détection des défauts sur les photographies aériennes par IA
    Étienne Clabaut (UdeS - Université de Sherbrooke)
  • Communication orale
    Développement d'un tracteur électrique autonome à l'ère de IA.
    Pier-Marc Comtois-Rivet (Institut du vehicule innovant.)

    L'Institut du véhicule innovant a été mandaté de concevoir un tracteur électrique autonome pour la compagnie Elmec. L'autonomie apporte différents défis tant au niveau contrôle, planification de trajectoire et perception. Dans cette présentation, nous explorerons différents problèmes auxquels le robot fait face et comment utiliser les techniques de contrôle et d'intelligence artificielle pour solutionner ces problèmes.

Communications orales

Mégadonnées et applications de l’OT

Salle : En ligne — Bâtiment : En ligne
Discutant·e·s : Najib Djamai (Ressources naturelles Canada), Mickael Germain (UdeS - Université de Sherbrooke), Saeid Homayouni (INRS - Institut national de la recherche scientifique), Yves Moisan (Ressources naturelles Canada), Alain Royer (UdeS - Université de Sherbrooke), Nouri Sabo (Ressources naturelles Canada)
  • Communication orale
    La révolution d’un nouvel âge spatiale - De l’exploration à l’exploitation de l’espace
    Jacques Arnould (CNES - Agence spatiale française), Alain Royer (UdeS - Université de Sherbrooke)

    Plus de cinquante ans après les premiers pas de l’homme sur la Lune, la conquête de l’espace fait de plus en plus rêver l’industrie spatiale privée. En Février 2018, SpaceX change la donne en propulsant dans l’espace avec succès le Falcon Heavy, la fusée la plus puissante au monde. Et avec leur projet Starlink, ils visent à mettre sur orbite une constellation de plusieurs milliers de satellites de petite taille. Leur objectif : tester une technologie capable de fournir une connexion Internet ultra-rapide partout dans le monde. Will Marshall, le patron de Planet Labs de la Silicon Valley, est maintenant capable de photographier l’intégralité de la planète chaque jour avec une constellation de 300 nanosatellites. La révolution des nanosatellites « CubeSat » imaginés par l’Université de Standford, CA à des fins scientifiques et pédagogiques ouvre des perspectives encore inimaginables il y a 20 ans. Le nombre de ces CubeSats en orbite croit de manière vertigineuse, lancés à moindre coûts avec un nouveau type de mini-fusées dédiées. Cette explosion, sans précédent, de projets de développement sociétale, dans la course à la « souveraineté de l’espace » et de suivi de la Planète Terre à partir de l’espace soulève de nombreux problèmes (sécurité, durabilité, débris spatiaux, pollution lumineuse de l’espace). Une nouvelle éthique internationale qui engagerait les États, les agences spatiales et tous les acteurs privés de l’espace s’impose urgemment.

  • Communication orale
    L’analyse de données massives de l’observation de la Terre pour un pays massif
    Saeid Homayouni (INRS - Institut national de la recherche scientifique)

    La technologie moderne d'observation de la Terre (OT) a fourni l’occasion unique d'accroître une compréhension détaillée des diverses caractéristiques du système terrestre. En particulier, les systèmes de télédétection optique et radar collectent des images et des données multi-temporelles, multi-spectrales et multi-fréquences avec une résolution spatiale croissante. Ces données exceptionnelles présentent à la fois des opportunités et des défis. De nos jours, quatre grandes révolutions technologiques modifient le paysage de l'OT: les données massives, l’informatique haute performance en nuage, la technologie open-source et l’intelligence artificielle et l’apprentissage automatique. En d'autres termes, un changement de paradigme évident dans la technologie et l'analyse de l'OT se produit. Par conséquent, il est temps de tirer parti de ces technologies innovantes pour faire progresser nos connaissances, surveiller notre planète dynamique, et relever les défis environnementaux. Cette présentation comportera deux volets principaux. La première partie couvre brièvement quelques concepts de base et de nouvelles avancées dans l'analyse des données massives d’OT. La deuxième partie présente les résultats d'un nouveau projet de collaboration à l'échelle nationale qui a récemment été réalisé: la première génération de la carte d'inventaire des terres humides du Canada à une résolution spatiale de 10 m en utilisant les données Sentinel 1 et 2 sur la plate-forme de Google Earth Engine.

  • Communication orale
    Algorithmes d’apprentissage automatique pour la cartographie des paramètres biophysiques de la végétation à l’échelle globale à partir des images multi-spectrales de Sentinel-2
    Najib Djamai (Ressources naturelles Canada)

    La mission Sentinel-2 (S2) a l’objectif d’assurer des acquisitions d'images multi-spectrales à haute résolution spatiale alliées à une fréquence de revisite élevée pour le suivi spatio-temporel de la surface, incluant les paramètres de la végétation. Simplified Level 2 Product Prototype Processor (SL2P), une collection de réseaux de neurones artificiels formés par des simulations de la canopée représentatives à l'échelle globale, est proposé pour estimer les paramètres biophysiques de la végétation à partir des données S2.

    L’objectif de ce travail est d’évaluer l’incertitude des produits des paramètres de la végétation obtenus avec les images S2 et SL2P en zone agricole située aux Prairies Canadiennes et proposer une approche de régularisation des produits avec Apprentissage Actif : une base de données de calibration locale peuplée par les estimations valides d’un paramètre donné obtenues avec SL2P et des indices spectraux sélectionnés avec Least Absolute Shrinkage and Selection Operator regression.

    Les mesures in-situ de la campagne de terrain Soil Moisture Active Passive Validation Experiment 2016 sont utilisées pour la validation.

    Les résultats confirment que l’incertitude des estimations des paramètres de la végétation obtenues avec les images S2 et SL2P en zone agricole satisfait les exigences de la mission, et que la régularisation permet de réduire les valeurs aberrantes obtenues dans les produits de SL2P et d’augmenter la fraction des estimations valides.

  • Communication orale
    Le rôle des agences de cartographie nationales à l’ère des mégadonnées
    Nouri Sabo (Ressources naturelles Canada)

    Le Centre de cartographie et d’observation de la Terre (CCCOT) est l’agence de cartographie nationale du Canada. Depuis plus d’un siècle, le CCCOT recueille et met en valeur une vaste gamme de données géospatiales dites “fondamentales” : bâtiments, routes, eau de surface, etc. Dans cette présentation, nous aborderons le rôle que les agences cartographiques nationales pourraient avoir quant aux données dans un contexte où les données géospatiales, qui fournissent une information spatio-temporelle essentielle à la prise de décision, déferlent sur les organisations en raison du nombre croissant de capteurs satellitaires et aéroportés. Les questions éthiques qui se posent dans l’exercice même de l’exploitation des données, dans une optique de collaboration avec d’autres organisations notamment, seront également discutées.

  • Communication orale
    Techniques d’extraction de l’information géospatiale à partir de données matricielles au CCCOT
    Yves Moisan (Ressources naturelles Canada)

    Depuis plusieurs décennies, la télédétection vient en aide aux organisations responsables de la cartographie du territoire comme le Centre de cartographie et d’observation de la Terre (CCCOT) du gouvernement du Canada. La responsabilité initiale du CCCOT, soit la production de cartes topographiques, s’est transformée pour devenir, au fil des avancées technologiques en télédétection et en informatique, la mise à jour des données géomatiques fondamentales du Canada. Dans la présente ère de mégadonnées et d’incertitude climatique, l’heure n’est plus à la production de contenants statiques, comme des cartes, mais plutôt à la production de contenu géomatique dynamique. Dans ce contexte, le CCCOT s’intéresse depuis quelques années aux techniques d’extraction basées sur l'apprentissage profond (AP) qui, contrairement aux systèmes experts, permettent une approche plus holistique du problème. Après une brève rétrospective des techniques d’extraction d’information géospatiale utilisées au CCCOT, nous aborderons les derniers développements en matière d’extraction automatique d’information géospatiale à partir de données matricielles, notamment le logiciel libre geo-deep-learning et l’environnement de mégadonnées mis en place par le CCCOT.

  • Communication orale
    Développement d’un système de reconnaissance automatisée des états de surface du réseau routier par intelligence artificielle et fusion des données multicapteurs
    Mickael Germain (UdeS - Université de Sherbrooke)

    La surveillance des états de surface du réseau routier est un élément clé pour l’aide à la décision en entretien hivernal et pour documenter des interventions d’épandage. En plus d’une analyse adéquate des prévisions et des observations météorologiques, il est essentiel de savoir si la surface est sèche, mouillée, enneigée ou glacée. Cette information permet d'anticiper une détérioration des conditions de circulation. Plusieurs capteurs de détection des états de surface sont actuellement sur le marché. Ils sont basés sur une technologie d'analyse du rayonnement infrarouge ou proche infrarouge de la surface, mais ces capteurs sont dispendieux et nécessitent plusieurs points de mesures sur la surface. Notre approche consiste à mettre en place une stratégie innovante pour la reconnaissance des états de surface en limitant les inconvénients des solutions actuelles. Nous utilisons des nano-ordinateurs récents pour y intégrer plusieurs capteurs à un coût réduit pour l’acquisition des données images, sonores et météorologiques. Ces données sont analysées en temps réel par intelligence artificielle et fusionnées pour améliorer la reconnaissance des états de surface.


Communications orales

Réalité virtuelle et Web 2.0 en OT

Salle : En ligne — Bâtiment : En ligne
Présidence : Yves Moisan (Ressources naturelles Canada)
Discutant·e·s : Thierry Badard (Université Laval), Jean-Denis Giguère (Anagraph), Étienne Morin (Vision Météo inc.), Mir Abolfazl Mostafavi (Université Laval), Vincent Thomas (CIMMI)
  • Communication orale
    Le projet ORACLE 2 – Développement de méthodes et outils géomatiques pour supporter la production d’un portrait du risque lié aux inondations et d’anticipation de ces dernières
    Thierry Badard (Université Laval)

    Suite aux inondations exceptionnelles de 2017, le ministère de la Sécurité Publique a adopté un Plan d’action relatif aux inondations. Afin d’améliorer la résilience aux catastrophes, il faut notamment mieux connaître les zones inondables ainsi que les risques qui y sont associés, surveiller davantage les niveaux ainsi que les débits d’eau et établir des mesures permanentes visant à réduire les risques. Cette présentation vise à présenter le projet ORACLE-2. Il repose sur l’utilisation des plus récentes technologies et méthodes géospatiales pour supporter la production d’un portrait du risque lié aux inondations. Il vise principalement à fournir une connaissance exhaustive sur les bâtiments en zones inondables mais également à délimiter ces dernières de façon plus rapide et précise afin de mieux soutenir la prise de décision dans tous les aspects de la gestion du risque. Il fournira un inventaire exhaustif des bâtiments sensibles aux aléas d’inondation ainsi que leur caractérisation structurelle et occupationnelle. Ceci permettra une meilleure estimation des impacts et dommages prévisibles, ainsi que des coûts associés à une inondation. Ce projet fera appel aux plus récentes technologies d’observation de la Terre (ex. LiDAR terrestre et aéroporté, imagerie, drone) ainsi qu’aux méthodes les plus avancées de la science des données géospatiales : intégration de données multi-sources, géo-visualisation avancée, intelligence artificielle, données massives, capteurs multiples ...

  • Communication orale
    Comment l’analyse statistique et l’analyse géographique se supportent-elles mutuellement dans un contexte d’aide à la décision?
    Jean-Denis Giguère (Anagraph), Alexis Pont (Anagraph)

    Aujourd’hui plus de 80 % des données produites dans le monde possèdent une référence géographique, néanmoins seulement 10% de ces données à référence spatiales sont utilisées pour prendre une décision. Pourtant de plus en plus de décideurs ont conscience de la valeur que peuvent apporter ces mégadonnées géographiques, en témoigne la croissance estimée des investissements dans notre secteur, passant de 10.8G$ à presque 20G$ entre 2018 et 2024. Ainsi grâce à l’enrichissement géographique de l’analyse statistique en 2 dimensions (quantitative et temporelle), que nous nommerons géo-analytique, les organisations développeront une capacité à bonifier leur compréhension d’une problématique par des modèles dans l’espace (territoire) et dans le temps (transactions). Dans cette présentation, nous discuterons des pistes pour franchir le cap de l’analyse statistique descriptive en la bonifiant avec des données spatiales et ce sans formation particulière. Nous présenterons un cas d’enrichissement de données couplée à un cas de visualisation cartographique permettant d’apporter immédiatement une valeur ajoutée à tous utilisateurs, même non initiés.

  • Communication orale
    Architecture des systèmes géographiques d’aide à la décision grand public
    Jean-Denis Giguère (Anagraph), Alexis Pont (Anagraph)

    En un peu plus d’un an, les recherches google ayant une consonance géographique ont augmentées de plus de 330%. Traduction, toutes les organisations doivent prendre le virage géographique pour améliorer non seulement leur prise de décision, mais aussi celle de leurs usagers. Comme une proportion croissante des problèmes rencontrées dans une organisation sont davantage complexes que compliqués, nous nous devons de transformer l’architecture des systèmes analytiques en les enrichissant de fonctionnalités géographiques. Nous discuterons de la conception d’interfaces utilisateurs non-experts, adaptées à la prise de décision, par la mise en place d’une architecture logicielle flexible, s’appuyant sur les concepts de micro services infonuagiques. Cette architecture en micro services, favorisera l’intégration dans différents systèmes et diminuera sans aucun doute la durée de mise en place d’outils d’aide à la décision. Notre présentation illustrera les différents principes de micro service infonuagiques à partir d’exemples tirés de systèmes d’aide à la décision développé chez Anagraph. Vous pourrez ainsi voir l’impact d’une telle architecture sur la mise en place d’indicateur de performance qualitatifs et quantitatifs (débit, volume, total, latence, saturation …)

  • Communication orale
    Villes intelligentes et inclusives: comment l’intelligence artificielle appliquée aux données lidar peut-elle aider à l’analyse de l’accessibilité des lieux?
    Sarra Ghodhbane (Université Laval), Mir Abolfazl Mostafavi (Université Laval), Xufeng Xing (Université Laval)

    L’amélioration de la participation sociale de personnes vivant des situations de handicap représente un défi de taille au Canada et à l’international. Pour une grande majorité de ces personnes, la possibilité de se déplacer de manière autonome est une condition essentielle à la réalisation de leurs habitudes de vie (ex. travailler, aller à l’école). Cependant, l’environnement dans lequel ces personnes accomplissent leurs activités quotidiennes regorge de divers obstacles (ex. des escaliers, la pente trop forte). Avec le développement des villes intelligentes et inclusives, il devient possible de mieux aider ces personnes dans leur déplacement en utilisant les données et technologies de l’information géospatiales. Cependant, les bases de données traditionnelles ne sont pas assez détaillées et précises pour cet objectif. Dans ce contexte, la technologie lidar représente une alternative intéressante. Mais, le traitement des données lidar demeure très couteux et nécessite des approches automatisées. Les méthodes issues de l’intelligence artificielle appliquées aux données lidar présentent une solution très prometteuse pour l’extraction rapide et détaillée de l’information sur l’accessibilité de l’environnement (réseau piétonnier, intersection, etc.). Lors de cet exposé, nous présenterons les résultats de l’extraction de l’information de l’accessibilité des lieux et nous discuterons les avantages et les limites de cette approche.

  • Communication orale
    Le fleuve virtuel
    Vincent Thomas (CIMMI)

    Comment modéliser le fleuve Saint-Laurent en 3D pour une application de réalité virtuelle? C’est ce que nous proposons dans cette conférence qui résumera les travaux effectués par le CIMMI qui contribuent à la base d’un projet de grande envergure mené par Innovation maritime. La maquette 3D ainsi créée servira à la formation des pilotes du Saint-Laurent sous toutes sortes de conditions météorologiques et à la reconstitution d’incidents maritimes. La réalité virtuelle permet de s’affranchir d’équipements de simulation coûteux et complexes à mettre en place tout en offrant un haut sentiment d’immersion à l’utilisateur. La scène 3D est conçue par Unity, un puissant engin de jeux vidéo. Ce logiciel permet de passer d’une journée ensoleillée à une nuit orageuse par exemple. Puisque la projection cartographique utilisée y est bien gérée, il est facile d’intégrer à la scène des éléments distinctifs du territoire qui ont une position connue, tels que les feux de navigation et les bâtiments. Cette conférence ouvre une fenêtre sur une application géomatique de la réalité virtuelle et vous inspirera à utiliser le plein potentiel de cette technologie.

  • Communication orale
    Outils de gestion avec réseau de capteurs météo
    Étienne Morin (Vision Météo inc.)

    La compréhension des particularités météorologiques d'un milieu est une composante essentielle à l'optimisation de la gestion des ressources. Le développement des tableaux de bord sur le Web a créé un engouement pour des outils de gestion chez les décideurs d'organisations de toute taille. Des outils de gestion sont maintenant beaucoup plus facile à concevoir tout en les offrant à des coûts considérablement réduits, contribuant ainsi à la démocratisation des solutions en IoT. Vision Météo intensifie ses démarches en R&D depuis 3 ans et propose à ses clients une infrastructure de collecte des données ainsi que des tableaux de bord adaptés à leur besoin en météorologie appliquée.