Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

Informations générales

Événement : 87e Congrès de l'Acfas

Type : Domaine

Section : Section 200 - Sciences naturelles, mathématiques et génie

Description :

Les outils de traitement de l’information ont connu un essor important ces dernières années, et on les trouve dans différents domaines de recherche. En effet, un bon traitement de l’information permet d’asseoir une analyse adéquate et une meilleure compréhension. Le but de cette session est de dresser une panoplie d’outils de traitement de l’information provenant de diverses sources selon le domaine. Les exemples d’informations traitées sont l’image, le texte, les données liées au transport routier ainsi qu’au domaine biomédical.

Dates :
Responsable :
  • Mohand Said Allili (UQO - Université du Québec en Outaouais)

Programme

Communications par affiches

Session d’affiches

Salle : Grande salle - domaine 210 — Bâtiment : UQO A.-Taché
  • Communication par affiche
    Analyse biomécanique du risque de traumatisme crânio-cérébral léger lors de la pratique du soccer
    Caroline Lecours (ÉTS - École de technologie supérieure), Yvan Petit (ÉTS - École de technologie supérieure), Eric Wagnac (ÉTS - École de technologie supérieure)

    Depuis le début des années 2000, le monde sportif a pris conscience des conséquences importantes du traumatisme crânio-cérébral léger (TCCL). L’étude du TCCL a principalement ciblé les sports de contact comme le football et le hockey. Par contre, les sports considérés sans contact, comme le soccer, ne sont pas épargnés. Par exemple, au Canada, entre 2012 et 2014, le nombre de TCCL rapporté chez les joueuses de 10 à 19 ans au soccer a été supérieur à la somme des TCCL au hockey et au rugby. C’est pourquoi l’objectif de ce projet de recherche était d’évaluer le risque de TCCL au soccer. Huit joueurs et seize joueuses de soccer ont porté un bandeau instrumenté mesurant les accélérations de la tête lors de matchs de compétition. Ces accélérations ont été confrontées à un critère de blessure permettant d’identifier le risque de TCCL causé par chacune des accélérations. Le nombre total d’accélérations mesurées a été de 239 chez les joueurs et de 294 chez les joueuses. Les accélérations moyennes mesurées chez les joueurs ont été de 25,9g (maximum 82,9g) et de 2 815 rad/s2 (maximum 15 000 rad/s2), et ont été de 28,9g (maximum 67,3g) et de 3 072 rad/s2 (maximum 12 900 rad/s2) chez les joueuses. Un total de 44 (8,3 %) accélérations de la tête a dépassé le risque de 50 % de subir un TCCL. Parmi ces 44 accélérations, 36 ont été causées par des techniques de tête et 8 par des impacts involontaires. Alors, les techniques de tête devraient-elles être considérées sécuritaires?

  • Communication par affiche
    Caractérisation d'électronique imprimable
    François Blanchard (ÉTS - École de technologie supérieure), Martin Bolduc (École de technologie supérieure), Xavier Ropagnol (Institut national de la recherche scientifique, Énergie, matériaux et télécommunications (INRS-EMT)), Charles Trudeau (École de technologie supérieure), Ricardo J. Zednik (École de technologie supérieure), Mariia Zhuldybina (ÉTS - École de technologie supérieure)

    En résumé, l’électronique imprimable (EI) est une technologie de pointe qui permet la fabrication de dispositifs électroniques personnalisés à moindre coût. Aujourd’hui, la qualité de ces dispositifs est évaluée manuellement. Cette limitation ralentit sévèrement le procédé de fabrication industrielle et par le fait même, en diminue sa valeur ajoutée. Par conséquent, le développement d’une technique de caractérisation en ligne, idéalement sans contact, est essentiel pour contrôler la qualité des motifs imprimés. Dans le cadre de cette recherche, nous évaluons une nouvelle méthode de caractérisation de la variabilité de la conductivité de l’encre imprimée avec l’utilisation d’ondes de fréquence térahertz (THz). La spectroscopie THz est une technique de mesure sans contact, non-destructive, et de haute résolution spatiale capable de mesurer les propriétés conductrices des matériaux. Pour obtenir une sensibilité accrue aux fréquences THz, des résonateurs (métamatériaux) sont fabriqués avec les mêmes paramètres d’impression qu’une structure imprimée (Figure 1a). Les résultats de nos travaux démontrent que l’utilisation d’ondes THz est plus sensible aux variations de conductivités vis-à-vis des méthodes classiques, telles que les mesures à quatre pointes ou par multimètre standard (Figure 1b). Finalement, nos résultats ouvrent la porte à une stratégie simple pour l’évaluation non destructive, sans contact et in situ de la production des dispositifs de l’EI.

Communications orales

Technologies et nouveaux outils

Salle : E0208 — Bâtiment : UQO A.-Taché
Présidence : Stephane Gagnon (UQO - Université du Québec en Outaouais)
  • Communication orale
    Imagerie térahertz par encodage spectral
    Hichem Guerboukha (Polytechnique Montréal), Kathirvel Nallappan (Polytechnique Montréal), Maksim Skorobogatiy (Polytechnique Montréal)

    L’imagerie avec les fréquences térahertz (0.1 – 10 THz, longueurs d’onde de 3 mm – 30 µm) a reçu une attention considérable au cours des dernières années, en raison de la capacité de ces ondes électromagnétiques de pénétrer en profondeur plusieurs matériaux diélectriques autrement opaques dans le visible (tissus, papiers, cartons, polymères etc.). Cependant, le principal problème rencontré aujourd’hui en imagerie THz est le temps d’acquisition. Contrairement aux autres régions du spectre, il n’existe pas encore de caméra THz suffisamment sensible. Les détecteurs les plus sensibles qui existent sont à pixel unique. Ainsi, pour obtenir une image, il faut manuellement déplacer l’échantillon point par point. Ce processus, en plus de prendre beaucoup de temps, ne s’applique pas à tous les types d’échantillons. Dans ce projet, nous avons développé une méthode unique de reconstruction d’images qui utilise l’information spectrale d’une impulsion THz pour reconstruire une image avec un nombre très limité de mesures spatiales. L’idée principale est d’utiliser la relation linéaire entre la fréquence spatiale et la fréquence spectrale pour substituer la dimension spatiale en une dimension spectrale. Nous avons développé des algorithmes de reconstruction pour les cas importants de masques d’amplitude et de phase. Nous avons ensuite expérimentalement démontré avec succès la reconstruction d’images de 4500 pixels avec seulement 45 mesures spatiales (1%).

  • Communication orale
    Analyse sémantique d’articles médicaux avec la méthodologie PICO
    Michal Iglewski (Université du Québec en Outaouais), Valérie Levasseur (UQO - Université du Québec en Outaouais)

    Pour intégrer les données probantes à leur pratique, les professionnels de la santé doivent formuler précisément leur question clinique, consulter la littérature scientifique médicale à ce sujet, évaluer la qualité et la pertinence des données trouvées avant d’intégrer leurs nouvelles connaissances à leur pratique. Afin d’améliorer la recherche des données probantes, nous nous intéressons à la prédiction de la pertinence d’un article par rapport à une question clinique, en prenant compte du type d’étude qu’il décrit et du type de la question posée. Nous nous intéressons plus particulièrement aux questions formulées à l’aide du cadre PICO, un cadre de formulation de question d’avant-plan qui permet de trouver une réponse précise à des questions cliniques. Pour prédire si un article est pertinent, nous identifions d’abord des concepts UMLS d’intérêt dans les articles et dans les questions en utilisant diverses techniques du traitement du langage naturel par des outils tels que cTAKES. Pour évaluer nos résultats, nous utilisons le corpus CLIREC. Notre prototype permet de détecter la présence de concepts présents à la fois dans les questions et les articles. Nous travaillons à améliorer notre approche en intégrant le concept de distance sémantique et en intégrant des algorithmes d’apprentissage automatique pour prédire la pertinence de l’article. L’aspect novateur de nos travaux est l’utilisation du type des questions et articles en plus des éléments PICO de la question.

  • Communication orale
    De la mécanique statistique à la combinatoire, en passant par la méthode des homomorphismes de graphes
    Amel Kaouche (Université de Moncton)

    Motivés par la mécanique statistique, les problèmes de dénombrement de chemins auto-évitants et de polyominos dans un réseau géométrique régulier sont parmi les problèmes ouverts les plus célèbres en combinatoire. Au cours des vingt dernières années, plusieurs chercheurs se sont intéressés aux classes de polyominos plus résolubles, ayant les propriétés particulières de convexité ou de croissance dirigés, spécialement, sur les réseaux carré et hexagonal.

    Le but de ce travail est de développer des nouveaux outils pour résoudre des problèmes de nature combinatoire motivés par la mécanique statistique et la chimie organique. La nécessité de tels développements a été soulignée dans plusieurs rencontres internationales.

  • Communication orale
    Méthodologie pour la réutilisation des ontologies biomédicales
    Sabrina Azzi (UQO - Université du Québec en Outaouais), Michal Iglewski (Université du Québec en Outaouais), Véronique Nabelsi (Université du Québec en Outaouais)

    Grâce aux ontologies qui capturent la sémantique d'informations et fournissent une description déclarative concise, la communication, la recherche d'informations, le partage des connaissances et la prise de décision deviennent plus efficaces. La médecine est parmi les domaines qui s’intéressent à la modélisation des connaissances sous forme d'ontologies. Deux stratégies de construction d’ontologies peuvent être envisagées : la construction ex nihilo et / ou la réutilisation des ressources existantes comme UMLS. La réutilisation constitue un point central de l'ingénierie des ontologies soulevant des questions concernant les ambigüités, les inconsistances et les hétérogénéités. Nous travaillons sur une ontologie de domaine de diagnostic de la pneumonie. Pour ce faire, nous utilisons un corpus de textes des guides de bonnes pratiques cliniques (cochrane et autres) et nous réutilisons d'autres ontologies biomédicales issues d'OBO Foundry et de Bioportal. Cette réutilisation peut être complète, c'est le cas de l'ontologie générique BFO et de domaine OGMS. Elle peut être partielle comme SYMP pour les symptômes, NCBITAXON pour les pathogènes, SNOMED pour les types de pneumonie et RO pour les relations entre les concepts. Notre ontologie qui contient 743 classes, 29 relations et 1929 instances est soumise à une évaluation. La réutilisation des ontologies permet d'éviter des confusions et des inconsistances qui peuvent être générées par plusieurs représentations du même domaine.

  • Communication orale
    Performance d’affaires avec l’alignement d’un progiciel intégré aux stratégies d’affaires dans une Entreprise de financement industriel.
    Patrick Yemba (Université de Moncton), Patrick Yemba (Université de Moncton)

    Jean-Pierre Booto Ekionea, Ph.D.

    Patrick Nsenga, Étudiant M.B.A.

    La performance d’affaires et la stratégie d’affaires constituent le point culminant pour la rationalisation d’une entreprise de financement industriel. Pour atteindre ce point culminant, l’alignement d’un progiciel intégré de gestion a un impact considérable dans le couplage de la performance et de la stratégie d’affaires. Car une entreprise de financement industriel a besoin d’intégrer ses opérations et de développer les capacités de différenciation de ses professionnels afin de répondre efficacement aux multiples exigences d’affaires.

    Il est question ici d’étudier l’impact possible qu’un alignement d’un logiciel intégré et les stratégies d’affaires peut avoir sur la performance organisationnelle en termes d’intégration et de différenciation (Lawrence et Lorsh, 1967). Ainsi, le sujet aborde sous forme qualitative la rentabilisation d’une entreprise de financement industriel par l’alignement d’un progiciel intégré aux stratégies d’affaires.

    En effet, l’apport des technologies de l’information à la performance d’affaires en termes d’intégration et de différenciation est un sujet qui préoccupe les chercheurs, les professionnels et les gestionnaires au sein des organisations afin d’augmenter l'efficacité commerciale, réduire le cycle temps, diminuer les coûts de production et améliorer le service client (Aremu et al, 2018).

    Mots clef : Performance d’affaires, stratégies d’affaires, progiciel intégré.

  • Communication orale
    Processus de choix de méthode de prédiction de paramètres du trafic routier basé sur la simulation du comptage de véhicules
    Muktar Bappa (Université du Québec en Outaouais), Ilham Benyahia (Université du Québec en Outaouais), Claude Njoh Njoh (UQO - Université du Québec en Outaouais)

    La sécurité routière représente un processus continu qui consiste à identifier des zones à risque et d'apporter des solutions viables. Une diversité de méthodes de prédiction paramètres du trafic sont utilisées lors des évaluations des risques. Le fait qu'il n'existe pas de processus pour faire un choix sur des méthodes de prédiction peut avoir des conséquences problématiques au niveau des solutions implantées pour améliorer la sécurité des zones identifiées. Notre objectif est de choisir des méthodes de prédiction des paramètres du trafic de manière à éviter d'implanter des solutions qui ne conviennent pas réellement aux zones à risque identifiées. Notre approche de résolution est basée sur la définition et le développement d'un environnement d'expérimentation et la définition d'études de cas réalistes permettant d'étudier les conséquences des précisions de diverses méthodes de prédiction. Le simulateur de trafic urbain SUMO est utilisé pour générer un trafic au niveau de plusieurs zones de la Ville de Gatineau. L'installation de capteurs nous a permis de faire du comptage concernant ces zones. Des études empiriques sont en cours pour tester les méthodes de prédictions couramment utilisées pour la prédiction de densité de trafic. Différentes valeurs de limitations de vitesses sont considérées. Les résultats attendus permettront de définir une méthodologie pour optimiser le choix d'une méthode de prédiction selon les caractéristiques du trafic routier.

  • Communication orale
    Modèle hiérarchique de mélanges gaussiens pour la segmentation d'images
    Mohand Said Allili (Université du Québec en Outaouais), Adama Nouboukpo (UQO - Université du Québec en Outaouais)

    Le modèle de mélange gaussien est un modèle probabiliste très utilisé dans de nombreux domaines, notamment la segmentation d'images, la reconnaissance de formes, l'apprentissage automatique, etc. Les mélanges de gaussiens (MdG), en tant que somme pondérée de plusieurs fonctions gaussiennes, sont utiles en raison du fait que le nombre de paramètres utilisés est très faible et en raison de leur flexibilité pour modéliser des distributions dont les formes paramétriques sont inconnues.

    Malheureusement, plus le nombre de composants dans le mélange est élevé, plus la probabilité des données est élevée, mais également plus la charge de calcul et le sur-ajustement des données sont élevés. Ainsi, il y a eu un intérêt grandissant pour les algorithmes de réduction de MdG qui se basent sur la fusion de gaussiennes tout en préservant la structure du mélange initial. Pour fusionner deux MdG, on mesure la différence entre les deux à l'aide de divers types de divergences disponibles ou de mesures de distance. Cependant, toutes les divergences ne sont pas également utiles pour le MdG car la plupart des divergences connues, y compris la divergence de Kullback-Leibler, ne donnent pas une expression analytique en forme fermée pour un MdG. La plupart des travaux existants se basent sur une approximation de la divergence Kullback-Leibler. Dans ce travail, nous présentons un algorithme de réduction de MdG basé sur la divergence de Cauchy-Schwarz pour la segmentation d’images de mélanome.

  • Communication orale
    Pourquoi la recherche fondamentale?
    Gabrielle Beaudin (UdeM - Université de Montréal)

    Résumé: Ordinateur quantique, cryptographie quantique et mémoire magnétique, toutes ces avancées technologiques découlent de la physique quantique et de la notion de spin. Mais qu’est-ce qu’un spin? Le spin est une propriété fondamentale des particules élémentaires. Les particules élémentaires sont des particules qui forment la matière autour de nous, par exemple l’électron. Celui-ci orbite autour d’un noyau d’atomes et son spin lui permet de se comporter tel un petit aimant qui suit le champ magnétique produit par l’atome. Le spin de l’électron est fixe et peut avoir une valeur de +1/2 ou -1/2. L’existence de deux états permet à l’électron de se superposer et de produire des états inaccessibles classiquement.