Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

Les technologies d’assistance sont de plus en plus utilisées pour améliorer le soutien 24/7 aux personnes sujettes aux troubles cognitifs. Cependant, dans un contexte de réadaptation, il faut s’assurer que l’assistance technologique est adaptée au profil cognitif de la personne assistée, afin de ne pas se retrouver dans une situation de sur-assistance ou de sous-assistance. Nous proposons un modèle d’assistance cognitive dans les maisons connectées, qui formalise la pratique clinique, où des interventions spécifiques de type guidage sont utilisées pour pallier aux troubles de l’attention, de la mémoire et du fonctionnement exécutif, entre autres. Notre modèle d’assistance est constituée d’une ontologie formelle et des règles de raisonnement qui décrivent les stratégies cognitives (métacognition, compensation, etc) et des interventions (rappels, checklists, etc) révélées efficaces en réhabilitation cognitive. Ces interventions pourront être déclenchées dans une maison connectée sous forme de messages audio, vidéo ou même lumineux en fonction du contexte également modélisé dans l’ontologie. Nous utilisons la théorie des actes de langage pour formaliser la force incitative des messages d’assistance, qui contribue à faire faire l’utilisateur en le poussant à accomplir au mieux ses activités par lui même. Le modèle cible est réutilisable par des équipes multidisciplinaires de thérapeutes et d'informaticiens pour créer des systèmes d'assistance cognitive dans des maisons connectées

La technologie d’électrodialyse avec membrane de filtration (EDMF) a été appliquée avec succès à la séparation de peptides bioactifs provenant de diverses sources naturelles. Parmi les paramètres qui influent ce procédé, on peut mentionner le pH, la force de champ électrique, le matériau de membrane, la taille des pores ainsi que la surface d’échange. Dans la présente étude, l’impact de la configuration membranaire d’ÉDMF sur les paramètres électrodialytiques a été étudié pendant un traitement de 6 heures. Il ressort de cette étude, que la configuration 1 a conduit à un taux de migration de peptides de 5.20 ± 0.10 g/(h.m2), supérieur à celui obtenu avec la configuration 2 (4.41 ± 0.20 g/(h.m2).  Il apparaît cependant que dans la configuration 1, le champ électrique local appliqué dans le compartiment d’hydrolysat ait diminué de façon linéaire durant le traitement d’ÉDMF limitant ainsi la migration des peptides après deux heures. Les analyses d’acides aminés démontrent que seuls les acides aminés anioniques principalement Glu, Tau, Met et Phe ont été concentrés dans les compartiments de récupération de la configuration 1 alors que ce sont les acides aminés cationiques tels que l’Arg et la Lys qui ont été principalement concentrés dans le compartiment de récupération peptidique de la configuration 2.

L'évaluation motrice est essentielle en réadaptation pour adapter et personnaliser les thérapies. La cinématique 3D permet la caractérisation des capacités motrices des membres supérieurs, offrant des données quantitatives précieuses pour bonifier les évaluations. Les systèmes de capture de mouvements actuels, nécessitant des marqueurs, sont complexes à mettre en place, coûteux et inadaptés pour les personnes tétraplégiques. L'objectif est de développer un système de capture de mouvement sans marqueur pour évaluer la récupération chez des personnes tétraplégiques.

Méthode
Environ une quinzaine de participants neurotypiques, et entre cinq et dix participants avec une tétraplégie sont recrutés. Nous utilisons deux caméras synchronisées pour capturer la tâche de boire à partir d’un verre. La détection de mouvement est faite avec un modèle DeepLabCut et une reconstruction 3D, préalablement entraînés sur les participants neurotypiques.

Résultats
Les participants présentent une variété d'atteintes motrices. À partir des données vidéos, les caractéristiques cinématiques spatiales et temporelles sont extraites. Chez les participants tétraplégiques, la vitesse des mouvements est réduite par rapport aux participants neurotypiques. L'analyse des paramètres cinématique est en cours. Des informations sur le modèle seront offertes.

Conclusion
La mise en place d’un système d’analyse de mouvement sans marqueurs permet de quantifier la récupération motrice durant la thérapie.

Actuellement, il n’existe aucune technique non invasive pour diagnostiquer les cardiopathies coronariennes (CAD) non obstructives, une condition qui perturbe le flux dans les artérioles du myocarde. Récemment, un nouveau mode d'imagerie développé par notre laboratoire, l’angiographie myocardique par localisation ultrasonore (AMLU), a démontré sa capacité à visualiser des microvaisseaux dans le cœur battant d'un rat. Cette technique est basée sur la détection et le suivi de microbulles injectées dans le sang. Cependant, pour l’adapter à l’humain, il serait nécessaire d’augmenter la profondeur d’acquisition et le champ de vue, au détriment de la résolution et du contraste.

La présente recherche a permis de démontrer que l'imagerie harmonique appliquée à l’AMLU permet de pallier ce problème in vitro. Ces résultats préliminaires permettront d’appliquer MULA en clinique à l’Institut de cardiologie de Montréal. 

Des microbulles ont été injectées dans un fantôme de flux. Le profil latéral et axial d’une microbulle a été tracé en imagerie fondamentale et harmonique et le contraste de l’image a été évalué. Un autre fantôme avec des bulles circulant dans un bassin a été utilisé afin d’évaluer la performance de l’imagerie harmonique sur la localisation et le suivi de celles-ci.

En imagerie harmonique, la résolution latérale des microbulles a été améliorée d’un facteur 2 et le contraste a augmenté de 4dB, ce qui a permis d’augmenter le nombre de microbulles détectées et suivies. 

Au cours de la dernière décennie, l'imagerie ultrasonore ultrarapide a connu une percée avec l'imagerie 3D, mais reste un défi à une cadence d’imagerie élevée et une haute résolution. De plus, la microscopie de localisation ultrasonore (MLU), basée sur la détection des microbulles injectées dans le sang a récemment permis de résoudre des vaisseaux de 25µm dans l’ensemble du cerveau en 2D chez l’humain. Une nouvelle approche de sonde : la ligne-colonne (Row Column Arrays, RCA) réduit le nombre d'éléments piézoélectriques d'une sonde matricielle de N2 à 2N en gardant une grande ouverture et moins de données. Cette approche consiste à utiliser deux réseaux linéaires orthogonaux superposés, en utilisant alternativement l'un en émission et l'autre en réception. Des études avec une sonde RCA prototype à 12MHz in silico, in vitro et in vivo sur souris saine seront menées afin d’optimiser les paramètres des séquences d’acquisitions. Les données seront traitées avec deux algorithmes de reconstruction différents (DAS et SMIF) afin de choisir le plus optimal en termes de résolution et de contraste.  Dans ce projet, nous montrons que les images peuvent être considérablement améliorées en utilisant une approche matricielle spatio-temporelle (SMIF, basée sur la corrélation) in vitro. Nous appliquons les deux méthodes sur des souris transcrâniennes afin de visualiser la microvascularisation cérébrale, et diagnostiquer si possible les maladies cérébro-vasculaires au plus tôt.

Malgré des investissements énormes dans les projets analytiques, le taux de réussite de ces projets et la valeur qui en découle ne sont pas toujours perceptibles. Une des raisons qui vient expliquer cette problématique est le manque d’outils pour la transmission des résultats analytiques. En effet, l’un des objectifs les plus importants de l’utilisation de l’analytique est d’améliorer le processus de prise de décision. Toutefois, les informations fournies ne seront d'aucune utilité pour la prise de décision si elles ne permettent pas un dialogue propice à l'action. Une communication convaincante à l'aide de récits basés sur des données, dit « data storytelling », est nécessaire pour garantir que les informations essentielles soient communiquées au principal décideur de manière à maximiser les chances de passer à l'action. S'appuyant sur la théorie de la gestion par les ressources et du processus analytique, cette étude vise à étudier le rôle du data storytelling comme modérateur entre les données et la prise de décision. Plus précisément, le principal résultat de cette recherche consiste en la création d’un cadre conceptuel proposant quatre types de data storytelling basés sur la complexité de la tâche analytique et le niveau de connaissances des décideurs en matière analytique. Le concept de data storytelling vise à captiver, convaincre et à inciter à une mise en œuvre d’actions. Il est donc, pertinent pour mieux utiliser les données et prendre de meilleures décisions.

Ces dernières années ont vue croître l’utilisation de matériaux intelligents dans le but de faire des systèmes mécaniques autonomes et performants. Parmi ces matériaux, les fluides magnétorhéologiques  (MRF) on fait l’objet de plusieurs recherches quant à leur utilisation possible au court des dernières années, notamment dans le domaine des amortisseurs intelligents et de la transmission de puissance. Bien que leur utilisation par l’industrie comme amortisseurs variables soit relativement répandu, la mise en marché d’embrayages MRF compacts et performants tarde à voir le jour. Ce retard provient principalement de la faible capacité de transmission de couple des MRF tel qu’ils sont utilisé dans les conceptions conventionnelles.

Cette présentation se veut une introduction aux mécanismes internes qui créent l’effet magnétorhéologique, c’est-à-dire le passage d’un état fluide à semi-solide avec l’application d’un champ magnétique. Des solutions possibles pour rendre les embrayages MRF compétitifs par rapport aux embrayages conventionnels, tels que le recourt à des embrayages multi-disques et la compression de la couche de fluide seront également suggérées. Cet effet de compression qui peut résulter en une augmentation de 1500% de la capacité de couple sera présenté plus en détails et mis en liens avec les mécanismes internes expliqués précédemment. Ces mécanismes seront appuyés par une simulation numérique particulaire. 

L'échographie est un outil non invasif qui permet de visualiser les organes en temps réel. Toutefois, la qualité des images dépend fortement de la maîtrise de la sonde, un défi pour les débutants en raison de la coordination et de l'expertise nécessaires. Il est donc essentiel d'améliorer leur formation. De plus, les échographistes sont exposés à des risques de blessures dues aux mouvements répétitifs et aux mauvaises postures, compromettant leur carrière. Afin de résoudre simultanément ces deux problèmes, ce projet propose le développement d’un système de guidage pour la manipulation de la sonde échographique, fournissant des indications tactiles par des moteurs vibratiles pour orienter le mouvement des doigts à l’épaule. Les moteurs sont placés de manière à rendre ces indications intuitives. En se basant sur des études existantes sur le guidage du bras global et les mouvements échographiques, la position théorique des moteurs a été définie. Pour la première validation, quelques personnes vont tester le prototype d’essai pouvant envoyer des indications pour deux mouvements échographiques. Ces essais vont permettre de vérifier de façon préliminaire et qualitative la clarté des indications.

Problématique : 

Le transport de marchandises par camion au Canada représente un sérieux problème en matière d'émissions et de contamination. L’une des difficultés majeures est liée au plan stratégique d'efficacité de la charge durant la circulation, où presque la moitié des camions reviennent vides à leur point de départ après livraisons, signifiant des pertes économiques et l’augmentation de la pollution.

Objectif :

Simuler de nouveaux modèles d’affaire du transport intelligent de marchandises (NMATIM) par camion au Québec afin qu’ils deviennent plus durables en utilisant l’industrie 4.0.

OS1 : valider les technologies liées à l'industrie 4.0 et leur rôle dans le transport de fret.

OS2 : caractériser la simulation des impacts de NMATIM.

Méthodologie : 

OS1 :
une revue de littérature concernant l’industrie 4.0 pour approfondir l’écosystème et la logistique du fret.

OS2 : confectionner une simulation des systèmes à base d’agents pour reproduire les potentielles variations divergentes des NMATIM.

Résultats préliminaires : 

Une amélioration de l'optimisation des NMATIM est possible à travers des plateformes de trafic intelligent. Elles collectent des données en temps réel et utilisent des outils d'aide à la décision pour optimiser les charges à destination et retour à plein rendement, permettant d’analyser l'impact potentiel des NMATIM dans le contexte de l'Industrie 4.0 en réduisant les niveaux de pollution liés à une diminution du nombre de camions vides, en rendant la logistique plus efficace.

La gonarthrose est un trouble orthopédique fréquent. Les facteurs morpho-fonctionnels tels que la géométrie 3D et la cinématique 3D sont reconnus comme des acteurs principaux de la pathogénèse de la gonarthrose. Or, il n’existe aucune méthode d’évaluation morpho-fonctionnelle du genou. L’objectif principal de ce projet consiste donc à développer une méthode innovante capable de fusionner, à l’aide d’outils non invasifs et peu irradiants, la géométrie 3D et la cinématique 3D du genou au cours d’accroupissements dynamiques sous charge.

La cinématique 3D du genou sera enregistrée à l’aide du KneeKG™ puis corrigée à l’aide d’une des méthodes développées : la méthode de calibration multiple et/ou la méthode d’optimisation globale. Une fois corrigée, nous lui fusionnerons la géométrie 3D des os du genou reconstruite à l’aide du système EOS™. Il sera alors possible d’évaluer les surfaces de contact du genou. La validation de notre méthode se fera sur 10 sujets sains et 10 patients souffrant de gonarthrose.

Le protocole expérimental a été développé et testé à l’aide d’un sujet pilote. Des résultats préliminaires concernant la méthode de calibration multiple sont attendus. Le recrutement des participants a débuté en novembre 2011.

Ce projet aboutira à une méthode d’évaluation originale permettant d’analyser les caractéristiques morpho-fonctionnelles de genoux sains et arthrosiques au cours d’accroupissements dynamiques sous charge, ce qu’aucune étude biomécanique n’a réalisé à ce jour.

Plusieurs méthodes ont été utilisées dans la littérature pour le calcul approximatif ou exact des poids de Mayer : changements de variables, utilisation de symétries, analyse de Fourier, fonctions spéciales (polynômes orthogonaux, harmoniques sphériques, fonctions de Bessel, etc.), intégration numérique, méthodes de Monte-Carlo.

Dans le présent travail, nous adaptons la méthode des transformées de Fourier dans le but de développer de nouvelles formules exactes ou asymptotiques pour le poids de Mayer. Nous utilisons d’abord la notion d’arborescence couvrante croissante d’un graphe connexe afin d’obtenir un changement de variables qui va nous permettre d’exprimer le poids de Mayer pour une interaction quelconque et en dimension quelconque sous la forme d’une intégrale dont les variables sont en bijection avec les arêtes de l’arborescence couvrante. En utilisant les transformées de Fourier, nous transformons ensuite cette intégrale en une nouvelle intégrale générale dont les variables sont, cette fois, en bijection avec les arêtes complémentaires de l’arborescence couvrante. Cette méthode est illustrée sur divers exemples particuliers. Nous l’utilisons aussi pour obtenir en dimension d, dans le cas des particules dures, des formules exactes et asymptotiques.

Le cancer est une maladie génétique due à l'accumulation de mutations dans des gènes clés, comme PIK3CA, régulant des processus cruciaux tels que la division cellulaire et l'apoptose. Des mutations dans PIK3CA sont observées dans plusieurs cancers et sont associées à une résistance accrue aux traitements. La détection des mutations est donc importante pour personnaliser les thérapies. La PCR est la méthode la plus utilisée pour la détection, mais elle est coûteuse et lente. Pour surmonter ces limites, des alternatives sont en développement, notamment l'utilisation de la protéine Cas12a, qui peut détecter et cliver une séquence d'ADN cible. De plus, les transistors à base de graphène (GFETs) permettent une détection électrique sensible des charges proches du graphène. Mon projet vise donc à combiner ces deux approches afin de développer un biocapteur capable de détecter les mutations de PIK3CA. Pour cela, des brins d'ADN négatifs sont fixés à la surface des GFETs, puis la Cas12a, munie d'une séquence guide contre le gène PIK3CA muté, ainsi que le génome d'un patient, sont ajoutés en solution près du graphène. Si la Cas12a trouve dans le génome sa séquence d'intérêt, elle s'active et clive les ADN fixés au graphène, entraînant une diminution des charges négatives à proximité du graphène, et donc un changement dans la conductivité du biocapteur. Mon biocapteur offre une méthode de détection rapide, économique et applicable dans des environnements où les ressources sont limitées.

Le bruit émis par les motocyclettes amène souvent des plaintes des citoyens. Le niveau de bruit des véhicules est réglementé par Transport Canada (Règlement sur la sécurité des véhicules automobiles (C.R.C., ch. 1038) Annexe V.1 - Émission de bruit (norme 1106)). La méthode de mesurage de ce règlement est inapplicable en milieu urbain ou en bordure d’une route, car elle nécessite un grand espace dégagé et des mesures sur les véhicules en accélération. Le MTQ et la SAAQ on donc demandé le développement d’une méthode de mesure simple et efficace du niveau de pression acoustique (bruit) émis par les tuyaux d’échappement des motocyclettes lorsqu’elles ne sont pas en mouvement.

Une méthode de mesurage a été développée à partir de mesures prises sur des véhicules stationnaires à différents régimes moteurs, et prises sur ces mêmes véhicules conformément à la norme 1106 de Transport Canada. Les données ont aussi servi à déterminer un niveau limite de pression acoustique.

Ce projet de recherche a permis de développer une méthode de mesure simple (mesure en un point à proximité du tuyau d’échappement sur motocyclettes stationnaires avec régime moteur imposé) et d’établir une limite commune du niveau de pression acoustique qui soit compatible avec la règlementation fédérale, et qui élimine les problèmes rencontrés dans l’application pratique des autres normes de mesures stationnaires (ISO 5130, SAE 1287, SAE J2825, CEE Règlement 41).

Pour mettre en évidence les conséquences environnementales de la transition vers une économie circulaire, les modèles macroéconomiques à région unique sont largement utilisés. Toutefois, la représentation financière des flux inhérente à leur cadre méthodologique comporte un niveau élevé d'agrégation. Ils ne parviennent pas à suivre les interactions dynamiques intersectorielles et interrégionales affectées par une éventuelle transition tout en assurant la conservation de la masse. Cet article présente une approche intégrée d'analyse du cycle de vie conséquentielle (ACV-C) fondée sur un modèle économique dynamique de chaîne matériau-produit (M-P). Il combine les éléments pertinents de l’approche économique d'équilibre partiel, de l'analyse des flux de matières et de l’ACV-C. Avec cette nouvelle approche, les conséquences environnementales potentielles des options de gestion des résidus de verre post-consommation (réutilisation, recyclage en boucle fermée et ouverte, et l’enfouissement) au Québec ont été évaluées. Les résultats mettent en évidence une dynamique interrégionale et intersectorielle complexe lors de l'optimisation des flux M-P circulaires, conduisant à des compromis économiques et environnementaux spécifiques aux régions. Les résultats sont sensibles aux conditions de marché systémiques. Il est crucial d’incorporer ceux-ci pour évaluer l'efficacité globale d'une transition vers une économie circulaire.

Les simulations numériques jouent un rôle croissant dans la recherche sur les traumatismes de la colonne cervicale et la conception d'outils chirurgicaux et de prothèses. Au sein des groupes de recherche, les simulations sont cependant limitées par l’utilisation d’un modèle construit autour d’un individu « moyen », généralement un homme trentenaire arbitrairement sélectionné, ne reflétant pas l’ensemble de la population. Cette limitation pourrait être mitigée par la création d’un catalogue de plusieurs modèles représentant la variabilité de la population, mais combien sont nécessaires et quelles sont leurs distinctions?

L’âge et le sexe des individus, ainsi que les données géométriques des vertèbres de leur colonne seront soumises à analyse par partitionnement de données afin d’en décrire et résumer la variabilité. Une méthode de prise de mesures automatiques de la géométrie des vertèbres est en phase finale de développement et sera utilisée sur une base de données de près de 400 individus reflétant notre population locale se présentant aux urgences à la suite d’un traumatisme. Enfin, un algorithme en phase avancée de développement permettra de générer le modèle de simulation de chaque profil afin de former le catalogue. Les résultats anticipés sont un catalogue de minimalement quatre profils types de sexes et de groupes d’âge, permettant ainsi de limiter les futurs biais de recherche et de conception.

Le comportement des matériaux pendant l'usinage est affecté par de multiples facteurs, le frottement étant l'un des principaux. Le frottement aux interfaces de l'outil, du copeau et de la pièce à usiner peut entraîner des fluctuations des forces de coupe et des températures, affectant ainsi les performances de l'outil de coupe et l'intégrité de la surface des pièces usinées. Il est difficile de comprendre la physique du frottement et d'estimer avec précision le coefficient de frottement en raison de ses interactions avec l'environnement de coupe et les paramètres d'usinage. Cependant, la modélisation du frottement est essentielle pour prédire les indicateurs de performance de l'usinage. Cette étude consiste à simuler des modèles de frottement dépendant de la vitesse à l'aide de la méthode des éléments finis avec le logiciel DEFORM V.13.1 et à examiner leurs effets sur les températures et les forces de coupe. Une analyse comparative de ces modèles est menée pour évaluer leur performance prédictive.

De nos jours, le meilleur engrenage pour une application donnée est souvent en plastique et tant les fournisseurs que les fabricants de machine rivalisent d’ingéniosité pour des applications dans des domaines variés. La variation prononcée des propriétés avec la température pose un problème. Le bris appelé thermique s’ajoute à ceux des engrenages en métal. Des travaux ont rapporté l’amélioration de la tenue à la rupture en flexion mais des problèmes demeurent, dont la fragilisation du matériau accompagnant l’augmentation du module élastique, l’inégale répartition des fibres ou leur rupture, etc. Cela entraîne des biais entre les prévisions et le comportement réel et, qui plus est, des tests ont montré que parfois des matériaux et des renforts chers démontrent des performances moindres au cours des essais que d’autres moins chers. D’autres ont apporté des remèdes pour un matériau particulier ou formulé de nouveaux composites. Des travaux de chercheurs et les nôtres ont montré que l’usure combinée à l’échauffement demeure la cause principale d’avarie. Dans cet article nous passons en revue les articles traitant de la détérioration des engrenages  en plastique et composites. Les auteurs  ont mis en évidence des modes particuliers d’endommagement. En analysant les études nous proposons une nouvelle approche basée sur deux  phases désignées « douce » et  « sévère » de l’endommagement  afin d’élaborer  une analyse multicritère de  prévision d’avarie des engrenages.

La détection des anomalies dans les réseaux et une tâche aussi complexe que ses applications sont variées : identification de spammers et de bots, fraudes (bancaires, fiscales, à l'assurance, etc), ou encore cyber-sécurité. La complexité de ces problèmes provient de plusieurs facteurs, le premier étant que les anomalies sont par définition rares et donc difficiles à détecter et à appréhender. Un second facteur qui rend ces problèmes particulierement difficiles est le caractère co-dépendant des éléments d'un réseau; en effet, la définition de ce qu'est une "anomalie" ne se résume pas seulement aux attributs d'un unique élément, mais à leurs manières d'interagir entre eux au sein du réseau.

Pour faire face à ce problème, nous avons développé deux méthodes d'apprentissage profond capables de détecter les anomalies d'un réseau. Ces méthodes commencent par analyser tous les éléments du réseau, incluant leurs relations et leurs attributs, et utilisent ces informations pour créer une "prévision" des attributs de chaque élément. Ces attributs "prévus" peuvent ensuite être comparés aux attributs réels et permettent d'identifier les anomalies du réseau, définies comme étant les éléments dont les prévisions sont les moins corrélées à la réalité.

Nos résultats finaux sur ces modèles montrent qu'ils surpassent les méthodes existantes et annoncent des dévelopements prometteurs dans le domaine de l'apprentissage profond des réseaux.

L'impact environnemental des structures en béton est fréquemment étudié, et tout particulièrement son empreinte carbone. Cependant, peu d'attention est accordée à l'absorption du CO2 par les structures en béton, aussi appelée carbonatation, dans les empreintes carbones. Cette recherche vise à étudier le bilan carbone du béton récemment produit au Québec, en comparant les émissions de CO2 émises lors de la fabrication à l'absorption totale de carbone due à la carbonatation tout au long du cycle de vie du béton, incluant son utilisation primaire et son utilisation ultérieure (secondaire) comme agrégat recyclé. Cette étude est réalisée grâce à une analyse dynamique du cycle de vie, en tenant compte des différents effets qu'une absorption de CO2 peut avoir aujourd'hui et à l'avenir, lorsque le béton est appelé à être broyé et recyclé. Les résultats préliminaires indiquent que, si tous les éléments en béton construits en 2018 devaient durer 50 ans, puis être broyés et enfouis pour 50 ans de plus, le béton aurait en 100 ans neutralisé 6% des émissions de CO2 qu'il émet lors de sa fabrication. La compensation sera plus que doublée (13%) si le Plan d'action 2011-2015 de la Politique québécoise de gestion des matières résiduelles entre en vigueur et que 80% du béton est recyclé. Les résultats démontrent ainsi l’intérêt d’inclure la carbonatation dans les études ACV, et d'encourager le recyclage du béton.

Le but de ce projet était de quantifier l'acide beta-hydroxybutyrique (BHB) dans le sang ante/post-mortem et le liquide oculaire. Une extraction par précipitation des protéines suivie d'une dérivation et analyse par GC-MS est utilisée. En tant que biomarqueur pour l’acidocétose diabétique ou alcoolique, les niveaux de BHB, en conjonction avec d'autres paramètres biochimiques, permettent aux toxicologues d'expliquer les circonstances d'un événement. Cette méthode a également été validée pour l'analyse qualitative du BHB dans des échantillons d'urine.

Le standard interne (25 uL de BHB-d4 à 400 ug/ml) est mélangé avec 50 uL d'échantillon. Les protéines sont précipitées par addition de 225 uL d'acétonitrile et vortexées immédiatement. Après centrifugation (7 minutes à 9600xg), 100 ul de surnageant est évaporé à sec sous azote, reconstitué dans 250 uL d'éthanol et de nouveau évaporé à sec pour éliminer toute trace d'eau qui interfère avec la dérivation. L'extrait final est reconstitué dans 70 uL d'acétate d'éthyle et dérivé par ajout de 70 uL de BSTFA avec 1% TMCS. Les échantillons sont analysés par GC-MS.

La méthode a été validée selon la norme ISO 17025 et les critères du SWG-TOX. L'étalonnage a été déterminé linéaire de 50 à 500 ug/mL. Le biais et la précision ont été évalués aux niveaux des CQ (100, 250 et 400 ug/ml). Le biais maximal observé est de 3,9% et la valeur maximale de la précision est de 1,3%. Le BHB est stable dans le sang à 4°C et -20°C pendant au moins un mois.

En milieu urbain, le trafic automobile représente une des principales sources de polluants atmosphériques. Afin d’améliorer l’efficacité des plans de lutte contre la pollution atmosphérique, il apparaît nécessaire d’étudier la variabilité des émissions automobiles en détails, c’est-à-dire à l’échelle du véhicule.

Cette communication explore les analyses qui sont rendues possibles par l’accessibilité grandissante aux données télématiques. Elle porte en particulier sur l’analyse de données anonymisées prélevées pendant un an sur près de 16 000 trajets effectués par une flotte de véhicules particuliers à Sheffield, au Royaume-Uni.

Les résultats montrent que l’heure de la journée et le type de journée (jour normal de semaine, de fin de semaine, ou de vacances) influent sur les émissions automobiles jusqu’à 30% et 57% respectivement. Il apparaît également que de mauvaises conditions météorologiques induisent des émissions jusqu’à 27% plus faibles. Par ailleurs, la conduite à la lumière du jour correspond à des émissions 9% plus faibles que la conduite de nuit.

L’analyse de données télématiques anonymisées nous confronte à des défis méthodologiques nombreux et importants, mais nous offre des perspectives nouvelles et prometteuses face à des problèmes jusqu’ici inextricables. Ainsi, les résultats révèlent certaines sources des variations des émissions automobiles qu’il apparaît primordial de considérer dans les modèles de prévision de la qualité de l’air.

Dans cette étude, on traitera le développement d’un vortex sur un bout d’aile NACA0012. Des mesures expérimentales par fils chauds ainsi que par vélocimétrie laser seront effectuées. La problématique des vortex de bout d’ailes est majeure dans l’industrie aéronautique comme elle est la cause de trainée supplémentaire qui influe sur les performances en vol ainsi que la sécurité.

Pour cela, on construira un dispositif expérimental qui permettra d’étudier l’effet de cette dernière sur la génération et le développement du vortex. La variation du nombre de Reynolds est aussi un autre paramètre à considérer lors de cette étude.

La compagne d’essais sera réalisée sur deux régions du sillage, proche et lointaine. De la vélocimétrie par imagerie de particules à haute fréquence et tomographique seront réalisées respectivement pour les deux régions étudiées. 

Pour étudier le procédé de soudage de l’acier inoxydable austénitique 304L et comprendre le phénomène de fusion ou de vaporisation en cause, une série d’expériences a été réalisée pour caractériser le panache et le capillaire de vaporisation qui résultent de l’interaction laser-matière. Différents faisceaux lasers ont été mis à contribution pour caractériser le panache qui se forme au-dessus du point d’impact du faisceau du laser fibre. Ces faisceaux ont permis de mesurer la réfraction et la diffusion du faisceau du laser fibre qui sont causées par le panache. Aussi, une caméra à haute vitesse a été utilisée pour filmer le panache et le bain de fusion. Finalement, le spectre du panache a été mesuré avec un spectromètre à haute résolution pour déterminer le degré d’ionisation du panache.

 L’importance des poids de Mayer et de Ree-Hoover de graphes est dû au fait que le nième coefficient du développement du viriel est égal à la somme des poids de Mayer de tous les graphes 2-connexes sur l’ensemble des sommets {1, 2, …, n}, à constante multiplicative près. Ces poids sont des invariants de graphes définis par des intégrales multidimensionnelles très difficiles à calculer de façon exacte et généralement seulement approximées par des méthodes numériques par les physiciens. Contrairement aux physiciens, je m’intéresse surtout à l’étude et au calcul exact de ces poids de graphe individuels (plutôt qu’à l’approximation de leur poids totaux comme le font généralement les physiciens). Pour cela, j’ai établi un nouveau théorème (avec des nouvelles conditions) garantissant la nullité du poids de Ree-Hoover de certains graphes, facilitant ainsi le calcul de leurs poids de Mayer. 

Objectifs spécifiques: Compléter le dénombrement des familles de graphes 2-connexes qui apparaissent dans la théorie de Mayer. 

Objectifs généraux: Développer des outils mathématiques essentiels pour résoudre des problèmes de nature combinatoire issus de la mécanique statistique, de la chimie organique, et de l’économie et des finances.  Les outils mathématiques que je présente auront un renforcement aussi bien en combinatoire que dans les autres domaines d'applications.

Méthodologie:  Recherche bibliographiques, contacts avec d'autres chercheurs, conférences, rédaction d'articles. 

 

 

L’intégration des technologies de l’information s’appuyant sur les concepts de la transformation numérique est l’occasion d’accroître la productivité des PME manufacturières. L’intelligence artificielle (IA) fait partie de ces concepts avec la possibilité d’atteindre plus d’autonomie dans leurs processus d'affaires et leurs procédés.

Il n’y a, à notre connaissance, aucun outil pour évaluer le niveau d’autonomie envisageable avec les solutions technologiques en place. Ceci est toutefois nécessaire afin de proposer aux PME un accompagnement adéquat dans leur démarche numérique et de concentrer les efforts de recherche là où ce sera le plus pertinent. Une première analyse basée sur l’indice de maturité numérique des entreprises vis-à-vis des critères de qualité des données, d’interopérabilité des systèmes et d’autonomie a donc été réalisée en utilisant les résultats des audits numériques effectués par Productique Québec depuis 2018 auprès de 45 PME québécoises.

La valeur moyenne de cet indice pour l’ensemble des entreprises à l’étude indique que les PME sont engagées dans leur transformation numérique, mais qu’elles tardent à atteindre l’état de maîtrise et contrôle. La formalisation des pratiques semble être le principal frein à cette progression. Cette analyse met en lumière le besoin des entreprises d’être accompagnées dans l’adoption des technologies servant à la collecte, l’échange, la sauvegarde et la valorisation des données dans des applications d’IA manufacturière.