Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

La dynamique des engins spatiaux autour des petits corps, tels les astéroïdes et les comètes est un sujet qui repousse les barrières de l’exploration spatiale. Les connaissances actuelles sur le sujet ont permis les missions NEAR Shoemaker, Hayabusa I, Hayabusa II et Dawn. Les astéroïdes binaires formant environ 16% des astéroïdes proches de la Terre, il est fort possible que de futures missions soient dirigées vers l’un d’eux. L’environnement gravitationnel d’un astéroïde diffère grandement de celui d’une planète à cause de sa forme irrégulière et de sa petite taille. Ce qui est considéré comme simple perturbation ou négligeable autour d’une planète comme la Terre devient alors partie intégrale du modèle gravitationnel. Une de ces perturbations est le couplage de la dynamique de l’attitude et de la dynamique orbitale de l’engin spatial. L’importance de ce couplage sur le comportement de l’engin spatial dépend du ratio entre sa grosseur et le rayon d’orbite, ce qui augmente son importance près de petits corps comme les astéroïdes. L’investigation qui est présentée ici porte sur l’effet de ce couplage dans le développement de la dynamique orbitale des missions autour d’astéroïdes binaires.

Le développement durable représente un cadre de travail à la fois pour encourager l’émergence et l’application de technologies relatives aux défis de cette vision de durabilité et pour inciter la mise en œuvre de divers ajustements nécessaires à cette perspective de développement, y compris les sociaux. L’élaboration des technologies et la création des rapports entre les intervenants, à l’égard des possibilités qui s’offrent à eux pour l’adoption de celles-ci, sont autant d’éléments constitutifs de cette complexité. Des appels à stimuler les réponses technologiques et à mobiliser les acteurs révèlent des enregistrements récents dans ce cadre de référence. Les résultats de cette communication font partie d’une recherche motivée par une quête de savoir sur les particularités des efforts de soutient déployés au Canada qui sont annoncés comme des initiatives essentielles pour les parcours vers les nouvelles trajectoires. Nous voyons de quelle manière des engagements au niveau national visent la configuration de dynamiques technologiques et sociales qui semblent suivre une approche potentiellement systémique. En ce sens, ce travail apporte une contribution d’un point de vue empirique à une meilleure compréhension de la mise en place et l’opération de programmes agissant comme des instruments de politique de développement durable ainsi qu’à mieux discerner des interactions entre technologies, agents sociaux et préoccupations environnementales.

Ce document traite du problème de renouvellement d’une flotte hétérogène de véhicules dans le contexte d’une gestion efficace. Une analyse de différents facteurs qui peuvent accélérer ou retarder le renouvellement est effectuée. Par l’intermédiaire d’une analyse documentaire, nous présentons un cadre de référence sur les principaux modèles de sélection de véhicules à changer pour aboutir à une méthode basée sur des critères économiques et environnementaux. Des outils sont
présentés pour l’établissement d’une politique appropriée qui comprend entre autres, les stratégies pour remplacer les vieux véhicules par des nouveaux. Une partie est consacrée aux coûts et aux besoins de financement du remplacement. En fin, différents concepts reliés au système global de gestion sont présentés, étant donné l’impact de la gestion sur le renouvellement.

Les plasmas, générés en fournissant de l’énergie électrique à un gaz, sont aujourd’hui au cœur des nouveaux développements industriels éco-responsables. La possibilité de les opérer à pression atmosphérique est particulièrement propice au traitement industriel, par exemple pour les polymères. Cependant les mécanismes régissant ces technologies plasma et notamment les interactions avec le substrat demeurent mal comprises. Dans ce contexte, ce projet vise à caractériser un plasma utilisé pour la modification de surface de fluoropolymères, tout en améliorant ou en développant des méthodes de diagnostics afin d’améliorer la compréhension de ces procédés.

L’analyse électrique constitue le moyen de diagnostic le plus simple et rapide du plasma. Elle permet, entre autres, de mesurer la puissance fournie au gaz en utilisant des figures de Lissajous, qui correspondent à des courbes charge-tension. Le présent travail démontre la possibilité de suivre l’évolution de température du procédé à l’aide d’analyses électriques indirectes. En effet, un lien a été établi entre l’augmentation de la puissance mesurée sans décharge à faible tension et l’augmentation de température au cours du temps. L’utilisation d’un signal modulé permet de gérer les temps de décharges, et semble être le paramètre clef dans l’élévation de température.

Cette méthode innovante est très intéressante et prometteuse d’un point de vue industriel car elle permet un suivi de la température de manière non intrusive.

Les modèles probabilistes de la demande sismique et l'analyse de la fragilité sont des éléments clés du génie parasismique basé sur la performance. L'évaluation de la performance des systèmes structuraux à composants multiples, comme les ponts routiers, est facilitée par la prise en compte de l'interaction entre les composants. Les formulations analytiques classiques capables d'incorporer cette caractéristique et de gérer les incertitudes reposent sur des hypothèses communes : la demande sismique suit une loi log-normale et la dépendance linéaire entre les réponses des composantes structurelles. Néanmoins, ces hypothèses ne sont pas toujours valides. Une méthodologie est donc proposée pour la construction de modèles probabilistes de demande sismique basés sur l'analyse à bandes multiples (MSA) et sur des modèles de mélange gaussien (GM). Cette méthode s'appelle MSA-GM et est plus flexible que les autres stratégies classiques par rapport aux hypothèses généralement adoptées. Une étude de cas sur un pont au Québec est présentée pour analyser, dans un premier temps, la validité des hypothèses sur la demande sismique, et, plus tard, leur impact sur les courbes de fragilité (voir la figure attachée). Les avantages de la méthodologie proposée sont mis en évidence tout au long de ces analyses.

Au Mexique, 1.5 millions d’enfants souffrent de malnutrition étant les protéines les macronutriments les moins accessibles pour la consommation. Dans les temps préhispanique, les aztèques utilisés la cyanobactérie Arthrospira platensis recueilli du lac de Texcoco, comme une source de protéines, grâce au contenu de ce nutriment (60-70% base sèche).

Dans cette étude, une souche d’A. platensis native du lagon de Sayula, Jalisco, a été isolée afin d’évaluer deux systèmes de culture de type air-lift, avec (0.48 Lmin-1 avec un flux de photons de 97.2 µmol m-2s-1) et sans recirculation, et de mesurer l’effet sur la croissance de ces cyanobactéries. Les conditions d’opération des deux systèmes étaient une photopériode de 16h lumière/8h obscurité et mise à l'échelle de 2.5 fois aux 3 jours, jusqu’atteindre un volume de 3L, dans un milieu Zarrouk. Les propriétés thermiques des micro-algues séchées par de différentes méthodes, seront évaluées avec un calorimètre différentiel-DSC. Les algues seront introduites dans de différents matrix alimentaires pour évaluer son acceptation.

Le système de culture avec recirculation a atteint une production de biomasse de 1.59 gL-1 dans 8 jours, contrairement à celui sans recirculation, lequel a atteint  0.76 gL-1, dans la même période.

L’évaluation des différents systèmes de culture et de séchage de micro-algues ainsi comme de son adéquation au matrix alimentaires, nous donneront alternatives pour aider à combattre la malnutrition au Mexique.

Les nouveaux matériaux polymères sont de plus en plus utilisés dans l’industrie comme éléments porteurs. Peu coûteux à produire, ils tendent à remplacer les matériaux comme l’acier lors de la fabrication de divers objets, comme les armes à feu ou certaines pièces de véhicules automobiles. À des fins de sécurité, des inscriptions, ou numéros de série, sont marquées dans le matériau. Cela induit des déformations mécaniques dans la structure du composé autour des inscriptions. Parfois, même si les numéros ne sont plus visibles, les déformations induites lors du processus de marquage restent présentes. Si des techniques expérimentales permettent la révélation de numéros de série oblitérés dans les métaux, elles ne sont pas  directement transférables aux polymères. Nos travaux visent à développer une méthode de révélation des numéros de série oblitérés dans les polymères. Notre approche consiste à démontrer qu’il est possible de monitorer les contraintes induites dans le matériau lors du marquage à l’aide de techniques d’imagerie spectrales telles que la spectroscopie Raman ou la spectroscopie infrarouge à transformée de Fourier (FTIR). Ces méthodes sont sensibles aux énergies de vibration des liaisons chimiques et donc à l’observation des déformations dans les matériaux, ce qui permettrait de retracer des marques oblitérées dans un support polymère, un processus qui trouverait des applications directes dans le domaine de la criminalistique.

* Lalla Samira TOUHAMI, * Daoud AIT-KADI, **Med Anouar JAMALI

Ingénierie du système de gestion de la maintenance dans un contexte distribué

Les coûts associés à la maintenance des biens d'une entreprise ne cessent de croitre. Ceci est dû à la complexité des biens à entretenir, aux coûts de la main d'œuvre, des pièces de rechange, des pénalités de retards occasionnés par la fréquence des défaillances aléatoires, aux durées d'inactivité et aux prestations externes.

La maintenance a toujours été considérée comme centre de coût. La maintenance productive totale (TPM) et le Lean maintenance préconisent des démarches structurées pour réduire les sources de gaspillage. Ceci exigeune cartographie des processus, des outils de modélisation, d’évaluation et d’amélioration des performances de chaque processus.

Pour la démarche proposée, chaque processus est décomposé en activités. A chaque activité on associe des ressources, des objectifs, une durée, un coût et une méthodologie d’évaluation.

Le processus de réingénierie de la maintenance repose sur l'évaluation des impacts techniques, économiques, stratégiques, sociaux et environnementaux de chaque activité. À l’issue de cet exercice, le mode de réalisation à l’interne, conjointement ou en totalité par des prestataires externes sera défini.

Dans cette communication, nous ferons état de la méthodologie proposée et des outils développés.

* Département Génie mécanique Université Laval G1V 0A6 Québec

** R&D ESITH Route d’El Jadida Km8 Maroc



Le glioblastome multiforme (GBM) représente la forme de cancer du cerveau la plus agressive avec un taux de survie inférieur à 5% au-delà de 5 ans. La principale cause d’échec des traitements actuels est la migration des cellules cancéreuses de la tumeur vers le  tissu cérébral avoisinant. La stratégie proposée consiste à inverser la direction de la migration des cellules GBM, via un gradient de chimioattractant (CXCL12), vers une zone confinée (gliotrappe) dans laquelle elles peuvent être éliminées par radiothérapie localisée Cette gliotrappe combine un hydrogel poreux avec des nanoparticules (NPs)  chargées de CXCL12 dans le but de favoriser sa libération contrôlée. Pour optimiser la gliotrappe, il est nécessaire de développer un modèle in vitro qui prend en compte le flux de liquide cérébral, un facteur pouvant influencer de manière significative la libération du CXCL12 en fonction de l’emplacement de la tumeur. Dans le cadre de ce projet de recherche, un bioréacteur à perfusion mimant la dynamique de l'écoulement du flux du liquide cérébral interstitiel a été développé afin de valider et d’optimiser cette technologie innovante. Tout d’abord, les cinétiques de libération de CXCL12 à partir des différents constituants de la gliotrappe ont été caractérisées et modélisées mathématiquement en conditions statiques. L’effet de la perfusion à différents débits retrouvés dans le cerveau a ensuite été évaluée, permettant d’émettre des recommandations sur la technologie proposée.

La formulation conventionnelle de la physique est est caractérisée par le fait que les équations du mouvement d'un système physique sont déterminées indépendamment des quantités conservées. Dans cette approche, on détermine d'abord, à l'aide du principe de moindre action, les équations du mouvement, puis, en faisant appel à certaines propriétés de l'espace-temps, on démontre que certaines quantités, comme l'énergie, l'impulsion et le moment cinétique, sont conservées. Il est proposé dans cette communication une approche différente, fondée sur la propriété de réversibilité des groupes, qui donne accès à la connaissance, et sur un autre principe d'invariance qui permet d'établir simultanément et en concordance les équations du mouvement et celles de conservation. Dans cette nouvelle approche, on ne considère pas le système physique comme évoluant dans un espace-temps préexistant; au contraire, non seulement le construction est corrélative à l'organisation du champ spatio-temporel, mais elle précède logiquement. L'espace-temps apparaît comme une propriété de l'objet. Cette nouvelle mécanique conduit à des résultats inattendus; en autres, elle permet d'inscrire dans le formalisme de la relativité restreinte le principe d'indétermination de Heisenberg, tout en établissant un lien entre indétermination, causalité et singularité.

L’Échelle d’Estime de Soi de Rosenberg (EES) est un instrument unidimentionnel, de 10 items, largement utilisé depuis presque 50 ans. La littérature suggère qu’à chaque 5 ans, on revérifie les qualités métriques des instruments pour s’assurer de pertinence leur mesure. C’est dans cette optique que cette étude, menée auprès d’un échantillon composé de 83 étudiant-e-s universitaires âgés de 19 à 50 ans recueilli en 2012, teste des propriétés psychométriques de l’EES. Les corrélations inter-items (0,34<r<0,81) suggèrent la présence d’un construit unidimensionnel. Les corrélations items-total (0,60 < rc < 0,82) et les alphas de Cronbach en cas de suppression des items (0,90 < α < 0,92) réitèrent que le modèle testé est unidimensionnel. Finalement, une analyse en composantes principales (0,66 < Satf < 0,87), qui explique 61% de la variance, ainsi que les qualités de représentation (0,44 < h² < 0,75), viennent confirmer l’unidimensionnalité du modèle en 10 items. En ce qui a trait à la fidélité de la mesure (α = 0,92), l’instrument présente une consistance interne très satisfaisante. La principale conclusion est que l’EES-10 est un instrument remplissant les critères psychométriques les plus répandus et qu’on peut continuer à l’utiliser sans craindre qu’il ait perdu de ses qualités. Les répercussions théorique et pratique seront discutées. D’autres populations, de même que d’autres qualités métriques, devront être explorées par de nouvelles études.

Plusieurs facteurs contribuent à accroître l’intérêt pour une utilisation accrue de la motricité électrique et des technologies des véhicules autonomes en agriculture : rareté croissante de la main-d’œuvre agricole qualifiée, augmentation de la production alimentaire à l’échelle mondiale, législations et réglementations visant la durabilité de la production agricole. Les technologies relatives aux piles à combustible (FC), aux véhicules électriques (EV) et aux véhicules autonomes et connectés (CAV) sont adaptées avec succès pour se conformer aux exigences liées aux déplacements routiers et aux applications hors route. Cette communication présente une analyse de faisabilité portant sur l’intégration des technologies FC, EV et CAV sur des unités motrices pour la réalisation d’opérations agricoles autonomes. De telles unités motrices agricoles autonomes de taille réduite (AAPU)  pourraient opérer des machines et équipements agricoles variés en fonction des différentes productions et  divers types de pratiques culturales. 

La conception des évaporateurs à effets multiples repose sur des heuristiques d'ingénierie pour déterminer le nombre optimal d'effets pour obtenir les performances souhaitées. Une première heuristique indique que l'économie de vapeur augmente d'un facteur constant de 0.8 à mesure que le nombre d'effets augmente. La deuxième heuristique tient compte de l'impact de l'élévation du point d'ébullition (EPE). Pour une EPE faible, le nombre optimal d'effets se situe entre 8 et 10 alors que pour une EPE plus significative, le nombre optimal d'effets est de 6 ou moins.

 

L'objectif de cette étude était de valider ces deux heuristiques de la conception d’un système d’évaporateurs. Pour atteindre ces objectifs, un VBA a été rédigé pour calculer la quantité de vapeur nécessaire pour vaporiser la quantité désirée d'eau ou de solvant, les débits de vapeur et de liquide émanant de chaque effet, la surface de transfert de chaleur, et enfin l'économie de vapeur (EV). Une analyse des coûts, d'investissement et d'exploitation, a ensuite été effectuée afin de quantifier la manière dont l’EPE agit comme facteur de contrôle dans le choix du nombre optimal d'effets.

 

Les résultats indiquent que pour la première heuristique, l’EV pour des évaporateurs à un ou deux effets est la même et suit l’heuristique. Au-delà de deux effets, l’EV augmente à un rythme plus lent que le facteur de 0.8 pour chaque effet. Pour la seconde heuristique, l'heuristique donne une estimation raisonnable du nombre d'effets.

De nos jours, l’application des méthodes d’optimisation topologique permet d’améliorer de manière significative le processus global de Conception Assistée par Ordinateur (CAO). Dans ce contexte, le projet présenté ici s’inscrit dans la continuité des travaux de notre équipe de recherche qui développe, depuis maintenant quelques années, des outils permettant d’améliorer l’intégration des méthodes d’optimisation topologique de pièces et structures au sein du processus de développement de produits. Notre objectif est de reconstruire, de manière automatique, un modèle CAO à partir d’un résultat d’optimisation. Pour ce faire, l’objet initial, modélisé dans un logiciel de CAO, est tout d’abord maillé automatiquement à l’aide de tétraèdres. L’optimisation est ensuite réalisée à l’aide de la méthode SIMP qui consiste globalement à déterminer une répartition optimale de densité d’un matériau fictif poreux. Cette méthode est couplée à un raffinement adaptatif du maillage suivant le gradient de la densité. Ce raffinement permet de définir l’enveloppe de la forme optimale plus clairement. La forme optimisée est extraite par élimination des parties de matière les plus poreuses. Cette forme est ensuite automatiquement lissée puis convertie en un squelette afin d’en déduire une structure de poutres (lorsque le résultat tend vers une structure). Cette structure est finalement validée par éléments finis.

Les tests ELISA (Enzyme-Linked ImunoSorbent Assay) sont communément utilisés pour détecter et quantifier des protéines dans des solutions complexes. Dans sa version standard dite « en sandwich », des anticorps de capture capables de fixer spécifiquement l’antigène recherché sont adsorbés au fond des puits d’une microplaque. Les plaques sont ensuite bloquées par incubation d’albumine sérique bovine (BSA) avant l’incubation du ligand à détecter et des autres réactifs du test (A). La réalisation d’un test ELISA peut sembler fastidieuse et longue (environ 16 h, incluant l’adsorption de l’anticorps primaire durant une nuit).

Le présent travail propose différentes alternatives aux tests standard. La première approche consiste à greffer chimiquement une couche de polymère aux propriétés anti-adhésives pour le matériel biologique (Dextran). Cette couche a permis de réduire drastiquement le temps de préparation des tests ELISA grâce à la suppression de l’étape de blocage à la BSA et à l’attache chimique de l’anticorps de capture au fond des puits, réalisée en 15 min (B). La deuxième approche repose sur l’interaction non-covalente, réversible et stable entre deux peptides K et Ecoil. Les plaques recouvertes de Kcoils attachés chimiquement ont démontrés leurs capacités à recruter spécifiquement des ligands étiquetés Ecoil (C). La stabilité et la capacité de régénération des nouvelles constructions ainsi qu’une comparaison avec les tests ELISA standard seront présentés. 

La Caraïbe a été au cours des siècles derniers le siège d'économies coloniales. Ce n'est qu'à la marge d'un développement tourné vers l'approvisionnement de métropoles européennes que des systèmes agricoles dédiés à l'approvisionnement du marché intérieur ont pu voir le jour. Aujourd'hui dans un souci d'accroissement de la résilience territoriale, l'orientation des systèmes agri-alimentaires vers la satisfaction des besoins des populations locales apparaît comme une priorité. Conjuguée à la nécessité d'une transition agroécologique et bioéconomique des modes de production, l'innovation en milieu agricole doit répondre à ces différents challenges. Organisés en réseau au sein du projet Cambionet, les scientifiques de la région développent la mise en place de living labs multisites au sein desquels les communautés d'agriculteurs et autres parties prenantes du secteur agricole, peuvent concevoir à partir des enjeux et contraintes auxquels elles sont confrontés, les choix opérationnels à privilégier dans l'évolution des agrosystèmes.  Les résultats préliminaires de cette approche originale entamée en 2021, montrent l'intérêt de la démarche collaborative d'où émergent des living labs organisés sur un nexus commun "agroécologie-bioéconomie-adaptation au changement climatique-nutrition", en déclinant dans chaque contexte des spécificités qui les rendent complémentaires, pour en faire des pôles d’attractivité à fort potentiel pour une mobilité des acteurs dans la région.

Plusieurs industries œuvrant dans la transformation sont aux prises avec un problème commun, soit la variabilité de leurs matières premières. Elle est problématique puisqu’elle se propage tout au long du procédé rendant l’atteinte des seuils de qualité plus ardue et une production moins uniforme. Pour minimiser l’impact de cette variabilité, il est nécessaire de faire un meilleur contrôle de qualité des matières premières. Il faut détecter à la source les lots de matières inadéquats. L’usage de spécifications univariées multiples est une pratique courante, mais elle comporte des inconvénients lorsque les propriétés utilisées sont corrélées entre elles.

L’usage de spécifications multivariées s’avère une meilleure option puisqu’elles tiennent compte de cette corrélation. La méthode standard vise à propager les seuils de qualité d’un produit fini jusqu’aux matières premières à l’aide de modèle à variables latentes afin de définir une zone d’acceptabilité sur ces dernières. L’inversion du modèle est une autre option.

Les travaux présentés visent à fournir une comparaison des deux approches. Afin d’assurer une répétabilité du processus et une connaissance exacte des relations, un jeu de données est bâti à partir de relations mathématiques. Il sert à construire le modèle de régression des moindres carrés partiels commun utilisé pour tester les deux approches. Les résultats obtenus sont comparés sur le plan des performances en classification et de la taille de la zone d’acceptabilité.

Le génie tissulaire propose une alternative pour la construction d’un substitut à la valve aortique lors des chirurgies de remplacement. Comme les propriétés mécaniques de ce type de substituts peuvent être optimisées par le biais d’un conditionnement mécanique, un bioréacteur a été conçu afin de soumettre la valve produite par génie tissulaire aux conditions de débit et de pression auxquelles la valve aortique est soumise in vivo. Le système conçu est un circuit hydraulique reproduisant les caractéristiques mécaniques principales de la circulation systémique. Le débit dans le système est produit par une pompe à diaphragme, actionnée par une servovalve, qui simule l’action de pompage du cœur. L’innovation apportée par ce système repose sur la précision de la reproduction des conditions physiologiques, obtenue grâce au contrôle du système effectué par un réseau de neurones artificiels. Le contrôleur consiste en un modèle de la dynamique inverse du système, soit, dans un premier temps, la relation entre la commande à envoyer à la servovalve pour produire le débit désiré dans le système. Une phase d’apprentissage a permis d’établir un modèle initial du contrôleur qui a ensuite été raffiné par un apprentissage en cours d’utilisation. Le contrôleur final a permis de déterminer une commande produisant un débit dont la corrélation est très élevée avec le débit physiologique. La suite des travaux prévoit l’implantation d’un contrôleur pour la reproduction de l’onde de pression.

Les défis urbains et environnementaux, exacerbés par les changements climatiques, requièrent des méthodes innovantes pour la planification urbaine. La cartographie actuelle des arbres urbains reste incomplète et difficile à maintenir. Les arbres en domaine privé sont d'autant plus victimes de ce problème par leur difficulté d'accès malgré leur grande contribution à la biomasse urbaine.

Ce projet propose une solution automatisée pour la caractérisation des arbres en domaine privé par des techniques de traitement d'image utilisant les images capturées par drone. Il étend les méthodologies existantes de cartographie par LIDAR en incorporant des analyses d'images à haute résolution en comparaison à des images satellites.

Les images acquises par drone sont traitées pour obtenir un nuage de point permettant la création de cartes de hauteurs et d'orthophotos géoréférencées. Ces images sont ensuite découpées en tuiles permettant l'extraction des objets y étant contenue. Un modèle d'apprentissage machine aidé par d'autres outils ouverts permet ensuite d'identifier les arbres et de les caractériser.

Les résultats préliminaires indiquent une précision d'identification élevée permettant la caractérisation de la position, de la hauteur et de la superficie de la canopée des arbres. Les données pourront être intégrées sur la plateforme de SylvCiT offrant un accès libre aux données. Le projet offre une méthode de cartographie rapide permettant une planification plus précise et éclairée.

Les résidus agro-alimentaires de l’industrie sont des biomasses qui sont convoités pour leur valorisation en extraits ayant des propriétés antioxydant, antimicrobien ou anti-inflammatoire. Le marc résultant du pressage du jus est le plus souvent constitué de la pelure, des pépins et de la pulpe qui contiennent une quantité importante de polyphénols, des pigments responsables de la coloration des fruits ou des légumes.

Le procédé d'extraction par eau subcritique des polyphénols utilise de l’eau à température et à pression élevés en dessous du point critique du diagramme de phase. Sous ces conditions, les propriétés diélectriques de l’eau permettent d’atteindre une polarité comparable à celle d’un solvant organique tel que l’éthanol, mais en utilisant seulement de l’eau. Ce procédé en semi-continue offre une solution environnementale et économique à la valorisation du marc de canneberges.

La masse exacte des molécules est obtenue par Quadrupole Time-of-Flight, Q-TOF LC/MS. Une base de données interne (Personal Compound Database Library) de composés phénoliques est généré à partir de bases de données en ligne telle que Phenol-Explorer, et sert à interroger les profils obtenus par Q-TOF. Des analyses multivariées, Principal Component Analysis (PCA), sont utilisées pour mettre en évidence les différences entre les différentes conditions d'extraction.

L’inspection automatique de pièces flexibles à l’état libre permet d’augmenter la performance et la rapidité de détection des défauts sur ce type de pièces et d’en diminuer considérablement le coût. Cesdéfauts peuvent êtreévaluésen comparant le résultat du scan de la pièce avec le modèle géométrique provenant de la conception assistée par ordinateur (CAO). On utilise classiquementdesgabaritssophistiquéset dispendieuxdurant l'inspection de ces pièces pour compenser leur déformation. Nous proposons une méthode d’inspection automatique sans gabarit (à l’état libre) basée sur un recalage non rigide avec filtration des points de correspondance. Des points de correspondance (échantillons) entre le modèle CAO et le modèle scanné sont d’abord générés sur chaque modèle puis utilisés pour déformer le modèle CAO vers le modèle scanné en utilisant les éléments finis.Afind’assurer la précision de l’inspection, les échantillons susceptibles d’être situés à proximité des défauts sont filtrés. Ce filtrage est basé sur l’analyse locale des courbures et sur l’analyse locale des contraintes de Von-Mises associées au recalage non-rigide. L’efficacité et larobustesse de la méthodesont illustréessur différents exemples. Sur ces exemples, on montre notamment l’effet de l’amplitude du bruit de mesure sur la précision d’identification des défauts. Nous présentons également une approche d’analyse des efforts requis lors de l’assemblage de ces pièces.

Les parcelles agricoles présentent certaines variabilités intra-parcellaires au niveau de la croissance des plantes qui influence la rendement des cultures. Il est nécessaire dans un premier temps connaître, d'identifier et de localiser cette variabilité (grid-sampling, imagerie aérienne, conductivité de sols,…) pour dans un second temps, en comprendre l’origine et savoir si elle est intrinsèque au sol ou si des opérations peuvent en modifier la fertilité. L'étude présentée ne cherche pas à apporter de réponse sur la cause d'un éventuel dérèglement des sols, mais bien de démonter que l'imagerie aérienne multispectrale permet de localiser les irrégularités de croissance. Pour cela, l'équipe de recherche a calculé la corrélation entre la biomasse aérienne évaluée par l'imagerie multispectrale grâce à l'indice de végétation normalisé (NDVI) et la présence réelle de trèfle sur le terrain (biomasse et chlorophylle). Les résultats obtenus ont permis de répondre de manière très satisfaisante à l'hypothèse de recherche selon laquelle l'imagerie multispectrale serait un bon outil d'analyse et de diagnostic de la productivité du sol. Cette méthodologie d'acquisition de données aériennes pourrait être utilisée dans un contexte concret d'agriculture de précision pour effectuer des suivis multi-date tout au long de la saison afin de pouvoir surveiller l'évolution de la croissance des cultures et pourvoir ainsi, le cas échéant, prendre des dispositions en cours de saison.

Un biocapteur à effet de champ novateur a récemment été développé pour mesurer la cinétique de protéines et d’acides nucléiques, en mode molécule unique, sur des échelles de temps étendues, ce qui est difficile à faire avec les dispositifs actuels. Ses avantages distinctifs émergent du nanomatériau en son cœur, soit un nanotube de carbone sur lequel on vient greffer la biomolécule d’intérêt. En effet, l’expérience montre que le courant électrique traversant le nanotube est directement influencé par les variations du potentiel électrostatique à sa surface lorsque l’état de la biomolécule change. Les mécanismes moléculaires en jeu ne sont cependant pas complètement bien cernés.

Nous avons donc effectué des simulations sur deux systèmes biomoléculaires typiques, soit une protéine (ici, le lysozyme) et un acide nucléique (ici, un 10-nt d’ADN), liés à un nanotube de carbone, tel que précédemment fait en laboratoire avec le biocapteur. Nos dynamiques moléculaires lèvent le voile sur : (1) les interactions en jeu entre la biomolécule et le nanotube et (2) sur la dépendance du potentiel électrostatique à la surface du nanotube envers la structure de la biomolécule. Dans le cas du lysozyme, ces résultats permettent de bien expliquer les variations de courant électrique observées expérimentalement. Dans le cas du 10-nt d’ADN, nous observons des particularités qui soulèvent des questions intéressantes sur les mécanismes réellement en jeu en cœur de ce biocapteur.

Dans un robot de traite, la localisation des trayons et le positionnement des gobelets de traite est très important. La technologie de positionnement des robots de traite n'a pas évoluée depuis une dizaine d'année et est basée principalement sur un profil laser qui donne les positions approximatives des trayons. Or cette technologie atteint ces limites et ne permet pas un positionnement optimal des gobelets.

Pour pallier à ces limites, nous avons développé un nouveau système basé sur la vision 3D et capable d'orienter efficacement les gobelets de traite. Un prototype du système intelligent pour le positionnement en temps-réel d'un robot de traite a été construit et testé dans diverses conditions sur des modèles de trayons (statiques et en mouvement).

Des tests expérimentaux ont été effectués avec des caméras 3D TOF (Temps de vol) et RGBD (Kinect). Les algorithmes développés permettent de segmenter les trayons, de les identifier et de calculer leur position 3D. Cette information est ensuite envoyée au robot de traite qui positionne les gobelets sous les trayons. Le système de vision fonction en mode suivi en continu et contrôle le positionnement optimal des gobelets même en présence du mouvement.

Les résultats démontrent l’efficacité du système de vision proposé. Les meilleurs résultats ont été obtenus avec des caméras RGBD qui ont des plus hautes résolutions que les caméras TOF.

Les isocyanates sont des composés réactifs et toxiques contenant un ou plusieurs groupes fonctionnels NCO. Appliqués par pulvérisation, ils existent sous forme de vapeur et d'aérosols difficiles à mesurer, dans un contexte d’exposition professionnelle, nonobstant l’utilisation des méthodes standardisées. Ils constituent l'une des principales causes d'asthme professionnel au Québec. Cette étude présente la validation en laboratoire d’un système de génération d’isocyanates par pulvérisation afin d’améliorer la compréhension du comportement de ces émissions semi-volatiles au sein des dispositifs d’échantillonnage d’air. Ce système comprenait une chambre de pulvérisation munie d’un pistolet générant une pulvérisation d’un vernis contenant du diisocyanate d’hexaméthylène (HDI) et ses oligomères et une chambre d’exposition à plusieurs points d’échantillonnage. Les paramètres de débit, d'hygrométrie et de température étaient contrôlés. Le HDI prélevé sur filtre imprégné était analysé par chromatographie liquide ultraviolet et/ou spectrométrique de masse. La granulométrie du HDI et de ses oligomères a été mesurée par un impacteur à cascade et d’un impacteur électrique à basse pression. Le diamètre aérodynamique massique médian était de 4 µm. Le système a été capable de générer des niveaux de concentration de HDI et d’isocyanurate allant de 0,030 à 0,057 mg/m3 et de 0,428 à 1,313 mg/m3 avec une variabilité intratest de 5,8% et de 16,5%, respectivement.