Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

La robotique constitue certainement le défi le plus extraordinaire que devra relever le monde scientifique dans les vingt prochaines années. La notion de « robot » comprend une multitude de catégories allant des humanoïdes aux drones en passant par ce qu’on surnomme également les bioniques. Mais surtout, la robotique comprend l’étude et l’utilisation de l’intelligence artificielle. Cela induit la construction de machines capables de s’adapter à leur environnement tout en montrant de réelles capacités d’auto-apprentissage. Autrefois considéré comme une chimère, l’hypothèse de robots policiers ou à l’inverse de robots-tueurs prend de plus en plus d’épaisseur. En effet, malgré la fiabilité de certains algorithmes ainsi que la vigilance des programmeurs, le contrôle de certains robots dotés d’intelligence artificielle pourrait devenir plus aléatoire. Eu égard à l’ensemble de ces considérations, plusieurs questions méritent donc d’être posées. Tout d’abord, ces robots peuvent-ils constituer de véritables instruments préventifs et dissuasifs permettant de lutter contre la criminalité ? Ensuite, comment devrait-on réagir sur le terrain de la responsabilité pénale, face à des robots qui seraient auteurs de crimes ?

L’ensemble de ces interrogations nous pousse à nous inscrire dans une forme d’analyse prospective où nous étudierons l’impact que pourrait avoir l’utilisation de robots dotés d’intelligence artificielle sur la prévention du crime ainsi que sur la responsabilité pénale.

 

La notion de service a évolué et s’est adaptée en prenant une place très importante dans une économie en pleine mutation. Le service est désormais enchâssé dans un système à trois dimensions : le support physique, la formalisation de l’expérience et les valeurs sous-jacentes. Le design, autrefois majoritairement axé sur les objets, tente d’appréhender le service en tant qu’agent intégrateur de l’expérience utilisateur. Or, les méthodes qui fonctionnent pour concevoir l'objet ne sont pas tout à fait adaptées pour un service de nature intangible, ayant une logique temporelle et s’étendant dans de multiples espaces. Le designer doit d’abord comprendre les mécanismes fondamentaux du service pour pouvoir l’appréhender et, pour ce faire, un processus de cartographie et de représentation de son écosystème s’avère nécessaire.

Au cours de cette présentation, nous exposerons la notion du service et les enjeux complexes qui entourent le concept d’écosystème de service. Ensuite, nous analyserons comment la cartographie de cet écosystème est essentielle à la compréhension de tous ses agents et de ses mécanismes intangibles. Finalement, nous discuterons de l’importance d’une représentation complète de l’écosystème de service pour construire un langage commun essentiel à la coordination des multiples acteurs qui interviennent dans la conception et la mise en œuvre du service centré sur l’humain et son contexte.

L’imagerie avec les fréquences térahertz (0.1 – 10 THz, longueurs d’onde de 3 mm – 30 µm) a reçu une attention considérable au cours des dernières années, en raison de la capacité de ces ondes électromagnétiques de pénétrer en profondeur plusieurs matériaux diélectriques autrement opaques dans le visible (tissus, papiers, cartons, polymères etc.). Cependant, le principal problème rencontré aujourd’hui en imagerie THz est le temps d’acquisition. Contrairement aux autres régions du spectre, il n’existe pas encore de caméra THz suffisamment sensible. Les détecteurs les plus sensibles qui existent sont à pixel unique. Ainsi, pour obtenir une image, il faut manuellement déplacer l’échantillon point par point. Ce processus, en plus de prendre beaucoup de temps, ne s’applique pas à tous les types d’échantillons. Dans ce projet, nous avons développé une méthode unique de reconstruction d’images qui utilise l’information spectrale d’une impulsion THz pour reconstruire une image avec un nombre très limité de mesures spatiales. L’idée principale est d’utiliser la relation linéaire entre la fréquence spatiale et la fréquence spectrale pour substituer la dimension spatiale en une dimension spectrale. Nous avons développé des algorithmes de reconstruction pour les cas importants de masques d’amplitude et de phase. Nous avons ensuite expérimentalement démontré avec succès la reconstruction d’images de 4500 pixels avec seulement 45 mesures spatiales (1%).

L'activité pédagogique Logique et mathématiques discrètes est souvent perçue comme un mal nécessaire par la majorité de la clientèle étudiante en informatique, malgré l'importance fondamentale des théories étudiées. La méthode d'apprentissage employée pour cette matière est en général peu adaptée à une population étudiante qui provient du secteur technique des cégeps, comme c'est le cas pour une partie significative de celle admise au Département d'informatique. Un projet pédagogique de l'Université de Sherbrooke propose l'utilisation de l'outil Alloy, un outil basé sur des méthodes de satisfaction de contraintes booléennes (SAT), parallèlement à la présentation des sujets en classe. Alloy est conçu de manière à pouvoir décrire simplement des modèles abstraits (une théorie est spécifiée d'une manière déclarative) et de générer des contre-exemples suite à une assertion non satisfaite. Ainsi, les étudiants peuvent formuler en logique des prédicats des propriétés, comme la symétrie et la transitivité, et les vérifier à partir de relations données, de façon à obtenir instantanément une réaction sous une forme textuelle ou graphique. Pour chaque thème du cours, une bibliothèque décrivant une théorie a été développée. Celle-ci s'accompagne d'une manière de faire afin de guider l'étudiant dans des exercices et de lui donner une rétro-action directe sur ses résultats. Nous nous proposons de présenter l'outil, les bibliothèques et les problèmes techniques liés à une telle activité.

Le développement d’un modèle pharmacophore se fait généralement à partir d’un ensemble de composés biologiquement actifs pour une cible pharmaceutique donnée. Cette hypothèse pharmacophore doit ensuite être optimisée et validée par la qualité et la quantité de nouvelles molécules biologiquement actives trouvées à partir de recherches dans des banques de données de molécules ayant des propriétés pharmaceutiques. En 1998, Güner & Henry ont publié un chapitre de livre sur une nouvelle formule pour optimiser les hypothèses pharmacophores : le GH score. Cette dernière a été utilisée depuis plusieurs années pour évaluer la qualité de ces recherches dans les banques de données. Toutefois cette formule présente certaines limites, car elle ne prend pas en considération les composées inactifs connus. Dans cette présentation, nous proposons donc une formule optimisée : le score AE. Pour ce faire, nous avons ajouté un nouveau facteur qui permet d’évaluer la proportion de composés inactifs connus. Nous avons ensuite appliqué des coefficients à chaque facteur de cette formule soit le rendement, le pourcentage d’actifs et le pourcentage d’inactifs. Les meilleures listes de composés sont trouvées par l’optimisation de ces trois facteurs. Ces coefficients ont été testés sur les résultats de différentes recherches puisés dans la littérature. Nous aurons l’occasion de justifier les paramètres de cette nouvelle formule (ci-dessous) lors de cette présentation.

L’enrobage est une étape importante du procédé de fabrication des comprimés pharmaceutiques. Actuellement, celui-ci est contrôlé manuellement afin d’atteindre des standards de qualité; les décisions quant aux ajustements nécessaires reposent principalement sur l’inspection visuelle et l’expérience des opérateurs. Par conséquent, les perturbations externes ainsi que le biais engendré par la perception humaine peuvent entraîner une variabilité de la qualité des produits et une augmentation des rejets.

Une revue de la littérature scientifique a démontré qu’il existe, pour ce procédé, un manque des stratégies de surveillance de qualité en temps réel avec capteurs à faible coût. Afin de pallier ces lacunes, un capteur de vision numérique a été développé à partir d’une caméra installée à l’intérieur d’une enrobeuse et de méthodes à variables latentes. L’analyse d’images multivariées (MIA) et de texture par ondelettes (WTA) ont été utilisées pour extraire les caractéristiques d’intérêt. À partir de ces dernières, des heuristiques ont été appliquées afin de détecter le point de terminaison de l’enrobage de plusieurs lots de comprimés. Finalement, les données d’opération ont été ajoutées à celles des images pour faire un modèle de surveillance.

Les avantages attendus de la méthode proposée sont : minimisation des défauts visuels; réduction du temps de traitement, de la quantité de solution d’enrobage et de la nécessité d’échantillonnage; compréhension plus approfondie du procédé.

Les écosystèmes des zones côtières de la Baie d’Hudson, sensibles au réchauffement global, subiront d’importantes transformations dans les prochaines décennies mais, les variations climatiques et océaniques y sont mal connues à différentes échelles temporelles. Les reconstructions paléoclimatiques quantitatives basées sur les dinokystes et les pollen et spores provenant de la carotte de sédiment marin AMD0509-20, localisée au nord du village de Kuujjuarapik, dans l’est de la baie d’Hudson, ont permis de retracer les paramètres liés au climat terrestre (végétation) et marin (température et salinité estivales ainsi que le couvert de glace de mer) couvrant les trois derniers millénaires.

Nos résultats démontrent des conditions relativement chaudes avant 2600 ans BP avec environ 2°C plus élevées par rapport à l’actuel, des contrastes saisonniers marqués et un bilan d’eau douce caractérisé par des précipitations moindres. De 2600 à 1800 ans BP, une baisse abrupte des températures de surface est enregistrée vers 2600 ans BP, suivie d’une baisse graduelle de la salinité jusque vers 2200 ans BP, suggérant des conditions hydroclimatiques instables. Après 1800 ans BP, les températures de surface estivales et la salinité se stabilisent autour des valeurs actuelles. L’ensemble de nos résultats illustre, non seulement un refroidissement au cours de l’Holocène tardif mais, également des changements du régime hydrologique régional marqué par une baisse des précipitations estivales.

La ville de Saint-Georges est confrontée à des inondations de la rivière Chaudière, causées par la formation d’embâcles de glace. Pour les réduire, une structure de rétention de glace (SRG) nommée barrage Sartigan a été construite en 1967 en amont de la ville de Saint-Georges, afin de favoriser la formation d’un couvert de glace et retenir les glaces jusqu’à la fonte. La SRG est composée d’un déversoir sur lequel reposent onze pertuis à chaque 6 m. Quatre grilles horizontales étaient conçues pour chaque pertuis dans le but d’éviter que les morceaux de glace s’échappent entre les piliers, mais des problèmes de gestion ont conduit à la réduction du nombre de grilles dans ces pertuis en 1991. Ce projet de recherche a donc pour objectif d’évaluer l’utilité des grilles en déterminant la hauteur de placement optimale dans les pertuis. Pour cela, une campagne de terrains est effectuée sur 2 hivers, durant lesquels différentes hauteurs de placement de grilles sont testées afin de caractériser les glaces et d’observer si les grilles peuvent contribuer à mieux les retenir. Les résultats du 1er hiver ont montré que la hauteur de placement des grilles est potentiellement importante, avec une meilleure performance à 0,5 m de la crête du déversoir. La caractérisation des glaces a abouti à un diamètre et épaisseur des morceaux de glace en moyenne de 1 m et 0,2 m respectivement. Ainsi, la configuration optimale de la hauteur des grilles fut identifiée pour cette première saison.

Dans le cadre de la transition agroécologique, le concept de système d’Innovation (SI) permet d’appréhender les réseaux d’acteurs et les flux existants entre ces acteurs pour étudier les points de blocage à la diffusion de pratiques innovantes. En Guadeloupe, territoire de la Caraïbe française, la banane plantain, joue un rôle clé dans l’alimentation locale. Dans cette étude, une analyse des réseaux sociaux a été réalisée pour étudier les structures (acteurs) et fonctions (les flux de ressources) en lien avec trois types de pratiques alternatives. Pour caractériser la structure, des indicateurs de centralité, de réciprocité et de densité des réseaux ont été calculés à l’aide d’une Social Network Analysis. Les fonctions ont été appréhendées à l’aide des verbatims des agriculteurs. Cette étude a mis en évidence qu’il existait : (i) une déconnexion entre la structure et les fonctions des réseaux, autrement dit que les acteurs centraux ne remplissaient pas les fonctions supports nécessaires à la mise en place de pratiques alternatives. Les leviers proposés (subventions notamment) par les acteurs centraux non agriculteurs sont souvent déconnectés (en termes de critères d’éligibilité) des stratégies des agriculteurs entraînant une non utilisation de ces leviers. (ii) Cette déconnexion est à l’origine d’un manque de confiance de la part des agriculteurs vis-à-vis des acteurs non agriculteurs, (iii) entraînant des points de blocage majeurs à la transition agroécologique.

La découverte de nouvelles molécules thérapeutiques est une tâche longue et laborieuse. Afin d’accélérer ce processus, des méthodes informatiques dites in silico ont été développées. Malheureusement, ces outils sont souvent sujets à un compromis entre efficacité et temps de calcul. Notre recherche se concentre alors sur le développement d’un modèle à la fois efficace et rapide pour obtenir l’énergie potentielle et la géométrie optimisée de petites molécules d’intérêt. En effet, ces données sont notamment utiles pour améliorer des programmes de prédiction de chimie médicinale comme le criblage virtuel ou l’amarrage moléculaire.

Pour cela, nous avons développé notre propre modèle de mécanique moléculaire afin d’intégrer directement des principes connus en chimie organique tels que l’hyperconjugaison ou l’électronégativité. En effet, ces notions sont régulièrement utilisées qualitativement pour la prédiction de réactivité dans de nombreuses réflexions de chimistes organiciens. Notre modèle utilise alors ces principes pour prédire quantitativement les barrières énergétiques séparant les différentes conformations des molécules et peut être utilisé directement pour optimiser la géométrie de petites molécules d’intérêts. Cette méthodologie, dénommée H-TEQ (pour Hyperconjugaison pour la Torsion, l’Énergie et sa Quantification) a été testée sur de nombreux jeux de molécules différents de taille et de complexité graduelles et a démontré une meilleure précision que les méthodes habituelles.

Les oiseaux de rivage ont subi un déclin marqué de leurs effectifs au cours des 50 dernières années. Aussi, il importe d’identifier les secteurs importants pour leur conservation. Durant la migration automnale, les vasières de la rive sud de l’estuaire du St-Laurent sont utilisées par de nombreuses espèces, particulièrement par les juvéniles. Cependant, on ignore encore quelle en est l’importance réelle pour la plupart des espèces, dont le Bécasseau semipalmé. Afin de déterminer l’importance de ces vasières pour cette espèce, des juvéniles ont été capturés au Kamouraska de 2016 à 2019.  Les individus ont été pesés et mesurés afin d’en évaluer la condition et leur sexe, déterminé (PCR). Chaque individu a été muni d’un émetteur afin d’estimer la durée de séjour à l’aide de tours automatisées de télémétrie présentes dans l’aire d’étude (réseau MOTUS). Le taux d’acquisition des réserves corporelles était d’environ 0,3 g/j tant chez les mâles (n = 94) que chez les femelles (n = 66). La durée de séjour minimale dans l’estuaire, confirmée par l’arrivée d’individus sur le littoral atlantique (réseau MOTUS) au plus tard le jour suivant leur départ de l’estuaire atteignait jusqu’à 23 j. Ce taux d’acquisition des réserves corporelles et la présence d’individus durant environ trois semaines sur la rive sud de l’estuaire illustrent l’importance de ce secteur et plaident en faveur de la mise en place de mesures de conservation pour cette espèce, afin de contribuer à en réduire le déclin.

Les fluoropolymères sont utilisés dans de nombreuses applications, comme le textile, la construction ou encore le biomédical. Ils sont principalement réputés pour leur stabilité chimique et mécanique. Toutefois, pour de nombreuses applications, leur faible énergie de surface conduit à une mauvaise adhésion lors de l'assemblage avec d'autres matériaux. Parmi toutes les techniques utilisées pour améliorer l'adhésion, les décharges à pression atmosphérique (APD) sont des méthodes rapides et bon marché adaptées à l'industrie. Dans ces décharges, les espèces hautement énergétiques du gaz ionisé permettent aux molécules d'être rompues puis recombinées pour former une couche à la surface du polymère. Bien que cette approche se soit avérée efficace, la compréhension des processus chimiques et physiques conduisant à ces résultats est encore limitée. Dans cette étude, la modification de surface d’un polymère fluoré a été effectuée par plasma à la pression atmosphérique équipé d'un système de déroulement dans un environnement d’azote.  La caractérisation de la surface a été réalisée par spectroscopie photoélectronique aux rayons X (XPS) et par spectroscopie infrarouge en mode de réflectance totale atténuée (ATR-FTIR). Les résultats obtenus mettent en évidence la possibilité de contrôler la création de nouvelles fonctionnalités hydrophiles déposées sur le tetrafluoroéthylene d'éthylène.

Problématique

Le micro-environnement tumoral au sein du tissu adipeux régule la composition du sécrétome des adipocytes matures. Ceci mène à l’instauration de conditions inflammatoires favorables à l’acquisition d’un phénotype cancéreux agressif. L’apport des cellules souches mésenchymateuses préadipocytaires (ADMSC) demeure cependant inconnu.

Objectif

Nous émettons l’hypothèse que la signature moléculaire du sécrétome des ADMSC soit influencée par le facteur de nécrose tumorale alpha (TNFα), une puissante cytokine pro-inflammatoire tumorale.

Méthodologie

Les ADMSC ont été traitées au TNFα (0 à 100 ng/ml), l’ARN total extrait et une analyse transcriptomique effectuée par RT-qPCR. L’implication possible de la voie de signalisation pro-inflammatoire JAK/STAT a été examinée à l’aide de l’inhibiteur pharmacologique AG490 et par répression génique de STAT3 à l’aide d’ARNs interférents.

Résultats préliminaires

Une surexpression de plusieurs gènes de l’inflammation (COX2, IL6, MMP9), et de l’adipogénèse (FABP4, LPL) après traitement au TNFα a été observée. STAT3 y apparait comme un régulateur signalétique.

Conclusion

Considérant le lien entre l’obésité et le cancer, notre étude met en évidence une régulation paracrine potentielle insoupçonnée des cellules souches préadipocytaires à la carcinogenèse.

Les changements climatiques (CC) augmentent la fréquence, la durée et la sévérité des inondations. Les mesures d’adaptation aux inondations (MAI) visent à réduire les impacts des inondations sur les populations touchées (PT). L’objectif de cette revue est d’examiner l’effet des MAI dues aux CC sur la santé mentale (SM) des PT. Une recherche en date du 8 mars 2021 a été effectuée sur Medline et Web of Science. La stratégie de recherche a été construite selon 3 concepts : les MAI, les inondations, et la SM. L’exclusion a été faite selon le type de document et le type d’inondation. 734 articles ont été obtenus, dont 10 ont été retenus. Ces articles ont été classés sous 2 catégories : les études portant sur des axes d’intervention pour l’adaptation aux inondations (7 articles) et les études portant sur des MAI appliquées auprès de PT (3 articles). Les résultats concordent sur l’effet bénéfique des MAI sur la SM des victimes. La cohésion sociale (axe d’intervention) et la réduction de l’exposition aux inondations et leurs conséquences sont les principaux éléments d’intervention ressortis. Ces éléments agissent sur la SM en renforçant la résilience des victimes. Les résultats démontrent le manque d’études sur le sujet, et servent à orienter les pistes de recherche, ainsi que l’élaboration de MAI pour l’avenir, notamment dans un contexte de CC en hausse. Une mise à jour de la recherche est en cours afin de répertorier les nouvelles études portant sur le sujet.

Dans la présente étude, des agents antimicrobiens d'origine bactérienne, dont la reutérine 5 mM associée à de l'acide lactique 103,91 mM (RL) ou à de la microcine J25 0,08 µM (RJ), ont été évalués pour leurs effets sur le microbiote et les attributs sensoriels des cuisses de poulet crues. L'acide peracétique (13,67 mM), un produit chimique conventionnel couramment utilisé dans l'industrie de la volaille, a été utilisé comme contrôle positif pour comparer l'efficacité. Les cuisses de poulet ont été aspergées de solutions antimicrobiennes et stockées en aérobiose à 4oC pendant 10 jours. Par rapport au groupe non traité, la durée de conservation a été prolongée de 3 jours dans le groupe traité par RL. Le traitement RJ a prolongé la durée de conservation à 7 jours, ce qui est similaire à ce qui a été obtenu avec l'utilisation d'acide peracétique. Les traitements RL et RJ ont affecté la communauté microbienne des cuisses de poulet en retardant l'augmentation de Pseudomonas, Psychrobacter et Carnobacterium et en diminuant celle de Shigella. Dans l'ensemble, les scores des propriétés sensorielles des cuisses de poulet traitées avec RL et RJ sont restés plus élevés (P<0,05) que ceux traités avec de l'acide peracétique ou sans agents antimicrobiens. Ces résultats suggèrent que le RL et le RJ constituent une approche antimicrobienne d'origine naturelle prometteuse pour contrôler la croissance des micro-organismes d'altération sur les cuisses de poulet.

Le virus de l’hépatite A (VHA) et le norovirus sont les principales causes de maladies d’origine alimentaire dans le monde. Il existe peu de méthodes standardisées afin de détecter ces virus dans les aliments et celles-ci utilisent généralement un système de détection basé sur la RT-qPCR, ne permettant pas de discriminer les virions infectieux des non infectieux. De plus, peu de données existent sur la persistance des virions non infectieux et de l’ARN viral en conditions environnementales.

L’objectif de cette étude était donc d’évaluer la persistance d’ARN de VHA provenant de virions inactivés à la chaleur. L’ARN viral dilué à différentes concentrations a été ajouté à des solutions ou déposé sur des surfaces alimentaires. La persistance de l’ARN a ensuite été mesurée à différentes températures d’entreposage pendant 90 jours.

Dans cette étude, des concentrations de 2,5×106 et 2,5×104 copies de génome d’ARN par échantillon ont été détectées jusqu’à 90 jours en solution et sur la plupart des surfaces, quelle que soit la température d’entreposage. Sur l’acier inoxydable, la concentration moyenne a été détectée jusqu’à 60 jours à 4 °C et 16 jours à 23 °C, suggérant une dégradation plus rapide de l’ARN viral sur ce type de surface.

Ces résultats montrent l’importance de considérer la présence de virions non infectieux lors du développement de méthode de détection virale et ainsi permettre de diminuer le risque de résultats positifs associés à des particules virales non infectieuses.

Les produits forestiers sont abondants, emblématiques du territoire québécois et sous-utilisés en cuisine malgré leur potentiel aromatique. L’objectif de cette étude est de caractériser les propriétés sensorielles d’extraits de conifères à des fins culinaires.

Des extraits d’aiguilles et de bourgeons de sapin baumier, d’épinette blanche et d’épinette noire ont été préparés en milieu aqueux (macération, décoction) ou lipidique (sous-vide). Des professeurs et étudiants en cuisine ou en pâtisserie (n=21) ont évalué les odeurs et arômes des extraits en réalisant une cartographie projective combinée à un profil ultra-flash. Les descripteurs obtenus ont été catégorisés puis analysés par analyse factorielle multiple.

Dans l’ensemble, les descripteurs dominants des extraits lipidiques étaient : herbes fraiches, torréfié; ceux des extraits aqueux étaient : boisé, résineux. Les principaux descripteurs des extraits d’aiguilles étaient : fruité, agrumes; ceux des extraits de bourgeons étaient : herbes aromatiques, épices. Les descripteurs dominants des extraits de sapin baumier étaient : sucré, doux; ceux des extraits d’épinette noire étaient : floral, acide; ceux des extraits d’épinette blanche étaient : frais, astringent.

Plusieurs propositions d’usage culinaire ont été recensées pour ces différents extraits, annonçant un bon potentiel de diversifier l’utilisation de ces ressources en cuisine.

L'utilisation des mortiers de chaux aériennes pures réduit la résistance à l'eau et la durabilité mécanique du matériau. La solidité et la durée des édifices anciens, dépendant principalement du mortier employé dans leur construction. Les édifices de la Citadelle d’Alger font continuellement face aux attaques d’un climat variable et humide. Ce qui rend l’ancien mortier défectueux. C’est dans cet objectif que s’inscrit notre travail et qui consiste à suivre l’influence d’ajout du ciment naturel dans un mortier de chaux pour élaborer un mortier de meilleure durabilité. Des échantillons ont été formulés avec ajout des quantités de (de 10 % à 50 %) de ciment naturel. À ces échantillons, on a ajouté 2 % d’adjuvant (médaflow 30). Ces échantillons ont subi l’analyse des caractérisations mécaniques après 14 et 28 jours de durcissement et des caractéristiques physiques (masse volumique, masse spécifique, absorption d’eau). Les résultats d’analyse ont montré que le ciment naturel peut être employé comme ajout approprié aux mortiers de chaux aériennes, pour améliorer leur durabilité tout en gardant leur compatibilité avec les matériaux anciens.

Les feux sont le moteur principal de la régénération naturelle de la forêt boréale. Or, les changements climatiques sont susceptibles de modifier leur dynamique naturelle. Les feux surviendront plus tôt au printemps, seront moins sévères et entraîneront des conditions hostiles pour la germination. Ainsi, la résilience des peuplements forestiers est compromise par l’hétérogénéité spatiale de la régénération naturelle après-feu. Dans une telle situation, les gestionnaires forestiers doivent assurer une régénération artificielle des peuplements mal régénérés. Présentement, l’évaluation des endroits où intensifier la plantation après un feu se fait sur le terrain, un processus long et coûteux.

En combinant l’utilisation d’outils de télédétection à des mesures sur le terrain, ce projet permettra d’élaborer un modèle spatial pour évaluer la probabilité de régénération naturelle des forêts à distance, par télédétection. La sévérité des feux de l’est du Canada est mesurée à partir d’images satellites et d’imagerie par drone, et les microsites potentiels pour la régénération sont identifiés à l’aide de relevés réalisés sur le terrain.

À terme, cette étude contribuera à améliorer la gestion et l’aménagement durable de la forêt boréale en produisant un outil d’évaluation du potentiel de régénération après-feu. Il permettra aux gestionnaires forestiers de connaître les endroits où intensifier les efforts de régénération artificielle sans avoir à se déplacer sur le terrain.

Le muscle lisse est présent dans presque tous les organes creux du corps humain. Certains muscles lisses ont l’habilité de demeurer contractés pendant de longues périodes sans utiliser beaucoup d'énergie sous la forme d’ATP. Cette caractéristique s'appelle l'état latch et les chercheurs la décrivent comme une qualité du moteur moléculaire appelé myosine du muscle lise (MML). La principale hypothèse pour expliquer l’état latch stipule qu’il se produit lorsque la MML est désactivée par la phosphatase de la chaine légère du muscle lisse (PCLM) pendant qu’elle est attachée à un myofilament fin. Certaines études suggèrent aussi que la protéine régulatrice de l’actine appelée caldesmone (CaD) peut jouer un rôle dans l'état latch. Or, ces hypothèses n’ont jamais été confirmées au niveau moléculaire. Afin d’élucider le rôle de CaD dans la mécanique moléculaire des muscles lisses, nous avons injecté de la PCLM durant des mesures de motilité in vitro effectuées en présence de CaD (400 nM) ou en son absence. Nos données suggèrent que CaD peut accélérer la désactivation des MML, ou promouvoir le rattachement de la MMS désactivé à l’actine. Ces deux possibilités pourraient potentiellement favoriser l’état latch mais ceci devra être confirmé par des mesures de force faites à l’aide de pinces optiques. Comprendre l’état latch pourrait aider à résoudre les pathologies impliquant des problèmes de relaxation du muscle lisse, comme l’asthme et l’hypertension.

La production mondiale de soya a augmenté significativement ces dernières années, s’accompagnant d’une quantité croissante d’enveloppes de soya non-utilisées représentant 8% du poids de la fève. Ce défi environnemental et de gaspillage alimentaire nécessite des solutions innovantes et économiquement viables. En effet, les enveloppes de soya sont riches en fibres (42%), et contiennent 9,9 % de protéines, 1,0 % de matières grasses et 4,4 % de cendres. Parmi les approches de valorisation des enveloppes de soya, il y’a la production de molécules à haute valeur ajoutée utilisées dans l'alimentation humaine et animale, l'agriculture et la bioénergie. Ces enveloppes servent aussi à la production des peroxydases et à la carbonisation pour former des adsorbants destinés au blanchiment de l'huile et comme échangeur de cations. La présente étude vise l’amélioration des propriétés fonctionnelles des coquilles de soya en utilisant les technologies vertes telles que la micronisation et les ultrasons. Les résultats préliminaires montrent que les propriétés fonctionnelles des fibres alimentaires extraites des coquilles de soya sont tributaires de la taille des particules et des prétraitements appliqués lors de l’extraction. Par exemple, il a été possible d’améliorer la capacité de rétention de l’huile de 272% par la micronisation seule et de 384% en combinant la cuisson et la micronisation. Un pouvoir moussant des coquilles de soya a aussi été observé et  est actuellement sous investigation

Chaque année, des centaines de milliers de peaux issues de l’élevage et de la chasse sont enfouies causant de graves conséquences pour l’environnement de notre planète Terre. Ce gaspillage fait déborder les sites d’enfouissement, contribue à augmenter les prix de la viande et rend le Canada dépendant des importations pour les produits de la fourrure et du cuir (Institut de la statistique du Québec, 2021). L’application des principes de l’économie circulaire, proposant des stratégies et des modèles d’affaires visant à réduire et optimiser les ressources naturelles à toutes les étapes du cycle de vie d’un bien ou d’un service, est une voie prometteuse (Institut EDDEC, 2018). Écofaune boréale, premier centre de recherche sur la fourrure et le cuir au Canada, s’intéresse à cette problématique en réponse à une demande de l’industrie. Cette communication a pour objectif de montrer comment la réutilisation de « gisements » de matières résiduelles favorise le développement de sous-produits novateurs et respectueux des procédés écoresponsables de tannage. Trois projets de recherche appliquée sur les peaux issues de l'orignal, du saumon et du mouton vont être présentés pour appuyer la démonstration. Au-delà de la valorisation des peaux, l’analyse macro des chaines de valeurs de la filière animale souligne différentes opportunités d’amélioration et de recherche qui feront l’objet de la discussion.

Puisque la fréquence et la grosseur des feux de forêt ont augmenté dans les dernières décennies, l’évaluation rapide de la gravité des feux est essentielle pour comprendre les conséquences des incendies et estimer leurs impacts sur la végétation. Les images de télédétection permettent d’évaluer rapidement la gravité des feux, mais elles doivent être validées sur le terrain. Cette validation des indicateurs de gravité des feux de forêt sur le terrain peut être réalisée avec les parcelles permanentes d’inventaire forestier, même s’il y a souvent un décalage entre la grosseur et la forme des parcelles et la résolution des images satellites. Dans le cadre de cette étude, nous avons utilisé deux bases de données : (1) des données sur l’inventaire forestier des États-Unis pour calculer la gravité des feux au sol ; et (2) des données de télédétection du programme américain Monitoring Trends in Burn Severity (MTBS) pour calculer des indicateurs de gravité des feux basés sur différents scénarios de pondération des pixels. Nous cherchions à déterminer quel indicateur de gravité des feux MTBS représentait le mieux la gravité observée au sol. Pour ce faire, nous avons modélisé la gravité au sol et par imagerie satellite avec une régression logistique et une régression ordinale. Nos résultats montrent que l’indicateur Relative differenced Normalized Burn Ratio (RdNBR) basé sur une moyenne de 9 pixels représentait le plus fidèlement la gravité des feux au sol.

De nombreuses études ont constaté un effet rapide de la prise de cannabinoïdes sur les comportements alimentaires des rongeurs sous forme d'hyperphagie ou d'hypophagie, effets qui ont été attribués aux récepteurs cannabinoïde 1 (CB1) présents dans le système nerveux central et dans le tube digestif. Or, la majorité des études ayant fait cette observation n’ont pas spécifiquement ciblé une région du système nerveux central. Nous avons donc sélectionné deux régions du cerveau ayant des fonctions différentes sur l’ingestion alimentaire afin de mieux définir les mécanismes d’action des cannabinoïdes sur celle-ci. Dans l’expérience 1, des rats adolescents mâles et femelles de type Wistar ont reçu 5 injections de l’agoniste des CB1 WIN55 212-2 ou du véhicule dans l’hypothalamus latéral (HL), une région essentielle au maintien de l’homéostasie; dans l’expérience 2, les animaux ont reçu leurs 5 injections dans le noyau accumbens (NA), une région clé du système de récompense. Une semaine après la dernière injection, les animaux ont été testés dans le Novelty Suppressed Feeding Test (NSFT) et la Behavioural Satiety Sequence (BSS), tests qui mesurent la motivation à manger et la préférence alimentaire, respectivement. Les animaux qui ont reçu la drogue avaient tendance à manger plus que les rats-contrôles uniquement dans l'expérience 2. Dans les deux expériences, la drogue eut un effet limité sur la préférence alimentaire des animaux à long terme.

Les polyphénols sont des molécules antioxydantes issues des végétaux. Leur potentiel-santé est en plein essor. Toutefois, ils sont extrêmement sensibles à leur environnement. La lumière, l'oxygène et le pH affectent leur structure chimique, menaçant leur capacité à protéger l'organisme. Lors de la digestion, à cause de l'acidité de l'estomac et des enzymes digestives, la majeure partie des polyphénols ingérés sont endommagés, inutilisables par l'organisme. L'étude se penche spécifiquement sur les proanthocyanidines (PACs), des polyphénols issus d'un petit fruit nordique de couleur noire, l'Aronia melanocarpa. L'objectif étant de réaliser un véhicule de protéines permettant la protection des PACs durant les différentes phases de la digestion. Les polyphénols seront pour ainsi dire « livrés » directement à leurs sites d'absorption. Une approche passant par la modélisation mathématique permettra de faire un survol de plusieurs conditions environnementales pour ensuite prédire le comportement des complexes dans différents milieux. Spécifiquement, le pH, la concentration en sels et les hautes pressions d'homogénéisation seront les paramètres mis en relation pour produire le modèle. Différentes méthodes spectroscopiques seront utilisées pour visualiser les complexes au niveau moléculaire. Les complexes seront par la suite soumis à une digestion in vitro pour mettre en lumière la meilleure façon d'acheminer les PACs dans le corps.