Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

L’informatique décisionnelle représente de nos jours une source vitale aux succès des entreprises, petite, moyenne ou grande. Le but de cette recherche est d'évaluer les tableaux de bord potentiels et de concevoir par la suite la meilleure solution informatique adaptée à l'environnement de l'entreprise S3R. Celle-ci est spécialisée dans l'offre de solutions de gestion des déchets pour ses clients. La société détient actuellement une application liée à une base de données hébergée dans le Cloud, lui permettant d’automatiser une partie de son processus opérationnel. L’utilisation d’un outil décisionnel tel que les tableaux de bords devient cruciale pour l’entreprise afin de mieux atteindre ses objectifs stratégiques. Cela lui permettra de mieux cibler sa clientèle et viser le secteur d’activité où il existe plus de potentiel. Cette recherche se concentre ainsi sur le développement des tableaux de bords les mieux adaptés aux fonctions de l’entreprise, afin d’apporter une meilleure prise de décision et une optimisation de service à long terme. Dans ce contexte, trois catégories de tableaux de bord sont soulevés : marketing, stratégie de l’entreprise et clientèle. Le développement des tableaux de bords est fait sur Excel, leur fournissant des graphes et des figures qui démontrent leurs activités concernant les trois catégories. L'identification des principaux indicateurs et de mesures a été effectuée suivant une approche spécifique dans ce contexte.

Les grands modèles de langage (LLM) offrent des bénéfices dans le développement de logiciels. Néanmoinsil reste à explorer le potentiel des modèles en tant qu'assistant dans les contextes de collaboration. Les résultats de cette étude exploratoire pourraient être cruciaux pour les développeurs qui envisagent d'adopter des outils d'intelligence artificielle (IA) générative lors des demandes de tirage (pull request). Néanmoins, il est impératif de se poser les questions suivantes : les LLMs accélèrent-ils les révisions du code, où sont-ils le plus souvent utilisés comme assistance, quelles sont les motivations à les utiliser lors de chaque stade de la revue du code? Un modèle linéaire à effets mixtes a été développé pour évaluer la pertinence statistique de l'effet de l'utilisation de LLMs sur le délai pour résoudre les revues de code. Selon les résultats du modèle, l'utilisation des LLMs pourrait réduire le temps nécessaire pour la revue du code. Une méthode quantitative basée sur des statistiques descriptives non paramétriques a également été choisie pour étudier l'utilisation des LLMs lors des différentes étapes de la revue de code. Une adoption anticipée peut diminuer le temps total du processus, ce qui augmente l'efficacité de la pratique, par ailleurs, lors de la soumission de la revue du code. Nos analyses préliminaires sur les événements où les LLMs ont été utilisés, montrent que le LLM peut fournir des explications sur un problème spécifique afin d'aider le développeur à le comprendre.

Face à l'émergence des données massives dans nos systèmes d'analyse (Big data, Open data), les thick data se proposent d'ajouter des éléments de contexte, facilitant ainsi l'interprétation de l'information. À la croisée entre l'analyse des données massives (données qualitatives) et la représentation des données contextuelles (données quantitatives), ma proposition de communication tend à présenter des exemples de projets de système d'information ayant adopté l'approche mixte. J'exposerai également un cas d'étude et une enquête réalisée auprès d'organismes privés qui permettra de saisir le besoin sociétal vis-à-vis du sujet. Ce travail transdisciplinaire s'inscrit dans les champs d'étude suivants : sciences cognitives, science des données, design, économie, sociologie, psychologie, information et communication.

Références : D. Norman, M. Di Penta, M.-A. Storey, A. Moles

En résumé, l’électronique imprimable (EI) est une technologie de pointe qui permet la fabrication de dispositifs électroniques personnalisés à moindre coût. Aujourd’hui, la qualité de ces dispositifs est évaluée manuellement. Cette limitation ralentit sévèrement le procédé de fabrication industrielle et par le fait même, en diminue sa valeur ajoutée. Par conséquent, le développement d’une technique de caractérisation en ligne, idéalement sans contact, est essentiel pour contrôler la qualité des motifs imprimés. Dans le cadre de cette recherche, nous évaluons une nouvelle méthode de caractérisation de la variabilité de la conductivité de l’encre imprimée avec l’utilisation d’ondes de fréquence térahertz (THz). La spectroscopie THz est une technique de mesure sans contact, non-destructive, et de haute résolution spatiale capable de mesurer les propriétés conductrices des matériaux. Pour obtenir une sensibilité accrue aux fréquences THz, des résonateurs (métamatériaux) sont fabriqués avec les mêmes paramètres d’impression qu’une structure imprimée (Figure 1a). Les résultats de nos travaux démontrent que l’utilisation d’ondes THz est plus sensible aux variations de conductivités vis-à-vis des méthodes classiques, telles que les mesures à quatre pointes ou par multimètre standard (Figure 1b). Finalement, nos résultats ouvrent la porte à une stratégie simple pour l’évaluation non destructive, sans contact et in situ de la production des dispositifs de l’EI.

 

La culture individuelle est un concept clé pour le management des TI.Il serait donc déterminant de mettre à la disponibilité des organisations une approche holistique qui permet d'appréhender ce concept en englobant toutes ses caractéristiques. L’objectif de notre communication est de mettre en lumière notre contribution à ce niveau. Nous avons procédé à une étude de la  littérature pour déceler les différents modèles approchant la culture individuelle dans le management des TI. Nous avons par la suite porté un oeil critique sur ces approches pour proposer  un autre modèle qui comble les insuffisances décelées.  

L’approche d’Hostede (1980) appréhende la culture individuelle exclusivement par la culture nationale et considère que la culture est stable.  Karahanna, Evaristo et Srite (2005) conceptualisent la culture individuelle sous forme d’oignon composé de plusieurs niveaux culturels et  ne considèrent pas l’aspect évolutif de la culture individuelle. Walsh et Kefi  (2008) présentent la culture individuelle sous  forme de Toupie qui implique que la culture est un phénomène stratifié composé seulement de valeurs. 

Nous constatons que chaque modèle a des limites. Cependant, notre conceptualisation considère que la culture est une masse homogène qui évoluent en permanence, elle peut être assimilée à une de galaxie, composée par des particules et qui évolue dans l'univers. L'étude du mouvement des galaxies permet de mieux appréhender le comportement de l'individu face aux TI. 

Le boom de la téléphonie mobile en Afrique a facilité le développement de plusieurs domaines. Le secteur financier a bénéficié le plus des applications du mobile pour résoudre le problème de non bancarisation. On parle ici du m-banking dont les utilisateurs adoptent les téléphones mobiles pour effectuer des opérations telles que paiements de facture, transferts d’argent, consultations du solde, etc.

Notre problématique part du fait que le m-banking implique du risque et une incertitude au sein des utilisateurs. Il est important aux fournisseurs du m-banking de bâtir la confiance au sein des utilisateurs avec comme objectif de développer les trois dimensions de confiance: la compétence, l’intégrité et la bienveillance en lien avec l’usage du m-banking. D’où notre question de recherche : « Comment développe-t-on la confiance pour le m-banking dans le contexte africain ? ». Une méthodologie qualitative a été choisie pour cette recherche due à sa nature exploratoire. Spécifiquement, des entrevues seront réalisées au sein des utilisateurs du m-banking au Burundi. Bien que nos conclusions reflèteront les défis du m-banking en Afrique, nous croyons que plusieurs de nos observations et conclusions auront des implications importantes et directes aux secteurs bancaires dans d'autres pays en développement sur d’autres continents aux prises avec des contraintes sociales et technologiques semblables (grande population vivant en zones rurales, illettrisme, manque d’infrastructure, etc.)

L’approche-client se compose d’un ensemble d’activités qui s’exécutent tout le long de la chaîne de valeur de l’organisation. La complexité qui entoure cette approche est illustrée par les nombreuses orientations, produit ou client, et ses différentes pratiques : « Customer Relationship Management (CRM)», « Customer Value Management (CVM)», etc. Celles-ci sont complémentaires et s’entrecroisent quand vient le temps de gérer la clientèle. Depuis plusieurs années, les technologies/systèmes d’informations (TI/SI) y jouent un rôle primordial. Mais investir dans la mise en place de systèmes informatisés, tel que le CRM, ne garantit pas le succès de la gestion de la clientèle. Dans le cadre de cette recherche, nous effectuons une étude exploratoire et comparative de l’utilisation des technologies dans le cadre des différentes pratiques de l’approche client dans le secteur bancaire. Le but est d’appuyer les gestionnaires de la fonction TI dans leur prise de décision quand vient le temps d’arrimer les TI et les SI à l’approche client de l’organisation. À l’aide d’entrevues, au sein d’une grande institution financière canadienne, nous faisons ressortir les bénéfices que les TI/SI apportent tout en identifiant les défis à relever lors de leurs implantations (tels que les changements organisationnels nécessaires afin d’en tirer profit). Dans le cadre de notre présentation à l’ACFAS, nous présenterons et élaborerons sur des résultats préliminaires de notre étude présentement en cours.

Au fil des années, des stratégies en intelligence d’affaires ont permis aux entreprises d’emmagasiner leurs données dans des entrepôts de données, transformer ces données en information et les rendre disponibles pour fins de consommation via les comptoirs de données. L’usine du savoir servira d’infrastructure de la gestion des connaissances de l’entreprise en emmagasinant, transformant, canalisant et produisant des connaissances en temps opportun d’une manière transversale favorisant la réutilisation du savoir de l'entreprise.

L’intégration des données, informations et des connaissances de l’entreprise demeure un secteur très actif de la recherche scientifique. Les entreprises éprouvent d’importants problèmes à implémenter des méthodes et l’infrastructure requise afin de pouvoir permettre les échanges entre les systèmes de l’entreprise. Le protocole de recherche qualitatif de ce projet comprend un ensemble d’entrevues de semi-structurées en vue d’induire des patrons de solutions sémantiques provenant des connaissances et du savoir-faire de praticiens chevronnés intervenant dans l’industrie et, de chercheurs du milieu universitaire. Ce projet permet d’allier les forces particulières, à la fois, des milieux académiques et de l’industrie. Les résultats de la recherche qui seront présentés comporteront le modèle de référence, les fonctions du modèle ainsi que des cas d’usage qui aideront l’auditoire à comprendre le fonctionnement du modèle ainsi que son utilité.  

De plus en plus d’êtres humains sont connectés entre eux depuis la démocratisation d’Internet et l’avènement des médias sociaux, entraînant l’augmentation du stockage des données personnelles des usagers. Ces données ont pour caractéristiques d’être massives, générées en temps réel, et sont non structurées (messages publiés sur Twitter, recherches effectuées à travers Google, applications mobiles...). L’objectif de notre recherche est de proposer une méthodologie robuste issue de l’industrie financière afin d’extraire l’information pertinente de ces données, l’industrie financière étant une industrie adaptée au traitement massif de données en temps réel.

La méthodologie employée se fonde sur les travaux initiés par Sharpe (1964) avec l’utilisation du Modèle d’évaluation des actifs financiers (MÉDAF). Ces modèles permettent de quantifier un actif en fonction de sa croissance et de sa volatilité.

En termes de résultats, l’utilisation de ce cadre d’analyse permet de quantifier l’évolution du niveau de risque perçu par la population québécoise à partir des données mises en ligne sur Twitter. 9 catégories de risques peuvent être ainsi évaluées en temps réel.

L’originalité de la recherche réside dans le fait que nous n’utilisons pas les données massives non structurées afin d’ajouter de l’information aux analyses financières ; au contraire, nous utilisons des modèles financiers afin de structurer les données massives pour en extraire l’information pertinente.

Dans un environnement où les fuites de données représentent une menace majeure pour les organisations, cette recherche se concentre sur la problématique de l’équilibre entre l’automatisation de la protection des données sensibles et la supervision humaine dans les processus critiques. Le projet propose un système de prévention des pertes de données (DLP) assisté par intelligence artificielle (IA), intégrant les modèles GPT-4-Turbo et XGBoost pour automatiser la classification des données sensibles. La contribution principale de cette recherche réside dans la démonstration de l'efficacité d'un modèle hybride, combinant IA et intervention humaine, pour améliorer la détection des fuites tout en minimisant les erreurs de classification. La méthodologie comprend l’analyse de courriels réels à partir d'une base de données publique, avec une phase de prétraitement des données (nettoyage, tokenization, TF-IDF) suivie de l'entraînement des modèles. Les performances ont été évaluées par des mesures standard telles que la matrice de confusion, la précision et le rappel. Les résultats préliminaires montrent que les performances de XGBoost et de GPT-4-Turbo sont comparables à celles de la classification humaine. En combinant ces trois approches, nous obtenons un système DLP solide. Cette étude valide ainsi l’intérêt d’un système DLP hybride dans des environnements organisationnels complexes.

Les modèles de graphème en phonème sont des composants clés dans les systèmes de reconnaissance automatique de la parole et de synthèse vocale. Avec des paires de langues peu dotées (ou peu de ressources linguistiques, d'outils informatiques) qui ne possèdent pas de dictionnaires de prononciation bien développés, les modèles de graphème en phonème sont particulièrement utiles. En principe, ces modèles sont basés sur des alignements entre les séquences sources de graphèmes et les séquences cibles de phonèmes. Dans le cadre de notre travail de recherche, nous présentons une nouvelle méthode appliquant la représentation d'alignement au niveau de caractères pour les séquences d'entrée ainsi que les plongements (embeddings) pré-entraînés de source et de cible pour surmonter le problème de la tâche de translittération pour une paire de langues peu dotée. Les expérimentations ont été réalisées sur la paire de langues peu dotée franco-vietnamienne. Avec seulement un petit dictionnaire de prononciation bilingue disponible pour l'apprentissage des modèles de translittération, nous avons obtenu des résultats prometteurs avec un grand gain de score BLEU ainsi qu'une réduction du taux d'erreur de traduction (TER) et du taux d'erreurs de phonèmes (PER), comparés à d'autres systèmes utilisant l'approche statistique.

Jean-Pierre Booto Ekionea, Ph.D. 

Patrick Nsenga, Étudiant M.B.A. 

La performance d’affaires et la stratégie d’affaires constituent le point culminant pour la rationalisation d’une entreprise de financement industriel. Pour atteindre ce point culminant, l’alignement d’un progiciel intégré de gestion a un impact considérable dans le couplage de la performance et de la stratégie d’affaires. Car une entreprise de financement industriel a besoin d’intégrer ses opérations et de développer les capacités de différenciation de ses professionnels afin de répondre efficacement aux multiples exigences d’affaires.

Il est question ici d’étudier l’impact possible qu’un alignement d’un logiciel intégré et les stratégies d’affaires peut avoir sur la performance organisationnelle en termes d’intégration et de différenciation (Lawrence et Lorsh, 1967). Ainsi, le sujet aborde sous forme qualitative la rentabilisation d’une entreprise de financement industriel par l’alignement d’un progiciel intégré aux stratégies d’affaires.

En effet, l’apport des technologies de l’information à la performance d’affaires en termes d’intégration et de différenciation est un sujet qui préoccupe les chercheurs, les professionnels et les gestionnaires au sein des organisations afin d’augmenter l'efficacité commerciale, réduire le cycle temps, diminuer les coûts de production et améliorer le service client (Aremu et al, 2018).

Mots clef : Performance d’affaires, stratégies d’affaires, progiciel intégré.

Le miroir de courant à transistors GaAs BiFET (HBT, MESFET en technologie Arséniure de Gallium) est très performant pour la polarisation des amplificateurs MMIC (puce unique) fonctionnant à basses tensions [1]. Toutefois, en raison d’une grande variation de la tension de seuil des MESFET, il est  préférable d’utiliser un miroir de courant à régulateur purement bipolaire (GaAs HBT) dans certaines applications [2]. Or, le miroir de courant HBT conventionnel cause une variation excessive du courant de polarisation avec une tension de référence VREF variant de 2,6V à 3,2V. Ceci est du à la tension VBE élevée d’un transistor GaAs HBT (1,3V).

Ce travail de recherche se concentre donc sur le miroir de courant GaAs HBT pour la polarisation des amplificateurs MMIC à basse tension. Dans cette communication nous proposons une nouvelle structure de miroir de courant GaAs HBT qui permet d’améliorer les performances DC et RF. Les résultats de simulation démontrent que cette nouvelle structure réduit les variations du courant de polarisation du transistor RF sur la plage 2.6V-3.2V de VREF et affecte positivement l’efficacité énergétique. De plus, cela permet une meilleure régulation du gain RF (0,75dB de variation) avec VREF aussi bas que 2,6V et une puissance du signal RF d’entrée variant de -10 dBm à 10 dBm. Ceci est une nette amélioration comparativement à 3,75dB avec la structure conventionnelle.

[1] A. G. Metzger et al., IEEE - JSSC, Oct. 2007.

[2] Brevet:  USPTO 7719354, 18 Mai 2010.

La conception d'un oscillateur microonde est basée sur le principe de génération d'une résistance négative afin de compenser les pertes du résonateur. Une conception efficace nécessite l'examen de plusieurs questions, telles que la puissance de consommation, condition de démarrage, fréquence de fonctionnement, gamme de fréquences, caractéristiques de bruit, etc. Dans ce travail, nous allons évaluer les conditions d'oscillation d’un oscillateur 10 GHz. Nous proposons une méthodologie permettant de concevoir un oscillateur Bande-X à faible bruit de phase et répondant aux contraintes suivantes :

- Courant d’alimentation (DC): <100 mA

- Tension d'alimentation (DC): <15 Volts

- Sera utilisé dans des applications du radar (Bande X).

- Puissance consommée : <500 mW

- Harmoniques: <10 dBc

- Fréquence de fonctionnement: (~ 10 GHz), avec une précision en fréquence ± 1%

- Puissance de sortie:> 0 dBm dans une impédance de charge de 50 ohms

- Transistors polarisés directement,

- Résonateurs à facteur Q élevé,

- Taille du PCB plane: <1 pouce carré (package) = 6,45 cm²

Les systèmes de détection d’intrusion (IDS), dans les réseaux véhiculaires sans fil (VANETs), sont chargés d’analyser les trafics de paquets entrants et sortants afin d’identifier des signatures malicieuses. Cependant, sans prise de décision, ils ne sont d’aucune utilité.

Le but de notre travail est de concevoir un protocole de routage d’informations de sécurité pour les VANETs. Notre étude se base sur deux approches d’IDS. Dans la première, les IDS sont installés sur les véhicules, alors que dans la seconde, ils sont installés sur les infrastructures routières (RSU). Dans les deux approches, les véhicules sont regroupés en fonction de leurs vitesses. Si un véhicule souhaite communiquer, il doit faire partie d’un cluster et doit connaître la tête du cluster. Dans le cas contraire, l’algorithme de clusterisation s’initialise et l’élection de la tête du cluster s’amorce. Ce dernier a la charge de transmettre les paquets à l’interne du cluster, vers les clusters voisins et vers le RSU. Quand un IDS détecte une attaque, l’information et le type d’attaque utilisé seront diffusés aux clusters voisins. Quand l'un de ces derniers reçoit l’information, il met en place une politique de sécurité (exemple: ajustement des valeurs de confiance des nouveaux véhicules dans le cluster). Le protocole s’amorce si l’attaque détectée est corroborée. La corroboration s'appuie sur un modèle probabiliste de calcul de ratio entre les véhicules ayant répondu à la signature de l'attaque.



Plus de 500 millions de messages sont publiés quotidiennement sur Twitter. Les entreprises et les consommateurs interagissent et sont connectés entre eux comme l’illustrent autant le marketing viral que les comportements moutonniers. Notre hypothèse est que les conversations sur les réseaux sociaux peuvent ajouter de l’information à l’information financière déjà disponible.

La recherche s’appuie sur des bases de données répertoriant l’évolution de la popularité sur Twitter de l’ensemble des compagnies du S&P500. De plus, tous les messages publiés avant l’ouverture des marchés ont été conservés afin d’en extraire les informations dans une seconde base de données. La méthodologie employée s’appuit sur des modèles économétriques (probit).

En termes de résultats, l’utilisation de données massives non structurées apporte un complément d’information pour obtenir une meilleure mesure du risque des actifs financiers. De plus, l’extraction, le filtrage et l’analyse des messages publiés sur Twitter avant l’ouverture des marchés offre un levier décisionnel supplémentaire aux investisseurs.

L’originalité de la recherche réside dans l’étendue des bases de données, étant la seule recherche à notre connaissance couvrant l’ensemble des compagnies du S&P500 et leur présence sur Twitter. De plus, l’application des modèles économétriques permet de traiter de manière robuste ces données massives générées en temps réel.

Les antennes réseau-réflecteur reconfigurables (reconfigurable reflectarray antenna) permettent le modelage de faisceaux d’ondes électromagnétiques, une technique nécessaire pour les réseaux 5G actuels et pour les futurs réseaux 6G. Le modelage se fait par déphasage du signal radiofréquence émis grâce à des composants tels que des diodes à capacité variable (varicap), qui sont contrôlées individuellement par des tensions de polarisation variables. Ces diodes varicap sont présentes dans chacune des petites cellules d’antenne faisant partie d’une matrice planaire, constituant ainsi le réseau-réflecteur. 

La capacité des diodes varicap varie non linéairement avec la tension de contrôle et celles-ci exhibent des comportements non linéaires lorsque la puissance du signal radiofréquence est élevée. Ces non-linéarités introduisent de la distorsion dans le signal émis, mais cela peut être réduit par un processus de prédistorsion qui dépend de la puissance du signal émis. Le but de ce travail consiste donc à développer un détecteur de puissance intégré en technologie CMOS pour mesurer la puissance émise par chaque cellule de l’antenne.

Cette recherche se penche sur une technique existante, mais vise à l’améliorer pour exploiter une technologie CMOS-65nm afin d’augmenter la fréquence d’opération et accroître la bande passante.

Ce travail contribue aussi à l’étude de la distorsion dans un détecteur de puissance pour antennes reconfigurables, un aspect peu étudié dans la littérature.

L'imagerie par résonance magnétique (IRM) est vulnérable à différents artefacts qui affectent la qualité des images, impactant les diagnostics et l'efficacité des logiciels d'analyse. L'artefact de mouvement, inévitable, varie en magnitude et en aspect selon les cas. L'inspection manuelle des volumes, surtout dans des études de grande envergure, est dispendieuse et chronophage. Il devient donc essentiel de détecter automatiquement les volumes problématiques. Cependant, les critères de qualité varient d'une étude à l'autre, rendant difficile l'entraînement, sur la base de ces données, d'un modèle généralisable. De plus, les protocoles d'acquisition cherchant à minimiser la présence d'artefacts, les données disponibles présentent un déséquilibre des classes, limitant la robustesse des modèles.

Nous proposons une méthode pour quantifier les artefacts de mouvement pour les IRMs anatomiques cérébrales T1. Nous avons recours à des techniques de préentraînement sur des artefacts synthétiques et évaluons plusieurs méthodes de quantification, démontrant que ces modèles détectent efficacement le mouvement dans des volumes réels. Après transfert d'apprentissage, les modèles préentraînés sur données synthétiques rivalisent avec ceux entraînés sur des données réelles. En conclusion, les résultats démontrent que l'entraînement sur données synthétiques peut être efficace en pratique et permet aux laboratoires de former leurs modèles avec des ressources limitées.

La mesure objective de la douleur d’une personne atteinte de la fibromyalgie (FM) représente un défi puisque la symptomatologie chez ces personnes est caractérisée par de douleurs diffuses, persistantes, amoindrissant leurs capacités fonctionnelles. Jusqu’à ce jour, des études en imagerie cérébrale fonctionnelle utilisant l’électroencéphalogramme (EEG) se sont essentiellement concentrées sur l’analyse spectrale, fondée sur l’hypothèse de stationnarité des signaux. Cependant, l’EEG est un signal non-périodique, non-stationnaire où l’information de la douleur peut contenir des paramètres pertinents changeant dans le temps. Par conséquent, nous proposons l’application d’un algorithme permettant de déterminer un indice pouvant être lié à la douleur et à la performance à la tâche à l’aide des polynômes de Tchebychev. Ainsi, nous émettons l’hypothèse que la douleur musculosquelettique et la performance à la tâche seraient en lien avec l’énergie provenant de l’EEG. Cet algorithme, capable de détecter les paramètres des processus non-stationnaires, calcule un indice permettant d’inférer sur la douleur musculosquelettique pendant la tâche. L’efficacité de notre approche a été évaluée sur quatre participants atteints de la FM et quatre participants sains. Les résultats préliminaires montrent que les pointes d’énergie apparaissant dans le temps pourraient être corrélées avec un indice d’une douleur généralisée et de performance à la tâche bimanuelle chez les personnes atteintes de la FM

La sécurité routière représente un processus continu qui consiste à identifier des zones à risque et d'apporter des solutions viables. Une diversité de méthodes de prédiction paramètres du trafic sont utilisées lors des évaluations des risques.    Le fait qu'il n'existe pas de processus pour faire un choix sur des méthodes de prédiction peut avoir des conséquences problématiques au niveau des solutions implantées pour améliorer la sécurité des zones identifiées.  Notre objectif est de choisir des méthodes de prédiction des paramètres du trafic de manière à éviter d'implanter des solutions qui ne conviennent pas réellement aux zones à risque identifiées.  Notre approche de résolution est basée sur la définition et le développement d'un environnement d'expérimentation et la définition d'études de cas réalistes permettant d'étudier les conséquences des précisions de diverses méthodes de prédiction.   Le simulateur de trafic urbain SUMO est utilisé pour générer un trafic au niveau de plusieurs zones de la Ville de Gatineau. L'installation de capteurs nous a permis de faire du comptage concernant ces zones.   Des études empiriques sont en cours pour tester les méthodes de prédictions couramment utilisées pour la prédiction de densité de trafic. Différentes valeurs de limitations de vitesses sont considérées. Les résultats attendus permettront de définir une méthodologie pour optimiser le choix d'une méthode de prédiction selon les caractéristiques du trafic routier.

La conception d’un régulateur de tension CMOS pour amplificateurs de type RFIC GaAs HBT comporte des défis. Avec une faible consommation de courant et à bas voltage, il doit être capable de fournir un courant de 20 mA, tout en restant insensible aux perturbations RF. La structure "Recycled Folded-cascode" (RFC) permet un fonctionnement à basse tension avec de bonnes performances, mais ne répond pas entièrement à cette problématique.

Cette communication propose une version améliorée de la structure RFC qui, grâce aux  modifications illustrées à la figure jointe, constitue une solution adaptée à cette problématique.  La méthodologie employée est présentée à travers des résultats de simulations avec un signal d’excitation RF à 1.88 GHz et de puissance 20 dBm, ainsi qu’une charge émulant le comportement d'un transistor GaAs HBT. L’effet perturbateur du à l’infiltration du signal RF dans les circuits de polarisation à travers l’inductance d’isolation a été étudié.

Alimentée à 1.8 V, la structure RFC améliorée consomme un courant de polarisation ramené de 800 µA à 135 µA. Employée dans une configuration de rétroaction, elle assure la régulation de tension à 1.4 V, pour un courant de charge allant jusqu’à 20 mA. La technique de désensibilisation appliquée contre les perturbations RF permet de réduire la chute de tension de sortie par 80 mV, pour rétablir une régulation à 97%. Elle permet d’utiliser une inductance d’isolation aussi faible que 8 nH, favorisant l’intégration sur puce.

L'algorithme de Viterbi est habituellement utilisé dans les systèmes de reconnaissance de la parole pour la recherche du meilleur chemin dans le graphe de reconnaissance.  L'espace de recherche étant immense, l'arbre de recherche doit être élagué afin de garder seulement les hypothèses les plus prometteuses.  Cependant, cette approche a pour effet de déstructurer les accès mémoire, ce qui conduit à une mauvaise utilisation de l'architecture de la mémoire sur les processeurs multi-coeurs et graphiques (GPUs).


Nous allons décrire comment nous avons utilisé l'algorithme de recherche A* afin de diminuer considérablement le temps de recherche dans le graphe grâce à l'utilisation d'un graphe de reconnaissance simplifié comme heuristique.  Ce graphe, beaucoup plus petit, permet une recherche exhaustive qui utilise plus efficacement les architectures mémoire des processeurs Intel et GPUs. La recherche elle même (7% du temps de calcul total) ne pouvant pas être parallélisée efficacement, est demeurée séquentielle. Le calcul de l'heuristique, sur un processeur 4 coeurs est 4.1 fois plus rapide que la version séquentielle sur un seul coeur tandis que sur un GPU, le facteur d'accélération est de 12x. Nos expériences, sur une application temps réel, montre que notre système parallèle (les probabilités acoustiques sur GPU) nous permet d'augmenter la précision de 4% absolu par rapport au système basé sur l'algorithme de Viterbi séquentiel. 

L’énergie éolienne représente aujourd’hui une source d’énergie verte qui joue un rôle important dans le domaine de l’énergie électrique. Les éoliennes  situées dans des zones de climat froid sont affectées par le phénomène de givrage. L’accrétion de glace sur les pales, et l’infiltration du froid dans la structure sont à l’origine de pannes et d’usures prématurées. Un fonctionnement avec une forte accumulation de glace peut endommager l’éolienne et représenter un danger pour la sécurité à cause des jets de glace. Ces effets peuvent diminuer considérablement la production, et être responsable de l’arrêt complet de l’éolienne, élevant les dommages à plusieurs millions de dollars.

La détection et la mesure de la glace est devenu un souci majeur pour les fabricants et les exploitants. Les systèmes actuels ne sont pas capables de fonctionner de manière fiable dans des conditions extrêmes. Dans ce travail, deux approches basées sur la vision artificielle ont été développées et expérimentées sur des images d’éoliennes. La première utilise la forme du mât comme référence. La quantité de glace accumulée est la différence entre la largeur du mât sans glace et la largeur avec glace. La deuxième méthode mesure le profil givré sur la pale de l’éolienne. Dans les deux cas, l’image doit être rectifiée pour annuler la perspective et effectuer la mesure. Les résultats obtenus se comparent avantageusement aux mesures manuelles et démontrent le potentiel des solutions proposés.

La surveillance vidéo dans les zones isolées est difficile en raison des contraintes de connectivité, telles que l'absence d'infrastructure de communication terrestre et une bande passante très faible. Ce projet propose une solution en utilisant les communications par satellite pour transmettre des données de surveillance sous forme de représentations abstraites issues d'un système de compression de vidéo sémantique. Ce système, basé sur des modèles d'apprentissage profond, génère plusieurs types de représentations (coordonnées des objets, classes, ID de suivi, programmes de correction (patches) d'objets) optimisées pour les systèmes embarqués. Ces représentations, conçues pour réduire la quantité de données tout en conservant les informations essentielles, sont adaptées à des environnements à ressources limitées et transmises efficacement via les satellites.

Nous déployons ce système sur des systèmes embarqués en réduisant leur complexité grâce à des techniques de compression et de conversion de modèles. Nous optimisons les paramètres de compression pour réduire le temps de latence de transmission de l’information tout en développant un schéma de communication adapté aux contraintes des satellites en orbite basse, avec un ordonnancement efficace pour la transmission, soit à partir d'une caméra unique priorisant les représentations, soit de plusieurs caméras coopérant pour déterminer quelles données transmettre selon la bande passante et l'importance des informations.

Les soins à domicile (SAD) améliorent les conditions de vie des patients grâce à des soins médicaux, paramédicaux et services sociaux à domicile. Leur planification est étudiée en recherche opérationnelle afin d’optimiser les conditions de travail des soignants et, par conséquent, la qualité des soins offerts. Plusieurs contraintes doivent être considérées telles que la charge de travail, la qualification des soignants ou le routage. La recherche est principalement axée sur deux aspects : la représentation du problème et la proposition d’une méthode de résolution adaptée. Toutefois, les données utilisées dans la littérature sont généralement spécifiques aux problématiques étudiées en plus d’être confidentielles. Dans cette communication, nous présentons la réalisation d’un objectif clé à notre recherche : l’élaboration d’un jeu de données. Ce dernier est indispensable à la validation de notre modèle et à la conception d’une méthode de résolution. Il comporte plusieurs combinaisons de contraintes spécifiques aux SAD qui, jusqu’à présent, ont été traitées séparément dans la littérature. Le jeu de données proposé se base sur des connaissances métiers propres à la région du Saguenay mais aussi sur des probabilités issues de communications scientifiques médicales. En plus des contraintes générales, il offre la possibilité de considérer la continuité dans les soins ou l’interdépendance des soins. Sa complexité peut aussi varier selon le nombre de soignants et leurs qualifications.