Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

Résumé: Ordinateur quantique, cryptographie quantique et mémoire magnétique, toutes ces avancées technologiques découlent de la physique quantique et de la notion de spin. Mais qu’est-ce qu’un spin? Le spin est une propriété fondamentale des particules élémentaires. Les particules élémentaires sont des particules qui forment la matière autour de nous, par exemple l’électron. Celui-ci orbite autour d’un noyau d’atomes et son spin lui permet de se comporter tel un petit aimant qui suit le champ magnétique produit par l’atome. Le spin de l’électron est fixe et peut avoir une valeur de +1/2 ou -1/2. L’existence de deux états permet à l’électron de se superposer et de produire des états inaccessibles classiquement.

La scoliose idiopathique adolescente (SIA) est une déformation de la colonne vertébrale qui affecte 1% de la population. Les patients atteints de SIA sont suivis périodiquement en clinique d’orthopédie du CHU Sainte-Justine. Une base de données a été conçue pour informatiser les données recueillies. Or, la consultation de la base de données s’effectue sur un poste de travail, peu adapté à une utilisation clinique. L'utilisation d'une application mobile faciliterait le travail des cliniciens en rendant plus convivial l'accès à la base de données. L’objectif de ce projet de recherche est de présenter l’analyse, la conception et l’implémentation d’un système permettant aux orthopédistes de consulter un dossier médical sur la plateforme iOS d’Apple (Cupertino, É.U.). Le processus de développement logiciel Rational Universal Process a été utilisé pour modéliser le système. L’analyse et l’identification des exigences fonctionnelles et non fonctionnelles ont permis de bien identifier les besoins cliniques. Les comportements statiques et dynamiques du système furent modélisés avec le langage UML. La phase de développement a permis de réaliser une application iPad en utilisant le langage Objective-C. La recherche d’un dossier est réalisée selon des critères médicaux ou nominaux sur les patients, incluant une visualisation interactive des radiographies. Le prototype a été validé avec un chirurgien orthopédiste et le déploiement sur iPad est planifié prochainement en clinique.

La détection de copie audio peut être utilisée dans plusieurs applications comme la détection de copie frauduleuse d'oeuvres musicales ou la détection de publicités afin de s'assurer que les publicités d'une entreprise sont diffusées tel que stipulé dans le contrat.  Nous avons développé un système de détection de copie dans le cadre de l'évaluation TRECVID.  Pour cette évaluation, nous avions une base de données de 385 heures audio qui était notre référence.  La tâche consistait à retrouver des fichiers audio transformés de 7 façons différentes, dont 3 pour lesquels de la parole avait été ajoutée à l'audio rendant le processus beaucoup plus difficile.  Nous avons développé un algorithme en deux phases.  La première phase permet d'éliminer rapidement les candidats les plus faibles.  La deuxième phase permet de raffiner les résultats et demande le calcul d'une empreinte beaucoup plus lente à calculer mais beaucoup plus précise.  Pour pouvoir l'utilisé en pratique, nous avons implanté ce calcul sur un processeur graphique (GPU).  La version GPU est de 80 à 200 fois plus rapide que sur un CPU avec un seul coeur.  L'accélération dépend des applications et varie selon la taille des audios à évaluer et celle de la base de données. Le taux de détection est supérieur à 99% pour les 4 premières transformations et de 94% pour les 3 plus complexes.

En vidéo-surveillance, la capacité de détecter et de suivre une cible en temps réel représente un objectif important pour garantir la sécurité d’un périmètre dans des zones sensibles. De plus, avoir la possibilité de suivre l’objectif en temps réel et obtenir sa position en 3D peut s’avérer une information d’un intérêt capital pour le personnel de sécurité. Ce travail présente un système de suivi 3D et en temps réel basé sur la stéréovision. Le système de caméras stéréo est positionné sur une plateforme Pan-Tilt pour permettre le suivi en continu de la cible détectée. La technique des filtres à particules est utilisée pour le suivi. Une approche de reconnaissance des formes permet de garder le focus sur la cible d'intérêt. La position 3D de la cible par rapport au référentiel du système stéréo est calculée en utilisant des techniques de reconstruction 3D. Cette position permet de suivre la position de la cible sur une carte en temps réel (une carte Google Maps a été utilisée). Les résultats expérimentais menées dans des scènes externes montrent l'efficacité de l'approche proposée.

La surveillance vidéo dans les zones isolées est difficile en raison des contraintes de connectivité, telles que l'absence d'infrastructure de communication terrestre et une bande passante très faible. Ce projet propose une solution en utilisant les communications par satellite pour transmettre des données de surveillance sous forme de représentations abstraites issues d'un système de compression de vidéo sémantique. Ce système, basé sur des modèles d'apprentissage profond, génère plusieurs types de représentations (coordonnées des objets, classes, ID de suivi, programmes de correction (patches) d'objets) optimisées pour les systèmes embarqués. Ces représentations, conçues pour réduire la quantité de données tout en conservant les informations essentielles, sont adaptées à des environnements à ressources limitées et transmises efficacement via les satellites.

Nous déployons ce système sur des systèmes embarqués en réduisant leur complexité grâce à des techniques de compression et de conversion de modèles. Nous optimisons les paramètres de compression pour réduire le temps de latence de transmission de l’information tout en développant un schéma de communication adapté aux contraintes des satellites en orbite basse, avec un ordonnancement efficace pour la transmission, soit à partir d'une caméra unique priorisant les représentations, soit de plusieurs caméras coopérant pour déterminer quelles données transmettre selon la bande passante et l'importance des informations.

Les soins à domicile (SAD) améliorent les conditions de vie des patients grâce à des soins médicaux, paramédicaux et services sociaux à domicile. Leur planification est étudiée en recherche opérationnelle afin d’optimiser les conditions de travail des soignants et, par conséquent, la qualité des soins offerts. Plusieurs contraintes doivent être considérées telles que la charge de travail, la qualification des soignants ou le routage. La recherche est principalement axée sur deux aspects : la représentation du problème et la proposition d’une méthode de résolution adaptée. Toutefois, les données utilisées dans la littérature sont généralement spécifiques aux problématiques étudiées en plus d’être confidentielles. Dans cette communication, nous présentons la réalisation d’un objectif clé à notre recherche : l’élaboration d’un jeu de données. Ce dernier est indispensable à la validation de notre modèle et à la conception d’une méthode de résolution. Il comporte plusieurs combinaisons de contraintes spécifiques aux SAD qui, jusqu’à présent, ont été traitées séparément dans la littérature. Le jeu de données proposé se base sur des connaissances métiers propres à la région du Saguenay mais aussi sur des probabilités issues de communications scientifiques médicales. En plus des contraintes générales, il offre la possibilité de considérer la continuité dans les soins ou l’interdépendance des soins. Sa complexité peut aussi varier selon le nombre de soignants et leurs qualifications.

Le modèle de mélange gaussien est un modèle probabiliste très utilisé dans de nombreux domaines, notamment la segmentation d'images, la reconnaissance de formes, l'apprentissage automatique, etc. Les mélanges de gaussiens (MdG), en tant que somme pondérée de plusieurs fonctions gaussiennes, sont utiles en raison du fait que le nombre de paramètres utilisés est très faible et en raison de leur flexibilité pour modéliser des distributions dont les formes paramétriques sont inconnues.

Malheureusement, plus le nombre de composants dans le mélange est élevé, plus la probabilité des données est élevée, mais également plus la charge de calcul et le sur-ajustement des données sont élevés. Ainsi, il y a eu un intérêt grandissant pour les algorithmes de réduction de MdG qui se basent sur la fusion de gaussiennes tout en préservant la structure du mélange initial. Pour fusionner deux MdG, on mesure la différence entre les deux à l'aide de divers types de divergences disponibles ou de mesures de distance. Cependant, toutes les divergences ne sont pas également utiles pour le MdG car la plupart des divergences connues, y compris la divergence de Kullback-Leibler, ne donnent pas une expression analytique en forme fermée pour un MdG. La plupart des travaux existants se basent sur une approximation de la divergence Kullback-Leibler. Dans ce travail, nous présentons un algorithme de réduction de MdG basé sur la divergence de Cauchy-Schwarz pour la segmentation d’images de mélanome.

Nous présentons un nouveau paradigme lié à l'acquisition, la représentation, l'organisation et l'utilisation des informations partagées entre les partenaires d’un centre de prévention en santé.  Il s’agit de construire un cadre efficace pour optimiser ce partage en utilisant les ontologies. L’approche proposée décrit les aspects statiques de l'information, c'est à dire les objets informationnels, leurs attributs et leurs relations. Les aspects dynamiques quant à eux, englobent le choix des médias de diffusion et de méthodes de sauvegardes qui assurent la circulation de l'information optimale entre les structures organisationnelles. La démarche expérimentale adoptée consiste en deux étapes. La première étape construit un corpus textuel en utilisant les documents, l’observation et les entrevues avec les gestionnaires du centre de prévention. Les textes recueillis seront segmentés en  unités sématiquement homogènes.  La seconde étape construit  l’ontologie sous un format générique utilisant un langage de balisage. Des règles permettant de paramétrer l’édition de rapports sont ensuite établies. L’application développée est évaluée dans un contexte d’utilisation réelle. Le nouveau format de représentation des documents est validé de façon à démontrer la pérennité et la généricité qui permettent, comme le montrent les résultats obtenus, l’exploitation efficace de ces documents et leur réutilisation dans des chaînes de traitement numérique, indépendamment des médias et supports.

Les informations diffusées dans les réseaux véhiculaires sans fil (VANETs) peuvent être vulnérables aux attaques en absence de mesures de sécurité adéquates. Pour remédier à ce problème, nous proposons un protocole de sécurité qui permet aux véhicules de changer leurs pseudonymes de communication dans un même intervalle de temps. Ce protocole gère d’une part l’authentification, la confidentialité et d’autre part l’anonymat des différents véhicules qui communiquent à travers le réseau afin d’éviter la traçabilité de ces derniers.

Le modèle proposé repose sur l’utilisation des plages de vitesses autorisées sur les routes, la distribution équidistante des autorités centrales (CA) ainsi que la cryptographie asymétrique basée sur les courbes elliptiques. Les résultats de notre travail serviront dans un premier temps à analyser l’impact du changement des pseudonymes de communication sur le réseau en termes de temps et de mémoire, puis à estimer la durée exacte des pseudonymes de communication en vue de leur exploitation maximale. Enfin, nous en déduirons la distribution optimale des CA sur la route afin d’avoir une meilleure communication véhicule – infrastructure.

Les robots manipulateurs industriels sont très présents dans différentes applications industrielles où la flexibilité est nécessaire ou lorsque les tâches répétitives sont présentes. Ces systèmes sont conçus pour obtenir une répétabilité optimale et peu d'attention est accordée à l'aspect de la précision.

Au cours des dernières années, nous assistons à un gain d'intérêt dans l'industrie aérospatiale pour l'utilisation de robots industriels dans les applications où une plus grande précision est nécessaire. A cet effet, de nombreuses solutions ont été proposées au cours des dernières années pour le suivi dynamique du robot. Ces systèmes sont très intéressants lorsque l'espace de travail et la cellule du robot sont assez grands pour pouvoir positionner le système de suivi dans son environnement de travail.

Dans ce travail, nous présentons une alternative simple pour augmenter la précision des robots industriels. Cette approche utilise la vision artificielle pour l’étalonnage géométrique du robot. Une caméra montée sur un robot capte des images dans différentes poses du robot et calcule les erreurs de positionnement du robot pour appliquer une compensation à la géométrie de celui-ci. Un nouveau modèle cinématique est alors obtenu par une approche d’optimisation non linéaire. Ce modèle permet  d'augmenter la précision du robot.

Les tests effectués avec un robot industriel permettent de constater une amélioration de 30% au niveau de la précision de positionnement du robot.

Les bibliothèques logicielles jouent un rôle critique dans la fonctionnalité, l'efficacité et la maintenabilité des systèmes logiciels. Avec l'adoption croissante des grands modèles de langage (GMLs) par les développeurs pour simplifier leurs processus de code, il devient essentiel d'évaluer l'efficacité de ces modèles dans la recommandation de bibliothèques appropriées. Dans une première étude, nous avons évalué les performances de ChatGPT en tant que « bibliothécaire logiciel » en générant du code Python pour 10 000 questions issues de Stack Overflow. Nos résultats montrent que ChatGPT propose des bibliothèques comportant des licences copyleft restrictives, sans que cela ne soit explicitement communiqué, dans 14,2 % des cas. De plus, 6,5 % des bibliothèques ne fonctionnaient pas correctement dès l'installation, causant potentiellement des confusions pour les développeurs. Dans un second travail, nous avons développé le Software Librarian, un outil destiné à résoudre certaines des lacunes identifiées dans l'étude précédente. Cet outil fournit des informations en temps réel sur les bibliothèques Python recommandées par GitHub Copilot, incluant les détails sur les licences, l'état de dépréciation et la santé des bibliothèques. Le Software Librarian assure donc que les bibliothèques recommandées sont non seulement valides, mais adaptées à une intégration dans les projets, en tenant compte des aspects juridiques et de la maintenabilité à long terme. 

Le cloud computing représente le plus grand changement dans l'industrie informatique et peut révolutionner la façon dont les entreprises exercent leurs activités. Ce paradigme informatique offre des avantages mais aussi d'inconvénients. Une des préoccupations des utilisateurs du cloud réside dans la sécurité en raison de sa dépendance à Internet dans sa nature et des ressources informatiques dispersées généralement localisées sur des serveurs de stockage répartis.La littérature a discuté de cette question, mais pas de manière exhaustive, surtout quand on regarde dans une perspective différente. Nous proposons un modèle de déploiement de cloud répondant aux préoccupations de sécurité des utilisateurs en traitant des facteurs inhabituels qui entravent l'adoption du cloud dans les pays en développement, en particulier ceux présentant un déficit  énergétique comme dans la plus part des pays africains. Les coupures souvent observées dans les pays africains nous ont poussé de réfléchir sur un modèle de déploiement de cloud pouvant garantir la disponibilité des serveurs même en cas de coupure d’où nous avons proposé un modèle permettant la reprise sans perte lors du rétablissement de la connexion.Un diagnostic de sécurité des causes profondes du cloud sera également effectué dans cet article en révélant des menaces tangibles et intangibles au stockage de données, à l'accès et au matériel hébergé dans l'environnement informatique en nuage.

L’interface cerveau-machine (ICM) connaît des avancées importantes depuis les dernières années.  Il existe un état de l’art très élaboré sur cet objet.  Cependant, il peut être difficile de se retrouver devant tant d’information.  La contribution de cette communication est qu’elle propose un modèle représentant les usages actuels et éventuels de l’ICM dans les organisations. Le cadre conceptuel de cette recherche s’inscrit dans l’ensemble des écrits scientifiques portant sur l’ICM (Farwell et Donchin, 1988, Faraz et al., 2014, Guger et al., 1999, Vanacker et al., 2007, Do et al., 2013, Yang Chin et al., 2013, Leeb et al, 2014, Li, 2013, Schmorrow et Kruse, 2002, Resalat et Afdideh, 2012, Fuchs et al., 2007, Touryan et al., 2013, Stephens et al., 2010, Skinner et al., 2013, Pais-Vieira et al., 2013, Yoo et al., 2013). L’approche méthodologique est qualitative.  Elle consiste à une analyse de l’état de la connaissance portant sur l’ICM.  Nous avons d’abord créé une matrice puis un modèle représentant la source et la destination des données.  Nos résultats illustrent, dans le cas d’un fauteuil motorisé,  le cerveau comme source et le fauteuil comme destinataire des données.

Un des défits actuels dans les systèmes de transmission numérique sans fil est la conception de nouvelles architectures entièrement numériques, plus génériques et « universelles », capables de prendre en charge des fonctionnalités précédemment gérées par des circuits différents. Celles-ci devront, en outre, être suffisamment flexibles pour supporter des normes de transmissions multiples et pour s’adapter facilement aux évolutions futures.

Dans cet article nous avons proposé des architectures tout numériques génériques capables de faire la démodulation numérique de plusieurs types de modulation de phase ainsi que la démodulation de fréquence, et sont également capables de générer le code Gold qui est utilisé dans les systèmes WCDMA, par le même circuit. Nos architectures proposées montrent la supériorité au niveau de la surface occupée et le nombre des registres LFSR utilisé, ils réduisent la surface de presque de 50%, par rapport aux architectures proposés précédemment. 

 Mot clés

Architectures numériques haut débit, modulation et démodulation totalement numériques, applications télécom., architectures génériques, VHDL. 

Les soins de santé au Canada ont de sérieux problèmes de performance. L’atteinte des résultats ciblés est une méthode pour refléter la performance. L’indicateur est un outil important pour collecter des données afin de mesurer si les résultats ciblés sont atteints. Comprendre les relations entre les résultats et les indicateurs peut être un moyen d’acquérir une compréhension préliminaire de la question de la performance des soins de santé au Canada.

Pour répondre à la question de recherche « quelle est la relation entre les résultats et les indicateurs et comment cette relation influence-t-elle la performance », cette recherche applique Formal Concept Analysis (FCA) pour examiner les relations entre les résultats et les indicateurs dans 12 ensembles de données issus des résultats 2021 de l'Agence de la santé publique du Canada. Pour appliquer la FCA afin de reconnaître la structure des données et de généraliser les similitudes et les relations, cette recherche applique des méthodes qualitatives pour coder les données d'indicateur et de résultat afin de générer des concepts. Un réseau plus efficace est construit après avoir appliqué la relation 1 : plusieurs données entre l’indicateur et le résultat, avec une explication détaillée des raisons pour lesquelles cette relation est applicable. Deux recommandations sont faites pour modifier la politique et les pratiques actuelles de collecte de données sur les résultats et pour établir des normes internationales sur la définition des résultats.

Malgré près d'un siècle de recherche sur la théorie de la circulation, les problèmes de congestion routière sont de plus en plus importants notamment à cause de l'augmentation du nombre de véhicules sur les routes. Une façon de limiter les congestions consiste à coordonner les feux de circulation routière, action ayant aussi des impacts importants sur les délais d’attente, les risques d’accidents et la consommation inutile de carburant. Pourtant, près de la moitié des feux de circulation aux États-Unis – probablement aussi au Canada – ne sont pas mis à jour régulièrement. La programmation des feux de circulation est un processus d'optimisation complexe, long et coûteux. Il est difficile de programmer ces systèmes en temps réel ou quasi-réel. Nous proposons une alternative basée sur le raisonnement à partir de cas pour contourner ce problème. Pour chaque situation problématique, il existe théoriquement une solution satisfaisante pour améliorer la situation. Si la solution a été satisfaisante, il y a de fortes chances qu’elle soit à nouveau satisfaisante dans des conditions similaires. L'idée est donc d’identifier des situations problématiques, de proposer une solution pour chaque problème et de l'appliquer au moment opportun. Il existe peu de recherches similaires dans le domaine de la gestion des feux de circulation. Nous présenterons cette approche originale de manière globale et sa pertinence face aux travaux du domaine.



Une des plus grandes problématiques en agriculture moderne est celle du traitement des mauvaises herbes. Ce traitement, qui est nécessaire pour augmenter la production, se fait aujourd'hui en utilisant une grande quantité de produits chimiques, ce qui induit des coûts pour les producteurs. De plus, les effets sur l'environnement et sur la santé sont non négligeables. Avec l’évolution des techniques de vision artificielle et de robotique mobile, on pourrait envisager un système autonome qui s’attaquerait aux mauvaises herbes. Un tel système permettrait de les détecter et de les traiter localement. La détection des mauvaises herbes sera réalisée par un système de vision équipant un robot de désherbage ou une rampe d’épandage. Notre travaille s’intéresse au maïs, qui représente la plus grande culture au Québec (994 454 acres en 2011). Il présente l’utilisation des techniques d’analyse statistiques des textures afin d’analyser la densité locale de la végétation pour détecter l’emplacement du maïs et celui des mauvaises herbes. Comme le maïs est cultivé en rangs, cette information est exploitée pour extraire sa redondance spatiale en identifiant les lignes de culture. L’analyse de couleur pour segmenter les images et le filtrage morphologique sont utilisés afin d’extraire les zones les plus intéressantes. Les tests effectués sur des images de culture capturées dans la région de Montréal et en Mauricie, sont très prometteurs et montrent l’efficacité des approches proposées.

Les robots sont de plus en plus présents dans les hôpitaux pour effectuer certaines tâches dans le but de libérer plus de temps au personnel de la santé. Ces robots autonomes sont très souvent dispendieux et offrent peu de flexibilité pour la gestion globale d'une flotte de robots. L'utilisation d'une solution distribuée en périphérie jusqu'en infonuagique peut résoudre ces limitations. Le déplacement de la capacité de calcul en dehors de la plateforme robotique permet la réduction de coûts, tout en permettant le partage de ressources entre plusieurs robots. Une solution qui centralise certaines décisions permet une meilleure gestion de l'ensemble de la flotte robotisée. Certaines portions peuvent être décentralisées afin d'optimiser les performances de certains algorithmes d'intelligence artificielle dans le but de répondre aux contraintes temps réel d'un contrôle de robot. Le résultat est une solution plus abordable, plus facile à maintenir et qui permet au personnel de la santé de se concentrer sur les tâches à caractère humain de leur profession.

Dans un monde où les comportements des robots doivent satisfaire les besoins des utilisateurs, il n'est pas faisable pour les programmeurs de couvrir toutes

les actions possibles qu'un robot doit entreprendre. L'apprentissage par imitation offre une solution facile pour ce problème en permettant à des usagers

sans expertise en programmation d'enseigner les comportements désirés aux robots. 

Notre papier se concentre sur des tâches de navigation que les usagers de fauteuils roulants robotiques espèrent automatiser pour sauver temps et énergie

pour eux-mêmes et leurs soignants. Notre approche requiert seulement une démonstration et une façon d'enregistrer des images et les commandes issues par

l'usager durant l'enseignement. 

Une fois les images obtenues, des Speeded-Up Robust Features (SURF) sont extraites des images et un algorithme K Nearest Neighbours (KNN) s'occupe de

prédire les commandes appropriées en observant des nouvelles images durant l'exécution. 

Les nombreux handicaps de la distribution de Dirichlet comme distribution à priori dans les modèles thématiques ont provoqué la rapide émergence d'autres modèles génératifs probabilistes. Ces nouveaux modèles sont basés sur des distributions à priori plus flexibles et efficaces dans les systèmes de « modèle de sujet » et applications qui, surtout mettent en relief les liens sémantiques entre les thèmes (correlation). C'est le cas des modèles tels que le CTM (Modèles thématiques de correlation, de l’anglais Correlated Topic models), PAM (modèle d’allocation de Patchinko), GD-LDA (allocation de Dirichlet latente basée sur la distribution de Dirichlet généralisée), et LGDA (allocation de Dirichlet généralisée latente). Mais encore, de profondes analyses ont récemment montré que ces modèles cités portent en eux aussi des insufisances qui affectent les inférences habituelles notamment l'échantillonnage de Gibbs  et l'inférence Bayésienne variationnelle. Devant ces difficultés et défis, nous proposons une nouvelle approche qui veut reconcilier un processus génératif complet à une inférence plus robuste avec désormais un choix basé sur la flexibilité des distributions à priori comme la distribution de Dirichlet généralisée. Cela ainsi permet à notre modèle d'être plus adaptable à des applications et données numériques plus variées (textes, images, videos, objets 3D, etc). Notre étude expérimentale à travers la classification des images confirme l'efficacité du nouveau modèle.

20 % des Québécois sont proches aidants pour une personne en perte d’autonomie et ont besoin d’outils pour faciliter leur relation d’aide. MedOClock est une application québécoise de santé mobile destinée aux aidants pour le suivi, la communication et l’organisation d’une personne en perte d’autonomie. Malgré son fort potentiel, ce type d’application soulève plusieurs enjeux quant à son adoption par les aidants. Dans cette étude, nous avons évalué l’utilisabilité de l’application MedOClock auprès de 9 proches aidants. Pour ce faire, nous avons réalisé des entretiens semi-structurés d’une heure en ligne afin de comprendre la réalité des aidants, puis évaluer la réalisation de neuf tâches dans l’application (ex. : envoyer un message et répondre à une urgence). Nos résultats montrent que les personnes en perte d’autonomie ne seraient pas en mesure de gérer une application mobile. Plutôt, offrir une communication constante entre les membres du réseau de soutien et les aidants est plus adaptée à leurs besoins réels. Le taux de succès moyen des tâches a été de 56% s’expliquant par des problèmes de guidage et de représentation graphique dans l’application. De là, nous avons conçu un persona type des proches aidants rencontrés et développé de nouveaux prototypes pour améliorer l’utilisabilité de l’application. Ceux-ci pourront être implémentés dans une prochaine version. Finalement, ce projet souligne les avantages de la collaboration entre une entreprise et une équipe de recherche.

D'un point de vu informatique la prise de rendez-vous est souvent réduite à une tache d'ordonnancement de créneaux horaires dans des calendriers synchronisés. Internet a rendu possible le développement de systèmes automatisés d'ordonnancement mais qui ne permettent pas d'instaurer un dialogue avec le client. Parallèlement, avec l’émergence des téléphones mobiles, les entreprises proposent des services utilisant le SMS comme support de conversation. C'est pourquoi, l'automatisation de la conversation entre un client et un système informatique appliquée à la prise de rendez-vous par SMS, a été étudiée. Il ressort qu'un rendez-vous se construit et se négocie d'une manière collective et incrémentale pendant la conversation. Cette dernière ne peut-être modélisée comme un enchaînement linéaire de messages prédictibles. La démarche proposée est de représenter la conversation à l'aide d'une machine à états alimentée par l'intention émise par l'utilisateur. Cette dernière est déduite à l'aide d'algorithmes d'annotation d'entités et de classification automatique fondée sur l’apprentissage machine. L'objectif est d'être capable de générer une réponse cohérente pour construire le rendez-vous et converger sur une entente adaptée aux besoins de l'utilisateur. Les réponses du système sont générées à partir de patrons pré-définies, en tenant compte des informations extraites du message entrant, de l'intention déduite, ainsi que du profil et de l'historique des conversations avec l'utilisateur.

Dans la course pour remplacer les combustibles fossiles par des biocarburants renouvelables, la découverte d'enzymes dégradant efficacement la lignocellulose est un défi majeur. Pour identifier ces enzymes, les biologistes rassemblent les résultats expérimentaux publiés dans une littérature scientifique dont volume et diversité des sources sont en expansion constante. Analyser la littérature nécessite une lecture appronfondie de toutes les publications pertinentes mais cette tâche est difficilement exhaustive et des informations cruciales peuvent échapper au lecteur.

Combinant outils de fouille de texte sémantique et ressources ontologiques, notre système mycoMINE extrait automatiquement de la littérature les connaissances concernant les enzymes fongiques. mycoMINE est intégré dans les outils des utilisateurs (navigateurs, éditeurs de textes, wikis) via la plateforme Semantic Assistants. Les performances de mycoMINE sont évaluées sur un corpus, librement accessible, d'articles scientifiques manuellement annotés par des biologistes experts. Les évaluations menées sur les quatres entités les plus fréquentes - organisme, enzyme, pH et température - extraites automatiquement montrent que plus de 90% des entités présentes sont trouvées par mycoMINE.

mycoMINE, développé pour le projet Genozymes, est le premier système de fouille de texte sémantique dédié à la recherche d'enzymes fongiques impliquées dans le développement des biocarburants de deuxième génération.

Les outils d’intelligence artificielle peuvent fournir une aide précieuse en soutien à la santé mentale, notamment en analysant les productions textuelles des personnes à risque. Afin de fournir des analyses pertinentes, il est primordial que de tels outils soient robustes à la diversité d'expression textuelle qui peut exister chez ces personnes. Dans cet esprit, nous étudions les effets que les différences d'ordre dialectique ont sur la représentation interne de messages textuels dans les modèles de langue courants en libre distribution. Nous comparons les modèles produits à partir de corpus en plusieurs langues avec ceux produits à partir de corpus francophones uniquement en les appliquant à des messages texte en français québécois.

Pour ce faire, nous comparons l'encodage de messages textes que font ces modèles avec l'encodage des mêmes messages, normalisés en français standard. Ensuite, les modèles sont ajustés afin de rapprocher les encodages des deux versions d'un même message et ainsi faire abstraction des particularités d’expression qui distinguent ces versions.

Nos résultats indiquent que les modèles produits à partir de corpus en français sont plus réceptifs à ces ajustements que ceux produits à partir de corpus multilingues.

En utilisant des approximations locales, par le biais de ponts browniens et de courbes de Daniels, nous proposons un nouvel algorithme de simulation permettant d'estimer la densité du premier temps de passage d'un mouvement brownien à travers une frontière évoluant dans le temps. Nous effectuerons des études comparatives avec des méthodes existantes afin d'établir l'efficacité de notre approche. Enfin, nous appliquerons nos résultats dans le contexte d'un problème de gestion de portefeuilles.