Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

La  capacité  à  reconnaître  les  intentions  sous-jacentes derrière  le  comportement  d'un  agent  observé  est  une aptitude fondamentale pour les agents intelligents dans plusieurs domaines. Le problème est le suivant: un agent observe   d'autres   agents   et   essaie  de   prédire   leurs intentions.   Dans   de   nombreuses   applications,   il   est impossible de déterminer toutes les actions que l'agent effectue. Il peut avoir certaines actions qui ne sont pas observées  ou  qui  le  sont  partiellement  ou  qui  sont bruitées. La capacité à gérer l'observabilité partielle est donc l'un des défis les plus importants dans la reconnaissance de plan. Ce problème a une très grande variété d’applications. Par exemple dans les jeux de stratégie en temps réel, connaitre les intentions de son adversaire permettra à une intelligence artificielle de contrer ses actions futures. En domotique, on voudrait une maison capable de comprendre et anticiper les désirs de ses habitants pour maximiser leur confort et les assister dans leurs activités quotidiennes. Dans le domaine de la sécurité informatique, un outil sophistiqué de détection des intrus devrait pouvoir observer les actions des usagers du réseau et déceler ceux qui ont des intentions malveillantes. Nous voulons résoudre ce problème sous observabilité partielle en adaptant les méthodes utilisées dans l'analyse probabiliste grammaticale.

Introduction : Touchant environ 4% de la population, l'anévrisme de l'aorte abdominale (AAA) est une dilatation localisée de l'aorte abdominale, souvent asymptomatique. En cas de rupture, la mortalité et la morbidité peuvent atteindre 80%, soit la 15e cause de mortalité aux USA. L'utilisation du couplage entre la mécanique des fluides et les données cliniques de suivi morphologique permettra une meilleure compréhension des mécanismes de croissance en jeu dans l’aorte et vise à définir des nouveaux critères pour l'aide à la planification interventionnelle personnalisée.
Méthodes : (i) extraction des AAAs de suivi (ii) Calcul de l’écoulement par volumes finis (validé par IRM) (iii) Extraction des métriques d'intérêt : cisaillement pariétal, topologie du transport dynamique (utilisation des Structures Lagrangiennes Cohérentes). Estimation des croissances locales de paroi entre 2 examens consécutifs, épaisseur de thrombus et activité métabolique.
Résultats : l'IRM a permis de valider la topologie de l'écoulement ainsi que le choix des conditions limites. Le transport, donnée complexe à visualiser et quantifier dans un écoulement instationnaire, est analysé au cours de la croissance de l'AAA de manière fortement automatisée.
Discussion : Si les relations entre croissance locale et écoulement sont établies dans les AAAs, les composantes de celui-ci ayant un rôle sont encore méconnus. Notre étude vise à les extraire et quantifier leur impact par des méthodes numériques innovantes.

Le design comme domaine de recherche attire dans son sillage des projets de nature fort variée dont la recherche-intervention (RI) est l'une des formes de plus en plus courantes. Au-delà des caractéristiques particulières de ce mode d'investigation d'un point de vue méthodologique, la RI suppose un encadrement particulier des assistants de recherche recrutés parmi les bassins d'étudiants en design. Dans cette présentation, nous considérons la recherche notamment comme une activité intégrée de formation des étudiants qui y participent. Dans le contexte particulier du design, cette situation constitue un défi de taille pour les responsables de la recherche dans la mesure où ils doivent exercer une triple supervision. D’abord, ils doivent veiller à la bonne exécution des outils et méthodes propres au protocole de recherche inhérent à la RI. L’étudiant est alors installé dans un processus de formation à la recherche. Ensuite, ils doivent les superviser en tant que designers (quelle que soit la spécialité convoquée) de manière à ce que les livrables au cœur de la RI soit conçus et produits au moins en partie à la satisfaction du commanditaire de la recherche. Enfin, les responsables doivent superviser le déroulement de la recherche entre les diverses équipes et dans le respect des échéanciers et des diverses contraintes logistiques.​

Ce projet de recherche concerne l’exploitation de  wikipédia comme étant une ressource semi-structurée de connaissances linguistiques et en particulier comme étant un corpus comparable, pour l'extraction de terminologie bilingue.

L'approche tend à extraire d’abord des paires de terme et traduction à partir de types des informations, liens et textes de Wikipédia. Une deuxième approche basée sur l’information linguistique, afin de ré-ordonner les termes et leurs traductions pertinentes et ainsi éliminer les termes cibles inutiles, est utilisée.

Les évaluations préliminaires utilisant les paires de langues français-anglais, japonais-français et japonais-anglais ont montré une bonne qualité des paires de termes extraits. Cette étude est très favorable pour la construction et l’enrichissement des ressources linguistiques tels que les dictionnaires et ontologies multilingues. Aussi, elle est très utile pour un système de recherche d’information translinguistique (RIT) ainsi que pour améliorer la qualité d'un traducteur automatique statistique.

Valider une nouvelle approche dans le domaine du génie logiciel est toujours considérée comme une activité pernicieuse pour n’importe quel chercheur œuvrant dans ce domaine. Dans cette communication nous visons à mettre en lumière les défis rencontrés, en tant que chercheur, lors de la validation de l’approche et l’outil BScrum.
BScrum est une nouvelle approche de gestion des exigences logicielles basée sur les buts d’affaires dans un contexte de gestion de projets agiles. Elle vise à améliorer la perspective d’affaires dans les projets agiles basés sur Scrum. Pour valider BScrum, un protocole d’étude de cas a été élaboré et appliqué dans des projets réels en entreprise. Dans cette communication, nous allons d’abord présenter Scrum, le cadre de travail agile et l’approche BScrum qui vise à l’améliorer. Ensuite, les étapes menées pour l’élaboration du protocole de validation et la conception du questionnaire seront présentés. Puis, nous présenterons  les défis rencontrés et les limites de l’approche de validation utilisée lors de la conduite des études de cas en entreprise. Finalement, les résultats de la conduite des études de cas et les leçons apprises seront exposés à l’audience.

Contexte

Inscrire des activités dans un calendrier n’assure pas que celles-ci seront réalisées. Le laboratoire DOMUS a conçu un calendrier intelligent, AMELIS, qui offre le rappel automatique des activités inscrites sans savoir si celles-ci sont accomplies. La prochaine étape est donc de connecter AMELIS à un habitat intelligent pour suivre les activités inscrites et s’assurer de leur réalisation.

Méthodologie

Il faut sélectionner un algorithme de reconnaissance d’activités parmi différents algorithmes de data mining fonctionnant avec apprentissage. La sélection est basée sur leur efficacité en fonction du nombre de capteurs dans l'appartement et des activités à reconnaître. Des tests effectués sur un jeu de données provenant de capteurs du laboratoire nous ont permis de sélectionner trois algorithmes : le premier est un algorithme de simple association entre les capteurs de l’appartement et une activité, le deuxième est un algorithme basé sur les réseaux bayésiens, et enfin le dernier est un algorithme de clustering basé sur les mixtures de gaussiennes.

Ils sont utilisés par un programme qui communique avec AMELIS pour savoir quelles sont les activités à reconnaître sur une plage horaire précise.

Résultats

Le dernier algorithme est le plus efficace, mais ne fonctionne qu’avec un nombre restreint de capteurs. Le deuxième algorithme est moins efficace mais offre une reconnaissance plus fine car il utilise tous les capteurs. Enfin, la méthode par simple association a été rejettée.

Les projets de recherche impliquant l’annotation de documents textuels électroniques présentent un défi de taille pour les équipes académiques dès que plusieurs participants sont impliqués. Ils exigent des protocoles rigoureux pour l’annotation, une sécurité adaptée aux données traitées ainsi que des méthodes de saisie, de comparaison et d'agrégation des annotations qui dépassent rapidement les connaissances informatiques des gestionnaires de projet. Le constat est que les outils existants sont restrictifs à ces égards, tant sur les aspects économique, technologique, linguistique que pour leur accessibilité. Ceci a motivé la création de la plateforme PACTE, une plateforme bilingue qui facilite ce type de projet multi-utilisateur d’annotation textuelle.

Cette plateforme, développée en tant que logiciel libre, offre la possibilité aux membres d’un projet de collaborer sur les tâches d’annotation d’un corpus textuel. Elle permet au gestionnaire de définir le protocole d’annotation, les participants, les schémas d’annotation et de distribuer, manuellement ou aléatoirement, des sous-ensembles d’un corpus de grande taille aux participants. Ces annotations peuvent viser un corpus, un document ou la surface continue ou disjointe d’un document. Le module de création de schémas personnalisés offre une grande flexibilité quant aux informations à saisir pour chaque type d’annotation. Des services d’annotations automatiques bilingues peuvent aussi être appliqués pour enrichir les corpus.

L’implantation des systèmes intelligence d’affaires (BI) occupe un intérêt important auprès des chefs d’entreprises qui possèdent une culture analytique des données. Cela leur permettra de prendre les meilleures décisions en temps opportun et de gagner un avantage concurrentiel majeur dans le marché. Bien que dans la littérature SI souvent les études de cas sont réalisées soit dans un contexte nord-américain ou européen, mais rares dans un contexte africain et plus particulièrement algérien. Le BI en Algérie, c’est un terme qui existe depuis au moins une dizaine d’années, mais négligé par plusieurs entreprises. En effet, l’Algérie éprouve plusieurs difficultés en matière de l’intelligence d’affaires telles que l’accès aux sources de données, manque de la culture de partage d’information, etc. Dans notre recherche, nous présenterons des résultats préliminaires visant à comprendre les barrières et les facilitateurs d’implantation des systèmes BI dans le contexte algérien. Cela a pour but de comprendre les réalités qui existent dans ce contexte. Pour répondre à notre questionnement, nous allons nous baser sur une méthodologie qualitative de type «étude de cas» et nous recueillerons nos données à travers des entrevues semi-dirigées. Nous croyons que notre recherche pourrait apporter une contribution pertinente. Cela aidera les entreprises qui voudraient, à l’avenir, implanter des systèmes BI à comprendre la réalité de BI dans le contexte nord-africain et particulièrement algérien

Les troubles musculo-squelettiques (TMS) sont des lésions (douleur chronique, faiblesse musculaire, etc.) résultants de la surutilisation des tissus anatomiques, en particulier sur les postes où des travailleurs effectuent des mouvements manuels répétitifs, dans un environnement multitâche. Une proportion importante d’arrêts de travail est due à l’incapacité physique des travailleurs affectés d’un TMS. Pour ce faire, nous proposons un modèle d’interactivité humain-robot (une troisième main robotique autonome) pour favoriser la réintégration des opérateurs en absence prolongée au travail pour TMS à leur poste. Le but du modèle d’interaction robotique est l’assistance des travailleurs via le partage des tâches dans l’ordonnancement des activités de production. Bien que l’interaction robotique ait été largement étudiée, sa mise en œuvre dans l’ordonnancement reste assez complexe lors de la conceptualisation du partage des tâches et de l’efficacité du travail d’équipe. Les objectifs du modèle proposé sont orientés vers l’inclusion de la détection des activités humaines et du positionnement du corps humain dans la commande intelligente du robot. Ainsi, un algorithme de classification fiable et robuste sera mis en œuvre à l’intérieur des capteurs intelligents insérés dans des vêtements de protection individuels du travailleur, pour identifier ses actions et ses comportements anormaux. Par conséquent, le robot intervient en fonction de l’état de l’opérateur en évitant sa collision.

Pour intégrer les données probantes à leur pratique, les professionnels de la santé doivent formuler précisément leur question clinique, consulter la littérature scientifique médicale à ce sujet, évaluer la qualité et la pertinence des données trouvées avant d’intégrer leurs nouvelles connaissances à leur pratique. Afin d’améliorer la recherche des données probantes, nous nous intéressons à la prédiction de la pertinence d’un article par rapport à une question clinique, en prenant compte du type d’étude qu’il décrit et du type de la question posée. Nous nous intéressons plus particulièrement aux questions formulées à l’aide du cadre PICO, un cadre de formulation de question d’avant-plan qui permet de trouver une réponse précise à des questions cliniques. Pour prédire si un article est pertinent, nous identifions d’abord des concepts UMLS d’intérêt dans les articles et dans les questions en utilisant diverses techniques du traitement du langage naturel par des outils tels que cTAKES. Pour évaluer nos résultats, nous utilisons le corpus CLIREC. Notre prototype permet de détecter la présence de concepts présents à la fois dans les questions et les articles. Nous travaillons à améliorer notre approche en intégrant le concept de distance sémantique et en intégrant des algorithmes d’apprentissage automatique pour prédire la pertinence de l’article. L’aspect novateur de nos travaux est l’utilisation du type des questions et articles en plus des éléments PICO de la question.



Les entreprises sont souvent entraînées à investir des sommes considérables dans des activités de recherche et développement, espérant ainsi arriver à mettre en marché de nouveaux produits répondant aux besoins des consommateurs. Malheureusement, le retour sur investissement n’est pas toujours garanti dans la mesure où un très grand nombre de nouvelles technologies ou de nouveaux produits, malgré leur indéniable qualité technique, se révèlent un échec sur le plan commercial. Dans ce contexte, il apparaît opportun de pouvoir évaluer a priori les chances de succès commercial d’une technologie avant même d’investir dans des activités intensives visant sa conception et sa commercialisation. L’objectif de cette communication est d’analyser les facteurs qui permettraient de prédire le succès commercial des nouvelles technologies mobiles.  Pour y parvenir, nous avons adopté une méthodologie basée sur l’examen d’un échantillon représentatif de technologies mobiles en cherchant à distinguer celles qui ont été des succès ou des échecs commerciaux. Les résultats de cette recherche révèlent l’existence de propriétés communes aux technologies mobiles à succès, ce qui conduit à une hiérarchie de facteurs déterminants du succès commercial dans ce domaine. Cette communication contribue à l’avancement des connaissances en ce sens que cette hiérarchie constitue un outil novateur de prise de décision d’investissement dans des projets de recherche et de développement  de technologies mobiles.

L’audit de contenu est une méthode d’évaluation du contenu d’un site Web ou d’un écosystème informationnel plus vaste (C. Jones 2010; Land 2014; B. Martin & Hanington 2012).  Rares sont les travaux de recherche étudiant cette méthode. L’audit de contenu se voit toutefois abondamment décrit et commenté dans une foule d’écrits. Ces publications, qui découlent en grande majorité de l’externalisation de la pratique professionnelle de leurs auteurs, constituent un riche terreau pour entamer une réflexion plus vaste. C’est ce qui nous a amené à examiner plus en profondeur un corpus de 200 écrits abordant l’audit de contenu (ouvrages, publications Web, articles).


Dans le cadre de cette présentation, nous nous penchons plus particulièrement sur le protocole de conduite de l’audit de contenu. Dans un premier temps, nous présentons et examinons les protocoles identifiés dans notre corpus. Cette analyse fournit l’assise nécessaire pour proposer, dans un second temps, un protocole d’audit de contenu enrichi, tenant compte des forces et des faiblesses soulevées précédemment. Cette étude vise non seulement à alimenter la recherche en communication numérique, mais aussi à construire des ponts concrets entre la recherche et la pratique professionnelle.

Le téléphone cellulaire est utilisé à des fins professionnelles depuis de nombreuses années, particulièrement par les gestionnaires seniors au travail. Et cette technologie est de plus en plus employée au travail depuis qu’une panoplie d’applications mobiles a été intégrée aux stratégies d’affaires de l’entreprise. L’adoption individuelle de la technologie a été largement étudiée dans le secteur du travail, mais elle l’a été beaucoup moins à la maison. De ce fait, peu d’études ont été menées jusqu’à présent pour vérifier la satisfaction des gens à la maison de l’utilisation d'un téléphone cellulaire. L’objectif de cette étude est donc de vérifier quels sont les facteurs d’influence de l’utilisation d’un téléphone cellulaire chez les Camerounais. Pour guider l’étude, un modèle de recherche de type « modérateur » a été développé, duquel 8 hypothèses ont été formulées. La méthodologie utilisée pour mener l’étude est le sondage en personne. Plus de 500 Camerounais possédant un téléphone cellulaire ont été choisis aléatoirement dans les deux principales villes du Cameroun pour former l’échantillon. L’analyse des données a été faite à l’aide de la modélisation d’équation structurale avec le logiciel Partial Least Squares (PLS). Les résultats révèlent que la moitié des variables examinées dans l’étude ont montré être des facteurs déterminants de l’usage d’un téléphone cellulaire par les Camerounais. De plus, la plupart des hypothèses de recherche formulées ont été vérifiées.  

Combien y a-t-il de relations internes possibles dans un ensemble à  n  éléments?  Parmi elles, combien sont réflexives? symétriques? transitives?  De combien de façons peuvent être combinées les différentes propriétés?  Le cas  n = 3  sera étudié de façon plus détaillée, avec notamment la présentation synoptique des 104 graphes sagittaux représentatifs des 512 relations.

La formation à distance nécessite l'emploi d'outils informatiques, notamment des systèmes de gestion d'apprentissage (Learning Manage System ou LMS). Les jeux sérieux (jeux vidéo mélangeant aspect pédagogique et aspect ludique) représentent un outil informatique pouvant être utilisé par les enseignants et développé pour leurs besoins précis. Cependant, l'intégration des jeux sérieux aux LMS peut poser des problèmes de compatibilité. De plus, les avancés en intelligence artificielle incitent à prendre en compte un domaine comme l'apprentissage adaptatif (qui consiste à proposer un enseignement personnalisé au niveau du contenu ou des activités), complexifiant les outils informatiques. Au final, nous proposons un jeu sérieux adaptatif dont les résultats du joueur-apprenant peuvent être importés dans un LMS comme Moodle. Un tuteur "intelligent" est intégré au jeu sérieux adaptatif afin de guider le joueur-apprenant.

Dans la dernière décennie, le concept de champ vectoriel combinatoire (ou discrète) introduit par Robin Forman en 1998 est devenu un outil très efficace pour la discrétisation des problèmes continus en mathématiques appliquées, l'imagerie et la visualisation.  Le but de ces recherches est de développer les liens formels entre la théorie classique de Morse et la théorie de Forman dans le contexte de systèmes dynamiques. Donc, dans cette présentation, nous débuterons par faire un résumé sur les fonctions de Morse discrète et par la suite, nous montrerons des exemples sur des champs vectoriels gradient de Morse qui est générer par un programme fait à l’interne. Ensuite, par ce champ vectoriel, nous pouvons construire un champ de vecteurs à valeurs multiples. De plus, on peut construire une application semi-continue supérieurement et de montrer graphiquement le fonctionnement de cette application. D’autre part, nous pouvons étendre ce résultat sur la théorie d’indice de Conley sur les complexes simpliciaux 2D.

Motivés par la mécanique statistique, les problèmes de dénombrement de chemins auto-évitants et de polyominos dans un réseau géométrique régulier sont parmi les problèmes ouverts les plus célèbres en combinatoire. Au cours des vingt dernières années, plusieurs chercheurs se sont intéressés aux classes de polyominos plus résolubles, ayant les propriétés particulières de convexité ou de croissance dirigés, spécialement, sur les réseaux carré et hexagonal.

Le but de ce travail est de développer des nouveaux outils pour résoudre des problèmes de nature combinatoire motivés par la mécanique statistique et la chimie organique. La nécessité de tels développements a été soulignée dans plusieurs rencontres internationales.



Il arrive fréquemment que des technologies, ayant fait leur preuve techniquement, ne réussissent pas à conquérir les marchés, se faisant même surclasser par des innovations moins performantes. La question qui se pose alors est de savoir quels sont les facteurs déterminants du succès commercial d’un produit d’innovation technologique. Plusieurs chercheurs se sont penchés sur cette question, sans toutefois parvenir à prédire à coup sûr le succès commercial des innovations, particulièrement dans le domaine émergent des technologies mobiles. L’objectif de cette communication est de proposer un modèle permettant non seulement de prédire le succès et les échecs des technologies mobiles mais aussi d’orienter la conception de celles-ci afin qu’elles puissent réussir leur introduction dans les marchés visés. La méthodologie adoptée pour y parvenir consiste à mettre en œuvre une hiérarchie de facteurs liés au contexte socio-économique et organisationnel de l’entreprise qui cherche à développer la technologie, en suivant une série de cinq étapes correspondant à cette hiérarchie.  Les résultats de cette recherche démontrent qu’il est possible d’anticiper le succès commercial de technologies mobiles en amont des activités de recherche et développement nécessaires à leur conception. La contribution de cette communication demeure la mise à disposition d’une méthode de prédiction de succès pouvant faciliter la sélection et le financement de projets de développement de technologies mobiles.

Le designer d’interaction conçoit des produits et services numériques aux visées habituellement prospectives et novatrices. Ainsi, dans sa démarche de design, il n’est pas rare que le designer d’interaction investisse considérablement de temps et d’efforts à l’élaboration d’un concept original, activité privilégiée de la créativité et de l’idéation en design (ROOZENBURG et EEKELS 1995). Mais la conceptualisation se révèle souvent beaucoup plus ardue qu’escomptée, et force est d’admettre que plusieurs défis et écueils menacent sa réussite, réussite pourtant cruciale au succès global de l’entreprise du designer (WANG et collab. 2002). En fait, la conceptualisation, ses défis et ses écueils font partie des aspects de la démarche de design que, encore aujourd’hui, nous ne comprenons que très peu (MacMILLAN et collab. 2001).

Dans cette communication, nous présenterons les résultats d’un projet de recherche dans le cadre duquel nous avons observé la démarche de conceptualisation de 20 designers d’interaction sur une période de 15 semaines. Pendant toute la durée du projet, différents instruments de collecte de données (journaux de bord, questionnaires, etc.) ont été déployés afin de suivre la trace de l’évolution des concepts et d’obtenir des indices révélateurs des défis et des écueils rencontrés par les designers. L’analyse des données récoltées devrait permettre de cibler les défis de la conceptualisation et d’identifier ses écueils (typologie, classement, etc.).

L’intégration de nouveaux logiciels est importante pour améliorer la performance des organisations.  L’appropriation individuelle a été étudiée.  Cependant, l’impact d’une dynamique de groupe sur l’appropriation individuelle a fait l’objet de peu de recherche, d’où la contribution de notre recherche.

Le problème générique de recherche est que des individus ne s’approprient pas les logiciels dans le cadre de leurs activités professionnelles et académiques.  L’objectif est d’évaluer les liens entre la personnalité, l’appropriation et l’environnement d’apprentissage.

Le cadre conceptuel comporte deux principales composantes. (1) Le modèle de l’ennéagramme de la personnalité (Sutton et al., 2013) est utilisé pour mieux comprendre le rôle de la personnalité sur l’appropriation d’un nouveau logiciel. (2) Une échelle d’appropriation (Tsoni, 2012) adaptée est utilisée.  Deux éléments s’ajouteront à l’échelle, l’efficacité et la préférence de l’environnement d’apprentissage.

L’approche méthodologique quantitative comporte un questionnaire en ligne.  La population est une cohorte d’environ 400 étudiants suivant un cours de fondements technologiques des systèmes d’information.  La cueillette de donnée s’effectuera au début de 2016.  Le logiciel choisi est Access parce que très peu d’étudiants l’ont utilisé avant le cours.  Pour l’évaluation de la personnalité, le Halin-Prémont-Enneagram-Indicator sera utilisé.  Lors de la communication, nous présenterons nos résultats préliminaires.

Typiquement, un processus d’affaires s’exécute sur plusieurs heures ou plusieurs jours, implique plusieurs acteurs et comprend plusieurs points d’erreurs. Lors de son exécution, le processus produit des effets qui dépassent le cadre du système d’information de sorte qu’il ne soit pas possible, en cas d’erreur, de les renverser tels que des transactions dans une base de données. Ainsi, nous devons mener des activités qui visent à renverser sémantiquement les effets du processus : c’est ce qui est appelé la compensation.

La tâche d’identification des différents points d’erreurs dans un processus d’affaires et la modélisation des processus de compensation correspondants est une activité complexe, sujette à l’erreur et qui monopolise l’essentiel de l’effort de modélisation. Dans cette tâche, aucune aide n’est fournie aux l’analystes qui, par conséquent, relèguent la compensation aux détails d'implémentation.

Les travaux ayant porté sur la compensation se sont concentrés sur des aspects techniques de coordination et de structures des langages. Nous soutenons que la compensation est avant tout un problème métier et devrait donc être traitée sous cet angle. Nous proposons, dans cette communication, une approche métier visant à assister l’analyste dans l’identification des activités de compensation et dans la modélisation des processus de compensation d’un processus d’affaires en nous basant sur une analyse métier des processus encadrée par l’ontologie d’affaires​​ REA.

Informatiser l’un des processus d’une entreprise est monnaie courante afin de lui permettre de se surpasser dans ses compétences clés. Cependant, lorsque l’on vise à l’automatiser et que celui-ci comporte des particularités propres à chaque client, cela représente tout un défi. Tel est le cas de S3R, une entreprise qui innove en offrant au Québec un service unique de développement, d’implantation et de suivi de solutions qui permettent à ses clients de réaliser des profits à travers une meilleure gestion de leurs déchets et matières recyclables. Notre recherche a d’abord consisté à standardiser, puis à automatiser une partie du processus de génération des dossiers d’observations et de recommandations fournis par S3R à sa clientèle. Une modernisation des techniques de traitement notamment par une base de données s’est avérée nécessaire. Ce projet a été effectué à travers trois points essentiels.

- L'élaboration d'un modèle de rapports des traitements unifié pour la clientèle de l'entreprise.

- L’exploitation des avantages du Cloud comme la possibilité d’accès et de consultation, quel que soit la localisation.

 - L’informatisation des procédures en rejetant l’utilisation des formulaires papier au profit des nouveaux outils de traitement des données.

Nos objectifs sont de réduire les temps requis au traitement des dossiers et ainsi libérer les ressources hautement qualifiées pour les opérations clés de l’entreprise, ayant un effet immédiat sur les profits engendrés.

Lors du tir d’une cartouche, les mécanismes de l’arme à feu laissent des marques sur la balle et la douille. Ces marques peuvent être des caractéristiques de classe, qui sont communes aux armes à feu d’une même famille; ou des caractéristiques individuelles, qui sont théoriquement uniques et permettent de relier un spécimen à une arme à feu précise. Lorsque des douilles sont retrouvées sur une scène de crime, leurs marques sont analysées dans un laboratoire. Actuellement, avant de comparer les caractéristiques individuelles pour proposer des correspondances, un triage manuel est effectué en considérant les caractéristiques de classe afin d’éviter de calculer inutilement les comparaisons avec des spécimens produits par des familles d’armes différentes. 

Quelques études ont tenté d’identifier des marques variées et des défauts sur des surfaces texturées, mais pas sur des douilles. D’autres ont cherché à identifier la famille d’une arme à feu utilisée, à l’aide de l’apprentissage machine traditionnel d’après des caractéristiques prédéterminées et mesurées par un expert. La contribution de ce projet sera d’utiliser l’intelligence artificielle afin de détecter automatiquement les marques de classe sur des images de douilles. Notamment, des techniques de classification multiétiquettes (plus d’un type de marque peut être présent) et de clustering sont envisagées. Cette présentation discute des résultats préliminaires.

À l’heure du Web 2.0, de nouvelles pratiques d’apprentissage se sont développées au sein de la communauté universitaire. Les étudiants adoptent des pratiques d’intégration de leurs activités sociales au sein de leur processus d’apprentissage. Ces derniers s’attendent à avoir accès à une vaste quantité d’information à travers des outils formels ou informels et à faire partie d'une communauté mondiale de pairs. Le besoin de combiner les ressources institutionnelles et personnelles formalise le concept d’environnement personnel d’apprentissage(EPA).Toutefois, l’élaboration de tels environnements nécessite de développer des compétences complexes que les étudiants du supérieur, pourtant décrits comme natifs du numérique, ne possèdent pas nécessairement. Quelques supports de construction d’EPA ont été proposés dans la littérature, mais ces travaux mettent de côté un point important qui est l’interopérabilité des ressources. L’objectif du présent travail est de fournir aux étudiants un support de construction de leur EPA sous forme d’un tableau de bord, qui permettra d’avoir une vision actualisée des ressources et d’exploiter davantage les liens qui en découlent.  La solution proposée est basée sur le concept des systèmes multi-agents. Offrir aux étudiants un support de construction de leur EPA est une façon de leur faciliter la réappropriation individuelle des ressources d’apprentissage provenant de sources variées et une gestion optimale en termes de contenu et de processus.

Le lieu, qu’il soit physique ou numérique, aurait tendance à nous conditionner et orienter nos pratiques. Toutefois, les usages présents dans tout espace social, et que l’on pense préconçus par le système (économique, politique, urbanistique, culturel, etc.) ne sont finalement jamais stabilisés. En effet, le lieu se trouve être lui-même conditionné par diverses variables, telles que la temporalité ou encore l’organisation spatiale, susceptibles d’impacter les pratiques. L’instabilité de ces usages peut donc rendre les observations de tout designer complexes au sein d’un écosystème de services. C’est à cette difficulté que nous souhaitons répondre et pour ce faire nous suivons une méthodologie ethnographique.

Cette méthodologie s’orchestre autour d’observations non participantes au sein de l’aire de restauration d’un centre commercial. Ces observations nous permettent de définir les pratiques des usagers selon les contraintes temporelles et spatiales du lieu, tout en prenant en compte les critères sociodémographiques. Au terme des analyses découlant de ces observations, nous souhaitons aboutir à la mise en œuvre d’un outil méthodologique. Cet outil devrait permettre de faciliter la description du passage de l’humain dans un lieu, et de ce fait, mieux cerner ses usages. Le but de cet outil serait donc de faciliter l’appréhension d’un espace où l’on souhaite améliorer l’accès aux services pour le consommateur et à terme en optimiser les usages réels.