Informations générales
Événement : 82e congrès de l'Acfas
Type : Domaine
Section : Section 200 - Sciences naturelles, mathématiques et génie
Description :S'intégrant de plus en plus dans notre quotidien, les technologies de l'information et des communications ne cessent de se renouveler afin de mieux s'adapter à notre environnement et à nos usages. Les conférenciers suivants présenteront les dernières avancées, concepts et tendances effectués dans ce domaine de recherche.
Dates :Programme
Session 1
-
Processus d’idéation en design : regard sur les problèmes de focalisation du concepteurÉric KAVANAGH, Jacynthe Roberge (Université Laval), Isabelle SPERANO
L’idéation est un processus incontournable et essentiel de la démarche de conception en design. Bien qu’elle puisse être sollicitée à tous moments (CROSS 2011), l’idéation revêt une importance particulière en tout début de démarche, lorsque le designer concentre ses efforts à l’exploration de l’univers des possibles et à l’identification de l’idée brute qui deviendra le générateur primaire (DRAKE 1978) de la solution de design en devenir. Mais l’acte idéatif repose sur un processus cognitif exigeant et fragile. Les obstacles susceptibles de lui nuire, de l’interrompre ou de mener à son échec sont nombreux.
Enseignants universitaires, nous avons eu l’occasion d’étudier la démarche de conception de plus d’une centaine de designers en formation. Nos observations nous ont permis d’identifier des écueils récurrents à l’idéation. Les problèmes de focalisation en font partie. Ce type de problèmes concerne particulièrement l’élaboration de l’idée, l’identification de son cadre de référence et sa portée. Dans cette catégorie, nous ciblons trois problèmes particulièrement nuisibles à l’idéation, soient ceux relatifs à : 1) la définition du périmètre idéatif, 2) la posture philosophique du designer et 3) la persistance à la solution. Dans le contexte de nos observations, le manque d’expérience des designers ainsi que la faiblesse des stratégies utilisées pour identifier et surmonter les obstacles à l’idéation sont également des freins au processus global d’idéation.
-
Quinze ans d’enseignement du design d’interface dans un programme de 2e cycle universitaire : enjeux pédagogiques et défis à venirÉric KAVANAGH, Jacynthe ROBERGE, Isabelle Sperano (Université Laval)
L’année 2014 marquera le 15e anniversaire de la maîtrise en design multimédia (MDM) offerte à l’Université Laval. Depuis sa création en 1999, la maîtrise forme des designers spécialistes de l’interface et de l’interaction numérique. Même si plusieurs aspects de la formation permettent à l’étudiant de développer ses aptitudes à la recherche universitaire, il s’agit d’abord d’un programme professionnel, c’est-à-dire qu’il vise surtout à former des designers qui s’intègrent avec compétence sur le marché de l’emploi. S’il est tenu d’acquérir nombre de compétences relatives à son objet de travail principal – l’interface –, le futur designer devrait aussi, selon nous, être en mesure de développer des aptitudes connexes telles que tenir compte du public pour lequel il conçoit, agir comme orchestrateur au sein de son équipe de travail, ainsi que devenir un gestionnaire efficace et un utilisateur avisé de l'information, dans cette discipline en perpétuel mouvement. Notre participation active dans la formation pédagogique de plus de 150 designers en apprentissage nous a permis d’identifier différents enjeux pédagogiques relatifs aux compétences et aptitudes que ces futurs spécialistes du design interactif doivent acquérir. Cette communication pose un regard sur ces enjeux à la lumière des 15 années passées à développer un programme de design d'interface de 2e cycle universitaire.
-
Un système pour le recrutement étudiantYannick AUSTIN, Tarik Beldjilali (Université de Moncton)
Les universités canadiennes forment plus de 1,5 million d’étudiants dont environ 8% proviennent des seize universités du Canada atlantique. Selon l’Association des Universités et Collèges du Canada (AUCC), les retombées économiques de l’activité de ce secteur sont considérables et se chiffrent à 30 milliards de dollars par année pour le Canada. Or, l’Association des Universités de l’Atlantique (AAU) a révélé une diminution des inscriptions étudiantes dans la plupart des universités de l’atlantique Canadien, et ce durant les deux dernières années. Ceci pourrait menacer le fonctionnement de certaines d’entre elles.Ce constat nous a amené à rechercher les causes d’une telle diminution en prenant comme exemple l’Université de Moncton. Même si les causes de la diminution sont multiples, nous nous sommes intéressés uniquement à celles reliées à l’utilisation des technologies de l’information dans les compagnes de recrutement étudiant. Ainsi, nous avons d’abord analysé l’existant en observant les moyens disponibles utilisés par l’Université de Moncton pour l’approche et le suivi des élèves dans les écoles secondaires de la province du Nouveau-Brunswick. Ce qui a permis de noter des insuffisances et des corrections susceptibles d’être apportées. Ensuite, nous avons mis en place un système intégré pour la gestion et le suivi des futures étudiantes et étudiants de l’Université. Le système est un ensemble d’outils dotés d’une banque de données et d’une capacité d’aide à la décision.
-
Conception d’un outil d’administration des données de recherche pour les outils d’assistance : utilisation des plateformes des clients riches (RCP)Perrine Cribier-Delande (UdeS - Université de Sherbrooke), Hélène Pigot (UdeS - Université de Sherbrooke)
Les nouvelles technologies sont une avenue prometteuse pour le maintien à domicile des personnes avec des troubles cognitifs. Au laboratoire DOMUS, plusieurs outils d’assistance ont été développés pour faciliter la prise de rendez-vous, le téléphone à des proches et l’assistance pas à pas d’activités. Ces outils sont adaptés suivant la clientèle. Les prototypes sont conçus selon une approche centrée utilisateur avec une conception itérative et des études d’utilisabilité fréquentes. Ajoutés aux résultats de ces études, les chercheurs cliniciens évaluent l’impact de l’utilisation de ces outils sur l’autonomie. Il devient donc indispensable de concevoir un environnement d’administration des données de recherche.
But: Concevoir un environnement pour la conception, l’utilisation et l’évaluation de l’utilisation des outils d’assistance.
Méthodologie : L’environnement de recherche sera bâti à partir des RCP. Pour chaque outil, il contiendra ses interfaces et les sujets l’ayant testé. Ceux-ci sont décrits par leurs préférences, la fréquence d’utilisation et les erreurs commises (physiques: appui à côté du bouton ou cognitives: aller-retour avant d’atteindre l’objectif).
Résultat : Une application a été implantée pour décrire les clients : les données personnelles anonymisées ou non et leurs traces d’utilisation.
Retombée: cet environnement intégrera d'autres outils d’assistance et permettra aux cliniciens d’analyser l'utilisation de toutes les technologies fournies.
Session 2
-
Ingénierie des exigences agiles : validation par étude de cas de l’approche BScrumOualid Ktata (UQAM - Université du Québec à Montréal)
Valider une nouvelle approche dans le domaine du génie logiciel est toujours considérée comme une activité pernicieuse pour n’importe quel chercheur œuvrant dans ce domaine. Dans cette communication nous visons à mettre en lumière les défis rencontrés, en tant que chercheur, lors de la validation de l’approche et l’outil BScrum.
BScrum est une nouvelle approche de gestion des exigences logicielles basée sur les buts d’affaires dans un contexte de gestion de projets agiles. Elle vise à améliorer la perspective d’affaires dans les projets agiles basés sur Scrum. Pour valider BScrum, un protocole d’étude de cas a été élaboré et appliqué dans des projets réels en entreprise. Dans cette communication, nous allons d’abord présenter Scrum, le cadre de travail agile et l’approche BScrum qui vise à l’améliorer. Ensuite, les étapes menées pour l’élaboration du protocole de validation et la conception du questionnaire seront présentés. Puis, nous présenterons les défis rencontrés et les limites de l’approche de validation utilisée lors de la conduite des études de cas en entreprise. Finalement, les résultats de la conduite des études de cas et les leçons apprises seront exposés à l’audience. -
Informatisation du processus de génération des rapports remis aux clients de S3R avec hébergement dans le CloudSoukaina El Ouadi (UQAM - Université du Québec à Montréal), Suzanne MARCOTTE
Informatiser l’un des processus d’une entreprise est monnaie courante afin de lui permettre de se surpasser dans ses compétences clés. Cependant, lorsque l’on vise à l’automatiser et que celui-ci comporte des particularités propres à chaque client, cela représente tout un défi. Tel est le cas de S3R, une entreprise qui innove en offrant au Québec un service unique de développement, d’implantation et de suivi de solutions qui permettent à ses clients de réaliser des profits à travers une meilleure gestion de leurs déchets et matières recyclables. Notre recherche a d’abord consisté à standardiser, puis à automatiser une partie du processus de génération des dossiers d’observations et de recommandations fournis par S3R à sa clientèle. Une modernisation des techniques de traitement notamment par une base de données s’est avérée nécessaire. Ce projet a été effectué à travers trois points essentiels.
- L'élaboration d'un modèle de rapports des traitements unifié pour la clientèle de l'entreprise.
- L’exploitation des avantages du Cloud comme la possibilité d’accès et de consultation, quel que soit la localisation.
- L’informatisation des procédures en rejetant l’utilisation des formulaires papier au profit des nouveaux outils de traitement des données.
Nos objectifs sont de réduire les temps requis au traitement des dossiers et ainsi libérer les ressources hautement qualifiées pour les opérations clés de l’entreprise, ayant un effet immédiat sur les profits engendrés.
-
Élaboration d’un tableau de bord comme outil d’aide à la décision pour l’entreprise S3RSarah Cherif (UQAM - Université du Québec à Montréal), Suzanne MARCOTTE
L’informatique décisionnelle représente de nos jours une source vitale aux succès des entreprises, petite, moyenne ou grande. Le but de cette recherche est d'évaluer les tableaux de bord potentiels et de concevoir par la suite la meilleure solution informatique adaptée à l'environnement de l'entreprise S3R. Celle-ci est spécialisée dans l'offre de solutions de gestion des déchets pour ses clients. La société détient actuellement une application liée à une base de données hébergée dans le Cloud, lui permettant d’automatiser une partie de son processus opérationnel. L’utilisation d’un outil décisionnel tel que les tableaux de bords devient cruciale pour l’entreprise afin de mieux atteindre ses objectifs stratégiques. Cela lui permettra de mieux cibler sa clientèle et viser le secteur d’activité où il existe plus de potentiel. Cette recherche se concentre ainsi sur le développement des tableaux de bords les mieux adaptés aux fonctions de l’entreprise, afin d’apporter une meilleure prise de décision et une optimisation de service à long terme. Dans ce contexte, trois catégories de tableaux de bord sont soulevés : marketing, stratégie de l’entreprise et clientèle. Le développement des tableaux de bords est fait sur Excel, leur fournissant des graphes et des figures qui démontrent leurs activités concernant les trois catégories. L'identification des principaux indicateurs et de mesures a été effectuée suivant une approche spécifique dans ce contexte.
-
Structurer le Big Data : comment les modèles financiers peuvent aiderWilliam Sanger (Polytechnique Montréal), Thierry WARIN
De plus en plus d’êtres humains sont connectés entre eux depuis la démocratisation d’Internet et l’avènement des médias sociaux, entraînant l’augmentation du stockage des données personnelles des usagers. Ces données ont pour caractéristiques d’être massives, générées en temps réel, et sont non structurées (messages publiés sur Twitter, recherches effectuées à travers Google, applications mobiles...). L’objectif de notre recherche est de proposer une méthodologie robuste issue de l’industrie financière afin d’extraire l’information pertinente de ces données, l’industrie financière étant une industrie adaptée au traitement massif de données en temps réel.
La méthodologie employée se fonde sur les travaux initiés par Sharpe (1964) avec l’utilisation du Modèle d’évaluation des actifs financiers (MÉDAF). Ces modèles permettent de quantifier un actif en fonction de sa croissance et de sa volatilité.
En termes de résultats, l’utilisation de ce cadre d’analyse permet de quantifier l’évolution du niveau de risque perçu par la population québécoise à partir des données mises en ligne sur Twitter. 9 catégories de risques peuvent être ainsi évaluées en temps réel.
L’originalité de la recherche réside dans le fait que nous n’utilisons pas les données massives non structurées afin d’ajouter de l’information aux analyses financières ; au contraire, nous utilisons des modèles financiers afin de structurer les données massives pour en extraire l’information pertinente.
-
Valorisation de l’information sur les marchés financiers à partir des données massives non structuréesWilliam Sanger (Polytechnique Montréal), Thierry WARIN
Plus de 500 millions de messages sont publiés quotidiennement sur Twitter. Les entreprises et les consommateurs interagissent et sont connectés entre eux comme l’illustrent autant le marketing viral que les comportements moutonniers. Notre hypothèse est que les conversations sur les réseaux sociaux peuvent ajouter de l’information à l’information financière déjà disponible.
La recherche s’appuie sur des bases de données répertoriant l’évolution de la popularité sur Twitter de l’ensemble des compagnies du S&P500. De plus, tous les messages publiés avant l’ouverture des marchés ont été conservés afin d’en extraire les informations dans une seconde base de données. La méthodologie employée s’appuit sur des modèles économétriques (probit).
En termes de résultats, l’utilisation de données massives non structurées apporte un complément d’information pour obtenir une meilleure mesure du risque des actifs financiers. De plus, l’extraction, le filtrage et l’analyse des messages publiés sur Twitter avant l’ouverture des marchés offre un levier décisionnel supplémentaire aux investisseurs.
L’originalité de la recherche réside dans l’étendue des bases de données, étant la seule recherche à notre connaissance couvrant l’ensemble des compagnies du S&P500 et leur présence sur Twitter. De plus, l’application des modèles économétriques permet de traiter de manière robuste ces données massives générées en temps réel.
Session 3
-
Poker et logique dynamiqueBenoit Potvin (UQAM - Université du Québec à Montréal)
La logique dynamique est une approche récente située au carrefour de la logique, de l’informatique, de la théorie des jeux et de la philosophie. Celle-ci permet de rendre compte de situations complexes où le comportement d’agents intelligents varie dans le temps en fonction d’échanges d’informations. En effet, les connaissances d’une personne influencent non seulement ses comportements mais aussi ceux des autres agents. On peut alors modéliser ces interactions en prenant compte des préférences, des buts, des mises à jour des connaissances, des stratégies ou encore des capacités de chaque agent. Une façon bien simple d’expliciter les fondements de la logique dynamique est l’exemple par les jeux puisque ceux-ci offrent un cadre théorique hautement pertinent. Ainsi, je propose une formalisation logique du jeu de poker qui, de par sa richesse, son dynamisme et sa simplicité, permet d’intégrer les notions essentielles nécessaires à la compréhension de phénomènes sociaux plus complexes. L'essentiel de la présentation se base sur les travaux récents de Johan van Benthem (notamment son livre Logical dynamics of information and interaction - 2011)
-
Analyse d’images pour détecter et quantifier le givre sur les éoliennesMoulay AKHLOUFI, Dominic BOLDUC, Nassim Benmesbah (CRVI - Centre de Robotique et de Vision Industrielles), Rivonala SSOSSE, Matthew WADHAM-GAGNON
L’énergie éolienne représente aujourd’hui une source d’énergie verte qui joue un rôle important dans le domaine de l’énergie électrique. Les éoliennes situées dans des zones de climat froid sont affectées par le phénomène de givrage. L’accrétion de glace sur les pales, et l’infiltration du froid dans la structure sont à l’origine de pannes et d’usures prématurées. Un fonctionnement avec une forte accumulation de glace peut endommager l’éolienne et représenter un danger pour la sécurité à cause des jets de glace. Ces effets peuvent diminuer considérablement la production, et être responsable de l’arrêt complet de l’éolienne, élevant les dommages à plusieurs millions de dollars.
La détection et la mesure de la glace est devenu un souci majeur pour les fabricants et les exploitants. Les systèmes actuels ne sont pas capables de fonctionner de manière fiable dans des conditions extrêmes. Dans ce travail, deux approches basées sur la vision artificielle ont été développées et expérimentées sur des images d’éoliennes. La première utilise la forme du mât comme référence. La quantité de glace accumulée est la différence entre la largeur du mât sans glace et la largeur avec glace. La deuxième méthode mesure le profil givré sur la pale de l’éolienne. Dans les deux cas, l’image doit être rectifiée pour annuler la perspective et effectuer la mesure. Les résultats obtenus se comparent avantageusement aux mesures manuelles et démontrent le potentiel des solutions proposés.
-
Suivi de cibles en temps réel par vision 3DMoulay AKHLOUFI , Rivonala SSOSSE, Benjamin Verney (LE2I - Laboratoire Electronique, Informatique et Image)En vidéo-surveillance, la capacité de détecter et de suivre une cible en temps réel représente un objectif important pour garantir la sécurité d’un périmètre dans des zones sensibles. De plus, avoir la possibilité de suivre l’objectif en temps réel et obtenir sa position en 3D peut s’avérer une information d’un intérêt capital pour le personnel de sécurité. Ce travail présente un système de suivi 3D et en temps réel basé sur la stéréovision. Le système de caméras stéréo est positionné sur une plateforme Pan-Tilt pour permettre le suivi en continu de la cible détectée. La technique des filtres à particules est utilisée pour le suivi. Une approche de reconnaissance des formes permet de garder le focus sur la cible d'intérêt. La position 3D de la cible par rapport au référentiel du système stéréo est calculée en utilisant des techniques de reconstruction 3D. Cette position permet de suivre la position de la cible sur une carte en temps réel (une carte Google Maps a été utilisée). Les résultats expérimentais menées dans des scènes externes montrent l'efficacité de l'approche proposée.
-
Étalonnage géométrique et précision robotiqueMoulay AKHLOUFI, Nassim Benmesbah (CRVI - Centre de Robotique et de Vision Industrielles)
Les robots manipulateurs industriels sont très présents dans différentes applications industrielles où la flexibilité est nécessaire ou lorsque les tâches répétitives sont présentes. Ces systèmes sont conçus pour obtenir une répétabilité optimale et peu d'attention est accordée à l'aspect de la précision.
Au cours des dernières années, nous assistons à un gain d'intérêt dans l'industrie aérospatiale pour l'utilisation de robots industriels dans les applications où une plus grande précision est nécessaire. A cet effet, de nombreuses solutions ont été proposées au cours des dernières années pour le suivi dynamique du robot. Ces systèmes sont très intéressants lorsque l'espace de travail et la cellule du robot sont assez grands pour pouvoir positionner le système de suivi dans son environnement de travail.
Dans ce travail, nous présentons une alternative simple pour augmenter la précision des robots industriels. Cette approche utilise la vision artificielle pour l’étalonnage géométrique du robot. Une caméra montée sur un robot capte des images dans différentes poses du robot et calcule les erreurs de positionnement du robot pour appliquer une compensation à la géométrie de celui-ci. Un nouveau modèle cinématique est alors obtenu par une approche d’optimisation non linéaire. Ce modèle permet d'augmenter la précision du robot.
Les tests effectués avec un robot industriel permettent de constater une amélioration de 30% au niveau de la précision de positionnement du robot.
-
Système de vision pour la détection des mauvaises herbesMoulay AKHLOUFI , Rivonala SSOSSE, Benjamin Verney (LE2I - Laboratoire Electronique, Informatique et Image)Une des plus grandes problématiques en agriculture moderne est celle du traitement des mauvaises herbes. Ce traitement, qui est nécessaire pour augmenter la production, se fait aujourd'hui en utilisant une grande quantité de produits chimiques, ce qui induit des coûts pour les producteurs. De plus, les effets sur l'environnement et sur la santé sont non négligeables. Avec l’évolution des techniques de vision artificielle et de robotique mobile, on pourrait envisager un système autonome qui s’attaquerait aux mauvaises herbes. Un tel système permettrait de les détecter et de les traiter localement. La détection des mauvaises herbes sera réalisée par un système de vision équipant un robot de désherbage ou une rampe d’épandage. Notre travaille s’intéresse au maïs, qui représente la plus grande culture au Québec (994 454 acres en 2011). Il présente l’utilisation des techniques d’analyse statistiques des textures afin d’analyser la densité locale de la végétation pour détecter l’emplacement du maïs et celui des mauvaises herbes. Comme le maïs est cultivé en rangs, cette information est exploitée pour extraire sa redondance spatiale en identifiant les lignes de culture. L’analyse de couleur pour segmenter les images et le filtrage morphologique sont utilisés afin d’extraire les zones les plus intéressantes. Les tests effectués sur des images de culture capturées dans la région de Montréal et en Mauricie, sont très prometteurs et montrent l’efficacité des approches proposées.
-
Alignement informatif d’un corpus bilingue de nouvellesChristian DESROSIERS, Sylvie RATTÉ, Erick Velazquez-Godinez (ÉTS - École de technologie supérieure)
Lorsque vient le moment de suivre un évènement dans le détail, le lecteur attentif de l’actualité n’a plus le choix ; il doit sélectionner les sources d’information qu’il veut privilégier. L’information est là et partout, en plusieurs langues et s’exprimant au travers de multiples points de vue. Cette disparité dans le traitement crée ce que l’on pourrait appeler des trous informatifs qu’il est impossible de combler sans lire l’ensemble de ce qui s’est écrit sur le sujet. Notre méthodologie comporte quatre étapes : la construction du corpus documentaire de manière semi-automatique, l'alignement des sources, l'identification des trous informationnels, la visualisation et la validation des résultats. Notre corpus de travail est construit en utilisant des modèles probabilistes qui permettent de dégager les documents, rédigés en français et en anglais, relatant les mêmes faits historiques. L'alignement des sources s'effectuent après avoir encodé les textes dans une structure de graphes qui, une fois projetée dans un espace de moindre dimension, permettra à l'utilisateur d'identifier les couvertures médiatiques semblables et distinctes, ces dernières venant ainsi combler les trous informatifs. La visualisation résultante sera validée auprès d'experts. Ce projet contribue à donner aux utilisateurs le potentiel d'innover en étant à même d'appréhender toute la richesse de nos sources documentaires afin de mieux les explorer et, par le fait même, de les étudier.
Session d'affiches
-
Modèle estimant les niveaux de distorsion d’intermodulation d’un amplificateur de puissance sur puce à rétroaction d’enveloppe pour le comportement dynamique AM et PMDavid BERTHIAUME, Nicolas CONSTANTIN, Smarjeet Sharma (ÉTS - École de technologie supérieure)
Ce projet propose un système d’équations estimant les niveaux de distorsions d’intermodulation (IMD) d’un amplificateur à rétroaction d’enveloppe. La particularité de ce modèle est la prise en compte de l’effet de mémoire que comportent les amplificateurs de puissance. Ce modèle a pour objectif de faciliter l’atteinte des exigences, en termes de linéarité, à l’étape de la conception assistée par ordinateur d’amplificateur de puissance à rétroaction d’enveloppe.
Les résultats obtenus avec le modèle proposé sont comparés aux simulations (sur ADSTM) du comportement dynamique AM et PM du modèle d’amplificateur de puissance sur puce à rétroaction d’enveloppe déjà existant. L’excitation à l’entrée est définie avec trois niveaux sinusoïdaux arbitraires ainsi qu’avec une interrelation arbitraire de leur phase. Un polynôme de 5e degré représente l’amplificateur, bien que ce système puisse être étendu à des degrés supérieurs. La sortie inclut quatre raies de produits IMD sur chaque bande latérale de la porteuse. Une analyse comparative entre l’utilisation du système d’équations et des simulations de l’amplificateur a démontré une différence d’amplitude de 0.06dB sur les produits IMD de sortie et une erreur maximale de 1° sur leur phase, montrant ainsi la précision du modèle proposé. Une procédure pour réaliser l’algorithme sur l’outil de modélisation MAPLETM ainsi qu’un code pour solutionner les valeurs des produits IMD associées au système polynomial d’un amplificateur sont fournis.