Informations générales
Événement : 84e Congrès de l'Acfas
Type : Domaine
Section : Section 200 - Sciences naturelles, mathématiques et génie
Description :Les technologies de l’information et des communications sont omniprésentes dans nos vies. Venez en apprendre plus sur les derniers développements dans le domaine en assistant à des présentations sur une variété de sujets qui touchent aussi bien nos vies quotidiennes que des questions de pointe.
Dates :Programme
Session d'affiches
-
Modélisation des usages de l’interface cerveau-machine en organisationPhilippe Desmarais (UQAM - Université du Québec à Montréal)
L’interface cerveau-machine (ICM) connaît des avancées importantes depuis les dernières années. Il existe un état de l’art très élaboré sur cet objet. Cependant, il peut être difficile de se retrouver devant tant d’information. La contribution de cette communication est qu’elle propose un modèle représentant les usages actuels et éventuels de l’ICM dans les organisations. Le cadre conceptuel de cette recherche s’inscrit dans l’ensemble des écrits scientifiques portant sur l’ICM (Farwell et Donchin, 1988, Faraz et al., 2014, Guger et al., 1999, Vanacker et al., 2007, Do et al., 2013, Yang Chin et al., 2013, Leeb et al, 2014, Li, 2013, Schmorrow et Kruse, 2002, Resalat et Afdideh, 2012, Fuchs et al., 2007, Touryan et al., 2013, Stephens et al., 2010, Skinner et al., 2013, Pais-Vieira et al., 2013, Yoo et al., 2013). L’approche méthodologique est qualitative. Elle consiste à une analyse de l’état de la connaissance portant sur l’ICM. Nous avons d’abord créé une matrice puis un modèle représentant la source et la destination des données. Nos résultats illustrent, dans le cas d’un fauteuil motorisé, le cerveau comme source et le fauteuil comme destinataire des données.
Technologies de l'information et des communications (Partie 1)
-
Analyse de la conversation dans le cadre de la prise de rendez-vous par SMSAudrey Bramy (ÉTS - École de technologie supérieure), Sylvie Ratté (ÉTS - École de technologie supérieure)
D'un point de vu informatique la prise de rendez-vous est souvent réduite à une tache d'ordonnancement de créneaux horaires dans des calendriers synchronisés. Internet a rendu possible le développement de systèmes automatisés d'ordonnancement mais qui ne permettent pas d'instaurer un dialogue avec le client. Parallèlement, avec l’émergence des téléphones mobiles, les entreprises proposent des services utilisant le SMS comme support de conversation. C'est pourquoi, l'automatisation de la conversation entre un client et un système informatique appliquée à la prise de rendez-vous par SMS, a été étudiée. Il ressort qu'un rendez-vous se construit et se négocie d'une manière collective et incrémentale pendant la conversation. Cette dernière ne peut-être modélisée comme un enchaînement linéaire de messages prédictibles. La démarche proposée est de représenter la conversation à l'aide d'une machine à états alimentée par l'intention émise par l'utilisateur. Cette dernière est déduite à l'aide d'algorithmes d'annotation d'entités et de classification automatique fondée sur l’apprentissage machine. L'objectif est d'être capable de générer une réponse cohérente pour construire le rendez-vous et converger sur une entente adaptée aux besoins de l'utilisateur. Les réponses du système sont générées à partir de patrons pré-définies, en tenant compte des informations extraites du message entrant, de l'intention déduite, ainsi que du profil et de l'historique des conversations avec l'utilisateur.
-
Les incidences de la technologie de radio-identification (RFID) sur la création de la valeur relationnelle : explication des résultats de recherche contradictoiresYgal BENDAVID, Harold BOECK, Augustin Bilolo (UQAM - Université du Québec à Montréal)
La technologie RFID (Identification par fréquence-radio) est de plus en plus utilisée dans divers domaines d’application. Malgré cette utilisation croissante dans les organisations et les réseaux inter-entreprises, peu d’études actuelles examinent l’impact de RFID au sein d’un réseau de partenaires d’affaires. Ainsi, l’impact de la technologie RFID sur la création et l'appropriation de la valeur relationnelle, c’est-à-dire les bénéfices conjointement créés avec les partenaires d’affaires, n’est pas clairement établi. Il est donc nécessaire de comprendre comment RFID agit sur la capacité d’une entreprise à co-créer et à s’approprier la valeur relationnelle. Pour cela, nous proposons un modèle basé sur une conceptualisation multidimensionnelle de cette technologie dans un contexte inter-entreprises.
Nous avons validé empiriquement ce modèle par des études de cas multiples. Les résultats suggèrent que la différence dans l’appropriation de valeur relationnelle entre les entreprises est fonction de leur capacité à utiliser la technologie RFID pour alimenter leurs relations en information de meilleure qualité. Ces relations promeuvent la co-création de valeur par rapport aux besoins des unités d’affaires. Les résultats suggèrent aussi que l’utilisation de la technologie RFID est efficace en cas d’un meilleur partenariat entre la fonction TI et les unités d'affaires. Ce partenariat atténue les effets négatifs de la technologie et accentue ses effets bénéfiques.
-
Vers une analyse thématique automatique de séries de publications : application aux articles des conférences Extraction et Gestion des connaissances (EGC)Marie-Noëlle BESSAGNET, Eric Kergosien (Université Lille 3), Annig LACAYRELLE, Christian SALLABERRY
Nous assistons à un accroissement prodigieux des publications scientifiques numérisées à l’échelle internationale. Ce que promet la société du numérique est une toute autre façon de nous représenter et de concevoir l’espace et le temps : c’est notamment le cas des travaux en scientométrie qui analysent des corpus volumineux de publications scientifiques. Nos travaux s’inscrivent dans cette démarche en proposant une méthode semi-automatique générique pour l’analyse d’un corpus de publications, l’intérêt étant d’appuyer les scientifiques dans leur travail de veille en mettant en avant l’évolution des thématiques au fil du temps, et également de proposer une approche de classification thématique d’articles destinée à assister les organisateurs des éditions à venir de la conférence traitée. De nombreux travaux en scientométrie présentent des méthodes pour analyser des communautés à partir de publications scientifiques, mais il n’existe pas de solutions satisfaisantes permettant de traiter de façon efficace l’évolution des thématiques. Notre méthode se décompose en 3 étapes : (1) marquage thématique via une approche de fouille de textes, (2) indexation du contenu des publications et métadonnées associées, (3) analyse semi-automatique du corpus. La figure annexe présente un extrait des résultats des expérimentations, menées sur un corpus de 1103 publications présentées à EGC entre 2004-2015, qui mettent en avant l’évolution du classement des articles par thématique de recherche.
-
Construction de ressources linguistiques pour un corpus annoté bilingue franco-vietnamien et traduction automatique des entités nommées pour Français-VietnamienNgoc Tan Le (UQAM - Université du Québec à Montréal), Fatiha SADAT
Avec la croissance phénoménale des informations multilingues via les documents informatisés et surtout en ligne, le besoin d’un outil de traduction automatique joue un rôle crucial dans la compréhension et dans le traitement pour but de transmettre la signification d’un énoncé ou d’un texte à partir d’une langue vers une autre langue. En raison de la polysémie des mots et de la métaphore des expressions, les systèmes de traduction automatique ne proposent pas toujours les bonnes traductions correctes pour des contextes donnés. Il se peut qu’ils traduisent un nom commun écrit avec des majuscules comme s’il s’agit d’un nom propre et inversement, qu'ils traduisent un nom propre ayant une signification dans un dictionnaire bilingue comme s’il s’agit d’un nom commun. La traduction automatique des entités nommées reste une tâche très importante dans le traitement automatique des langues naturelles. En revanche, la création de ressources linguistiques annotées est très coûteuse en temps et en main d’œuvre. Et la présente communication concerne la création automatique de corpus annotés en entités nommées pour le vietnamien-français, une paire de langues peu dotée. L’application d’une méthode basée sur la projection cross-linguistique en utilisant des corpus parallèles. Les évaluations ont montré une bonne performance (un gain de BLEU de 2 points pour la traduction) lors de la traduction des paires d’entités nommées bilingues.
-
Développement d’une base documentaire sur le VIH : l’intelligence artificielle au service de la recherche biomédicaleHayda ALMEIDA, Leila KOSSEIM, Marie-Jean Meurs (UQAM - Université du Québec à Montréal), Marie-Jean Meurs, Adrian TSANG
Fouiller manuellement la littérature biomédicale est une tâche incontournable pour analyser les études publiées sur un sujet donné. Les experts réalisant cette tâche doivent identifier, au sein de corpora très volumineux, les rares documents pertinents traitant d'une question de recherche précise. Pour aider les chercheurs dans cette tâche exigeante et chronophage, nous proposons une approche automatique basée sur des méthodes d'apprentissage supervisé. Le très faible nombre de documents pertinents présents dans les corpora de référence, ainsi que la spécificité de ces documents, constituent les principales difficultés associées à ce triage automatique. Notre système identifie automatiquement les documents pertinents parmi une liste extraite de PubMed, la base de données de référence pour la littérature biomédicale. En utilisant des méthodes d'échantillonnage de données et de sélection de caractéristiques, nous avons évalué plus de 100 modèles de classification automatique. Les meilleurs performances ont été obtenues par un classifieur à base d'arbres de décision entraîné sur un corpus équilibré. Nos résultats indiquent que le système identifie la plupart des documents pertinents. Très utile aux chercheurs pour trier rapidement un grand nombre de documents, notre approche est également très flexible et peut être aisément adaptée à d'autres thèmes d'étude. Pour faciliter son utilisation, notre système est un logiciel libre disponible sous licence MIT.
Technologies de l'information et des communications (Partie 2)
-
Le projet TECTONIQ pour la valorisation du patrimoine numérique de l’industrie textile : application au territoire du Nord–Pas-de-Calais (France)Eric Kergosien (Université Lille 3)
Le projet TECTONIQ étudie les dispositifs numériques mis en place par les différents acteurs impliqués pour gérer, diffuser et échanger les informations relatives au Patrimoine Industriel Textile (PIT) sur le territoire du Nord – Pas-de-Calais. Dans les travaux présentés, nous définissons tout d’abord notre domaine d’étude, à savoir le patrimoine numérique lié à l’industrie textile, en nous appuyant notamment sur les définitions de l’UNESCO et du comité TICCIH (UNESCO, 2008 ; TICCIH, 2003). Nous proposons ensuite une méthode hybride, c’est-à-dire une approche qualitative combinée à une approche quantitative semi-automatisée, afin de dresser une cartographie des acteurs du patrimoine nous permettant d’identifier les sources existantes de documents numériques hétérogènes. Une cartographie du Web du réseau d’acteurs du patrimoine de l’industrie textile organisé par type (patrimoine patrimonialisé en rouge et patrimoine vivant en bleu) résultante de l'approche est présentée en annexe. L'ensemble des résultats est disponible sur le site suivant : http://ekergosien.net/Tectoniq. L’objectif du projet à terme étant de construire une base de connaissances qui structure et relie entre elles l’ensemble de ces données en respectant les normes définies pour le Web sémantique, nous justifions notre choix d’utiliser le modèle sémantique CIDOC CRM et nous présentons un extrait d’une première ontologie produite manuellement à partir d’un extrait du jeu de documents collecté.
-
Recherche-intervention en design : défis de la formation des assistants de rechercheVanessa BOIS, Rémi DUPONT, Frédéric LÉPINAY, Frédéric Lépinay (Université Laval), Dania MORIN, Kavanagh ÉRIC
Le design comme domaine de recherche attire dans son sillage des projets de nature fort variée dont la recherche-intervention (RI) est l'une des formes de plus en plus courantes. Au-delà des caractéristiques particulières de ce mode d'investigation d'un point de vue méthodologique, la RI suppose un encadrement particulier des assistants de recherche recrutés parmi les bassins d'étudiants en design. Dans cette présentation, nous considérons la recherche notamment comme une activité intégrée de formation des étudiants qui y participent. Dans le contexte particulier du design, cette situation constitue un défi de taille pour les responsables de la recherche dans la mesure où ils doivent exercer une triple supervision. D’abord, ils doivent veiller à la bonne exécution des outils et méthodes propres au protocole de recherche inhérent à la RI. L’étudiant est alors installé dans un processus de formation à la recherche. Ensuite, ils doivent les superviser en tant que designers (quelle que soit la spécialité convoquée) de manière à ce que les livrables au cœur de la RI soit conçus et produits au moins en partie à la satisfaction du commanditaire de la recherche. Enfin, les responsables doivent superviser le déroulement de la recherche entre les diverses équipes et dans le respect des échéanciers et des diverses contraintes logistiques.
-
Étude du protocole d’audit de contenu pour l’évaluation de l’architecture d’information d’écosystèmes informationnels numériquesÉric KAVANAGH, Isabelle Sperano (Université Laval)
L’audit de contenu est une méthode d’évaluation du contenu d’un site Web ou d’un écosystème informationnel plus vaste (C. Jones 2010; Land 2014; B. Martin & Hanington 2012). Rares sont les travaux de recherche étudiant cette méthode. L’audit de contenu se voit toutefois abondamment décrit et commenté dans une foule d’écrits. Ces publications, qui découlent en grande majorité de l’externalisation de la pratique professionnelle de leurs auteurs, constituent un riche terreau pour entamer une réflexion plus vaste. C’est ce qui nous a amené à examiner plus en profondeur un corpus de 200 écrits abordant l’audit de contenu (ouvrages, publications Web, articles).
Dans le cadre de cette présentation, nous nous penchons plus particulièrement sur le protocole de conduite de l’audit de contenu. Dans un premier temps, nous présentons et examinons les protocoles identifiés dans notre corpus. Cette analyse fournit l’assise nécessaire pour proposer, dans un second temps, un protocole d’audit de contenu enrichi, tenant compte des forces et des faiblesses soulevées précédemment. Cette étude vise non seulement à alimenter la recherche en communication numérique, mais aussi à construire des ponts concrets entre la recherche et la pratique professionnelle. -
Évaluation des liens entre la personnalité, l’appropriation d’un logiciel et l’environnement d’apprentissagePhilippe Desmarais (UQAM - Université du Québec à Montréal), Daniel TOMIUK
L’intégration de nouveaux logiciels est importante pour améliorer la performance des organisations. L’appropriation individuelle a été étudiée. Cependant, l’impact d’une dynamique de groupe sur l’appropriation individuelle a fait l’objet de peu de recherche, d’où la contribution de notre recherche.
Le problème générique de recherche est que des individus ne s’approprient pas les logiciels dans le cadre de leurs activités professionnelles et académiques. L’objectif est d’évaluer les liens entre la personnalité, l’appropriation et l’environnement d’apprentissage.
Le cadre conceptuel comporte deux principales composantes. (1) Le modèle de l’ennéagramme de la personnalité (Sutton et al., 2013) est utilisé pour mieux comprendre le rôle de la personnalité sur l’appropriation d’un nouveau logiciel. (2) Une échelle d’appropriation (Tsoni, 2012) adaptée est utilisée. Deux éléments s’ajouteront à l’échelle, l’efficacité et la préférence de l’environnement d’apprentissage.
L’approche méthodologique quantitative comporte un questionnaire en ligne. La population est une cohorte d’environ 400 étudiants suivant un cours de fondements technologiques des systèmes d’information. La cueillette de donnée s’effectuera au début de 2016. Le logiciel choisi est Access parce que très peu d’étudiants l’ont utilisé avant le cours. Pour l’évaluation de la personnalité, le Halin-Prémont-Enneagram-Indicator sera utilisé. Lors de la communication, nous présenterons nos résultats préliminaires.
-
Importance de la confiance dans l’usage et l’adoption du m-banking (Mobile banking ou banque sans fil) en Afrique, et identification des stratégies pour le développement de la confianceWenshin CHEN, Patrick Rukundo (UQAM - Université du Québec à Montréal), Daniel TOMIUK
La téléphonie mobile en Afrique facilite le développement de plusieurs domaines. Le secteur financier bénéficie le plus des applications du mobile pour résoudre le problème de non bancarisation. Le m-banking implique du risque et une incertitude au sein des utilisateurs en Afrique où une grande partie de la population n'a pas d'expérience ni de compétence avec l'usage du m-banking. Il est important aux fournisseurs du m-banking de bâtir la confiance au sein des utilisateurs. Par contre, les études sur le développement de la confiance en e-commerce proviennent principalement du contexte Européen/Nord-Américain. Il est incertain si ces résultats sont généralisables aux utilisateurs de m-banking dans les pays en développement. D’où notre question de recherche : «Quel rôle joue la confiance dans l’adoption et l’usage du m-banking dans le contexte africain?». Une méthodologie qualitative a été choisie pour cette étude. Des entrevues réalisées au sein des fournisseurs du m-banking au Burundi nous ont permis de comprendre les défis du m-banking et identifier des stratégies efficaces afin d’en promouvoir l’adoption. Nous croyons que plusieurs de nos observations et conclusions ont des implications importantes et directes aux secteurs bancaires dans d'autres pays en développement sur d’autres continents, eux aussi, aux prises avec des contraintes sociales, culturelles et technologiques semblables (grande population vivant en zones rurales, illettrisme, manque d’infrastructure, etc.)
-
Étude de cas sur le rôle des TI/SI dans l’approche client dans le secteur bancaire canadien : bénéfices et défis pour les gestionnairesHubert Belzile (UQAM - Université du Québec à Montréal), Daniel TOMIUK
L’approche-client se compose d’un ensemble d’activités qui s’exécutent tout le long de la chaîne de valeur de l’organisation. La complexité qui entoure cette approche est illustrée par les nombreuses orientations, produit ou client, et ses différentes pratiques : « Customer Relationship Management (CRM)», « Customer Value Management (CVM)», etc. Celles-ci sont complémentaires et s’entrecroisent quand vient le temps de gérer la clientèle. Depuis plusieurs années, les technologies/systèmes d’informations (TI/SI) y jouent un rôle primordial. Mais investir dans la mise en place de systèmes informatisés, tel que le CRM, ne garantit pas le succès de la gestion de la clientèle. Dans le cadre de cette recherche, nous effectuons une étude exploratoire et comparative de l’utilisation des technologies dans le cadre des différentes pratiques de l’approche client dans le secteur bancaire. Le but est d’appuyer les gestionnaires de la fonction TI dans leur prise de décision quand vient le temps d’arrimer les TI et les SI à l’approche client de l’organisation. À l’aide d’entrevues, au sein d’une grande institution financière canadienne, nous faisons ressortir les bénéfices que les TI/SI apportent tout en identifiant les défis à relever lors de leurs implantations (tels que les changements organisationnels nécessaires afin d’en tirer profit). Dans le cadre de notre présentation à l’ACFAS, nous présenterons et élaborerons sur des résultats préliminaires de notre étude présentement en cours.