Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

Avec la croissance phénoménale des informations multilingues via les documents informatisés et surtout en ligne, le besoin d’un outil de traduction automatique joue un rôle crucial dans la compréhension et dans le traitement pour but de transmettre la signification d’un énoncé ou d’un texte à partir d’une langue vers une autre langue. En raison de la polysémie des mots et de la métaphore des expressions, les systèmes de traduction automatique ne proposent pas toujours les bonnes traductions correctes pour des contextes donnés. Il se peut qu’ils traduisent un nom commun écrit avec des majuscules comme s’il s’agit d’un nom propre et inversement, qu'ils traduisent un nom propre ayant une signification dans un dictionnaire bilingue comme s’il s’agit d’un nom commun. La traduction automatique des entités nommées reste une tâche très importante dans le traitement automatique des langues naturelles. En revanche, la création de ressources linguistiques annotées est très coûteuse en temps et en main d’œuvre. Et la présente communication concerne la création automatique de corpus annotés en entités nommées pour le vietnamien-français, une paire de langues peu dotée. L’application d’une méthode basée sur la projection cross-linguistique en utilisant des corpus parallèles. Les évaluations ont montré une bonne performance (un gain de BLEU de 2 points pour la traduction) lors de la traduction des paires d’entités nommées bilingues. 

L’année 2014 marquera le 15e anniversaire de la maîtrise en design multimédia (MDM) offerte à l’Université Laval. Depuis sa création en 1999, la maîtrise forme des designers spécialistes de l’interface et de l’interaction numérique. Même si plusieurs aspects de la formation permettent à l’étudiant de développer ses aptitudes à la recherche universitaire, il s’agit d’abord d’un programme professionnel, c’est-à-dire qu’il vise surtout à former des designers qui s’intègrent avec compétence sur le marché de l’emploi. S’il est tenu d’acquérir nombre de compétences relatives à son objet de travail principal – l’interface –, le futur designer devrait aussi, selon nous, être en mesure de développer des aptitudes connexes telles que tenir compte du public pour lequel il conçoit, agir comme orchestrateur au sein de son équipe de travail, ainsi que devenir un gestionnaire efficace et un utilisateur avisé de l'information, dans cette discipline en perpétuel mouvement. Notre participation active dans la formation pédagogique de plus de 150 designers en apprentissage nous a permis d’identifier différents enjeux pédagogiques relatifs aux compétences et aptitudes que ces futurs spécialistes du design interactif doivent acquérir. Cette communication pose un regard sur ces enjeux à la lumière des 15 années passées à développer un programme de design d'interface de 2e cycle universitaire.

Plusieurs entreprises implantent des systèmes ERP pour la gestion de l'organisation et des informations. Les systèmes ERP étaient particulièrement implantés par les grandes entreprises à raison de leurs coûts d'acquisition élevés. Cependant, depuis l’émergence des ERP open source, les PME adoptent massivement ces applications qui sont développées par les communautés open source. D'après la littérature, l'implantation d'un système ERP, l'un des systèmes d'information les plus complexes, est un processus intensif de transfert de connaissances entre le personnel de l'entreprise et les sources externes de connaissances. Dans le contexte d’un projet ERP open source, les connaissances pouvant être transférées peuvent être plus grandes parce qu’elles sont produites par les communautés open source et que leur accès est libre. Afin d'exploiter efficacement les ressources de connaissances, les entreprises doivent être en mesure d'absorber de nouvelles connaissances et de les appliquer. La littérature soutient que l’avantage concurrentiel d'une entreprise repose sur les ressources de connaissances de ses employés, autrement dit, de son capital humain organisationnel. Les recherches sur les systèmes ERP open source sont rares, car ils sont un phénomène contemporain. L’objectif de ce papier est de proposer un modèle théorique conceptualisant l'effet de la capacité d'absorption des utilisateurs sur le développement du capital  humain organisationnel dans le contexte d'ERP open source.

Ce projet de recherche propose une approche novatrice pour l'estimation de la direction d'arrivée (DoA) en utilisant une seule antenne se déplaçant le long d'une trajectoire curviligne pour créer un réseau d'antennes virtuelles (VAA). Contrairement aux méthodes traditionnelles comme l'algorithme MUSIC, qui repose généralement sur des réseaux d'antennes fixes, notre technique exploite le mouvement de l'antenne pour simuler l'effet d’un réseau multiélément. Cela permet une estimation précise de la DoA dans des scénarios où le déploiement de grands réseaux d'antennes est peu pratique. Les simulations valident la performance de cette méthode dans des mouvements uniformes et curvilignes, démontrant sa robustesse et son exactitude. Cette approche réduit considérablement les besoins en matériel tout en maintenant une grande précision, ce qui la rend adaptée à des environnements dynamiques et contraints en ressources.

Récemment, l’OMS déclarait que 31% des adultes étaient aux prises avec un manque d’activité physique et que plus de 1,9 milliard d’adultes étaient en surpoids. Ces statistiques alarmantes ont poussé certaines entreprises à développer de nouvelles technologies, telles que les bracelets intelligents, dans le but de répondre à ce problème. Aujourd’hui, quelques études ont couvert l’utilisation de ces produits d’un point de vue technique, mais aucune ne s’est penchée sur les comportements inhérents à leur consommation. Ainsi, notre étude vise à développer une classification des consommateurs de bracelets intelligents, dans un contexte d’entrainement physique, en se basant sur la théorie unifiée de l’acceptation et l’utilisation des technologies améliorée. Pour ce faire, une étude qualitative exploratoire a permis, en premier lieu, d’élaborer un cadre conceptuel basé sur  la performance espérée, l’influence sociale, la motivation hédonique, le prix, les habitudes, la qualité perçue des données recueillies par le bracelet, l’intention comportementale et l’utilisation réelle des bracelets intelligents. En second lieu, un sondage a été administré auprès de 200 utilisateurs ciblés pour permettre une analyse de classification combinée. Les résultats n’ont pas encore été analysés, mais ils permettront de classifier et dresser un portrait précis des consommateurs des bracelets intelligents. Une contribution notable tant au niveau scientifique qu’au niveau managérial.

L’interactivité robotique permet d’assister l’humain à des tâches dangereuses et d’éviter les postures inadéquates pouvant mener à des troubles musculo-squelettiques. En particulier, un modèle de l’interaction favorise une réduction des efforts physiques et permet un partage des tâches dans l’ordonnancement des activités de production et de fabrication. Cette interaction doit cependant s’activer lorsque cela est nécessaire, spécifiquement lorsque le robot détecte un comportement anormal de l’opérateur par une analyse de la performance des actions. La mesure de cette performance est réalisée à l’aide de vêtements de protection individuel intelligents.

L’une des applications envisagées dans ce domaine est l’augmentation de l’environnement réel par une aide virtuelle des opérateurs via un retour haptique (kinesthésique et vibrotactile) et visuel.

Cette technique permettra de visualiser des objets virtuels 3D dans un environnement réel (réalité augmentée) de manière à apporter une aide assistée immédiate à un opérateur de même qu’à déterminer la trajectoire des mains et de la tête.

Le retour haptique sera réalisé avec un guide virtuel tout en faisant l’étude de la stabilité du guide à l’aide d’un modèle dynamique « bras-robot-guide ». Ce projet de recherche permettra d’introduire les robots collaboratifs naturellement dans un environnement de production industrielle de l’industrie 4.0.

Depuis le début des années 2000, le monde sportif a pris conscience des conséquences importantes du traumatisme crânio-cérébral léger (TCCL). L’étude du TCCL a principalement ciblé les sports de contact comme le football et le hockey. Par contre, les sports considérés sans contact, comme le soccer, ne sont pas épargnés. Par exemple, au Canada, entre 2012 et 2014, le nombre de TCCL rapporté chez les joueuses de 10 à 19 ans au soccer a été supérieur à la somme des TCCL au hockey et au rugby. C’est pourquoi l’objectif de ce projet de recherche était d’évaluer le risque de TCCL au soccer. Huit joueurs et seize joueuses de soccer ont porté un bandeau instrumenté mesurant les accélérations de la tête lors de matchs de compétition. Ces accélérations ont été confrontées à un critère de blessure permettant d’identifier le risque de TCCL causé par chacune des accélérations. Le nombre total d’accélérations mesurées a été de 239 chez les joueurs et de 294 chez les joueuses. Les accélérations moyennes mesurées chez les joueurs ont été de 25,9g (maximum 82,9g) et de 2 815 rad/s2 (maximum 15 000 rad/s2), et ont été de 28,9g (maximum 67,3g) et de 3 072 rad/s2 (maximum 12 900 rad/s2) chez les joueuses. Un total de 44 (8,3 %) accélérations de la tête a dépassé le risque de 50 % de subir un TCCL. Parmi ces 44 accélérations, 36 ont été causées par des techniques de tête et 8 par des impacts involontaires. Alors, les techniques de tête devraient-elles être considérées sécuritaires?

Les autorités de réglementation aérienne exigent de minimiser l’encombrement visuel des écrans de la cabine de pilotage car il s’agit d’un facteur connu de dégradation de la performance du pilote. Les recherches antérieures identifient deux facteurs contribuant à l’encombrement visuel soit (1) la quantité et la densité d’information à l’écran et (2) la pertinence de l’information pour la tâche. Il semble toutefois difficile d’évaluer le degré d’encombrement visuel d’écrans complexes comme ceux de la cabine de pilotage et d’identifier les éléments d’affichage y contribuant le plus.

Dans ce travail, nous identifions à partir d’une revue de la littérature six méthodes d’évaluation de l’encombrement visuel d’un écran et nous montrons comment elles ont été utilisées en aviation. La comparaison des méthodes montre que celles impliquant des participants (méthodes subjectives) permettent d’évaluer l’encombrement lié à la pertinence de l’information et de distinguer les éléments d’affichage contribuant à l’encombrement (ex. couleur, densité, saillance,...). Les méthodes informatiques ne peuvent évaluer que l’encombrement lié à la quantité d’information. À l’issue de ce travail, nous recommandons une série de méthodes pertinentes pour l’évaluation de l’encombrement des écrans en aéronautique et suggérons des pistes de recherche pour le développement de nouvelles méthodes.

Les modélisateurs rencontrent différents types d'incertitude dans leurs conceptions et modèles de systèmes logiciels. L'un de ces types concerne l'incertitude sur la manière de construire un modèle. C'est ce qu'on appelle '' l'incertitude au moment de la conception '', et les recherches existantes ont étudié comment les modélisateurs peuvent travailler en sa présence. Cependant, le processus par lequel ils en viennent à articuler et à exprimer leurs incertitudes reste flou.

Dans cet article, nous prenons des mesures pour combler cette lacune en introduisant DRUIDE (Design and Requirements Uncertainty Integrated Development Environment), un langage et un flux de travail pour articuler l'incertitude au moment de la conception. Nous présentons et illustrons notre proposition sur un exemple de conception de logiciel. De plus, nous menons une étude de cas réelle d'analyse de domaine liée à l'incertitude causée par la pandémie de COVID-19, et évaluons DRUIDE avec elle. Notre évaluation montre que DRUIDE est suffisamment expressif pour articuler l'incertitude du moment de la conception.

Fouiller manuellement la littérature biomédicale est une tâche incontournable pour analyser les études publiées sur un sujet donné. Les experts réalisant cette tâche doivent identifier, au sein de corpora très volumineux, les rares documents pertinents traitant d'une question de recherche précise. Pour aider les chercheurs dans cette tâche exigeante et chronophage, nous proposons une approche automatique basée sur des méthodes d'apprentissage supervisé. Le très faible nombre de documents pertinents présents dans les corpora de référence, ainsi que la spécificité de ces documents, constituent les principales difficultés associées à ce triage automatique. Notre système identifie automatiquement les documents pertinents parmi une liste extraite de PubMed, la base de données de référence pour la littérature biomédicale. En utilisant des méthodes d'échantillonnage de données et de sélection de caractéristiques, nous avons évalué plus de 100 modèles de classification automatique. Les meilleurs performances ont été obtenues par un classifieur à base d'arbres de décision entraîné sur un corpus équilibré. Nos résultats indiquent que le système identifie la plupart des documents pertinents. Très utile aux chercheurs pour trier rapidement un grand nombre de documents, notre approche est également très flexible et peut être aisément adaptée à d'autres thèmes d'étude. Pour faciliter son utilisation, notre système est un logiciel libre disponible sous licence MIT.


Les universités canadiennes forment plus de 1,5 million d’étudiants dont environ 8% proviennent des seize universités du Canada atlantique. Selon l’Association des Universités et Collèges du Canada (AUCC), les retombées économiques de l’activité de ce secteur sont considérables et se chiffrent à  30 milliards de dollars par année pour le Canada. Or, l’Association des Universités de l’Atlantique (AAU) a révélé une diminution des inscriptions étudiantes dans la plupart des universités de l’atlantique Canadien, et ce durant les deux dernières années. Ceci pourrait menacer le fonctionnement de certaines d’entre elles.Ce constat nous a amené à rechercher les causes d’une telle diminution en prenant comme exemple l’Université de Moncton. Même si les causes de la diminution sont multiples, nous nous sommes intéressés uniquement à celles reliées à l’utilisation des technologies de l’information dans les compagnes de recrutement étudiant. Ainsi, nous avons d’abord analysé l’existant en observant les moyens disponibles utilisés par l’Université de Moncton pour l’approche et le suivi des élèves dans les écoles secondaires de la province du Nouveau-Brunswick. Ce qui a permis de noter des insuffisances et des corrections susceptibles d’être apportées. Ensuite, nous avons mis en place un système intégré pour la gestion et le suivi des futures étudiantes et étudiants de l’Université. Le système est un ensemble d’outils dotés d’une banque de données et d’une capacité d’aide à la décision.

Cette affiche présente la méthode et les techniques propres au web sémantique, utilisées dans le cadre du projet Bio2RDF pour créer une base de données intégrée sur les bases de données publiques du domaine de la bioinformatique.

Comment transformer des données existantes en RDF ? Comment les publier à l'aide d'un point d'accès SPARQL ?  Comment consommer des données RDF disponible sur le web ? Trois questions fondamentales auxquelles on offre comme réponse les fruits de notre expérience dans le cadre du projet Bio2RDF.

Référence: http://bio2rdf.org

L'affiche sera une version française et améliorée du poster

http://fr.slideshare.net/fbelleau/producing-publishing-and-consuming-li…

La robotique constitue certainement le défi le plus extraordinaire que devra relever le monde scientifique dans les vingt prochaines années. La notion de « robot » comprend une multitude de catégories allant des humanoïdes aux drones en passant par ce qu’on surnomme également les bioniques. Mais surtout, la robotique comprend l’étude et l’utilisation de l’intelligence artificielle. Cela induit la construction de machines capables de s’adapter à leur environnement tout en montrant de réelles capacités d’auto-apprentissage. Autrefois considéré comme une chimère, l’hypothèse de robots policiers ou à l’inverse de robots-tueurs prend de plus en plus d’épaisseur. En effet, malgré la fiabilité de certains algorithmes ainsi que la vigilance des programmeurs, le contrôle de certains robots dotés d’intelligence artificielle pourrait devenir plus aléatoire. Eu égard à l’ensemble de ces considérations, plusieurs questions méritent donc d’être posées. Tout d’abord, ces robots peuvent-ils constituer de véritables instruments préventifs et dissuasifs permettant de lutter contre la criminalité ? Ensuite, comment devrait-on réagir sur le terrain de la responsabilité pénale, face à des robots qui seraient auteurs de crimes ?

L’ensemble de ces interrogations nous pousse à nous inscrire dans une forme d’analyse prospective où nous étudierons l’impact que pourrait avoir l’utilisation de robots dotés d’intelligence artificielle sur la prévention du crime ainsi que sur la responsabilité pénale.

 

La notion de service a évolué et s’est adaptée en prenant une place très importante dans une économie en pleine mutation. Le service est désormais enchâssé dans un système à trois dimensions : le support physique, la formalisation de l’expérience et les valeurs sous-jacentes. Le design, autrefois majoritairement axé sur les objets, tente d’appréhender le service en tant qu’agent intégrateur de l’expérience utilisateur. Or, les méthodes qui fonctionnent pour concevoir l'objet ne sont pas tout à fait adaptées pour un service de nature intangible, ayant une logique temporelle et s’étendant dans de multiples espaces. Le designer doit d’abord comprendre les mécanismes fondamentaux du service pour pouvoir l’appréhender et, pour ce faire, un processus de cartographie et de représentation de son écosystème s’avère nécessaire.

Au cours de cette présentation, nous exposerons la notion du service et les enjeux complexes qui entourent le concept d’écosystème de service. Ensuite, nous analyserons comment la cartographie de cet écosystème est essentielle à la compréhension de tous ses agents et de ses mécanismes intangibles. Finalement, nous discuterons de l’importance d’une représentation complète de l’écosystème de service pour construire un langage commun essentiel à la coordination des multiples acteurs qui interviennent dans la conception et la mise en œuvre du service centré sur l’humain et son contexte.

L’imagerie avec les fréquences térahertz (0.1 – 10 THz, longueurs d’onde de 3 mm – 30 µm) a reçu une attention considérable au cours des dernières années, en raison de la capacité de ces ondes électromagnétiques de pénétrer en profondeur plusieurs matériaux diélectriques autrement opaques dans le visible (tissus, papiers, cartons, polymères etc.). Cependant, le principal problème rencontré aujourd’hui en imagerie THz est le temps d’acquisition. Contrairement aux autres régions du spectre, il n’existe pas encore de caméra THz suffisamment sensible. Les détecteurs les plus sensibles qui existent sont à pixel unique. Ainsi, pour obtenir une image, il faut manuellement déplacer l’échantillon point par point. Ce processus, en plus de prendre beaucoup de temps, ne s’applique pas à tous les types d’échantillons. Dans ce projet, nous avons développé une méthode unique de reconstruction d’images qui utilise l’information spectrale d’une impulsion THz pour reconstruire une image avec un nombre très limité de mesures spatiales. L’idée principale est d’utiliser la relation linéaire entre la fréquence spatiale et la fréquence spectrale pour substituer la dimension spatiale en une dimension spectrale. Nous avons développé des algorithmes de reconstruction pour les cas importants de masques d’amplitude et de phase. Nous avons ensuite expérimentalement démontré avec succès la reconstruction d’images de 4500 pixels avec seulement 45 mesures spatiales (1%).

L'activité pédagogique Logique et mathématiques discrètes est souvent perçue comme un mal nécessaire par la majorité de la clientèle étudiante en informatique, malgré l'importance fondamentale des théories étudiées. La méthode d'apprentissage employée pour cette matière est en général peu adaptée à une population étudiante qui provient du secteur technique des cégeps, comme c'est le cas pour une partie significative de celle admise au Département d'informatique. Un projet pédagogique de l'Université de Sherbrooke propose l'utilisation de l'outil Alloy, un outil basé sur des méthodes de satisfaction de contraintes booléennes (SAT), parallèlement à la présentation des sujets en classe. Alloy est conçu de manière à pouvoir décrire simplement des modèles abstraits (une théorie est spécifiée d'une manière déclarative) et de générer des contre-exemples suite à une assertion non satisfaite. Ainsi, les étudiants peuvent formuler en logique des prédicats des propriétés, comme la symétrie et la transitivité, et les vérifier à partir de relations données, de façon à obtenir instantanément une réaction sous une forme textuelle ou graphique. Pour chaque thème du cours, une bibliothèque décrivant une théorie a été développée. Celle-ci s'accompagne d'une manière de faire afin de guider l'étudiant dans des exercices et de lui donner une rétro-action directe sur ses résultats. Nous nous proposons de présenter l'outil, les bibliothèques et les problèmes techniques liés à une telle activité.

Le développement d’un modèle pharmacophore se fait généralement à partir d’un ensemble de composés biologiquement actifs pour une cible pharmaceutique donnée. Cette hypothèse pharmacophore doit ensuite être optimisée et validée par la qualité et la quantité de nouvelles molécules biologiquement actives trouvées à partir de recherches dans des banques de données de molécules ayant des propriétés pharmaceutiques. En 1998, Güner & Henry ont publié un chapitre de livre sur une nouvelle formule pour optimiser les hypothèses pharmacophores : le GH score. Cette dernière a été utilisée depuis plusieurs années pour évaluer la qualité de ces recherches dans les banques de données. Toutefois cette formule présente certaines limites, car elle ne prend pas en considération les composées inactifs connus. Dans cette présentation, nous proposons donc une formule optimisée : le score AE. Pour ce faire, nous avons ajouté un nouveau facteur qui permet d’évaluer la proportion de composés inactifs connus. Nous avons ensuite appliqué des coefficients à chaque facteur de cette formule soit le rendement, le pourcentage d’actifs et le pourcentage d’inactifs. Les meilleures listes de composés sont trouvées par l’optimisation de ces trois facteurs. Ces coefficients ont été testés sur les résultats de différentes recherches puisés dans la littérature. Nous aurons l’occasion de justifier les paramètres de cette nouvelle formule (ci-dessous) lors de cette présentation.

Le projet TECTONIQ étudie les dispositifs numériques mis en place par les différents acteurs impliqués pour gérer, diffuser et échanger les informations relatives au Patrimoine Industriel Textile (PIT) sur le territoire du Nord – Pas-de-Calais. Dans les travaux présentés, nous définissons tout d’abord notre domaine d’étude, à savoir le patrimoine numérique lié à l’industrie textile, en nous appuyant notamment sur les définitions de l’UNESCO et du comité TICCIH (UNESCO, 2008 ; TICCIH, 2003). Nous proposons ensuite une méthode hybride, c’est-à-dire une approche qualitative combinée à une approche quantitative semi-automatisée, afin de dresser une cartographie des acteurs du patrimoine nous permettant d’identifier les sources existantes de documents numériques hétérogènes. Une cartographie du Web du réseau d’acteurs du patrimoine de l’industrie textile organisé par type (patrimoine patrimonialisé en rouge et patrimoine vivant en bleu) résultante de l'approche est présentée en annexe. L'ensemble des résultats est disponible sur le site suivant : http://ekergosien.net/Tectoniq. L’objectif du projet à terme étant de construire une base de connaissances qui structure et relie entre elles l’ensemble de ces données en respectant les normes définies pour le Web sémantique, nous justifions notre choix d’utiliser le modèle sémantique CIDOC CRM et nous présentons un extrait d’une première ontologie produite manuellement à partir d’un extrait du jeu de documents collecté.

En gestion des connaissances
(GC), la construction d’une mémoire d’entreprise (ontologie, base de
connaissances, etc.) passe par une étape de captation de la connaissance détenue
par les personnes en lien avec l’organisation (employé, client ou fournisseur).
La captation est une activité stressante car elle se déroule souvent dans un
contexte organisationnel en déséquilibre, qu’il s’agisse de restructuration ou parfois
de tensions entre employés et l’employeur, etc. Ces situations influencent
nécessairement l’état émotionnel du connaissant freinant l’accès à son savoir. Dès
lors, la captation de la connaissance devient un enjeu qui nécessite de considérer
le connaissant dans son entièreté : intellectuelle et émotionnelle.

Parallèlement au développement du
concept d’ontologie (discours portant sur l’essence des choses), les Grecs
anciens développèrent le concept de maïeutique
(du grec maieutikê) qui, selon
Platon, est l’art qu’utilise Socrate pour faire accoucher de son interlocuteur,
la connaissance qu’il sait (la connaissance explicite) mais surtout, la
connaissance qu’il ne sait pas qu’il sait (la connaissance tacite). Alors que l’élicitation
place le modèle de connaissances au centre du processus de captation, la
maïeutique, elle, y place le connaissant, permettant ainsi d’en considérer
l’état émotionnel.

L’exposé permettra de définir les
composants procéduraux, les acteurs et les instruments de la maïeutique
appliquée à la GC. La définition sera appuyée une étude de cas.

Les nouvelles technologies sont une avenue prometteuse pour le maintien à domicile des personnes avec des troubles cognitifs. Au laboratoire DOMUS, plusieurs outils d’assistance ont été développés pour faciliter la prise de rendez-vous, le téléphone à des proches et l’assistance pas à pas d’activités. Ces outils sont adaptés suivant la clientèle. Les prototypes sont conçus selon une approche centrée utilisateur avec une conception itérative et des études d’utilisabilité fréquentes. Ajoutés aux résultats de ces études, les chercheurs cliniciens évaluent l’impact de l’utilisation de ces outils sur l’autonomie. Il devient donc indispensable de concevoir un environnement d’administration des données de recherche.

But: Concevoir un environnement pour la conception, l’utilisation et l’évaluation de l’utilisation des outils d’assistance.

Méthodologie : L’environnement de recherche sera bâti à partir des RCP. Pour chaque outil, il contiendra ses interfaces et les sujets l’ayant testé. Ceux-ci sont décrits par leurs préférences, la fréquence d’utilisation et les erreurs commises (physiques: appui à côté du bouton ou cognitives: aller-retour avant d’atteindre l’objectif).

Résultat : Une application a été implantée pour décrire les clients : les données personnelles anonymisées ou non et leurs traces d’utilisation.

Retombée: cet environnement intégrera d'autres outils d’assistance et permettra aux cliniciens d’analyser l'utilisation de toutes les technologies fournies.

La minimisation du temps de transfert des données, entre la mémoire et les blocs de calcul dans les algorithmes de traitement des images, reste un problème major pour assurer un temps réel, surtout avec des algorithmes qui utilisent de plus en plus des données parallèles. Le choix du système de communication dépend des composants constituant le système et surtout du processeur utilisé. Ce choix va influer considérablement sur les caractéristiques du système global. Dans ce papier, nous présentons les résultats de synthèse d’un système sur puce à base de processeur MicroBlaze de Xilinx avec un accélérateur matériel pour le traitement vidéo adapté à l’aide d’une interface spéciale. Ces résultats montrent que le système de communication utilise 2,15% des slices registres, 2,56% des LUTs et 4,68% des BRAMs en utilisant le circuit FPGA Vitrex5 LX110T de Xilinx.Nous avons montré l’importance du choix du système de communication dans un système sur puce ainsi que le taux d’utilisation de ce système sur un circuit FPGA. Les résultats de synthèse montrent que les différents taux sont importants surtout avec l’utilisation des adaptateurs de bus pour les accélérateurs matériels. Nous avons ainsi montré les résultats de synthèse du bus CoreConnect dans un système à base de processeur MicroBlaze de Xilinx. Nous avons aussi ajouté au système un accélérateur de traitement de vidéo à l’aide d’une interface PLB-IPIF à base de FIFOs.

Les projets de recherche impliquant l’annotation de documents textuels électroniques présentent un défi de taille pour les équipes académiques dès que plusieurs participants sont impliqués. Ils exigent des protocoles rigoureux pour l’annotation, une sécurité adaptée aux données traitées ainsi que des méthodes de saisie, de comparaison et d'agrégation des annotations qui dépassent rapidement les connaissances informatiques des gestionnaires de projet. Le constat est que les outils existants sont restrictifs à ces égards, tant sur les aspects économique, technologique, linguistique que pour leur accessibilité. Ceci a motivé la création de la plateforme PACTE, une plateforme bilingue qui facilite ce type de projet multi-utilisateur d’annotation textuelle.

Cette plateforme, développée en tant que logiciel libre, offre la possibilité aux membres d’un projet de collaborer sur les tâches d’annotation d’un corpus textuel. Elle permet au gestionnaire de définir le protocole d’annotation, les participants, les schémas d’annotation et de distribuer, manuellement ou aléatoirement, des sous-ensembles d’un corpus de grande taille aux participants. Ces annotations peuvent viser un corpus, un document ou la surface continue ou disjointe d’un document. Le module de création de schémas personnalisés offre une grande flexibilité quant aux informations à saisir pour chaque type d’annotation. Des services d’annotations automatiques bilingues peuvent aussi être appliqués pour enrichir les corpus.

L’implantation des systèmes intelligence d’affaires (BI) occupe un intérêt important auprès des chefs d’entreprises qui possèdent une culture analytique des données. Cela leur permettra de prendre les meilleures décisions en temps opportun et de gagner un avantage concurrentiel majeur dans le marché. Bien que dans la littérature SI souvent les études de cas sont réalisées soit dans un contexte nord-américain ou européen, mais rares dans un contexte africain et plus particulièrement algérien. Le BI en Algérie, c’est un terme qui existe depuis au moins une dizaine d’années, mais négligé par plusieurs entreprises. En effet, l’Algérie éprouve plusieurs difficultés en matière de l’intelligence d’affaires telles que l’accès aux sources de données, manque de la culture de partage d’information, etc. Dans notre recherche, nous présenterons des résultats préliminaires visant à comprendre les barrières et les facilitateurs d’implantation des systèmes BI dans le contexte algérien. Cela a pour but de comprendre les réalités qui existent dans ce contexte. Pour répondre à notre questionnement, nous allons nous baser sur une méthodologie qualitative de type «étude de cas» et nous recueillerons nos données à travers des entrevues semi-dirigées. Nous croyons que notre recherche pourrait apporter une contribution pertinente. Cela aidera les entreprises qui voudraient, à l’avenir, implanter des systèmes BI à comprendre la réalité de BI dans le contexte nord-africain et particulièrement algérien

Les troubles musculo-squelettiques (TMS) sont des lésions (douleur chronique, faiblesse musculaire, etc.) résultants de la surutilisation des tissus anatomiques, en particulier sur les postes où des travailleurs effectuent des mouvements manuels répétitifs, dans un environnement multitâche. Une proportion importante d’arrêts de travail est due à l’incapacité physique des travailleurs affectés d’un TMS. Pour ce faire, nous proposons un modèle d’interactivité humain-robot (une troisième main robotique autonome) pour favoriser la réintégration des opérateurs en absence prolongée au travail pour TMS à leur poste. Le but du modèle d’interaction robotique est l’assistance des travailleurs via le partage des tâches dans l’ordonnancement des activités de production. Bien que l’interaction robotique ait été largement étudiée, sa mise en œuvre dans l’ordonnancement reste assez complexe lors de la conceptualisation du partage des tâches et de l’efficacité du travail d’équipe. Les objectifs du modèle proposé sont orientés vers l’inclusion de la détection des activités humaines et du positionnement du corps humain dans la commande intelligente du robot. Ainsi, un algorithme de classification fiable et robuste sera mis en œuvre à l’intérieur des capteurs intelligents insérés dans des vêtements de protection individuels du travailleur, pour identifier ses actions et ses comportements anormaux. Par conséquent, le robot intervient en fonction de l’état de l’opérateur en évitant sa collision.

Pour intégrer les données probantes à leur pratique, les professionnels de la santé doivent formuler précisément leur question clinique, consulter la littérature scientifique médicale à ce sujet, évaluer la qualité et la pertinence des données trouvées avant d’intégrer leurs nouvelles connaissances à leur pratique. Afin d’améliorer la recherche des données probantes, nous nous intéressons à la prédiction de la pertinence d’un article par rapport à une question clinique, en prenant compte du type d’étude qu’il décrit et du type de la question posée. Nous nous intéressons plus particulièrement aux questions formulées à l’aide du cadre PICO, un cadre de formulation de question d’avant-plan qui permet de trouver une réponse précise à des questions cliniques. Pour prédire si un article est pertinent, nous identifions d’abord des concepts UMLS d’intérêt dans les articles et dans les questions en utilisant diverses techniques du traitement du langage naturel par des outils tels que cTAKES. Pour évaluer nos résultats, nous utilisons le corpus CLIREC. Notre prototype permet de détecter la présence de concepts présents à la fois dans les questions et les articles. Nous travaillons à améliorer notre approche en intégrant le concept de distance sémantique et en intégrant des algorithmes d’apprentissage automatique pour prédire la pertinence de l’article. L’aspect novateur de nos travaux est l’utilisation du type des questions et articles en plus des éléments PICO de la question.