Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

En raison de l’évolution technologique des caméras, une énorme quantité de données vidéos peuvent être enregistrées. L'analyse de cette énorme quantité des vidéos dépasse la capacité humaine, il est donc nécessaire de disposer de systèmes intelligents permettant d’analyser leur contenu.

La segmentation de vidéos est l'un des sujets de recherche d'actualité en vision par ordinateur.  Dans le cadre de notre projet, l'objectif est d’analyser et segmenter des vidéos recueillies par des caméras portées par des animaux (des caribous et des ours) afin d'extraire des informations liées à leur environnement. La segmentation est cruciale puisque les vidéos sont susceptibles d’être de mauvaise qualité à cause du mouvement des animaux.  Pour cela, une tache de stabilisation est nécessaire afin d’aboutir à une segmentation satisfaisante. 

Dans cette communication, nous présentons l’étape de prétraitement ainsi que la méthode de segmentation proposée. La phase de prétraitement consiste: 1) à filtrer les données brutes; 2) à stabiliser les vidéos et 3) à étudier la pertinence pour la segmentation. La méthode de segmentation est basée sur deux phases. La phase offline qui permet d’entrainer un réseau pour la détection d’objets, puis de segmenter les vidéos en utilisant les résultats de détection obtenus. La phase online consiste à améliorer la segmentation et segmenter les vidéos de l’ensemble de test. les expérimentations qui ont été faites ainsi que les résultats obtenus seront présentés.

Fouiller manuellement la littérature biomédicale est une tâche incontournable pour analyser les études publiées sur un sujet donné. Les experts réalisant cette tâche doivent identifier, au sein de corpora très volumineux, les rares documents pertinents traitant d'une question de recherche précise. Pour aider les chercheurs dans cette tâche exigeante et chronophage, nous proposons une approche automatique basée sur des méthodes d'apprentissage supervisé. Le très faible nombre de documents pertinents présents dans les corpora de référence, ainsi que la spécificité de ces documents, constituent les principales difficultés associées à ce triage automatique. Notre système identifie automatiquement les documents pertinents parmi une liste extraite de PubMed, la base de données de référence pour la littérature biomédicale. En utilisant des méthodes d'échantillonnage de données et de sélection de caractéristiques, nous avons évalué plus de 100 modèles de classification automatique. Les meilleurs performances ont été obtenues par un classifieur à base d'arbres de décision entraîné sur un corpus équilibré. Nos résultats indiquent que le système identifie la plupart des documents pertinents. Très utile aux chercheurs pour trier rapidement un grand nombre de documents, notre approche est également très flexible et peut être aisément adaptée à d'autres thèmes d'étude. Pour faciliter son utilisation, notre système est un logiciel libre disponible sous licence MIT.


Les universités canadiennes forment plus de 1,5 million d’étudiants dont environ 8% proviennent des seize universités du Canada atlantique. Selon l’Association des Universités et Collèges du Canada (AUCC), les retombées économiques de l’activité de ce secteur sont considérables et se chiffrent à  30 milliards de dollars par année pour le Canada. Or, l’Association des Universités de l’Atlantique (AAU) a révélé une diminution des inscriptions étudiantes dans la plupart des universités de l’atlantique Canadien, et ce durant les deux dernières années. Ceci pourrait menacer le fonctionnement de certaines d’entre elles.Ce constat nous a amené à rechercher les causes d’une telle diminution en prenant comme exemple l’Université de Moncton. Même si les causes de la diminution sont multiples, nous nous sommes intéressés uniquement à celles reliées à l’utilisation des technologies de l’information dans les compagnes de recrutement étudiant. Ainsi, nous avons d’abord analysé l’existant en observant les moyens disponibles utilisés par l’Université de Moncton pour l’approche et le suivi des élèves dans les écoles secondaires de la province du Nouveau-Brunswick. Ce qui a permis de noter des insuffisances et des corrections susceptibles d’être apportées. Ensuite, nous avons mis en place un système intégré pour la gestion et le suivi des futures étudiantes et étudiants de l’Université. Le système est un ensemble d’outils dotés d’une banque de données et d’une capacité d’aide à la décision.

Cette affiche présente la méthode et les techniques propres au web sémantique, utilisées dans le cadre du projet Bio2RDF pour créer une base de données intégrée sur les bases de données publiques du domaine de la bioinformatique.

Comment transformer des données existantes en RDF ? Comment les publier à l'aide d'un point d'accès SPARQL ?  Comment consommer des données RDF disponible sur le web ? Trois questions fondamentales auxquelles on offre comme réponse les fruits de notre expérience dans le cadre du projet Bio2RDF.

Référence: http://bio2rdf.org

L'affiche sera une version française et améliorée du poster

http://fr.slideshare.net/fbelleau/producing-publishing-and-consuming-li…

Ce projet de recherche propose une approche novatrice pour l'estimation de la direction d'arrivée (DoA) en utilisant une seule antenne se déplaçant le long d'une trajectoire curviligne pour créer un réseau d'antennes virtuelles (VAA). Contrairement aux méthodes traditionnelles comme l'algorithme MUSIC, qui repose généralement sur des réseaux d'antennes fixes, notre technique exploite le mouvement de l'antenne pour simuler l'effet d’un réseau multiélément. Cela permet une estimation précise de la DoA dans des scénarios où le déploiement de grands réseaux d'antennes est peu pratique. Les simulations valident la performance de cette méthode dans des mouvements uniformes et curvilignes, démontrant sa robustesse et son exactitude. Cette approche réduit considérablement les besoins en matériel tout en maintenant une grande précision, ce qui la rend adaptée à des environnements dynamiques et contraints en ressources.

Récemment, l’OMS déclarait que 31% des adultes étaient aux prises avec un manque d’activité physique et que plus de 1,9 milliard d’adultes étaient en surpoids. Ces statistiques alarmantes ont poussé certaines entreprises à développer de nouvelles technologies, telles que les bracelets intelligents, dans le but de répondre à ce problème. Aujourd’hui, quelques études ont couvert l’utilisation de ces produits d’un point de vue technique, mais aucune ne s’est penchée sur les comportements inhérents à leur consommation. Ainsi, notre étude vise à développer une classification des consommateurs de bracelets intelligents, dans un contexte d’entrainement physique, en se basant sur la théorie unifiée de l’acceptation et l’utilisation des technologies améliorée. Pour ce faire, une étude qualitative exploratoire a permis, en premier lieu, d’élaborer un cadre conceptuel basé sur  la performance espérée, l’influence sociale, la motivation hédonique, le prix, les habitudes, la qualité perçue des données recueillies par le bracelet, l’intention comportementale et l’utilisation réelle des bracelets intelligents. En second lieu, un sondage a été administré auprès de 200 utilisateurs ciblés pour permettre une analyse de classification combinée. Les résultats n’ont pas encore été analysés, mais ils permettront de classifier et dresser un portrait précis des consommateurs des bracelets intelligents. Une contribution notable tant au niveau scientifique qu’au niveau managérial.

L’interactivité robotique permet d’assister l’humain à des tâches dangereuses et d’éviter les postures inadéquates pouvant mener à des troubles musculo-squelettiques. En particulier, un modèle de l’interaction favorise une réduction des efforts physiques et permet un partage des tâches dans l’ordonnancement des activités de production et de fabrication. Cette interaction doit cependant s’activer lorsque cela est nécessaire, spécifiquement lorsque le robot détecte un comportement anormal de l’opérateur par une analyse de la performance des actions. La mesure de cette performance est réalisée à l’aide de vêtements de protection individuel intelligents.

L’une des applications envisagées dans ce domaine est l’augmentation de l’environnement réel par une aide virtuelle des opérateurs via un retour haptique (kinesthésique et vibrotactile) et visuel.

Cette technique permettra de visualiser des objets virtuels 3D dans un environnement réel (réalité augmentée) de manière à apporter une aide assistée immédiate à un opérateur de même qu’à déterminer la trajectoire des mains et de la tête.

Le retour haptique sera réalisé avec un guide virtuel tout en faisant l’étude de la stabilité du guide à l’aide d’un modèle dynamique « bras-robot-guide ». Ce projet de recherche permettra d’introduire les robots collaboratifs naturellement dans un environnement de production industrielle de l’industrie 4.0.

Depuis le début des années 2000, le monde sportif a pris conscience des conséquences importantes du traumatisme crânio-cérébral léger (TCCL). L’étude du TCCL a principalement ciblé les sports de contact comme le football et le hockey. Par contre, les sports considérés sans contact, comme le soccer, ne sont pas épargnés. Par exemple, au Canada, entre 2012 et 2014, le nombre de TCCL rapporté chez les joueuses de 10 à 19 ans au soccer a été supérieur à la somme des TCCL au hockey et au rugby. C’est pourquoi l’objectif de ce projet de recherche était d’évaluer le risque de TCCL au soccer. Huit joueurs et seize joueuses de soccer ont porté un bandeau instrumenté mesurant les accélérations de la tête lors de matchs de compétition. Ces accélérations ont été confrontées à un critère de blessure permettant d’identifier le risque de TCCL causé par chacune des accélérations. Le nombre total d’accélérations mesurées a été de 239 chez les joueurs et de 294 chez les joueuses. Les accélérations moyennes mesurées chez les joueurs ont été de 25,9g (maximum 82,9g) et de 2 815 rad/s2 (maximum 15 000 rad/s2), et ont été de 28,9g (maximum 67,3g) et de 3 072 rad/s2 (maximum 12 900 rad/s2) chez les joueuses. Un total de 44 (8,3 %) accélérations de la tête a dépassé le risque de 50 % de subir un TCCL. Parmi ces 44 accélérations, 36 ont été causées par des techniques de tête et 8 par des impacts involontaires. Alors, les techniques de tête devraient-elles être considérées sécuritaires?

Les autorités de réglementation aérienne exigent de minimiser l’encombrement visuel des écrans de la cabine de pilotage car il s’agit d’un facteur connu de dégradation de la performance du pilote. Les recherches antérieures identifient deux facteurs contribuant à l’encombrement visuel soit (1) la quantité et la densité d’information à l’écran et (2) la pertinence de l’information pour la tâche. Il semble toutefois difficile d’évaluer le degré d’encombrement visuel d’écrans complexes comme ceux de la cabine de pilotage et d’identifier les éléments d’affichage y contribuant le plus.

Dans ce travail, nous identifions à partir d’une revue de la littérature six méthodes d’évaluation de l’encombrement visuel d’un écran et nous montrons comment elles ont été utilisées en aviation. La comparaison des méthodes montre que celles impliquant des participants (méthodes subjectives) permettent d’évaluer l’encombrement lié à la pertinence de l’information et de distinguer les éléments d’affichage contribuant à l’encombrement (ex. couleur, densité, saillance,...). Les méthodes informatiques ne peuvent évaluer que l’encombrement lié à la quantité d’information. À l’issue de ce travail, nous recommandons une série de méthodes pertinentes pour l’évaluation de l’encombrement des écrans en aéronautique et suggérons des pistes de recherche pour le développement de nouvelles méthodes.

Les modélisateurs rencontrent différents types d'incertitude dans leurs conceptions et modèles de systèmes logiciels. L'un de ces types concerne l'incertitude sur la manière de construire un modèle. C'est ce qu'on appelle '' l'incertitude au moment de la conception '', et les recherches existantes ont étudié comment les modélisateurs peuvent travailler en sa présence. Cependant, le processus par lequel ils en viennent à articuler et à exprimer leurs incertitudes reste flou.

Dans cet article, nous prenons des mesures pour combler cette lacune en introduisant DRUIDE (Design and Requirements Uncertainty Integrated Development Environment), un langage et un flux de travail pour articuler l'incertitude au moment de la conception. Nous présentons et illustrons notre proposition sur un exemple de conception de logiciel. De plus, nous menons une étude de cas réelle d'analyse de domaine liée à l'incertitude causée par la pandémie de COVID-19, et évaluons DRUIDE avec elle. Notre évaluation montre que DRUIDE est suffisamment expressif pour articuler l'incertitude du moment de la conception.

Le projet TECTONIQ étudie les dispositifs numériques mis en place par les différents acteurs impliqués pour gérer, diffuser et échanger les informations relatives au Patrimoine Industriel Textile (PIT) sur le territoire du Nord – Pas-de-Calais. Dans les travaux présentés, nous définissons tout d’abord notre domaine d’étude, à savoir le patrimoine numérique lié à l’industrie textile, en nous appuyant notamment sur les définitions de l’UNESCO et du comité TICCIH (UNESCO, 2008 ; TICCIH, 2003). Nous proposons ensuite une méthode hybride, c’est-à-dire une approche qualitative combinée à une approche quantitative semi-automatisée, afin de dresser une cartographie des acteurs du patrimoine nous permettant d’identifier les sources existantes de documents numériques hétérogènes. Une cartographie du Web du réseau d’acteurs du patrimoine de l’industrie textile organisé par type (patrimoine patrimonialisé en rouge et patrimoine vivant en bleu) résultante de l'approche est présentée en annexe. L'ensemble des résultats est disponible sur le site suivant : http://ekergosien.net/Tectoniq. L’objectif du projet à terme étant de construire une base de connaissances qui structure et relie entre elles l’ensemble de ces données en respectant les normes définies pour le Web sémantique, nous justifions notre choix d’utiliser le modèle sémantique CIDOC CRM et nous présentons un extrait d’une première ontologie produite manuellement à partir d’un extrait du jeu de documents collecté.

En gestion des connaissances
(GC), la construction d’une mémoire d’entreprise (ontologie, base de
connaissances, etc.) passe par une étape de captation de la connaissance détenue
par les personnes en lien avec l’organisation (employé, client ou fournisseur).
La captation est une activité stressante car elle se déroule souvent dans un
contexte organisationnel en déséquilibre, qu’il s’agisse de restructuration ou parfois
de tensions entre employés et l’employeur, etc. Ces situations influencent
nécessairement l’état émotionnel du connaissant freinant l’accès à son savoir. Dès
lors, la captation de la connaissance devient un enjeu qui nécessite de considérer
le connaissant dans son entièreté : intellectuelle et émotionnelle.

Parallèlement au développement du
concept d’ontologie (discours portant sur l’essence des choses), les Grecs
anciens développèrent le concept de maïeutique
(du grec maieutikê) qui, selon
Platon, est l’art qu’utilise Socrate pour faire accoucher de son interlocuteur,
la connaissance qu’il sait (la connaissance explicite) mais surtout, la
connaissance qu’il ne sait pas qu’il sait (la connaissance tacite). Alors que l’élicitation
place le modèle de connaissances au centre du processus de captation, la
maïeutique, elle, y place le connaissant, permettant ainsi d’en considérer
l’état émotionnel.

L’exposé permettra de définir les
composants procéduraux, les acteurs et les instruments de la maïeutique
appliquée à la GC. La définition sera appuyée une étude de cas.

Les nouvelles technologies sont une avenue prometteuse pour le maintien à domicile des personnes avec des troubles cognitifs. Au laboratoire DOMUS, plusieurs outils d’assistance ont été développés pour faciliter la prise de rendez-vous, le téléphone à des proches et l’assistance pas à pas d’activités. Ces outils sont adaptés suivant la clientèle. Les prototypes sont conçus selon une approche centrée utilisateur avec une conception itérative et des études d’utilisabilité fréquentes. Ajoutés aux résultats de ces études, les chercheurs cliniciens évaluent l’impact de l’utilisation de ces outils sur l’autonomie. Il devient donc indispensable de concevoir un environnement d’administration des données de recherche.

But: Concevoir un environnement pour la conception, l’utilisation et l’évaluation de l’utilisation des outils d’assistance.

Méthodologie : L’environnement de recherche sera bâti à partir des RCP. Pour chaque outil, il contiendra ses interfaces et les sujets l’ayant testé. Ceux-ci sont décrits par leurs préférences, la fréquence d’utilisation et les erreurs commises (physiques: appui à côté du bouton ou cognitives: aller-retour avant d’atteindre l’objectif).

Résultat : Une application a été implantée pour décrire les clients : les données personnelles anonymisées ou non et leurs traces d’utilisation.

Retombée: cet environnement intégrera d'autres outils d’assistance et permettra aux cliniciens d’analyser l'utilisation de toutes les technologies fournies.

La minimisation du temps de transfert des données, entre la mémoire et les blocs de calcul dans les algorithmes de traitement des images, reste un problème major pour assurer un temps réel, surtout avec des algorithmes qui utilisent de plus en plus des données parallèles. Le choix du système de communication dépend des composants constituant le système et surtout du processeur utilisé. Ce choix va influer considérablement sur les caractéristiques du système global. Dans ce papier, nous présentons les résultats de synthèse d’un système sur puce à base de processeur MicroBlaze de Xilinx avec un accélérateur matériel pour le traitement vidéo adapté à l’aide d’une interface spéciale. Ces résultats montrent que le système de communication utilise 2,15% des slices registres, 2,56% des LUTs et 4,68% des BRAMs en utilisant le circuit FPGA Vitrex5 LX110T de Xilinx.Nous avons montré l’importance du choix du système de communication dans un système sur puce ainsi que le taux d’utilisation de ce système sur un circuit FPGA. Les résultats de synthèse montrent que les différents taux sont importants surtout avec l’utilisation des adaptateurs de bus pour les accélérateurs matériels. Nous avons ainsi montré les résultats de synthèse du bus CoreConnect dans un système à base de processeur MicroBlaze de Xilinx. Nous avons aussi ajouté au système un accélérateur de traitement de vidéo à l’aide d’une interface PLB-IPIF à base de FIFOs.

La robotique constitue certainement le défi le plus extraordinaire que devra relever le monde scientifique dans les vingt prochaines années. La notion de « robot » comprend une multitude de catégories allant des humanoïdes aux drones en passant par ce qu’on surnomme également les bioniques. Mais surtout, la robotique comprend l’étude et l’utilisation de l’intelligence artificielle. Cela induit la construction de machines capables de s’adapter à leur environnement tout en montrant de réelles capacités d’auto-apprentissage. Autrefois considéré comme une chimère, l’hypothèse de robots policiers ou à l’inverse de robots-tueurs prend de plus en plus d’épaisseur. En effet, malgré la fiabilité de certains algorithmes ainsi que la vigilance des programmeurs, le contrôle de certains robots dotés d’intelligence artificielle pourrait devenir plus aléatoire. Eu égard à l’ensemble de ces considérations, plusieurs questions méritent donc d’être posées. Tout d’abord, ces robots peuvent-ils constituer de véritables instruments préventifs et dissuasifs permettant de lutter contre la criminalité ? Ensuite, comment devrait-on réagir sur le terrain de la responsabilité pénale, face à des robots qui seraient auteurs de crimes ?

L’ensemble de ces interrogations nous pousse à nous inscrire dans une forme d’analyse prospective où nous étudierons l’impact que pourrait avoir l’utilisation de robots dotés d’intelligence artificielle sur la prévention du crime ainsi que sur la responsabilité pénale.

 

La notion de service a évolué et s’est adaptée en prenant une place très importante dans une économie en pleine mutation. Le service est désormais enchâssé dans un système à trois dimensions : le support physique, la formalisation de l’expérience et les valeurs sous-jacentes. Le design, autrefois majoritairement axé sur les objets, tente d’appréhender le service en tant qu’agent intégrateur de l’expérience utilisateur. Or, les méthodes qui fonctionnent pour concevoir l'objet ne sont pas tout à fait adaptées pour un service de nature intangible, ayant une logique temporelle et s’étendant dans de multiples espaces. Le designer doit d’abord comprendre les mécanismes fondamentaux du service pour pouvoir l’appréhender et, pour ce faire, un processus de cartographie et de représentation de son écosystème s’avère nécessaire.

Au cours de cette présentation, nous exposerons la notion du service et les enjeux complexes qui entourent le concept d’écosystème de service. Ensuite, nous analyserons comment la cartographie de cet écosystème est essentielle à la compréhension de tous ses agents et de ses mécanismes intangibles. Finalement, nous discuterons de l’importance d’une représentation complète de l’écosystème de service pour construire un langage commun essentiel à la coordination des multiples acteurs qui interviennent dans la conception et la mise en œuvre du service centré sur l’humain et son contexte.

L’imagerie avec les fréquences térahertz (0.1 – 10 THz, longueurs d’onde de 3 mm – 30 µm) a reçu une attention considérable au cours des dernières années, en raison de la capacité de ces ondes électromagnétiques de pénétrer en profondeur plusieurs matériaux diélectriques autrement opaques dans le visible (tissus, papiers, cartons, polymères etc.). Cependant, le principal problème rencontré aujourd’hui en imagerie THz est le temps d’acquisition. Contrairement aux autres régions du spectre, il n’existe pas encore de caméra THz suffisamment sensible. Les détecteurs les plus sensibles qui existent sont à pixel unique. Ainsi, pour obtenir une image, il faut manuellement déplacer l’échantillon point par point. Ce processus, en plus de prendre beaucoup de temps, ne s’applique pas à tous les types d’échantillons. Dans ce projet, nous avons développé une méthode unique de reconstruction d’images qui utilise l’information spectrale d’une impulsion THz pour reconstruire une image avec un nombre très limité de mesures spatiales. L’idée principale est d’utiliser la relation linéaire entre la fréquence spatiale et la fréquence spectrale pour substituer la dimension spatiale en une dimension spectrale. Nous avons développé des algorithmes de reconstruction pour les cas importants de masques d’amplitude et de phase. Nous avons ensuite expérimentalement démontré avec succès la reconstruction d’images de 4500 pixels avec seulement 45 mesures spatiales (1%).

L'activité pédagogique Logique et mathématiques discrètes est souvent perçue comme un mal nécessaire par la majorité de la clientèle étudiante en informatique, malgré l'importance fondamentale des théories étudiées. La méthode d'apprentissage employée pour cette matière est en général peu adaptée à une population étudiante qui provient du secteur technique des cégeps, comme c'est le cas pour une partie significative de celle admise au Département d'informatique. Un projet pédagogique de l'Université de Sherbrooke propose l'utilisation de l'outil Alloy, un outil basé sur des méthodes de satisfaction de contraintes booléennes (SAT), parallèlement à la présentation des sujets en classe. Alloy est conçu de manière à pouvoir décrire simplement des modèles abstraits (une théorie est spécifiée d'une manière déclarative) et de générer des contre-exemples suite à une assertion non satisfaite. Ainsi, les étudiants peuvent formuler en logique des prédicats des propriétés, comme la symétrie et la transitivité, et les vérifier à partir de relations données, de façon à obtenir instantanément une réaction sous une forme textuelle ou graphique. Pour chaque thème du cours, une bibliothèque décrivant une théorie a été développée. Celle-ci s'accompagne d'une manière de faire afin de guider l'étudiant dans des exercices et de lui donner une rétro-action directe sur ses résultats. Nous nous proposons de présenter l'outil, les bibliothèques et les problèmes techniques liés à une telle activité.

Le développement d’un modèle pharmacophore se fait généralement à partir d’un ensemble de composés biologiquement actifs pour une cible pharmaceutique donnée. Cette hypothèse pharmacophore doit ensuite être optimisée et validée par la qualité et la quantité de nouvelles molécules biologiquement actives trouvées à partir de recherches dans des banques de données de molécules ayant des propriétés pharmaceutiques. En 1998, Güner & Henry ont publié un chapitre de livre sur une nouvelle formule pour optimiser les hypothèses pharmacophores : le GH score. Cette dernière a été utilisée depuis plusieurs années pour évaluer la qualité de ces recherches dans les banques de données. Toutefois cette formule présente certaines limites, car elle ne prend pas en considération les composées inactifs connus. Dans cette présentation, nous proposons donc une formule optimisée : le score AE. Pour ce faire, nous avons ajouté un nouveau facteur qui permet d’évaluer la proportion de composés inactifs connus. Nous avons ensuite appliqué des coefficients à chaque facteur de cette formule soit le rendement, le pourcentage d’actifs et le pourcentage d’inactifs. Les meilleures listes de composés sont trouvées par l’optimisation de ces trois facteurs. Ces coefficients ont été testés sur les résultats de différentes recherches puisés dans la littérature. Nous aurons l’occasion de justifier les paramètres de cette nouvelle formule (ci-dessous) lors de cette présentation.

Le design comme domaine de recherche attire dans son sillage des projets de nature fort variée dont la recherche-intervention (RI) est l'une des formes de plus en plus courantes. Au-delà des caractéristiques particulières de ce mode d'investigation d'un point de vue méthodologique, la RI suppose un encadrement particulier des assistants de recherche recrutés parmi les bassins d'étudiants en design. Dans cette présentation, nous considérons la recherche notamment comme une activité intégrée de formation des étudiants qui y participent. Dans le contexte particulier du design, cette situation constitue un défi de taille pour les responsables de la recherche dans la mesure où ils doivent exercer une triple supervision. D’abord, ils doivent veiller à la bonne exécution des outils et méthodes propres au protocole de recherche inhérent à la RI. L’étudiant est alors installé dans un processus de formation à la recherche. Ensuite, ils doivent les superviser en tant que designers (quelle que soit la spécialité convoquée) de manière à ce que les livrables au cœur de la RI soit conçus et produits au moins en partie à la satisfaction du commanditaire de la recherche. Enfin, les responsables doivent superviser le déroulement de la recherche entre les diverses équipes et dans le respect des échéanciers et des diverses contraintes logistiques.​

Ce projet de recherche concerne l’exploitation de  wikipédia comme étant une ressource semi-structurée de connaissances linguistiques et en particulier comme étant un corpus comparable, pour l'extraction de terminologie bilingue.

L'approche tend à extraire d’abord des paires de terme et traduction à partir de types des informations, liens et textes de Wikipédia. Une deuxième approche basée sur l’information linguistique, afin de ré-ordonner les termes et leurs traductions pertinentes et ainsi éliminer les termes cibles inutiles, est utilisée.

Les évaluations préliminaires utilisant les paires de langues français-anglais, japonais-français et japonais-anglais ont montré une bonne qualité des paires de termes extraits. Cette étude est très favorable pour la construction et l’enrichissement des ressources linguistiques tels que les dictionnaires et ontologies multilingues. Aussi, elle est très utile pour un système de recherche d’information translinguistique (RIT) ainsi que pour améliorer la qualité d'un traducteur automatique statistique.

Valider une nouvelle approche dans le domaine du génie logiciel est toujours considérée comme une activité pernicieuse pour n’importe quel chercheur œuvrant dans ce domaine. Dans cette communication nous visons à mettre en lumière les défis rencontrés, en tant que chercheur, lors de la validation de l’approche et l’outil BScrum.
BScrum est une nouvelle approche de gestion des exigences logicielles basée sur les buts d’affaires dans un contexte de gestion de projets agiles. Elle vise à améliorer la perspective d’affaires dans les projets agiles basés sur Scrum. Pour valider BScrum, un protocole d’étude de cas a été élaboré et appliqué dans des projets réels en entreprise. Dans cette communication, nous allons d’abord présenter Scrum, le cadre de travail agile et l’approche BScrum qui vise à l’améliorer. Ensuite, les étapes menées pour l’élaboration du protocole de validation et la conception du questionnaire seront présentés. Puis, nous présenterons  les défis rencontrés et les limites de l’approche de validation utilisée lors de la conduite des études de cas en entreprise. Finalement, les résultats de la conduite des études de cas et les leçons apprises seront exposés à l’audience.

Contexte

Inscrire des activités dans un calendrier n’assure pas que celles-ci seront réalisées. Le laboratoire DOMUS a conçu un calendrier intelligent, AMELIS, qui offre le rappel automatique des activités inscrites sans savoir si celles-ci sont accomplies. La prochaine étape est donc de connecter AMELIS à un habitat intelligent pour suivre les activités inscrites et s’assurer de leur réalisation.

Méthodologie

Il faut sélectionner un algorithme de reconnaissance d’activités parmi différents algorithmes de data mining fonctionnant avec apprentissage. La sélection est basée sur leur efficacité en fonction du nombre de capteurs dans l'appartement et des activités à reconnaître. Des tests effectués sur un jeu de données provenant de capteurs du laboratoire nous ont permis de sélectionner trois algorithmes : le premier est un algorithme de simple association entre les capteurs de l’appartement et une activité, le deuxième est un algorithme basé sur les réseaux bayésiens, et enfin le dernier est un algorithme de clustering basé sur les mixtures de gaussiennes.

Ils sont utilisés par un programme qui communique avec AMELIS pour savoir quelles sont les activités à reconnaître sur une plage horaire précise.

Résultats

Le dernier algorithme est le plus efficace, mais ne fonctionne qu’avec un nombre restreint de capteurs. Le deuxième algorithme est moins efficace mais offre une reconnaissance plus fine car il utilise tous les capteurs. Enfin, la méthode par simple association a été rejettée.

Les projets de recherche impliquant l’annotation de documents textuels électroniques présentent un défi de taille pour les équipes académiques dès que plusieurs participants sont impliqués. Ils exigent des protocoles rigoureux pour l’annotation, une sécurité adaptée aux données traitées ainsi que des méthodes de saisie, de comparaison et d'agrégation des annotations qui dépassent rapidement les connaissances informatiques des gestionnaires de projet. Le constat est que les outils existants sont restrictifs à ces égards, tant sur les aspects économique, technologique, linguistique que pour leur accessibilité. Ceci a motivé la création de la plateforme PACTE, une plateforme bilingue qui facilite ce type de projet multi-utilisateur d’annotation textuelle.

Cette plateforme, développée en tant que logiciel libre, offre la possibilité aux membres d’un projet de collaborer sur les tâches d’annotation d’un corpus textuel. Elle permet au gestionnaire de définir le protocole d’annotation, les participants, les schémas d’annotation et de distribuer, manuellement ou aléatoirement, des sous-ensembles d’un corpus de grande taille aux participants. Ces annotations peuvent viser un corpus, un document ou la surface continue ou disjointe d’un document. Le module de création de schémas personnalisés offre une grande flexibilité quant aux informations à saisir pour chaque type d’annotation. Des services d’annotations automatiques bilingues peuvent aussi être appliqués pour enrichir les corpus.

L’implantation des systèmes intelligence d’affaires (BI) occupe un intérêt important auprès des chefs d’entreprises qui possèdent une culture analytique des données. Cela leur permettra de prendre les meilleures décisions en temps opportun et de gagner un avantage concurrentiel majeur dans le marché. Bien que dans la littérature SI souvent les études de cas sont réalisées soit dans un contexte nord-américain ou européen, mais rares dans un contexte africain et plus particulièrement algérien. Le BI en Algérie, c’est un terme qui existe depuis au moins une dizaine d’années, mais négligé par plusieurs entreprises. En effet, l’Algérie éprouve plusieurs difficultés en matière de l’intelligence d’affaires telles que l’accès aux sources de données, manque de la culture de partage d’information, etc. Dans notre recherche, nous présenterons des résultats préliminaires visant à comprendre les barrières et les facilitateurs d’implantation des systèmes BI dans le contexte algérien. Cela a pour but de comprendre les réalités qui existent dans ce contexte. Pour répondre à notre questionnement, nous allons nous baser sur une méthodologie qualitative de type «étude de cas» et nous recueillerons nos données à travers des entrevues semi-dirigées. Nous croyons que notre recherche pourrait apporter une contribution pertinente. Cela aidera les entreprises qui voudraient, à l’avenir, implanter des systèmes BI à comprendre la réalité de BI dans le contexte nord-africain et particulièrement algérien