Informations générales
Événement : 88e Congrès de l'Acfas
Type : Colloque
Section : Section 200 - Sciences naturelles, mathématiques et génie
Description :L’apprentissage profond a permis plusieurs avancées dans des domaines historiquement difficiles tels que la classification des images. Cependant, peu de ces progrès ont été intégrés aux produits et aux processus. En effet, la plupart des résultats n’ont pas été appliqués à l’ensemble des problèmes qu’ils peuvent résoudre.
Dans ce colloque, nous nous intéressons à deux secteurs, le génie logiciel et la numérisation des processus industriels, qui sont à première vue très éloignés, mais qui en réalité peuvent être très proches quant à l’expérience de l’application de l’apprentissage profond à leurs problématiques.
Dans le domaine du génie logiciel, selon une analyse des articles publiés, l’apprentissage profond a été exploité pour aider les développeurs dans plusieurs tâches du génie logiciel, telles que la synthèse des programmes ou la prévision des défauts.
L’augmentation de la valeur ajoutée des produits et l’atteinte de l’excellence opérationnelle des processus sont entre autres les effets positifs de l’utilisation de l’apprentissage profond pour la numérisation en industrie. Plusieurs applications illustrent ces effets, comme la maintenance prédictive et la prise de décision en temps réel. Ces applications présentent des opportunités, mais aussi des défis. L’automatisation intelligente des processus par l’intermédiaire de la mécatronique a contribué à l’émergence de l’industrie 4.0.
L’avènement de l’apprentissage profond, les avancées de celui-ci et la démocratisation des outils utilisés dans le domaine ont suscité un grand intérêt, mais n’ont pas donné de résultats convaincants pour le génie logiciel ni pour le développement de solutions pouvant être moins coûteuses, par exemple dans le monde de l’industrie.
Ces dernières années, de grands investissements ont été consentis pour intégrer les progrès de l’apprentissage profond dans de nouveaux produits. Cependant, il est clair que plusieurs secteurs ont été délaissés, car le rendement de l’investissement semble moins prometteur.
Ce colloque, organisé par le Laboratoire de recherche en génie logiciel et en intelligence artificielle (GLIA) de l’UQAR, offrira une occasion exceptionnelle de :
- Discuter des enjeux et des possibilités de l’application de l’intelligence artificielle et plus particulièrement de l’apprentissage profond dans des problématiques du génie logiciel et des systèmes mécatroniques industriels.
- Présenter les résultats de recherche des équipes actives dans les deux domaines.
- Faire le pont entre les chercheurs des deux secteurs et explorer des pistes de collaboration entre eux.
- Faire le pont entre les chercheurs et le monde des affaires pour explorer des possibilités de collaboration.
Nous remercions très chaleureusement l'ACFAS, les universités de Sherbrooke et de Bishop et les organisateurs du congrès de nous avoir offert l’opportunité d'animer ce colloque. Nous remercions également nos conférenciers invités ainsi que participants et présentateurs d'avoir répondu présents.
Date :Format : Uniquement en ligne
Responsables :- Ismail Khriss (UQAR - Université du Québec à Rimouski)
- Jean Brousseau (UQAR - Université du Québec à Rimouski)
- Loubna Benabbou (UQAR - Université du Québec à Rimouski)
- Steven Pigeon (UQAR - Université du Québec à Rimouski)
- Mohamed Aymen Saied (Université Laval)
Programme
Apprentissage profond dans le génie logiciel
-
Communication orale
Comment les données ont tué la recherche en génie logicielHafedh Mili (UQAM - Université du Québec à Montréal)
Dans cette présentation, il sera question du défi—plate mais à mon sens fondamental–que représente la construction de logiciel, à partir d’un ensemble d’exigences. Ce sera une sorte de rétrospective historique partielle et biaisée du conférencier, permettant de: 1) situer ses travaux des 25 – 30 dernières années dans cette perspective, et 2) critiquer certaines “tendances lourdes” de recherche en génie logiciel, dont les patrons de conception et la recherche empirique en génie logiciel.
-
Communication orale
Techniques de détection d'anomalies dans les systèmes informatiques basées sur le traçage et l'apprentissage machineWahab Hamou-Lhadj (Université Concordia)
Récemment, une attention accrue a été accordée aux techniques de détection d'anomalies dans les systèmes informatiques basées sur le traçage des logiciels et l'intelligence artificielle. Ces techniques peuvent contribuer à de nombreuses tâches allant de la prédiction des bogues à la cybersécurité. Dans cette présentation, on commencera par passer en revue les techniques de détection d’anomalies. Par la suite, on présentera les résultats de deux projets de recherche qui portent sur plusieurs aspects de cette problématique, des techniques d’abstraction de données, à la combinaison des méthodes d’apprentissage profond. On parlera des décisions de conception auxquelles on a été confronté et les solutions qu’on a proposées. À la fin de la présentation, nous aborderons les tendances futures et les défis à relever.
-
Communication orale
Vers une approche de découverte des diagrammes de classes UML par l'apprentissage profondIsmaïl Khriss (UQAR), Dany Lamontagne (UQAR), Yves Rigou (UQAR - Université du Québec à Rimouski)
La mise en œuvre d’une solution logicielle pour combler des besoins d’affaires est un processus complexe qui comporte trois grandes étapes, typiquement, une étape de description des besoins dans un cahier des charges, une étape de traduction des besoins en modèle et une étape de production de code. La deuxième étape est une phase critique du processus puisque c’est elle qui permet de passer d’un langage naturel à un langage formel, ce qui autorise ensuite l’automatisation de la troisième étape. Le problème de l’automatisation de cette deuxième étape a déjà été adressé depuis une quinzaine d’années. Les approches reposent sur des principes communs qui impliquent des phases d’analyse lexicale, syntaxique et sémantique puis l’application de règles sur ces résultats préliminaires afin de déceler des sous-structures de modèles UML. Ces études ont généralement recours à des restrictions sur le niveau d’automatisation du processus, sur la complexité des phrases employées, sur le recours à des modules externes, et les résultats obtenus sont encore perfectibles. Nous proposons une nouvelle approche basée sur l’apprentissage profond pour découvrir des modèles formels à partir de cahiers des charges écrits en langage naturel, sans restriction de langage, sans étape préliminaire et sans recours à des modules externes. L’approche s’attache à découvrir les mentions d’intérêts dans le texte et à extraire les relations entre celles-ci afin de produire un modèle UML de manière automatique.
-
Communication orale
Vers une usine de logiciels pour le développement d’applications mobiles pour un tourisme intelligentYouness Balaadich (FST d'Errachidia, UMI), Lamya Benaddi (FST d'Errachidia, UMI), Abdeslam Jakimi (Maroc/Errachidia), Loubna Mamad (Faculté des Sciences et Techniques Errachidia), Lahbib Naimi (Faculté des Sciences et Techniques), Charaf Ouaddi (FST-Errachidia)
Plusieurs pays dans le monde ont développé une stratégie numérique pour accroître la visibilité de la marque de leurs pays dans les réseaux sociaux. Cependant, cette stratégie reste insuffisante puisque les nouvelles attentes des clients demandent de plus en plus l’exploitation de IA dans le secteur du tourisme. En effet, l’IA peut être exploitée par exemple comme outil de recommandation ou comme assistants personnels.
En appliquant le concept d’intelligence pour répondre aux besoins des voyageurs avant, pendant et après leur voyage, les destinations pourraient accroître leur compétitivité. Ceci demande le développement d’applications mobiles offrant des fonctionnalités pour un tourisme intelligent. Le développement de ce genre d’applications mobiles demande un investissement en ressources humaines avec des expertises non seulement en développement logiciel, mais aussi en IA.
Une des solutions possibles pour réduire le coût de cet investissement est la construction d’une usine de logiciels pour le développement de ce genre d'applications.
Dans cette présentation nous allons présenter les enjeux rencontrés dans le développement d’applications mobiles pour un tourisme intelligent. Par la suite nous allons présenter une ébauche de notre vision d’une usine logicielle permettant de réduire l’effort de développement de ce genre d’applications.
-
Communication orale
Vers une approche de découverte des clones de codes par le traitement des graphes de dépendance à l’aide de l'apprentissage profondIsmaïl Khriss (UQAR), Dany Lamontagne (UQAR - Université du Québec à Rimouski), Yves Rigou (UQAR)
L'évolution des systèmes hérités est une des préoccupations majeures du génie logiciel. C’est une activité rendue complexe par les années d’évolution mal documentées des fonctionnalités, la disparition de certaines technologies et de l’expertise qui l’accompagne. Pour remédier à ce problème, l’OMG a proposé l’approche ADM (Modernisation dirigée par une architecture de modèles), qui consiste à extraire du code les modèles nécessaires pour une approche d’ingénierie dirigée par les modèles (IDM).
La détection de clones est un des moyens pouvant être utilisés pour réaliser l’extraction de fonctionnalités similaires à partir du code source. La difficulté de détection de clones varie beaucoup en fonction des variations présentes dans les différents clones. Il s’avère que pour les types de clones complexes impliquant les méthodes basées sur les graphes de dépendance sont celles qui offrent une meilleure précision.
Les travaux réalisés sur l’utilisation de l’apprentissage profond pour la détection de clones à partir d’arbre syntaxique ont démontré l’intérêt de l’utilisation de plongements pour identifier et classifier les clones. Cependant, la portée de ces expériences n’a pas permis de comparer l’efficacité de cette méthode.
L’objectif de cette recherche est de développer une nouvelle approche permettant d’identifier et de classifier rapidement les différents clones contenus dans le code d'une application afin d’extraire les modèles nécessaires à l’application d’un processus IDM.
Dîner
Apprentissage profond dans l’automatisation des processus industriels
-
Communication orale
Valorisation des données par l’intelligence artificielle dans le monde du packaging industrielBilly Lapointe (Premier Tech)
Présentation sommairement de Premier Tech, de sa division Premier Tech Système Automatisé ainsi que des réalités du monde du packaging industriel. Discuter des nouvelles opportunités, fruit des avancés récentes et des nouvelles applications de l’Intelligence Artificielle. Exposer trois grands axes en exploration pour l’IA chez PTSA : L’analyse d’image pour le contrôle de la qualité, l’analyse des signaux de cellule de charge pour les balances industriels et enfin l’analyse des signaux des entrées et sorties de nos machines. Élaborer sur les avantages et gains possibles pour l’environnement, notre société, nos clients, nos actionnaires et nos équipiers.
-
Communication orale
La valorisation des données pour la maintenance prédictive : Opportunités et défisZouheir Malki (UdeM - Université de Montréal)
L'émergence de nouvelles technologies de collecte et de valorisation des données a révolutionné le domaine de la maintenance prédictive. En effet, une quantité massive des données est de plus en plus disponible grâce aux réseaux de capteurs et senseurs qui collectent et transmettent les données relatives au fonctionnement de l’équipement en temps réel. La valorisation de ces données par des modèles prédictifs avancés permet de détecter les anomalies de fonctionnement dès l’apparition des premiers symptômes et prédire ainsi la date probable de la panne. Ceci permet d’intervenir au bon moment : ni trop tôt ni trop tard.
L’objectif de cette présentation est de faire ressortir l’apport des approches de valorisation des données pour la maintenance prédictive. Nous discutons les principales étapes de cette valorisation des données pour la maintenance prédictive, et les défis de son application en pratique.
-
Communication orale
Proposition d’une méthodologie pour l’application des modèles explicables et non-explicablesMartin Otis (UQAC - Université du Québec à Chicoutimi)
L’ingénierie utilise la modélisation pour représenter une simplification d’un phénomène physique, dont le modèle résultant répond à des règles, des lois et des critères de performance autour d’un point d’opération. Ces modèles sont utilisés pour la conception des processus contrôlés permettant la transformation d’une matière en valeur ajoutée de manière prévisible et reproductible. L’ingénierie doit légalement expliquer toutes les sorties et dans le cas d’une erreur ou un incident de fonctionnement, démontrer la source de l’erreur ou de l’incident, sa cause et être en mesure de les reproduire par des simulations. Afin d’assurer une acceptabilité, les modèles non-explicables doivent supporter ce processus ou au moins ne pas nuire à ce processus ou aider à prévoir les erreurs potentielles et doivent donc répondre à des hypothèses claires et précises, tout en respectant les processus d’audit. En ce sens, il est évident que la mesure de la qualité d’une explication sur un modèle est difficilement acceptée considérant les risques légaux et éthiques. Certaines opportunités sont donc plus favorables à l’utilisation des modèles non-explicables et cette présentation suggèrera une méthodologie favorisant leurs applications tout en respectant le caractère prévisible, reproductible et transparent des processus contrôlés.
-
Communication orale
Démarche d’excellence opérationnelle dans les processus de production dans un environnement de données massivesLoubna Benabbou (UQAR - Université du Québec à Rimouski)
Avec la massification des données issues des processus de production, l’augmentation des capacités de calcul des ordinateurs et la performance des algorithmes issus de l’intelligence artificielle, la valorisation des données massives émerge comme un domaine révolutionnaire qui a le potentiel d’aider les entreprises à atteindre l’excellence opérationnelle et améliorer leur performance. En effet, la disponibilité de grandes quantités de données à un prix abordable et l’introduction de technologies de production intelligentes ont accéléré la digitalisation industrielle et ont donné naissance à des modèles d’affaires et des approches de gestion innovants. Plusieurs recherches ont souligné l’impact positif de la valorisation des données massives sur l’amélioration de la productivité et l’efficacité des entreprises. Cette conférence va porter sur une démarche d’excellence opérationnelle axée sur les données massives afin d’améliorer la performance des processus de production. L’application de cette démarche basée sur les méthodes de l’apprentissage automatique et de l’optimisation pour l’amélioration de la performance des processus de production dans l’industrie manufacturière sera aussi discutée.
-
Communication orale
Une approche basée sur l'apprentissage profond pour le contrôle de la qualité et la détection des défauts pour les systèmes d'ensachage industrielsJean Brousseau (UQAR), Alexis Darisse (Premier Tech), Mathieu Juncker (UQAR - Université du Québec à Rimouski), Ismaïl Khriss (UQAR), Billy Lapointe (Premier Tech), Steven Pigeon (UQAR)
Dans le monde compétitif de l’industrie alimentaire où les entreprises doivent proposer des produits de qualité, le contrôle qualité est essentiel. Cependant, cela pourrait devenir coûteux, surtout s’il s’agit d’un processus manuel. Son automatisation devient alors une excellente occasion pour une entreprise. L’objectif de cette recherche est de savoir s’il est possible de réaliser un contrôle qualité des scellages de sacs à bouche ouverte sur des systèmes d’ensachage industriels en utilisant l’apprentissage. Nous proposons ici une approche en trois étapes: la collecte de données, la classification des données et l'apprentissage supervisé de la classification. La première étape consiste à collecter des images de scellements de sacs à bouche ouverte. Nous avons réalisé un prototype muni d’une caméra linéaire et nous l’avons placé sur une chaîne de production afin de récolter un grand nombre de données. Un traitement d'image est ensuite appliqué pour nettoyer les données. L’étape suivante est la classification des données pour identifier les classes de défauts et l’étiquetage de ces données. Enfin, la classification par apprentissage supervisé permet de mettre en œuvre le contrôle qualité. Les architectures basées sur les réseaux de neurones convolutifs nous ont permis de réaliser une classification d’images de fermeture de sacs à bouche ouverte. Notre approche donne des résultats très encourageants pour la réalisation du contrôle qualité d'un système d'ensachage industriel.