Liste des ateliers

Il y a 8 ateliers proposés le mardi 24 janvier pour EGC 2017. Chaque atelier a son propre site, vous y trouverez l’appel à participation et les informations spécifiques. Les ateliers se dérouleront en parallèle sur une journée ou une demi-journée, la conférence EGC commençant le lendemain.

TextMine : atelier sur la Fouille de Textes Gestion et Analyse des données Spatiales et Temporelles (GAST’2017) FDC : Fouille de Données Complexes
Visualisation d’informations, Interaction, et Fouille de données Le plan des salles est sur le programme général  Agrégation Contextuelle d’Information
Atelier Journalisme computationnel Qualité des Données du Web QLOD’17 AFDVA : Analyse et fouille de données pour le véhicule autonome
  1. TextMine : atelier sur la Fouille de Textes
    • Organisateurs : Pascal CuxacVincent Lemaire et Jean-Charles Lamirel
    • Site de l’atelier : http://vincentlemaire-labs.fr/TM2017/
    • Lieu et horaires : Salle SS2 de 14h00 à 17h30
    • Résumé : La fouille de textes couvre de multiples domaines comme le traitement automatique des langues, l’intelligence artificielle, la linguistique, les statistiques, l’informatique…et les applications sont très diversifiées, que ce soit la recherche d’information, le filtrage de spam, le marketing, la veille scientifique ou économique, la lutte antiterroriste …
      En France, des conférences comme TALN, CORIA, JADT par exemple sont centrées sur l’analyse et le traitement des textes, mais avec des approches plus ciblées soit TAL, soit RI, soit statistiques. Cet atelier se veut plus fédérateur autour d’approches et d’applications aussi diverses que possibles.
      Le but de cet atelier est de réunir des chercheurs sur la thématique large de la fouille de textes. Cet atelier vise à offrir une occasion de rencontres pour les universitaires et les industriels, appartenant aux différentes communautés de l’intelligence artificielle, l’apprentissage automatique, le traitement automatique des langues, pour discuter des méthodes de fouille de texte au sens large et de leurs applications.
  2. Gestion et Analyse des données Spatiales et Temporelles (GAST’2017)
    • Organisateurs : Cyril De Runz, Thomas Guyet, Eric Kergosien et Christian Sallaberry
    • Site de l’atelier : https://gt-gast.irisa.fr/gast-2017/
    • Lieu et horaires : Salle AUD de 09h00 à 17h30
    • Résumé : L’atelier GAST vise à regrouper les chercheurs, du domaine académique et de l’industrie, qui s’intéressent aux problématiques liées à la prise en compte de l’information temporelle ou spatiale – quantitative ou qualitative – dans leurs processus de gestion et d’analyse de données. Cet axe de recherche connaît une dynamique forte grâce au développement de l’estampillage spatial ou temporel des données. Pour répondre au besoin d’exploration approfondie des données et d’exploitation des informations qu’elles contiennent, des méthodes et outils spécifiques sont requis. Ces outils doivent, en particulier, faciliter l’extraction, la gestion, la représentation, l’analyse et la visualisation d’information. L’atelier GAST se veut être un lieu et une date privilégiés de la communauté pour présenter les travaux de recherche, récents ou en cours, leurs applications et les défis à venir posés par les données spatiales et temporelles. 
      La proposition de l’atelier GAST’2017 montre l’intérêt croisé de ces questions de recherche auprès des communautés EGC et MAGIS, mais aussi INFORSID ou encore CIST. Nous souhaitons susciter des échanges fertiles et interdisciplinaires autour des thèmes de l’atelier. 
      Pour l’édition 2017, un numéro spécial est en cours de programmation avec la Revue d’Information Géographique (RIG) autour des thématiques de l’atelier et permettra la valorisation des meilleures soumissions.
  3. Atelier FDC (Fouille de Données Complexes)
    • Organisateurs : Cécile FavreGermain Forestier et Camille Kurtz
    • Site de l’atelier : http://eric.univ-lyon2.fr/~gt-fdc/afdc17/
    • Lieu et horaires : Salle GSR de 09h00 à 17h30
    • Résumé : La 14ème édition de l’atelier FDC (Fouille de Données Complexes), organisée à l’initiative du groupe de travail EGC portant le même nom, vise à créer un espace privilégié de rencontres, d’échanges, de retours d’expériences, de partage d’expertise, de réflexions, pour des chercheurs et industriels travaillant dans le domaine de la fouille de données complexes, à la fois au niveau de la complexité des données et des processus. 
      L’atelier est ouvert en termes de propositions, pour permettre des discussions aussi bien du point de vue expérimental que théorique, académique et industriel. Les présentations pourront concerner un travail abouti, des réflexions sur la fouille de données complexes ou un travail préliminaire (qui présentera davantage un problème qu’une solution). Les travaux portant sur les problématiques inter ou pluridisciplinaires sont également les bienvenus.
  4. Atelier : Visualisation d’informations, Interaction, et Fouille de données
    • Organisateurs : Fabien PicarougnePierrick BruneauHanane Azzag et David Bihanic
    • Site de l’atelier : http://gt-vif.polytech.univ-nantes.fr/egc-vif2017
    • Lieu et horaires : Salle SS1 de 09h00 à 17h30
    • Résumé : Désormais bien établi à EGC, l’atelier VIF émane du groupe de travail Visualisation d’Information, Interaction et Fouille de données, fruit de la collaboration entre les associations EGC et AFIHM.  L’atelier se propose de faire le point sur l’actualité en visualisation interactive d’informations, tant du point de vue fondamental que des applications.
      À la confluence des communautés EGC et VIS, les méthodes de visualisation interactive et de fouille visuelle des données sont au cœur de cet atelier. Il aura pour vocation de favoriser l’échange sur l’évolution récente des axes de recherche dans ces thématiques, et sur l’application des méthodes de visualisation à des problématiques industrielles. Le traitement de données massives (Big Data) et des flux de données fera l’objet d’une attention particulière. 
  5. Qualité des Données du Web QLOD’17
    • Organisateurs : Samira Si-Said CherfiFayçal Hamdi et Virginie Thion
    • Site de l’atelier : http://qlod.irisa.fr/
    • Lieu et horaires : Salle PSR de 14h00 à 17h30
    • Résumé : Sous l’impulsion de l’apparition de nouvelles technologies permettant la publication et l’exploitation de données ainsi que de contraintes réglementaires imposant à certaines entreprises et institutions d’ouvrir leurs données, la publication de données sur le web est devenue un phénomène en pleine croissance. Cette immense ressource de données offre de grandes possibilités d’exploitation. Cependant, on constate un niveau très disparate de qualité des données publiées, rendant leur utilisation difficile, voire risquée. L’évaluation et la maîtrise de la qualité de ces données deviennent de ce fait un enjeu de premier plan. On assiste ainsi à un intérêt marqué des communautés industrielles et académiques pour le sujet de la gestion de la qualité des données ouvertes. 
      L’atelier QLOD’17 que nous proposons vise à réunir chercheurs, industriels et étudiants s’intéressant à la gestion de la qualité des données ouvertes. Des contributions relevant d’un aspect multidisciplinaire sont espérées suite au dernier appel à projets Mastodons 2016 “La qualité des données dans les Big Data”.
  6. Agrégation Contextuelle d’Information
    • Organisateurs : Daniela Grigori et Zoubida Kedad
    • Site de l’atelier : https://www.irit.fr/CAIR/fr/atelier-egc-2017
    • Lieu et horaires : Salle SS2 de 09h00 à 12h30
    • Résumé : Le thème de l’atelier est l’agrégation contextuelle d’information, qui désigne l’ensemble des technologies qui tentent de répondre à des besoins relatifs à l’élaboration d’objets (ou de connaissances) à forte valeur ajoutée, utiles pour les décideurs, les analystes ou les scientifiques. Ces objets à forte valeur ajoutée, appelés génériquement «agrégats», répondent donc à un besoin plus complexe de synthèse d’informations, par opposition à la restitution à l’identique de collections de documents quel qu’en soit le type. Ces objets, agrégats, sont fournis en réponse à des requêtes complexes dites requêtes «agrégatives».
  7. Atelier Journalisme Computationnel
    • Organisateurs : Vincent ClaveauXavier Tannier et Laurent Amsaleg
    • Site de l’atelier : http://CompJournalism2017.irisa.fr
    • Lieu et horaires : Salle SF de 11h00 à 17h30
    • Résumé : Cet atelier a pour but de regrouper des chercheurs s’intéressant au journalisme de données et ses différentes déclinaisons. Le public visé est donc les chercheurs en sciences de l’information et de la communication d’une part, mais aussi les professionnels de l’information (notamment journalistes de données). Cette proposition fait suite à un séminaire organisé à l’IRISA Rennes en 2016, organisé uniquement autour de présentations invitées ( http://CompJournalism2016.irisa.fr ). Nous souhaitons, au travers cet atelier, ouvrir plus largement la discussion à toutes les équipes travaillant sur le sujet au travers d’un appel à communications. 
  8. AFDVA : Analyse et fouille de données pour le véhicule autonome
    • Organisateurs : Mohamed Cherif Rahal, Guillaume Bresson et Sébastien Glaser
    • Site de l’atelier : https://sites.google.com/site/afdav2017/
    • Lieu et horaires : Salle PSR de 09h00 à 12h30
    • Résumé : Le véhicule à conduite déléguée prend de plus en plus d’ampleur, la majorité des nouveaux véhicules sur le marché sont équipés de capteurs et sont capables d’effectuer des tâches simples comme détecter un obstacle ou réguler leur vitesse en fonction des objets présents dans la scène. La détection d’obstacles fait appel à des techniques de traitement de données hétérogènes afin de comprendre une scène et l’interpréter. Dans la majorité des cas, l’utilisation de techniques de clustering est efficace et permet de détecter les obstacles et les objets de la route (marquage au sol, passage piétons, panneaux, feux tricolore, etc.). Celles-ci peuvent cependant être renforcées par l’utilisation de techniques d’apprentissage supervisé, qui viennent annoter et labelliser les objets de la scène. Plusieurs équipes de recherche, académique ou industrielle, travaillent sur ces sujets pour rendre complètement autonome un véhicule. Les équipes de recherche de Google et de Uber par exemple, utilisent des techniques d’apprentissage pour enrichir la connaissance du véhicule, lui permettre de se conduire lui-même, comprendre son environnement et s’adapter aux situations de conduite. Il y a donc, une émergence des algorithmes, des capteurs et des calculateurs dans le véhicule qui embarquent à bord des techniques d’analyse et de fouille de données.

      L’objectif de cet atelier est de faire se rencontrer des acteurs de la recherche académique et industrielle afin de débattre sur des techniques d’extraction et de gestion de la connaissance appliquées à des données capteurs (Image, LIDAR, RADAR) qui peuvent être utilisées dans des véhicules à conduite déléguée.