CORESA 2012, les 24 et 25 mai 2012 à Lille

Pour sa 15ème édition, le colloque CORESA 2012 (COmpression et REprésentation des Signaux Audiovisuels) offrira aux chercheurs et aux praticiens dans le domaine du multimédia des sessions plénières scientifiques et techniques, des présentations orales, des posters, des démonstrations et des discussions sur des questions pertinentes et stimulantes concernant le futur du multimédia.

Ces journées, organisées par le Laboratoire d'Informatique Fondamentale de Lille (LIFL – UMR CNRS 8022) et Télécom Lille 1 se tiendront les 24 et 25 mai 2012 à Lille.

Les thèmes choisis pour CORESA 2012 représentent donc le coeur de la révolution multimédia : les nouvelles applications et nouveaux services qui naissent de la convergence entre les technologies et les usages des télécommunications, de l'audiovisuel et de l'informatique.

Les journées CORESA 2012 seront rythmées par des sessions plénières ainsi que des sessions posters pendant lesquelles une large place sera consacrée à la discussion.

Deux conférenciers invités nous font l'honneur de leurs présences lors de ces journées :

Zhengyou Zhang (Microsoft Research, Redmond, WA, USA), "Acquisition, Analyse, et Applications des Signaux Visuels 3D". [PDF]
Plus de détails...
Touradj Ebrahimi (EPFL/NTNU), "Vers une mesure de qualité visuelle 3D pour le multimédia de demain". [PDF]
Plus de détails...

Pour ces journées, des contributions sont attendues dans les domaines suivants :

Analyse, compression, représentation des images, du son, de la vidéo et des données tridimensionnelles (3D)

  • analyse d'image, de la vidéo, et des données 3D,
  • segmentation,
  • compression, représentation et transmission des signaux multimédias,
  • modélisation et compression géométrique,
  • codage conjoint source-canal,
  • analyse/synthèse audio.

Développements liés aux services et usages multimédia

  • outils et techniques pour l'indexation et la recherche de l'information multimédia (image, vidéo, 3D)
    • description bas niveau couleur, forme, texture, mouvement,
    • description contextuelle, sémantique et nouveaux critères de similarité,
    • passage à l'échelle.
  • authentification et protection : tatouage et dissimulation de données,
  • techniques conjointes audio-vidéo (compression, indexation, tatouage),
  • représentation de méta-données structurelles et sémantiques,
  • média et réseaux sociaux,
  • approches collaboratives ou centrées utilisateurs pour l'analyse et l'accès aux données audiovisuelles.

Systèmes de communication et d'interface, environnement virtuel

  • analyse/synthèse de scènes 3D,
  • réalité augmentée, réalité virtuelle,
  • jeux vidéo,
  • terminaux intelligents,
  • outils et techniques pour les espaces virtuels répartis, télé-présence,
  • clonage et animation faciale,
  • composition et intégration de média de différentes natures,
  • architectures logicielles et matérielles de clients/serveurs multimédia,
  • applications mobiles et LBS (Location Based Services).