caor@mines-paristech.fr

Guillaume Devineau a l’honneur de vous inviter à sa soutenance de thèse le mercredi 2 septembre 2020 à 14h00.
La soutenance aura lieu dans l’amphithéâtre L109 (cf. note « covid » à la fin du message) et sera également retransmise en visioconférence.


La thèse, qui sera défendue en français, s’intitule « Deep Learning for Multivariate Time Series: From Vehicle Control to Gesture Recognition and Generation ».Le jury sera composé de :

  • Mme Catherine ACHARD — Maître de Conférences, HDR, Sorbonne Université (Rapporteur) 
  • M. Christian WOLF — Maître de Conférences, HDR, INSA Lyon (Rapporteur)
  • M. Alexandre GRAMFORT — Directeur de recherche, INRIA (Examinateur)
  • M. Alexander GEPPERTH — Professeur, University of Applied Sciences Fulda (Examinateur)
  • M. Jean-Philippe VANDEBORRE — Professeur, IMT Lille Douai (Examinateur)
  • M. Fabien MOUTARDE — Professeur, MINES ParisTech (Directeur de thèse)

Résumé :

    L’apprentissage profond est une branche du domaine de l’intelligence artificielle qui vise à doter les machines de la capacité d’apprendre par elles-mêmes à réaliser des tâches précises.    L’apprentissage profond a abouti à des développements spectaculaires dans le domaine de l’image et du langage naturel au cours des dernières années.    Pourtant, dans de nombreux domaines, les données d’observations ne sont ni des images ni du texte mais des séries temporelles qui représentent l’évolution de grandeurs mesurées ou calculées.    Dans cette thèse, nous étudions et proposons différentes représentations de séries temporelles à partir de modèles d’apprentissage profond.    Dans un premier temps, dans le domaine du contrôle de véhicules autonomes, nous montrons que l’analyse d’une fenêtre temporelle par un réseau de neurones permet d’obtenir de meilleurs résultats que les méthodes classiques qui n’utilisent pas de réseaux de neurones.    Dans un second temps, en reconnaissance de gestes et d’actions, nous proposons des réseaux de neurones convolutifs 1D où la dimension temporelle seule est convoluée, afin de tirer profit des invariances temporelles.    Dans un troisième temps, dans un but de génération de mouvements humains, nous proposons des réseaux de neurones génératifs convolutifs 2D où les dimensions temporelles et spatiales sont convoluées de manière jointe.    Enfin, dans un dernier temps, nous proposons un plongement (embedding) où des représentations spatiales de poses humaines sont (ré)organisées dans un espace latent en fonction de leurs relations temporelles.

Lien de la visioconférence:

    Il sera possible de suivre la soutenance de thèse par visioconférence à l’adresse suivante : https://mines-paristech.zoom.us/j/98701814529?pwd=bTU2RU5QUHlnU0U0Ym1QcG5YYjhJUT09

    Compte tenu du contexte sanitaire de la covid-19, la règle actuellement en vigueur préconise, pour la soutenance:       

  • – Le respect d’une distance inter-personnelle (1m)       
  • – Le port du masque est recommandé       
  • – Un maximum d’environ une vingtaine de personnes (moins de 50% de la capacité de la salle)       
  • – Une participation à distance (lien plus haut) est recommandée, du point de vue sanitaire.   

Comments are closed.