caor@mines-paristech.fr

Actualités

13
Juin

Soutenance de thèse – « Contributions en traitements basés points pour le rendu et la simulation en mécanique des fluides »

Hassan Bouchiba a plaisir d’annoncer sa soutenance de thèse le 5 juillet 2018 à 14h30, sous réserve d’avis favorable des rapporteurs.

Sa thèse est intitulée « Contributions en traitements basés points pour le rendu et la simulation en mécanique des fluides ».

La soutenance se tiendra en salle L109 à l’école des Mines ParisTech, 60 bd Saint Michel 75006.

Jury :

  • – M. Tamy Boubekeur, LTCI, Telecom ParisTech (Rapporteur)
  • – M. Florent Lafarge, Titane research group, Inria (Rapporteur)
  • – M. Mathieu Brédif, MATIS, IGN (Examinateur)
  • – Mme. Marie-Paule Cani, STREAM team, LIX, Ecole Polytechnique (Examinatrice)
  • – M. Thierry Coupez, CEMEF, Mines ParisTech (Examinateur)
  • – M. Jean-Emmanuel Deschaud, CAOR, Mines ParisTech (Examinateur)
  • – M François Goulette, CAOR, Mines ParisTech (Examinateur)

Résumé :

Le nuage de points 3D est la donnée obtenue par la majorité des méthodes de numérisation surfacique actuelles. Nous nous intéressons ainsi dans cette thèse à l’utilisation de nuages de points comme unique représentation explicite de surface. Cette thèse présente deux contributions en traitements basés points.

La première contribution proposée est une nouvelle méthode de rendu de nuages de points bruts et massifs par opérateurs pyramidaux en espace image. Cette nouvelle méthode s’applique aussi bien à des nuages de points d’objets scannés, que de scènes complexes. La succession d’opérateurs en espace image permet alors de reconstruire en temps réel une surface et d’en estimer des normales, ce qui permet par la suite d’en obtenir un rendu par ombrage. De plus, l’utilisation d’opérateurs pyramidaux en espace image permet d’atteindre des fréquences d’affichage plus élevées d’un ordre de grandeur que l’état de l’art.

La deuxième contribution présentée est une nouvelle méthode de simulation numérique en mécanique des fluides en volumes immergés par reconstruction implicite étendue. La méthode proposée se base sur une nouvelle définition de surface implicite par moindres carrés glissants étendue à partir d’un nuage de points. Cette surface est alors utilisée pour définir les conditions aux limites d’un solveur Navier-Stokes par éléments finis en volumes immergés, qui est utilisé pour simuler un écoulement fluide autour de l’objet représenté par le nuage de points. Le solveur est interfacé à un mailleur adaptatif anisotrope qui permet de capturer simultanément la géométrie du nuage de points et l’écoulement à chaque pas de temps de la simulation.

12
Juin

Analyse des mouvements et gestes des piétons via caméra embarquée pour la prédiction de leurs intentions

Description DU TRAVAIL DE RECHERCHE

Contexte & Etat de l’art

Dans le cadre d’une collaboration avec l’Institut Vedecom, le Centre de Robotique MINES ParisTech propose une thèse intitulée « Analyse des mouvements et gestes des piétons via caméra embarquée pour la prédiction de leurs intentions».

Le véhicule autonome est un enjeu majeur de la mobilité de demain. Des avancées sont réalisées tous les jours pour parvenir à sa réalisation ; il reste cependant de nombreux problèmes à résoudre pour parvenir à un résultat sûr vis-à-vis des utilisateurs de la route les plus vulnérables, et notamment les piétons.
En effet, détecter et comprendre le comportement d’un être humain du point de vue du véhicule autonome est essentiel pour que celui-ci puisse prendre les bonnes décisions. Une solution simple consiste à s’arrêter dès que la situation devient critique ou qu’un piéton se trouve « proche » du véhicule. Cette solution reste cependant très loin d’être satisfaisante en termes d’efficience et de qualité de service.
La résurgence des réseaux de neurones depuis une dizaine d’année due à l’explosion de la capacité de calculs apportée par les GPU fournit aujourd’hui de nouvelles solutions pour aborder certains problèmes impossibles à résoudre par des approches classiques. Parmi ces solutions se trouvent des classifieurs, des estimateurs, etc. qui utilisent des entrées complexes (images, vidéos, nuages de points) et qui sont capables de prédire de façon satisfaisante (> 95%) la nature de l’objet ou des indicateurs impossibles à définir autrement (du moins avec la même efficacité en terme de temps de calculs).

C’est dans ce contexte que s’inscrit le sujet défini ici.

OBJECTIFS

A partir des travaux déjà réalisés sur la détection et l’identification de squelettes dans l’image (OpenPose, …), l’objectif de ces travaux sera de définir une solution exploitant l’information caméra (domaine image) et reposant sur les réseaux de neurones pour concevoir un système capable de comprendre l’intention d’un piéton en fonction de sa gestuelle (pas pressés, attention du piéton vis-à-vis de son environnement, …) et de définir à partir de celle-ci la localisation future du piéton de manière à déterminer s’il est susceptible de représenter un obstacle pour le véhicule autonome ou non.
La solution se composera d’un ou plusieurs réseaux de neurones (détection du piéton, détection de son squelette, prédiction de son comportement, …) et devra être de prendre en compte l’aspect temporel (positions passées du piéton, etc.).

Suite à des travaux issues de la thèse d’Olivier Huynh au CAOR, au cadre le projet BGLE-EMMA (Briques généralistes pour les logiciels embarqués), concernant la reconnaissance de personnes suivant leurs silhouettes. A présent, le CAOR mène un projet innovant sur l’analyse de scène sportive (match de football, tennis). Il s’agit de la détection et du suivi de personnes par vision mono-caméra et par apprentissage profond. Les éléments discriminants étant les articulations et les membres (donc le squelette).

L’apprentissage est effectué sur une base de données très grande (Coco-Dataset), contenant des corps, membres, visages humains, annotés et régularisés dans un format standard. Le suivi automatique permet l’analyse statistique des matchs, mais aussi du geste sportif.

Les pistes d’investigation que nous proposerons sont les suivantes :
– L’analyse macroscopique par apprentissage des trajectoires symboliques (grilles d’occupation, par exemple) des personnes sur le bord de la route, afin de pouvoir prédire les déplacements et les changements de direction ainsi que d’expliquer, à posteriori, les défaillances. Il s’agit des analyses proches de ce qu’on appelle l’analyse de démarche, jeux de situations destinés à améliorer la prédictibilité des piétons, mais pas seulement.
– L’analyse des événements ou comportements anormaux (chute de personne, mouvement de foule, etc.), domaine très sensible pour la conduite autonome, permettant par exemple, l’arrêt en situation d’urgence.

p1p2p3p4

Ci-dessus, on peut apercevoir quelques images correspondant à des différentes vues-caméras, sur lesquelles nous avons utilisé la même famille d’algorithmes de détection des parties du corps humain, que pour l’analyse de scène sportive.

Nous proposerons, par la suite, d’utiliser les réseaux profonds de type Mask-R-CNN pour apprendre les silhouettes humaines en même temps que leur segmentation (détourage), sur la même base de données.

Ces algorithmes peuvent facilement être étendus aux applications de réalité augmentée et ses briques peuvent servir à d’autres fonctionnalités des véhicules autonomes.

Profil DU CANDIDAT(E) RECHERCHE 

          DIPLÔME: Le candidat devra être titulaire d’un Master 2 dans le domaine de l’informatique, des mathématiques appliquées ou d’un autre domaine connexe.

COMPETENCES: Des compétences en vision par ordinateur et machine learning (OpenCV, Framework Deep Learning, Python ou C++) seraient appréciées.

Références BIBLIOGRAPHIQUES

Cette thèse débutera en Octobre 2018, pour une période de 3 ans.

CANDIDATURE : Pour toute candidature, veuillez envoyer CV + lettre de motivation à :

Bogdan Stanciulescu : bogdan.stanciulescu@mines-paristech.fr

         Fabien Moutarde : fabien.moutarde@mines-paristech.fr

         Steve Pechberti: steve.pechberti@vedecom.fr

         Guillaume Bresson : guillaume.bresson@vedecom.fr

 

30
Mai

Proposition de doctorat – Professional Gesture Recognition for Human-Robot Collaboration (HRC)

Dans le cadre d’un projet H2020 sur la Collaboration Humain-Robot pour l’Usine du Futur, le Centre de Robotique MINES ParisTech propose une thèse intitulée « Professional Gesture Recognition for Human-Robot Collaboration (HRC) ».

Plus d’informations sur cette offre.

30
Mai

Proposition de doctorat – Wearable Sensing and Movement Analytics for the Monitoring of Operators in Manufacturing

Dans le cadre d’un projet H2020 sur la Collaboration Humain-Robot pour l’Usine du Futur, le Centre de Robotique MINES ParisTech propose une thèse intitulée « Wearable Sensing and Movement Analytics for the Monitoring of Operators in Manufacturing ».

Plus d’informations sur cette offre.

23
Mai

Parution de l’ouvrage « Théorie de la réalité virtuelle, les véritables usages »

Les Presses des Mines annoncent la sortie de l’ouvrage « Théorie de la réalité
virtuelle, les véritables usages » par Philippe Fuchs, professeur et responsable de l’équipe de recherche
Réalité Virtuelle & Réalité Augmentée (RV&RA) du Centre de Robotique MINES ParisTech.

Après un quart de siècle de recherche et de développement d’applications professionnelles, la réalité
virtuelle et la réalité augmentée sont en plein essor auprès du grand public avec des applications ludiques,
artistiques, culturelles et sociétales. Ce 3ème ouvrage de Philippe Fuchs sur la réalité virtuelle, propose une
analyse très précise fondée sur les aspects technologiques, mais aussi sur les fonctionnements
sensorimoteur et cognitif de l’être humain.

Capture d’écran 2018-05-22 à 14.42.11

ISBN : 978-2-35671-511-1 / Prix : 39 euros / Format : 16×24 – Nbre de pages : 368

18
Mai

Cooperative Interacting Vehicles 2018 – Ecole d’été

L’école d’été sur les «Véhicules Coopératifs Interactifs» (2 sept. au 5 sept. 2018) a pour but de rassembler des doctorants. étudiants et jeunes professionnels des universités et des instituts de recherche pour des tutoriels, des keynotes, des présentations d’affiches et des ateliers interactifs sur :

  • – Perception coopérative
  • – Planification de mouvement coopératif
  • – Interaction implicite et explicite

intersection

Il est organisé conjointement par MINES ParisTech (France) et Karlsruhe Institute of Technology (KIT, Allemagne). Nous remercions le programme prioritaire «Cooperative Interacting Automobiles» de la Fondation allemande pour la science (DFG), la IEEE Intelligent Transportation Systems Society et la Chaire internationale de recherche pour tous (MINES ParisTech, avec les sponsors PSA, Safran et Valeo).

Plus d’informations sur civ2018.org et dans le programme.

21
Mar

Soutenance de thèse – « Localisation absolue par mono-caméra d’un véhicule en milieu urbain via l’utilisation de Street View »

La soutenance de thèse Li YU aura lieu le 6 avril 2018 à 10h00 en L118 à MINES ParisTech. La thèse est intitulée « Localisation absolue par mono-caméra d’un véhicule en milieu urbain via l’utilisation de Street View ».

Jury :

M. Patrick RIVES, INRIA Sophia Antipolis (Rapporteur)
M. Paul CHECCHIN, Institut Pascal Université Clermont Auvergne (Rapporteur)
Mme Samia BOUCHAFA, Université d’Évry-Val-d’Essonne (Examinateur)
M. Fabien MOUTARDE, MINES ParisTech (Directeur de thèse)
M. Cyril JOLY, MINES ParisTech (Examinateur)
M. Guillaume BRESSON, Institut VEDECOM (Examinateur)

Résumé :

Dans un travail réalisé au Centre de Robotique et à l’Institut VEDECOM, nous nous sommes intéressés aux systèmes robustes de localisation visuelle en milieu urbain pour la voiture autonome. Obtenir une pose exacte à partir d’une caméra monoculaire est difficile et insuffisant en terme de précision pour la voiture autonome actuelle. Plutôt que d’utiliser des approches comme la navigation par satellites, la Cartographie et Localisation Simultanées (SLAM), et les techniques de fusion de données, nous nous sommes concentrés sur l’utilisation de Systèmes d’Information Géographiques (SIG) pour concevoir une approche fiable, précise et absolue de localisation en milieu urbain.

Le développement de SIG publics nous a apporté un nouvel horizon pour résoudre le problème de la localisation, mais ses informations, telles que les cartes topologiques, sémantiques, métriques, les Street Views, les cartes de profondeur, les cartes cadastrales 3D et les cartes en haute définition, doivent être bien analysées et organisées pour extraire les informations pertinentes pour une voiture autonome. Notre première tâche consistait à concevoir une base de données hors ligne accessible par un robot à partir d’un SIG public dense, à savoir Google Maps, qui a l’avantage d’avoir une couverture mondiale. Nous générons une représentation topométrique compacte de l’environnement urbain dynamique en extrayant quatre données utiles du SIG, y compris : les topologies, les géo-coordonnées, les Street Views panoramiques et les cartes de profondeur associées. Dans le même temps, un ensemble de données en ligne a été acquis par une caméra à bas prix équipée sur les véhicules de VEDECOM. Afin de rendre les Street View sphériques compatibles avec l’imagerie en ligne, une transformation basée sur l’interpolation d’image est introduite pour obtenir des images rectilignes à partir de Street Views.

Nous proposons deux méthodes de localisation : l’une est une approche de vision par ordinateur basée sur l’extraction de caractéristiques, l’autre est une méthode d’apprentissage basée sur les réseaux de neurones convolutionnels (convnet). En vision par ordinateur, l’extraction de caractéristiques est un moyen populaire de résoudre le positionnement à partir d’images. Nous tirons parti de Google Maps et utilisons ses données topo-métriques hors ligne pour construire un positionnement grossier à fin, à savoir un processus de reconnaissance de lieu topologique puis une estimation métrique de pose par optimisation de graphe. La seule entrée de cet algorithme est une séquence d’images provenant d’une caméra monoculaire et la base de données construite à partir de Google Maps. De plus, il n’est pas nécessaire d’établir des correspondances d’image à image, ni d’utiliser l’odométrie. La méthode a été testée en environnement urbain et démontre à la fois une précision sous-métrique et une robustesse aux changements de point de vue, à l’illumination et à l’occlusion. Aussi, les résultats montrent que les emplacements éloignés de Street Views produisent une erreur significative dans la phase d’estimation métrique. Ainsi, nous proposons de synthétiser des Street Views artificielles pour compenser la densité des Street View originales et améliorer la précision.

Cette méthode souffre malheureusement d’un temps de calcul important. Étant donné que le SIG nous offre une base de données géolocalisée à l’échelle mondiale, cela nous motive à régresser des localisations globales directement à partir d’un convnet de bout en bout. La base de données hors ligne précédemment construite est encore insuffisante pour l’apprentissage d’un convnet. Pour compenser cela nous densifions la base d’origine d’un facteur mille et utilisons la méthode d’apprentissage par transfert pour faire converger notre régresseur convnet et avoir une bonne performance. Le régresseur permet également d’obtenir une localisation globale à partir d’une seule image et en temps réel.

Les résultats obtenus par ces deux approches nous fournissent des informations sur la comparaison et la relation entre les méthodes basées sur des caractéristiques et celles basées sur le convnet. Après avoir analysé et comparé les performances de localisation des deux méthodes, nous avons également abordé des perspectives pour améliorer la robustesse et la précision de la localisation face au problème de localisation urbaine assistée par SIG.

15
Mar

Nouveau Mastère Spécialisé AIMove

En Octobre 2018, le Centre de Robotique accueillera un nouveau Mastère Spécialisé AIMove (Artificial Intelligence and MOVement in industries and creation).

20
Nov

Le Centre de Robotique participe au « Mobility Research Lab Pitch Session »

Paris Region Entreprises, dans le cadre de son programme de promotion de la recherche francilienne à l’international, «the Paris Region Tech Partnership Program », a organisé « Mobility Research Lab Pitch Session», une matinale dédiée au secteur de la Mobilité Intelligente, le 15 novembre 2017 à la veille des «Imagine Mobility Meetings» organisés par Movéo.

Le Centre de Robotique a présenté ses principaux sujets de recherche sur la mobilité.

mobility-lab

Cinq laboratoires de recherche franciliens, dont le Centre de Robotique, ont présenté leurs projets de recherche.

Plus d’informations sur cette matinée.

6
Nov

Séminaire Chaire Drive for All « Conduite autonome : entre modèle et apprentissage »

La chaire Drive for All est heureuse de vous inviter au séminaire “Conduite autonome : entre modèle et apprentissage”. Le séminaire aura lieu le mercredi 29 novembre à MINES ParisTech.

logoDriveForAll

Le séminaire est public et gratuit mais l’inscription est obligatoire https://goo.gl/forms/zTXI5ZFyr5yNN18f2

L’objectif de la journée est de donner des éléments de compréhension et les défis en cours concernant la conduite autonome.

Deux approches sont actuellement concurrentes : d’une part l’apprentissage (ou intelligence artificielle, souvent représentée par l’approche Deep Learning) qui est de nature probabiliste mais offre des performances étonnantes, et d’autre part les algorithmes déterministes, qui offrent plus de garanties mais sont souvent plus limités.

Séminaire Drive for All-Programme du 29 novembre 2017