caor@mines-paristech.fr
13
Juin

Soutenance de thèse – « Contributions en traitements basés points pour le rendu et la simulation en mécanique des fluides »

Hassan Bouchiba a plaisir d’annoncer sa soutenance de thèse le 5 juillet 2018 à 14h30, sous réserve d’avis favorable des rapporteurs.

Sa thèse est intitulée « Contributions en traitements basés points pour le rendu et la simulation en mécanique des fluides ».

La soutenance se tiendra en salle L109 à l’école des Mines ParisTech, 60 bd Saint Michel 75006.

Jury :

  • – M. Tamy Boubekeur, LTCI, Telecom ParisTech (Rapporteur)
  • – M. Florent Lafarge, Titane research group, Inria (Rapporteur)
  • – M. Mathieu Brédif, MATIS, IGN (Examinateur)
  • – Mme. Marie-Paule Cani, STREAM team, LIX, Ecole Polytechnique (Examinatrice)
  • – M. Thierry Coupez, CEMEF, Mines ParisTech (Examinateur)
  • – M. Jean-Emmanuel Deschaud, CAOR, Mines ParisTech (Examinateur)
  • – M François Goulette, CAOR, Mines ParisTech (Examinateur)

Résumé :

Le nuage de points 3D est la donnée obtenue par la majorité des méthodes de numérisation surfacique actuelles. Nous nous intéressons ainsi dans cette thèse à l’utilisation de nuages de points comme unique représentation explicite de surface. Cette thèse présente deux contributions en traitements basés points.

La première contribution proposée est une nouvelle méthode de rendu de nuages de points bruts et massifs par opérateurs pyramidaux en espace image. Cette nouvelle méthode s’applique aussi bien à des nuages de points d’objets scannés, que de scènes complexes. La succession d’opérateurs en espace image permet alors de reconstruire en temps réel une surface et d’en estimer des normales, ce qui permet par la suite d’en obtenir un rendu par ombrage. De plus, l’utilisation d’opérateurs pyramidaux en espace image permet d’atteindre des fréquences d’affichage plus élevées d’un ordre de grandeur que l’état de l’art.

La deuxième contribution présentée est une nouvelle méthode de simulation numérique en mécanique des fluides en volumes immergés par reconstruction implicite étendue. La méthode proposée se base sur une nouvelle définition de surface implicite par moindres carrés glissants étendue à partir d’un nuage de points. Cette surface est alors utilisée pour définir les conditions aux limites d’un solveur Navier-Stokes par éléments finis en volumes immergés, qui est utilisé pour simuler un écoulement fluide autour de l’objet représenté par le nuage de points. Le solveur est interfacé à un mailleur adaptatif anisotrope qui permet de capturer simultanément la géométrie du nuage de points et l’écoulement à chaque pas de temps de la simulation.

30
Mai

Proposition de doctorat – Professional Gesture Recognition for Human-Robot Collaboration (HRC)

Dans le cadre d’un projet H2020 sur la Collaboration Humain-Robot pour l’Usine du Futur, le Centre de Robotique MINES ParisTech propose une thèse intitulée « Professional Gesture Recognition for Human-Robot Collaboration (HRC) ».

Plus d’informations sur cette offre.

30
Mai

Proposition de doctorat – Wearable Sensing and Movement Analytics for the Monitoring of Operators in Manufacturing

Dans le cadre d’un projet H2020 sur la Collaboration Humain-Robot pour l’Usine du Futur, le Centre de Robotique MINES ParisTech propose une thèse intitulée « Wearable Sensing and Movement Analytics for the Monitoring of Operators in Manufacturing ».

Plus d’informations sur cette offre.

23
Mai

Parution de l’ouvrage « Théorie de la réalité virtuelle, les véritables usages »

Les Presses des Mines annoncent la sortie de l’ouvrage « Théorie de la réalité
virtuelle, les véritables usages » par Philippe Fuchs, professeur et responsable de l’équipe de recherche
Réalité Virtuelle & Réalité Augmentée (RV&RA) du Centre de Robotique MINES ParisTech.

Après un quart de siècle de recherche et de développement d’applications professionnelles, la réalité
virtuelle et la réalité augmentée sont en plein essor auprès du grand public avec des applications ludiques,
artistiques, culturelles et sociétales. Ce 3ème ouvrage de Philippe Fuchs sur la réalité virtuelle, propose une
analyse très précise fondée sur les aspects technologiques, mais aussi sur les fonctionnements
sensorimoteur et cognitif de l’être humain.

Capture d’écran 2018-05-22 à 14.42.11

ISBN : 978-2-35671-511-1 / Prix : 39 euros / Format : 16×24 – Nbre de pages : 368

18
Mai

Cooperative Interacting Vehicles 2018 – Ecole d’été

L’école d’été sur les «Véhicules Coopératifs Interactifs» (2 sept. au 5 sept. 2018) a pour but de rassembler des doctorants. étudiants et jeunes professionnels des universités et des instituts de recherche pour des tutoriels, des keynotes, des présentations d’affiches et des ateliers interactifs sur :

  • – Perception coopérative
  • – Planification de mouvement coopératif
  • – Interaction implicite et explicite

intersection

Il est organisé conjointement par MINES ParisTech (France) et Karlsruhe Institute of Technology (KIT, Allemagne). Nous remercions le programme prioritaire «Cooperative Interacting Automobiles» de la Fondation allemande pour la science (DFG), la IEEE Intelligent Transportation Systems Society et la Chaire internationale de recherche pour tous (MINES ParisTech, avec les sponsors PSA, Safran et Valeo).

Plus d’informations sur civ2018.org et dans le programme.

21
Mar

Soutenance de thèse – « Localisation absolue par mono-caméra d’un véhicule en milieu urbain via l’utilisation de Street View »

La soutenance de thèse Li YU aura lieu le 6 avril 2018 à 10h00 en L118 à MINES ParisTech. La thèse est intitulée « Localisation absolue par mono-caméra d’un véhicule en milieu urbain via l’utilisation de Street View ».

Jury :

M. Patrick RIVES, INRIA Sophia Antipolis (Rapporteur)
M. Paul CHECCHIN, Institut Pascal Université Clermont Auvergne (Rapporteur)
Mme Samia BOUCHAFA, Université d’Évry-Val-d’Essonne (Examinateur)
M. Fabien MOUTARDE, MINES ParisTech (Directeur de thèse)
M. Cyril JOLY, MINES ParisTech (Examinateur)
M. Guillaume BRESSON, Institut VEDECOM (Examinateur)

Résumé :

Dans un travail réalisé au Centre de Robotique et à l’Institut VEDECOM, nous nous sommes intéressés aux systèmes robustes de localisation visuelle en milieu urbain pour la voiture autonome. Obtenir une pose exacte à partir d’une caméra monoculaire est difficile et insuffisant en terme de précision pour la voiture autonome actuelle. Plutôt que d’utiliser des approches comme la navigation par satellites, la Cartographie et Localisation Simultanées (SLAM), et les techniques de fusion de données, nous nous sommes concentrés sur l’utilisation de Systèmes d’Information Géographiques (SIG) pour concevoir une approche fiable, précise et absolue de localisation en milieu urbain.

Le développement de SIG publics nous a apporté un nouvel horizon pour résoudre le problème de la localisation, mais ses informations, telles que les cartes topologiques, sémantiques, métriques, les Street Views, les cartes de profondeur, les cartes cadastrales 3D et les cartes en haute définition, doivent être bien analysées et organisées pour extraire les informations pertinentes pour une voiture autonome. Notre première tâche consistait à concevoir une base de données hors ligne accessible par un robot à partir d’un SIG public dense, à savoir Google Maps, qui a l’avantage d’avoir une couverture mondiale. Nous générons une représentation topométrique compacte de l’environnement urbain dynamique en extrayant quatre données utiles du SIG, y compris : les topologies, les géo-coordonnées, les Street Views panoramiques et les cartes de profondeur associées. Dans le même temps, un ensemble de données en ligne a été acquis par une caméra à bas prix équipée sur les véhicules de VEDECOM. Afin de rendre les Street View sphériques compatibles avec l’imagerie en ligne, une transformation basée sur l’interpolation d’image est introduite pour obtenir des images rectilignes à partir de Street Views.

Nous proposons deux méthodes de localisation : l’une est une approche de vision par ordinateur basée sur l’extraction de caractéristiques, l’autre est une méthode d’apprentissage basée sur les réseaux de neurones convolutionnels (convnet). En vision par ordinateur, l’extraction de caractéristiques est un moyen populaire de résoudre le positionnement à partir d’images. Nous tirons parti de Google Maps et utilisons ses données topo-métriques hors ligne pour construire un positionnement grossier à fin, à savoir un processus de reconnaissance de lieu topologique puis une estimation métrique de pose par optimisation de graphe. La seule entrée de cet algorithme est une séquence d’images provenant d’une caméra monoculaire et la base de données construite à partir de Google Maps. De plus, il n’est pas nécessaire d’établir des correspondances d’image à image, ni d’utiliser l’odométrie. La méthode a été testée en environnement urbain et démontre à la fois une précision sous-métrique et une robustesse aux changements de point de vue, à l’illumination et à l’occlusion. Aussi, les résultats montrent que les emplacements éloignés de Street Views produisent une erreur significative dans la phase d’estimation métrique. Ainsi, nous proposons de synthétiser des Street Views artificielles pour compenser la densité des Street View originales et améliorer la précision.

Cette méthode souffre malheureusement d’un temps de calcul important. Étant donné que le SIG nous offre une base de données géolocalisée à l’échelle mondiale, cela nous motive à régresser des localisations globales directement à partir d’un convnet de bout en bout. La base de données hors ligne précédemment construite est encore insuffisante pour l’apprentissage d’un convnet. Pour compenser cela nous densifions la base d’origine d’un facteur mille et utilisons la méthode d’apprentissage par transfert pour faire converger notre régresseur convnet et avoir une bonne performance. Le régresseur permet également d’obtenir une localisation globale à partir d’une seule image et en temps réel.

Les résultats obtenus par ces deux approches nous fournissent des informations sur la comparaison et la relation entre les méthodes basées sur des caractéristiques et celles basées sur le convnet. Après avoir analysé et comparé les performances de localisation des deux méthodes, nous avons également abordé des perspectives pour améliorer la robustesse et la précision de la localisation face au problème de localisation urbaine assistée par SIG.

15
Mar

Nouveau Mastère Spécialisé AIMove

En Octobre 2018, le Centre de Robotique accueillera un nouveau Mastère Spécialisé AIMove (Artificial Intelligence and MOVement in industries and creation).

20
Nov

Le Centre de Robotique participe au « Mobility Research Lab Pitch Session »

Paris Region Entreprises, dans le cadre de son programme de promotion de la recherche francilienne à l’international, «the Paris Region Tech Partnership Program », a organisé « Mobility Research Lab Pitch Session», une matinale dédiée au secteur de la Mobilité Intelligente, le 15 novembre 2017 à la veille des «Imagine Mobility Meetings» organisés par Movéo.

Le Centre de Robotique a présenté ses principaux sujets de recherche sur la mobilité.

mobility-lab

Cinq laboratoires de recherche franciliens, dont le Centre de Robotique, ont présenté leurs projets de recherche.

Plus d’informations sur cette matinée.

6
Nov

Séminaire Chaire Drive for All « Conduite autonome : entre modèle et apprentissage »

La chaire Drive for All est heureuse de vous inviter au séminaire “Conduite autonome : entre modèle et apprentissage”. Le séminaire aura lieu le mercredi 29 novembre à MINES ParisTech.

logoDriveForAll

Le séminaire est public et gratuit mais l’inscription est obligatoire https://goo.gl/forms/zTXI5ZFyr5yNN18f2

L’objectif de la journée est de donner des éléments de compréhension et les défis en cours concernant la conduite autonome.

Deux approches sont actuellement concurrentes : d’une part l’apprentissage (ou intelligence artificielle, souvent représentée par l’approche Deep Learning) qui est de nature probabiliste mais offre des performances étonnantes, et d’autre part les algorithmes déterministes, qui offrent plus de garanties mais sont souvent plus limités.

Séminaire Drive for All-Programme du 29 novembre 2017

5
Sep

Conférence CIC 25 (Color Imaging Conference)

Patrick Callet (chercheur au Centre de Robotique) est invité à la conférence CIC 25 (Color Imaging Conference). Il présentera deux exposés le premier en nanophotonique (« nmmm “nano-micro-meso-macro” Colour and appearance – a multiscale approach ») et le second sur la 3D, la couleur et le patrimoine (« 3D reconstruction of Royaumont abbey in the XIIIth century »).