caor@mines-paristech.fr

Actualités

13
Jan

Soutenance de thèse — Laetitia Li

Laetitia Li a le plaisir de vous inviter à sa soutenance de thèse, intitulée « Modélisation et contrôle d’un véhicule tout-terrain à deux trains directeurs ». La soutenance aura lieu le vendredi 15 janvier 2021 à 10h00 en salle L109 à l’école des mines de Paris. Le nombre de places étant limité à 20 personnes, elle sera diffusée en ligne au lien suivant:  

https://mines-paristech.zoom.us/j/93859044756?pwd=YU5UZVh6dXM5c0ZkZHB0RkVIZjFtQT09

Le jury est composé de :

M. Hugues Mounier – Professeur, Polytech Paris Saclay/UFR de Physique (rapporteur)
M. Dominique Gruyer – Directeur de recherche, COSYS PICS-L Université Gustave Eiffel (rapporteur)
M. Michel Basset – Professeur, Université de Haute Alsace (Examinateur)
Mme Brigitte d’Andréa-Novel, Directrice de recherche, UMR IRCAM (Directrice de thèse)
M. Arnaud Quadrat, Ingénieur Safran Electronics & Defense (Co-encadrant)
M. Sylvain Thorel, Ingénieur Nexter Robotics (Invité)
M. Arnaud de La Fortelle — Professeur, MINES ParisTech (Invité)

Résumé :
L’intérêt pour les véhicules autonomes n’a cessé de croître ces dernières années. La conduite autonome sur des terrains accidentés, ou encore avec des conditions d’adhérences faibles sont encore des défis technologiques à relever. Le système de contrôle doit être capable d’identifier la variabilité de ces terrains tout en suivant une trajectoire de la meilleure manière possible. Les travaux décrits dans ce mémoire se focalisent sur le développement d’une stratégie globale de commande pour adresser le problème de la conduite de véhicule autonome à deux trains directeurs en milieu tout-terrain. Dans de tels milieux et lors de déplacement à vitesse élevée, les pneumatiques sont soumis à d’importants glissements qui entraînent un comportement sous vireur ou survireur du véhicule. L’objectif est donc d’évoluer le plus rapidement possible dans des environnements difficiles tout en gardant un suivi précis quelles que soient les conditions d’adhérence.
Pour ce faire, plusieurs points ont été abordés notamment au niveau de la modélisation du véhicule et des pneumatiques, de l’estimation des efforts pneumatiques et de la commande de véhicule à deux trains directeurs. Les contributions principales sont les suivantes : un algorithme d’estimation des forces latérales à partir de deux paramètres fondamentaux : le coefficient de rigidité de dérive et le coefficient de friction latérale maximale, et un algorithme de commande qui assure le suivi de la trajectoire de référence. La commande est basée sur un modèle dynamique afin de prendre en compte les interactions entre la roue et le sol. En effet, à des vitesses importantes, les fortes dynamiques rendent les modèles cinématiques peu réalistes. Ceux-ci sont uniquement capables de représenter des phénomènes relativement lents et donc ne conviennent que pour des véhicules se déplaçant à vitesse faible. Cette commande cherchera à maintenir, dans la mesure du possible, le comportement du pneumatique dans un domaine linéaire. L’exploitation du deuxième train directeur permettra de réguler l’orientation du véhicule relativement à une trajectoire de référence. Cela permettra de contrôler le véhicule même en présence de glissements importants et ainsi de pousser les limites de stabilité du véhicule.

Abstract : Interest in autonomous vehicles has increased steadily over recent years. Autonomous driving on rough terrain or with low grip conditions are still technological challenges to be met. The control system must be able to identify the variability of these terrains while following a trajectory. The work described in this thesis focuses on the development of a control strategy to address the problem of autonomous driving with four steering wheels in an off-road environment. In such environments, at high speed, tires are subject to significant slippage which causes the phenomenon of understeering or oversteering. Thus, the objective is to evolve as quickly as possible in difficult environments while following a reference path whatever the grip conditions. 
To do so, several points were addressed, such as vehicle and tires modeling, estimation of tire forces and control of four wheel steering vehicles. The main contributions are:
a lateral forces estimation algorithm obtained from two fundamental parameters: the cornering stiffness coefficient and the maximum lateral friction coefficient and a control algorithm allowing to follow a reference trajectory. The control strategy is based on a dynamic model in order to take into account the interactions between the wheel and the ground. Indeed, at high speeds, vehicles are subject to important dynamic phenomena making the kinematic models unrealistic. Kinematic models are only able to represent relatively slow phenomena and therefore are only suitable for low speed vehicles. The developped control strategy will maintain, as far as possible, the tire’s behavior in the linear domain. The second steering axle will add an additional degree of freedom allowing to control the vehicle yaw angle with respect to a reference trajectory. This will allow to control the vehicle even in presence of significant slippage and thus increase the vehicle stability.

18
Déc

Soutenance d’habilitation à diriger des recherches – Jean-Emmanuel Deschaud

Jean-Emmanuel Deschaud a le plaisir de vous inviter à sa soutenance d’habilitation à diriger des recherches, intitulée « Nuage de Points et Modélisation 3D »
Elle aura lieu le Jeudi 17 Décembre à 14h par Visioconférence sous Zoom.
Voici le lien pour la Visio sous Zoom :https://zoom.us/j/91906337334?pwd=dWQ0WlNOcDlzL1BnTk5CU3V0VldFQT09

Le jury est composé de :
M. Paul CHECCHIN, Professeur, Université Clermont Auvergne (Rapporteur)
M. David FILLIAT, Professeur, ENSTA Paris (Rapporteur)
M. Pierre GRUSSENMEYER, Professeur, INSA de Strasbourg (Rapporteur)
M. François GOULETTE, Professeur, MINES ParisTech (Examinateur)
Mme Beatriz MARCOTEGUI, Professeur, MINES ParisTech (Examinatrice)
M. Pascal MORIN, Professeur, Sorbonne Université (Examinateur)
M. Nicolas PAPARODITIS, Directeur de Recherche, Université Gustave Eiffel (Examinateur)
M. Laurent TRASSOUDAINE, Professeur, Université Clermont Auvergne (Examinateur)

Résumé :
Mes travaux de recherche portent tout d’abord sur les systèmes innovants de cartographie mobile basés LiDAR permettant la création de grands volumes de données 3D représentants l’environnement routier ou urbain traversés. A partir de ces données, des traitements automatisés sont nécessaires comme la détection de primitives géométriques, la segmentation sémantique, la reconstruction de surfaces pour arriver à une modélisation du réel. Je détaillerai les contributions apportées à ces différentes problématiques avec des solutions les plus génériques possibles aux données d’entrée. Plusieurs applications concrètes ont été imaginées à partir de nuage de points d’environnements réels : le calcul de distance de visibilité sur route, la création d’environnements virtuels pour les simulateurs de conduite, la simulation de capteurs LiDARs à partir de données LiDAR et enfin la simulation d’écoulements de fluides autour de géométrie sous forme de nuage de points.

18
Déc

Soutenance de thèse – Grégoire Dupont de Dinechin

Grégoire Dupont de Dinechin a le plaisir de vous inviter à sa soutenance de thèse, intitulée « Vers l’observation confortable, en réalité virtuelle, d’environnements virtuels créés à partir de photos du monde réel », et défendue en anglais sous le titre « Towards comfortable virtual reality viewing of virtual environments created from photographs of the real world ». Cette thèse a été réalisée au Centre de Robotique (CAOR) de MINES ParisTech, Université PSL sous la direction d’Alexis PALJIC.

La soutenance aura lieu le vendredi 18 décembre 2020 à 14h, et sera diffusée depuis l’amphi L109 de MINES ParisTech, Université PSL (60 boulevard Saint-Michel, 75006 Paris).La diffusion en ligne pourra être suivie au lien suivant : https://www.twitch.tv/dinechingreg.

Le jury est composé de :

  • M. Anatole LÉCUYER – Directeur de recherche, Inria Rennes (rapporteur)
  • M. Anthony STEED – Professor, University College London (rapporteur)
  • Mme Selma RIZVIĆ – Professor, University of Sarajevo (examinateur)
  • M. Diego GUTIERREZ – Professor, Universidad de Zaragoza (examinateur)
  • M. Jean-Philippe FARRUGIA – Maître de conférences, Université Lyon 1 (examinateur)
  • M. Alexis PALJIC – Chargé de recherche, MINES ParisTech, Université PSL (examinateur)

Résumé
La reconstitution en réalité virtuelle de lieux, personnes, et objets réels ouvre la voie à de nombreux usages, tels que préserver et promouvoir des sites culturels, générer des avatars photoréalistes pour se retrouver virtuellement avec famille et amis à distance, ou encore recréer des lieux ou situations spécifiques à des fins thérapeutiques ou de formation. Tout cela s’appuie sur notre capacité à transformer des images du monde réel (photos et vidéos) en environnements 360° immersifs et objets 3D interactifs.
Cependant, ces environnements virtuels à base d’images demeurent souvent imparfaits, et peuvent ainsi rendre le visionnage en réalité virtuelle inconfortable pour les utilisateurs. En particulier, il est difficile de reconstituer avec précision la géométrie d’une scène réelle, et souvent de nombreuses approximations sont ainsi faites qui peuvent être source d’inconfort lors de l’observation ou du déplacement. De même, il est difficile de restituer fidèlement l’aspect visuel de la scène: les méthodes classiques ne peuvent ainsi restituer certains effets visuels complexes tels que transparence et réflexions spéculaires, tandis que les algorithmes de rendu plus spécialisés ont tendance à générer des artefacts visuels et peuvent être source de latence. Par ailleurs, ces problèmes deviennent d’autant plus complexes lorsqu’il s’agit de reconstituer des personnes, l’oeil humain étant très sensible aux défauts dans l’apparence ou le comportement de personnages virtuels.
Par conséquent, l’objectif de cette thèse est d’étudier les méthodes permettant de rendre les utilisateurs plus confortables lors du visionnage immersif de reconstitutions digitales du monde réel, par l’amélioration et le développement de nouvelles méthodes de création d’environnements virtuels à partir de photos. Nous démontrons et évaluons ainsi des solutions permettant (1) de fournir une meilleure parallaxe de mouvement lors du visionnage d’images 360°, par le biais d’une interface immersive pour l’estimation de cartes de profondeur, (2) de générer automatiquement des agents virtuels 3D capables d’interaction à partir de vidéos 360°, en combinant des réseaux convolutionnels pré-entrainés, et (3) de restituer des effets visuels de façon photoréaliste en réalité virtuelle, par le développement d’outils que nous appliquons ensuite pour recréer virtuellement la collection d’un musée de minéralogie. Nous évaluons chaque approche par le biais d’études utilisateur, et rendons notre code accessible sous forme d’outils open source.

Abstract
There are many applications to capturing and digitally recreating real-world people and places for virtual reality (VR), such as preserving and promoting cultural heritage sites, placing users face-to-face with faraway family and friends, and creating photorealistic replicas of specific locations for therapy and training. This is typically done by transforming sets of input images, i.e. photographs and videos, into immersive 360° scenes and interactive 3D objects.
However, such image-based virtual environments are often flawed such that they fail to provide users with a comfortable viewing experience. In particular, accurately recovering the scene’s 3D geometry is a difficult task, causing many existing approaches to make approximations that are likely to cause discomfort, e.g. as the scene appears distorted or seems to move with the viewer during head motion. In the same way, existing solutions most often fail to accurately render the scene’s visual appearance in a comfortable fashion. Standard 3D reconstruction pipelines thus commonly average out captured view-dependent effects such as specular reflections, whereas complex image-based rendering algorithms often fail to achieve VR-compatible framerates, and are likely to cause distracting visual artifacts outside of a small range of head motion. Finally, further complications arise when the goal is to virtually recreate people, as inaccuracies in the appearance of the displayed 3D characters or unconvincing responsive behavior may be additional sources of unease.
Therefore, in this thesis, we investigate the extent to which users can be made more comfortable when viewing digital replicas of the real world in VR, by enhancing, combining, and designing new solutions for creating virtual environments from input sets of photographs. We thus demonstrate and evaluate solutions for (1) providing motion parallax during the viewing of 360° images, using a VR interface for estimating depth information, (2) automatically generating responsive 3D virtual agents from 360° videos, by combining pre-trained deep learning networks, and (3) rendering captured view-dependent effects at high framerates in a game engine widely used for VR development, which we apply to digitally recreate a museum’s mineralogy collection. We evaluate and discuss each approach by way of user studies, and make our codebase available as an open-source toolkit.

13
Oct

Research scientist offer « Development of an end-to-end embedding of a CNN into a HMM for human action recognition »

The Centre for Robotics of MINES ParisTech, PSL Université Paris, is involved in several research projects on human motion pattern recognition applied to the Factory of the Future, the Creative and Cultural Industries and the Autonomous Vehicles. The main objective of these projects is the development of novel methodologies and technological paradigms that improve the perception of the machine and allows for natural body interactions in human-machine partnerships.

The Centre for Robotics of MINES ParisTech is opening a short-term position for a research scientist on the ‘Development of an end-to-end embedding of a CNN into a HMM’, which is horizontal on various H2020 and industrial projects.

For more information:  https://euraxess.ec.europa.eu/jobs/567248

15
Sep

Soutenance de thèse — Martin Brossard

Martin Brossard a le plaisir de vous inviter à sa soutenance de thèse le mardi 22 Septembre 2020, à 13h. La soutenance aura lieu en salle V107, à l’école des Mines ParisTech, 60 bd Saint Michel, 75006, Paris.

La soutenance pourra aussi être suivie par visioconférence à l’adresse suivante :  https://mines-paristech.zoom.us/j/92529558932?pwd=cktuTk9OU1ZHVVp0NkZUS1U3QThuZz09

Cette thèse a été réalisée au Centre de Robotique de l’école des Mines sous la direction de Silvère Bonnabel et l’encadrement d’Axel Barrau. Intitulée « Techniques de prototypage modernes pour la navigation multi-capteurs« , elle sera défendue en anglais, sous le titre « Some modern prototyping techniques for navigation based on multi-sensor fusion« .
Le jury sera composé de :

  • – Mme Dana Kulic – Monash University (rapporteur)
  • – M. Tim Barfoot – University of Toronto (rapporteur)
  • – M. David Filliat – ENSTA (examinateur)
  • – M. Yacine Chitour – CentraleSupélec (examinateur)
  • – M. Silvère Bonnabel – Mines ParisTech/Université de Nouvelle-Calédonie (examinateur)
  • – M. Axel Barrau – Safran/Mines ParisTech (examinateur)

Résumé :
Cette thèse aborde les méthodes d’estimation d’état pour les véhicules équipés de divers capteurs tels que des caméras et des centrales inertielles. Le filtre de Kalman est un outil largement utilisé pour estimer l’état d’un système dynamique, qui soulève des questions théoriques pour les systèmes non linéaires présents dans la navigation, et qui repose sur des modèles physiques et des paramètres qui doivent être optimisés efficacement par l’utilisateur. La thèse contribue au filtrage de Kalman pour la navigation, où les contributions se divisent en deux contributions majeures. La première contribution consiste à s’appuyer sur le récent filtre de Kalman étendu invariant pour résoudre les problèmes difficiles que sont l’inconsistance du filtre de Kalman étendu pour le problème de la localisation et de la cartographie simultanées, de la navigation avec des capteurs visuels (odométrie visuelle-inertielle), et la question plus générale du filtrage de Kalman sur les variétés. La deuxième contribution consiste à utiliser des outils récents du domaine de l’intelligence artificielle, à savoir l’apprentissage profond, pour améliorer les filtres de Kalman, notamment pour relier les mesures des capteurs à l’état du système, et pour régler le filtre efficacement, c’est-à-dire utiliser des techniques d’apprentissage automatique pour trouver une stratégie de réglage dynamique des paramètres du filtre de Kalman qui correspond aux données et qui est également capable de fournir de nouvelles informations au filtre. La thèse introduit ainsi différents algorithmes de filtrage et réseaux de neurones profonds dont l’implémentation est rendue open source, et qui se comparent favorablement à l’état de l’art.

Abstract :
This thesis deals with state estimation for vehicles that are equipped with various sensors such as cameras and inertial measurement units. The Kalman filter is a widely used tool that estimates the state of a dynamical system, which raises theoretical questions for the nonlinear systems present in navigation, and that relies on physical models and parameters that need to be efficient tuned by the user. This thesis contributes to Kalman filtering for navigation, where the contributions focus on two different manners. The first manner consists in building on the recent invariant extended Kalman filter to address challenging issues, namely the inconsistency of extended Kalman filter for the problem of simultaneous localization and mapping, navigation with vision sensors, and the more general question of Kalman filtering on manifolds. The second manner consists in using recent tools from the field of artificial intelligence, namely deep learning, to improve Kalman filters, notably to relate sensors’ measurements to the state, and to tune the filter efficiently, that is, using machine learning techniques to find a dynamical tuning strategy of the Kalman filter parameters that best matches the data and that is also able to provide new information to the filter. The thesis thus introduces different filtering algorithms and deep neural networks whose implementation are made open-source.

Compte tenu du contexte sanitaire de la covid-19, la règle actuellement en vigueur préconise, pour la soutenance:       

  • – Le respect d’une distance inter-personnelle (1m)       
  • – Le port du masque est recommandé       
  • – Un maximum d’environ une vingtaine de personnes (moins de 50% de la capacité de la salle)       
  • – Une participation à distance (lien plus haut) est recommandée, du point de vue sanitaire. 
2
Sep

Des étudiants du master AIMove récompensés au AI SUPER Hackaton

Les étudiants Ai Di et Long Jiao de AIMove ont participé à «  AI SUPER Hackathon » organisé par l’IDIAP en Suisse et ont gagné le 2e prix avec leur système G’Express.

Voici une vidéo de présentation du système : https://www.youtube.com/watch?v=5kSYJyQz4I8&feature=youtu.be&t=2429

AIMove Post Master’s Degree is an accredited professional program, delivered by MINES ParisTech, PSL Université Paris and supported by a European consortium of IRCAM, CERTH, Goldsmiths College University of London, IDIAP and the Aristotle University of Thessaloniki. The programme specialises in Human-centred AI (HAI) and enhances professional development and expertise in the fields of human-machine interaction and collaboration, internet of things, machine learning, pattern recognition, computer vision, VR/AR and mixed reality, and emergent related fields. This unique international program, taught entirely in English, brings together leading European professionals in this field and trains future HAI specialists in Human-Machine Collaboration.

Plus d’informations : https://aimove.eu/

1
Sep

Soutenance de thèse — Guillaume Devineau

Guillaume Devineau a l’honneur de vous inviter à sa soutenance de thèse le mercredi 2 septembre 2020 à 14h00.
La soutenance aura lieu dans l’amphithéâtre L109 (cf. note « covid » à la fin du message) et sera également retransmise en visioconférence.


La thèse, qui sera défendue en français, s’intitule « Deep Learning for Multivariate Time Series: From Vehicle Control to Gesture Recognition and Generation ».Le jury sera composé de :

  • Mme Catherine ACHARD — Maître de Conférences, HDR, Sorbonne Université (Rapporteur) 
  • M. Christian WOLF — Maître de Conférences, HDR, INSA Lyon (Rapporteur)
  • M. Alexandre GRAMFORT — Directeur de recherche, INRIA (Examinateur)
  • M. Alexander GEPPERTH — Professeur, University of Applied Sciences Fulda (Examinateur)
  • M. Jean-Philippe VANDEBORRE — Professeur, IMT Lille Douai (Examinateur)
  • M. Fabien MOUTARDE — Professeur, MINES ParisTech (Directeur de thèse)

Résumé :

    L’apprentissage profond est une branche du domaine de l’intelligence artificielle qui vise à doter les machines de la capacité d’apprendre par elles-mêmes à réaliser des tâches précises.    L’apprentissage profond a abouti à des développements spectaculaires dans le domaine de l’image et du langage naturel au cours des dernières années.    Pourtant, dans de nombreux domaines, les données d’observations ne sont ni des images ni du texte mais des séries temporelles qui représentent l’évolution de grandeurs mesurées ou calculées.    Dans cette thèse, nous étudions et proposons différentes représentations de séries temporelles à partir de modèles d’apprentissage profond.    Dans un premier temps, dans le domaine du contrôle de véhicules autonomes, nous montrons que l’analyse d’une fenêtre temporelle par un réseau de neurones permet d’obtenir de meilleurs résultats que les méthodes classiques qui n’utilisent pas de réseaux de neurones.    Dans un second temps, en reconnaissance de gestes et d’actions, nous proposons des réseaux de neurones convolutifs 1D où la dimension temporelle seule est convoluée, afin de tirer profit des invariances temporelles.    Dans un troisième temps, dans un but de génération de mouvements humains, nous proposons des réseaux de neurones génératifs convolutifs 2D où les dimensions temporelles et spatiales sont convoluées de manière jointe.    Enfin, dans un dernier temps, nous proposons un plongement (embedding) où des représentations spatiales de poses humaines sont (ré)organisées dans un espace latent en fonction de leurs relations temporelles.

Lien de la visioconférence:

    Il sera possible de suivre la soutenance de thèse par visioconférence à l’adresse suivante : https://mines-paristech.zoom.us/j/98701814529?pwd=bTU2RU5QUHlnU0U0Ym1QcG5YYjhJUT09

    Compte tenu du contexte sanitaire de la covid-19, la règle actuellement en vigueur préconise, pour la soutenance:       

  • – Le respect d’une distance inter-personnelle (1m)       
  • – Le port du masque est recommandé       
  • – Un maximum d’environ une vingtaine de personnes (moins de 50% de la capacité de la salle)       
  • – Une participation à distance (lien plus haut) est recommandée, du point de vue sanitaire.   
13
Juil

Prix du meilleur article Automatica pour les années 2017, 2018, et 2019

Axel Barrau et Silvère Bonnabel (chercheurs associés au Centre de Robotique) est co-récipendiaire du prix du meilleur article Automatica (Automatica Paper Prize) décerné à trois articles parmi l’ensemble des articles publiés dans la revue Automatica (Elsevier) au cours des trois dernières années : 2017, 2018, 2019.

Automatica est, avec IEEE Trans. on Automatic Control, la meilleure revue du domaine de l’automatique (« control » en anglais), avec un facteur d’impact de 5,5 cette année. 

Le prix concerne l’article :

J. Maidens, A. Barrau, S. Bonnabel and M. Arcak, “Symmetry reduction for dynamic programming”, Vol. 97, pp. 367-375, 2018.

C’est un article écrit en collaboration avec Murat Arcak, professeur à l’Université de Berkeley, et son étudiant alors en thèse John Maidens, aujourd’hui ingénieur IA dans une entreprise en Californie dans le domaine de l’équipement médical, ainsi qu’Axel Barrau, ingénieur chez Safran. 

Dans cet article, nous nous intéressons à un problème d’imagerie médicale IRM, et cherchons à contrôler le champ magnétique de façon optimale pour en déduire des informations physiques. Nous utilisons les symétries du monde physique (invariance par translation et rotation autour de l’axe vertical des lois de la physique) pour diminuer la complexité calculatoire de l’algorithme d’optimisation. 

Le prix sera remis lors d’une cérémonie « virtuelle », pour raisons sanitaires, vendredi 17 juillet à l’occasion du IFAC World Congress.

17
Juin

Soutenance de thèse — Arthur Gaudron

Arthur Gaudron a le plaisir de vous inviter à sa soutenance de thèse le mercredi 1 juillet à 14h00 (sous réserve d’acceptation des rapporteurs).

La soutenance aura lieu à MINES ParisTech (60 boulevard Saint-Michel, 75006) dans l’amphithéâtre L109, mais elle pourra aussi être suivie par visioconférence. Au regard de la situation sanitaire, il est difficile d’accueillir du public, ainsi nous vous prions de privilégier la visioconférence.

Pour recevoir directement le lien vers la visioconférence, nous vous invitons à ajouter votre adresse e-mail à la liste de diffusion de la Chaire Logistique Urbaine (vous pouvez vous désabonner à tout moment). De plus, vous serez informés des événements futurs de la Chaire.

La conférence sera accessible via zoom : https://mines-paristech.zoom.us/j/97653027814?pwd=Y2xmM1phbjJQSXRYZFVhVWVDVkg3Zz09

ID de réunion : 976 5302 7814

Mot de passe : 653938

La thèse, qui sera défendue en français, s’intitule « Méthodologie du modèle ouvert pour la conception d’un système d’aide la décision stratégique : le cas de la logistique urbaine ».

Le jury sera composé de :

  • — M. Jésus Gonzalez-Feliu — Professeur, Excelia Group La Rochelle Business School (Rapporteur)
  • — M. Olivier Péton — Professeur, IMT Atlantique (Rapporteur)
  • — M. Éric Ballot — Professeur, MINES ParisTech (Examinateur)
  • — Mme Laetitia Dablanc — Directrice de recherche, Université Gustave Eiffel (Examinatrice)
  • — Mme Milena Janjevic — Chargée de recherche, Massachusetts Institute of Technology (Examinatrice)
  • — Mme Hélène Wiedemann — Ingénieur, Renault (Examinatrice)
  • — M. Arnaud de La Fortelle — Professeur, MINES ParisTech (Directeur de thèse)

Résumé :
Le transport de marchandises, ou logistique urbaine, est un système complexe tant par la diversité de ses parties prenantes (ville, transporteurs, commerçants, etc.) que par l’intrication de leurs interactions. Chacun de ces acteurs a des objectifs qui lui sont propres mais dont les effets des décisions pour y parvenir se répercutent à un niveau global. Piloter cette activité représente donc un réel défi : non seulement modéliser précisément le système – passé ou présent – pose de réelles difficultés (en termes de complexité et des données nécessaires), mais cette modélisation ne permet que difficilement d’augurer des effets des décisions prises sur celui-ci. Son pilotage demande la capacité de projeter et se représenter les effets de décisions, non-encore observées, sur celui-ci. Pour que les décisions de la logistique urbaine soient pertinentes, elles doivent s’appuyer sur des modèles qui devront intégrer une vision plus fine de l’activité, au niveau microscopique, c’est-à-dire des opérations, vers un niveau macroscopique qui primait jusque-là. Pour cela, nous proposons donc de nous appuyer sur des outils de simulation mathématique qui ont pour objectif de simuler les effets macroscopiques de différentes décisions (p. ex. interdiction de certaines motorisations), en prenant en compte les interactions microscopiques de la logistique comme la prévisible modification d’une organisation logistique et l’impact sur les indicateurs associés (p. ex. le niveau de pollution d’une rue ou le coût de la livraison).

C’est pourquoi nous proposons la « méthodologie du modèle ouvert » dont l’objectif est de concevoir et valider un modèle qui pourra être utilisé par les acteurs de la logistique urbaine lors de leur prise de décision stratégique. Au cœur de cette méthodologie se tient la question de l’intégration du savoir expert dans un modèle de simulation. Une telle question agite la communauté scientifique au moins depuis la création de l’IA comme discipline : d’abord avec les systèmes experts, dont l’échec est lié à l’impossibilité de mécaniser le savoir expert ; à présent avec les avancées extrêmement prometteuses de l’apprentissage automatique, qui entre autres tentent d’apprendre par des données les raisonnements des experts, mais dont les modèles se heurtent à des problèmes de disponibilité de la donnée, de validation et d’explicabilité. Nous pensons que cette méthodologie permet de réconcilier la science des données et les sciences de gestion de manière à ce que dans des environnements complexes, la décision puisse être assistée par des simulations qui permettent de plus précisément maîtriser cette complexité. De plus, en supposant une certaine disponibilité de la donnée, et la volonté de la mise en place d’un pilotage data-driven (donc plus automatisé), ce modèle pourrait servir comme une première base de validation de modèles plus complexes d’apprentissage automatique.

14
Avr

Capturing Real Scenes for VR made easy. Release of Colibri VR !

as a part of his PhD thesis, Grégoire de Dinechin has developed a Platform for non VR experts : it allows the easy capture and exploration of real scenes for VR.

We are happy to announce that we released COLIBRI VR, our open source platform for image based rendering for Unity ! It is made to be simple :

  • 1) take pictures
  • 2) process it in Colibri VR
  • 3) experience your 3D scene* in VR.

*including complex view dependent effects such as reflexions and refractions.

Tutorials and Download : https://caor-mines-paristech.github.io/colibri-vr/
Paper : https://hal.archives-ouvertes.fr/hal-02492896/document

Use it for anything you want : capture every day scenes, objects, create training scenarios, tell stories, create an online museum … Great work from Grégoire Dupont de Dinechin within his PhD thesis ! Cheers Grégoire !