Détail de l'offreInformations généralesEntité de rattachementLe Commissariat à l'énergie atomique et aux énergies alternatives (CEA) est un organisme public de recherche.Acteur majeur de la recherche, du développement et de l'innovation, le CEA intervient dans le cadre de ses quatre missions :. la défense et la sécurité. l'énergie nucléaire (fission et fusion). la recherche technologique pour l'industrie. la recherche fondamentale (sciences de la matière et sciences de la vie).Avec ses 16000 salariés -techniciens, ingénieurs, chercheurs, et personnel en soutien à la recherche- le CEA participe à de nombreux projets de collaboration aux côtés de ses partenaires académiques et industriels.Référence2020-14525Description de l'unitéBasé à Paris-
Basé à Paris-Saclay, le CEA List est l'un des quatre instituts de recherche technologique de CEA Tech, direction de la recherche technologique du CEA. Dédié aux systèmes numériques intelligents, il contribue au développement de la compétitivité des entreprises par le développement et le transfert de technologies. L'expertise et les compétences développées par les 800 ingénieurs-chercheurs et techniciens du CEA List permettent à l'Institut d'accompagner chaque annéeplus de 200 entreprises françaises et étrangères sur des projets de recherche appliquée s'appuyant sur 4 programmes et 9 plateformes technologiques. 21 start-ups ont été créées depuis 2003.Labellisé Institut Carnot depuis 2006, le CEA List est aujourd'hui l'institut Carnot Technologies NumériquesLe Laboratoire de Vision et Apprentissage pour l'analyse de scène (LVA) mène ses recherches dans ledomaine de la Vision par Ordinateur (Computer Vision) selon quatre axes principaux:-La reconnaissance visuelle (détection et/ou segmentation d'objets, de personnes, de patterns; détection d'anomalies; caractérisation)-L'analyse du comportement (reconnaissance de gestes, d'actions, d'activités, de comportements anormauxou spécifiquespour des individus, un groupe, une foule)-Annotation intelligente (annotation à grande échelle de données visuelles 2D/3Dde manière semi-automatique)-Perception et décision (processus de décision markovien, navigation)
Systèmes d'information
Stage
Stage - Suivi d'instances dans les données 3D LiDAR par apprentissage profond H/F
Suivi d'instances dans les données 3D LiDAR par apprentissage profond
6
Les données LiDAR sous forme de nuages de points 3D constituent une source d'information robuste pour la classification et le positionnement d'objets dans une scène.Ces dernières années, des progrès considérables ont été réalisés sur les méthodes de détection à base de réseaux de neurones, à la fois en termes de coût de calcul et en métrique d'évaluation [4,6,7]. Ces améliorations s'appuient aussi sur de nouveaux jeuxde données plusgrands et plus diversifiés [1,2,5] qui permettent de mieux entraîner et évaluer les modèles. Ces nouveaux datasets permettent aussi d'étudier de nouvelles problématiques comme le suivi (tracking) temporel des objets et l'anticipation de trajectoires,qui pourra notamment trouver son application dans le contexte automobile pour l'aide à la conduite ou la conduite autonome.À ce jour, l'état de l'art en suivi multi-objet dans les nuages de points repose largement sur la performance d'un détecteur, dont les prédictions successives sont combinéesavec un algorithme de suivi simple [7]. Ce stage a donc pour objectif d'étudier l'utilisation de méthodes d'apprentissage pour améliorer les performances du suivi temporel d'objets dans des nuages de points 3D [7], en particulier sur les cas difficiles (occultation, objet peu détaillé, etc.).
Références
[1] A. Geiger, P. Lenz, and R. Urtasun, “Are we ready for autonomous driving? The KITTI vision benchmark suite,”CVPR, 2012.
[2] P. Sunet al.,Scalability in Perception for Autonomous Driving: Waymo Open Dataset. 2019.
[3] W. Luo, B. Yang, and R. Urtasun, “Fast and Furious: Real Time End-to-End 3D Detection, Tracking and Motion Forecasting with a Single Convolutional Net,”CVPR, 2018.
[4] Y. Zhou and O. Tuzel, “VoxelNet: End-to-End Learning for Point Cloud Based 3D Object Detection,”CVPR, 2018.
[5] H. Caesaret al., “nuScenes: A multimodal dataset for autonomous driving,”arXiv:1903.11027, 2019.
[6] A. H. Lang, S. Vora, H. Caesar, L. Zhou, J. Yang, and O. Beijbom, “PointPillars: Fast Encoders for Object Detection from Point Clouds,”arXiv:1812.05784, 2018.
[7] S. Shiet al., “PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection,”CVPR, 2020.
Compétences requises:-Vision par ordinateur-Apprentissage automatique (deep learning)-Reconnaissance de formes-C/C++, Python-La maîtrise d'un framework d'apprentissage profond (en particulier TensorflowouPyTorch) est un plus.
14-05-2025
Sélectionnez le secteur qui vous intéresse ci-dessous et n'oubliez pas votre adresse email!