University Sétif 1 FERHAT ABBAS Faculty of Sciences
Détail de l'auteur
Auteur Aymen Dhia eddine Touidjine |
Documents disponibles écrits par cet auteur



Titre : Object detection in LiDAR data Type de document : texte imprimé Auteurs : Ghada Hana Ketfi, Auteur ; Aymen Dhia eddine Touidjine ; Fella Berrimi, Directeur de thèse Editeur : Setif:UFA Année de publication : 2024 Importance : 1 vol (62 f .) Format : 29 cm Langues : Anglais (eng) Catégories : Thèses & Mémoires:Informatique Mots-clés : LiDAR
Deep Learning
YOLO
Three-dimentional
Point cloud,
Object detection.Index. décimale : 004 - Informatique Résumé :
LiDAR images are detailed 2D representations of 3D point cloud data, providing
valuable insights for analysis and decision-making. LiDAR technology is used in
various fields such as urban planning, forestry, archaeology, civil engineering, geology,
disaster management, transportation, precision agriculture, and environmental
monitoring. This thesis examines the use of LiDAR in image analysis, particularly
for object detection with YOLO (You Only Look Once). The study demonstrates
YOLO’s effectiveness in detecting objects within 3D point cloud data. Experimental
validation highlights YOLO as a robust solution for object detection in LiDAR
imagery.Note de contenu : Sommaire
1 Introduction 9
1.1 Machine Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3 What is a Point Cloud . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4 What is LiDAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.1 Point Cloud Representation . . . . . . . . . . . . . . . . . . . 10
1.4.2 Spatial Coordinates . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.3 Elevation or Height Information . . . . . . . . . . . . . . . . . 11
1.4.4 Intensity or Reflectance Values . . . . . . . . . . . . . . . . . 11
1.4.5 Data Density and Resolution . . . . . . . . . . . . . . . . . . 11
1.4.6 Data Acquisition Platforms . . . . . . . . . . . . . . . . . . . 11
1.4.7 Data Processing and Analysis . . . . . . . . . . . . . . . . . . 11
1.5 Principle of LiDAR system . . . . . . . . . . . . . . . . . . . . . . . . 12
1.6 Components of LiDAR system . . . . . . . . . . . . . . . . . . . . . . 13
1.6.1 Lasers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.6.2 Global Navigation Satellite Systems (GNSS) . . . . . . . . . . 15
1.6.3 Inertial Measurement Unit (IMU) . . . . . . . . . . . . . . . . 15
1.6.4 Clocks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.7 Types of LiDAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.7.1 Discrete return . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.7.2 Full waveform . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.7.3 Single Photon LiDAR . . . . . . . . . . . . . . . . . . . . . . 16
1.7.4 Multispectral LiDAR . . . . . . . . . . . . . . . . . . . . . . . 16
2 Methods of object detection in LiDAR images 18
2.1 RANSAC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2 Iterative Closest Point (ICP) . . . . . . . . . . . . . . . . . . . . . . . 20
2.3 Density-Based Spatial Clustering of Applications with Noise
(DBSCAN) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.4 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4.1 Convolutional Neural Network (CNN) . . . . . . . . . . . . . 23
2.4.2 PointNet and PointNet++ . . . . . . . . . . . . . . . . . . . . 24
2.4.3 VoxelNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.4.4 SECOND (Sparsely Embedded Convolutional Detection) . . . 27
2.4.5 PointRCNN . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4.6 PointPillars . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.4.7 CenterPoint . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.4.8 You Only Look Once (YOLO) . . . . . . . . . . . . . . . . . . 31
3 Our experiments and results 33
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2 Material . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.3 Environments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.3.1 Software Environments . . . . . . . . . . . . . . . . . . . . . . 34
3.3.2 Libraries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.4 Dataset . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.4.1 Velodyne Folder . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.4.2 Labels Folder . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.4.3 Calibration Folder . . . . . . . . . . . . . . . . . . . . . . . . 37
3.4.4 Usage of Calibration Files . . . . . . . . . . . . . . . . . . . . 37
3.4.5 Validation Set . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.5 Project Overview . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.5.1 Detailed preprocessing schema . . . . . . . . . . . . . . . . . . 38
3.6 Functions used in each file . . . . . . . . . . . . . . . . . . . . . . . . 39
3.7 Visualizing Predictions and Evaluations . . . . . . . . . . . . . . . . . 50
3.7.1 Prediction Visualization . . . . . . . . . . . . . . . . . . . . . 50
3.7.2 Evaluation Metrics . . . . . . . . . . . . . . . . . . . . . . . . 51
3.8 Challenges Faced . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.8.1 Hardware Limitations . . . . . . . . . . . . . . . . . . . . . . 53
3.8.2 Limited Dataset Resources . . . . . . . . . . . . . . . . . . . . 53
3.8.3 Conversion to Point Cloud Images . . . . . . . . . . . . . . . . 54
3.8.4 Preprocessing Challenges . . . . . . . . . . . . . . . . . . . . . 54Côte titre : MAI/0904
Object detection in LiDAR data [texte imprimé] / Ghada Hana Ketfi, Auteur ; Aymen Dhia eddine Touidjine ; Fella Berrimi, Directeur de thèse . - [S.l.] : Setif:UFA, 2024 . - 1 vol (62 f .) ; 29 cm.
Langues : Anglais (eng)
Catégories : Thèses & Mémoires:Informatique Mots-clés : LiDAR
Deep Learning
YOLO
Three-dimentional
Point cloud,
Object detection.Index. décimale : 004 - Informatique Résumé :
LiDAR images are detailed 2D representations of 3D point cloud data, providing
valuable insights for analysis and decision-making. LiDAR technology is used in
various fields such as urban planning, forestry, archaeology, civil engineering, geology,
disaster management, transportation, precision agriculture, and environmental
monitoring. This thesis examines the use of LiDAR in image analysis, particularly
for object detection with YOLO (You Only Look Once). The study demonstrates
YOLO’s effectiveness in detecting objects within 3D point cloud data. Experimental
validation highlights YOLO as a robust solution for object detection in LiDAR
imagery.Note de contenu : Sommaire
1 Introduction 9
1.1 Machine Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3 What is a Point Cloud . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4 What is LiDAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.1 Point Cloud Representation . . . . . . . . . . . . . . . . . . . 10
1.4.2 Spatial Coordinates . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.3 Elevation or Height Information . . . . . . . . . . . . . . . . . 11
1.4.4 Intensity or Reflectance Values . . . . . . . . . . . . . . . . . 11
1.4.5 Data Density and Resolution . . . . . . . . . . . . . . . . . . 11
1.4.6 Data Acquisition Platforms . . . . . . . . . . . . . . . . . . . 11
1.4.7 Data Processing and Analysis . . . . . . . . . . . . . . . . . . 11
1.5 Principle of LiDAR system . . . . . . . . . . . . . . . . . . . . . . . . 12
1.6 Components of LiDAR system . . . . . . . . . . . . . . . . . . . . . . 13
1.6.1 Lasers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.6.2 Global Navigation Satellite Systems (GNSS) . . . . . . . . . . 15
1.6.3 Inertial Measurement Unit (IMU) . . . . . . . . . . . . . . . . 15
1.6.4 Clocks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.7 Types of LiDAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.7.1 Discrete return . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.7.2 Full waveform . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.7.3 Single Photon LiDAR . . . . . . . . . . . . . . . . . . . . . . 16
1.7.4 Multispectral LiDAR . . . . . . . . . . . . . . . . . . . . . . . 16
2 Methods of object detection in LiDAR images 18
2.1 RANSAC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2 Iterative Closest Point (ICP) . . . . . . . . . . . . . . . . . . . . . . . 20
2.3 Density-Based Spatial Clustering of Applications with Noise
(DBSCAN) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.4 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4.1 Convolutional Neural Network (CNN) . . . . . . . . . . . . . 23
2.4.2 PointNet and PointNet++ . . . . . . . . . . . . . . . . . . . . 24
2.4.3 VoxelNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.4.4 SECOND (Sparsely Embedded Convolutional Detection) . . . 27
2.4.5 PointRCNN . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4.6 PointPillars . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.4.7 CenterPoint . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.4.8 You Only Look Once (YOLO) . . . . . . . . . . . . . . . . . . 31
3 Our experiments and results 33
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2 Material . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.3 Environments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.3.1 Software Environments . . . . . . . . . . . . . . . . . . . . . . 34
3.3.2 Libraries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.4 Dataset . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.4.1 Velodyne Folder . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.4.2 Labels Folder . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.4.3 Calibration Folder . . . . . . . . . . . . . . . . . . . . . . . . 37
3.4.4 Usage of Calibration Files . . . . . . . . . . . . . . . . . . . . 37
3.4.5 Validation Set . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.5 Project Overview . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.5.1 Detailed preprocessing schema . . . . . . . . . . . . . . . . . . 38
3.6 Functions used in each file . . . . . . . . . . . . . . . . . . . . . . . . 39
3.7 Visualizing Predictions and Evaluations . . . . . . . . . . . . . . . . . 50
3.7.1 Prediction Visualization . . . . . . . . . . . . . . . . . . . . . 50
3.7.2 Evaluation Metrics . . . . . . . . . . . . . . . . . . . . . . . . 51
3.8 Challenges Faced . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.8.1 Hardware Limitations . . . . . . . . . . . . . . . . . . . . . . 53
3.8.2 Limited Dataset Resources . . . . . . . . . . . . . . . . . . . . 53
3.8.3 Conversion to Point Cloud Images . . . . . . . . . . . . . . . . 54
3.8.4 Preprocessing Challenges . . . . . . . . . . . . . . . . . . . . . 54Côte titre : MAI/0904
Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0904 MAI/0904 Mémoire Bibliothéque des sciences Anglais Disponible
Disponible