University Sétif 1 FERHAT ABBAS Faculty of Sciences
Détail de l'auteur
Auteur Fella Berrimi |
Documents disponibles écrits par cet auteur
Ajouter le résultat dans votre panier Affiner la recherche
Titre : Anomaly Detection In Medical Images Type de document : texte imprimé Auteurs : Ikbal Taki Eddine Nasri, Auteur ; Dhiaeddin Hadjaz ; Fella Berrimi, Directeur de thèse Editeur : Setif:UFA Année de publication : 2024 Importance : 1 vol (82 f .) Format : 29 cm Langues : Anglais (eng) Catégories : Thèses & Mémoires:Informatique Mots-clés : Informatique Index. décimale : 004 - Informatique Résumé :
Recent advancements in medical image analysis have led to the development of sophisticated algorithms
for segmenting and detecting pathologies. Our study aims to localize and detect pathologies
using deep learning methods. We utilized two annotated datasets: one for lung tissue tumors and
another for colon tissue tumors. For lung tumors, we implemented CNN, DenseNet, and Efficient-
NetB3 models. For colon tumors, we used a transfer learning CNN model. We detail the implementation
stages and analyze the results, finding that deep learning models significantly improve the
accuracy and efficiency of disease detection in medical imaging. These models automate complex
image analysis, supporting healthcare professionals and potentially enhancing patient outcomes.Note de contenu : Sommaire
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
Chapter 1: General Terms in Medical Imaging 12
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2 Image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3 Digital Image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4 Characteristics of A Digital Image . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4.1 Pixel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4.2 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4.3 Resolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4.4 Luminance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4.5 Noise (Digital Noise) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.6 Texture . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.7 Grayscale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.8 Color . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4.9 Image Format . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5 Medical Image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.6 The Different Medical Imaging Technologies . . . . . . . . . . . . . . . . . . . 18
1.6.1 Radiography . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.6.2 Computed Tomography (CT) . . . . . . . . . . . . . . . . . . . . . . . . 18
1.6.3 Magnetic Resonance Imaging (MRI) . . . . . . . . . . . . . . . . . . . . 18
1.6.4 Ultrasound . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.6.5 Nuclear Medicine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.6.6 Positron Emission Tomography (PET) . . . . . . . . . . . . . . . . . . . 20
1.7 Anomalies in Medical Images . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.8 Medical Image Processing Diagram . . . . . . . . . . . . . . . . . . . . . . . . 21
1.8.1 Acquisition of An Image . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.8.2 Preprocessing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.8.3 Segmentation of An Image . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.8.4 Anomaly Detection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.8.5 Interpretation And Analysis . . . . . . . . . . . . . . . . . . . . . . . . 23
1.9 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Chapter 2: Segmentation And Anomaly Detection In Medical Images 25
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2 Medical Image Segmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2.1 Edge-Based Segmentation . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2.2 Region Based Segmentation . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2.3 Thresholding Based Segmentation . . . . . . . . . . . . . . . . . . . . 31
2.2.4 Segmentation Based on Artificial Neural Network (ANN) . . . . . . . . 32
2.3 Anomaly Detection In Medical Images . . . . . . . . . . . . . . . . . . . . . . 34
2.4 Machine Learning-based Anomaly Detection . . . . . . . . . . . . . . . . . . . 34
2.4.1 Machine Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4.2 Machine Learning Process . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.5 Machine Learning Algorithms For Anomaly Detection . . . . . . . . . . . . . . 36
2.5.1 Support Vector Machines (SVMs) . . . . . . . . . . . . . . . . . . . . . 36
2.5.2 Random Forest (RF) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.5.3 k-Means Clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.6 Deep Learning-Based Anomaly Detection . . . . . . . . . . . . . . . . . . . . . 40
2.6.1 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.7 Deep Learning Architectures For Anomaly Detection . . . . . . . . . . . . . . . 41
2.7.1 Convolution Neural Networks (CNNs) . . . . . . . . . . . . . . . . . . 41
2.7.2 U-Net . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.7.3 Generative Adversarial Networks (GANs) . . . . . . . . . . . . . . . . . 45
2.7.4 Autoencoders (AEs) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.8 Model Evaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.8.1 Accuracy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.8.2 Precision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.8.3 Recall (Sensitivity or True Positive Rate) . . . . . . . . . . . . . . . . . 50
2.8.4 F1 Score . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.9 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
Chapter 3: Our Experiments And Results 52
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.2 DataSets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.2.1 Pulmonary Tissue Tumors . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.2.2 Colon Tissue Tumors . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.3 Development Environment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.3.1 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.3.2 Anaconda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.3.3 Google Colab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.4 Implementation Framework . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.4.1 TensorFlow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.4.2 Scikit-learn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.4.3 Keras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.5 Model Developing Steps For Anomaly Detection . . . . . . . . . . . . . . . . . 56
3.5.1 Original Data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.5.2 Images Preparation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.5.3 Model Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.5.4 Model Training . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.5.5 Model Testing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.5.6 Model Evaluation And Save . . . . . . . . . . . . . . . . . . . . . . . . 57
3.6 Pulmonary Tissue Tumors Detection . . . . . . . . . . . . . . . . . . . . . . . . 58
3.6.1 Data Distribution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.6.2 Data Splitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
..........Côte titre : MAI/0871 Anomaly Detection In Medical Images [texte imprimé] / Ikbal Taki Eddine Nasri, Auteur ; Dhiaeddin Hadjaz ; Fella Berrimi, Directeur de thèse . - [S.l.] : Setif:UFA, 2024 . - 1 vol (82 f .) ; 29 cm.
Langues : Anglais (eng)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Informatique Index. décimale : 004 - Informatique Résumé :
Recent advancements in medical image analysis have led to the development of sophisticated algorithms
for segmenting and detecting pathologies. Our study aims to localize and detect pathologies
using deep learning methods. We utilized two annotated datasets: one for lung tissue tumors and
another for colon tissue tumors. For lung tumors, we implemented CNN, DenseNet, and Efficient-
NetB3 models. For colon tumors, we used a transfer learning CNN model. We detail the implementation
stages and analyze the results, finding that deep learning models significantly improve the
accuracy and efficiency of disease detection in medical imaging. These models automate complex
image analysis, supporting healthcare professionals and potentially enhancing patient outcomes.Note de contenu : Sommaire
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
Chapter 1: General Terms in Medical Imaging 12
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2 Image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3 Digital Image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4 Characteristics of A Digital Image . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4.1 Pixel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4.2 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4.3 Resolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4.4 Luminance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4.5 Noise (Digital Noise) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.6 Texture . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.7 Grayscale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.8 Color . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4.9 Image Format . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5 Medical Image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.6 The Different Medical Imaging Technologies . . . . . . . . . . . . . . . . . . . 18
1.6.1 Radiography . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.6.2 Computed Tomography (CT) . . . . . . . . . . . . . . . . . . . . . . . . 18
1.6.3 Magnetic Resonance Imaging (MRI) . . . . . . . . . . . . . . . . . . . . 18
1.6.4 Ultrasound . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.6.5 Nuclear Medicine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.6.6 Positron Emission Tomography (PET) . . . . . . . . . . . . . . . . . . . 20
1.7 Anomalies in Medical Images . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.8 Medical Image Processing Diagram . . . . . . . . . . . . . . . . . . . . . . . . 21
1.8.1 Acquisition of An Image . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.8.2 Preprocessing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.8.3 Segmentation of An Image . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.8.4 Anomaly Detection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.8.5 Interpretation And Analysis . . . . . . . . . . . . . . . . . . . . . . . . 23
1.9 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Chapter 2: Segmentation And Anomaly Detection In Medical Images 25
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2 Medical Image Segmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2.1 Edge-Based Segmentation . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2.2 Region Based Segmentation . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2.3 Thresholding Based Segmentation . . . . . . . . . . . . . . . . . . . . 31
2.2.4 Segmentation Based on Artificial Neural Network (ANN) . . . . . . . . 32
2.3 Anomaly Detection In Medical Images . . . . . . . . . . . . . . . . . . . . . . 34
2.4 Machine Learning-based Anomaly Detection . . . . . . . . . . . . . . . . . . . 34
2.4.1 Machine Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4.2 Machine Learning Process . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.5 Machine Learning Algorithms For Anomaly Detection . . . . . . . . . . . . . . 36
2.5.1 Support Vector Machines (SVMs) . . . . . . . . . . . . . . . . . . . . . 36
2.5.2 Random Forest (RF) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.5.3 k-Means Clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.6 Deep Learning-Based Anomaly Detection . . . . . . . . . . . . . . . . . . . . . 40
2.6.1 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.7 Deep Learning Architectures For Anomaly Detection . . . . . . . . . . . . . . . 41
2.7.1 Convolution Neural Networks (CNNs) . . . . . . . . . . . . . . . . . . 41
2.7.2 U-Net . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.7.3 Generative Adversarial Networks (GANs) . . . . . . . . . . . . . . . . . 45
2.7.4 Autoencoders (AEs) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.8 Model Evaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.8.1 Accuracy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.8.2 Precision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.8.3 Recall (Sensitivity or True Positive Rate) . . . . . . . . . . . . . . . . . 50
2.8.4 F1 Score . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.9 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
Chapter 3: Our Experiments And Results 52
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.2 DataSets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.2.1 Pulmonary Tissue Tumors . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.2.2 Colon Tissue Tumors . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.3 Development Environment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.3.1 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.3.2 Anaconda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.3.3 Google Colab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.4 Implementation Framework . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.4.1 TensorFlow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.4.2 Scikit-learn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.4.3 Keras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.5 Model Developing Steps For Anomaly Detection . . . . . . . . . . . . . . . . . 56
3.5.1 Original Data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.5.2 Images Preparation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.5.3 Model Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.5.4 Model Training . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.5.5 Model Testing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.5.6 Model Evaluation And Save . . . . . . . . . . . . . . . . . . . . . . . . 57
3.6 Pulmonary Tissue Tumors Detection . . . . . . . . . . . . . . . . . . . . . . . . 58
3.6.1 Data Distribution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.6.2 Data Splitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
..........Côte titre : MAI/0871 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0871 MAI/0871 Mémoire Bibliothèque des sciences Anglais Disponible
Disponible
Titre : Cachement des données par interpolation d’images Type de document : texte imprimé Auteurs : Zerzour ,Youcef, Auteur ; Fella Berrimi, Directeur de thèse Editeur : Setif:UFA Année de publication : 2021 Importance : 1 vol (53 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Informatique Mots-clés : L'interpolation d’images
Masquage réversible des donnéesIndex. décimale : 004 - Informatique Résumé :
L’objectif de ce travail est l’étude de l'interpolation d'images, qui est une
branche très importante du traitement d'images. Elle est largement
utilisée dans le monde de l'imagerie. L'interpolation d'images est souvent
utilisée dans les images médicales tridimensionnelles pour compenser
l'insuffisance d'informations pendant la reconstruction de l'image en
simulant des images supplémentaires entre les images
bidimensionnelles.Côte titre : MAI/0530 En ligne : https://drive.google.com/file/d/1Adj7HhOMJZAD-pQVs7VmR3Lcq5QzDPR2/view?usp=shari [...] Format de la ressource électronique : Cachement des données par interpolation d’images [texte imprimé] / Zerzour ,Youcef, Auteur ; Fella Berrimi, Directeur de thèse . - [S.l.] : Setif:UFA, 2021 . - 1 vol (53 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Informatique Mots-clés : L'interpolation d’images
Masquage réversible des donnéesIndex. décimale : 004 - Informatique Résumé :
L’objectif de ce travail est l’étude de l'interpolation d'images, qui est une
branche très importante du traitement d'images. Elle est largement
utilisée dans le monde de l'imagerie. L'interpolation d'images est souvent
utilisée dans les images médicales tridimensionnelles pour compenser
l'insuffisance d'informations pendant la reconstruction de l'image en
simulant des images supplémentaires entre les images
bidimensionnelles.Côte titre : MAI/0530 En ligne : https://drive.google.com/file/d/1Adj7HhOMJZAD-pQVs7VmR3Lcq5QzDPR2/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0530 MAI/0530 Mémoire Bibliothèque des sciences Français Disponible
Disponible
Titre : Détection d'objet (piétons) basée sur HOG Type de document : texte imprimé Auteurs : Khaled Beddar, Auteur ; Amine Fellahi, Auteur ; Fella Berrimi, Directeur de thèse Année de publication : 2022 Importance : 1 vol (76 f .) Format : 29cm Langues : Français (fre) Catégories : Thèses & Mémoires:Informatique Mots-clés : Informatique Index. décimale : 004 Informatique Résumé :
La vision par ordinateur est un domaine scientifiques et une branche de
l’intelligence artificielle ce domaine est né de l’idée de remplacer L’observateur
humain par un ordinateur grâce au traitement d’image.
L’objectif de ce mémoire et de concevoir un système de détection de passages
piétons en combinant deux grands concepts de la vision par ordinateur : la
détection du passage piéton par le descripteurs de l’histogramme de gradient
orienté (HOG) et la classification par le classificateur support vecteur machine
(SVM)Côte titre : MAI/0657 Détection d'objet (piétons) basée sur HOG [texte imprimé] / Khaled Beddar, Auteur ; Amine Fellahi, Auteur ; Fella Berrimi, Directeur de thèse . - 2022 . - 1 vol (76 f .) ; 29cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Informatique Index. décimale : 004 Informatique Résumé :
La vision par ordinateur est un domaine scientifiques et une branche de
l’intelligence artificielle ce domaine est né de l’idée de remplacer L’observateur
humain par un ordinateur grâce au traitement d’image.
L’objectif de ce mémoire et de concevoir un système de détection de passages
piétons en combinant deux grands concepts de la vision par ordinateur : la
détection du passage piéton par le descripteurs de l’histogramme de gradient
orienté (HOG) et la classification par le classificateur support vecteur machine
(SVM)Côte titre : MAI/0657 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0657 MAI/0657 Mémoire Bibliothèque des sciences Français Disponible
Disponible
Titre : Identification of people by face recognition Type de document : texte imprimé Auteurs : Bouzit,Ahmed Amine, Auteur ; Fella Berrimi, Directeur de thèse Editeur : Setif:UFA Année de publication : 2021 Importance : 1 vol (41 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Informatique Mots-clés : Biometrics
FaceIndex. décimale : 004 - Informatique Résumé :
Face recognition is a challenging task in computer vision.
Humans identify the face easily and successfully and evolve very
precise visual skills, they can process a large amount of visual
informations very quickly.
However, scientists are trying for decades to learn the computer
to recognize the face. Recently face recognition has attracted
significant attention in the image analysis.
Our goal is to develop an algorithm to obtain better results
near-real-time using the principal component analysis (PCA)
method, The PCA method consists of comparing characteristics of
the query face to those known individuals in the face space
spanned from the ORL database.Côte titre : MAI/0526 En ligne : https://drive.google.com/file/d/1kEymrQ7kRBMnq61vV5yVo0W8wOMZs_BV/view?usp=shari [...] Format de la ressource électronique : Identification of people by face recognition [texte imprimé] / Bouzit,Ahmed Amine, Auteur ; Fella Berrimi, Directeur de thèse . - [S.l.] : Setif:UFA, 2021 . - 1 vol (41 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Biometrics
FaceIndex. décimale : 004 - Informatique Résumé :
Face recognition is a challenging task in computer vision.
Humans identify the face easily and successfully and evolve very
precise visual skills, they can process a large amount of visual
informations very quickly.
However, scientists are trying for decades to learn the computer
to recognize the face. Recently face recognition has attracted
significant attention in the image analysis.
Our goal is to develop an algorithm to obtain better results
near-real-time using the principal component analysis (PCA)
method, The PCA method consists of comparing characteristics of
the query face to those known individuals in the face space
spanned from the ORL database.Côte titre : MAI/0526 En ligne : https://drive.google.com/file/d/1kEymrQ7kRBMnq61vV5yVo0W8wOMZs_BV/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0526 MAI/0526 Mémoire Bibliothèque des sciences Anglais Disponible
Disponible
Titre : Industrial Vision Inspection System Type de document : document électronique Auteurs : Zouher Oulkhiari ; Akram Benhebbadj, Auteur ; Fella Berrimi, Directeur de thèse Editeur : Setif:UFA Année de publication : 2025 Importance : 1 vol (46 f .) Format : 29 cm Langues : Anglais (eng) Catégories : Thèses & Mémoires:Informatique Mots-clés : Vision Inspection
Deep Learning
CNN
Machine Vision
Image ProcessingIndex. décimale : 004 Informatique Résumé :
This project comprises a vision inspection system for automatic defect detection employing a Convolutional
Neural Network (CNN) built from scratch. The purpose is to improve quality control in industrial
settings by detecting products, such as electronic chips, mechanical parts, tiles, pharmaceuticals and
others ... with the highest accuracy and zero human intervention. The CNN architecture created in this
project is unlike other traditional approaches of machine learning or pre-trained models, where it was
hypothesized end-to-end training on a dataset of labeled images of defective and non-defective samples
was the way to go.The setup involves a preprocessing pipeline for normalizing and augmenting data
followed by a multi-layer CNN specially designed for feature extraction and binary classification. A
Qt/QML front-end application serves as an interface for real-time image annotation, from which various
defect types can be identified and serial codes tracked via Firebase. Thus, the integration of a bespoke
deep-learning model with an interactive application interface creates a well-formed and scalable solution
to the automated visual inspection task.Note de contenu : Sommaire
General Introduction 8
1 Chapter 01: Literature Review 11
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2 Overview of Different Quality Control Methods . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.1 CNN-Based Models . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.2 Vision Transformer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.3 Optical Character Recognition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.4 ZBAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.5 Canny Edge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3 Traditional Approaches vs. Deep Learning-Based Approaches . . . . . . . . . . . . . . . . 14
1.3.1 Comparison between Deep Learning and Traditional Methods . . . . . . . . . . . . 14
1.3.2 Comparison between Grad-CAM and Saliency Maps . . . . . . . . . . . . . . . . . 15
1.4 Deep Learning Models for Defect Detection . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.1 Convolutional Neural Networks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.2 Recurrent Neural Networks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.3 Generative Adversarial Networks . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5 Benchmark Datasets for Defect Detection . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5.1 MVTec AD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5.2 MVTec AD 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5.3 MVTec 3D-AD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.5.4 MVTec LOCO AD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.5.5 T-LESS Dataset . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.5.6 ITODD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.5.7 COCO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.5.8 CARPK . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2 Chapter 02: Methodology 19
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2 Problem Formulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3 Dataset Description . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3.1 Background Generating . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3.2 Noise Generating . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3.3 Rotation Generating . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3.4 Filters . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.5 Dust Generating . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.4 Deep Learning Model Selection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.4.1 User Experience . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.4.2 Speed and Scalability . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.4.3 Unnecessity of Annotation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4.4 Limitation for Transfer Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4.5 Justifying Our Approach . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4.6 Our CNN Building Selection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4.7 Model Training and Validation Process . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4.8 Dataset Dependent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.4.9 Feature Extraction Adaptation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.4.10 Optimizer Selections Based on Variance . . . . . . . . . . . . . . . . . . . . . . . . 24
2.5 Loss Function . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.6 Training Strategy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.6.1 Benchmarking Phase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.6.2 Deployment Phase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.7 Performance Evaluation Metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.7.1 Interpretation of Training Dynamics Through Accuracy and Loss Curves . . . . . 26
2.7.2 Interpretation of Classification Metrics and Model Performance . . . . . . . . . . . 27
2.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3 Chapter 03: Implementation and Experiments 30
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2 Experimental Setup . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2.1 Hardware Setup . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2.2 Software Setup . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.3 Programming Languages and Frameworks . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.3.1 Python 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.3.2 QML Language . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.4 Libraries and Tools . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.4.1 OpenCV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.4.2 PyTorch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.4.3 Pillow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.4.4 Pyrealsense2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.4.5 PySide6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.5 Integration Overview . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.6 Model Training Process . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.6.1 Dataset Preparation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.6.2 Feature Extraction and Complexity Assessment . . . . . . . . . . . . . . . . . . . . 33
3.7 Model Architecture and Hyperparameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.7.1 Optimizer Selection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.7.2 Hyperparameter Selection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.8 Results of Defect Detection Models . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.8.1 Accuracy and Training Performance . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.8.2 Key Observations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.9 Comparison with Existing Approaches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.10 Error Analysis and Limitations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.10.1 Overfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.10.2 Underfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.10.3 Unstable Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.10.4 Summary of Limitations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.11 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4 Chapter 04: Results and Assessment 38
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2 Interpretation of Results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.3 Key Advantages and Drawbacks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.4 Practical Implications for Real-World Inspection . . . . . . . . . . . . . . . . . . . . . . . 40
4.5 Challenges and Potential Improvements . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.6 Future Works . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
General Conclusion 42Côte titre : MAI/0978 Industrial Vision Inspection System [document électronique] / Zouher Oulkhiari ; Akram Benhebbadj, Auteur ; Fella Berrimi, Directeur de thèse . - [S.l.] : Setif:UFA, 2025 . - 1 vol (46 f .) ; 29 cm.
Langues : Anglais (eng)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Vision Inspection
Deep Learning
CNN
Machine Vision
Image ProcessingIndex. décimale : 004 Informatique Résumé :
This project comprises a vision inspection system for automatic defect detection employing a Convolutional
Neural Network (CNN) built from scratch. The purpose is to improve quality control in industrial
settings by detecting products, such as electronic chips, mechanical parts, tiles, pharmaceuticals and
others ... with the highest accuracy and zero human intervention. The CNN architecture created in this
project is unlike other traditional approaches of machine learning or pre-trained models, where it was
hypothesized end-to-end training on a dataset of labeled images of defective and non-defective samples
was the way to go.The setup involves a preprocessing pipeline for normalizing and augmenting data
followed by a multi-layer CNN specially designed for feature extraction and binary classification. A
Qt/QML front-end application serves as an interface for real-time image annotation, from which various
defect types can be identified and serial codes tracked via Firebase. Thus, the integration of a bespoke
deep-learning model with an interactive application interface creates a well-formed and scalable solution
to the automated visual inspection task.Note de contenu : Sommaire
General Introduction 8
1 Chapter 01: Literature Review 11
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2 Overview of Different Quality Control Methods . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.1 CNN-Based Models . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.2 Vision Transformer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.3 Optical Character Recognition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.4 ZBAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.5 Canny Edge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3 Traditional Approaches vs. Deep Learning-Based Approaches . . . . . . . . . . . . . . . . 14
1.3.1 Comparison between Deep Learning and Traditional Methods . . . . . . . . . . . . 14
1.3.2 Comparison between Grad-CAM and Saliency Maps . . . . . . . . . . . . . . . . . 15
1.4 Deep Learning Models for Defect Detection . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.1 Convolutional Neural Networks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.2 Recurrent Neural Networks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.3 Generative Adversarial Networks . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5 Benchmark Datasets for Defect Detection . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5.1 MVTec AD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5.2 MVTec AD 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5.3 MVTec 3D-AD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.5.4 MVTec LOCO AD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.5.5 T-LESS Dataset . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.5.6 ITODD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.5.7 COCO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.5.8 CARPK . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2 Chapter 02: Methodology 19
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2 Problem Formulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3 Dataset Description . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3.1 Background Generating . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3.2 Noise Generating . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3.3 Rotation Generating . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3.4 Filters . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.5 Dust Generating . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.4 Deep Learning Model Selection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.4.1 User Experience . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.4.2 Speed and Scalability . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.4.3 Unnecessity of Annotation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4.4 Limitation for Transfer Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4.5 Justifying Our Approach . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4.6 Our CNN Building Selection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4.7 Model Training and Validation Process . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4.8 Dataset Dependent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.4.9 Feature Extraction Adaptation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.4.10 Optimizer Selections Based on Variance . . . . . . . . . . . . . . . . . . . . . . . . 24
2.5 Loss Function . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.6 Training Strategy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.6.1 Benchmarking Phase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.6.2 Deployment Phase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.7 Performance Evaluation Metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.7.1 Interpretation of Training Dynamics Through Accuracy and Loss Curves . . . . . 26
2.7.2 Interpretation of Classification Metrics and Model Performance . . . . . . . . . . . 27
2.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3 Chapter 03: Implementation and Experiments 30
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2 Experimental Setup . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2.1 Hardware Setup . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2.2 Software Setup . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.3 Programming Languages and Frameworks . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.3.1 Python 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.3.2 QML Language . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.4 Libraries and Tools . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.4.1 OpenCV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.4.2 PyTorch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.4.3 Pillow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.4.4 Pyrealsense2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.4.5 PySide6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.5 Integration Overview . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.6 Model Training Process . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.6.1 Dataset Preparation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.6.2 Feature Extraction and Complexity Assessment . . . . . . . . . . . . . . . . . . . . 33
3.7 Model Architecture and Hyperparameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.7.1 Optimizer Selection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.7.2 Hyperparameter Selection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.8 Results of Defect Detection Models . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.8.1 Accuracy and Training Performance . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.8.2 Key Observations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.9 Comparison with Existing Approaches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.10 Error Analysis and Limitations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.10.1 Overfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.10.2 Underfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.10.3 Unstable Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.10.4 Summary of Limitations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.11 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4 Chapter 04: Results and Assessment 38
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2 Interpretation of Results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.3 Key Advantages and Drawbacks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.4 Practical Implications for Real-World Inspection . . . . . . . . . . . . . . . . . . . . . . . 40
4.5 Challenges and Potential Improvements . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.6 Future Works . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
General Conclusion 42Côte titre : MAI/0978 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0978 MAI/0978 Mémoire Bibliothèque des sciences Anglais Disponible
DisponiblePermalinkPermalinkPermalinkPermalink

