University Sétif 1 FERHAT ABBAS Faculty of Sciences
Détail de l'auteur
Auteur Hamdi ,Skander |
Documents disponibles écrits par cet auteur
Ajouter le résultat dans votre panier Affiner la rechercheConception et optimisation d’un réseau de neurones quantique pour la classification de données complexes / Aicha Khalouta
Titre : Conception et optimisation d’un réseau de neurones quantique pour la classification de données complexes Type de document : document électronique Auteurs : Aicha Khalouta ; Hamdi ,Skander, Directeur de thèse Editeur : Setif:UFA Année de publication : 2025 Importance : 1 vol (87 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Informatique Mots-clés : Réseaux de neurones quantiques
Classification des données complexe
Intelligence artificielle quantique
Informatique quantique
Modèles hybrides (quantique–classique)
Optimisation des performances
Bruit quantique
Applications médicalesIndex. décimale : 004 Informatique Résumé :
Cette étude porte sur la conception et l’optimisation d’un réseau de neurones
quantique pour la classification de données complexes, en exploitant l’intersection
entre l’informatique quantique et l’intelligence artificielle. Dans un premier temps,
le mémoire a présenté les fondements théoriques des réseaux de neurones classiques et de
l’informatique quantique, en définissant les réseaux de neurones quantiques et en mettant
en évidence leurs caractéristiques et avantages par rapport aux modèles traditionnels. Ensuite,
l’accent a été mis sur la conception d’un réseau de neurones quantique capable de
classer des données complexes, ainsi que sur les stratégies d’optimisation de son architecture
afin de surmonter des défis tels que le bruit quantique et la limitation des ressources.
Sur le plan pratique, un modèle hybride quantique–classique a été proposé, combinant
des couches neuronales traditionnelles et de simples circuits quantiques, appliqué Ã
des données médicales pour la classification des tumeurs mammaires. Les résultats ont
montré que le modèle proposé a atteint une performance remarquable et une grande précision,
même avec un nombre limité de qubits, surpassant ainsi certains modèles classiques.
Cette étude confirme que l’approche hybride offre des perspectives prometteuses pour la
classification de données complexes, tout en soulignant la nécessité de dépasser les limitations
actuelles des simulateurs quantiques et de tester ces modèles à l’avenir sur des
processeurs quantiques réels, ouvrant ainsi la voie à des applications pratiques dans divers
domaines tels que la médecine, la cybersécurité et la finance.Note de contenu : Sommaire
Introduction Générale .................................................................. 11
1 Vue d’ensemble sur le réseau neuronal quantique 13
1.1 Introduction ....................................................................... 13
1.2 Réseaux neuronaux et physique quantique : définition et importance de
leur combinaison .................................................................. 13
1.2.1 Présentation générale de l’intelligence artificielle et de la physique
quantique.................................................................. 14
1.2.2 L’importance de la combinaison entre les réseaux neuronaux et la
physique quantique ....................................................... 15
1.3 Réseaux neuronaux artificiels (RNA)............................................ 16
1.3.1 Définition et principe de fonctionnement ............................... 16
1.3.2 Composants d’un réseau neuronal artificiel ............................. 19
1.3.3 Types de réseaux neuronaux artificiels .................................. 19
1.3.4 Structure générale d’un réseau neuronal artificiel ...................... 21
1.3.5 Applications traditionnelles des réseaux neuronaux artificiels ......... 22
1.4 L’informatique quantique ........................................................ 22
1.4.1 L’informatique quantique : origine et définition ........................ 22
1.4.2 Différences entre l’informatique classique traditionnelle et l’informatique
quantique ........................................................ 23
1.4.3 Applications de l’informatique quantique ............................... 24
1.4.4 Concepts fondamentaux de l’informatique quantique .................. 25
1.4.5 Algorithmes quantiques célèbres......................................... 26
1.5 Réseaux neuronaux quantiques (QNN) ......................................... 27
1.5.1 Définition des réseaux neuronaux quantiques (QNN) .................. 28
1.5.2 Caractéristiques des réseaux neuronaux quantiques.................... 28
1.5.3 Comment bénéficier de l’informatique quantique : ..................... 29
1.5.4 Structure générale d’un réseau neuronal quantique .................... 29
1.5.5 Techniques de l’informatique quantique................................. 30
1.5.6 Avantages, inconvénients et défis des réseaux de neurones quantiques 31
1.6 Conclusion......................................................................... 34
2 Méthodologie d’un réseau neuronal quantique pour la classification de
données complexes 35
2.1 Introduction ....................................................................... 35
2.2 Les données complexes ........................................................... 35
2.2.1 Définition des données complexes ....................................... 35
2.2.2 L’importance de la classification des données complexes .............. 36
2.2.3 Les défis de la classification des données complexes.................... 37
2.3 Problèmes courants dans les QNN............................................... 38
2.4 Étapes de conception d’un réseau de neurones quantique pour la classification
de données complexes ....................................................... 41
2.4.1 Choix de l’architecture du réseau de neurones quantique.............. 41
2.4.2 Choix de l’algorithme d’apprentissage .................................. 44
2.4.3 Représentation des données complexes.................................. 46
2.4.4 Environnement de développement et outils utilisés (PennyLane) ..... 49
2.5 Étapes d’optimisation d’un réseau de neurones quantique pour la classification
de données complexes ..................................................... 51
2.5.1 Évaluation initiale du modèle............................................ 51
2.5.2 Choix d’algorithmes d’optimisation efficaces pour les réseaux neuronaux
quantiques (QNN) ............................................... 53
2.5.3 Réglage des hyperparamètres et amélioration de l’architecture du
circuit...................................................................... 54
2.5.4 Intégration d’approches hybrides et de techniques de résistance au
bruit ....................................................................... 55
2.5.5 Évaluation itérative et analyse comparative ............................ 56
2.6 Conclusion......................................................................... 57
3 Approche méthodologique et conception du modèle 59
3.1 Introduction ....................................................................... 59
3.2 Méthodologie ...................................................................... 60
3.2.1 Description des données utilisées ........................................ 60
3.2.2 Langage de programmation, bibliothèques et configuration générale . 61
3.3 Conception et évaluation d’un modèle hybride quantique-classique pour la
classification des tumeurs du sein : Une approche multi-niveaux.............. 62
3.3.1 Paramètres du modèle et d’entraînement ............................... 62
3.3.2 Définition du problème de classification ................................ 63
3.3.3 Étapes méthodologiques de la conception du modèle hybride quantique
....................................................................... 64
3.4 Expérimentations et Résultats ................................................... 69
3.4.1 Analyse du Modèle Quantique appliqué aux tumeurs.................. 69
3.4.2 Résultats de l’Entraînement (Courbes d’Apprentissage)............... 71
3.4.3 Visualisations d’Évaluation (Graphiques)............................... 71
3.5 Évaluation des Performances..................................................... 75
3.6 Comparaison entre l’approche quantique et l’approche classique.............. 77
3.7 Conclusion......................................................................... 80Côte titre : MAI/1067 Conception et optimisation d’un réseau de neurones quantique pour la classification de données complexes [document électronique] / Aicha Khalouta ; Hamdi ,Skander, Directeur de thèse . - [S.l.] : Setif:UFA, 2025 . - 1 vol (87 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Réseaux de neurones quantiques
Classification des données complexe
Intelligence artificielle quantique
Informatique quantique
Modèles hybrides (quantique–classique)
Optimisation des performances
Bruit quantique
Applications médicalesIndex. décimale : 004 Informatique Résumé :
Cette étude porte sur la conception et l’optimisation d’un réseau de neurones
quantique pour la classification de données complexes, en exploitant l’intersection
entre l’informatique quantique et l’intelligence artificielle. Dans un premier temps,
le mémoire a présenté les fondements théoriques des réseaux de neurones classiques et de
l’informatique quantique, en définissant les réseaux de neurones quantiques et en mettant
en évidence leurs caractéristiques et avantages par rapport aux modèles traditionnels. Ensuite,
l’accent a été mis sur la conception d’un réseau de neurones quantique capable de
classer des données complexes, ainsi que sur les stratégies d’optimisation de son architecture
afin de surmonter des défis tels que le bruit quantique et la limitation des ressources.
Sur le plan pratique, un modèle hybride quantique–classique a été proposé, combinant
des couches neuronales traditionnelles et de simples circuits quantiques, appliqué Ã
des données médicales pour la classification des tumeurs mammaires. Les résultats ont
montré que le modèle proposé a atteint une performance remarquable et une grande précision,
même avec un nombre limité de qubits, surpassant ainsi certains modèles classiques.
Cette étude confirme que l’approche hybride offre des perspectives prometteuses pour la
classification de données complexes, tout en soulignant la nécessité de dépasser les limitations
actuelles des simulateurs quantiques et de tester ces modèles à l’avenir sur des
processeurs quantiques réels, ouvrant ainsi la voie à des applications pratiques dans divers
domaines tels que la médecine, la cybersécurité et la finance.Note de contenu : Sommaire
Introduction Générale .................................................................. 11
1 Vue d’ensemble sur le réseau neuronal quantique 13
1.1 Introduction ....................................................................... 13
1.2 Réseaux neuronaux et physique quantique : définition et importance de
leur combinaison .................................................................. 13
1.2.1 Présentation générale de l’intelligence artificielle et de la physique
quantique.................................................................. 14
1.2.2 L’importance de la combinaison entre les réseaux neuronaux et la
physique quantique ....................................................... 15
1.3 Réseaux neuronaux artificiels (RNA)............................................ 16
1.3.1 Définition et principe de fonctionnement ............................... 16
1.3.2 Composants d’un réseau neuronal artificiel ............................. 19
1.3.3 Types de réseaux neuronaux artificiels .................................. 19
1.3.4 Structure générale d’un réseau neuronal artificiel ...................... 21
1.3.5 Applications traditionnelles des réseaux neuronaux artificiels ......... 22
1.4 L’informatique quantique ........................................................ 22
1.4.1 L’informatique quantique : origine et définition ........................ 22
1.4.2 Différences entre l’informatique classique traditionnelle et l’informatique
quantique ........................................................ 23
1.4.3 Applications de l’informatique quantique ............................... 24
1.4.4 Concepts fondamentaux de l’informatique quantique .................. 25
1.4.5 Algorithmes quantiques célèbres......................................... 26
1.5 Réseaux neuronaux quantiques (QNN) ......................................... 27
1.5.1 Définition des réseaux neuronaux quantiques (QNN) .................. 28
1.5.2 Caractéristiques des réseaux neuronaux quantiques.................... 28
1.5.3 Comment bénéficier de l’informatique quantique : ..................... 29
1.5.4 Structure générale d’un réseau neuronal quantique .................... 29
1.5.5 Techniques de l’informatique quantique................................. 30
1.5.6 Avantages, inconvénients et défis des réseaux de neurones quantiques 31
1.6 Conclusion......................................................................... 34
2 Méthodologie d’un réseau neuronal quantique pour la classification de
données complexes 35
2.1 Introduction ....................................................................... 35
2.2 Les données complexes ........................................................... 35
2.2.1 Définition des données complexes ....................................... 35
2.2.2 L’importance de la classification des données complexes .............. 36
2.2.3 Les défis de la classification des données complexes.................... 37
2.3 Problèmes courants dans les QNN............................................... 38
2.4 Étapes de conception d’un réseau de neurones quantique pour la classification
de données complexes ....................................................... 41
2.4.1 Choix de l’architecture du réseau de neurones quantique.............. 41
2.4.2 Choix de l’algorithme d’apprentissage .................................. 44
2.4.3 Représentation des données complexes.................................. 46
2.4.4 Environnement de développement et outils utilisés (PennyLane) ..... 49
2.5 Étapes d’optimisation d’un réseau de neurones quantique pour la classification
de données complexes ..................................................... 51
2.5.1 Évaluation initiale du modèle............................................ 51
2.5.2 Choix d’algorithmes d’optimisation efficaces pour les réseaux neuronaux
quantiques (QNN) ............................................... 53
2.5.3 Réglage des hyperparamètres et amélioration de l’architecture du
circuit...................................................................... 54
2.5.4 Intégration d’approches hybrides et de techniques de résistance au
bruit ....................................................................... 55
2.5.5 Évaluation itérative et analyse comparative ............................ 56
2.6 Conclusion......................................................................... 57
3 Approche méthodologique et conception du modèle 59
3.1 Introduction ....................................................................... 59
3.2 Méthodologie ...................................................................... 60
3.2.1 Description des données utilisées ........................................ 60
3.2.2 Langage de programmation, bibliothèques et configuration générale . 61
3.3 Conception et évaluation d’un modèle hybride quantique-classique pour la
classification des tumeurs du sein : Une approche multi-niveaux.............. 62
3.3.1 Paramètres du modèle et d’entraînement ............................... 62
3.3.2 Définition du problème de classification ................................ 63
3.3.3 Étapes méthodologiques de la conception du modèle hybride quantique
....................................................................... 64
3.4 Expérimentations et Résultats ................................................... 69
3.4.1 Analyse du Modèle Quantique appliqué aux tumeurs.................. 69
3.4.2 Résultats de l’Entraînement (Courbes d’Apprentissage)............... 71
3.4.3 Visualisations d’Évaluation (Graphiques)............................... 71
3.5 Évaluation des Performances..................................................... 75
3.6 Comparaison entre l’approche quantique et l’approche classique.............. 77
3.7 Conclusion......................................................................... 80Côte titre : MAI/1067 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/1067 MAI/1067 Mémoire Bibliothèque des sciences Français Disponible
Disponible
Titre : Deep Learning for Age, Gender and Race Identification based on Face Recognition Type de document : texte imprimé Auteurs : Hamdi ,Skander, Auteur ; Moussaoui ,Abdelouahab, Directeur de thèse Editeur : Setif:UFA Année de publication : 2019 Importance : 1 vol (71 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Informatique Mots-clés : Machine learning
Convolutional neural n
Recognition
Feature extraction
Tensorflow
KerasIndex. décimale : 004 - Informatique Résumé : Ce mémoire de master présente un systéme basé sur une approche d’apprentissage
profond Réseau de Neurones Convolutif (CNN). L’objectif du travail est de prédire
automatiquement, l’age, le genre et la race à partir d’une image faciale d’une personne.
Notre approche à été testée est verifiée en utilisant la base de données
publique UTKFace qui contient plus de 20.000 images de différentes personnes.
Cette base de données est composée d’enfants, adolescents, adults pour la classe
d’age, mâle, femelle pour le genre et blanc, noir, asiatique, indien, autres pour la
race. On a fait une étude comparative entre différentes approches d’apprentissage
automatique et apprentissage profond et les résultats ont montrés que l’approche
profonde avec CNN a donné les meilleures résultats de teste.Note de contenu : Sommaire
Theoritical Background 3
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Machine learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1 Definitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1.1 Arthur Samuel . . . . . . . . . . . . . . . . . . . . . 4
1.2.1.2 Tom M. Mitchell . . . . . . . . . . . . . . . . . . . . 4
1.2.1.3 Alan Turing . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2 Machine learning categories . . . . . . . . . . . . . . . . . . . 4
1.2.2.1 Supervised learning . . . . . . . . . . . . . . . . . . 5
1.2.2.2 Unsupervised learning . . . . . . . . . . . . . . . . 6
1.2.2.3 Semi-supervised learning . . . . . . . . . . . . . . . 6
1.2.2.4 Reinforcement learning . . . . . . . . . . . . . . . . 6
1.2.3 Popular Machine learning algorithms . . . . . . . . . . . . . 7
1.2.3.1 k-Nearest Neighbors (kNN) . . . . . . . . . . . . . 7
1.2.3.2 Decision Trees . . . . . . . . . . . . . . . . . . . . . 8
1.2.3.3 Logistic Regression . . . . . . . . . . . . . . . . . . 9
1.2.3.4 Support Vector Machines . . . . . . . . . . . . . . . 10
1.2.3.5 Artificial Neural Networks . . . . . . . . . . . . . . 13
1.2.3.6 Random Forest . . . . . . . . . . . . . . . . . . . . . 19
1.2.4 Evaluation metrics . . . . . . . . . . . . . . . . . . . . . . . . 20
1.2.5 Overfitting and Underfitting . . . . . . . . . . . . . . . . . . 21
1.2.5.1 Overfitting . . . . . . . . . . . . . . . . . . . . . . . 21
1.2.5.2 Underfitting . . . . . . . . . . . . . . . . . . . . . . 21
1.3 Deep learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.3.1 Definition and Concept . . . . . . . . . . . . . . . . . . . . . 21
1.3.2 Deep learning architectures . . . . . . . . . . . . . . . . . . . 22
1.3.2.1 Deep Neural Networks (DNN) . . . . . . . . . . . 22
1.3.2.2 Convolutional Neural Networks . . . . . . . . . . . 23
Contents 3
1.3.2.3 Recurrent Neural Networks . . . . . . . . . . . . . 27
1.3.3 Neural Networks and overfitting . . . . . . . . . . . . . . . . 28
1.3.3.1 Dropout . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.3.3.2 Batch Normalization . . . . . . . . . . . . . . . . . 28
1.3.4 Deep learning applications . . . . . . . . . . . . . . . . . . . 28
1.3.4.1 Image Recognition . . . . . . . . . . . . . . . . . . . 29
1.3.4.2 Audio Processing . . . . . . . . . . . . . . . . . . . 29
1.3.4.3 Natural Language Processing . . . . . . . . . . . . 30
1.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2 Literature Review 31
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.2 Face Recognition and Feature Extraction . . . . . . . . . . . . . . . . 31
2.2.1 Human Face Feature Points . . . . . . . . . . . . . . . . . . . 31
2.2.2 Feature Extraction Methods . . . . . . . . . . . . . . . . . . . 32
2.2.2.1 Principal Component Analysis . . . . . . . . . . . . 33
2.2.2.2 Kernel Principal Component Analysis . . . . . . . 34
2.2.2.3 Linear Discriminate Analysis . . . . . . . . . . . . . 35
2.3 Related works . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.3.1 Age Estimation and Classification . . . . . . . . . . . . . . . 36
2.3.2 Gender Classification . . . . . . . . . . . . . . . . . . . . . . . 38
2.3.3 Ethnicity Classification . . . . . . . . . . . . . . . . . . . . . . 39
2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3 Methodology and Experiments 42
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2 Dataset and Preprocessing . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2.1 Dataset Description . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2.2 Preprocessing . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3 Development environment . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3.1 Software . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3.1.1 Python . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.3.1.2 NumPy . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.3.1.3 Jupyter Notebook . . . . . . . . . . . . . . . . . . . 46
3.3.1.4 Scikit-Learn . . . . . . . . . . . . . . . . . . . . . . . 46
3.3.1.5 Matplotlib . . . . . . . . . . . . . . . . . . . . . . . 46
Contents 4
3.3.1.6 Tensorflow . . . . . . . . . . . . . . . . . . . . . . . 47
3.3.1.7 Keras . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.3.2 Hardware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.3.2.1 Google Colaboratory Cloud . . . . . . . . . . . . . 47
3.3.2.2 Kaggle Kernel Cloud . . . . . . . . . . . . . . . . . 48
3.4 Methodology and Experiments Results . . . . . . . . . . . . . . . . 48
3.4.1 Implementation . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.4.2 Proposed Methods . . . . . . . . . . . . . . . . . . . . . . . . 48
3.4.2.1 Support Vector Machines (SVM) . . . . . . . . . . . 48
3.4.2.2 Random Forest . . . . . . . . . . . . . . . . . . . . . 49
3.4.2.3 Artificial Neural Network (Single Layer Perceptron
SLP) . . . . . . . . . . . . . . . . . . . . . . . . 49
3.4.2.4 Artificial Neural Network (Multi-Layer Perceptron
MLP) . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.4.2.5 Transfer Learning . . . . . . . . . . . . . . . . . . . 49
3.4.2.6 Convolutional Neural Network . . . . . . . . . . . 52
3.4.3 Experiments Results . . . . . . . . . . . . . . . . . . . . . . . 53
3.4.3.1 Support Vector Machines (SVM) . . . . . . . . . . . 54
3.4.3.2 Random Forest . . . . . . . . . . . . . . . . . . . . . 54
3.4.3.3 Artificial Neural Network (Single Layer Perceptron
SLP) . . . . . . . . . . . . . . . . . . . . . . . . 54
3.4.3.4 Artificial Neural Network (Multi-Layer Perceptron
MLP) . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.4.3.5 Transfer Learning . . . . . . . . . . . . . . . . . . . 57
3.4.3.6 Convolutional Neural Network . . . . . . . . . . . 61
Discussion 68
Conclusion 70
Bibliography 71Côte titre : MAI/0287 En ligne : https://drive.google.com/file/d/1sc20Stq3cwCDecar4ArShHzSaNJKTe36/view?usp=shari [...] Format de la ressource électronique : Deep Learning for Age, Gender and Race Identification based on Face Recognition [texte imprimé] / Hamdi ,Skander, Auteur ; Moussaoui ,Abdelouahab, Directeur de thèse . - [S.l.] : Setif:UFA, 2019 . - 1 vol (71 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Machine learning
Convolutional neural n
Recognition
Feature extraction
Tensorflow
KerasIndex. décimale : 004 - Informatique Résumé : Ce mémoire de master présente un systéme basé sur une approche d’apprentissage
profond Réseau de Neurones Convolutif (CNN). L’objectif du travail est de prédire
automatiquement, l’age, le genre et la race à partir d’une image faciale d’une personne.
Notre approche à été testée est verifiée en utilisant la base de données
publique UTKFace qui contient plus de 20.000 images de différentes personnes.
Cette base de données est composée d’enfants, adolescents, adults pour la classe
d’age, mâle, femelle pour le genre et blanc, noir, asiatique, indien, autres pour la
race. On a fait une étude comparative entre différentes approches d’apprentissage
automatique et apprentissage profond et les résultats ont montrés que l’approche
profonde avec CNN a donné les meilleures résultats de teste.Note de contenu : Sommaire
Theoritical Background 3
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Machine learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1 Definitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1.1 Arthur Samuel . . . . . . . . . . . . . . . . . . . . . 4
1.2.1.2 Tom M. Mitchell . . . . . . . . . . . . . . . . . . . . 4
1.2.1.3 Alan Turing . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2 Machine learning categories . . . . . . . . . . . . . . . . . . . 4
1.2.2.1 Supervised learning . . . . . . . . . . . . . . . . . . 5
1.2.2.2 Unsupervised learning . . . . . . . . . . . . . . . . 6
1.2.2.3 Semi-supervised learning . . . . . . . . . . . . . . . 6
1.2.2.4 Reinforcement learning . . . . . . . . . . . . . . . . 6
1.2.3 Popular Machine learning algorithms . . . . . . . . . . . . . 7
1.2.3.1 k-Nearest Neighbors (kNN) . . . . . . . . . . . . . 7
1.2.3.2 Decision Trees . . . . . . . . . . . . . . . . . . . . . 8
1.2.3.3 Logistic Regression . . . . . . . . . . . . . . . . . . 9
1.2.3.4 Support Vector Machines . . . . . . . . . . . . . . . 10
1.2.3.5 Artificial Neural Networks . . . . . . . . . . . . . . 13
1.2.3.6 Random Forest . . . . . . . . . . . . . . . . . . . . . 19
1.2.4 Evaluation metrics . . . . . . . . . . . . . . . . . . . . . . . . 20
1.2.5 Overfitting and Underfitting . . . . . . . . . . . . . . . . . . 21
1.2.5.1 Overfitting . . . . . . . . . . . . . . . . . . . . . . . 21
1.2.5.2 Underfitting . . . . . . . . . . . . . . . . . . . . . . 21
1.3 Deep learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.3.1 Definition and Concept . . . . . . . . . . . . . . . . . . . . . 21
1.3.2 Deep learning architectures . . . . . . . . . . . . . . . . . . . 22
1.3.2.1 Deep Neural Networks (DNN) . . . . . . . . . . . 22
1.3.2.2 Convolutional Neural Networks . . . . . . . . . . . 23
Contents 3
1.3.2.3 Recurrent Neural Networks . . . . . . . . . . . . . 27
1.3.3 Neural Networks and overfitting . . . . . . . . . . . . . . . . 28
1.3.3.1 Dropout . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.3.3.2 Batch Normalization . . . . . . . . . . . . . . . . . 28
1.3.4 Deep learning applications . . . . . . . . . . . . . . . . . . . 28
1.3.4.1 Image Recognition . . . . . . . . . . . . . . . . . . . 29
1.3.4.2 Audio Processing . . . . . . . . . . . . . . . . . . . 29
1.3.4.3 Natural Language Processing . . . . . . . . . . . . 30
1.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2 Literature Review 31
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.2 Face Recognition and Feature Extraction . . . . . . . . . . . . . . . . 31
2.2.1 Human Face Feature Points . . . . . . . . . . . . . . . . . . . 31
2.2.2 Feature Extraction Methods . . . . . . . . . . . . . . . . . . . 32
2.2.2.1 Principal Component Analysis . . . . . . . . . . . . 33
2.2.2.2 Kernel Principal Component Analysis . . . . . . . 34
2.2.2.3 Linear Discriminate Analysis . . . . . . . . . . . . . 35
2.3 Related works . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.3.1 Age Estimation and Classification . . . . . . . . . . . . . . . 36
2.3.2 Gender Classification . . . . . . . . . . . . . . . . . . . . . . . 38
2.3.3 Ethnicity Classification . . . . . . . . . . . . . . . . . . . . . . 39
2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3 Methodology and Experiments 42
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2 Dataset and Preprocessing . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2.1 Dataset Description . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2.2 Preprocessing . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3 Development environment . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3.1 Software . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3.1.1 Python . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.3.1.2 NumPy . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.3.1.3 Jupyter Notebook . . . . . . . . . . . . . . . . . . . 46
3.3.1.4 Scikit-Learn . . . . . . . . . . . . . . . . . . . . . . . 46
3.3.1.5 Matplotlib . . . . . . . . . . . . . . . . . . . . . . . 46
Contents 4
3.3.1.6 Tensorflow . . . . . . . . . . . . . . . . . . . . . . . 47
3.3.1.7 Keras . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.3.2 Hardware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.3.2.1 Google Colaboratory Cloud . . . . . . . . . . . . . 47
3.3.2.2 Kaggle Kernel Cloud . . . . . . . . . . . . . . . . . 48
3.4 Methodology and Experiments Results . . . . . . . . . . . . . . . . 48
3.4.1 Implementation . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.4.2 Proposed Methods . . . . . . . . . . . . . . . . . . . . . . . . 48
3.4.2.1 Support Vector Machines (SVM) . . . . . . . . . . . 48
3.4.2.2 Random Forest . . . . . . . . . . . . . . . . . . . . . 49
3.4.2.3 Artificial Neural Network (Single Layer Perceptron
SLP) . . . . . . . . . . . . . . . . . . . . . . . . 49
3.4.2.4 Artificial Neural Network (Multi-Layer Perceptron
MLP) . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.4.2.5 Transfer Learning . . . . . . . . . . . . . . . . . . . 49
3.4.2.6 Convolutional Neural Network . . . . . . . . . . . 52
3.4.3 Experiments Results . . . . . . . . . . . . . . . . . . . . . . . 53
3.4.3.1 Support Vector Machines (SVM) . . . . . . . . . . . 54
3.4.3.2 Random Forest . . . . . . . . . . . . . . . . . . . . . 54
3.4.3.3 Artificial Neural Network (Single Layer Perceptron
SLP) . . . . . . . . . . . . . . . . . . . . . . . . 54
3.4.3.4 Artificial Neural Network (Multi-Layer Perceptron
MLP) . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.4.3.5 Transfer Learning . . . . . . . . . . . . . . . . . . . 57
3.4.3.6 Convolutional Neural Network . . . . . . . . . . . 61
Discussion 68
Conclusion 70
Bibliography 71Côte titre : MAI/0287 En ligne : https://drive.google.com/file/d/1sc20Stq3cwCDecar4ArShHzSaNJKTe36/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0287 MAI/0287 Mémoire Bibliothèque des sciences Français Disponible
Disponible
Titre : Deep Learning Models for Brain Cancer Segmentation and Prognostic Analysis Type de document : document électronique Auteurs : Hiba Djari ; Malak Lamara, Auteur ; Hamdi ,Skander, Directeur de thèse Editeur : Setif:UFA Année de publication : 2025 Importance : 1 vol (64 f .) Format : 29 cm Langues : Anglais (eng) Catégories : Thèses & Mémoires:Informatique Mots-clés : Informatique Index. décimale : 004 Informatique Résumé :
Deep Learning (DL) has introduced transformative potential in medical diagnostics, particularly in oncology,
where complex tumor structures present significant challenges for treatment planning. The accurate
segmentation of brain tumors from Magnetic Resonance Imaging (MRI) is a critical first step, and recent
advancements in DL have greatly enhanced the efficiency and reliability of this process. By integrating
these precise segmentation outputs with clinical and genetic data, prognostic analysis can be substantially
improved, paving the way for more accurate tumor prediction and robust clinical decision support.
This thesis aims to develop and evaluate a comprehensive pipeline for brain tumor analysis, from segmentation
to survival prediction. It focuses on comparing advanced DL architectures for segmenting brain
tumors and explores the adaptation of large-scale, general-purpose vision models for this specialized medical
task. The ultimate goal is to fuse imaging features with clinical and genetic data to accurately estimate
patient survival probability and stratify risk levels, thereby enhancing personalized treatment strategies.
This work offers a thorough exploration of both established and cutting-edge DL models for brain tumor
segmentation and prognosis. The first contribution is a comparative analysis of segmentation models, including
a standard U-Net, a DeepResUNet, and a VGG19-based U-Net, alongside foundational models like
a fine-tuned Segment Anything Model (SAM) and the specialized Medical Segment Anything Model (Med-
SAM). The results underscored the effectiveness of MedSAM, which demonstrated superior performance .
The second contribution introduces a prognostic analysis pipeline that leverages features extracted from the
segmentation masks. This pipeline proved highly effective, with the Support Vector Machine (SVM) model
showing notable success in accurately identifying high-risk patients, while the XGBoost model demonstrated
strong predictive power for classifying low-risk patients.
Overall, these contributions validate a powerful, integrated approach for brain cancer analysis. The
findings confirm that leveraging both CNN-based architectures and fine-tuned foundational models can yield
highly accurate tumor delineations. Furthermore, the successful integration of these segmentation results
into a prognostic pipeline demonstrates the critical role of automated image analysis in fostering personalized
and more effective clinical management of brain tumors.Note de contenu : Sommaire
1 Introduction 14
1.1 Research Context and Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2 Research Contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3 Structure of thesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2 Background 17
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 Deep Learning Approaches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.1 CNN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.2 U-Net . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.3 Deep ResUNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2.4 VGG19-UNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.5 SAM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.6 MedSAM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3 Standard Classifiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3.1 SVM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3.2 Logistic Regression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4 Ensemble Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4.1 Random Forest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4.2 XGBoost . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.4.3 CatBoost . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.4.4 Majority voting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3 Literature review 26
3.1 Overview on Brain Cancer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2 Related Works . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4 Methodology 32
4.1 Overview . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.2 Dataset Description . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.3 Models Implementation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.3.1 Data Preparation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.3.2 U-Net . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.3.3 Deep ResUNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.3.4 VGG19-UNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.3.5 SAM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.3.6 MedSAM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.4 Prognostic Analysis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.4.1 Model and Dataset Initialization . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.4.2 Tumor Segmentation and Feature Extraction . . . . . . . . . . . . . . . . . . . . . . . 47
4.4.3 Feature Vector Construction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.4.4 Prognostic Prediction and Thresholding . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.4.5 Visualization . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.4.6 Feature Extraction from Segmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.4.7 Classifier Models . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.4.8 Confusion matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5 General ConclusionCôte titre : MAI/0964 Deep Learning Models for Brain Cancer Segmentation and Prognostic Analysis [document électronique] / Hiba Djari ; Malak Lamara, Auteur ; Hamdi ,Skander, Directeur de thèse . - [S.l.] : Setif:UFA, 2025 . - 1 vol (64 f .) ; 29 cm.
Langues : Anglais (eng)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Informatique Index. décimale : 004 Informatique Résumé :
Deep Learning (DL) has introduced transformative potential in medical diagnostics, particularly in oncology,
where complex tumor structures present significant challenges for treatment planning. The accurate
segmentation of brain tumors from Magnetic Resonance Imaging (MRI) is a critical first step, and recent
advancements in DL have greatly enhanced the efficiency and reliability of this process. By integrating
these precise segmentation outputs with clinical and genetic data, prognostic analysis can be substantially
improved, paving the way for more accurate tumor prediction and robust clinical decision support.
This thesis aims to develop and evaluate a comprehensive pipeline for brain tumor analysis, from segmentation
to survival prediction. It focuses on comparing advanced DL architectures for segmenting brain
tumors and explores the adaptation of large-scale, general-purpose vision models for this specialized medical
task. The ultimate goal is to fuse imaging features with clinical and genetic data to accurately estimate
patient survival probability and stratify risk levels, thereby enhancing personalized treatment strategies.
This work offers a thorough exploration of both established and cutting-edge DL models for brain tumor
segmentation and prognosis. The first contribution is a comparative analysis of segmentation models, including
a standard U-Net, a DeepResUNet, and a VGG19-based U-Net, alongside foundational models like
a fine-tuned Segment Anything Model (SAM) and the specialized Medical Segment Anything Model (Med-
SAM). The results underscored the effectiveness of MedSAM, which demonstrated superior performance .
The second contribution introduces a prognostic analysis pipeline that leverages features extracted from the
segmentation masks. This pipeline proved highly effective, with the Support Vector Machine (SVM) model
showing notable success in accurately identifying high-risk patients, while the XGBoost model demonstrated
strong predictive power for classifying low-risk patients.
Overall, these contributions validate a powerful, integrated approach for brain cancer analysis. The
findings confirm that leveraging both CNN-based architectures and fine-tuned foundational models can yield
highly accurate tumor delineations. Furthermore, the successful integration of these segmentation results
into a prognostic pipeline demonstrates the critical role of automated image analysis in fostering personalized
and more effective clinical management of brain tumors.Note de contenu : Sommaire
1 Introduction 14
1.1 Research Context and Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2 Research Contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3 Structure of thesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2 Background 17
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 Deep Learning Approaches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.1 CNN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.2 U-Net . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.3 Deep ResUNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2.4 VGG19-UNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.5 SAM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.6 MedSAM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3 Standard Classifiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3.1 SVM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3.2 Logistic Regression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4 Ensemble Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4.1 Random Forest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4.2 XGBoost . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.4.3 CatBoost . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.4.4 Majority voting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3 Literature review 26
3.1 Overview on Brain Cancer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2 Related Works . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4 Methodology 32
4.1 Overview . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.2 Dataset Description . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.3 Models Implementation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.3.1 Data Preparation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.3.2 U-Net . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.3.3 Deep ResUNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.3.4 VGG19-UNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.3.5 SAM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.3.6 MedSAM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.4 Prognostic Analysis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.4.1 Model and Dataset Initialization . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.4.2 Tumor Segmentation and Feature Extraction . . . . . . . . . . . . . . . . . . . . . . . 47
4.4.3 Feature Vector Construction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.4.4 Prognostic Prediction and Thresholding . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.4.5 Visualization . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.4.6 Feature Extraction from Segmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.4.7 Classifier Models . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.4.8 Confusion matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5 General ConclusionCôte titre : MAI/0964 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0964 MAI/0964 Mémoire Bibliothèque des sciences Anglais Disponible
DisponibleDeep Learning Models for Medical Image Segmentation: Approaches and Applications / Houssem Dhia Eddine Arras
Titre : Deep Learning Models for Medical Image Segmentation: Approaches and Applications Type de document : document électronique Auteurs : Houssem Dhia Eddine Arras ; Dhia Eddine Lahrache, Auteur ; Hamdi ,Skander, Directeur de thèse Editeur : Setif:UFA Année de publication : 2025 Importance : 1 vol (64 f .) Format : 29 cm Langues : Anglais (eng) Catégories : Thèses & Mémoires:Informatique Mots-clés : Medical image segmentation
Stroke
Deep Learning
U-Net
UNet++
Attention U-Net
MRI
ATLAS 2.0
Convolutional Neural Networks
Dice
IoUIndex. décimale : 004 Informatique Résumé :
The increased availability of medical image data, particularly from modalities such as Magnetic Resonance Imaging (MRI), has opened up possibilities to develop smart systems to aid clinical diagnosis and treatment planning. However, the complexity and volume of such data render manual analysis cumbersome. This thesis addresses the problem of automatic stroke lesion segmentation in brain MRI images through deep learning techniques. A thorough experimental evaluation was conducted with three CNN architectures: U-Net, Attention U-Net, and UNet++. The networks were trained and evaluated on a sub-dataset of the ATLAS 2.0 dataset with annotated post-stroke MRI images. The performance of each model was evaluated by Dice coefficient and Intersection over Union (IoU) metrics. The result shows that the standard U-Net worked well for segmentation ( 74.76% ), and the Attention U-Net and UNet++ provided improvements in lesion boundary and location refinement. The findings show the effectiveness of CNN-based models in effectively segmenting stroke lesions from 2D medical images. This study adds value to the medical image analysis field by providing insight into the capabilities of deep learning models for stroke segmentation and acts as a baseline for further improvement using 3D architectures or transformer-based models.Note de contenu : Sommaire
List of Tables.............................................................................................................................. IX
1 Introduction to Medical Image Segmentation Using Deep Learning ................................ 3
1.1 Introduction ..................................................................................................................... 3
1.2 Overview of Medical Image Segmentation in Healthcare .............................................. 3
1.2.1 Definition of medical image segmentation ......................................................... 3
1.2.2 Applications in disease diagnosis, treatment planning, and monitoring ............. 4
1.2.3 Importance of Medical Image segmentation in disease detection and analysis .. 4
1.3 Importance of Deep Learning in Improving Segmentation Accuracy ............................ 5
1.3.1 Traditional segmentation methods ...................................................................... 5
1.3.2 Deep learning revolution ..................................................................................... 6
1.3.3 Automation and precision: How DL models improve stroke segmentation ....... 7
1.4 Problem Statement and Research Motivation ................................................................. 7
1.4.1 Problem Statement .............................................................................................. 7
1.4.2 Research Motivation ........................................................................................... 8
1.5 Objectives of the Study ................................................................................................... 8
1.6 Conclusion ....................................................................................................................... 9
2 Deep Learning Fundamentals and Advances in Segmentation Models ........................... 10
2.1 Introduction ................................................................................................................... 10
2.2 Introduction to Deep Learning ...................................................................................... 11
2.2.1 Definition and history of deep learning ............................................................ 11
2.2.2 Difference between deep learning, machine learning, and artificial intelligence .. 11
2.3 Neural Networks and Architectures .............................................................................. 12
2.3.1 Basics of artificial neural networks (ANN) ...................................................... 12
2.3.2 Convolutional Neural Networks (CNN) and their role in image processing .... 14
2.3.2.1 Key Features of CNNs ........................................................................ 14
2.3.2.2 Applications in Image Processing ....................................................... 15
2.4 Training Deep Learning Models ................................................................................... 15
2.4.1 Data Preparation and Augmentation Techniques .............................................. 15
2.4.1.1 Preprocessing of Medical Images ....................................................... 16
2.4.1.2 Data Augmentation ............................................................................. 16
2.4.1.3 Common Data Augmentation Techniques........................................... 17
2.4.1.4 Handling Imbalanced Datasets ............................................................ 17
2.4.2 Loss Functions Used in Segmentation .............................................................. 18
2.4.2.1 Standard Losses in Segmentation ....................................................... 18
2.4.2.2 Segmentation-Specific Loss Functions ............................................... 18
2.4.2.3 Handling Class Imbalance and Small Lesions .................................... 19
2.4.3 Optimization Algorithms ................................................................................... 20
2.4.3.1 Common Optimization Algorithms ..................................................... 20
2.4.3.2 Hyperparameters and Training Behavior ............................................ 21
2.4.3.3 Learning Rate Schedulers ................................................................... 22
2.4.4 Regularization Techniques ................................................................................ 22
2.4.4.1 Common Regularization Techniques .................................................. 22
2.4.4.2 Additional Techniques ......................................................................... 24
2.5 Evaluation Metrics for Segmentation ............................................................................ 24
2.5.1 Dice Similarity Coefficient (DSC) .................................................................... 24
2.5.2 Intersection over Union (IoU) ........................................................................... 25
2.5.3 Sensitivity, Specificity, and Accuracy ............................................................... 27
2.6 Advances in Deep Learning for Segmentation .............................................................. 28
2.6.1 Introduction to Foundation Models ................................................................... 28
2.6.2 Transfer Learning and Pretrained Models ......................................................... 29
2.6.3 Attention Mechanisms in Segmentation Models............................................... 29
2.7 Model Architectures for Segmentation.......................................................................... 30
2.7.1 U-Net ................................................................................................................. 30
2.7.2 U-Net++ ............................................................................................................ 31
2.7.3 Attention U-Net ................................................................................................. 33
2.8 Conclusion ..................................................................................................................... 34
3 Background and Related Work on Stroke ......................................................................... 35
3.1 Introduction ................................................................................................................... 35
3.2 Stroke Overview ............................................................................................................ 35
3.2.1 Definition .......................................................................................................... 35
3.2.2 Types ................................................................................................................. 36
3.2.3 Symptoms .......................................................................................................... 37
3.2.4 Diagnostic ......................................................................................................... 37
3.2.5 Treatment .......................................................................................................... 38
3.3 Medical Imaging Techniques for Stroke ....................................................................... 39
3.3.1 Computed Tomography (CT) ............................................................................ 39
3.3.2 Magnetic Resonance Imaging (MRI) ............................................................... 40
3.4 Importance of Stroke Lesion Segmentation and Deep Learning’s Role ....................... 40
3.4.1 Significance of Stroke Lesion Segmentation in Research and Medicine ......... 40
3.4.2 Deep Learning for Stroke Lesion Segmentation ............................................... 41
3.5 Related Work ................................................................................................................. 42
3.6 Conclusion ..................................................................................................................... 45
4 Experiment And Results ...................................................................................................... 46
4.1 Introduction ................................................................................................................... 46
4.2 Data description ............................................................................................................. 46
4.2.1 Image Characteristics ........................................................................................ 47
4.2.2 Key Metadata Features ...................................................................................... 47
4.2.3 Data Samples ..................................................................................................... 48
4.3 Data Preprocessing ........................................................................................................ 49
4.3.1 Extraction of 2D Slices ..................................................................................... 49
4.3.2 Filtering Slices .................................................................................................. 49
4.3.3 Normalization of Images ................................................................................... 49
4.3.4 Resizing ............................................................................................................. 50
4.3.5 Data Augmentation............................................................................................ 50
4.4 Methodology and Results .............................................................................................. 50
4.4.1 Stroke UNet-Architecture ................................................................................. 51
4.4.1.1 Overall Structure ................................................................................. 52
4.4.1.2 Convolutional Block ........................................................................... 52
4.4.1.3 Contracting Path (Encoder) ................................................................. 52
4.4.1.4 Expanding Path (Decoder) .................................................................. 53
4.4.1.5 Output Layer ....................................................................................... 53
4.4.1.6 Results ................................................................................................. 53
4.4.2 Attention UNet-Architecture ............................................................................. 54
4.4.2.1 Overall Structure ................................................................................. 55
4.4.2.3 Attention Block Objectives ................................................................. 55
4.4.2.4 Results ................................................................................................. 56
4.4.3 UNet++ Architecture ......................................................................................... 57
4.4.3.1 Objectives ............................................................................................ 57
4.4.3.2 Results ................................................................................................. 58
4.4.4 Results Discussion ............................................................................................ 58
4.4.5 Model Prediction Capability ............................................................................. 60
4.5 Comparision With Related Works ................................................................................ 62
4.6 Conclusion .................................................................................................................... 62
Bibliography ................................................................................................................................ 64Côte titre : MAI/0998 Deep Learning Models for Medical Image Segmentation: Approaches and Applications [document électronique] / Houssem Dhia Eddine Arras ; Dhia Eddine Lahrache, Auteur ; Hamdi ,Skander, Directeur de thèse . - [S.l.] : Setif:UFA, 2025 . - 1 vol (64 f .) ; 29 cm.
Langues : Anglais (eng)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Medical image segmentation
Stroke
Deep Learning
U-Net
UNet++
Attention U-Net
MRI
ATLAS 2.0
Convolutional Neural Networks
Dice
IoUIndex. décimale : 004 Informatique Résumé :
The increased availability of medical image data, particularly from modalities such as Magnetic Resonance Imaging (MRI), has opened up possibilities to develop smart systems to aid clinical diagnosis and treatment planning. However, the complexity and volume of such data render manual analysis cumbersome. This thesis addresses the problem of automatic stroke lesion segmentation in brain MRI images through deep learning techniques. A thorough experimental evaluation was conducted with three CNN architectures: U-Net, Attention U-Net, and UNet++. The networks were trained and evaluated on a sub-dataset of the ATLAS 2.0 dataset with annotated post-stroke MRI images. The performance of each model was evaluated by Dice coefficient and Intersection over Union (IoU) metrics. The result shows that the standard U-Net worked well for segmentation ( 74.76% ), and the Attention U-Net and UNet++ provided improvements in lesion boundary and location refinement. The findings show the effectiveness of CNN-based models in effectively segmenting stroke lesions from 2D medical images. This study adds value to the medical image analysis field by providing insight into the capabilities of deep learning models for stroke segmentation and acts as a baseline for further improvement using 3D architectures or transformer-based models.Note de contenu : Sommaire
List of Tables.............................................................................................................................. IX
1 Introduction to Medical Image Segmentation Using Deep Learning ................................ 3
1.1 Introduction ..................................................................................................................... 3
1.2 Overview of Medical Image Segmentation in Healthcare .............................................. 3
1.2.1 Definition of medical image segmentation ......................................................... 3
1.2.2 Applications in disease diagnosis, treatment planning, and monitoring ............. 4
1.2.3 Importance of Medical Image segmentation in disease detection and analysis .. 4
1.3 Importance of Deep Learning in Improving Segmentation Accuracy ............................ 5
1.3.1 Traditional segmentation methods ...................................................................... 5
1.3.2 Deep learning revolution ..................................................................................... 6
1.3.3 Automation and precision: How DL models improve stroke segmentation ....... 7
1.4 Problem Statement and Research Motivation ................................................................. 7
1.4.1 Problem Statement .............................................................................................. 7
1.4.2 Research Motivation ........................................................................................... 8
1.5 Objectives of the Study ................................................................................................... 8
1.6 Conclusion ....................................................................................................................... 9
2 Deep Learning Fundamentals and Advances in Segmentation Models ........................... 10
2.1 Introduction ................................................................................................................... 10
2.2 Introduction to Deep Learning ...................................................................................... 11
2.2.1 Definition and history of deep learning ............................................................ 11
2.2.2 Difference between deep learning, machine learning, and artificial intelligence .. 11
2.3 Neural Networks and Architectures .............................................................................. 12
2.3.1 Basics of artificial neural networks (ANN) ...................................................... 12
2.3.2 Convolutional Neural Networks (CNN) and their role in image processing .... 14
2.3.2.1 Key Features of CNNs ........................................................................ 14
2.3.2.2 Applications in Image Processing ....................................................... 15
2.4 Training Deep Learning Models ................................................................................... 15
2.4.1 Data Preparation and Augmentation Techniques .............................................. 15
2.4.1.1 Preprocessing of Medical Images ....................................................... 16
2.4.1.2 Data Augmentation ............................................................................. 16
2.4.1.3 Common Data Augmentation Techniques........................................... 17
2.4.1.4 Handling Imbalanced Datasets ............................................................ 17
2.4.2 Loss Functions Used in Segmentation .............................................................. 18
2.4.2.1 Standard Losses in Segmentation ....................................................... 18
2.4.2.2 Segmentation-Specific Loss Functions ............................................... 18
2.4.2.3 Handling Class Imbalance and Small Lesions .................................... 19
2.4.3 Optimization Algorithms ................................................................................... 20
2.4.3.1 Common Optimization Algorithms ..................................................... 20
2.4.3.2 Hyperparameters and Training Behavior ............................................ 21
2.4.3.3 Learning Rate Schedulers ................................................................... 22
2.4.4 Regularization Techniques ................................................................................ 22
2.4.4.1 Common Regularization Techniques .................................................. 22
2.4.4.2 Additional Techniques ......................................................................... 24
2.5 Evaluation Metrics for Segmentation ............................................................................ 24
2.5.1 Dice Similarity Coefficient (DSC) .................................................................... 24
2.5.2 Intersection over Union (IoU) ........................................................................... 25
2.5.3 Sensitivity, Specificity, and Accuracy ............................................................... 27
2.6 Advances in Deep Learning for Segmentation .............................................................. 28
2.6.1 Introduction to Foundation Models ................................................................... 28
2.6.2 Transfer Learning and Pretrained Models ......................................................... 29
2.6.3 Attention Mechanisms in Segmentation Models............................................... 29
2.7 Model Architectures for Segmentation.......................................................................... 30
2.7.1 U-Net ................................................................................................................. 30
2.7.2 U-Net++ ............................................................................................................ 31
2.7.3 Attention U-Net ................................................................................................. 33
2.8 Conclusion ..................................................................................................................... 34
3 Background and Related Work on Stroke ......................................................................... 35
3.1 Introduction ................................................................................................................... 35
3.2 Stroke Overview ............................................................................................................ 35
3.2.1 Definition .......................................................................................................... 35
3.2.2 Types ................................................................................................................. 36
3.2.3 Symptoms .......................................................................................................... 37
3.2.4 Diagnostic ......................................................................................................... 37
3.2.5 Treatment .......................................................................................................... 38
3.3 Medical Imaging Techniques for Stroke ....................................................................... 39
3.3.1 Computed Tomography (CT) ............................................................................ 39
3.3.2 Magnetic Resonance Imaging (MRI) ............................................................... 40
3.4 Importance of Stroke Lesion Segmentation and Deep Learning’s Role ....................... 40
3.4.1 Significance of Stroke Lesion Segmentation in Research and Medicine ......... 40
3.4.2 Deep Learning for Stroke Lesion Segmentation ............................................... 41
3.5 Related Work ................................................................................................................. 42
3.6 Conclusion ..................................................................................................................... 45
4 Experiment And Results ...................................................................................................... 46
4.1 Introduction ................................................................................................................... 46
4.2 Data description ............................................................................................................. 46
4.2.1 Image Characteristics ........................................................................................ 47
4.2.2 Key Metadata Features ...................................................................................... 47
4.2.3 Data Samples ..................................................................................................... 48
4.3 Data Preprocessing ........................................................................................................ 49
4.3.1 Extraction of 2D Slices ..................................................................................... 49
4.3.2 Filtering Slices .................................................................................................. 49
4.3.3 Normalization of Images ................................................................................... 49
4.3.4 Resizing ............................................................................................................. 50
4.3.5 Data Augmentation............................................................................................ 50
4.4 Methodology and Results .............................................................................................. 50
4.4.1 Stroke UNet-Architecture ................................................................................. 51
4.4.1.1 Overall Structure ................................................................................. 52
4.4.1.2 Convolutional Block ........................................................................... 52
4.4.1.3 Contracting Path (Encoder) ................................................................. 52
4.4.1.4 Expanding Path (Decoder) .................................................................. 53
4.4.1.5 Output Layer ....................................................................................... 53
4.4.1.6 Results ................................................................................................. 53
4.4.2 Attention UNet-Architecture ............................................................................. 54
4.4.2.1 Overall Structure ................................................................................. 55
4.4.2.3 Attention Block Objectives ................................................................. 55
4.4.2.4 Results ................................................................................................. 56
4.4.3 UNet++ Architecture ......................................................................................... 57
4.4.3.1 Objectives ............................................................................................ 57
4.4.3.2 Results ................................................................................................. 58
4.4.4 Results Discussion ............................................................................................ 58
4.4.5 Model Prediction Capability ............................................................................. 60
4.5 Comparision With Related Works ................................................................................ 62
4.6 Conclusion .................................................................................................................... 62
Bibliography ................................................................................................................................ 64Côte titre : MAI/0998 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0998 MAI/0998 Mémoire Bibliothèque des sciences Anglais Disponible
Disponible
Titre : Plant-Leaf Diseases Detection Based Deep Learning Approaches Type de document : texte imprimé Auteurs : Djaafer Gueddou, Auteur ; Hamdi ,Skander, Directeur de thèse Editeur : Setif:UFA Année de publication : 2024 Importance : 1 vol (80 f .) Format : 29 cm Langues : Anglais (eng) Catégories : Thèses & Mémoires:Informatique Mots-clés : Informatique Index. décimale : 004 - Informatique Résumé :
Detecting plant diseases is often challenging without expert knowledge. In this thesis,
we propose a new classification model based on deep learning to classify and identify
different plant leaf diseases with high accuracy, surpassing state-of-the-art approaches,
previous works, and expert diagnoses in pathology. Using only training images, convolutional
neural networks (CNNs) can automatically extract features for classification and achieve high
performance.
We utilized the Tomato dataset, which includes 11,000 healthy and unhealthy tomato leaf
images across nine disease categories. Our proposed models include a deep convolutional neural
network architecture and several fine-tuned pre-trained models. These pre-trained models are
ResNet50V2, Xception, InceptionV3, DenseNet201, EfficientNetV2M, InceptionResNetV2, and
ConvNeXtSmall.
Our proposed model achieved an accuracy exceeding 98% across all CNN and transformer
models. Specifically, the pre-trained models yielded an accuracy of up to 99.86%.
This study aims to enhance the detection of plant leaf diseases, thereby improving plant
health and contributing to better quality of human life.Note de contenu : Sommaire
1 Plant Leaf Diseases 1
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Plant Leaf Diseases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Infectious and Non Infectious Plant diseases . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.1 Infectious Plant Diseases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.1.1 Fungi and Fungal-like Organisms (FLOs) Diseases . . . . . . . . 3
1.3.1.2 Bacterial Diseases . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1.3 Nematodes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1.4 Viral Diseases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.2 Non Infectious Diseases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2 Brief History of AI 11
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Dartmouth Workshop . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3 Dartmouth Workshop - AI Problems . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.4 AI Fields and Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.4.1 AI Fields . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.4.2 AI Projects and Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.5 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3 State of the Art 17
3.1 Machine Learning (ML) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.1.1 Classification & regression in Machine Learning . . . . . . . . . . . . . . . . 18
3.1.1.1 Classification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
Examples of Classification Algorithms . . . . . . . . . . . . . . . . . . 19
Example . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.1.1.2 Regression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
Examples of Regression Algorithms . . . . . . . . . . . . . . . . . . . 19
Example . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.1.2 Data Processing in Machine Learning . . . . . . . . . . . . . . . . . . . . . . 20
3.1.2.1 Key Steps in Data Processing . . . . . . . . . . . . . . . . . . . . . 20
Data Collection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Data Cleaning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Data Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Data Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Data Reduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Data Augmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Data Splitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.1.2.2 Detailed Steps with Examples . . . . . . . . . . . . . . . . . . . . . 21
Data Collection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Data Cleaning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Data Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Data Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Data Reduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Data Augmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Data Splitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.1.2.3 Importance of Data Processing . . . . . . . . . . . . . . . . . . . . . 22
3.1.3 Overfitting & Underfitting in Machine Learning . . . . . . . . . . . . . . . . 22
3.1.3.1 Overfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Symptoms of Overfitting . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Causes of Overfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Solutions to Overfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.1.3.2 Underfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Symptoms of Underfitting . . . . . . . . . . . . . . . . . . . . . . . . . 23
Causes of Underfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Solutions to Underfitting . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.1.4 Model Evaluation & Validation in Machine Learning . . . . . . . . . . . . . 24
3.1.4.1 Key Concepts in Model Evaluation Validation . . . . . . . . . . . 24
Train-Test Split . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Cross-Validation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Evaluation Metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Validation Techniques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
Hyperparameter Tuning . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.1.4.2 Example Workflow . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
Train-Test Split . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
Cross-Validation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
Evaluation Metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
Hyperparameter Tuning . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2 Supervised Learning in Machine Learning . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.1 Logistic Regression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.1.1 One-vs-All Classification . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.2 Support Vector Machines (SVM) . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.3 k-Nearest Neighbors (k-NN) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2.4 Decision Trees . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2.5 Random Forests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.3 Unsupervised Learning in Machine Learning . . . . . . . . . . . . . . . . . . . . . . 27
3.3.1 Clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.3.1.1 Popular Clustering Algorithms . . . . . . . . . . . . . . . . . . . . . 28
k-Means Clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
Hierarchical Clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
DBSCAN (Density-Based Spatial Clustering of Applications with
Noise) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
Gaussian Mixture Models (GMM) . . . . . . . . . . . . . . . . . . . . 28
3.3.2 Dimensionality Reduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3.2.1 Popular Dimensionality Reduction Algorithms . . . . . . . . . . . 28
Principal Component Analysis (PCA) . . . . . . . . . . . . . . . . . . 28
t-Distributed Stochastic Neighbor Embedding (t-SNE) . . . . . . . . 28
Singular Value Decomposition (SVD) . . . . . . . . . . . . . . . . . . 29
3.3.3 Association . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.3.3.1 Popular Association Algorithms . . . . . . . . . . . . . . . . . . . . 29
Apriori Algorithm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Eclat Algorithm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.4 Deep Learning DL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.4.1 Deep Learning in Brief . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.4.1.1 History and Evolution of Deep Learning . . . . . . . . . . . . . . . 29
3.4.1.2 Deep Learning vs. Traditional Machine Learning . . . . . . . . . 30
3.4.1.3 Applications of Deep Learning . . . . . . . . . . . . . . . . . . . . . 30
3.4.2 Neural Networks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.4.2.1 Biological Neurons vs. Artificial Neurons . . . . . . . . . . . . . . 31
3.4.2.2 Perceptrons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.4.2.3 Multilayer Perceptrons (MLP) . . . . . . . . . . . . . . . . . . . . . 31
3.4.2.4 Feedforward Networks . . . . . . . . . . . . . . . . . . . . . . . . . . 32
........Côte titre : MAI/0895 Plant-Leaf Diseases Detection Based Deep Learning Approaches [texte imprimé] / Djaafer Gueddou, Auteur ; Hamdi ,Skander, Directeur de thèse . - [S.l.] : Setif:UFA, 2024 . - 1 vol (80 f .) ; 29 cm.
Langues : Anglais (eng)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Informatique Index. décimale : 004 - Informatique Résumé :
Detecting plant diseases is often challenging without expert knowledge. In this thesis,
we propose a new classification model based on deep learning to classify and identify
different plant leaf diseases with high accuracy, surpassing state-of-the-art approaches,
previous works, and expert diagnoses in pathology. Using only training images, convolutional
neural networks (CNNs) can automatically extract features for classification and achieve high
performance.
We utilized the Tomato dataset, which includes 11,000 healthy and unhealthy tomato leaf
images across nine disease categories. Our proposed models include a deep convolutional neural
network architecture and several fine-tuned pre-trained models. These pre-trained models are
ResNet50V2, Xception, InceptionV3, DenseNet201, EfficientNetV2M, InceptionResNetV2, and
ConvNeXtSmall.
Our proposed model achieved an accuracy exceeding 98% across all CNN and transformer
models. Specifically, the pre-trained models yielded an accuracy of up to 99.86%.
This study aims to enhance the detection of plant leaf diseases, thereby improving plant
health and contributing to better quality of human life.Note de contenu : Sommaire
1 Plant Leaf Diseases 1
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Plant Leaf Diseases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Infectious and Non Infectious Plant diseases . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.1 Infectious Plant Diseases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.1.1 Fungi and Fungal-like Organisms (FLOs) Diseases . . . . . . . . 3
1.3.1.2 Bacterial Diseases . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1.3 Nematodes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1.4 Viral Diseases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.2 Non Infectious Diseases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2 Brief History of AI 11
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Dartmouth Workshop . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3 Dartmouth Workshop - AI Problems . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.4 AI Fields and Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.4.1 AI Fields . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.4.2 AI Projects and Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.5 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3 State of the Art 17
3.1 Machine Learning (ML) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.1.1 Classification & regression in Machine Learning . . . . . . . . . . . . . . . . 18
3.1.1.1 Classification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
Examples of Classification Algorithms . . . . . . . . . . . . . . . . . . 19
Example . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.1.1.2 Regression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
Examples of Regression Algorithms . . . . . . . . . . . . . . . . . . . 19
Example . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.1.2 Data Processing in Machine Learning . . . . . . . . . . . . . . . . . . . . . . 20
3.1.2.1 Key Steps in Data Processing . . . . . . . . . . . . . . . . . . . . . 20
Data Collection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Data Cleaning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Data Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Data Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Data Reduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Data Augmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Data Splitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.1.2.2 Detailed Steps with Examples . . . . . . . . . . . . . . . . . . . . . 21
Data Collection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Data Cleaning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Data Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Data Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Data Reduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Data Augmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Data Splitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.1.2.3 Importance of Data Processing . . . . . . . . . . . . . . . . . . . . . 22
3.1.3 Overfitting & Underfitting in Machine Learning . . . . . . . . . . . . . . . . 22
3.1.3.1 Overfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Symptoms of Overfitting . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Causes of Overfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Solutions to Overfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.1.3.2 Underfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Symptoms of Underfitting . . . . . . . . . . . . . . . . . . . . . . . . . 23
Causes of Underfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Solutions to Underfitting . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.1.4 Model Evaluation & Validation in Machine Learning . . . . . . . . . . . . . 24
3.1.4.1 Key Concepts in Model Evaluation Validation . . . . . . . . . . . 24
Train-Test Split . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Cross-Validation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Evaluation Metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Validation Techniques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
Hyperparameter Tuning . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.1.4.2 Example Workflow . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
Train-Test Split . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
Cross-Validation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
Evaluation Metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
Hyperparameter Tuning . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2 Supervised Learning in Machine Learning . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.1 Logistic Regression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.1.1 One-vs-All Classification . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.2 Support Vector Machines (SVM) . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.3 k-Nearest Neighbors (k-NN) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2.4 Decision Trees . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2.5 Random Forests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.3 Unsupervised Learning in Machine Learning . . . . . . . . . . . . . . . . . . . . . . 27
3.3.1 Clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.3.1.1 Popular Clustering Algorithms . . . . . . . . . . . . . . . . . . . . . 28
k-Means Clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
Hierarchical Clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
DBSCAN (Density-Based Spatial Clustering of Applications with
Noise) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
Gaussian Mixture Models (GMM) . . . . . . . . . . . . . . . . . . . . 28
3.3.2 Dimensionality Reduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3.2.1 Popular Dimensionality Reduction Algorithms . . . . . . . . . . . 28
Principal Component Analysis (PCA) . . . . . . . . . . . . . . . . . . 28
t-Distributed Stochastic Neighbor Embedding (t-SNE) . . . . . . . . 28
Singular Value Decomposition (SVD) . . . . . . . . . . . . . . . . . . 29
3.3.3 Association . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.3.3.1 Popular Association Algorithms . . . . . . . . . . . . . . . . . . . . 29
Apriori Algorithm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Eclat Algorithm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.4 Deep Learning DL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.4.1 Deep Learning in Brief . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.4.1.1 History and Evolution of Deep Learning . . . . . . . . . . . . . . . 29
3.4.1.2 Deep Learning vs. Traditional Machine Learning . . . . . . . . . 30
3.4.1.3 Applications of Deep Learning . . . . . . . . . . . . . . . . . . . . . 30
3.4.2 Neural Networks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.4.2.1 Biological Neurons vs. Artificial Neurons . . . . . . . . . . . . . . 31
3.4.2.2 Perceptrons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.4.2.3 Multilayer Perceptrons (MLP) . . . . . . . . . . . . . . . . . . . . . 31
3.4.2.4 Feedforward Networks . . . . . . . . . . . . . . . . . . . . . . . . . . 32
........Côte titre : MAI/0895 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0895 MAI/0895 Mémoire Bibliothèque des sciences Anglais Disponible
DisponibleSpeech Emotion Identification and Classification with Transformers and Whisper Architectures / Amira Bouhafs
PermalinkSubject: Enhancing Speech Quality In Algerian Dialect Through Deep Learning-Based Denoising Methods / Sonia Bouaissaoui
Permalink

