Titre : |
Plant-Leaf Diseases Detection Based Deep Learning Approaches |
Type de document : |
texte imprimé |
Auteurs : |
Djaafer Gueddou, Auteur ; Hamdi ,Skander, Directeur de thèse |
Editeur : |
Setif:UFA |
Année de publication : |
2024 |
Importance : |
1 vol (80 f .) |
Format : |
29 cm |
Langues : |
Anglais (eng) |
Catégories : |
Thèses & Mémoires:Informatique
|
Mots-clés : |
Informatique |
Index. décimale : |
004 - Informatique |
Résumé : |
Detecting plant diseases is often challenging without expert knowledge. In this thesis,
we propose a new classification model based on deep learning to classify and identify
different plant leaf diseases with high accuracy, surpassing state-of-the-art approaches,
previous works, and expert diagnoses in pathology. Using only training images, convolutional
neural networks (CNNs) can automatically extract features for classification and achieve high
performance.
We utilized the Tomato dataset, which includes 11,000 healthy and unhealthy tomato leaf
images across nine disease categories. Our proposed models include a deep convolutional neural
network architecture and several fine-tuned pre-trained models. These pre-trained models are
ResNet50V2, Xception, InceptionV3, DenseNet201, EfficientNetV2M, InceptionResNetV2, and
ConvNeXtSmall.
Our proposed model achieved an accuracy exceeding 98% across all CNN and transformer
models. Specifically, the pre-trained models yielded an accuracy of up to 99.86%.
This study aims to enhance the detection of plant leaf diseases, thereby improving plant
health and contributing to better quality of human life. |
Note de contenu : |
Sommaire
1 Plant Leaf Diseases 1
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Plant Leaf Diseases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Infectious and Non Infectious Plant diseases . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.1 Infectious Plant Diseases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.1.1 Fungi and Fungal-like Organisms (FLOs) Diseases . . . . . . . . 3
1.3.1.2 Bacterial Diseases . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1.3 Nematodes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1.4 Viral Diseases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.2 Non Infectious Diseases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2 Brief History of AI 11
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Dartmouth Workshop . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3 Dartmouth Workshop - AI Problems . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.4 AI Fields and Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.4.1 AI Fields . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.4.2 AI Projects and Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.5 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3 State of the Art 17
3.1 Machine Learning (ML) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.1.1 Classification & regression in Machine Learning . . . . . . . . . . . . . . . . 18
3.1.1.1 Classification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
Examples of Classification Algorithms . . . . . . . . . . . . . . . . . . 19
Example . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.1.1.2 Regression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
Examples of Regression Algorithms . . . . . . . . . . . . . . . . . . . 19
Example . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.1.2 Data Processing in Machine Learning . . . . . . . . . . . . . . . . . . . . . . 20
3.1.2.1 Key Steps in Data Processing . . . . . . . . . . . . . . . . . . . . . 20
Data Collection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Data Cleaning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Data Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Data Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Data Reduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Data Augmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Data Splitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.1.2.2 Detailed Steps with Examples . . . . . . . . . . . . . . . . . . . . . 21
Data Collection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Data Cleaning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Data Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Data Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Data Reduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Data Augmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Data Splitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.1.2.3 Importance of Data Processing . . . . . . . . . . . . . . . . . . . . . 22
3.1.3 Overfitting & Underfitting in Machine Learning . . . . . . . . . . . . . . . . 22
3.1.3.1 Overfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Symptoms of Overfitting . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Causes of Overfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Solutions to Overfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.1.3.2 Underfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Symptoms of Underfitting . . . . . . . . . . . . . . . . . . . . . . . . . 23
Causes of Underfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Solutions to Underfitting . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.1.4 Model Evaluation & Validation in Machine Learning . . . . . . . . . . . . . 24
3.1.4.1 Key Concepts in Model Evaluation Validation . . . . . . . . . . . 24
Train-Test Split . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Cross-Validation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Evaluation Metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Validation Techniques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
Hyperparameter Tuning . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.1.4.2 Example Workflow . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
Train-Test Split . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
Cross-Validation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
Evaluation Metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
Hyperparameter Tuning . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2 Supervised Learning in Machine Learning . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.1 Logistic Regression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.1.1 One-vs-All Classification . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.2 Support Vector Machines (SVM) . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.3 k-Nearest Neighbors (k-NN) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2.4 Decision Trees . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2.5 Random Forests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.3 Unsupervised Learning in Machine Learning . . . . . . . . . . . . . . . . . . . . . . 27
3.3.1 Clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.3.1.1 Popular Clustering Algorithms . . . . . . . . . . . . . . . . . . . . . 28
k-Means Clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
Hierarchical Clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
DBSCAN (Density-Based Spatial Clustering of Applications with
Noise) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
Gaussian Mixture Models (GMM) . . . . . . . . . . . . . . . . . . . . 28
3.3.2 Dimensionality Reduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3.2.1 Popular Dimensionality Reduction Algorithms . . . . . . . . . . . 28
Principal Component Analysis (PCA) . . . . . . . . . . . . . . . . . . 28
t-Distributed Stochastic Neighbor Embedding (t-SNE) . . . . . . . . 28
Singular Value Decomposition (SVD) . . . . . . . . . . . . . . . . . . 29
3.3.3 Association . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.3.3.1 Popular Association Algorithms . . . . . . . . . . . . . . . . . . . . 29
Apriori Algorithm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Eclat Algorithm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.4 Deep Learning DL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.4.1 Deep Learning in Brief . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.4.1.1 History and Evolution of Deep Learning . . . . . . . . . . . . . . . 29
3.4.1.2 Deep Learning vs. Traditional Machine Learning . . . . . . . . . 30
3.4.1.3 Applications of Deep Learning . . . . . . . . . . . . . . . . . . . . . 30
3.4.2 Neural Networks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.4.2.1 Biological Neurons vs. Artificial Neurons . . . . . . . . . . . . . . 31
3.4.2.2 Perceptrons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.4.2.3 Multilayer Perceptrons (MLP) . . . . . . . . . . . . . . . . . . . . . 31
3.4.2.4 Feedforward Networks . . . . . . . . . . . . . . . . . . . . . . . . . . 32
........ |
Côte titre : |
MAI/0895 |
Plant-Leaf Diseases Detection Based Deep Learning Approaches [texte imprimé] / Djaafer Gueddou, Auteur ; Hamdi ,Skander, Directeur de thèse . - [S.l.] : Setif:UFA, 2024 . - 1 vol (80 f .) ; 29 cm. Langues : Anglais ( eng)
Catégories : |
Thèses & Mémoires:Informatique
|
Mots-clés : |
Informatique |
Index. décimale : |
004 - Informatique |
Résumé : |
Detecting plant diseases is often challenging without expert knowledge. In this thesis,
we propose a new classification model based on deep learning to classify and identify
different plant leaf diseases with high accuracy, surpassing state-of-the-art approaches,
previous works, and expert diagnoses in pathology. Using only training images, convolutional
neural networks (CNNs) can automatically extract features for classification and achieve high
performance.
We utilized the Tomato dataset, which includes 11,000 healthy and unhealthy tomato leaf
images across nine disease categories. Our proposed models include a deep convolutional neural
network architecture and several fine-tuned pre-trained models. These pre-trained models are
ResNet50V2, Xception, InceptionV3, DenseNet201, EfficientNetV2M, InceptionResNetV2, and
ConvNeXtSmall.
Our proposed model achieved an accuracy exceeding 98% across all CNN and transformer
models. Specifically, the pre-trained models yielded an accuracy of up to 99.86%.
This study aims to enhance the detection of plant leaf diseases, thereby improving plant
health and contributing to better quality of human life. |
Note de contenu : |
Sommaire
1 Plant Leaf Diseases 1
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Plant Leaf Diseases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Infectious and Non Infectious Plant diseases . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.1 Infectious Plant Diseases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.1.1 Fungi and Fungal-like Organisms (FLOs) Diseases . . . . . . . . 3
1.3.1.2 Bacterial Diseases . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1.3 Nematodes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1.4 Viral Diseases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.2 Non Infectious Diseases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2 Brief History of AI 11
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Dartmouth Workshop . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3 Dartmouth Workshop - AI Problems . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.4 AI Fields and Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.4.1 AI Fields . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.4.2 AI Projects and Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.5 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3 State of the Art 17
3.1 Machine Learning (ML) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.1.1 Classification & regression in Machine Learning . . . . . . . . . . . . . . . . 18
3.1.1.1 Classification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
Examples of Classification Algorithms . . . . . . . . . . . . . . . . . . 19
Example . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.1.1.2 Regression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
Examples of Regression Algorithms . . . . . . . . . . . . . . . . . . . 19
Example . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.1.2 Data Processing in Machine Learning . . . . . . . . . . . . . . . . . . . . . . 20
3.1.2.1 Key Steps in Data Processing . . . . . . . . . . . . . . . . . . . . . 20
Data Collection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Data Cleaning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Data Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Data Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Data Reduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Data Augmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Data Splitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.1.2.2 Detailed Steps with Examples . . . . . . . . . . . . . . . . . . . . . 21
Data Collection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Data Cleaning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Data Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Data Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Data Reduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Data Augmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Data Splitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.1.2.3 Importance of Data Processing . . . . . . . . . . . . . . . . . . . . . 22
3.1.3 Overfitting & Underfitting in Machine Learning . . . . . . . . . . . . . . . . 22
3.1.3.1 Overfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Symptoms of Overfitting . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Causes of Overfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Solutions to Overfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.1.3.2 Underfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Symptoms of Underfitting . . . . . . . . . . . . . . . . . . . . . . . . . 23
Causes of Underfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Solutions to Underfitting . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.1.4 Model Evaluation & Validation in Machine Learning . . . . . . . . . . . . . 24
3.1.4.1 Key Concepts in Model Evaluation Validation . . . . . . . . . . . 24
Train-Test Split . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Cross-Validation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Evaluation Metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Validation Techniques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
Hyperparameter Tuning . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.1.4.2 Example Workflow . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
Train-Test Split . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
Cross-Validation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
Evaluation Metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
Hyperparameter Tuning . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2 Supervised Learning in Machine Learning . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.1 Logistic Regression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.1.1 One-vs-All Classification . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.2 Support Vector Machines (SVM) . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.3 k-Nearest Neighbors (k-NN) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2.4 Decision Trees . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2.5 Random Forests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.3 Unsupervised Learning in Machine Learning . . . . . . . . . . . . . . . . . . . . . . 27
3.3.1 Clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.3.1.1 Popular Clustering Algorithms . . . . . . . . . . . . . . . . . . . . . 28
k-Means Clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
Hierarchical Clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
DBSCAN (Density-Based Spatial Clustering of Applications with
Noise) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
Gaussian Mixture Models (GMM) . . . . . . . . . . . . . . . . . . . . 28
3.3.2 Dimensionality Reduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3.2.1 Popular Dimensionality Reduction Algorithms . . . . . . . . . . . 28
Principal Component Analysis (PCA) . . . . . . . . . . . . . . . . . . 28
t-Distributed Stochastic Neighbor Embedding (t-SNE) . . . . . . . . 28
Singular Value Decomposition (SVD) . . . . . . . . . . . . . . . . . . 29
3.3.3 Association . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.3.3.1 Popular Association Algorithms . . . . . . . . . . . . . . . . . . . . 29
Apriori Algorithm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Eclat Algorithm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.4 Deep Learning DL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.4.1 Deep Learning in Brief . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.4.1.1 History and Evolution of Deep Learning . . . . . . . . . . . . . . . 29
3.4.1.2 Deep Learning vs. Traditional Machine Learning . . . . . . . . . 30
3.4.1.3 Applications of Deep Learning . . . . . . . . . . . . . . . . . . . . . 30
3.4.2 Neural Networks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.4.2.1 Biological Neurons vs. Artificial Neurons . . . . . . . . . . . . . . 31
3.4.2.2 Perceptrons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.4.2.3 Multilayer Perceptrons (MLP) . . . . . . . . . . . . . . . . . . . . . 31
3.4.2.4 Feedforward Networks . . . . . . . . . . . . . . . . . . . . . . . . . . 32
........ |
Côte titre : |
MAI/0895 |
|