Titre : |
Deep learning for identifying and classifying retinal diseases |
Type de document : |
texte imprimé |
Auteurs : |
Berrimi,Mohamed, Auteur ; Moussaoui ,Abdelouahab, Directeur de thèse |
Editeur : |
Setif:UFA |
Année de publication : |
2019 |
Importance : |
1 vol (78 f .) |
Format : |
29 cm |
Langues : |
Français (fre) |
Catégories : |
Thèses & Mémoires:Informatique
|
Mots-clés : |
Réseaux neuronaux convolutionnels
Imagerie médicale
Apprentissage
Profond |
Index. décimale : |
004 Informatique |
Résumé : |
La classification est une utilisation particulière de l’apprentissage automatique et
l’apprentissage profond. Dans cette thèse, nous allons proposer un nouveau modèle
de classification basé sur l’apprentissage profond, capable de classer et d’identifier les
différentes maladies rétiniennes à des stades précoces avec une grande précision qui
surpassent l’état de l’artf, les travaux précédents, ainsi que les diagnostics des experts
en ophtalmologie. La vision et la santé des yeux sont l’une des choses les plus cruciales
de la vie humaine, il faut la préserver pour maintenir la vie des individus. Les maladies
des yeux telles que CNV, DRUSEN, AMD, DME sont principalement dues aux lésions
de la rétine. Comme elle est endommagée et diagnostiquée à un stade avancé, il n’y a
pratiquement aucune chance de renverser la vision et de la guérir, ce qui signifie que
le patient va perdre la capacité de voir partiellement, et peut être entièrement. Nous
proposons ici trois architectures de réseaux de neurones convolutionnels profonds et
ajusté trois modèles pré-entraînés formés sur de grands ensembles de données tels
que Inception, VGG-16 et ResNET. Afin d’évaluer notre modèle, nous avons comparé le
diagnostic de 7 experts à la performance de notre modèle. Notre modèle proposé surpasse
le diagnostic de 6 experts sur 7, ainsi que les travaux publiés précédemment utilisant les
mêmes données, où nous avons obtenu une précision allant jusqu’à 99,27%.
Cet outil peut en fin de compte aider à accélérer le diagnostic et l’orientation de ces
affections traitables, facilitant ainsi un traitement plus précoce, entraînant de meilleurs
résultats cliniques. |
Note de contenu : |
Sommaire
List of Tables ix
List of Figures xi
1 Retinal pathologies and scanning devices 4
1.1 Fundus photography . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 OCT scanning in medical imaging . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.1 SD-OCT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.2 A-scan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.3 B-scan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Retinal pathologies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 DME . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.2 AMD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.3 DRUSEN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.4 CNV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2 State of the art and related works 9
2.1 Machine learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.1.1 Machine learning concepts . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.1.1 Splitting data . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.1.2 Underfitting and overfitting . . . . . . . . . . . . . . . . . . 10
2.1.1.3 Regularization . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.1.4 Model validation . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.1.5 Bootstrap . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.1.2 Supervised learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.1.2.1 kNN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
v
TABLE OF CONTENTS
2.1.2.2 Decision trees . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.2.3 Logistic regression . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.2.4 SVM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.1.2.5 Boosting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1.2.6 Bagging . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.1.3 Unsupervised learning . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.1 Feedforward Networks . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.2 Layers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.2.1 Input layer . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.2.2 Hidden layer . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.2.3 Output layer . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.2.4 Full connected layers (Dense layers ) . . . . . . . . . . . . 22
2.2.3 Backpropagation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2.4 Optimization in deep learning . . . . . . . . . . . . . . . . . . . . . . 23
2.2.4.1 Gradient Descent Optimizer . . . . . . . . . . . . . . . . . . 23
2.2.4.2 Stochastic gradient descent , Mini batch gradient descent 23
2.2.4.3 Adam . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2.4.4 RMSprop optimizer . . . . . . . . . . . . . . . . . . . . . . 24
2.2.5 Regularization for Deep Learning . . . . . . . . . . . . . . . . . . . . 25
2.2.5.1 Dropout . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2.5.2 Batch Normalization . . . . . . . . . . . . . . . . . . . . . . 25
2.2.5.3 Early stopping . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2.5.4 Data augmentation . . . . . . . . . . . . . . . . . . . . . . . 26
2.2.6 Model parameters . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.6.1 learning rate . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.6.2 epoch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.6.3 Batch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.6.4 Batch size . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.6.5 loss functions . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.6.6 Activation functions . . . . . . . . . . . . . . . . . . . . . . . 28
2.3 Convolutional neural network . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3.1 Convolution layer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3.1.1 Convolution operation . . . . . . . . . . . . . . . . . . . . . 30
2.3.1.2 Filters . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
vi
TABLE OF CONTENTS
2.3.2 Pooling layer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3.3 Padding . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.4 Transfer learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.4.1 Transfer learning versus traditional learning . . . . . . . . . . . . . 33
2.4.2 ImageNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4.3 pre trained model . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4.3.1 AlexNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4.3.2 VGG-16 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4.3.3 Inception . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4.3.4 ResNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4.4 Fine Tuning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.4.5 Related work using deep learning . . . . . . . . . . . . . . . . . . . . 35
2.4.6 Related works summarized . . . . . . . . . . . . . . . . . . . . . . . . 38
2.5 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3 Dataset and implimentation tools 40
3.1 Dataset description . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2 Dataset pre-processing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.3 Implementation frameworks and tools . . . . . . . . . . . . . . . . . . . . . 44
3.3.1 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3.2 Sickit-learn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3.3 Tensorflow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3.4 Keras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3.5 Jupyter notebooks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.3.6 Google Colab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.3.7 Kaggle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.4 model evaluation metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.4.1 Accuracy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.4.2 Precision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.4.3 Recal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.4.4 F1-score . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.4.5 Confusion matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.5 Proposed approaches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.5.1 Machine learning approaches . . . . . . . . . . . . . . . . . . . . . . . 49
3.5.2 Deep learning approaches . . . . . . . . . . . . . . . . . . . . . . . . . 49
vii
TABLE OF CONTENTS
3.6 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4 Experiments and results 51
4.1 Machine learning approaches . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.1.1 Decision trees classifier . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.1.2 XGBOOST classifier . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.1.3 Artificial neural networks . . . . . . . . . . . . . . . . . . . . . . . . 52
4.1.4 Machine learning algorithms results . . . . . . . . . . . . . . . . . . 52
4.1.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2 Deep learning approaches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2.1 Convolution neural networks . . . . . . . . . . . . . . . . . . . . . . . 53
4.2.1.1 First CNN architecture . . . . . . . . . . . . . . . . . . . . . 53
4.2.1.2 Second CNN Architecture . . . . . . . . . . . . . . . . . . 54
4.2.1.3 Model and architecture interpretation . . . . . . . . . . . 55
4.2.1.4 Model Compiling . . . . . . . . . . . . . . . . . . . . . . . . 56
4.2.1.5 Deep CNN architecture . . . . . . . . . . . . . . . . . . . . 59
4.2.1.6 experiments on balanced dataset . . . . . . . . . . . . . . . 59
4.2.2 Pretrained models ( Transfer learning ) . . . . . . . . . . . . . . . . 60
4.2.2.1 VGG-16 pretrained model . . . . . . . . . . . . . . . . . . . 60
4.2.2.2 Modified version of VGG16 model . . . . . . . . . . . . . . 61
4.2.2.3 ResNet pretrained Model . . . . . . . . . . . . . . . . . . . 62
4.2.2.4 Inception V3 pretrained model . . . . . . . . . . . . . . . . 62
4.3 Results comparisons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.4 Comparative study with the diagnosis of OCT experts . . . . . . . . . . . . 66
4.5 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
Bibliography 70 |
Côte titre : |
MAI/0280 |
En ligne : |
https://drive.google.com/file/d/1UpUMVLQmBXPaiBVaCN0Oi2mkhUbj0GeW/view?usp=shari [...] |
Format de la ressource électronique : |
pdf |
Deep learning for identifying and classifying retinal diseases [texte imprimé] / Berrimi,Mohamed, Auteur ; Moussaoui ,Abdelouahab, Directeur de thèse . - [S.l.] : Setif:UFA, 2019 . - 1 vol (78 f .) ; 29 cm. Langues : Français ( fre)
Catégories : |
Thèses & Mémoires:Informatique
|
Mots-clés : |
Réseaux neuronaux convolutionnels
Imagerie médicale
Apprentissage
Profond |
Index. décimale : |
004 Informatique |
Résumé : |
La classification est une utilisation particulière de l’apprentissage automatique et
l’apprentissage profond. Dans cette thèse, nous allons proposer un nouveau modèle
de classification basé sur l’apprentissage profond, capable de classer et d’identifier les
différentes maladies rétiniennes à des stades précoces avec une grande précision qui
surpassent l’état de l’artf, les travaux précédents, ainsi que les diagnostics des experts
en ophtalmologie. La vision et la santé des yeux sont l’une des choses les plus cruciales
de la vie humaine, il faut la préserver pour maintenir la vie des individus. Les maladies
des yeux telles que CNV, DRUSEN, AMD, DME sont principalement dues aux lésions
de la rétine. Comme elle est endommagée et diagnostiquée à un stade avancé, il n’y a
pratiquement aucune chance de renverser la vision et de la guérir, ce qui signifie que
le patient va perdre la capacité de voir partiellement, et peut être entièrement. Nous
proposons ici trois architectures de réseaux de neurones convolutionnels profonds et
ajusté trois modèles pré-entraînés formés sur de grands ensembles de données tels
que Inception, VGG-16 et ResNET. Afin d’évaluer notre modèle, nous avons comparé le
diagnostic de 7 experts à la performance de notre modèle. Notre modèle proposé surpasse
le diagnostic de 6 experts sur 7, ainsi que les travaux publiés précédemment utilisant les
mêmes données, où nous avons obtenu une précision allant jusqu’à 99,27%.
Cet outil peut en fin de compte aider à accélérer le diagnostic et l’orientation de ces
affections traitables, facilitant ainsi un traitement plus précoce, entraînant de meilleurs
résultats cliniques. |
Note de contenu : |
Sommaire
List of Tables ix
List of Figures xi
1 Retinal pathologies and scanning devices 4
1.1 Fundus photography . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 OCT scanning in medical imaging . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.1 SD-OCT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.2 A-scan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.3 B-scan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Retinal pathologies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 DME . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.2 AMD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.3 DRUSEN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.4 CNV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2 State of the art and related works 9
2.1 Machine learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.1.1 Machine learning concepts . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.1.1 Splitting data . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.1.2 Underfitting and overfitting . . . . . . . . . . . . . . . . . . 10
2.1.1.3 Regularization . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.1.4 Model validation . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.1.5 Bootstrap . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.1.2 Supervised learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.1.2.1 kNN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
v
TABLE OF CONTENTS
2.1.2.2 Decision trees . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.2.3 Logistic regression . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.2.4 SVM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.1.2.5 Boosting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1.2.6 Bagging . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.1.3 Unsupervised learning . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.1 Feedforward Networks . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.2 Layers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.2.1 Input layer . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.2.2 Hidden layer . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.2.3 Output layer . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.2.4 Full connected layers (Dense layers ) . . . . . . . . . . . . 22
2.2.3 Backpropagation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2.4 Optimization in deep learning . . . . . . . . . . . . . . . . . . . . . . 23
2.2.4.1 Gradient Descent Optimizer . . . . . . . . . . . . . . . . . . 23
2.2.4.2 Stochastic gradient descent , Mini batch gradient descent 23
2.2.4.3 Adam . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2.4.4 RMSprop optimizer . . . . . . . . . . . . . . . . . . . . . . 24
2.2.5 Regularization for Deep Learning . . . . . . . . . . . . . . . . . . . . 25
2.2.5.1 Dropout . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2.5.2 Batch Normalization . . . . . . . . . . . . . . . . . . . . . . 25
2.2.5.3 Early stopping . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2.5.4 Data augmentation . . . . . . . . . . . . . . . . . . . . . . . 26
2.2.6 Model parameters . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.6.1 learning rate . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.6.2 epoch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.6.3 Batch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.6.4 Batch size . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.6.5 loss functions . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.6.6 Activation functions . . . . . . . . . . . . . . . . . . . . . . . 28
2.3 Convolutional neural network . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3.1 Convolution layer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3.1.1 Convolution operation . . . . . . . . . . . . . . . . . . . . . 30
2.3.1.2 Filters . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
vi
TABLE OF CONTENTS
2.3.2 Pooling layer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3.3 Padding . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.4 Transfer learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.4.1 Transfer learning versus traditional learning . . . . . . . . . . . . . 33
2.4.2 ImageNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4.3 pre trained model . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4.3.1 AlexNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4.3.2 VGG-16 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4.3.3 Inception . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4.3.4 ResNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4.4 Fine Tuning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.4.5 Related work using deep learning . . . . . . . . . . . . . . . . . . . . 35
2.4.6 Related works summarized . . . . . . . . . . . . . . . . . . . . . . . . 38
2.5 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3 Dataset and implimentation tools 40
3.1 Dataset description . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2 Dataset pre-processing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.3 Implementation frameworks and tools . . . . . . . . . . . . . . . . . . . . . 44
3.3.1 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3.2 Sickit-learn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3.3 Tensorflow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3.4 Keras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3.5 Jupyter notebooks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.3.6 Google Colab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.3.7 Kaggle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.4 model evaluation metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.4.1 Accuracy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.4.2 Precision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.4.3 Recal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.4.4 F1-score . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.4.5 Confusion matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.5 Proposed approaches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.5.1 Machine learning approaches . . . . . . . . . . . . . . . . . . . . . . . 49
3.5.2 Deep learning approaches . . . . . . . . . . . . . . . . . . . . . . . . . 49
vii
TABLE OF CONTENTS
3.6 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4 Experiments and results 51
4.1 Machine learning approaches . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.1.1 Decision trees classifier . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.1.2 XGBOOST classifier . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.1.3 Artificial neural networks . . . . . . . . . . . . . . . . . . . . . . . . 52
4.1.4 Machine learning algorithms results . . . . . . . . . . . . . . . . . . 52
4.1.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2 Deep learning approaches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2.1 Convolution neural networks . . . . . . . . . . . . . . . . . . . . . . . 53
4.2.1.1 First CNN architecture . . . . . . . . . . . . . . . . . . . . . 53
4.2.1.2 Second CNN Architecture . . . . . . . . . . . . . . . . . . 54
4.2.1.3 Model and architecture interpretation . . . . . . . . . . . 55
4.2.1.4 Model Compiling . . . . . . . . . . . . . . . . . . . . . . . . 56
4.2.1.5 Deep CNN architecture . . . . . . . . . . . . . . . . . . . . 59
4.2.1.6 experiments on balanced dataset . . . . . . . . . . . . . . . 59
4.2.2 Pretrained models ( Transfer learning ) . . . . . . . . . . . . . . . . 60
4.2.2.1 VGG-16 pretrained model . . . . . . . . . . . . . . . . . . . 60
4.2.2.2 Modified version of VGG16 model . . . . . . . . . . . . . . 61
4.2.2.3 ResNet pretrained Model . . . . . . . . . . . . . . . . . . . 62
4.2.2.4 Inception V3 pretrained model . . . . . . . . . . . . . . . . 62
4.3 Results comparisons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.4 Comparative study with the diagnosis of OCT experts . . . . . . . . . . . . 66
4.5 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
Bibliography 70 |
Côte titre : |
MAI/0280 |
En ligne : |
https://drive.google.com/file/d/1UpUMVLQmBXPaiBVaCN0Oi2mkhUbj0GeW/view?usp=shari [...] |
Format de la ressource électronique : |
pdf |
|