University Sétif 1 FERHAT ABBAS Faculty of Sciences
Catégories


Titre : Deep Learning for Breast cancer classification based on DNA data analysis Type de document : texte imprimé Auteurs : Ahlem Bakziz, Auteur ; Rania Rebai ; Yasmine Mansour, Directeur de thèse Editeur : Setif:UFA Année de publication : 2024 Importance : 1 vol (69 f .) Format : 29 cm Langues : Anglais (eng) Catégories : Thèses & Mémoires:Informatique Mots-clés : Bioinformatics
Genomics
Deep learning
NGS data analysis,
Cancer classificationIndex. décimale : 004 - Informatique Résumé : challenge in terms of diagnosis and treatment. Next-Generation Sequencing
(NGS) has emerged as a powerful tool, offering profound insights into
the genetic landscape of various cancer types. This project aims to bridge the
gap between computer science and bioinformatics by developing an AI-based
application in Python to analyze NGS DNA data and classify cancer subtypes
with enhanced accuracy.
The objective of our research is coupling NGS DNA data analysis with artificial
intelligence (AI) techniques.this project underscores the potential of AI in
cancer genomics. The integration of advanced computational methods promises
to refine the classification of cancer subtypes based on NGS DNA data, thus
enhancing clinical relevance and accuracy.
The methodology involves the development of a user-friendly Python-based
application that harnesses AI algorithms to improve the accuracy and efficiency
of NGS DNA data interpretation, equipping them with essential skills for tackling
real-world challenges in cancer research.
Through this interdisciplinary endeavor, we aim to empower future researchers
to navigate the complex landscape of cancer biology with proficiency
and innovation. By harnessing the potential of AI and NGS technologies, we
endeavor to drive progress in cancer diagnosis, treatment, and patient care, ultimately
advancing the fight against this formidable disease.Note de contenu : Sommaire
Abbreviations xii
1 Bioinformatics and Cancer 3
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Bioinformatics . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Background . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2 Molecules: DNA, RNA, miRNA . . . . . . . . . . . . 6
1.2.3 Gene Expression Analysis . . . . . . . . . . . . . . . 7
1.2.4 Next-Generation Sequencing . . . . . . . . . . . . . . 8
1.2.5 The genomic variations . . . . . . . . . . . . . . . . . 10
1.3 Cancer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.2 Cancer Stages . . . . . . . . . . . . . . . . . . . . . . 11
1.3.3 Cancer Therapy . . . . . . . . . . . . . . . . . . . . . 12
1.3.4 Breast cancer . . . . . . . . . . . . . . . . . . . . . . 13
1.4 Precision medicine . . . . . . . . . . . . . . . . . . . . . . . 15
1.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2 Artificial Intelligence (AI) 16
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2 Application of AI in bioinformatics . . . . . . . . . . . . . . 16
2.2.1 Sequence analysis: Genomics, transcriptomics and proteomics:
. . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2.2 Medical and clinical applications: From Personalized
medicine to enhanced decision-making . . . . . . . . 18
2.3 AI applications in bioinformatics . . . . . . . . . . . . . . . . 18
2.3.1 Machine Learning (ML) . . . . . . . . . . . . . . . . 18
2.3.2 Deep Learning (DL) . . . . . . . . . . . . . . . . . . 19
2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3 State of the art 26
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2 AI for omic data analysis . . . . . . . . . . . . . . . . . . . . 26
3.2.1 Single Omic analysis . . . . . . . . . . . . . . . . . . 27
3.2.2 Multi-level Omic analysis . . . . . . . . . . . . . . . 27
3.2.3 Deep learning in multi-omics data . . . . . . . . . . . 27
3.2.4 Classification of cancer using DNA sequencing: Existing
AI models . . . . . . . . . . . . . . . . . . . . . . 28
3.2.5 Integration of DL models and statistical models . . . . 28
3.3 Read classifiers . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.3.1 Alignment-free read classifiers . . . . . . . . . . . . . 33
3.3.2 Alignment-based read classifiers . . . . . . . . . . . . 33
3.3.3 Assembly-based read classifiers . . . . . . . . . . . . 34
3.3.4 Read classifiers combining multiple other classifiers . 34
3.4 Breast cancer and machine/deep learning collaboration . . . . 34
3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4 Contribution and Experimentation 39
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2 Scientific question . . . . . . . . . . . . . . . . . . . . . . . . 39
4.3 Methodology . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.4 Data collection and pre-processing . . . . . . . . . . . . . . . 42
4.4.1 Data collection . . . . . . . . . . . . . . . . . . . . . 42
4.4.2 Data preprocessing . . . . . . . . . . . . . . . . . . . 43
4.5 Classification model: steps of MLP model . . . . . . . . . . . 43
4.5.1 Forward Pass: . . . . . . . . . . . . . . . . . . . . . . 43
4.5.2 Backward Pass (during training): . . . . . . . . . . . . 45
4.5.3 Training Loop: . . . . . . . . . . . . . . . . . . . . . 45
4.5.4 Key Points: . . . . . . . . . . . . . . . . . . . . . . . 45
4.5.5 Regarding the proposed model: . . . . . . . . . . . . 45
4.6 Evaluation metrics . . . . . . . . . . . . . . . . . . . . . . . 46
4.6.1 Accuracy . . . . . . . . . . . . . . . . . . . . . . . . 46
4.6.2 Loss Function . . . . . . . . . . . . . . . . . . . . . . 46
4.7 Results and discussion . . . . . . . . . . . . . . . . . . . . . 46
4.7.1 Initial Loss and Rapid Decrease: . . . . . . . . . . . 50
4.7.2 Plateauing Loss: . . . . . . . . . . . . . . . . . . . . 50
4.7.3 Comparison of Training and Testing Loss: . . . . . . 50
4.7.4 Model Performance and Capacity: . . . . . . . . . . . 51
4.7.5 Discussion . . . . . . . . . . . . . . . . . . . . . . . 51
4.8 Development tools . . . . . . . . . . . . . . . . . . . . . . . 51
4.8.1 Environments . . . . . . . . . . . . . . . . . . . . . . 51
4.8.2 Programming language and libraries . . . . . . . . . . 52Côte titre : MAI/0879 Deep Learning for Breast cancer classification based on DNA data analysis [texte imprimé] / Ahlem Bakziz, Auteur ; Rania Rebai ; Yasmine Mansour, Directeur de thèse . - [S.l.] : Setif:UFA, 2024 . - 1 vol (69 f .) ; 29 cm.
Langues : Anglais (eng)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Bioinformatics
Genomics
Deep learning
NGS data analysis,
Cancer classificationIndex. décimale : 004 - Informatique Résumé : challenge in terms of diagnosis and treatment. Next-Generation Sequencing
(NGS) has emerged as a powerful tool, offering profound insights into
the genetic landscape of various cancer types. This project aims to bridge the
gap between computer science and bioinformatics by developing an AI-based
application in Python to analyze NGS DNA data and classify cancer subtypes
with enhanced accuracy.
The objective of our research is coupling NGS DNA data analysis with artificial
intelligence (AI) techniques.this project underscores the potential of AI in
cancer genomics. The integration of advanced computational methods promises
to refine the classification of cancer subtypes based on NGS DNA data, thus
enhancing clinical relevance and accuracy.
The methodology involves the development of a user-friendly Python-based
application that harnesses AI algorithms to improve the accuracy and efficiency
of NGS DNA data interpretation, equipping them with essential skills for tackling
real-world challenges in cancer research.
Through this interdisciplinary endeavor, we aim to empower future researchers
to navigate the complex landscape of cancer biology with proficiency
and innovation. By harnessing the potential of AI and NGS technologies, we
endeavor to drive progress in cancer diagnosis, treatment, and patient care, ultimately
advancing the fight against this formidable disease.Note de contenu : Sommaire
Abbreviations xii
1 Bioinformatics and Cancer 3
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Bioinformatics . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Background . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2 Molecules: DNA, RNA, miRNA . . . . . . . . . . . . 6
1.2.3 Gene Expression Analysis . . . . . . . . . . . . . . . 7
1.2.4 Next-Generation Sequencing . . . . . . . . . . . . . . 8
1.2.5 The genomic variations . . . . . . . . . . . . . . . . . 10
1.3 Cancer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.2 Cancer Stages . . . . . . . . . . . . . . . . . . . . . . 11
1.3.3 Cancer Therapy . . . . . . . . . . . . . . . . . . . . . 12
1.3.4 Breast cancer . . . . . . . . . . . . . . . . . . . . . . 13
1.4 Precision medicine . . . . . . . . . . . . . . . . . . . . . . . 15
1.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2 Artificial Intelligence (AI) 16
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2 Application of AI in bioinformatics . . . . . . . . . . . . . . 16
2.2.1 Sequence analysis: Genomics, transcriptomics and proteomics:
. . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2.2 Medical and clinical applications: From Personalized
medicine to enhanced decision-making . . . . . . . . 18
2.3 AI applications in bioinformatics . . . . . . . . . . . . . . . . 18
2.3.1 Machine Learning (ML) . . . . . . . . . . . . . . . . 18
2.3.2 Deep Learning (DL) . . . . . . . . . . . . . . . . . . 19
2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3 State of the art 26
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2 AI for omic data analysis . . . . . . . . . . . . . . . . . . . . 26
3.2.1 Single Omic analysis . . . . . . . . . . . . . . . . . . 27
3.2.2 Multi-level Omic analysis . . . . . . . . . . . . . . . 27
3.2.3 Deep learning in multi-omics data . . . . . . . . . . . 27
3.2.4 Classification of cancer using DNA sequencing: Existing
AI models . . . . . . . . . . . . . . . . . . . . . . 28
3.2.5 Integration of DL models and statistical models . . . . 28
3.3 Read classifiers . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.3.1 Alignment-free read classifiers . . . . . . . . . . . . . 33
3.3.2 Alignment-based read classifiers . . . . . . . . . . . . 33
3.3.3 Assembly-based read classifiers . . . . . . . . . . . . 34
3.3.4 Read classifiers combining multiple other classifiers . 34
3.4 Breast cancer and machine/deep learning collaboration . . . . 34
3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4 Contribution and Experimentation 39
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2 Scientific question . . . . . . . . . . . . . . . . . . . . . . . . 39
4.3 Methodology . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.4 Data collection and pre-processing . . . . . . . . . . . . . . . 42
4.4.1 Data collection . . . . . . . . . . . . . . . . . . . . . 42
4.4.2 Data preprocessing . . . . . . . . . . . . . . . . . . . 43
4.5 Classification model: steps of MLP model . . . . . . . . . . . 43
4.5.1 Forward Pass: . . . . . . . . . . . . . . . . . . . . . . 43
4.5.2 Backward Pass (during training): . . . . . . . . . . . . 45
4.5.3 Training Loop: . . . . . . . . . . . . . . . . . . . . . 45
4.5.4 Key Points: . . . . . . . . . . . . . . . . . . . . . . . 45
4.5.5 Regarding the proposed model: . . . . . . . . . . . . 45
4.6 Evaluation metrics . . . . . . . . . . . . . . . . . . . . . . . 46
4.6.1 Accuracy . . . . . . . . . . . . . . . . . . . . . . . . 46
4.6.2 Loss Function . . . . . . . . . . . . . . . . . . . . . . 46
4.7 Results and discussion . . . . . . . . . . . . . . . . . . . . . 46
4.7.1 Initial Loss and Rapid Decrease: . . . . . . . . . . . 50
4.7.2 Plateauing Loss: . . . . . . . . . . . . . . . . . . . . 50
4.7.3 Comparison of Training and Testing Loss: . . . . . . 50
4.7.4 Model Performance and Capacity: . . . . . . . . . . . 51
4.7.5 Discussion . . . . . . . . . . . . . . . . . . . . . . . 51
4.8 Development tools . . . . . . . . . . . . . . . . . . . . . . . 51
4.8.1 Environments . . . . . . . . . . . . . . . . . . . . . . 51
4.8.2 Programming language and libraries . . . . . . . . . . 52Côte titre : MAI/0879 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0879 MAI/0879 Mémoire Bibliothéque des sciences Anglais Disponible
Disponible
Titre : Deep learning for identifying and classifying retinal diseases Type de document : texte imprimé Auteurs : Berrimi,Mohamed, Auteur ; Moussaoui ,Abdelouahab, Directeur de thèse Editeur : Setif:UFA Année de publication : 2019 Importance : 1 vol (78 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Informatique Mots-clés : Réseaux neuronaux convolutionnels
Imagerie médicale
Apprentissage
ProfondIndex. décimale : 004 Informatique Résumé : La classification est une utilisation particulière de l’apprentissage automatique et
l’apprentissage profond. Dans cette thèse, nous allons proposer un nouveau modèle
de classification basé sur l’apprentissage profond, capable de classer et d’identifier les
différentes maladies rétiniennes à des stades précoces avec une grande précision qui
surpassent l’état de l’artf, les travaux précédents, ainsi que les diagnostics des experts
en ophtalmologie. La vision et la santé des yeux sont l’une des choses les plus cruciales
de la vie humaine, il faut la préserver pour maintenir la vie des individus. Les maladies
des yeux telles que CNV, DRUSEN, AMD, DME sont principalement dues aux lésions
de la rétine. Comme elle est endommagée et diagnostiquée à un stade avancé, il n’y a
pratiquement aucune chance de renverser la vision et de la guérir, ce qui signifie que
le patient va perdre la capacité de voir partiellement, et peut être entièrement. Nous
proposons ici trois architectures de réseaux de neurones convolutionnels profonds et
ajusté trois modèles pré-entraînés formés sur de grands ensembles de données tels
que Inception, VGG-16 et ResNET. Afin d’évaluer notre modèle, nous avons comparé le
diagnostic de 7 experts à la performance de notre modèle. Notre modèle proposé surpasse
le diagnostic de 6 experts sur 7, ainsi que les travaux publiés précédemment utilisant les
mêmes données, où nous avons obtenu une précision allant jusqu’à 99,27%.
Cet outil peut en fin de compte aider à accélérer le diagnostic et l’orientation de ces
affections traitables, facilitant ainsi un traitement plus précoce, entraînant de meilleurs
résultats cliniques.Note de contenu : Sommaire
List of Tables ix
List of Figures xi
1 Retinal pathologies and scanning devices 4
1.1 Fundus photography . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 OCT scanning in medical imaging . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.1 SD-OCT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.2 A-scan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.3 B-scan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Retinal pathologies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 DME . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.2 AMD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.3 DRUSEN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.4 CNV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2 State of the art and related works 9
2.1 Machine learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.1.1 Machine learning concepts . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.1.1 Splitting data . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.1.2 Underfitting and overfitting . . . . . . . . . . . . . . . . . . 10
2.1.1.3 Regularization . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.1.4 Model validation . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.1.5 Bootstrap . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.1.2 Supervised learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.1.2.1 kNN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
v
TABLE OF CONTENTS
2.1.2.2 Decision trees . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.2.3 Logistic regression . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.2.4 SVM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.1.2.5 Boosting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1.2.6 Bagging . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.1.3 Unsupervised learning . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.1 Feedforward Networks . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.2 Layers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.2.1 Input layer . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.2.2 Hidden layer . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.2.3 Output layer . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.2.4 Full connected layers (Dense layers ) . . . . . . . . . . . . 22
2.2.3 Backpropagation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2.4 Optimization in deep learning . . . . . . . . . . . . . . . . . . . . . . 23
2.2.4.1 Gradient Descent Optimizer . . . . . . . . . . . . . . . . . . 23
2.2.4.2 Stochastic gradient descent , Mini batch gradient descent 23
2.2.4.3 Adam . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2.4.4 RMSprop optimizer . . . . . . . . . . . . . . . . . . . . . . 24
2.2.5 Regularization for Deep Learning . . . . . . . . . . . . . . . . . . . . 25
2.2.5.1 Dropout . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2.5.2 Batch Normalization . . . . . . . . . . . . . . . . . . . . . . 25
2.2.5.3 Early stopping . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2.5.4 Data augmentation . . . . . . . . . . . . . . . . . . . . . . . 26
2.2.6 Model parameters . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.6.1 learning rate . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.6.2 epoch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.6.3 Batch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.6.4 Batch size . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.6.5 loss functions . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.6.6 Activation functions . . . . . . . . . . . . . . . . . . . . . . . 28
2.3 Convolutional neural network . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3.1 Convolution layer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3.1.1 Convolution operation . . . . . . . . . . . . . . . . . . . . . 30
2.3.1.2 Filters . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
vi
TABLE OF CONTENTS
2.3.2 Pooling layer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3.3 Padding . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.4 Transfer learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.4.1 Transfer learning versus traditional learning . . . . . . . . . . . . . 33
2.4.2 ImageNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4.3 pre trained model . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4.3.1 AlexNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4.3.2 VGG-16 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4.3.3 Inception . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4.3.4 ResNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4.4 Fine Tuning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.4.5 Related work using deep learning . . . . . . . . . . . . . . . . . . . . 35
2.4.6 Related works summarized . . . . . . . . . . . . . . . . . . . . . . . . 38
2.5 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3 Dataset and implimentation tools 40
3.1 Dataset description . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2 Dataset pre-processing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.3 Implementation frameworks and tools . . . . . . . . . . . . . . . . . . . . . 44
3.3.1 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3.2 Sickit-learn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3.3 Tensorflow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3.4 Keras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3.5 Jupyter notebooks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.3.6 Google Colab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.3.7 Kaggle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.4 model evaluation metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.4.1 Accuracy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.4.2 Precision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.4.3 Recal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.4.4 F1-score . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.4.5 Confusion matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.5 Proposed approaches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.5.1 Machine learning approaches . . . . . . . . . . . . . . . . . . . . . . . 49
3.5.2 Deep learning approaches . . . . . . . . . . . . . . . . . . . . . . . . . 49
vii
TABLE OF CONTENTS
3.6 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4 Experiments and results 51
4.1 Machine learning approaches . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.1.1 Decision trees classifier . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.1.2 XGBOOST classifier . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.1.3 Artificial neural networks . . . . . . . . . . . . . . . . . . . . . . . . 52
4.1.4 Machine learning algorithms results . . . . . . . . . . . . . . . . . . 52
4.1.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2 Deep learning approaches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2.1 Convolution neural networks . . . . . . . . . . . . . . . . . . . . . . . 53
4.2.1.1 First CNN architecture . . . . . . . . . . . . . . . . . . . . . 53
4.2.1.2 Second CNN Architecture . . . . . . . . . . . . . . . . . . 54
4.2.1.3 Model and architecture interpretation . . . . . . . . . . . 55
4.2.1.4 Model Compiling . . . . . . . . . . . . . . . . . . . . . . . . 56
4.2.1.5 Deep CNN architecture . . . . . . . . . . . . . . . . . . . . 59
4.2.1.6 experiments on balanced dataset . . . . . . . . . . . . . . . 59
4.2.2 Pretrained models ( Transfer learning ) . . . . . . . . . . . . . . . . 60
4.2.2.1 VGG-16 pretrained model . . . . . . . . . . . . . . . . . . . 60
4.2.2.2 Modified version of VGG16 model . . . . . . . . . . . . . . 61
4.2.2.3 ResNet pretrained Model . . . . . . . . . . . . . . . . . . . 62
4.2.2.4 Inception V3 pretrained model . . . . . . . . . . . . . . . . 62
4.3 Results comparisons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.4 Comparative study with the diagnosis of OCT experts . . . . . . . . . . . . 66
4.5 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
Bibliography 70Côte titre : MAI/0280 En ligne : https://drive.google.com/file/d/1UpUMVLQmBXPaiBVaCN0Oi2mkhUbj0GeW/view?usp=shari [...] Format de la ressource électronique : Deep learning for identifying and classifying retinal diseases [texte imprimé] / Berrimi,Mohamed, Auteur ; Moussaoui ,Abdelouahab, Directeur de thèse . - [S.l.] : Setif:UFA, 2019 . - 1 vol (78 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Réseaux neuronaux convolutionnels
Imagerie médicale
Apprentissage
ProfondIndex. décimale : 004 Informatique Résumé : La classification est une utilisation particulière de l’apprentissage automatique et
l’apprentissage profond. Dans cette thèse, nous allons proposer un nouveau modèle
de classification basé sur l’apprentissage profond, capable de classer et d’identifier les
différentes maladies rétiniennes à des stades précoces avec une grande précision qui
surpassent l’état de l’artf, les travaux précédents, ainsi que les diagnostics des experts
en ophtalmologie. La vision et la santé des yeux sont l’une des choses les plus cruciales
de la vie humaine, il faut la préserver pour maintenir la vie des individus. Les maladies
des yeux telles que CNV, DRUSEN, AMD, DME sont principalement dues aux lésions
de la rétine. Comme elle est endommagée et diagnostiquée à un stade avancé, il n’y a
pratiquement aucune chance de renverser la vision et de la guérir, ce qui signifie que
le patient va perdre la capacité de voir partiellement, et peut être entièrement. Nous
proposons ici trois architectures de réseaux de neurones convolutionnels profonds et
ajusté trois modèles pré-entraînés formés sur de grands ensembles de données tels
que Inception, VGG-16 et ResNET. Afin d’évaluer notre modèle, nous avons comparé le
diagnostic de 7 experts à la performance de notre modèle. Notre modèle proposé surpasse
le diagnostic de 6 experts sur 7, ainsi que les travaux publiés précédemment utilisant les
mêmes données, où nous avons obtenu une précision allant jusqu’à 99,27%.
Cet outil peut en fin de compte aider à accélérer le diagnostic et l’orientation de ces
affections traitables, facilitant ainsi un traitement plus précoce, entraînant de meilleurs
résultats cliniques.Note de contenu : Sommaire
List of Tables ix
List of Figures xi
1 Retinal pathologies and scanning devices 4
1.1 Fundus photography . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 OCT scanning in medical imaging . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.1 SD-OCT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.2 A-scan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.3 B-scan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Retinal pathologies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 DME . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.2 AMD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.3 DRUSEN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.4 CNV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2 State of the art and related works 9
2.1 Machine learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.1.1 Machine learning concepts . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.1.1 Splitting data . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.1.2 Underfitting and overfitting . . . . . . . . . . . . . . . . . . 10
2.1.1.3 Regularization . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.1.4 Model validation . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.1.5 Bootstrap . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.1.2 Supervised learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.1.2.1 kNN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
v
TABLE OF CONTENTS
2.1.2.2 Decision trees . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.2.3 Logistic regression . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.2.4 SVM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.1.2.5 Boosting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1.2.6 Bagging . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.1.3 Unsupervised learning . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.1 Feedforward Networks . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.2 Layers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.2.1 Input layer . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.2.2 Hidden layer . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.2.3 Output layer . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.2.4 Full connected layers (Dense layers ) . . . . . . . . . . . . 22
2.2.3 Backpropagation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2.4 Optimization in deep learning . . . . . . . . . . . . . . . . . . . . . . 23
2.2.4.1 Gradient Descent Optimizer . . . . . . . . . . . . . . . . . . 23
2.2.4.2 Stochastic gradient descent , Mini batch gradient descent 23
2.2.4.3 Adam . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2.4.4 RMSprop optimizer . . . . . . . . . . . . . . . . . . . . . . 24
2.2.5 Regularization for Deep Learning . . . . . . . . . . . . . . . . . . . . 25
2.2.5.1 Dropout . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2.5.2 Batch Normalization . . . . . . . . . . . . . . . . . . . . . . 25
2.2.5.3 Early stopping . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2.5.4 Data augmentation . . . . . . . . . . . . . . . . . . . . . . . 26
2.2.6 Model parameters . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.6.1 learning rate . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.6.2 epoch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.6.3 Batch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.6.4 Batch size . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.6.5 loss functions . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.6.6 Activation functions . . . . . . . . . . . . . . . . . . . . . . . 28
2.3 Convolutional neural network . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3.1 Convolution layer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3.1.1 Convolution operation . . . . . . . . . . . . . . . . . . . . . 30
2.3.1.2 Filters . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
vi
TABLE OF CONTENTS
2.3.2 Pooling layer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3.3 Padding . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.4 Transfer learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.4.1 Transfer learning versus traditional learning . . . . . . . . . . . . . 33
2.4.2 ImageNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4.3 pre trained model . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4.3.1 AlexNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4.3.2 VGG-16 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4.3.3 Inception . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4.3.4 ResNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4.4 Fine Tuning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.4.5 Related work using deep learning . . . . . . . . . . . . . . . . . . . . 35
2.4.6 Related works summarized . . . . . . . . . . . . . . . . . . . . . . . . 38
2.5 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3 Dataset and implimentation tools 40
3.1 Dataset description . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2 Dataset pre-processing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.3 Implementation frameworks and tools . . . . . . . . . . . . . . . . . . . . . 44
3.3.1 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3.2 Sickit-learn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3.3 Tensorflow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3.4 Keras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3.5 Jupyter notebooks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.3.6 Google Colab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.3.7 Kaggle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.4 model evaluation metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.4.1 Accuracy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.4.2 Precision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.4.3 Recal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.4.4 F1-score . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.4.5 Confusion matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.5 Proposed approaches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.5.1 Machine learning approaches . . . . . . . . . . . . . . . . . . . . . . . 49
3.5.2 Deep learning approaches . . . . . . . . . . . . . . . . . . . . . . . . . 49
vii
TABLE OF CONTENTS
3.6 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4 Experiments and results 51
4.1 Machine learning approaches . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.1.1 Decision trees classifier . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.1.2 XGBOOST classifier . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.1.3 Artificial neural networks . . . . . . . . . . . . . . . . . . . . . . . . 52
4.1.4 Machine learning algorithms results . . . . . . . . . . . . . . . . . . 52
4.1.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2 Deep learning approaches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2.1 Convolution neural networks . . . . . . . . . . . . . . . . . . . . . . . 53
4.2.1.1 First CNN architecture . . . . . . . . . . . . . . . . . . . . . 53
4.2.1.2 Second CNN Architecture . . . . . . . . . . . . . . . . . . 54
4.2.1.3 Model and architecture interpretation . . . . . . . . . . . 55
4.2.1.4 Model Compiling . . . . . . . . . . . . . . . . . . . . . . . . 56
4.2.1.5 Deep CNN architecture . . . . . . . . . . . . . . . . . . . . 59
4.2.1.6 experiments on balanced dataset . . . . . . . . . . . . . . . 59
4.2.2 Pretrained models ( Transfer learning ) . . . . . . . . . . . . . . . . 60
4.2.2.1 VGG-16 pretrained model . . . . . . . . . . . . . . . . . . . 60
4.2.2.2 Modified version of VGG16 model . . . . . . . . . . . . . . 61
4.2.2.3 ResNet pretrained Model . . . . . . . . . . . . . . . . . . . 62
4.2.2.4 Inception V3 pretrained model . . . . . . . . . . . . . . . . 62
4.3 Results comparisons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.4 Comparative study with the diagnosis of OCT experts . . . . . . . . . . . . 66
4.5 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
Bibliography 70Côte titre : MAI/0280 En ligne : https://drive.google.com/file/d/1UpUMVLQmBXPaiBVaCN0Oi2mkhUbj0GeW/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0280 MAI/0280 Mémoire Bibliothéque des sciences Français Disponible
Disponible
Titre : Deep Learning for medical images segmentation Type de document : texte imprimé Auteurs : Zouhir Badache, Auteur ; Mohamed Bounechada ; mohamed Chafia Kara, Directeur de thèse Editeur : Setif:UFA Année de publication : 2024 Importance : 1 vol (60 f .) Format : 29 cm Langues : Anglais (eng) Catégories : Thèses & Mémoires:Informatique Mots-clés : Computer Aided Diagnosis
Machine Learning
Deep Learning
Medical images
Blood Vessel Segmentation
U-Net with attentionIndex. décimale : 004 - Informatique Résumé :
Assisting doctors and radiologists in their hard and precise work is the main objective
of Computer Aided Diagnosis field (CAD). Machine Learning (ML) and recently
Deep Learning (DL) have proved their efficiency in this task. In the field of Ophthalmology,
accurate blood vessel segmentation is crucial for diagnosing and monitoring
various retinal diseases such as Diabetic Retinopathy, Glaucoma, and Age-related Macular
Degeneration. Segmentation, in medical images, is the process to separate and
delineate different parts in these images. This segmentation assists health care staff
in their work to handle variations in vessel appearance due to factors like age, disease
progression. In this context, we aim, in our work, to design a DL model based on
U-Net model with attention to segment retinal vessels images using FIVES dataset.
Our model outperforms the state of the art ones in term of accuracy 97.51%. Our
results are also examined by an ophthalmologist and he was more than satisfied.Note de contenu :
Sommaire
Table of contents v
List of figures vii
List of tables viii
1 Medical Image Segmentation 1
1 Introduction to Medical Image Segmentation . . . . . . . . . . . . . . . 2
2 Challenges in Medical Image Segmentation . . . . . . . . . . . . . . . . 3
2.1 Image Complexity . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.2 Anatomical Variability . . . . . . . . . . . . . . . . . . . . . . . 3
2.3 Limited Annotations . . . . . . . . . . . . . . . . . . . . . . . . 3
2.4 Real-Time Constraints . . . . . . . . . . . . . . . . . . . . . . . 3
3 Commonly Used Segmentation Techniques . . . . . . . . . . . . . . . . 4
3.1 Thresholding . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
3.2 Edge-Based . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
3.3 Region-Growing . . . . . . . . . . . . . . . . . . . . . . . . . . 5
4 Applications of Segmentation in Clinical Practice . . . . . . . . . . . . 5
4.1 Oncology . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
4.2 Neurology . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
4.3 Cardiology . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
4.4 ophthalmology . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2 Deep Learning for Segmentation 8
1 Introduction to Deep Learning for Segmentation . . . . . . . . . . . . 9
2 Models Used for Segmentation . . . . . . . . . . . . . . . . . . . . . . . 10
2.1 U-Net . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2 FCN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3 Mask R-CNN . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4 DeepLab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3 Semantic Segmentation vs Instance Segmentation . . . . . . . . . . . . 11
3.1 Semantic Segmentation . . . . . . . . . . . . . . . . . . . . . . 11
3.2 Instance Segmentation . . . . . . . . . . . . . . . . . . . . . . . 11
4 U-Net Architecture . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4.1 Encoder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4.2 Decoder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.3 Skip Connections . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4.4 Attention Mechanism . . . . . . . . . . . . . . . . . . . . . . . 14
4.5 Final Convolutional Layers . . . . . . . . . . . . . . . . . . . . 15
5 Activation Functions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
5.1 Sigmoid . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
5.2 ReLU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.3 ELU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.4 Softmax . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.5 Tanh . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
6 Loss Function . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
6.1 Loss Functions for Classification: . . . . . . . . . . . . . . . . . 17
6.2 Loss Functions for Regression: . . . . . . . . . . . . . . . . . . . 18
7 Optimizers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
7.1 Stochastic Gradient Descent: . . . . . . . . . . . . . . . . . . . 19
7.2 Adagrad: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
7.3 Adadelta: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
7.4 RMSprop: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
7.5 Adam: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
8 overfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
9 techniques to avoid overfitting . . . . . . . . . . . . . . . . . . . . . . . 21
9.1 Batch Normalization . . . . . . . . . . . . . . . . . . . . . . . . 21
9.2 Dropout: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
9.3 Early Stopping: . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
9.4 Data Augmentation: . . . . . . . . . . . . . . . . . . . . . . . . 22
10 Evaluation Metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
10.1 Dice Coefficient . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
10.2 Intersection over Union : . . . . . . . . . . . . . . . . . . . . . . 23
10.3 Accuracy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
10.4 Peak Signal-to-Noise Ratio (PSNR) . . . . . . . . . . . . . . . . 24
10.5 F1 score . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
10.6 The Area Under the Curve (AUC) . . . . . . . . . . . . . . . . 26
3 Related Works 27
4 Methodology 31
1 Study Design . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2 Data Collection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.1 Dataset Description . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2 Data Acquisition . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.3 Annotation Process . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4 Usage and Applications . . . . . . . . . . . . . . . . . . . . . . 34
2.5 Some papers that use this dataset . . . . . . . . . . . . . . . . . 34
2.6 Availability and Access . . . . . . . . . . . . . . . . . . . . . . . 35
3 Data Preprocessing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.1 Choosing the best filters . . . . . . . . . . . . . . . . . . . . . . 35
4 Data Augmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.1 Keras data generators . . . . . . . . . . . . . . . . . . . . . . . 42
5 Model Development . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
5.1 Custom attention U-Net model . . . . . . . . . . . . . . . . . . 46
5.2 Implementation . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.3 Training the model . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.4 Model evaluation . . . . . . . . . . . . . . . . . . . . . . . . . . 49
6 Final results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
6.1 Generated masks . . . . . . . . . . . . . . . . . . . . . . . . . . 50
6.2 Comparison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50Côte titre : MAI/0901 Deep Learning for medical images segmentation [texte imprimé] / Zouhir Badache, Auteur ; Mohamed Bounechada ; mohamed Chafia Kara, Directeur de thèse . - [S.l.] : Setif:UFA, 2024 . - 1 vol (60 f .) ; 29 cm.
Langues : Anglais (eng)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Computer Aided Diagnosis
Machine Learning
Deep Learning
Medical images
Blood Vessel Segmentation
U-Net with attentionIndex. décimale : 004 - Informatique Résumé :
Assisting doctors and radiologists in their hard and precise work is the main objective
of Computer Aided Diagnosis field (CAD). Machine Learning (ML) and recently
Deep Learning (DL) have proved their efficiency in this task. In the field of Ophthalmology,
accurate blood vessel segmentation is crucial for diagnosing and monitoring
various retinal diseases such as Diabetic Retinopathy, Glaucoma, and Age-related Macular
Degeneration. Segmentation, in medical images, is the process to separate and
delineate different parts in these images. This segmentation assists health care staff
in their work to handle variations in vessel appearance due to factors like age, disease
progression. In this context, we aim, in our work, to design a DL model based on
U-Net model with attention to segment retinal vessels images using FIVES dataset.
Our model outperforms the state of the art ones in term of accuracy 97.51%. Our
results are also examined by an ophthalmologist and he was more than satisfied.Note de contenu :
Sommaire
Table of contents v
List of figures vii
List of tables viii
1 Medical Image Segmentation 1
1 Introduction to Medical Image Segmentation . . . . . . . . . . . . . . . 2
2 Challenges in Medical Image Segmentation . . . . . . . . . . . . . . . . 3
2.1 Image Complexity . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.2 Anatomical Variability . . . . . . . . . . . . . . . . . . . . . . . 3
2.3 Limited Annotations . . . . . . . . . . . . . . . . . . . . . . . . 3
2.4 Real-Time Constraints . . . . . . . . . . . . . . . . . . . . . . . 3
3 Commonly Used Segmentation Techniques . . . . . . . . . . . . . . . . 4
3.1 Thresholding . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
3.2 Edge-Based . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
3.3 Region-Growing . . . . . . . . . . . . . . . . . . . . . . . . . . 5
4 Applications of Segmentation in Clinical Practice . . . . . . . . . . . . 5
4.1 Oncology . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
4.2 Neurology . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
4.3 Cardiology . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
4.4 ophthalmology . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2 Deep Learning for Segmentation 8
1 Introduction to Deep Learning for Segmentation . . . . . . . . . . . . 9
2 Models Used for Segmentation . . . . . . . . . . . . . . . . . . . . . . . 10
2.1 U-Net . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2 FCN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3 Mask R-CNN . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4 DeepLab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3 Semantic Segmentation vs Instance Segmentation . . . . . . . . . . . . 11
3.1 Semantic Segmentation . . . . . . . . . . . . . . . . . . . . . . 11
3.2 Instance Segmentation . . . . . . . . . . . . . . . . . . . . . . . 11
4 U-Net Architecture . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4.1 Encoder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4.2 Decoder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.3 Skip Connections . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4.4 Attention Mechanism . . . . . . . . . . . . . . . . . . . . . . . 14
4.5 Final Convolutional Layers . . . . . . . . . . . . . . . . . . . . 15
5 Activation Functions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
5.1 Sigmoid . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
5.2 ReLU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.3 ELU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.4 Softmax . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.5 Tanh . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
6 Loss Function . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
6.1 Loss Functions for Classification: . . . . . . . . . . . . . . . . . 17
6.2 Loss Functions for Regression: . . . . . . . . . . . . . . . . . . . 18
7 Optimizers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
7.1 Stochastic Gradient Descent: . . . . . . . . . . . . . . . . . . . 19
7.2 Adagrad: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
7.3 Adadelta: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
7.4 RMSprop: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
7.5 Adam: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
8 overfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
9 techniques to avoid overfitting . . . . . . . . . . . . . . . . . . . . . . . 21
9.1 Batch Normalization . . . . . . . . . . . . . . . . . . . . . . . . 21
9.2 Dropout: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
9.3 Early Stopping: . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
9.4 Data Augmentation: . . . . . . . . . . . . . . . . . . . . . . . . 22
10 Evaluation Metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
10.1 Dice Coefficient . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
10.2 Intersection over Union : . . . . . . . . . . . . . . . . . . . . . . 23
10.3 Accuracy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
10.4 Peak Signal-to-Noise Ratio (PSNR) . . . . . . . . . . . . . . . . 24
10.5 F1 score . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
10.6 The Area Under the Curve (AUC) . . . . . . . . . . . . . . . . 26
3 Related Works 27
4 Methodology 31
1 Study Design . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2 Data Collection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.1 Dataset Description . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2 Data Acquisition . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.3 Annotation Process . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4 Usage and Applications . . . . . . . . . . . . . . . . . . . . . . 34
2.5 Some papers that use this dataset . . . . . . . . . . . . . . . . . 34
2.6 Availability and Access . . . . . . . . . . . . . . . . . . . . . . . 35
3 Data Preprocessing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.1 Choosing the best filters . . . . . . . . . . . . . . . . . . . . . . 35
4 Data Augmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.1 Keras data generators . . . . . . . . . . . . . . . . . . . . . . . 42
5 Model Development . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
5.1 Custom attention U-Net model . . . . . . . . . . . . . . . . . . 46
5.2 Implementation . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.3 Training the model . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.4 Model evaluation . . . . . . . . . . . . . . . . . . . . . . . . . . 49
6 Final results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
6.1 Generated masks . . . . . . . . . . . . . . . . . . . . . . . . . . 50
6.2 Comparison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50Côte titre : MAI/0901 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0901 MAI/0901 Mémoire Bibliothéque des sciences Anglais Disponible
Disponible
Titre : Deep Learning for Medical Object Detection and Segmentation : Case of Osteoarthritis Disease Type de document : texte imprimé Auteurs : Ouassim boukhennoufa, Auteur ; Aymen kara mahammed, Auteur ; Abdelouahab Moussaoui, Directeur de thèse Année de publication : 2022 Importance : 1 vol (105 f .) Format : 29cm Langues : Français (fre) Catégories : Thèses & Mémoires:Informatique Mots-clés : Transfer learning
Vision transformersIndex. décimale : 004 Informatique Résumé :
Osteoarthritis disease is mainly caused due to the damage to the knee joints, and
since it is damaged, and diagnosed at late stages, there is almost no chance to reverse
and cure the bone, which means that the patient will lose the ability to walk in a normal
way and doing physical activities, and may entirely lose the use of his knees. In this
thesis we want to propose novel classification models based on deep learning that will be
able to classify and identify different grades of the osteoarthritis disease, and also object
detectors to compare them to the classification models. We propose seven customized
transfer learning models, we also proposed 7 Vision transformers models. In order to
evaluate our model, we have compared the diagnosis of 6 experts in relation to deep
learning with the performance of our models. Our proposed models outperformed the
diagnosis of the previously published works using the same data, where we obtained
an accuracy of up to 93.87% with early-stage detection. In addition, object detection
approaches were proposed based on YoLo to compare them to classification models.Côte titre : MAI/0617 En ligne : https://drive.google.com/file/d/1wy5MIfktmP63KzGlInLn58_HPt-I2S7r/view?usp=share [...] Format de la ressource électronique : Deep Learning for Medical Object Detection and Segmentation : Case of Osteoarthritis Disease [texte imprimé] / Ouassim boukhennoufa, Auteur ; Aymen kara mahammed, Auteur ; Abdelouahab Moussaoui, Directeur de thèse . - 2022 . - 1 vol (105 f .) ; 29cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Transfer learning
Vision transformersIndex. décimale : 004 Informatique Résumé :
Osteoarthritis disease is mainly caused due to the damage to the knee joints, and
since it is damaged, and diagnosed at late stages, there is almost no chance to reverse
and cure the bone, which means that the patient will lose the ability to walk in a normal
way and doing physical activities, and may entirely lose the use of his knees. In this
thesis we want to propose novel classification models based on deep learning that will be
able to classify and identify different grades of the osteoarthritis disease, and also object
detectors to compare them to the classification models. We propose seven customized
transfer learning models, we also proposed 7 Vision transformers models. In order to
evaluate our model, we have compared the diagnosis of 6 experts in relation to deep
learning with the performance of our models. Our proposed models outperformed the
diagnosis of the previously published works using the same data, where we obtained
an accuracy of up to 93.87% with early-stage detection. In addition, object detection
approaches were proposed based on YoLo to compare them to classification models.Côte titre : MAI/0617 En ligne : https://drive.google.com/file/d/1wy5MIfktmP63KzGlInLn58_HPt-I2S7r/view?usp=share [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0617 MAI/0617 Mémoire Bibliothéque des sciences Anglais Disponible
Disponible
Titre : Deep learning for segmentation and analysis of pathogies in medcal imaging Type de document : texte imprimé Auteurs : Guergouri,Nassim, Auteur ; Moussaoui ,Abdelouahab, Directeur de thèse Editeur : Setif:UFA Année de publication : 2018 Importance : 1 vol (78 f .) Format : 29 cm Langues : Français (fre) Langues originales : Français (fre) Catégories : Thèses & Mémoires:Informatique Mots-clés : Apprentissage automatique
Apprentissage profond
Segmentation d'images médicales
Réseau résiduel profond(DRN)
Apprentissage par transfert
Tumeur cérébraleIndex. décimale : 004 - Informatique Note de contenu : List of Tables v
List of Figures vi
1 Introduction 1
Introduction 1
Aim of the Work 2
Structure of the Work 2
2 Clinical Background 4
Introduction 4
Image Characteristics 4
Spatial Resolution 5
Convolution 5
Contrast-To-Noise Ratio 6
Signal-To-Noise Ratio 7
Medical Imaging Modality 7
X-ray Production and X-ray Tubes 8
X-ray Production 8
X-ray Tubes 8
Radiography 9
Fluoroscopy 10
Mammography 10
Computed Tomography 10
Magnetic Resonance Imaging 11
Ultrasound 12
Nuclear Medicine 12
Conclusion 13
3 Theorical Background 14
Introduction 14
Machine Learning 14
Machine Learning process 15
Machine Learning categories 15
3.2.2.1 Supervised Learning . . . . . . . . . . . . . . . . . . . . . . 16
3.2.2.2 Unsupervised Learning . . . . . . . . . . . . . . . . . . . . 17
3.2.2.3 Reinforcement Learning . . . . . . . . . . . . . . . . . . . . 17
3.2.3 Machine Learning Algorithms . . . . . . . . . . . . . . . . . . . . . . 17
3.2.3.1 Logistic Regression . . . . . . . . . . . . . . . . . . . . . . . 17
3.2.3.2 Decision Tree . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2.3.3 Support vector machines(SVMs) . . . . . . . . . . . . . . . 18
3.2.3.4 Artificial Neural Networks . . . . . . . . . . . . . . . . . . . 21
3.2.4 Overfitting and Underfitting . . . . . . . . . . . . . . . . . . . . . . . 28
3.3 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3.2 Deep Learning Architectures . . . . . . . . . . . . . . . . . . . . . . . 29
3.3.2.1 Convolutional Neural Networks . . . . . . . . . . . . . . . 30
3.3.2.2 Recurrent Neural Networks . . . . . . . . . . . . . . . . . . 32
3.3.2.3 Restricted Boltzmann Machines . . . . . . . . . . . . . . . 32
3.3.2.4 Deep Belief Networks . . . . . . . . . . . . . . . . . . . . . . 33
3.3.3 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.3.3.1 Speech Recognition . . . . . . . . . . . . . . . . . . . . . . . 34
3.3.3.2 Natural Language Processing . . . . . . . . . . . . . . . . . 35
3.3.3.3 Recommender Systems . . . . . . . . . . . . . . . . . . . . 36
3.3.3.4 Medicine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.3.4 Transfer Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4 Image Segmentation: Literature Review 39
Introduction 39
Segmentation 39
Manual Segmentation 40
Semi-Automatic/ Interactive Segmentation 40
Fully automatic segmentation 40
Segmentation Methods 41
Threshold based methods 41
Region based methods 41
Classifiers and Clustering 42
Atlas-based Approaches 42
Related work 44
Conclusion 46
5 Datasets and Implementation Frameworks 47
Introduction 47
Datasets 47
MICCAI-BRATS 2017 Dataset 47
Brain tumour 48
MRI sequences 49
Preprocessing 49
Diabetic Retinopathy Dataset 50
Preprocessing 50
Implementation Framework 51
Deep Learning Frameworks 51
TensorFlow 52
Keras 52
Development environment 53
Python 53
Scikit-learn 53
NiftyNet 53
Nibabel 54
Approaches 54
Brain Tumor Segmentation 54
Diabetic Retinopathy Detection 57
Conclusion 59
6 Experiments and results 60
6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
6.2 Brain Tumor Segmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
6.2.1 Evaluation Metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
6.2.2 Experiment setting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.2.3 Results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.2.4 Comparison Statistical . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
6.3 Diabetic retinopathy Detection . . . . . . . . . . . . . . . . . . . . . . . . . . 67
6.3.1 Experiment setting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
6.3.2 Results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
6.3.3 Comparison Statistical . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
6.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
7 Conclusion 71
Conclusion 71
Future work 72
Bibliography 73
Côte titre : MAI/0215 En ligne : https://drive.google.com/file/d/14iVl2KfxdP6DJXp3-9VQCSyP98CcJJ-S/view?usp=shari [...] Format de la ressource électronique : Deep learning for segmentation and analysis of pathogies in medcal imaging [texte imprimé] / Guergouri,Nassim, Auteur ; Moussaoui ,Abdelouahab, Directeur de thèse . - [S.l.] : Setif:UFA, 2018 . - 1 vol (78 f .) ; 29 cm.
Langues : Français (fre) Langues originales : Français (fre)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Apprentissage automatique
Apprentissage profond
Segmentation d'images médicales
Réseau résiduel profond(DRN)
Apprentissage par transfert
Tumeur cérébraleIndex. décimale : 004 - Informatique Note de contenu : List of Tables v
List of Figures vi
1 Introduction 1
Introduction 1
Aim of the Work 2
Structure of the Work 2
2 Clinical Background 4
Introduction 4
Image Characteristics 4
Spatial Resolution 5
Convolution 5
Contrast-To-Noise Ratio 6
Signal-To-Noise Ratio 7
Medical Imaging Modality 7
X-ray Production and X-ray Tubes 8
X-ray Production 8
X-ray Tubes 8
Radiography 9
Fluoroscopy 10
Mammography 10
Computed Tomography 10
Magnetic Resonance Imaging 11
Ultrasound 12
Nuclear Medicine 12
Conclusion 13
3 Theorical Background 14
Introduction 14
Machine Learning 14
Machine Learning process 15
Machine Learning categories 15
3.2.2.1 Supervised Learning . . . . . . . . . . . . . . . . . . . . . . 16
3.2.2.2 Unsupervised Learning . . . . . . . . . . . . . . . . . . . . 17
3.2.2.3 Reinforcement Learning . . . . . . . . . . . . . . . . . . . . 17
3.2.3 Machine Learning Algorithms . . . . . . . . . . . . . . . . . . . . . . 17
3.2.3.1 Logistic Regression . . . . . . . . . . . . . . . . . . . . . . . 17
3.2.3.2 Decision Tree . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2.3.3 Support vector machines(SVMs) . . . . . . . . . . . . . . . 18
3.2.3.4 Artificial Neural Networks . . . . . . . . . . . . . . . . . . . 21
3.2.4 Overfitting and Underfitting . . . . . . . . . . . . . . . . . . . . . . . 28
3.3 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3.2 Deep Learning Architectures . . . . . . . . . . . . . . . . . . . . . . . 29
3.3.2.1 Convolutional Neural Networks . . . . . . . . . . . . . . . 30
3.3.2.2 Recurrent Neural Networks . . . . . . . . . . . . . . . . . . 32
3.3.2.3 Restricted Boltzmann Machines . . . . . . . . . . . . . . . 32
3.3.2.4 Deep Belief Networks . . . . . . . . . . . . . . . . . . . . . . 33
3.3.3 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.3.3.1 Speech Recognition . . . . . . . . . . . . . . . . . . . . . . . 34
3.3.3.2 Natural Language Processing . . . . . . . . . . . . . . . . . 35
3.3.3.3 Recommender Systems . . . . . . . . . . . . . . . . . . . . 36
3.3.3.4 Medicine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.3.4 Transfer Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4 Image Segmentation: Literature Review 39
Introduction 39
Segmentation 39
Manual Segmentation 40
Semi-Automatic/ Interactive Segmentation 40
Fully automatic segmentation 40
Segmentation Methods 41
Threshold based methods 41
Region based methods 41
Classifiers and Clustering 42
Atlas-based Approaches 42
Related work 44
Conclusion 46
5 Datasets and Implementation Frameworks 47
Introduction 47
Datasets 47
MICCAI-BRATS 2017 Dataset 47
Brain tumour 48
MRI sequences 49
Preprocessing 49
Diabetic Retinopathy Dataset 50
Preprocessing 50
Implementation Framework 51
Deep Learning Frameworks 51
TensorFlow 52
Keras 52
Development environment 53
Python 53
Scikit-learn 53
NiftyNet 53
Nibabel 54
Approaches 54
Brain Tumor Segmentation 54
Diabetic Retinopathy Detection 57
Conclusion 59
6 Experiments and results 60
6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
6.2 Brain Tumor Segmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
6.2.1 Evaluation Metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
6.2.2 Experiment setting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.2.3 Results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.2.4 Comparison Statistical . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
6.3 Diabetic retinopathy Detection . . . . . . . . . . . . . . . . . . . . . . . . . . 67
6.3.1 Experiment setting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
6.3.2 Results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
6.3.3 Comparison Statistical . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
6.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
7 Conclusion 71
Conclusion 71
Future work 72
Bibliography 73
Côte titre : MAI/0215 En ligne : https://drive.google.com/file/d/14iVl2KfxdP6DJXp3-9VQCSyP98CcJJ-S/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0215 MAI/0215 Mémoire Bibliothéque des sciences Anglais Disponible
DisponiblePermalinkPermalinkDeep learning for the recognition and classification of different postures and behaviors of vehicle drivers / Hamitouche,Ilyes
![]()
PermalinkDeep learning for UML model classification, and the analysis of UML class and activity diagrams. / Meriem Mami
PermalinkPermalinkA deep learning Method for analyzing the spread of information in online social networks / Douadi,hasna
PermalinkPermalinkPermalinkPermalinkPermalink