University Sétif 1 FERHAT ABBAS Faculty of Sciences
Détail de l'auteur
Auteur Mediani ,chahrazed |
Documents disponibles écrits par cet auteur



Titre : Deep model for the diagnosis of critical diseases Type de document : texte imprimé Auteurs : Lekdim ,Iméne, Auteur ; Mediani ,chahrazed, Directeur de thèse Editeur : Setif:UFA Année de publication : 2019 Importance : 1 vol (70 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Informatique Mots-clés : Machine Learning
Deep Learning
Autoencoders
Cancer
RPPA
TCGAIndex. décimale : 004 - Informatique Résumé : Genomics and proteinomoc activities are the fundamental controllers of the
living processes of any organism. They carry out most of the work, perform
most life functions, and make up the majority of cellular structures. Their
abnormal behaviors are believed to be the driving factors of many genetic diseases.
Therefore, understanding these activities have become an important mission of largescale
genomics researchers.However, these filed of study has some limitations such as
the sensitivity, the high dimensional and the huge scale of data. That’s why it is a
challenging application area of deep learning. But the DL is most effective in situations
where one would like to make sense of large, complex data sets.
In this thesis, the deep learning method Autoencoders has been used in an attempt to
solve a classification problem, witch is cancer detection, using two distenct annotated
datasets the microRNA dataset and the revers phase proteins array.
The obtained results were very promising, and prove that our integrative deep model
was superior in classification and prediction of Cancer Type as well as the PFI score
with high accuracy.
Note de contenu : Sommaire
List of Tables viii
List of Figures ix
Introduction 1
Background . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
Background . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
Aim of the work . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
Structure of the work . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1 Biological Background 5
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Bioinformatic and Human Genome Project . . . . . . . . . . . . . . . . 5
1.3 Molecular biology . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.1 Cells . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.2 Nucleic acids . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.3 Protien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.3.1 Protien expression . . . . . . . . . . . . . . . . . . . . 11
1.3.3.2 Reverse Phase Protein Array . . . . . . . . . . . . . . 12
1.3.4 Molecular genetics . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.4.1 Gene and Genome . . . . . . . . . . . . . . . . . . . . 14
1.3.4.2 Gene expression . . . . . . . . . . . . . . . . . . . . . 15
1.3.4.3 miRNA . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4 Captur the Biological data . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4.1 Microarrays . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.4.2 Next Generation Sequencing . . . . . . . . . . . . . . . . . . . . 19
v
CONTENTS
1.4.3 NGS versus Microarray technology . . . . . . . . . . . . . . . . 20
1.5 Personalized Medicine and Cancer . . . . . . . . . . . . . . . . . . . . . 21
1.5.1 Cancer as a genetic disease . . . . . . . . . . . . . . . . . . . . . 21
1.5.2 Personalized medicine . . . . . . . . . . . . . . . . . . . . . . . 22
1.5.3 Personalized treatment of cancer . . . . . . . . . . . . . . . . . 23
1.5.4 Omic data integration . . . . . . . . . . . . . . . . . . . . . . . 23
1.6 Bioinformatics And Cancer . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2 Theorical Background 26
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2 Machine Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2.1 Machine Learning process . . . . . . . . . . . . . . . . . . . . . 28
2.2.2 Machine Learning Categories . . . . . . . . . . . . . . . . . . . 29
2.2.2.1 Supervised Learning . . . . . . . . . . . . . . . . . . . 30
2.2.2.2 Unsupervised Learning . . . . . . . . . . . . . . . . . . 31
2.2.2.3 Reinforcement Learning . . . . . . . . . . . . . . . . . 32
2.2.3 Machine Learning Algorithms . . . . . . . . . . . . . . . . . . . 33
2.2.3.1 Logistic Regression . . . . . . . . . . . . . . . . . . . . 33
2.2.3.2 Decision Tree . . . . . . . . . . . . . . . . . . . . . . . 33
2.2.3.3 K-Nearest Neighbors (KNN) . . . . . . . . . . . . . . . 34
2.2.3.4 Random Forests . . . . . . . . . . . . . . . . . . . . . 34
2.2.3.5 Support Vector Machines (SVM) . . . . . . . . . . . . 34
2.2.3.6 Artificial Neural Networks . . . . . . . . . . . . . . . . 35
2.3 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.3.1 Deep Learning Architecture . . . . . . . . . . . . . . . . . . . . 43
2.3.1.1 Convolutional Neural Networks (CNN) . . . . . . . . . 43
2.3.1.2 Autoencoders . . . . . . . . . . . . . . . . . . . . . . . 44
2.3.1.3 Deep Belief Networks . . . . . . . . . . . . . . . . . . . 45
2.3.1.4 Generative Adversarial Networks (GANs) . . . . . . . 46
2.3.1.5 Recurrent Neural Networks (RNN) . . . . . . . . . . . 47
2.3.1.6 Recursive Neural Networks . . . . . . . . . . . . . . . 47
2.3.1.7 Restricted Boltzmann Machines (RBM) . . . . . . . . 48
vi
CONTENTS
2.3.2 Deep Learning Applications . . . . . . . . . . . . . . . . . . . . 48
2.3.2.1 Speech Recognition . . . . . . . . . . . . . . . . . . . . 48
2.3.2.2 Natural Language Processing . . . . . . . . . . . . . . 49
2.3.2.3 Recommender Systems . . . . . . . . . . . . . . . . . . 49
2.3.2.4 Healthcare . . . . . . . . . . . . . . . . . . . . . . . . 50
2.3.3 Deep Learning In Bioinformatics . . . . . . . . . . . . . . . . . 51
2.3.3.1 Deep Learning And Cancer (Literature Review) . . . . 51
2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3 Datasets And Implementation Frameworks 56
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.2 Data collection (TCGA data) . . . . . . . . . . . . . . . . . . . . . . . 56
3.2.1 Platforms and data types . . . . . . . . . . . . . . . . . . . . . 58
3.3 Datasets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.3.1 Data preprocessing . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.3.1.1 Data Curation . . . . . . . . . . . . . . . . . . . . . . 61
3.3.1.2 Imputation of missing values . . . . . . . . . . . . . . 63
3.4 Implementation Framework . . . . . . . . . . . . . . . . . . . . . . . . 64
3.4.1 Development environment . . . . . . . . . . . . . . . . . . . . . 64
3.4.1.1 Working environment . . . . . . . . . . . . . . . . . . 64
3.4.1.2 Python . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.4.2 Deep Learning Frameworks . . . . . . . . . . . . . . . . . . . . 65
3.4.2.1 TensofFlow . . . . . . . . . . . . . . . . . . . . . . . . 65
3.4.2.2 Keras . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.4.2.3 Pandas . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.4.2.4 NumPy . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.4.2.5 Scikit-Learn . . . . . . . . . . . . . . . . . . . . . . . . 66
3.4.2.6 Matplotlib . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.5 Proposal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.5.1 Deep Integrative AutoEncoder . . . . . . . . . . . . . . . . . . . 67
3.6 Experimental results . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
vii
CONTENTS
Conclusion 76
Future work . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
Appendices 78
3.8 Appendix A: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.9 Appendix B: Confusion matrix . . . . . . . . . . . . . . . . . . . . . . . 81
Bibliography 82
viiiCôte titre : MAI/0329 En ligne : https://drive.google.com/file/d/1-evPujsmUl0eKPmEAa4DQtAzaaRci7PA/view?usp=shari [...] Format de la ressource électronique : Deep model for the diagnosis of critical diseases [texte imprimé] / Lekdim ,Iméne, Auteur ; Mediani ,chahrazed, Directeur de thèse . - [S.l.] : Setif:UFA, 2019 . - 1 vol (70 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Machine Learning
Deep Learning
Autoencoders
Cancer
RPPA
TCGAIndex. décimale : 004 - Informatique Résumé : Genomics and proteinomoc activities are the fundamental controllers of the
living processes of any organism. They carry out most of the work, perform
most life functions, and make up the majority of cellular structures. Their
abnormal behaviors are believed to be the driving factors of many genetic diseases.
Therefore, understanding these activities have become an important mission of largescale
genomics researchers.However, these filed of study has some limitations such as
the sensitivity, the high dimensional and the huge scale of data. That’s why it is a
challenging application area of deep learning. But the DL is most effective in situations
where one would like to make sense of large, complex data sets.
In this thesis, the deep learning method Autoencoders has been used in an attempt to
solve a classification problem, witch is cancer detection, using two distenct annotated
datasets the microRNA dataset and the revers phase proteins array.
The obtained results were very promising, and prove that our integrative deep model
was superior in classification and prediction of Cancer Type as well as the PFI score
with high accuracy.
Note de contenu : Sommaire
List of Tables viii
List of Figures ix
Introduction 1
Background . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
Background . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
Aim of the work . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
Structure of the work . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1 Biological Background 5
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Bioinformatic and Human Genome Project . . . . . . . . . . . . . . . . 5
1.3 Molecular biology . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.1 Cells . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.2 Nucleic acids . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.3 Protien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.3.1 Protien expression . . . . . . . . . . . . . . . . . . . . 11
1.3.3.2 Reverse Phase Protein Array . . . . . . . . . . . . . . 12
1.3.4 Molecular genetics . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.4.1 Gene and Genome . . . . . . . . . . . . . . . . . . . . 14
1.3.4.2 Gene expression . . . . . . . . . . . . . . . . . . . . . 15
1.3.4.3 miRNA . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4 Captur the Biological data . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4.1 Microarrays . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.4.2 Next Generation Sequencing . . . . . . . . . . . . . . . . . . . . 19
v
CONTENTS
1.4.3 NGS versus Microarray technology . . . . . . . . . . . . . . . . 20
1.5 Personalized Medicine and Cancer . . . . . . . . . . . . . . . . . . . . . 21
1.5.1 Cancer as a genetic disease . . . . . . . . . . . . . . . . . . . . . 21
1.5.2 Personalized medicine . . . . . . . . . . . . . . . . . . . . . . . 22
1.5.3 Personalized treatment of cancer . . . . . . . . . . . . . . . . . 23
1.5.4 Omic data integration . . . . . . . . . . . . . . . . . . . . . . . 23
1.6 Bioinformatics And Cancer . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2 Theorical Background 26
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2 Machine Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2.1 Machine Learning process . . . . . . . . . . . . . . . . . . . . . 28
2.2.2 Machine Learning Categories . . . . . . . . . . . . . . . . . . . 29
2.2.2.1 Supervised Learning . . . . . . . . . . . . . . . . . . . 30
2.2.2.2 Unsupervised Learning . . . . . . . . . . . . . . . . . . 31
2.2.2.3 Reinforcement Learning . . . . . . . . . . . . . . . . . 32
2.2.3 Machine Learning Algorithms . . . . . . . . . . . . . . . . . . . 33
2.2.3.1 Logistic Regression . . . . . . . . . . . . . . . . . . . . 33
2.2.3.2 Decision Tree . . . . . . . . . . . . . . . . . . . . . . . 33
2.2.3.3 K-Nearest Neighbors (KNN) . . . . . . . . . . . . . . . 34
2.2.3.4 Random Forests . . . . . . . . . . . . . . . . . . . . . 34
2.2.3.5 Support Vector Machines (SVM) . . . . . . . . . . . . 34
2.2.3.6 Artificial Neural Networks . . . . . . . . . . . . . . . . 35
2.3 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.3.1 Deep Learning Architecture . . . . . . . . . . . . . . . . . . . . 43
2.3.1.1 Convolutional Neural Networks (CNN) . . . . . . . . . 43
2.3.1.2 Autoencoders . . . . . . . . . . . . . . . . . . . . . . . 44
2.3.1.3 Deep Belief Networks . . . . . . . . . . . . . . . . . . . 45
2.3.1.4 Generative Adversarial Networks (GANs) . . . . . . . 46
2.3.1.5 Recurrent Neural Networks (RNN) . . . . . . . . . . . 47
2.3.1.6 Recursive Neural Networks . . . . . . . . . . . . . . . 47
2.3.1.7 Restricted Boltzmann Machines (RBM) . . . . . . . . 48
vi
CONTENTS
2.3.2 Deep Learning Applications . . . . . . . . . . . . . . . . . . . . 48
2.3.2.1 Speech Recognition . . . . . . . . . . . . . . . . . . . . 48
2.3.2.2 Natural Language Processing . . . . . . . . . . . . . . 49
2.3.2.3 Recommender Systems . . . . . . . . . . . . . . . . . . 49
2.3.2.4 Healthcare . . . . . . . . . . . . . . . . . . . . . . . . 50
2.3.3 Deep Learning In Bioinformatics . . . . . . . . . . . . . . . . . 51
2.3.3.1 Deep Learning And Cancer (Literature Review) . . . . 51
2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3 Datasets And Implementation Frameworks 56
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.2 Data collection (TCGA data) . . . . . . . . . . . . . . . . . . . . . . . 56
3.2.1 Platforms and data types . . . . . . . . . . . . . . . . . . . . . 58
3.3 Datasets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.3.1 Data preprocessing . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.3.1.1 Data Curation . . . . . . . . . . . . . . . . . . . . . . 61
3.3.1.2 Imputation of missing values . . . . . . . . . . . . . . 63
3.4 Implementation Framework . . . . . . . . . . . . . . . . . . . . . . . . 64
3.4.1 Development environment . . . . . . . . . . . . . . . . . . . . . 64
3.4.1.1 Working environment . . . . . . . . . . . . . . . . . . 64
3.4.1.2 Python . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.4.2 Deep Learning Frameworks . . . . . . . . . . . . . . . . . . . . 65
3.4.2.1 TensofFlow . . . . . . . . . . . . . . . . . . . . . . . . 65
3.4.2.2 Keras . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.4.2.3 Pandas . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.4.2.4 NumPy . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.4.2.5 Scikit-Learn . . . . . . . . . . . . . . . . . . . . . . . . 66
3.4.2.6 Matplotlib . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.5 Proposal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.5.1 Deep Integrative AutoEncoder . . . . . . . . . . . . . . . . . . . 67
3.6 Experimental results . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
vii
CONTENTS
Conclusion 76
Future work . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
Appendices 78
3.8 Appendix A: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.9 Appendix B: Confusion matrix . . . . . . . . . . . . . . . . . . . . . . . 81
Bibliography 82
viiiCôte titre : MAI/0329 En ligne : https://drive.google.com/file/d/1-evPujsmUl0eKPmEAa4DQtAzaaRci7PA/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0329 MAI/0329 Mémoire Bibliothéque des sciences Anglais Disponible
Disponible
Titre : Détection de la pneumonie avec l’apprentissage profond Type de document : texte imprimé Auteurs : Guenifi,Abderrahmane, Auteur ; Mediani ,chahrazed, Directeur de thèse Editeur : Setif:UFA Année de publication : 2019 Importance : 1 vol (74 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Informatique Mots-clés : Apprentissage Machine
Apprentissage Profond
CNN
Forêt aléatoire
pneumonie
Imagerie médical pneumonieIndex. décimale : 004 - Informatique Résumé : Ce travail présente un système de reconnaissance qui applique un apprentissage profond pour détecter et prédire automatiquement la maladie de la pneumonie. Les approches ont été formées et testées à l’aide de jeux de données (radiographies thoraciques) comprenant des images des maladies de la pneumonie et des images normales. En plus de l’approche profonde qui était les réseaux de neurones convolutionnels, une méthode classiques de classification de l’approche d’apprentissage machine (forets aléatoire ) était construite et leur rapport de classification était bon et acceptable. Aussi l'algorithme CNN a pu reconnaitre la maladie avec une grande précision : 99,61% et 99,55% respectivement. Note de contenu : Sommaire
Introduction Générale …………………………………………………………………………………………….…………….9
1 Chapitre 01 :………………………………………………………………………………………………………………………....11
1.1. Introduction : ............................................................................................................................ 11
1.2 . Pneumonie : ................................................................................... 11
1.3. Les Formes de la pneumonie :................................................................................................. 11
1.4. Les causses de la pneumopathie : ............................................................................................ 12
1.6. Diagnostic..........................................................................................
13 1.7. La radiographie du thorax : ......................................................................................................
14 1.8 Les difficultés et Les limites à l’interprétation de la radiographie thoracique dans le diagnostic pneumon ......................................................................................... 14
1.10. Conclusion ............................................................................................................................ 16
2 Chapitre 02 :………………………………………………………………………………………………………………..….…..17
2.1 Introduction : .................................................................................................... 17
2.2 Qu’est qu’une Intelligence artificielle : .................................................................................. 17
2.2.1 Types de l’Intelligence Artificielle : ................................................................................ 17
2.2.2 Les Approches d’Intelligence Artificielle : ...................................................................... 18
2.3 Les moteurs de règles ............................................................................................................ 18
2.4 Apprentissage Automatique (Machine Learning) : ............................................ 19
2.4.1 Les Données d’Apprentissage : ...................................................................................... 19
2.4.2 Les Types d'apprentissage Automatique : ...................................................... 20
2.4.2.1 Apprentissage supervisé : .............................................................................................. 20
2.4.3 Les réseaux de neurones : .............................................................................................. 33
2.5 Apprentissage Profond (Deep learning): ............................................................................... 38
2.5.1 Reconnaissance d’images .............................................................................................. 38
2.5.2 Les Algorithme d’apprentissage Profond : ............................................... 39
2.5.3 Paramètres d’un Modèle : ............................................................................................ 41
2.6 Apprentissage et optimisation dans les réseaux profonds ...................................... 42
2.6.1 L’algorithme Descente de gradient : .............................................................................. 42
2.6.2 L’algorithme de descente de gradient stochastique (SGD) : ......................................... 42 2.7 Apprentissage par Transfert: ..................................................................................................
45 2.7.1 Modèle VGG16 : ............................................................................................................ 46
2.7.2 Fonction d’Application VGG16: ...................................................................................... 46
2.7.3 Description des couches: ............................................................................................... 47
2.8 Les Mesures de Performance .................................................................................................
48 2.9 Les Recherches ET Travaux connexe : ................................................................................... 49
2.10 Conclusion ....................................................................................
3 Chapitre 03……………………………………………………………………………………………………………………………51
3.1 Introduction : ..................................................................................................... 51
3.2 Le Jeu de Données : ............................................................................................................... 51
3.3 Environnements et outils de développement : ..................................................................... 52
3.2.1. Kaggle : ........................................................................................................................... 52 3.2.2. Anaconda : ..................................................................................................................... 52
3.2.3. Python : .......................................................................................................................... 53
3.2.4. Bibliothèques de Python ................................................................................................ 53
3.4 Conception du travail et méthodologie ................................................................................. 54
3.5 Nettoyage des Données : ....................................................................................................... 54
3.6 Modèles d’apprentissage : ..................................................................................................... 56
3.6.1. Les Approches d'apprentissage machine (Machine learning)......................................... 56
3.6.2. Les approches d’apprentissage profond (Deep Learning) : ........................................... 56
3.7 CONCLUSION .......................................................................................................................... 63
4. Chapitre 04 : ………………………………………….………………………….……………………………………….…………64
4.1 Introduction : ......................................................................................................................... 64
4.2 Approche d'apprentissage machine (Machine Learning)...................................................... 64
4.2.1. La forêt aléatoire (random forest) : .............................................................................. 64
4.3 Approches d 'Apprentissage Profond (Deep Learning) : ....................................................... 64
4.3.1. Architecture CNN (1) ..................................................................................................... 65
4.3.2. Architecture CNN (2) ..................................................................................................... 67
4.3.3. Modèle VGG16 : ............................................................................................................ 69
4.4 Comparaison entre les modèles : .......................................................................................... 70
4.5 CONCLUSION ......................................................................................................................... 72
Conclusion Générale ………………………………………………………………………………………………..………………..…….73 Références………………………………………………………………………………………………………..Côte titre : MAI/0334 En ligne : https://drive.google.com/file/d/1Q-iH5bxq3UlraOWh74_StuSSKnlUx8Jg/view?usp=shari [...] Format de la ressource électronique : Détection de la pneumonie avec l’apprentissage profond [texte imprimé] / Guenifi,Abderrahmane, Auteur ; Mediani ,chahrazed, Directeur de thèse . - [S.l.] : Setif:UFA, 2019 . - 1 vol (74 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Apprentissage Machine
Apprentissage Profond
CNN
Forêt aléatoire
pneumonie
Imagerie médical pneumonieIndex. décimale : 004 - Informatique Résumé : Ce travail présente un système de reconnaissance qui applique un apprentissage profond pour détecter et prédire automatiquement la maladie de la pneumonie. Les approches ont été formées et testées à l’aide de jeux de données (radiographies thoraciques) comprenant des images des maladies de la pneumonie et des images normales. En plus de l’approche profonde qui était les réseaux de neurones convolutionnels, une méthode classiques de classification de l’approche d’apprentissage machine (forets aléatoire ) était construite et leur rapport de classification était bon et acceptable. Aussi l'algorithme CNN a pu reconnaitre la maladie avec une grande précision : 99,61% et 99,55% respectivement. Note de contenu : Sommaire
Introduction Générale …………………………………………………………………………………………….…………….9
1 Chapitre 01 :………………………………………………………………………………………………………………………....11
1.1. Introduction : ............................................................................................................................ 11
1.2 . Pneumonie : ................................................................................... 11
1.3. Les Formes de la pneumonie :................................................................................................. 11
1.4. Les causses de la pneumopathie : ............................................................................................ 12
1.6. Diagnostic..........................................................................................
13 1.7. La radiographie du thorax : ......................................................................................................
14 1.8 Les difficultés et Les limites à l’interprétation de la radiographie thoracique dans le diagnostic pneumon ......................................................................................... 14
1.10. Conclusion ............................................................................................................................ 16
2 Chapitre 02 :………………………………………………………………………………………………………………..….…..17
2.1 Introduction : .................................................................................................... 17
2.2 Qu’est qu’une Intelligence artificielle : .................................................................................. 17
2.2.1 Types de l’Intelligence Artificielle : ................................................................................ 17
2.2.2 Les Approches d’Intelligence Artificielle : ...................................................................... 18
2.3 Les moteurs de règles ............................................................................................................ 18
2.4 Apprentissage Automatique (Machine Learning) : ............................................ 19
2.4.1 Les Données d’Apprentissage : ...................................................................................... 19
2.4.2 Les Types d'apprentissage Automatique : ...................................................... 20
2.4.2.1 Apprentissage supervisé : .............................................................................................. 20
2.4.3 Les réseaux de neurones : .............................................................................................. 33
2.5 Apprentissage Profond (Deep learning): ............................................................................... 38
2.5.1 Reconnaissance d’images .............................................................................................. 38
2.5.2 Les Algorithme d’apprentissage Profond : ............................................... 39
2.5.3 Paramètres d’un Modèle : ............................................................................................ 41
2.6 Apprentissage et optimisation dans les réseaux profonds ...................................... 42
2.6.1 L’algorithme Descente de gradient : .............................................................................. 42
2.6.2 L’algorithme de descente de gradient stochastique (SGD) : ......................................... 42 2.7 Apprentissage par Transfert: ..................................................................................................
45 2.7.1 Modèle VGG16 : ............................................................................................................ 46
2.7.2 Fonction d’Application VGG16: ...................................................................................... 46
2.7.3 Description des couches: ............................................................................................... 47
2.8 Les Mesures de Performance .................................................................................................
48 2.9 Les Recherches ET Travaux connexe : ................................................................................... 49
2.10 Conclusion ....................................................................................
3 Chapitre 03……………………………………………………………………………………………………………………………51
3.1 Introduction : ..................................................................................................... 51
3.2 Le Jeu de Données : ............................................................................................................... 51
3.3 Environnements et outils de développement : ..................................................................... 52
3.2.1. Kaggle : ........................................................................................................................... 52 3.2.2. Anaconda : ..................................................................................................................... 52
3.2.3. Python : .......................................................................................................................... 53
3.2.4. Bibliothèques de Python ................................................................................................ 53
3.4 Conception du travail et méthodologie ................................................................................. 54
3.5 Nettoyage des Données : ....................................................................................................... 54
3.6 Modèles d’apprentissage : ..................................................................................................... 56
3.6.1. Les Approches d'apprentissage machine (Machine learning)......................................... 56
3.6.2. Les approches d’apprentissage profond (Deep Learning) : ........................................... 56
3.7 CONCLUSION .......................................................................................................................... 63
4. Chapitre 04 : ………………………………………….………………………….……………………………………….…………64
4.1 Introduction : ......................................................................................................................... 64
4.2 Approche d'apprentissage machine (Machine Learning)...................................................... 64
4.2.1. La forêt aléatoire (random forest) : .............................................................................. 64
4.3 Approches d 'Apprentissage Profond (Deep Learning) : ....................................................... 64
4.3.1. Architecture CNN (1) ..................................................................................................... 65
4.3.2. Architecture CNN (2) ..................................................................................................... 67
4.3.3. Modèle VGG16 : ............................................................................................................ 69
4.4 Comparaison entre les modèles : .......................................................................................... 70
4.5 CONCLUSION ......................................................................................................................... 72
Conclusion Générale ………………………………………………………………………………………………..………………..…….73 Références………………………………………………………………………………………………………..Côte titre : MAI/0334 En ligne : https://drive.google.com/file/d/1Q-iH5bxq3UlraOWh74_StuSSKnlUx8Jg/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0334 MAI/0334 Mémoire Bibliothéque des sciences Français Disponible
DisponibleÉvaluation des performances des algorithmes clustering (Validation des algorithms) / Messai ,Dhaia eddine
![]()
Titre : Évaluation des performances des algorithmes clustering (Validation des algorithms) Type de document : texte imprimé Auteurs : Messai ,Dhaia eddine, Auteur ; Mediani ,chahrazed, Directeur de thèse Editeur : Setif:UFA Année de publication : 2019 Importance : 1 vol (67 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Informatique Mots-clés : clustering
Indices de validation
K-means
Birch
HCA
ARI
V-measure
CompletenessIndex. décimale : 004 - Informatique Résumé : La validation de clustering est un sujet de recherche très important qui intéresse beaucoup
de chercheurs en classification non supervisée des données, et c’est un axe de
recherche pas moins important que le clustering lui-même. Plusieurs indices de validation
de clustering ont été proposés dans la littérature.
Les travaux sur des méthodes de classification non supervisées, nous ont amené à
s’interroger sur la qualité des résultats. Le problème consiste à estimer si une méthode de
regroupement est «meilleure» qu’une autre pour un jeu particulier de données. Initialement,
après un état de l’art desméthodes existantes, nous avons appliqué certains de ces
méthodes comme k-means, HCA, ect., en choisissant des paramètres et des solutions
optimaux et les valider par des indices de qualité de clustering comme ARI, V-measure,
Completeness ... à l’aide de la bibliothéque scikit-learn de l’environnement python. Ces
indices de qualité nous ont permis de sélectionner le meilleure regroupement , qui est le
regroupement hiérarchique (HCA et Birch) pour notre jeu de données choisi.Note de contenu : Sommaire
Liste des tableaux xi
Table des figures xiii
1 Apprentissage automatique-Géneralité 3
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Pourquoi l’apprentissage automatique? . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Définition de l’apprentissage automatique . . . . . . . . . . . . . . . . . . . . 4
1.4 Déférents étapes pour création modèle apprentissage . . . . . . . . . . . . . . 4
1.4.1 Collection des données . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4.2 Préparation des données . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4.3 Entraîner un modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4.4 Évaluation de modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.5 Domaines de l’Apprentissage Automatique . . . . . . . . . . . . . . . . . . . . 5
1.5.1 Fouille des données (data mining) . . . . . . . . . . . . . . . . . . . . . 6
1.5.2 Intelligence artificielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.6 Les techniques d’apprentissage automatique . . . . . . . . . . . . . . . . . . . 8
1.6.1 Apprentissage supervisé . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.6.2 Apprentissage non supervisé . . . . . . . . . . . . . . . . . . . . . . . . 10
1.7 Les algorithmes d’apprentissage automatique . . . . . . . . . . . . . . . . . . 11
1.7.1 Arbre de décision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.7.2 Support vecteur machine(SVM) . . . . . . . . . . . . . . . . . . . . . . 12
1.7.3 k-plus proche voisine . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.7.4 Naïve de bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2 Etat de l’art : Clustering et Validation de ses algorithmes 17
vii
TABLE OF CONTENTS
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 Définition de clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.1 Définition 1 : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.2 Définition 2 : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3 Les objectives du clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.4 Qu’est ce qu’un bon Clustering? . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.5 Les principales étapes du clustering . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5.1 La préparation des données : . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5.2 Le choix de l’algorithme de clustering : . . . . . . . . . . . . . . . . . . 21
2.5.3 Validation et l’exploitation des résultats de l’algorithme . . . . . . . . 22
2.6 Applications du Clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.6.1 La segmentation : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.6.2 Extraction des connaissances . . . . . . . . . . . . . . . . . . . . . . . . 23
2.7 Les différentes méthodes de clustering . . . . . . . . . . . . . . . . . . . . . . . 24
2.7.1 Clustering en partition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.7.2 Clustering hiérarchique (Hierarchical Cluster Analysis) . . . . . . . . 28
2.7.3 clustering basée sur la densité . . . . . . . . . . . . . . . . . . . . . . . 32
2.7.4 clustering par grilles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.8 Clustering et Fonctions de similarité . . . . . . . . . . . . . . . . . . . . . . . . 36
2.8.1 la distance Euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.8.2 la distance deManhattan . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.8.3 la distance deMinkowski . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.9 Les techniques d’évaluation de la qualité du clustering(validation) . . . . . . 37
2.9.1 Variance intra-classe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.9.2 Connectivité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.9.3 L’indice de Davies-Bouldin . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.9.4 Précision-Rappel et F-mesure . . . . . . . . . . . . . . . . . . . . . . . 39
2.9.5 Coefficient de Jaccard . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.9.6 L’indice Rand . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.9.7 Silhouette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.9.8 V-measure [Homogeneity et completeness] . . . . . . . . . . . . . . . 41
2.9.9 D’autres critères . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.10 Traveaux connexes sur l’evaluation des algorithmes de clustering . . . . . . . 42
2.11 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
viii
TABLE OF CONTENTS
3 Implementation et Etude comparative 45
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.2 Jeux des données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.2.1 Description . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.3 Prétraitement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.3.1 Analyse en composantes principales (ACP) . . . . . . . . . . . . . . . . 47
3.3.2 L’objectif de l’ACP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.4 Environnement de développement . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.4.1 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.4.2 Jupyter Notebook . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.4.3 bibliothéques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.5 Expérimentation et Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.5.1 Regroupement par Partition . . . . . . . . . . . . . . . . . . . . . . . . 50
3.5.2 Regroupement hiérarchique . . . . . . . . . . . . . . . . . . . . . . . . 55
3.5.3 Regroupement basé sur les graphes et partition . . . . . . . . . . . . . 59
3.5.4 Validation des Algorithmes . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
Bibliographie 67Côte titre : MAI/0320 En ligne : https://drive.google.com/file/d/1aAlVs0xzXEk-jHEk4-Wz9JjU9-Fa1qw5/view?usp=shari [...] Format de la ressource électronique : Évaluation des performances des algorithmes clustering (Validation des algorithms) [texte imprimé] / Messai ,Dhaia eddine, Auteur ; Mediani ,chahrazed, Directeur de thèse . - [S.l.] : Setif:UFA, 2019 . - 1 vol (67 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Informatique Mots-clés : clustering
Indices de validation
K-means
Birch
HCA
ARI
V-measure
CompletenessIndex. décimale : 004 - Informatique Résumé : La validation de clustering est un sujet de recherche très important qui intéresse beaucoup
de chercheurs en classification non supervisée des données, et c’est un axe de
recherche pas moins important que le clustering lui-même. Plusieurs indices de validation
de clustering ont été proposés dans la littérature.
Les travaux sur des méthodes de classification non supervisées, nous ont amené à
s’interroger sur la qualité des résultats. Le problème consiste à estimer si une méthode de
regroupement est «meilleure» qu’une autre pour un jeu particulier de données. Initialement,
après un état de l’art desméthodes existantes, nous avons appliqué certains de ces
méthodes comme k-means, HCA, ect., en choisissant des paramètres et des solutions
optimaux et les valider par des indices de qualité de clustering comme ARI, V-measure,
Completeness ... à l’aide de la bibliothéque scikit-learn de l’environnement python. Ces
indices de qualité nous ont permis de sélectionner le meilleure regroupement , qui est le
regroupement hiérarchique (HCA et Birch) pour notre jeu de données choisi.Note de contenu : Sommaire
Liste des tableaux xi
Table des figures xiii
1 Apprentissage automatique-Géneralité 3
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Pourquoi l’apprentissage automatique? . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Définition de l’apprentissage automatique . . . . . . . . . . . . . . . . . . . . 4
1.4 Déférents étapes pour création modèle apprentissage . . . . . . . . . . . . . . 4
1.4.1 Collection des données . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4.2 Préparation des données . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4.3 Entraîner un modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4.4 Évaluation de modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.5 Domaines de l’Apprentissage Automatique . . . . . . . . . . . . . . . . . . . . 5
1.5.1 Fouille des données (data mining) . . . . . . . . . . . . . . . . . . . . . 6
1.5.2 Intelligence artificielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.6 Les techniques d’apprentissage automatique . . . . . . . . . . . . . . . . . . . 8
1.6.1 Apprentissage supervisé . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.6.2 Apprentissage non supervisé . . . . . . . . . . . . . . . . . . . . . . . . 10
1.7 Les algorithmes d’apprentissage automatique . . . . . . . . . . . . . . . . . . 11
1.7.1 Arbre de décision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.7.2 Support vecteur machine(SVM) . . . . . . . . . . . . . . . . . . . . . . 12
1.7.3 k-plus proche voisine . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.7.4 Naïve de bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2 Etat de l’art : Clustering et Validation de ses algorithmes 17
vii
TABLE OF CONTENTS
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 Définition de clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.1 Définition 1 : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.2 Définition 2 : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3 Les objectives du clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.4 Qu’est ce qu’un bon Clustering? . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.5 Les principales étapes du clustering . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5.1 La préparation des données : . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5.2 Le choix de l’algorithme de clustering : . . . . . . . . . . . . . . . . . . 21
2.5.3 Validation et l’exploitation des résultats de l’algorithme . . . . . . . . 22
2.6 Applications du Clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.6.1 La segmentation : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.6.2 Extraction des connaissances . . . . . . . . . . . . . . . . . . . . . . . . 23
2.7 Les différentes méthodes de clustering . . . . . . . . . . . . . . . . . . . . . . . 24
2.7.1 Clustering en partition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.7.2 Clustering hiérarchique (Hierarchical Cluster Analysis) . . . . . . . . 28
2.7.3 clustering basée sur la densité . . . . . . . . . . . . . . . . . . . . . . . 32
2.7.4 clustering par grilles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.8 Clustering et Fonctions de similarité . . . . . . . . . . . . . . . . . . . . . . . . 36
2.8.1 la distance Euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.8.2 la distance deManhattan . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.8.3 la distance deMinkowski . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.9 Les techniques d’évaluation de la qualité du clustering(validation) . . . . . . 37
2.9.1 Variance intra-classe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.9.2 Connectivité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.9.3 L’indice de Davies-Bouldin . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.9.4 Précision-Rappel et F-mesure . . . . . . . . . . . . . . . . . . . . . . . 39
2.9.5 Coefficient de Jaccard . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.9.6 L’indice Rand . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.9.7 Silhouette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.9.8 V-measure [Homogeneity et completeness] . . . . . . . . . . . . . . . 41
2.9.9 D’autres critères . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.10 Traveaux connexes sur l’evaluation des algorithmes de clustering . . . . . . . 42
2.11 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
viii
TABLE OF CONTENTS
3 Implementation et Etude comparative 45
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.2 Jeux des données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.2.1 Description . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.3 Prétraitement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.3.1 Analyse en composantes principales (ACP) . . . . . . . . . . . . . . . . 47
3.3.2 L’objectif de l’ACP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.4 Environnement de développement . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.4.1 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.4.2 Jupyter Notebook . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.4.3 bibliothéques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.5 Expérimentation et Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.5.1 Regroupement par Partition . . . . . . . . . . . . . . . . . . . . . . . . 50
3.5.2 Regroupement hiérarchique . . . . . . . . . . . . . . . . . . . . . . . . 55
3.5.3 Regroupement basé sur les graphes et partition . . . . . . . . . . . . . 59
3.5.4 Validation des Algorithmes . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
Bibliographie 67Côte titre : MAI/0320 En ligne : https://drive.google.com/file/d/1aAlVs0xzXEk-jHEk4-Wz9JjU9-Fa1qw5/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0320 MAI/0320 Mémoire Bibliothéque des sciences Français Disponible
DisponibleModéles d'apprentissage automatique pour l'analyse des sentiments sur Twitter / Firane, Ahmed Khalil
![]()
Titre : Modéles d'apprentissage automatique pour l'analyse des sentiments sur Twitter Type de document : texte imprimé Auteurs : Firane, Ahmed Khalil, Auteur ; Mediani ,chahrazed, Directeur de thèse Editeur : Setif:UFA Année de publication : 2020 Importance : 1vol (62 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Informatique Mots-clés : Analyse du sentiment
Tweets
Deep learning
Machine learningIndex. décimale : 004 - Informatique Résumé :
L'analyse des sentiments, une tâche de traitement du langage naturel, est un
sujet d'intérêt dans le passé et dans les années actuelles pour la communauté des
chercheurs.
Ce problème a beaucoup de solutions proposées avec diérentes techniques de classi
cation de l'apprentissage machine.
L'une des techniques les plus récentes est l'apprentissage profond que nous trouvons
beaucoup de contributions l'ont utilisé comme une solution à ce type de tâche et
montre aussi de bons résultats.Côte titre : MAI/0355 En ligne : https://drive.google.com/file/d/1G8V66SW_bfYo3dGLHlMTitErtbm-IgIo/view?usp=shari [...] Format de la ressource électronique : Modéles d'apprentissage automatique pour l'analyse des sentiments sur Twitter [texte imprimé] / Firane, Ahmed Khalil, Auteur ; Mediani ,chahrazed, Directeur de thèse . - [S.l.] : Setif:UFA, 2020 . - 1vol (62 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Analyse du sentiment
Tweets
Deep learning
Machine learningIndex. décimale : 004 - Informatique Résumé :
L'analyse des sentiments, une tâche de traitement du langage naturel, est un
sujet d'intérêt dans le passé et dans les années actuelles pour la communauté des
chercheurs.
Ce problème a beaucoup de solutions proposées avec diérentes techniques de classi
cation de l'apprentissage machine.
L'une des techniques les plus récentes est l'apprentissage profond que nous trouvons
beaucoup de contributions l'ont utilisé comme une solution à ce type de tâche et
montre aussi de bons résultats.Côte titre : MAI/0355 En ligne : https://drive.google.com/file/d/1G8V66SW_bfYo3dGLHlMTitErtbm-IgIo/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0355 MAI/0355 Mémoire Bibliothéque des sciences Français Disponible
Disponible