University Sétif 1 FERHAT ABBAS Faculty of Sciences
Détail de l'auteur
Auteur Moussaoui ,Abdelouahab |
Documents disponibles écrits par cet auteur



Advancing Medical Image Classification with Generalized Zero Shot Learning / takoua el djalil Ben laribi
Titre : Advancing Medical Image Classification with Generalized Zero Shot Learning Type de document : texte imprimé Auteurs : takoua el djalil Ben laribi, Auteur ; Rania Bentoumi ; Moussaoui ,Abdelouahab, Directeur de thèse Editeur : Setif:UFA Année de publication : 2024 Importance : 1 vol (68 f .) Format : 29 cm Langues : Anglais (eng) Catégories : Thèses & Mémoires:Informatique Mots-clés : Chest diseases
Chest X-ray
Deep learning
Zero-Shot Learning
Convolutional Neural Networks
MED-CLIP
Medical imagingIndex. décimale : 004 - Informatique Résumé :
Chest diseases, such as pneumonia, tuberculosis, and lung cancer, present significant
challenges in healthcare, necessitating accurate and timely diagnosis for effective management.
This study focuses on evaluating deep learning models for the classification of
chest X-ray images, which are pivotal in diagnosing these conditions.
We propose and assess three models: Zero-Shot Learning (ZSL), Convolutional Neural
Networks (CNN), and MED-CLIP. The ZSL model achieved an accuracy of 72%, closely
matching the CNN model’s accuracy of 75%. This close performance indicates that ZSL
is particularly promising for classifying rare diseases in the absence of extensive labeled
data, suggesting that it will improve in the future with more research and development.
The CNN model, renowned for its robustness in image recognition tasks, confirmed its
suitability for chest X-ray interpretation with a strong performance. Conversely, MEDCLIP,
a specialized adaptation of the CLIP model for medical applications, attained an
accuracy of 40%, highlighting the difficulties in adapting general vision-language models
to specific medical tasks.
This study underscores the potential of ZSL in medical imaging, especially in scenarios
with limited labeled data, and emphasizes the importance of exploring diverse models to
enhance diagnostic accuracy.Note de contenu :
Sommaire
General Introduction 1
1 AN OVERVIEW OF CHEST DISEASES and X-ray 3
1.1 OVERVIEW OF CHEST DISEASES . . . . . . . . . . . . . . . . . . . . . 3
1.2 Atelectasis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Definition of Atelectasis . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2 the symptoms of atelectasis . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Consolidation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 Definition of Consolidation . . . . . . . . . . . . . . . . . . . . . . 6
1.3.2 the symptoms of Consolidation . . . . . . . . . . . . . . . . . . . . 6
1.4 Infiltration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4.1 Definition of Infiltration . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4.2 the symptoms of Infiltration . . . . . . . . . . . . . . . . . . . . . . 7
1.5 Coronavirus, COVID-19 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5.1 Definition of Infiltration . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5.2 the symptoms of Coronavirus, COVID-19 . . . . . . . . . . . . . . 7
1.6 Pleural effusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.6.1 Definition of Pleural effusion . . . . . . . . . . . . . . . . . . . . . 8
1.6.2 the symptoms of Pleural effusion . . . . . . . . . . . . . . . . . . . 8
1.7 pneumothorax . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.7.1 Definition of pneumothorax . . . . . . . . . . . . . . . . . . . . . . 8
1.7.2 the symptoms of pneumothorax . . . . . . . . . . . . . . . . . . . . 9
1.8 Pleural thickening . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.8.1 Definition of Pleural thickening . . . . . . . . . . . . . . . . . . . . 9
1.8.2 the symptoms of Pleural thickening . . . . . . . . . . . . . . . . . 10
1.9 Pneumonia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.9.1 Definition of Pneumonia . . . . . . . . . . . . . . . . . . . . . . . . 10
1.9.2 the symptoms of pneumonia . . . . . . . . . . . . . . . . . . . . . 11
1.10 Emphysema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.10.1 Definition of Emphysema . . . . . . . . . . . . . . . . . . . . . . . 11
1.10.2 the symptoms of Emphysema . . . . . . . . . . . . . . . . . . . . . 12
1.11 X-rays . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.11.1 Understanding the Mechanism of Medical X-rays . . . . . . . . . . 12
1.11.2 Applications of Medical X-rays . . . . . . . . . . . . . . . . . . . . 12
1.11.2.1 Diagnostic . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.11.2.2 Therapeutic . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.12 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2 STATE OF THE ART AND RELATED WORKS 15
2.1 Artificial Intelligence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Machine Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.1 The Importance of Machine Learning . . . . . . . . . . . . . . . . 16
2.2.2 How Does Machine Learning Work? . . . . . . . . . . . . . . . . . . 16
2.2.2.1 Data collection . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.2.2 Data preprocessing . . . . . . . . . . . . . . . . . . . . . 17
2.2.2.3 Choosing the right model . . . . . . . . . . . . . . . . . . 17
2.2.2.4 Training the model . . . . . . . . . . . . . . . . . . . . . 18
2.2.2.5 Evaluating the model . . . . . . . . . . . . . . . . . . . . 18
2.2.2.6 Hyperparameter tuning and optimization . . . . . . . . . 18
2.2.2.7 Predictions and deployment . . . . . . . . . . . . . . . . . 18
2.2.3 Machine Learning Types . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.3.1 Supervised learning . . . . . . . . . . . . . . . . . . . . . . 18
2.2.3.2 Unsupervised Learning . . . . . . . . . . . . . . . . . . . . 19
2.3 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3.1 Key Elements of Deep Learning . . . . . . . . . . . . . . . . . . . . 20
2.3.1.1 neural network . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3.1.2 layers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.1.3 Optimization . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.1.4 Regularization . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3.1.5 Model parameters . . . . . . . . . . . . . . . . . . . . . . 22
2.3.1.6 Activation Function . . . . . . . . . . . . . . . . . . . . . 23
2.3.1.7 Backpropagation . . . . . . . . . . . . . . . . . . . . . . 25
2.3.2 Convolutional Neural Network (CNN) . . . . . . . . . . . . . . . . 26
2.3.2.1 Convolutional Layer . . . . . . . . . . . . . . . . . . . . 27
2.3.2.2 Padding . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.3.2.3 Pooling Layer . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3.2.4 Limitations of Convolutional neural networks (CNNs) . . 30
2.3.2.5 Related Works using cnn . . . . . . . . . . . . . . . . . . 31
2.3.3 Transfer Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.3.3.1 Understanding How Transfer Learning Works . . . . . . 32
2.3.3.2 The Benefits of Using Transfer Learning . . . . . . . . . 33
2.3.3.3 ResNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4 Zero-Shot Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.4.1 Zero-Shot Learning (ZSL) Key Takeaways . . . . . . . . . . . . . . 36
2.4.2 Types of Zero-Shot Learning . . . . . . . . . . . . . . . . . . . . . . 36
2.4.3 Basic Architecture of Zero-Shot Learning . . . . . . . . . . . . . . . 38
2.4.4 How Does Zero-shot Learning Work? . . . . . . . . . . . . . . . . . 39
2.4.5 Evaluating Zero-Shot Learning (ZSL) models . . . . . . . . . . . . . 40
2.4.6 Challenges of Zero-Shot Learning (ZSL) models . . . . . . . . . . . 40
2.4.7 Applications of Zero-Shot Learning (ZSL) . . . . . . . . . . . . . . 42
2.5 CLIP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.5.1 How Does CLIP Work? . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.5.2 CLIP Architecture explained . . . . . . . . . . . . . . . . . . . . . . 42
2.5.3 The CLIP training architecture . . . . . . . . . . . . . . . . . . . . 44
2.5.4 Integration Between Natural Language and Image Processing . . . 45
2.5.5 Zero-Shot Image Classification . . . . . . . . . . . . . . . . . . . . 46
2.5.6 CLIP Limitations and Challenges . . . . . . . . . . . . . . . . . . . 47
2.6 MED-CLIP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.6.1 Baselines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.6.2 Related Works using medclip . . . . . . . . . . . . . . . . . . . . . 49
2.7 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3 Dataset and Implementation Tools 50
3.1 Dataset Description . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.1.1 Dataset Grouping . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.2 Preprocessing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.3 Data Augmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.4 Implementation Frameworks and Tools . . . . . . . . . . . . . . . . . . . . 51
3.4.1 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.4.2 Tensorflow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.4.3 Sickit-learn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.4.4 Matplotlib . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.4.5 NumPy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.4.6 Pandas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.4.7 PyTorch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.4.8 MedClip . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.4.9 Jupyter notebooks . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.4.10 Google Colab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.4.11 Kaggle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.5 Model Evaluation Metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.5.1 Accuracy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.5.2 Recall . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.5.3 Precision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.5.4 F1-Score . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.6 Confusion Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.7 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4 Experiments and Results 57
4.1 Chest Classification Approaches . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2 Deep learning approaches . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2.1 Convolution Neural Network (CNN) . . . . . . . . . . . . . . . . . 57
4.2.2 Zero Shot Learning Approachs . . . . . . . . . . . . . . . . . . . . 62
4.2.2.1 MedClip Model . . . . . . . . . . . . . . . . . . . . . . . 63
4.2.2.2 Our Model . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.3 Results comparisons and summary . . . . . . . . . . . . . . . . . . . . . . 64
4.3.1 Hyperparameters . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.3.2 Summarized Models . . . . . . . . . . . . . . . . . . . . . . . . . . 64Côte titre : MAI/0888 Advancing Medical Image Classification with Generalized Zero Shot Learning [texte imprimé] / takoua el djalil Ben laribi, Auteur ; Rania Bentoumi ; Moussaoui ,Abdelouahab, Directeur de thèse . - [S.l.] : Setif:UFA, 2024 . - 1 vol (68 f .) ; 29 cm.
Langues : Anglais (eng)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Chest diseases
Chest X-ray
Deep learning
Zero-Shot Learning
Convolutional Neural Networks
MED-CLIP
Medical imagingIndex. décimale : 004 - Informatique Résumé :
Chest diseases, such as pneumonia, tuberculosis, and lung cancer, present significant
challenges in healthcare, necessitating accurate and timely diagnosis for effective management.
This study focuses on evaluating deep learning models for the classification of
chest X-ray images, which are pivotal in diagnosing these conditions.
We propose and assess three models: Zero-Shot Learning (ZSL), Convolutional Neural
Networks (CNN), and MED-CLIP. The ZSL model achieved an accuracy of 72%, closely
matching the CNN model’s accuracy of 75%. This close performance indicates that ZSL
is particularly promising for classifying rare diseases in the absence of extensive labeled
data, suggesting that it will improve in the future with more research and development.
The CNN model, renowned for its robustness in image recognition tasks, confirmed its
suitability for chest X-ray interpretation with a strong performance. Conversely, MEDCLIP,
a specialized adaptation of the CLIP model for medical applications, attained an
accuracy of 40%, highlighting the difficulties in adapting general vision-language models
to specific medical tasks.
This study underscores the potential of ZSL in medical imaging, especially in scenarios
with limited labeled data, and emphasizes the importance of exploring diverse models to
enhance diagnostic accuracy.Note de contenu :
Sommaire
General Introduction 1
1 AN OVERVIEW OF CHEST DISEASES and X-ray 3
1.1 OVERVIEW OF CHEST DISEASES . . . . . . . . . . . . . . . . . . . . . 3
1.2 Atelectasis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Definition of Atelectasis . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2 the symptoms of atelectasis . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Consolidation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 Definition of Consolidation . . . . . . . . . . . . . . . . . . . . . . 6
1.3.2 the symptoms of Consolidation . . . . . . . . . . . . . . . . . . . . 6
1.4 Infiltration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4.1 Definition of Infiltration . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4.2 the symptoms of Infiltration . . . . . . . . . . . . . . . . . . . . . . 7
1.5 Coronavirus, COVID-19 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5.1 Definition of Infiltration . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5.2 the symptoms of Coronavirus, COVID-19 . . . . . . . . . . . . . . 7
1.6 Pleural effusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.6.1 Definition of Pleural effusion . . . . . . . . . . . . . . . . . . . . . 8
1.6.2 the symptoms of Pleural effusion . . . . . . . . . . . . . . . . . . . 8
1.7 pneumothorax . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.7.1 Definition of pneumothorax . . . . . . . . . . . . . . . . . . . . . . 8
1.7.2 the symptoms of pneumothorax . . . . . . . . . . . . . . . . . . . . 9
1.8 Pleural thickening . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.8.1 Definition of Pleural thickening . . . . . . . . . . . . . . . . . . . . 9
1.8.2 the symptoms of Pleural thickening . . . . . . . . . . . . . . . . . 10
1.9 Pneumonia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.9.1 Definition of Pneumonia . . . . . . . . . . . . . . . . . . . . . . . . 10
1.9.2 the symptoms of pneumonia . . . . . . . . . . . . . . . . . . . . . 11
1.10 Emphysema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.10.1 Definition of Emphysema . . . . . . . . . . . . . . . . . . . . . . . 11
1.10.2 the symptoms of Emphysema . . . . . . . . . . . . . . . . . . . . . 12
1.11 X-rays . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.11.1 Understanding the Mechanism of Medical X-rays . . . . . . . . . . 12
1.11.2 Applications of Medical X-rays . . . . . . . . . . . . . . . . . . . . 12
1.11.2.1 Diagnostic . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.11.2.2 Therapeutic . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.12 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2 STATE OF THE ART AND RELATED WORKS 15
2.1 Artificial Intelligence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Machine Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.1 The Importance of Machine Learning . . . . . . . . . . . . . . . . 16
2.2.2 How Does Machine Learning Work? . . . . . . . . . . . . . . . . . . 16
2.2.2.1 Data collection . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.2.2 Data preprocessing . . . . . . . . . . . . . . . . . . . . . 17
2.2.2.3 Choosing the right model . . . . . . . . . . . . . . . . . . 17
2.2.2.4 Training the model . . . . . . . . . . . . . . . . . . . . . 18
2.2.2.5 Evaluating the model . . . . . . . . . . . . . . . . . . . . 18
2.2.2.6 Hyperparameter tuning and optimization . . . . . . . . . 18
2.2.2.7 Predictions and deployment . . . . . . . . . . . . . . . . . 18
2.2.3 Machine Learning Types . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.3.1 Supervised learning . . . . . . . . . . . . . . . . . . . . . . 18
2.2.3.2 Unsupervised Learning . . . . . . . . . . . . . . . . . . . . 19
2.3 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3.1 Key Elements of Deep Learning . . . . . . . . . . . . . . . . . . . . 20
2.3.1.1 neural network . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3.1.2 layers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.1.3 Optimization . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.1.4 Regularization . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3.1.5 Model parameters . . . . . . . . . . . . . . . . . . . . . . 22
2.3.1.6 Activation Function . . . . . . . . . . . . . . . . . . . . . 23
2.3.1.7 Backpropagation . . . . . . . . . . . . . . . . . . . . . . 25
2.3.2 Convolutional Neural Network (CNN) . . . . . . . . . . . . . . . . 26
2.3.2.1 Convolutional Layer . . . . . . . . . . . . . . . . . . . . 27
2.3.2.2 Padding . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.3.2.3 Pooling Layer . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3.2.4 Limitations of Convolutional neural networks (CNNs) . . 30
2.3.2.5 Related Works using cnn . . . . . . . . . . . . . . . . . . 31
2.3.3 Transfer Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.3.3.1 Understanding How Transfer Learning Works . . . . . . 32
2.3.3.2 The Benefits of Using Transfer Learning . . . . . . . . . 33
2.3.3.3 ResNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4 Zero-Shot Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.4.1 Zero-Shot Learning (ZSL) Key Takeaways . . . . . . . . . . . . . . 36
2.4.2 Types of Zero-Shot Learning . . . . . . . . . . . . . . . . . . . . . . 36
2.4.3 Basic Architecture of Zero-Shot Learning . . . . . . . . . . . . . . . 38
2.4.4 How Does Zero-shot Learning Work? . . . . . . . . . . . . . . . . . 39
2.4.5 Evaluating Zero-Shot Learning (ZSL) models . . . . . . . . . . . . . 40
2.4.6 Challenges of Zero-Shot Learning (ZSL) models . . . . . . . . . . . 40
2.4.7 Applications of Zero-Shot Learning (ZSL) . . . . . . . . . . . . . . 42
2.5 CLIP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.5.1 How Does CLIP Work? . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.5.2 CLIP Architecture explained . . . . . . . . . . . . . . . . . . . . . . 42
2.5.3 The CLIP training architecture . . . . . . . . . . . . . . . . . . . . 44
2.5.4 Integration Between Natural Language and Image Processing . . . 45
2.5.5 Zero-Shot Image Classification . . . . . . . . . . . . . . . . . . . . 46
2.5.6 CLIP Limitations and Challenges . . . . . . . . . . . . . . . . . . . 47
2.6 MED-CLIP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.6.1 Baselines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.6.2 Related Works using medclip . . . . . . . . . . . . . . . . . . . . . 49
2.7 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3 Dataset and Implementation Tools 50
3.1 Dataset Description . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.1.1 Dataset Grouping . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.2 Preprocessing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.3 Data Augmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.4 Implementation Frameworks and Tools . . . . . . . . . . . . . . . . . . . . 51
3.4.1 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.4.2 Tensorflow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.4.3 Sickit-learn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.4.4 Matplotlib . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.4.5 NumPy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.4.6 Pandas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.4.7 PyTorch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.4.8 MedClip . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.4.9 Jupyter notebooks . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.4.10 Google Colab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.4.11 Kaggle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.5 Model Evaluation Metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.5.1 Accuracy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.5.2 Recall . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.5.3 Precision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.5.4 F1-Score . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.6 Confusion Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.7 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4 Experiments and Results 57
4.1 Chest Classification Approaches . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2 Deep learning approaches . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2.1 Convolution Neural Network (CNN) . . . . . . . . . . . . . . . . . 57
4.2.2 Zero Shot Learning Approachs . . . . . . . . . . . . . . . . . . . . 62
4.2.2.1 MedClip Model . . . . . . . . . . . . . . . . . . . . . . . 63
4.2.2.2 Our Model . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.3 Results comparisons and summary . . . . . . . . . . . . . . . . . . . . . . 64
4.3.1 Hyperparameters . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.3.2 Summarized Models . . . . . . . . . . . . . . . . . . . . . . . . . . 64Côte titre : MAI/0888 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0888 MAI/0888 Mémoire Bibliothéque des sciences Anglais Disponible
DisponibleApprentissage automatique basé expressions génétiques pour la classification des pathologies médicales / Fetha,Kenza
Titre : Apprentissage automatique basé expressions génétiques pour la classification des pathologies médicales Type de document : texte imprimé Auteurs : Fetha,Kenza, Auteur ; Moussaoui ,Abdelouahab, Directeur de thèse Editeur : Setif:UFA Année de publication : 2018 Importance : 1 vol (72 f .) Format : 29 cm Langues : Français (fre) Langues originales : Français (fre) Catégories : Thèses & Mémoires:Informatique Mots-clés : Détection du cancer
Expression des gènes
Puces à ADN
Apprentissage en profondeur
Réduction de la dimensionnalité
ClassificationIndex. décimale : 004 Informatique Note de contenu :
Sommaire
Introduction générale
Machine learning : concepts et techniques
Notion de Bioinformatique
Expression génétiques et médecine ciblée
Développement d'un algorithme pour la classification des expressions géné-tiques
Comparaison et validation
Conclusion générale et perspecties
BibliographieCôte titre : MAI/0222 Apprentissage automatique basé expressions génétiques pour la classification des pathologies médicales [texte imprimé] / Fetha,Kenza, Auteur ; Moussaoui ,Abdelouahab, Directeur de thèse . - [S.l.] : Setif:UFA, 2018 . - 1 vol (72 f .) ; 29 cm.
Langues : Français (fre) Langues originales : Français (fre)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Détection du cancer
Expression des gènes
Puces à ADN
Apprentissage en profondeur
Réduction de la dimensionnalité
ClassificationIndex. décimale : 004 Informatique Note de contenu :
Sommaire
Introduction générale
Machine learning : concepts et techniques
Notion de Bioinformatique
Expression génétiques et médecine ciblée
Développement d'un algorithme pour la classification des expressions géné-tiques
Comparaison et validation
Conclusion générale et perspecties
BibliographieCôte titre : MAI/0222 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0222 MAI/0222 livre Bibliothéque des sciences Français Disponible
Disponible
Titre : Apprentissage des Réseaux de Neurones Profonds : Analyse Des Sentiments Dans Les Réseaux Sociaux. Type de document : texte imprimé Auteurs : Boulahlib, walid, Auteur ; Moussaoui ,Abdelouahab, Directeur de thèse Editeur : Setif:UFA Année de publication : 2018 Importance : 1 vol (72 f .) Format : 29 cm Langues : Français (fre) Langues originales : Français (fre) Catégories : Thèses & Mémoires:Informatique Mots-clés : Apprentissage automatique
Fouille d'opinion
Apprentissage profond
word2vec
réseaux de neurone récurrent(RNN)Index. décimale : 004 Informatique Résumé : Depuis siècles , Certains chercheurs se sont intéressés à l'étude, à l'analyse , à la
description et à la classication des émotions humaines, ce qui a permis de trouver
plus d'outils de recherche et de soutenir des plateformes d'acquisition de données .
Avec l'expansion des moyens de réseaux de communication et sociaux sur Internet,
qui donnent de vastes zones d'expression et de mettre en avant et des idées
librement par des personnes de partout dans le monde, où il a été mis en place de
nombreux domaines en fonction de l'étude sur le domaine psychologique, son objectif
en premier lieu est de comprendre Comportement humain pour la capacité de
révéler ce qu'il pense à travers ce qu'il ressent , écrit ou dit.
Aujourd'hui, de nouveaux horizons ont été révélés, puisque nous pouvions savoir
qui va gagner les élections avant même d'avoir voté ?Et si on pouvait. savoir si le
lancement d'un nouveau téléphone ou d'une nouvelle voiture ou d'un produit serait
rentable ou non? Et beaucoup de nouvelles questions qui ont permis aux études dans
la fouille d'opinions, que ce soit au niveau académique ou industriel, pour prendre
de plus en plus d'importance.
Ainsi, la compréhension des sentiments étant un aspect convoité et étudié , de
nouvelles portant sur la détection et surtout la fouille d'opinions ou de sentiments
à travers les réseaux sociaux sont apparues . ces études touchent de plus en plus de
domaines et inuent de plus en plus sensibles à la prise de décision que ce soit au
niveau personnel et communautaire. , Ou au niveau gouvernemental ou mondial .
Dans ce rapport, nous avons utilisé la technique d'apprentissage en profondeur
comme une nouvelle tendance pour réaliser une fouille d'opinion , en créant un mod-
èle avec trois classeurs séparateur à vaste marge (SVM) , arbre de décision (AD) ,
Forêt aléatoire (RF) pour comparer ce modèle an d'évaluer sa performance,nous
avons pris Amazon comme source des données pour ce travail.Note de contenu : Sommaire
Contents iv
List of Figures vii
Introduction Générale 1
1 Apprentissage automatique : Etat de l'art 4
1 Travaux connexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2 Dénition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
3 Déférents étapes pour création modèle apprentissage . . . . . . . . . 5
3.1 Collection des données . . . . . . . . . . . . . . . . . . . . . . 5
3.2 Préparation des données . . . . . . . . . . . . . . . . . . . . . 5
3.3 Entraîner un modèle . . . . . . . . . . . . . . . . . . . . . . . 6
3.4 Évaluation de modèle . . . . . . . . . . . . . . . . . . . . . . 6
4 Domaines de l'Apprentissage Automatique . . . . . . . . . . . . . . . 6
4.1 Fouille des données (data mining) . . . . . . . . . . . . . . . 6
4.2 Intelligence articielle . . . . . . . . . . . . . . . . . . . . . . . 8
5 Données d'Apprentissage . . . . . . . . . . . . . . . . . . . . . . . . . 8
6 Types d'apprentissage automatique . . . . . . . . . . . . . . . . . . . 8
6.1 Apprentissage supervisé . . . . . . . . . . . . . . . . . . . . . 8
6.2 Apprentissage non supervisé . . . . . . . . . . . . . . . . . . . 9
6.3 Apprentissage semi-supervisée . . . . . . . . . . . . . . . . . . 9
6.4 Apprentissage par renforcement . . . . . . . . . . . . . . . . . 10
7 Les algorithmes d'apprentissage automatique . . . . . . . . . . . . . . 10
7.1 Support vecteur machine . . . . . . . . . . . . . . . . . . . . 10
7.2 k-plus proche voisine . . . . . . . . . . . . . . . . . . . . . . . 14
7.3 Arbre de décision . . . . . . . . . . . . . . . . . . . . . . . . . 15
7.4 Naïve de bayes . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2 Apprentissage profond 18
1 Apprentissage profond . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2 Motivations pour l'apprentissage profond . . . . . . . . . . . . . . . . 19
2.1 Architecture profonde du cerveau . . . . . . . . . . . . . . . . 19
2.2 Profondeur des processus cognitifs . . . . . . . . . . . . . . . 19
3 Les réseaux de neurones articiels . . . . . . . . . . . . . . . . . . . . 20
3.1 Dénition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.2 Neurone . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4 Rétro propagation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
5 Apprentissage profond architecture . . . . . . . . . . . . . . . . . . . 22
5.1 Réseaux de croyances profondes . . . . . . . . . . . . . . . . . 22
5.2 Réseaux de neurones conventionnelle . . . . . . . . . . . . . . 23
5.3 Réseaux de neurones récurrent . . . . . . . . . . . . . . . . . . 24
6 application d'apprentissage profond . . . . . . . . . . . . . . . . . . . 25
6.1 Traitement Automatique des Langues Naturelles . . . . . . . . 25
6.2 Traduction automatique . . . . . . . . . . . . . . . . . . . . . 26
6.3 Reconnaissance d'image . . . . . . . . . . . . . . . . . . . . . 26
6.4 Domaine médical . . . . . . . . . . . . . . . . . . . . . . . . . 26
3 Fouille d'opinion ou Analyse des sentiments 27
1 Dénition de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.1 Information textuelle . . . . . . . . . . . . . . . . . . . . . . 27
1.2 Opinion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.3 Faits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.4 Document, Sujet, Sentiment . . . . . . . . . . . . . . . . . . . 28
2 Opinion mining ou Analyse de sentiment . . . . . . . . . . . . . . . . 28
3 Composantes de sentiment . . . . . . . . . . . . . . . . . . . . . . . . 29
4 Modèle d'un document opiniâtre . . . . . . . . . . . . . . . . . . . . . 29
4.1 Opinion directe . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.2 Opinion comparaison . . . . . . . . . . . . . . . . . . . . . . 30
5 Processus de la fouille d'opinions . . . . . . . . . . . . . . . . . . . . 30
5.1 Acquisition et prétraitement des données . . . . . . . . . . . . 31
5.2 La pertinence par rapport au sujet . . . . . . . . . . . . . . . 31
5.3 La détection d'opinions . . . . . . . . . . . . . . . . . . . . . . 31
6 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
6.1 la politique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
6.2 E-commerce . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
7 Classication des Sentiments . . . . . . . . . . . . . . . . . . . . . . . 32
7.1 Niveaux de document . . . . . . . . . . . . . . . . . . . . . . . 32
7.2 Niveau de phrase . . . . . . . . . . . . . . . . . . . . . . . . . 32
7.3 Niveau d'aspect . . . . . . . . . . . . . . . . . . . . . . . . . . 32
8 Les approches de détection l'opinion . . . . . . . . . . . . . . . . . . 33
8.1 Approche symbolique . . . . . . . . . . . . . . . . . . . . . . . 33
8.2 Approche statistique . . . . . . . . . . . . . . . . . . . . . . . 34
8.3 Approche hybride . . . . . . . . . . . . . . . . . . . . . . . . . 35
4 Jeux des données et Prétraitement 36
1 Description des données . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.1 Amazon Food . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.2 Amazon Mobile . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2 Division du jeux de données . . . . . . . . . . . . . . . . . . . . . . . 41
2.1 Données pour l'apprentissage . . . . . . . . . . . . . . . . . . 41
2.2 Donnée pour le test . . . . . . . . . . . . . . . . . . . . . . . . 41
3 Pré traitement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.1 Nettoyage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2 Représentation . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4 Outils utilisés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.1 Environnement de développement Python . . . . . . . . . . . 45
4.2 Bibliothèques . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5 Expérimentation et Résultats 48
1 Algorithmes et techniques . . . . . . . . . . . . . . . . . . . . . . . . 48
1.1 Notre architecture keras . . . . . . . . . . . . . . . . . . . . . 49
1.2 Compilation du modèle : . . . . . . . . . . . . . . . . . . . . 50
1.3 Apprentissage de modèle : . . . . . . . . . . . . . . . . . . . . 50
2 Expérimentation et résultats . . . . . . . . . . . . . . . . . . . . . . 51
2.1 Amazon Food . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.2 Amazon Mobile . . . . . . . . . . . . . . . . . . . . . . . . . 57
3 Interface graphique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4 Discussion des Résultats . . . . . . . . . . . . . . . . . . . . . . . . . 65
6 Conclusion Générale 67
Bibliography
Côte titre : MAI/0214 En ligne : https://drive.google.com/file/d/1H_utZUOJbC1E3CS0Ok9BsoulNTRMHf4b/view?usp=shari [...] Format de la ressource électronique : Apprentissage des Réseaux de Neurones Profonds : Analyse Des Sentiments Dans Les Réseaux Sociaux. [texte imprimé] / Boulahlib, walid, Auteur ; Moussaoui ,Abdelouahab, Directeur de thèse . - [S.l.] : Setif:UFA, 2018 . - 1 vol (72 f .) ; 29 cm.
Langues : Français (fre) Langues originales : Français (fre)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Apprentissage automatique
Fouille d'opinion
Apprentissage profond
word2vec
réseaux de neurone récurrent(RNN)Index. décimale : 004 Informatique Résumé : Depuis siècles , Certains chercheurs se sont intéressés à l'étude, à l'analyse , à la
description et à la classication des émotions humaines, ce qui a permis de trouver
plus d'outils de recherche et de soutenir des plateformes d'acquisition de données .
Avec l'expansion des moyens de réseaux de communication et sociaux sur Internet,
qui donnent de vastes zones d'expression et de mettre en avant et des idées
librement par des personnes de partout dans le monde, où il a été mis en place de
nombreux domaines en fonction de l'étude sur le domaine psychologique, son objectif
en premier lieu est de comprendre Comportement humain pour la capacité de
révéler ce qu'il pense à travers ce qu'il ressent , écrit ou dit.
Aujourd'hui, de nouveaux horizons ont été révélés, puisque nous pouvions savoir
qui va gagner les élections avant même d'avoir voté ?Et si on pouvait. savoir si le
lancement d'un nouveau téléphone ou d'une nouvelle voiture ou d'un produit serait
rentable ou non? Et beaucoup de nouvelles questions qui ont permis aux études dans
la fouille d'opinions, que ce soit au niveau académique ou industriel, pour prendre
de plus en plus d'importance.
Ainsi, la compréhension des sentiments étant un aspect convoité et étudié , de
nouvelles portant sur la détection et surtout la fouille d'opinions ou de sentiments
à travers les réseaux sociaux sont apparues . ces études touchent de plus en plus de
domaines et inuent de plus en plus sensibles à la prise de décision que ce soit au
niveau personnel et communautaire. , Ou au niveau gouvernemental ou mondial .
Dans ce rapport, nous avons utilisé la technique d'apprentissage en profondeur
comme une nouvelle tendance pour réaliser une fouille d'opinion , en créant un mod-
èle avec trois classeurs séparateur à vaste marge (SVM) , arbre de décision (AD) ,
Forêt aléatoire (RF) pour comparer ce modèle an d'évaluer sa performance,nous
avons pris Amazon comme source des données pour ce travail.Note de contenu : Sommaire
Contents iv
List of Figures vii
Introduction Générale 1
1 Apprentissage automatique : Etat de l'art 4
1 Travaux connexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2 Dénition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
3 Déférents étapes pour création modèle apprentissage . . . . . . . . . 5
3.1 Collection des données . . . . . . . . . . . . . . . . . . . . . . 5
3.2 Préparation des données . . . . . . . . . . . . . . . . . . . . . 5
3.3 Entraîner un modèle . . . . . . . . . . . . . . . . . . . . . . . 6
3.4 Évaluation de modèle . . . . . . . . . . . . . . . . . . . . . . 6
4 Domaines de l'Apprentissage Automatique . . . . . . . . . . . . . . . 6
4.1 Fouille des données (data mining) . . . . . . . . . . . . . . . 6
4.2 Intelligence articielle . . . . . . . . . . . . . . . . . . . . . . . 8
5 Données d'Apprentissage . . . . . . . . . . . . . . . . . . . . . . . . . 8
6 Types d'apprentissage automatique . . . . . . . . . . . . . . . . . . . 8
6.1 Apprentissage supervisé . . . . . . . . . . . . . . . . . . . . . 8
6.2 Apprentissage non supervisé . . . . . . . . . . . . . . . . . . . 9
6.3 Apprentissage semi-supervisée . . . . . . . . . . . . . . . . . . 9
6.4 Apprentissage par renforcement . . . . . . . . . . . . . . . . . 10
7 Les algorithmes d'apprentissage automatique . . . . . . . . . . . . . . 10
7.1 Support vecteur machine . . . . . . . . . . . . . . . . . . . . 10
7.2 k-plus proche voisine . . . . . . . . . . . . . . . . . . . . . . . 14
7.3 Arbre de décision . . . . . . . . . . . . . . . . . . . . . . . . . 15
7.4 Naïve de bayes . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2 Apprentissage profond 18
1 Apprentissage profond . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2 Motivations pour l'apprentissage profond . . . . . . . . . . . . . . . . 19
2.1 Architecture profonde du cerveau . . . . . . . . . . . . . . . . 19
2.2 Profondeur des processus cognitifs . . . . . . . . . . . . . . . 19
3 Les réseaux de neurones articiels . . . . . . . . . . . . . . . . . . . . 20
3.1 Dénition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.2 Neurone . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4 Rétro propagation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
5 Apprentissage profond architecture . . . . . . . . . . . . . . . . . . . 22
5.1 Réseaux de croyances profondes . . . . . . . . . . . . . . . . . 22
5.2 Réseaux de neurones conventionnelle . . . . . . . . . . . . . . 23
5.3 Réseaux de neurones récurrent . . . . . . . . . . . . . . . . . . 24
6 application d'apprentissage profond . . . . . . . . . . . . . . . . . . . 25
6.1 Traitement Automatique des Langues Naturelles . . . . . . . . 25
6.2 Traduction automatique . . . . . . . . . . . . . . . . . . . . . 26
6.3 Reconnaissance d'image . . . . . . . . . . . . . . . . . . . . . 26
6.4 Domaine médical . . . . . . . . . . . . . . . . . . . . . . . . . 26
3 Fouille d'opinion ou Analyse des sentiments 27
1 Dénition de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.1 Information textuelle . . . . . . . . . . . . . . . . . . . . . . 27
1.2 Opinion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.3 Faits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.4 Document, Sujet, Sentiment . . . . . . . . . . . . . . . . . . . 28
2 Opinion mining ou Analyse de sentiment . . . . . . . . . . . . . . . . 28
3 Composantes de sentiment . . . . . . . . . . . . . . . . . . . . . . . . 29
4 Modèle d'un document opiniâtre . . . . . . . . . . . . . . . . . . . . . 29
4.1 Opinion directe . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.2 Opinion comparaison . . . . . . . . . . . . . . . . . . . . . . 30
5 Processus de la fouille d'opinions . . . . . . . . . . . . . . . . . . . . 30
5.1 Acquisition et prétraitement des données . . . . . . . . . . . . 31
5.2 La pertinence par rapport au sujet . . . . . . . . . . . . . . . 31
5.3 La détection d'opinions . . . . . . . . . . . . . . . . . . . . . . 31
6 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
6.1 la politique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
6.2 E-commerce . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
7 Classication des Sentiments . . . . . . . . . . . . . . . . . . . . . . . 32
7.1 Niveaux de document . . . . . . . . . . . . . . . . . . . . . . . 32
7.2 Niveau de phrase . . . . . . . . . . . . . . . . . . . . . . . . . 32
7.3 Niveau d'aspect . . . . . . . . . . . . . . . . . . . . . . . . . . 32
8 Les approches de détection l'opinion . . . . . . . . . . . . . . . . . . 33
8.1 Approche symbolique . . . . . . . . . . . . . . . . . . . . . . . 33
8.2 Approche statistique . . . . . . . . . . . . . . . . . . . . . . . 34
8.3 Approche hybride . . . . . . . . . . . . . . . . . . . . . . . . . 35
4 Jeux des données et Prétraitement 36
1 Description des données . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.1 Amazon Food . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.2 Amazon Mobile . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2 Division du jeux de données . . . . . . . . . . . . . . . . . . . . . . . 41
2.1 Données pour l'apprentissage . . . . . . . . . . . . . . . . . . 41
2.2 Donnée pour le test . . . . . . . . . . . . . . . . . . . . . . . . 41
3 Pré traitement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.1 Nettoyage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2 Représentation . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4 Outils utilisés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.1 Environnement de développement Python . . . . . . . . . . . 45
4.2 Bibliothèques . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5 Expérimentation et Résultats 48
1 Algorithmes et techniques . . . . . . . . . . . . . . . . . . . . . . . . 48
1.1 Notre architecture keras . . . . . . . . . . . . . . . . . . . . . 49
1.2 Compilation du modèle : . . . . . . . . . . . . . . . . . . . . 50
1.3 Apprentissage de modèle : . . . . . . . . . . . . . . . . . . . . 50
2 Expérimentation et résultats . . . . . . . . . . . . . . . . . . . . . . 51
2.1 Amazon Food . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.2 Amazon Mobile . . . . . . . . . . . . . . . . . . . . . . . . . 57
3 Interface graphique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4 Discussion des Résultats . . . . . . . . . . . . . . . . . . . . . . . . . 65
6 Conclusion Générale 67
Bibliography
Côte titre : MAI/0214 En ligne : https://drive.google.com/file/d/1H_utZUOJbC1E3CS0Ok9BsoulNTRMHf4b/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0214 MAI/0214 Mémoire Bibliothéque des sciences Français Disponible
Disponible
Titre : Brain Tumor Classification Using Convolutional Neural Network Type de document : texte imprimé Auteurs : Kheniche, Nedjoua, Auteur ; Moussaoui ,Abdelouahab, Directeur de thèse Editeur : Setif:UFA Année de publication : 2020 Importance : 1 vol (62 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Informatique Mots-clés : Réseaux neuronaux convolutionnels
Imagerie médicale
ApprentissageIndex. décimale : 004 - Informatique Résumé :
L'apprentissage en profondeur est un nouveau domaine d'apprentissage automatique
qui a suscité beaucoup d'intérêt ces dernières années. Il a été largement appliqué Ã
plusieurs applications et s'est avéré être un puissant outil d'apprentissage automatique
pour de nombreux problèmes complexes. Dans cette thèse, nous voulons proposer un
nouveau modèle de classication basé sur l'apprentissage en profondeur qui sera capable
de classer et d'identier diérentes tumeurs cérébrales à des stades précoces avec une
grande précision qui surpasse les approches de pointe et les travaux précédents.
Le travail de classication ou d'annotation des tumeurs cérébrales à partir d'images
IRM peut être long et dicile, même pour les radiologues. Pour augmenter les chances de
survie d'un patient, les médecins souhaitent un moyen de diagnostic rapide et précis. Ce
travail couvre cinq architectures de réseaux de neurones à convolution profonde et a réglé
trois modèles pré-entraînés qui ont été formés sur un grand ensemble de données tels que
MobileNet, VGG-16 et ResNet50. Notre modèle proposé a surpassé les travaux publiés
précédemment en utilisant les mêmes données, où nous avons obtenu une précision de
99,72 %.Côte titre : MAI/0349 En ligne : https://drive.google.com/file/d/13rglINyx_KeBhemPyfs6reTUFuQoUnjK/view?usp=shari [...] Format de la ressource électronique : Brain Tumor Classification Using Convolutional Neural Network [texte imprimé] / Kheniche, Nedjoua, Auteur ; Moussaoui ,Abdelouahab, Directeur de thèse . - [S.l.] : Setif:UFA, 2020 . - 1 vol (62 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Réseaux neuronaux convolutionnels
Imagerie médicale
ApprentissageIndex. décimale : 004 - Informatique Résumé :
L'apprentissage en profondeur est un nouveau domaine d'apprentissage automatique
qui a suscité beaucoup d'intérêt ces dernières années. Il a été largement appliqué Ã
plusieurs applications et s'est avéré être un puissant outil d'apprentissage automatique
pour de nombreux problèmes complexes. Dans cette thèse, nous voulons proposer un
nouveau modèle de classication basé sur l'apprentissage en profondeur qui sera capable
de classer et d'identier diérentes tumeurs cérébrales à des stades précoces avec une
grande précision qui surpasse les approches de pointe et les travaux précédents.
Le travail de classication ou d'annotation des tumeurs cérébrales à partir d'images
IRM peut être long et dicile, même pour les radiologues. Pour augmenter les chances de
survie d'un patient, les médecins souhaitent un moyen de diagnostic rapide et précis. Ce
travail couvre cinq architectures de réseaux de neurones à convolution profonde et a réglé
trois modèles pré-entraînés qui ont été formés sur un grand ensemble de données tels que
MobileNet, VGG-16 et ResNet50. Notre modèle proposé a surpassé les travaux publiés
précédemment en utilisant les mêmes données, où nous avons obtenu une précision de
99,72 %.Côte titre : MAI/0349 En ligne : https://drive.google.com/file/d/13rglINyx_KeBhemPyfs6reTUFuQoUnjK/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0349 MAI/0349 Mémoire Bibliothéque des sciences Français Disponible
DisponibleContribution à la segmentation d'images médicales par les algrithmes bio- inspirés / Moussa,Semchedine
![]()
Titre : Contribution à la segmentation d'images médicales par les algrithmes bio- inspirés Type de document : texte imprimé Auteurs : Moussa,Semchedine, Auteur ; Moussaoui ,Abdelouahab, Directeur de thèse Editeur : Setif:UFA Année de publication : 2018 Importance : 1 vol (154 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Informatique Mots-clés : IRM
Segmentation d'images
FCM
Optimisation
Métaheuristiques bio-inspirées
OEPIndex. décimale : 004 - Informatique Note de contenu : Sommaire
Introduction générale
Imagerie céréale par Résonance Magnétique
Etat de l'art:Segmentation d'image IRM
Algorithmes bio-Inspirés
Algorithme d'optimisation par essaim de particules
FCM rapide pour la segmentation d'images IRM
Ontribution à la segmentation D'images par hybridation PSO- FCM
Concliusion générale et perspectives
Annexe A Résultats sur des coupes coronales
Annexe B Résultats sur images bruitées
Annexe c Description des images de testCôte titre : DI/0031 En ligne : https://drive.google.com/file/d/1DiBmsS_5mi7lhRnSzSmgre9nXtCp5RXl/view?usp=shari [...] Format de la ressource électronique : Contribution à la segmentation d'images médicales par les algrithmes bio- inspirés [texte imprimé] / Moussa,Semchedine, Auteur ; Moussaoui ,Abdelouahab, Directeur de thèse . - [S.l.] : Setif:UFA, 2018 . - 1 vol (154 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Informatique Mots-clés : IRM
Segmentation d'images
FCM
Optimisation
Métaheuristiques bio-inspirées
OEPIndex. décimale : 004 - Informatique Note de contenu : Sommaire
Introduction générale
Imagerie céréale par Résonance Magnétique
Etat de l'art:Segmentation d'image IRM
Algorithmes bio-Inspirés
Algorithme d'optimisation par essaim de particules
FCM rapide pour la segmentation d'images IRM
Ontribution à la segmentation D'images par hybridation PSO- FCM
Concliusion générale et perspectives
Annexe A Résultats sur des coupes coronales
Annexe B Résultats sur images bruitées
Annexe c Description des images de testCôte titre : DI/0031 En ligne : https://drive.google.com/file/d/1DiBmsS_5mi7lhRnSzSmgre9nXtCp5RXl/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité DI/0031 DI/0031 Thèse Bibliothéque des sciences Français Disponible
DisponibleDeep-Convolution-Neural-Network-and-Autoencoders- Based-Unsupervised-Feature-Learning-of-EEG / Krachni,Rayane
![]()
PermalinkPermalinkPermalinkPermalinkDeep learning for the recognition and classification of different postures and behaviors of vehicle drivers / Hamitouche,Ilyes
![]()
PermalinkPermalinkEffective Speech Emotion Recognition Using Deep leaning approaches for algerian dialect / Yahia cherif,Raoudha
![]()
PermalinkExploring Self- Supervised Vision Transformers for Medical Image Analysis (DINO-VIT) / Ikram Bentoumi
PermalinkPermalink