University Sétif 1 FERHAT ABBAS Faculty of Sciences
Détail de l'auteur
Auteur Mediani,Chahrazed |
Documents disponibles écrits par cet auteur



Titre : Arabic Sentiment Analysis Using Deep Learning Type de document : texte imprimé Auteurs : Dhai Eddine Kadour, Auteur ; Mohamed Assil Habib ; Mediani,Chahrazed, Directeur de thèse Editeur : Setif:UFA Année de publication : 2024 Importance : 1 vol (57 f .) Format : 29 cm Langues : Anglais (eng) Catégories : Thèses & Mémoires:Informatique Mots-clés : Sentiment Analysis
Deep Learning
Dataset
Algorithm
Preprocessing,
Machine Learning.Index. décimale : 004 - Informatique Résumé :
Natural Language Processing (NLP) is a field of technology that focuses on the
interaction between computers and human language. By training algorithms with
datasets, machines can understand and interpret human language. This technique
allows us to ascertain an author’s stance and opinions on various topics using
deep learning algorithms. In this study, we utilized deep learning techniques
to classify Arabic dialect texts into tow sentiment categories: positive emotion,
negative emotion .Note de contenu :
Sommaire
General introduction & Problematic 1
1 Arabic Sentiment Analysis and the Arabic Language 3
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Sentiment Analysis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Fundamental Principles of Sentiment Analysis . . . . . . . . . . . . . 5
1.3.1 Categorization of Feelings . . . . . . . . . . . . . . . . . . . . . . 5
1.3.2 Sentiment Orientation . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.3 Sentiment Analysis Levels . . . . . . . . . . . . . . . . . . . . . 6
1.4 Sentiment Analysis Applications . . . . . . . . . . . . . . . . . . . . . . 7
1.5 Sentiment Analysis Techniques . . . . . . . . . . . . . . . . . . . . . . 7
1.6 Evaluation Metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.7 Arabic language . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.7.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.7.2 Arabic Dialects . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.7.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2 AI, Machine Learning, and Deep Learning 13
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2 Artificial Intelligence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.2 The Mechanics of AI . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3 Machine learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.2 Machine learning algorithms . . . . . . . . . . . . . . . . . . . . 17
2.4 Deep learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.5 Deep Learning Models . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.5.1 Artificial Neural Networks . . . . . . . . . . . . . . . . . . . . . . 18
2.5.2 Long Short-Term Memory (LSTMs) . . . . . . . . . . . . . . . . 19
2.6 Deep Learning Algorithms . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.6.1 Convolutional Neural Network (CNN) . . . . . . . . . . . . . . . 21
2.6.2 Deep Belief Networks (DBNs) . . . . . . . . . . . . . . . . . . . . 21
2.6.3 Recursive Neural Network (RNN) . . . . . . . . . . . . . . . . . . 21
2.6.4 Autoencoders . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.7 Some Applications in real life . . . . . . . . . . . . . . . . . . . . . . . . 23
2.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3 Contribution 24
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.2 Similar Works . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.3 Problematic . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.4 Data collection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.4.1 Dataset Choice . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.5 Implementation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.5.1 Data Pre-Processing . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.5.2 Model Architecture . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.5.3 Measurement Methods . . . . . . . . . . . . . . . . . . . . . . . 32
3.5.4 Loss function and Activation function . . . . . . . . . . . . . . 33
3.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4 Results 36
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.2 Development environment . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.2.1 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.2.2 Anaconda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.2.3 Google colab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.3 Results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.3.1 Deep Learning Models Results . . . . . . . . . . . . . . . . . . . 39
4.3.2 Analysis of the results . . . . . . . . . . . . . . . . . . . . . . . . 46
4.3.3 Discussions: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.3.4 Testing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.4 Problems we faced . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.4.1 Data Collection Issues . . . . . . . . . . . . . . . . . . . . . . . . 51
4.4.2 Complex Models and week HardWare . . . . . . . . . . . . . . . 52
4.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52Côte titre : MAI/0891 Arabic Sentiment Analysis Using Deep Learning [texte imprimé] / Dhai Eddine Kadour, Auteur ; Mohamed Assil Habib ; Mediani,Chahrazed, Directeur de thèse . - [S.l.] : Setif:UFA, 2024 . - 1 vol (57 f .) ; 29 cm.
Langues : Anglais (eng)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Sentiment Analysis
Deep Learning
Dataset
Algorithm
Preprocessing,
Machine Learning.Index. décimale : 004 - Informatique Résumé :
Natural Language Processing (NLP) is a field of technology that focuses on the
interaction between computers and human language. By training algorithms with
datasets, machines can understand and interpret human language. This technique
allows us to ascertain an author’s stance and opinions on various topics using
deep learning algorithms. In this study, we utilized deep learning techniques
to classify Arabic dialect texts into tow sentiment categories: positive emotion,
negative emotion .Note de contenu :
Sommaire
General introduction & Problematic 1
1 Arabic Sentiment Analysis and the Arabic Language 3
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Sentiment Analysis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Fundamental Principles of Sentiment Analysis . . . . . . . . . . . . . 5
1.3.1 Categorization of Feelings . . . . . . . . . . . . . . . . . . . . . . 5
1.3.2 Sentiment Orientation . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.3 Sentiment Analysis Levels . . . . . . . . . . . . . . . . . . . . . 6
1.4 Sentiment Analysis Applications . . . . . . . . . . . . . . . . . . . . . . 7
1.5 Sentiment Analysis Techniques . . . . . . . . . . . . . . . . . . . . . . 7
1.6 Evaluation Metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.7 Arabic language . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.7.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.7.2 Arabic Dialects . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.7.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2 AI, Machine Learning, and Deep Learning 13
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2 Artificial Intelligence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.2 The Mechanics of AI . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3 Machine learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.2 Machine learning algorithms . . . . . . . . . . . . . . . . . . . . 17
2.4 Deep learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.5 Deep Learning Models . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.5.1 Artificial Neural Networks . . . . . . . . . . . . . . . . . . . . . . 18
2.5.2 Long Short-Term Memory (LSTMs) . . . . . . . . . . . . . . . . 19
2.6 Deep Learning Algorithms . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.6.1 Convolutional Neural Network (CNN) . . . . . . . . . . . . . . . 21
2.6.2 Deep Belief Networks (DBNs) . . . . . . . . . . . . . . . . . . . . 21
2.6.3 Recursive Neural Network (RNN) . . . . . . . . . . . . . . . . . . 21
2.6.4 Autoencoders . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.7 Some Applications in real life . . . . . . . . . . . . . . . . . . . . . . . . 23
2.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3 Contribution 24
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.2 Similar Works . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.3 Problematic . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.4 Data collection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.4.1 Dataset Choice . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.5 Implementation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.5.1 Data Pre-Processing . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.5.2 Model Architecture . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.5.3 Measurement Methods . . . . . . . . . . . . . . . . . . . . . . . 32
3.5.4 Loss function and Activation function . . . . . . . . . . . . . . 33
3.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4 Results 36
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.2 Development environment . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.2.1 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.2.2 Anaconda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.2.3 Google colab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.3 Results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.3.1 Deep Learning Models Results . . . . . . . . . . . . . . . . . . . 39
4.3.2 Analysis of the results . . . . . . . . . . . . . . . . . . . . . . . . 46
4.3.3 Discussions: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.3.4 Testing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.4 Problems we faced . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.4.1 Data Collection Issues . . . . . . . . . . . . . . . . . . . . . . . . 51
4.4.2 Complex Models and week HardWare . . . . . . . . . . . . . . . 52
4.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52Côte titre : MAI/0891 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0891 MAI/0891 Mémoire Bibliothéque des sciences Anglais Disponible
Disponible
Titre : Content Based Recommender System Using Deep Leaning Type de document : texte imprimé Auteurs : Lynda Messah, Auteur ; Chahrazed Bendaas, Auteur ; Mediani,Chahrazed, Directeur de thèse Année de publication : 2022 Importance : 1 vol (73 f .) Format : 29cm Langues : Français (fre) Catégories : Thèses & Mémoires:Informatique Mots-clés : Recommender system
content-basedIndex. décimale : 004 Informatique Résumé :
Recommender systems have the effect of leading users to interesting objects in a vast
universe of available possibilities in a personalized way. Content-based recommendation
systems try to suggest items that are relevant to those that a user has previously enjoyed.
Indeed, a content-based recommender’s basic process requires combining the properties
of a user profile, which stores preferences and interests, with the attributes of a content
object (item), to suggest new interesting items to the user.
In this thesis, we presented a new approach to a recommendation based on content
using deep learning to provide problems related to avoid traditional approaches while
improving system quality and performance.Côte titre : MAI/0609 En ligne : https://drive.google.com/file/d/17Ab3XkrA_UcDP_v8ndr5uOZDVR4gmln2/view?usp=share [...] Format de la ressource électronique : Content Based Recommender System Using Deep Leaning [texte imprimé] / Lynda Messah, Auteur ; Chahrazed Bendaas, Auteur ; Mediani,Chahrazed, Directeur de thèse . - 2022 . - 1 vol (73 f .) ; 29cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Recommender system
content-basedIndex. décimale : 004 Informatique Résumé :
Recommender systems have the effect of leading users to interesting objects in a vast
universe of available possibilities in a personalized way. Content-based recommendation
systems try to suggest items that are relevant to those that a user has previously enjoyed.
Indeed, a content-based recommender’s basic process requires combining the properties
of a user profile, which stores preferences and interests, with the attributes of a content
object (item), to suggest new interesting items to the user.
In this thesis, we presented a new approach to a recommendation based on content
using deep learning to provide problems related to avoid traditional approaches while
improving system quality and performance.Côte titre : MAI/0609 En ligne : https://drive.google.com/file/d/17Ab3XkrA_UcDP_v8ndr5uOZDVR4gmln2/view?usp=share [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0609 MAI/0609 Mémoire Bibliothéque des sciences Anglais Disponible
Disponible
Titre : Deep and Machine Learning in Predicting Cancer Type de document : texte imprimé Auteurs : Yousra Latreche, Auteur ; Rayanne Berrani ; Mediani,Chahrazed, Directeur de thèse Editeur : Setif:UFA Année de publication : 2024 Importance : 1 vol (70 f .) Format : 29 cm Langues : Anglais (eng) Catégories : Thèses & Mémoires:Informatique Mots-clés : Machine Learning
Deep Learning
Autoencoders
Cancer
MiRNA : microRNAIndex. décimale : 004 - Informatique Résumé :
The activities in genomes and proteomics are critical to the operation of any organism.
These activities are in charge of carrying out most biological operations, performing important
life functions, and making up the majority of cellular components. Malfunctions in
these systems are frequently connected to a variety of hereditary conditions. As a result,
understanding the complexities of these activities has become a critical goal for large-scale
genomics research. Nonetheless, this subject provides considerable obstacles, such as sensitivity,
high-dimensional data, and a large volume of information. These complexities make
it a difficult yet appropriate domain for the use of deep learning techniques. Deep learning
excels at handling and understanding large, complex datasets. This thesis investigates the
use of deep learning, primarily Autoencoders, to handle a classification challenge for cancer
diagnosis using two separate annotated datasets : the microRNA dataset and the reverse
phase protein array. The results were extremely encouraging, revealing that our integrated
deep learning model excels in both cancer type classification and prediction, as well as high
accuracy in predicting the Progression-Free Interval (PFI) score.Note de contenu : Sommaire
Abstract 1
List of Figures i
List of Tables ii
General Introduction 1
1 Biological Background 1
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 The Human Genome Project . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.3 Molecular Biology Fundamental . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3.1 Cells . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3.2 Nucleic acids . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.3 Protein . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.4 Molecular genetics . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4 Capture the Biological data . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.1 Microarray . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.2 Next Generation Sequencing . . . . . . . . . . . . . . . . . . . . . 13
1.4.3 Next Generation Sequencing . . . . . . . . . . . . . . . . . . . . . 14
1.5 Personalized Medicine and Cancer . . . . . . . . . . . . . . . . . . . . . . . 14
1.5.1 Cancer is a hereditary disease . . . . . . . . . . . . . . . . . . . . . 14
1.5.2 Personalized medicine . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.5.3 Personalized treatment of cancer . . . . . . . . . . . . . . . . . . . 15
1.5.4 Omic data integration . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.6 Bioinformatics And Cancer . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2 Theoretical Background 17
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 Machine Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.1 Machine Learning process . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.2 Machine Learning Categories . . . . . . . . . . . . . . . . . . . . . 19
2.2.3 Machine Learning Algorithms . . . . . . . . . . . . . . . . . . . . . 22
2.3 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3.1 Deep Learning Architecture . . . . . . . . . . . . . . . . . . . . . . 30
2.3.2 Deep Learning Applications . . . . . . . . . . . . . . . . . . . . . . 34
2.3.3 Deep Learning In Bioinformatics . . . . . . . . . . . . . . . . . . . 36
2.3.4 Related works summarized . . . . . . . . . . . . . . . . . . . . . . . 36
2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3 Architecture and Algorithms 40
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2 The Dataset used . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2.1 Platforms and data types . . . . . . . . . . . . . . . . . . . . . . . 42
3.3 Datasets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.4 Data preprocessing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.4.1 Data Curation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.4.2 Imputation of missing values . . . . . . . . . . . . . . . . . . . . . 47
3.4.3 Proposal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4 Framework and Results 53
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2 Implementation Framework . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2.1 Development environment . . . . . . . . . . . . . . . . . . . . . . . 53
4.2.2 Deep Learning Frameworks . . . . . . . . . . . . . . . . . . . . . . 54
4.3 Experimental results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59Côte titre : MAI/0890 Deep and Machine Learning in Predicting Cancer [texte imprimé] / Yousra Latreche, Auteur ; Rayanne Berrani ; Mediani,Chahrazed, Directeur de thèse . - [S.l.] : Setif:UFA, 2024 . - 1 vol (70 f .) ; 29 cm.
Langues : Anglais (eng)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Machine Learning
Deep Learning
Autoencoders
Cancer
MiRNA : microRNAIndex. décimale : 004 - Informatique Résumé :
The activities in genomes and proteomics are critical to the operation of any organism.
These activities are in charge of carrying out most biological operations, performing important
life functions, and making up the majority of cellular components. Malfunctions in
these systems are frequently connected to a variety of hereditary conditions. As a result,
understanding the complexities of these activities has become a critical goal for large-scale
genomics research. Nonetheless, this subject provides considerable obstacles, such as sensitivity,
high-dimensional data, and a large volume of information. These complexities make
it a difficult yet appropriate domain for the use of deep learning techniques. Deep learning
excels at handling and understanding large, complex datasets. This thesis investigates the
use of deep learning, primarily Autoencoders, to handle a classification challenge for cancer
diagnosis using two separate annotated datasets : the microRNA dataset and the reverse
phase protein array. The results were extremely encouraging, revealing that our integrated
deep learning model excels in both cancer type classification and prediction, as well as high
accuracy in predicting the Progression-Free Interval (PFI) score.Note de contenu : Sommaire
Abstract 1
List of Figures i
List of Tables ii
General Introduction 1
1 Biological Background 1
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 The Human Genome Project . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.3 Molecular Biology Fundamental . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3.1 Cells . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3.2 Nucleic acids . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.3 Protein . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.4 Molecular genetics . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4 Capture the Biological data . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.1 Microarray . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.2 Next Generation Sequencing . . . . . . . . . . . . . . . . . . . . . 13
1.4.3 Next Generation Sequencing . . . . . . . . . . . . . . . . . . . . . 14
1.5 Personalized Medicine and Cancer . . . . . . . . . . . . . . . . . . . . . . . 14
1.5.1 Cancer is a hereditary disease . . . . . . . . . . . . . . . . . . . . . 14
1.5.2 Personalized medicine . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.5.3 Personalized treatment of cancer . . . . . . . . . . . . . . . . . . . 15
1.5.4 Omic data integration . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.6 Bioinformatics And Cancer . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2 Theoretical Background 17
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 Machine Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.1 Machine Learning process . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.2 Machine Learning Categories . . . . . . . . . . . . . . . . . . . . . 19
2.2.3 Machine Learning Algorithms . . . . . . . . . . . . . . . . . . . . . 22
2.3 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3.1 Deep Learning Architecture . . . . . . . . . . . . . . . . . . . . . . 30
2.3.2 Deep Learning Applications . . . . . . . . . . . . . . . . . . . . . . 34
2.3.3 Deep Learning In Bioinformatics . . . . . . . . . . . . . . . . . . . 36
2.3.4 Related works summarized . . . . . . . . . . . . . . . . . . . . . . . 36
2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3 Architecture and Algorithms 40
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2 The Dataset used . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2.1 Platforms and data types . . . . . . . . . . . . . . . . . . . . . . . 42
3.3 Datasets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.4 Data preprocessing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.4.1 Data Curation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.4.2 Imputation of missing values . . . . . . . . . . . . . . . . . . . . . 47
3.4.3 Proposal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4 Framework and Results 53
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2 Implementation Framework . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2.1 Development environment . . . . . . . . . . . . . . . . . . . . . . . 53
4.2.2 Deep Learning Frameworks . . . . . . . . . . . . . . . . . . . . . . 54
4.3 Experimental results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59Côte titre : MAI/0890 Exemplaires
Code-barres Cote Support Localisation Section Disponibilité aucun exemplaire
Titre : Deep and Machine Learning in Predicting Cancer Type de document : texte imprimé Auteurs : Yousra Latreche, Auteur ; Rayanne Berrani ; Mediani,Chahrazed, Directeur de thèse Editeur : Setif:UFA Année de publication : 2024 Importance : 1 vol (70 f .) Format : 29 cm Langues : Anglais (eng) Catégories : Thèses & Mémoires:Informatique Mots-clés : Machine Learning
Deep Learning
Autoencoders
Cancer
MiRNA : microRNAIndex. décimale : 004 - Informatique Résumé :
The activities in genomes and proteomics are critical to the operation of any organism.
These activities are in charge of carrying out most biological operations, performing important
life functions, and making up the majority of cellular components. Malfunctions in
these systems are frequently connected to a variety of hereditary conditions. As a result,
understanding the complexities of these activities has become a critical goal for large-scale
genomics research. Nonetheless, this subject provides considerable obstacles, such as sensitivity,
high-dimensional data, and a large volume of information. These complexities make
it a difficult yet appropriate domain for the use of deep learning techniques. Deep learning
excels at handling and understanding large, complex datasets. This thesis investigates the
use of deep learning, primarily Autoencoders, to handle a classification challenge for cancer
diagnosis using two separate annotated datasets : the microRNA dataset and the reverse
phase protein array. The results were extremely encouraging, revealing that our integrated
deep learning model excels in both cancer type classification and prediction, as well as high
accuracy in predicting the Progression-Free Interval (PFI) score.Note de contenu : Sommaire
Abstract 1
List of Figures i
List of Tables ii
General Introduction 1
1 Biological Background 1
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 The Human Genome Project . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.3 Molecular Biology Fundamental . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3.1 Cells . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3.2 Nucleic acids . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.3 Protein . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.4 Molecular genetics . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4 Capture the Biological data . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.1 Microarray . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.2 Next Generation Sequencing . . . . . . . . . . . . . . . . . . . . . 13
1.4.3 Next Generation Sequencing . . . . . . . . . . . . . . . . . . . . . 14
1.5 Personalized Medicine and Cancer . . . . . . . . . . . . . . . . . . . . . . . 14
1.5.1 Cancer is a hereditary disease . . . . . . . . . . . . . . . . . . . . . 14
1.5.2 Personalized medicine . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.5.3 Personalized treatment of cancer . . . . . . . . . . . . . . . . . . . 15
1.5.4 Omic data integration . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.6 Bioinformatics And Cancer . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2 Theoretical Background 17
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 Machine Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.1 Machine Learning process . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.2 Machine Learning Categories . . . . . . . . . . . . . . . . . . . . . 19
2.2.3 Machine Learning Algorithms . . . . . . . . . . . . . . . . . . . . . 22
2.3 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3.1 Deep Learning Architecture . . . . . . . . . . . . . . . . . . . . . . 30
2.3.2 Deep Learning Applications . . . . . . . . . . . . . . . . . . . . . . 34
2.3.3 Deep Learning In Bioinformatics . . . . . . . . . . . . . . . . . . . 36
2.3.4 Related works summarized . . . . . . . . . . . . . . . . . . . . . . . 36
2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3 Architecture and Algorithms 40
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2 The Dataset used . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2.1 Platforms and data types . . . . . . . . . . . . . . . . . . . . . . . 42
3.3 Datasets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.4 Data preprocessing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.4.1 Data Curation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.4.2 Imputation of missing values . . . . . . . . . . . . . . . . . . . . . 47
3.4.3 Proposal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4 Framework and Results 53
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2 Implementation Framework . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2.1 Development environment . . . . . . . . . . . . . . . . . . . . . . . 53
4.2.2 Deep Learning Frameworks . . . . . . . . . . . . . . . . . . . . . . 54
4.3 Experimental results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59Côte titre : MAI/0890 Deep and Machine Learning in Predicting Cancer [texte imprimé] / Yousra Latreche, Auteur ; Rayanne Berrani ; Mediani,Chahrazed, Directeur de thèse . - [S.l.] : Setif:UFA, 2024 . - 1 vol (70 f .) ; 29 cm.
Langues : Anglais (eng)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Machine Learning
Deep Learning
Autoencoders
Cancer
MiRNA : microRNAIndex. décimale : 004 - Informatique Résumé :
The activities in genomes and proteomics are critical to the operation of any organism.
These activities are in charge of carrying out most biological operations, performing important
life functions, and making up the majority of cellular components. Malfunctions in
these systems are frequently connected to a variety of hereditary conditions. As a result,
understanding the complexities of these activities has become a critical goal for large-scale
genomics research. Nonetheless, this subject provides considerable obstacles, such as sensitivity,
high-dimensional data, and a large volume of information. These complexities make
it a difficult yet appropriate domain for the use of deep learning techniques. Deep learning
excels at handling and understanding large, complex datasets. This thesis investigates the
use of deep learning, primarily Autoencoders, to handle a classification challenge for cancer
diagnosis using two separate annotated datasets : the microRNA dataset and the reverse
phase protein array. The results were extremely encouraging, revealing that our integrated
deep learning model excels in both cancer type classification and prediction, as well as high
accuracy in predicting the Progression-Free Interval (PFI) score.Note de contenu : Sommaire
Abstract 1
List of Figures i
List of Tables ii
General Introduction 1
1 Biological Background 1
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 The Human Genome Project . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.3 Molecular Biology Fundamental . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3.1 Cells . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3.2 Nucleic acids . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.3 Protein . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.4 Molecular genetics . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4 Capture the Biological data . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.1 Microarray . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.2 Next Generation Sequencing . . . . . . . . . . . . . . . . . . . . . 13
1.4.3 Next Generation Sequencing . . . . . . . . . . . . . . . . . . . . . 14
1.5 Personalized Medicine and Cancer . . . . . . . . . . . . . . . . . . . . . . . 14
1.5.1 Cancer is a hereditary disease . . . . . . . . . . . . . . . . . . . . . 14
1.5.2 Personalized medicine . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.5.3 Personalized treatment of cancer . . . . . . . . . . . . . . . . . . . 15
1.5.4 Omic data integration . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.6 Bioinformatics And Cancer . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2 Theoretical Background 17
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 Machine Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.1 Machine Learning process . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.2 Machine Learning Categories . . . . . . . . . . . . . . . . . . . . . 19
2.2.3 Machine Learning Algorithms . . . . . . . . . . . . . . . . . . . . . 22
2.3 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3.1 Deep Learning Architecture . . . . . . . . . . . . . . . . . . . . . . 30
2.3.2 Deep Learning Applications . . . . . . . . . . . . . . . . . . . . . . 34
2.3.3 Deep Learning In Bioinformatics . . . . . . . . . . . . . . . . . . . 36
2.3.4 Related works summarized . . . . . . . . . . . . . . . . . . . . . . . 36
2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3 Architecture and Algorithms 40
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2 The Dataset used . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2.1 Platforms and data types . . . . . . . . . . . . . . . . . . . . . . . 42
3.3 Datasets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.4 Data preprocessing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.4.1 Data Curation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.4.2 Imputation of missing values . . . . . . . . . . . . . . . . . . . . . 47
3.4.3 Proposal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4 Framework and Results 53
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2 Implementation Framework . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2.1 Development environment . . . . . . . . . . . . . . . . . . . . . . . 53
4.2.2 Deep Learning Frameworks . . . . . . . . . . . . . . . . . . . . . . 54
4.3 Experimental results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59Côte titre : MAI/0890 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0890 MAI/0890 Mémoire Bibliothéque des sciences Anglais Disponible
Disponible
Titre : Deep AutoEncoders Recommender System Type de document : texte imprimé Auteurs : Khadidja Marmioui, Auteur ; Ouissam Hamoudi ; Mediani,Chahrazed, Directeur de thèse Editeur : Setif:UFA Année de publication : 2024 Importance : 1 vol (52 f .) Format : 29 cm Langues : Anglais (eng) Catégories : Thèses & Mémoires:Informatique Mots-clés : Recommender systems
Collaborative filtering
Deep learning
Unsupervised
AutoencodersIndex. décimale : 004 - Informatique Résumé :
Recommender systems have been very useful tools in various applications such as online
marketing, e-commerce services, and social networking applications. They are information
filtering technologies used to recommend products to users using specific techniques. Recommender
systems are classified into three types: collaborative, content-based, and hybrid.
In recent years, many studies have been conducted to improve recommender systems by integrating
deep learning techniques. As an unsupervised deep learning method, autoencoders
have been widely used for their excellent performance in data dimensionality reduction and
data reconstruction. In this thesis, we propose the construction of a collaborative recommender
system for filtering online resources. Our model architecture is based on an autoencoder,
specifically basic, deep, and denoising autoencoders, leveraging their capabilities to
improve recommendation accuracy and efficiency.Note de contenu : Sommaire
General introduction 9
1 Recommendation systems 11
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2 Recommendation systems definition . . . . . . . . . . . . . . . . . . . . . . . 12
1.3 Phases of recommendation process . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.1 Information collectionphase . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.1.1 Explicit feedback . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.1.2 Implicit feedback . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.2 Learning phase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.3 Prediction/recommendation phase . . . . . . . . . . . . . . . . . . . . 13
1.4 Recommender System Approaches . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4.1 Collaborative filtering . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4.1.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4.1.2 Types of recommendation based on collaborative filtering . . 15
1.4.1.2.1 Memory-based: . . . . . . . . . . . . . . . . . . . . 15
1.4.1.2.2 Model-based: . . . . . . . . . . . . . . . . . . . . . 16
1.4.1.3 The advantages of collaborative . . . . . . . . . . . . . . . . 16
1.4.1.4 The disadvantages of collaborative . . . . . . . . . . . . . . 16
1.4.2 Content-based filtering . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.4.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.4.2.2 The advantages of Content-based . . . . . . . . . . . . . . 18
1.4.2.3 The disadvantages of Content-based . . . . . . . . . . . . . 18
1.4.3 Hybrid filtering technique . . . . . . . . . . . . . . . . . . . . . . . . 18
1.4.3.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.4.3.2 The advantages of Hybrid . . . . . . . . . . . . . . . . . . . 19
1.4.3.3 The disadvantages of Hybrid . . . . . . . . . . . . . . . . . 19
1.5 Recommender System Applications . . . . . . . . . . . . . . . . . . . . . . . 19
1.5.1 E-Commerce & Retail: Personalized Merchandising: . . . . . . . . . . 19
1.5.2 Media & Entertainment: Personalized Content: . . . . . . . . . . . . 19
1.5.3 Personalized Banking: . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.6 Matrix Factorization for Recommendation . . . . . . . . . . . . . . . . . . . 20
1.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2 Overview on Artificial Intelligence, Machine Learning, and Deep Learning 21
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2 Artificial Intelligence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3 Machine Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3.1 Definitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3.2 Types of Machine Learning . . . . . . . . . . . . . . . . . . . . . . . 23
2.3.2.1 Supervised learning . . . . . . . . . . . . . . . . . . . . . . . 23
2.3.2.2 Unsupervised learning . . . . . . . . . . . . . . . . . . . . . 24
2.3.2.3 Semi-supervised learning . . . . . . . . . . . . . . . . . . . . 24
2.3.2.4 Reinforcement learning . . . . . . . . . . . . . . . . . . . . . 24
2.3.3 Machine Learning Algorithms . . . . . . . . . . . . . . . . . . . . . . 24
2.3.3.1 Decision trees . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.3.3.2 Support Vector Machines (SVM) . . . . . . . . . . . . . . . 25
2.3.3.3 K-means clustering . . . . . . . . . . . . . . . . . . . . . . . 25
2.4 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.4.1 Definitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.4.2 Artificial Neural Networks (ANN) . . . . . . . . . . . . . . . . . . . 26
2.4.3 Layers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.4.3.1 Input layer . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4.3.2 Hidden layer . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4.3.3 Output layer . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4.4 Deep learning architectures . . . . . . . . . . . . . . . . . . . . . . . 28
2.4.4.1 Convolutional Neural Networks (CNN) . . . . . . . . . . . . 28
2.4.4.2 Recurrent Neural Networks (RNN) . . . . . . . . . . . . . . 29
2.4.4.3 Autoencoders (AE) . . . . . . . . . . . . . . . . . . . . . . . 29
2.4.4.3.1 Undercomplete Autoencoder: . . . . . . . . . . . . 30
2.4.4.3.2 Sparse AutoEncoder (SAE): . . . . . . . . . . . . . 30
2.4.4.3.3 Denoising Autoencoder (DAE): . . . . . . . . . . . 30
2.4.4.3.4 Contractive Autoencoder(CAE): . . . . . . . . . . 31
2.4.4.3.5 Variational AutoEncoder(VAE): . . . . . . . . . . . 31
2.5 Contribution of deep learning in Recommender Systems . . . . . . . . . . . . 31
2.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3 Proposed Methodology 32
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2 Related works . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.3 Problem formulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.4 Background . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.4.1 Autoencoder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.4.2 Deep Autoencoder . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.4.3 Denoising Autoencoder . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.4.4 Loss function . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.5 The general architecture of our system . . . . . . . . . . . . . . . . . . . . . 37
3.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4 Experiments and Results 38
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2 Tools and Environment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2.1 Hardware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2.2 Software . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2.2.1 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2.2.2 Kaggle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2.2.3 Anaconda . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2.2.4 Jupyter Notebook . . . . . . . . . . . . . . . . . . . . . . . 40
4.2.2.5 Pandas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2.2.6 Numpy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2.2.7 Matplotlib . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2.2.8 Scikit-Learn . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2.2.9 Tensorflow . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.2.2.10 Keras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.3 Dataset . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.4 Evaluation metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.4.1 Root Mean Square Error (RMSE) . . . . . . . . . . . . . . . . . . . . 42
4.5 Proposed Model . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.6 Experiments and Results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.6.1 Experiment 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.6.2 Experiment 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.6.3 Experiment 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.6.4 Experiment 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.7 Comparison with Baselines . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46Côte titre : MAI/0877 Deep AutoEncoders Recommender System [texte imprimé] / Khadidja Marmioui, Auteur ; Ouissam Hamoudi ; Mediani,Chahrazed, Directeur de thèse . - [S.l.] : Setif:UFA, 2024 . - 1 vol (52 f .) ; 29 cm.
Langues : Anglais (eng)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Recommender systems
Collaborative filtering
Deep learning
Unsupervised
AutoencodersIndex. décimale : 004 - Informatique Résumé :
Recommender systems have been very useful tools in various applications such as online
marketing, e-commerce services, and social networking applications. They are information
filtering technologies used to recommend products to users using specific techniques. Recommender
systems are classified into three types: collaborative, content-based, and hybrid.
In recent years, many studies have been conducted to improve recommender systems by integrating
deep learning techniques. As an unsupervised deep learning method, autoencoders
have been widely used for their excellent performance in data dimensionality reduction and
data reconstruction. In this thesis, we propose the construction of a collaborative recommender
system for filtering online resources. Our model architecture is based on an autoencoder,
specifically basic, deep, and denoising autoencoders, leveraging their capabilities to
improve recommendation accuracy and efficiency.Note de contenu : Sommaire
General introduction 9
1 Recommendation systems 11
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2 Recommendation systems definition . . . . . . . . . . . . . . . . . . . . . . . 12
1.3 Phases of recommendation process . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.1 Information collectionphase . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.1.1 Explicit feedback . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.1.2 Implicit feedback . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.2 Learning phase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.3 Prediction/recommendation phase . . . . . . . . . . . . . . . . . . . . 13
1.4 Recommender System Approaches . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4.1 Collaborative filtering . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4.1.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4.1.2 Types of recommendation based on collaborative filtering . . 15
1.4.1.2.1 Memory-based: . . . . . . . . . . . . . . . . . . . . 15
1.4.1.2.2 Model-based: . . . . . . . . . . . . . . . . . . . . . 16
1.4.1.3 The advantages of collaborative . . . . . . . . . . . . . . . . 16
1.4.1.4 The disadvantages of collaborative . . . . . . . . . . . . . . 16
1.4.2 Content-based filtering . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.4.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.4.2.2 The advantages of Content-based . . . . . . . . . . . . . . 18
1.4.2.3 The disadvantages of Content-based . . . . . . . . . . . . . 18
1.4.3 Hybrid filtering technique . . . . . . . . . . . . . . . . . . . . . . . . 18
1.4.3.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.4.3.2 The advantages of Hybrid . . . . . . . . . . . . . . . . . . . 19
1.4.3.3 The disadvantages of Hybrid . . . . . . . . . . . . . . . . . 19
1.5 Recommender System Applications . . . . . . . . . . . . . . . . . . . . . . . 19
1.5.1 E-Commerce & Retail: Personalized Merchandising: . . . . . . . . . . 19
1.5.2 Media & Entertainment: Personalized Content: . . . . . . . . . . . . 19
1.5.3 Personalized Banking: . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.6 Matrix Factorization for Recommendation . . . . . . . . . . . . . . . . . . . 20
1.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2 Overview on Artificial Intelligence, Machine Learning, and Deep Learning 21
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2 Artificial Intelligence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3 Machine Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3.1 Definitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3.2 Types of Machine Learning . . . . . . . . . . . . . . . . . . . . . . . 23
2.3.2.1 Supervised learning . . . . . . . . . . . . . . . . . . . . . . . 23
2.3.2.2 Unsupervised learning . . . . . . . . . . . . . . . . . . . . . 24
2.3.2.3 Semi-supervised learning . . . . . . . . . . . . . . . . . . . . 24
2.3.2.4 Reinforcement learning . . . . . . . . . . . . . . . . . . . . . 24
2.3.3 Machine Learning Algorithms . . . . . . . . . . . . . . . . . . . . . . 24
2.3.3.1 Decision trees . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.3.3.2 Support Vector Machines (SVM) . . . . . . . . . . . . . . . 25
2.3.3.3 K-means clustering . . . . . . . . . . . . . . . . . . . . . . . 25
2.4 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.4.1 Definitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.4.2 Artificial Neural Networks (ANN) . . . . . . . . . . . . . . . . . . . 26
2.4.3 Layers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.4.3.1 Input layer . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4.3.2 Hidden layer . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4.3.3 Output layer . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4.4 Deep learning architectures . . . . . . . . . . . . . . . . . . . . . . . 28
2.4.4.1 Convolutional Neural Networks (CNN) . . . . . . . . . . . . 28
2.4.4.2 Recurrent Neural Networks (RNN) . . . . . . . . . . . . . . 29
2.4.4.3 Autoencoders (AE) . . . . . . . . . . . . . . . . . . . . . . . 29
2.4.4.3.1 Undercomplete Autoencoder: . . . . . . . . . . . . 30
2.4.4.3.2 Sparse AutoEncoder (SAE): . . . . . . . . . . . . . 30
2.4.4.3.3 Denoising Autoencoder (DAE): . . . . . . . . . . . 30
2.4.4.3.4 Contractive Autoencoder(CAE): . . . . . . . . . . 31
2.4.4.3.5 Variational AutoEncoder(VAE): . . . . . . . . . . . 31
2.5 Contribution of deep learning in Recommender Systems . . . . . . . . . . . . 31
2.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3 Proposed Methodology 32
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2 Related works . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.3 Problem formulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.4 Background . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.4.1 Autoencoder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.4.2 Deep Autoencoder . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.4.3 Denoising Autoencoder . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.4.4 Loss function . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.5 The general architecture of our system . . . . . . . . . . . . . . . . . . . . . 37
3.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4 Experiments and Results 38
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2 Tools and Environment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2.1 Hardware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2.2 Software . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2.2.1 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2.2.2 Kaggle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2.2.3 Anaconda . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2.2.4 Jupyter Notebook . . . . . . . . . . . . . . . . . . . . . . . 40
4.2.2.5 Pandas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2.2.6 Numpy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2.2.7 Matplotlib . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2.2.8 Scikit-Learn . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2.2.9 Tensorflow . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.2.2.10 Keras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.3 Dataset . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.4 Evaluation metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.4.1 Root Mean Square Error (RMSE) . . . . . . . . . . . . . . . . . . . . 42
4.5 Proposed Model . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.6 Experiments and Results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.6.1 Experiment 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.6.2 Experiment 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.6.3 Experiment 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.6.4 Experiment 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.7 Comparison with Baselines . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46Côte titre : MAI/0877 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0877 MAI/0877 Mémoire Bibliothéque des sciences Anglais Disponible
DisponiblePermalinkPermalinkPermalinkPermalinkPermalinkPermalinkEnhancing a Collaborative Recommender System Based on Deep Learning for Online Resources / Manar Nedjai
![]()
PermalinkEnhancing a Content-Based Recommender System using Deep Learning for Online Resources / hanane Bouaziz
![]()
PermalinkPermalinkPermalink