University Sétif 1 FERHAT ABBAS Faculty of Sciences
Détail de l'indexation
Ouvrages de la bibliothèque en indexation 004 - Informatique
![](./images/expand_all.gif)
![](./images/collapse_all.gif)
Titre : Prediction Model For Verfication of information in Social Media Type de document : texte imprimé Auteurs : Ferhat ,Hamida, Auteur ; Drif, Ahlam, Directeur de thèse Editeur : Setif:UFA Année de publication : 2019 Importance : 1 vol (64 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Informatique Mots-clés : Social Media
Fake News Detection
Feature Extraction words Embedding Techniques
Deep LearningIndex. décimale : 004 - Informatique Résumé : Due to the availability of the Internet and the willingness to share information via
social media, it is easy to create and disseminate false informations around the world. When
widely disseminated, this news can have a significant negative impact on many aspects of
life. For this reason,several researchs have been recently done to deal with fake news detection
challenge. The detection of fake news is the classification of news by its veracity.
Feature extraction is a critical task in fake news detection. Embedding techniques, such as
word embedding and deep neural networks, are attracting much attention for textual feature
extraction, and have the potential to learn better representations. In this master project, we
propose a joint Convolutional Neural Network model (CNN) and a Long Short Term Memory
(LSTM) recurrent neural network architecture, taking advantage of the coarse-grained local
features generated by CNN and long-distance dependencies learned via LSTM. An empirical
evaluation of our model shows good prediction accuracy of fake news detection, when
compared to SVM and CNN baselines.Note de contenu : Sommaire
List of Figures iv
List of Tables vi
General Introduction 1
1 Theoretical Background 4
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Machine Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Definition of Machine Learning . . . . . . . . . . . . . . . . . . . 4
1.2.2 Features and applications of Machine Learning . . . . . . . . . . . 5
1.2.3 Machine Learning Life Cycle . . . . . . . . . . . . . . . . . . . . 6
1.2.4 Types of Machine Learning . . . . . . . . . . . . . . . . . . . . . 8
1.2.4.1 Supervised Learning . . . . . . . . . . . . . . . . . . . . 8
1.2.4.2 Unsupervised Learning . . . . . . . . . . . . . . . . . . 9
1.2.4.3 Semi-supervised Learning . . . . . . . . . . . . . . . . . 10
1.2.4.4 Reinforcement Learning . . . . . . . . . . . . . . . . . . 10
1.2.5 Supervised Learning Algorithms . . . . . . . . . . . . . . . . . . . 10
1.2.5.1 Logistic Regression . . . . . . . . . . . . . . . . . . . . 10
1.2.5.2 Support Vector Machine(SVM) . . . . . . . . . . . . . . 11
1.2.5.3 Artificial Neural Networks . . . . . . . . . . . . . . . . 15
1.3 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.3.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.3.2 How Deep Learning Works? . . . . . . . . . . . . . . . . . . . . . 22
1.3.3 Convolutional Neural Networks (CNN or ConvNets ) . . . . . . . . 22
1.3.3.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.3.3.2 CNN’s Architecture . . . . . . . . . . . . . . . . . . . . 22
1.3.4 The Recurrent Neural Network . . . . . . . . . . . . . . . . . . . 24
1.3.4.1 Long Short-Term memory Networks (LSTMs) . . . . . . 25
1.3.4.2 Diffrences With CNN [37] . . . . . . . . . . . . . . . . 26
1.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
i
2 NLP: Literature Review 28
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2 Natural Language Processing (NLP) . . . . . . . . . . . . . . . . . . . . . 28
2.3 Linguistic knowledge in NLP . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.4 NLP Difficulties . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.5 How does NLP Works? . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.6 Techniques to Understand Text . . . . . . . . . . . . . . . . . . . . . . . . 30
2.6.1 Text Processing . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.6.1.1 Data Preprocessing . . . . . . . . . . . . . . . . . . . . 30
2.6.1.2 Feature Extraction . . . . . . . . . . . . . . . . . . . . . 31
2.6.1.3 Choosing ML Algorithms . . . . . . . . . . . . . . . . . 33
2.7 Applications of NLP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3 A Survey On Fake News Detection 35
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2 Fake News definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.3 Type of False Informations . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.3.1 Categorization based on intent . . . . . . . . . . . . . . . . . . . . 36
3.3.2 Categorization based on knowledge . . . . . . . . . . . . . . . . . 36
3.4 The factors influencing fake news consumptions . . . . . . . . . . . . . . . 36
3.5 Fake News Detection Methods . . . . . . . . . . . . . . . . . . . . . . . . 37
3.6 Fake News Datasets Sources . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4 Combining CNN-LSTM deep learning model for fake news detection 41
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.2 Problem formulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.3 Proposed Methodology . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.3.1 Dataset analysis phase . . . . . . . . . . . . . . . . . . . . . . . . 42
4.3.1.1 Liar dataset: a benchmark dataset for fake news detection 42
4.3.2 Text preprocessing phase . . . . . . . . . . . . . . . . . . . . . . . 47
4.3.2.1 Word representation phase . . . . . . . . . . . . . . . . . 47
4.3.3 The CNN-LSTM model construction . . . . . . . . . . . . . . . . 48
4.3.3.1 Convolutional Neural Networks Architecture . . . . . . . 48
4.3.3.2 Combaining CNN and LSTM . . . . . . . . . . . . . . . 49
4.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
ii
5 Implementation and Results 52
5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.2 Implementation Framework . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.2.1 Deep learning frameworks . . . . . . . . . . . . . . . . . . . . . . 52
5.2.1.1 Tensorflow . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2.1.2 Keras . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2.2 Environment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2.2.1 Anaconda Distribution . . . . . . . . . . . . . . . . . . . 53
5.2.2.2 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2.2.3 The Jupyter Notebook . . . . . . . . . . . . . . . . . . . 54
5.2.2.4 Pandas . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.2.2.5 NumPy . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.2.2.6 Matplotlib and Seaborn . . . . . . . . . . . . . . . . . . 54
5.2.2.7 Scikit-learn . . . . . . . . . . . . . . . . . . . . . . . . 55
5.2.2.8 NLTK and TextBlob . . . . . . . . . . . . . . . . . . . . 55
5.3 Evaluation Metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.3.1 Confusion Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.3.2 Classification accuracy . . . . . . . . . . . . . . . . . . . . . . . . 56
5.3.3 Classification report . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.4 Implementation and experimental setup . . . . . . . . . . . . . . . . . . . 56
5.5 Results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
Conclusion 63
Bibliography 64
iii
ListCôte titre : MAI/0325 En ligne : https://drive.google.com/file/d/1V_FNqtjnQEWbO33-FSmfv6XFXzZuLJOt/view?usp=shari [...] Format de la ressource électronique : Prediction Model For Verfication of information in Social Media [texte imprimé] / Ferhat ,Hamida, Auteur ; Drif, Ahlam, Directeur de thèse . - [S.l.] : Setif:UFA, 2019 . - 1 vol (64 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Social Media
Fake News Detection
Feature Extraction words Embedding Techniques
Deep LearningIndex. décimale : 004 - Informatique Résumé : Due to the availability of the Internet and the willingness to share information via
social media, it is easy to create and disseminate false informations around the world. When
widely disseminated, this news can have a significant negative impact on many aspects of
life. For this reason,several researchs have been recently done to deal with fake news detection
challenge. The detection of fake news is the classification of news by its veracity.
Feature extraction is a critical task in fake news detection. Embedding techniques, such as
word embedding and deep neural networks, are attracting much attention for textual feature
extraction, and have the potential to learn better representations. In this master project, we
propose a joint Convolutional Neural Network model (CNN) and a Long Short Term Memory
(LSTM) recurrent neural network architecture, taking advantage of the coarse-grained local
features generated by CNN and long-distance dependencies learned via LSTM. An empirical
evaluation of our model shows good prediction accuracy of fake news detection, when
compared to SVM and CNN baselines.Note de contenu : Sommaire
List of Figures iv
List of Tables vi
General Introduction 1
1 Theoretical Background 4
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Machine Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Definition of Machine Learning . . . . . . . . . . . . . . . . . . . 4
1.2.2 Features and applications of Machine Learning . . . . . . . . . . . 5
1.2.3 Machine Learning Life Cycle . . . . . . . . . . . . . . . . . . . . 6
1.2.4 Types of Machine Learning . . . . . . . . . . . . . . . . . . . . . 8
1.2.4.1 Supervised Learning . . . . . . . . . . . . . . . . . . . . 8
1.2.4.2 Unsupervised Learning . . . . . . . . . . . . . . . . . . 9
1.2.4.3 Semi-supervised Learning . . . . . . . . . . . . . . . . . 10
1.2.4.4 Reinforcement Learning . . . . . . . . . . . . . . . . . . 10
1.2.5 Supervised Learning Algorithms . . . . . . . . . . . . . . . . . . . 10
1.2.5.1 Logistic Regression . . . . . . . . . . . . . . . . . . . . 10
1.2.5.2 Support Vector Machine(SVM) . . . . . . . . . . . . . . 11
1.2.5.3 Artificial Neural Networks . . . . . . . . . . . . . . . . 15
1.3 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.3.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.3.2 How Deep Learning Works? . . . . . . . . . . . . . . . . . . . . . 22
1.3.3 Convolutional Neural Networks (CNN or ConvNets ) . . . . . . . . 22
1.3.3.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.3.3.2 CNN’s Architecture . . . . . . . . . . . . . . . . . . . . 22
1.3.4 The Recurrent Neural Network . . . . . . . . . . . . . . . . . . . 24
1.3.4.1 Long Short-Term memory Networks (LSTMs) . . . . . . 25
1.3.4.2 Diffrences With CNN [37] . . . . . . . . . . . . . . . . 26
1.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
i
2 NLP: Literature Review 28
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2 Natural Language Processing (NLP) . . . . . . . . . . . . . . . . . . . . . 28
2.3 Linguistic knowledge in NLP . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.4 NLP Difficulties . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.5 How does NLP Works? . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.6 Techniques to Understand Text . . . . . . . . . . . . . . . . . . . . . . . . 30
2.6.1 Text Processing . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.6.1.1 Data Preprocessing . . . . . . . . . . . . . . . . . . . . 30
2.6.1.2 Feature Extraction . . . . . . . . . . . . . . . . . . . . . 31
2.6.1.3 Choosing ML Algorithms . . . . . . . . . . . . . . . . . 33
2.7 Applications of NLP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3 A Survey On Fake News Detection 35
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2 Fake News definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.3 Type of False Informations . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.3.1 Categorization based on intent . . . . . . . . . . . . . . . . . . . . 36
3.3.2 Categorization based on knowledge . . . . . . . . . . . . . . . . . 36
3.4 The factors influencing fake news consumptions . . . . . . . . . . . . . . . 36
3.5 Fake News Detection Methods . . . . . . . . . . . . . . . . . . . . . . . . 37
3.6 Fake News Datasets Sources . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4 Combining CNN-LSTM deep learning model for fake news detection 41
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.2 Problem formulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.3 Proposed Methodology . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.3.1 Dataset analysis phase . . . . . . . . . . . . . . . . . . . . . . . . 42
4.3.1.1 Liar dataset: a benchmark dataset for fake news detection 42
4.3.2 Text preprocessing phase . . . . . . . . . . . . . . . . . . . . . . . 47
4.3.2.1 Word representation phase . . . . . . . . . . . . . . . . . 47
4.3.3 The CNN-LSTM model construction . . . . . . . . . . . . . . . . 48
4.3.3.1 Convolutional Neural Networks Architecture . . . . . . . 48
4.3.3.2 Combaining CNN and LSTM . . . . . . . . . . . . . . . 49
4.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
ii
5 Implementation and Results 52
5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.2 Implementation Framework . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.2.1 Deep learning frameworks . . . . . . . . . . . . . . . . . . . . . . 52
5.2.1.1 Tensorflow . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2.1.2 Keras . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2.2 Environment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2.2.1 Anaconda Distribution . . . . . . . . . . . . . . . . . . . 53
5.2.2.2 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2.2.3 The Jupyter Notebook . . . . . . . . . . . . . . . . . . . 54
5.2.2.4 Pandas . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.2.2.5 NumPy . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.2.2.6 Matplotlib and Seaborn . . . . . . . . . . . . . . . . . . 54
5.2.2.7 Scikit-learn . . . . . . . . . . . . . . . . . . . . . . . . 55
5.2.2.8 NLTK and TextBlob . . . . . . . . . . . . . . . . . . . . 55
5.3 Evaluation Metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.3.1 Confusion Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.3.2 Classification accuracy . . . . . . . . . . . . . . . . . . . . . . . . 56
5.3.3 Classification report . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.4 Implementation and experimental setup . . . . . . . . . . . . . . . . . . . 56
5.5 Results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
Conclusion 63
Bibliography 64
iii
ListCôte titre : MAI/0325 En ligne : https://drive.google.com/file/d/1V_FNqtjnQEWbO33-FSmfv6XFXzZuLJOt/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0325 MAI/0325 Mémoire Bibliothéque des sciences Français Disponible
DisponiblePrédiction des performances des apprenants en découvrant les relations inter-activités / Tlemcani ,Alaeddin
![]()
Titre : Prédiction des performances des apprenants en découvrant les relations inter-activités Type de document : texte imprimé Auteurs : Tlemcani ,Alaeddin, Auteur ; Harbouch,Khadija, Directeur de thèse Editeur : Setif:UFA Année de publication : 2019 Importance : 1 vol (59 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Informatique Mots-clés : Informatique Index. décimale : 004 - Informatique Résumé : La prédiction des performances des apprenants est devenue l’une des approches les
plus populaires de la fuite d’un grand volume de données sur le mode de vie de ces
apprenants, car l’éducation n’est plus un événement pour une petit période mais une
expérience de toute la vie. Parmi les raisons d’utilisé cette approches est que la vie
de travail est maintenant tres longues et que les gens doivent continuer à apprendre
tout au long de leur carrière alors que le modèle classique d’éducation ne s’adapte pas
avec ces besoins de la part du constante évolution,le marché d’informatique innove
des nouvelles techniques pour permettre les travailleurs d’apprendre de nouvelles façons,
Les Cours En ligne Ouverts Et Massifs (MOOC). Dans les MOOCS, les prévisions
de la performance future d’un élève pourraient être critique pour faciliter les interventions
éducatives opportunes au cours d’un cours Cependant, très peu d’études
antérieures ont exploré ce problème. Dans nos travaux, nous utiliserons des méthodes
déférentes pour prédire les performances des élèves en utilisant des données
contenant leur mode de vie afin de connaître les méthodes, les types et le moment
d’apprentissage.Note de contenu : Sommaire
Contents iv
List of Figures v
List of Tables v
1 General Introduction 1
General Introduction 1
General Introduction 1
1.1 Retailed Works . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Research Objectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Thesis Organization . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2 Online Learning 5
2.1 Online Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2 Online Learning vs Traditional Instruction . . . . . . . . . . . . . . . . 6
2.3 Advantages Of Online Learning . . . . . . . . . . . . . . . . . . . . . . 7
2.4 Disadvantages Of Online Learning . . . . . . . . . . . . . . . . . . . . . 8
2.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3 Massive Open Online Courses 10
3.1 Historical Background . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.2 MOOC Characteristics . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.3 Types of MOOC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.4 Benefits of MOOC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4 Educational data mining 16
4.1 Big Data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.2 Edm Methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.3 Relationship Mining . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.4 Edm Aplication . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
5 Machine Learning 23
5.1 Machine Learning process . . . . . . . . . . . . . . . . . . . . . . . . . 23
5.2 Machine Learning types . . . . . . . . . . . . . . . . . . . . . . . . . . 24
iv
CONTENTS
5.3 Prediction Techniques and Algorithms . . . . . . . . . . . . . . . . . . 25
5.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
6 Methodology and results 44
6.1 DATASETS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
6.2 Methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
Conclusion 54
Bibliography 55
vCôte titre : MAI/0330 En ligne : https://drive.google.com/file/d/1f_LEv3Zzdr6fBJukgKl5SnAsB5DC-TnQ/view?usp=shari [...] Format de la ressource électronique : Prédiction des performances des apprenants en découvrant les relations inter-activités [texte imprimé] / Tlemcani ,Alaeddin, Auteur ; Harbouch,Khadija, Directeur de thèse . - [S.l.] : Setif:UFA, 2019 . - 1 vol (59 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Informatique Index. décimale : 004 - Informatique Résumé : La prédiction des performances des apprenants est devenue l’une des approches les
plus populaires de la fuite d’un grand volume de données sur le mode de vie de ces
apprenants, car l’éducation n’est plus un événement pour une petit période mais une
expérience de toute la vie. Parmi les raisons d’utilisé cette approches est que la vie
de travail est maintenant tres longues et que les gens doivent continuer à apprendre
tout au long de leur carrière alors que le modèle classique d’éducation ne s’adapte pas
avec ces besoins de la part du constante évolution,le marché d’informatique innove
des nouvelles techniques pour permettre les travailleurs d’apprendre de nouvelles façons,
Les Cours En ligne Ouverts Et Massifs (MOOC). Dans les MOOCS, les prévisions
de la performance future d’un élève pourraient être critique pour faciliter les interventions
éducatives opportunes au cours d’un cours Cependant, très peu d’études
antérieures ont exploré ce problème. Dans nos travaux, nous utiliserons des méthodes
déférentes pour prédire les performances des élèves en utilisant des données
contenant leur mode de vie afin de connaître les méthodes, les types et le moment
d’apprentissage.Note de contenu : Sommaire
Contents iv
List of Figures v
List of Tables v
1 General Introduction 1
General Introduction 1
General Introduction 1
1.1 Retailed Works . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Research Objectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Thesis Organization . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2 Online Learning 5
2.1 Online Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2 Online Learning vs Traditional Instruction . . . . . . . . . . . . . . . . 6
2.3 Advantages Of Online Learning . . . . . . . . . . . . . . . . . . . . . . 7
2.4 Disadvantages Of Online Learning . . . . . . . . . . . . . . . . . . . . . 8
2.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3 Massive Open Online Courses 10
3.1 Historical Background . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.2 MOOC Characteristics . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.3 Types of MOOC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.4 Benefits of MOOC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4 Educational data mining 16
4.1 Big Data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.2 Edm Methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.3 Relationship Mining . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.4 Edm Aplication . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
5 Machine Learning 23
5.1 Machine Learning process . . . . . . . . . . . . . . . . . . . . . . . . . 23
5.2 Machine Learning types . . . . . . . . . . . . . . . . . . . . . . . . . . 24
iv
CONTENTS
5.3 Prediction Techniques and Algorithms . . . . . . . . . . . . . . . . . . 25
5.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
6 Methodology and results 44
6.1 DATASETS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
6.2 Methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
Conclusion 54
Bibliography 55
vCôte titre : MAI/0330 En ligne : https://drive.google.com/file/d/1f_LEv3Zzdr6fBJukgKl5SnAsB5DC-TnQ/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0330 MAI/0330 Mémoire Bibliothéque des sciences Français Disponible
DisponiblePremier cours de programmation avec schéme du fonctionnel pur aux objets avec drscheme / ROY,Jean-Paul
Titre : Premier cours de programmation avec schéme du fonctionnel pur aux objets avec drscheme Type de document : texte imprimé Auteurs : ROY,Jean-Paul Editeur : Paris : Ellipses Année de publication : 2010 Collection : Cours et exercices Importance : 1 vol. (430 p.) Présentation : ill. Format : 25 cm ISBN/ISSN/EAN : 978-2-7298-6081-3 Langues : Français (fre) Catégories : Informatique Mots-clés : Informatique, Programmation fonctionnelle, Schéme, Langage impératif Index. décimale : 004 - Informatique Résumé :
Le langage algorithmique Scheme est utilisé dans de nombreuses universités du monde, à la fois pour la formation initiale des étudiants à la programmation et pour la recherche fondamentale sur les problèmes de sémantique des langages ou de programmation du Web.
Initialement friand du style fonctionnel, il permet néanmoins au programmeur d'en adopter un autre pour le problème en cours : impératif, par objets, paresseux, etc. Cette capacité à absorber tous les paradigmes de programmation en fait un extraordinaire vecteur de compréhension des langages. Ce livre est rédigé sous la forme d'un cours pour grands débutants, du lycée aux écoles d'ingénieurs, mais il a été augmenté d'aspects avancés comme l'interprétation, les analyseurs syntaxiques ou les continuations, de manière à satisfaire un lecteur auto-didacte souhaitant se tenir au courant de ce qui fait l'essentiel d'un langage de programmation moderne. De nombreux exercices terminent chaque chapitre.
Le logiciel utilisé est DrRacket, anciennement DrScheme, gratuit sur tous les systèmes d'exploitation. Il contient tout le nécessaire pour programmer en Scheme, construire des interfaces graphiques et accéder à Internet.Note de contenu :
Sommaire
1- La programmation fonctionnelle
Les expressions préfixées
Les fonctions
Construire des images
2- L'impératif et les objets
La mutation
Le texte et les entrées-sorties
La programmation par objets et l'API graphique
3- Syntaxe et sémantique
Des analyseurs syntaxiques
Interprétation d'un sous-ensemble de Scheme
La prise en main du contrôleCôte titre : Fs/7024-7025 Premier cours de programmation avec schéme du fonctionnel pur aux objets avec drscheme [texte imprimé] / ROY,Jean-Paul . - Paris : Ellipses, 2010 . - 1 vol. (430 p.) : ill. ; 25 cm. - (Cours et exercices) .
ISBN : 978-2-7298-6081-3
Langues : Français (fre)
Catégories : Informatique Mots-clés : Informatique, Programmation fonctionnelle, Schéme, Langage impératif Index. décimale : 004 - Informatique Résumé :
Le langage algorithmique Scheme est utilisé dans de nombreuses universités du monde, à la fois pour la formation initiale des étudiants à la programmation et pour la recherche fondamentale sur les problèmes de sémantique des langages ou de programmation du Web.
Initialement friand du style fonctionnel, il permet néanmoins au programmeur d'en adopter un autre pour le problème en cours : impératif, par objets, paresseux, etc. Cette capacité à absorber tous les paradigmes de programmation en fait un extraordinaire vecteur de compréhension des langages. Ce livre est rédigé sous la forme d'un cours pour grands débutants, du lycée aux écoles d'ingénieurs, mais il a été augmenté d'aspects avancés comme l'interprétation, les analyseurs syntaxiques ou les continuations, de manière à satisfaire un lecteur auto-didacte souhaitant se tenir au courant de ce qui fait l'essentiel d'un langage de programmation moderne. De nombreux exercices terminent chaque chapitre.
Le logiciel utilisé est DrRacket, anciennement DrScheme, gratuit sur tous les systèmes d'exploitation. Il contient tout le nécessaire pour programmer en Scheme, construire des interfaces graphiques et accéder à Internet.Note de contenu :
Sommaire
1- La programmation fonctionnelle
Les expressions préfixées
Les fonctions
Construire des images
2- L'impératif et les objets
La mutation
Le texte et les entrées-sorties
La programmation par objets et l'API graphique
3- Syntaxe et sémantique
Des analyseurs syntaxiques
Interprétation d'un sous-ensemble de Scheme
La prise en main du contrôleCôte titre : Fs/7024-7025 Exemplaires (2)
Code-barres Cote Support Localisation Section Disponibilité Fs/7024 Fs/7024-7025 livre Bibliothéque des sciences Français Disponible
DisponibleFs/7025 Fs/7024-7025 livre Bibliothéque des sciences Français Disponible
Disponible
Titre : Un premier cours de programmation en Pascal Type de document : texte imprimé Auteurs : Keller,Arthur M ; MIAUX,Michel,Trad. ; Goutier,Claude, Trad Editeur : Montréal : McGraw-Hill Année de publication : 1985 Importance : 1 vol (367 p.) Format : 28 cm ISBN/ISSN/EAN : 978-0-07-548669-5 Note générale : 978-0-07-548669-5 Langues : Français (fre) Catégories : Informatique Mots-clés : Informatique
Langage Pascal
ProgrammationIndex. décimale : 004 - Informatique Côte titre : Fs/8740 Un premier cours de programmation en Pascal [texte imprimé] / Keller,Arthur M ; MIAUX,Michel,Trad. ; Goutier,Claude, Trad . - Montréal : McGraw-Hill, 1985 . - 1 vol (367 p.) ; 28 cm.
ISBN : 978-0-07-548669-5
978-0-07-548669-5
Langues : Français (fre)
Catégories : Informatique Mots-clés : Informatique
Langage Pascal
ProgrammationIndex. décimale : 004 - Informatique Côte titre : Fs/8740 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité Fs/8740 Fs/8740 livre Bibliothéque des sciences Français Disponible
Disponible
Titre : Premier livre de programmation Type de document : texte imprimé Auteurs : Mondou,Odette Arsac ; Camescsse,Christiane Bourgeois ; Mireille Gourtay Editeur : Paris : CEDIC Année de publication : 1982 Importance : 1 vol (214 p.) Présentation : ill. Format : 21 cm ISBN/ISSN/EAN : 978-2-7124-0313-3 Note générale : 978-2-7124-0313-3 Langues : Français (fre) Catégories : Informatique Mots-clés : Informatique
ProgrammationIndex. décimale : 004 - Informatique Côte titre : Fs/8615 Premier livre de programmation [texte imprimé] / Mondou,Odette Arsac ; Camescsse,Christiane Bourgeois ; Mireille Gourtay . - Paris : CEDIC, 1982 . - 1 vol (214 p.) : ill. ; 21 cm.
ISBN : 978-2-7124-0313-3
978-2-7124-0313-3
Langues : Français (fre)
Catégories : Informatique Mots-clés : Informatique
ProgrammationIndex. décimale : 004 - Informatique Côte titre : Fs/8615 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité Fs/8615 Fs/8615 livre Bibliothéque des sciences Français Disponible
DisponiblePermalinkPermalinkPermalinkPermalinkPro Deep Learning with TensorFlow 2.0: A Mathematical Approach to Advanced Artificial Intelligence in Python / Pattanayak Santanu
PermalinkProblème de couverture des frontières dansles réseaux de capteurs sans fil. / Belkadi ,Aya Maïssoune
![]()
PermalinkPermalinkPermalinkPermalinkPermalink