University Sétif 1 FERHAT ABBAS Faculty of Sciences
Détail de l'auteur
Auteur Nassim Saoula |
Documents disponibles écrits par cet auteur



Titre : Event detection in Online social media using Deep Learning Type de document : texte imprimé Auteurs : Nassim Saoula, Auteur ; Haithem Bouras ; Lakhfif, Abdelaziz, Directeur de thèse Editeur : Setif:UFA Année de publication : 2024 Importance : 1 vol (66 f .) Format : 29 cm Langues : Anglais (eng) Catégories : Thèses & Mémoires:Informatique Mots-clés : Event detection
Online social media
Deep learning
NLP
BERT-CNN modelIndex. décimale : 004 - Informatique Résumé : In recent years, the popularity of social media has transformed how
information is shared and used, enabling real-time insights into global events.
In this Master thesis, we explore the task of event detection on social media
platforms, using latest deep learning techniques. The main objective is to create
and test methods that improve the accuracy and efficiency of detecting useful
events from online and unstructured social media data streams.
We develop and evaluate a BERT-CNN model that leverages BERT’s
contextual understanding and CNN’s pattern recognition capabilities for
enhanced event detection on MAVEN Dataset.
Our experimental results demonstrate that our proposed model improves
precision and recall compared to existing approaches.
In conclusion, this study provides valuable insights and approaches for event
detection, highlighting the effectiveness of the BERT-CNN model. We also offer
suggestions for future research and improvement in this rapidly growing field.Note de contenu : Sommaire
Dedication iii
Acknowledgements iv
Abstract v
Abstract vi
vii
Table of Contents viii
List of Figures xii
List of Tables xiii
General Introduction 1
1.1 Chapter I: Social Media . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Chapter II: Event Detection . . . . . . . . . . . . . . . . . . . . . . . . 1
1.3 Chapter III: Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . 2
1.4 Chapter IV: State of the Art . . . . . . . . . . . . . . . . . . . . . . . . 2
1.5 Chapter V: Experiments and Results . . . . . . . . . . . . . . . . . . . 2
Chapter I:
Social Media 4
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Definition of online social network . . . . . . . . . . . . . . . . . . . . . 5
1.3 Microblogging . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Most used social media platforms . . . . . . . . . . . . . . . . . . . . . 7
1.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
Chapter II:
Event Detection 9
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2 Significance of Event Detection . . . . . . . . . . . . . . . . . . . . . . 10
2.3 Methodologies in Event Detection . . . . . . . . . . . . . . . . . . . . . 10
2.3.1 Machine Learning Models: . . . . . . . . . . . . . . . . . . . . . 10
2.3.2 Topic Modeling: . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3.3 Graph-based Algorithms: . . . . . . . . . . . . . . . . . . . . . . 11
2.4 Data Representation for Event Detection . . . . . . . . . . . . . . . . . 11
2.5 Challenges in Event Detection . . . . . . . . . . . . . . . . . . . . . . . 12
2.5.1 Volume and Velocity: . . . . . . . . . . . . . . . . . . . . . . . . 12
2.5.2 Real-Time Event Detection: . . . . . . . . . . . . . . . . . . . . 12
2.5.3 Noise and Veracity: . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.5.4 Feature Engineering: . . . . . . . . . . . . . . . . . . . . . . . . 12
2.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
Chapter III:
Deep Learning 14
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2 machine learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2.1 definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2.2 Machine learning and Problem solving . . . . . . . . . . . . . . 16
3.2.3 Keywords and Concepts in Machine Learning . . . . . . . . . . 16
3.2.4 Supervised Learning: . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2.5 Unsupervised Learning: . . . . . . . . . . . . . . . . . . . . . . . 21
3.3 Deep Learning: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.3.1 difference between deep and machine learning: . . . . . . . . . . 23
3.3.2 Transformers . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.3.3 Bidirectional Encoder Representations from Transformers (BERT) 24
3.3.4 Neural Networks: . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.3.5 Methods and Applications of Deep Learning . . . . . . . . . . . 26
3.3.6 Backpropagation . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.3.7 Optimization in Deep Learning . . . . . . . . . . . . . . . . . . 28
3.3.8 Optimization issues . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3.9 Regularisation in deep learning . . . . . . . . . . . . . . . . . . 28
3.3.10 L1 and L2 regularization techniques . . . . . . . . . . . . . . . . 28
3.3.11 L1 regularization . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.3.12 L2 regularization . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.4 Hyperparameters & fine-tuning . . . . . . . . . . . . . . . . . . . . . . 30
3.4.1 Batch size: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.4.2 Learning rate . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.4.3 Epoch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.5 Activation functions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.5.1 Sigmoid Function . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.5.2 Softmax Function . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.5.3 Rectified Linear Unit (ReLU) Function . . . . . . . . . . . . . . 31
3.6 CNN Fundamentals . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.6.1 Input Image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.6.2 Pooling Layer . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.6.3 Average Pooling . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.7 conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
Chapter IV:
State of the art 34
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.2 Research works on event detection: . . . . . . . . . . . . . . . . . . . . 35
4.3 Understanding the Data . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.3.1 Challenges . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.3.2 methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.3.3 Engineers Contributions to Event Detection in Social Networks: 40
4.3.4 Evaluation Models . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.3.5 Statistical Measures . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
Chapter V:
Experiments & Result 45
5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.2 Dataset Description . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.2.1 Data augmentation: . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.2.2 Final Choice: . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.3 Development environment . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.3.1 Software & Hardware: . . . . . . . . . . . . . . . . . . . . . . . 48
5.4 Proposed model . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.4.1 BERT-CNN Model Combination . . . . . . . . . . . . . . . . . 50
5.5 Metrics: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.6 Experiments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.6.1 Experiment 1: Baseline Model . . . . . . . . . . . . . . . . . . . 51
5.6.2 Experiment 2: Enhanced Preprocessing . . . . . . . . . . . . . . 52
5.6.3 Experiment 3: Data Augmentation . . . . . . . . . . . . . . . . 53
5.6.4 Results Comparison . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.7 Comparison with Existing Models . . . . . . . . . . . . . . . . . . . . . 55
5.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
General conclusion 57
5.9 Future work . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57Côte titre : MAI/0880 Event detection in Online social media using Deep Learning [texte imprimé] / Nassim Saoula, Auteur ; Haithem Bouras ; Lakhfif, Abdelaziz, Directeur de thèse . - [S.l.] : Setif:UFA, 2024 . - 1 vol (66 f .) ; 29 cm.
Langues : Anglais (eng)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Event detection
Online social media
Deep learning
NLP
BERT-CNN modelIndex. décimale : 004 - Informatique Résumé : In recent years, the popularity of social media has transformed how
information is shared and used, enabling real-time insights into global events.
In this Master thesis, we explore the task of event detection on social media
platforms, using latest deep learning techniques. The main objective is to create
and test methods that improve the accuracy and efficiency of detecting useful
events from online and unstructured social media data streams.
We develop and evaluate a BERT-CNN model that leverages BERT’s
contextual understanding and CNN’s pattern recognition capabilities for
enhanced event detection on MAVEN Dataset.
Our experimental results demonstrate that our proposed model improves
precision and recall compared to existing approaches.
In conclusion, this study provides valuable insights and approaches for event
detection, highlighting the effectiveness of the BERT-CNN model. We also offer
suggestions for future research and improvement in this rapidly growing field.Note de contenu : Sommaire
Dedication iii
Acknowledgements iv
Abstract v
Abstract vi
vii
Table of Contents viii
List of Figures xii
List of Tables xiii
General Introduction 1
1.1 Chapter I: Social Media . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Chapter II: Event Detection . . . . . . . . . . . . . . . . . . . . . . . . 1
1.3 Chapter III: Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . 2
1.4 Chapter IV: State of the Art . . . . . . . . . . . . . . . . . . . . . . . . 2
1.5 Chapter V: Experiments and Results . . . . . . . . . . . . . . . . . . . 2
Chapter I:
Social Media 4
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Definition of online social network . . . . . . . . . . . . . . . . . . . . . 5
1.3 Microblogging . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Most used social media platforms . . . . . . . . . . . . . . . . . . . . . 7
1.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
Chapter II:
Event Detection 9
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2 Significance of Event Detection . . . . . . . . . . . . . . . . . . . . . . 10
2.3 Methodologies in Event Detection . . . . . . . . . . . . . . . . . . . . . 10
2.3.1 Machine Learning Models: . . . . . . . . . . . . . . . . . . . . . 10
2.3.2 Topic Modeling: . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3.3 Graph-based Algorithms: . . . . . . . . . . . . . . . . . . . . . . 11
2.4 Data Representation for Event Detection . . . . . . . . . . . . . . . . . 11
2.5 Challenges in Event Detection . . . . . . . . . . . . . . . . . . . . . . . 12
2.5.1 Volume and Velocity: . . . . . . . . . . . . . . . . . . . . . . . . 12
2.5.2 Real-Time Event Detection: . . . . . . . . . . . . . . . . . . . . 12
2.5.3 Noise and Veracity: . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.5.4 Feature Engineering: . . . . . . . . . . . . . . . . . . . . . . . . 12
2.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
Chapter III:
Deep Learning 14
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2 machine learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2.1 definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2.2 Machine learning and Problem solving . . . . . . . . . . . . . . 16
3.2.3 Keywords and Concepts in Machine Learning . . . . . . . . . . 16
3.2.4 Supervised Learning: . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2.5 Unsupervised Learning: . . . . . . . . . . . . . . . . . . . . . . . 21
3.3 Deep Learning: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.3.1 difference between deep and machine learning: . . . . . . . . . . 23
3.3.2 Transformers . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.3.3 Bidirectional Encoder Representations from Transformers (BERT) 24
3.3.4 Neural Networks: . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.3.5 Methods and Applications of Deep Learning . . . . . . . . . . . 26
3.3.6 Backpropagation . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.3.7 Optimization in Deep Learning . . . . . . . . . . . . . . . . . . 28
3.3.8 Optimization issues . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3.9 Regularisation in deep learning . . . . . . . . . . . . . . . . . . 28
3.3.10 L1 and L2 regularization techniques . . . . . . . . . . . . . . . . 28
3.3.11 L1 regularization . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.3.12 L2 regularization . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.4 Hyperparameters & fine-tuning . . . . . . . . . . . . . . . . . . . . . . 30
3.4.1 Batch size: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.4.2 Learning rate . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.4.3 Epoch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.5 Activation functions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.5.1 Sigmoid Function . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.5.2 Softmax Function . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.5.3 Rectified Linear Unit (ReLU) Function . . . . . . . . . . . . . . 31
3.6 CNN Fundamentals . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.6.1 Input Image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.6.2 Pooling Layer . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.6.3 Average Pooling . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.7 conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
Chapter IV:
State of the art 34
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.2 Research works on event detection: . . . . . . . . . . . . . . . . . . . . 35
4.3 Understanding the Data . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.3.1 Challenges . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.3.2 methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.3.3 Engineers Contributions to Event Detection in Social Networks: 40
4.3.4 Evaluation Models . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.3.5 Statistical Measures . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
Chapter V:
Experiments & Result 45
5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.2 Dataset Description . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.2.1 Data augmentation: . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.2.2 Final Choice: . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.3 Development environment . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.3.1 Software & Hardware: . . . . . . . . . . . . . . . . . . . . . . . 48
5.4 Proposed model . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.4.1 BERT-CNN Model Combination . . . . . . . . . . . . . . . . . 50
5.5 Metrics: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.6 Experiments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.6.1 Experiment 1: Baseline Model . . . . . . . . . . . . . . . . . . . 51
5.6.2 Experiment 2: Enhanced Preprocessing . . . . . . . . . . . . . . 52
5.6.3 Experiment 3: Data Augmentation . . . . . . . . . . . . . . . . 53
5.6.4 Results Comparison . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.7 Comparison with Existing Models . . . . . . . . . . . . . . . . . . . . . 55
5.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
General conclusion 57
5.9 Future work . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57Côte titre : MAI/0880 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0880 MAI/0880 Mémoire Bibliothéque des sciences Anglais Disponible
Disponible