University Sétif 1 FERHAT ABBAS Faculty of Sciences
Détail de l'auteur
Auteur Drif ahlem |
Documents disponibles écrits par cet auteur



Titre : A Deep learning model for predicting information diffusion in social networks Type de document : texte imprimé Auteurs : Hadjoudj ,Khalil, Auteur ; Drif ahlem, Directeur de thèse Editeur : Setif:UFA Année de publication : 2019 Importance : 1 vol (74 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Informatique Mots-clés : Apprentissage automatique
SupportVector Machine(SVM)
Régression
logistique,
Long Short memory
Réseau sociaux
diffusion de l’information
sentimentsIndex. décimale : 004 - Informatique Résumé : les réseau sociaux sont devenu un outil très important pour diffuser
une information. Plusieurs études sont faites dans le but de comprendre
le phénomène de la diffusion de l’information. Dans cette
thèse de master, on présente un modèle de prédiction pour la diffusion de
l’information dans les réseaux sociaux. Dans l’ordre de comprendre l’élément
essentiel durant la propagation de l’information, on a extrait des caractéristiques
essentielles de la dataset qu’on a acquisitionnée comme celle de
l’utilisateur, les caractéristiques du contenu de tweet et les sentiments. Pour le
model de prédiction, on a fait l’indexation du temp sur un nombre de session
spécifique et on a proposé une architecture LSTM(Long Short memory). On a
prouvé les caractéristiques qu’ont un impact sur la diffusion de l’information
par l’implémentation de deux model l’u se base sur les caractéristiques de
l’utilisateur en rajoutant le contenu et l’autre se base sur les caractéristiques
de ce dernier en rajoutant les sentiments. L’apprentissage de ces deux modèles
sont tester et valider sur des dataset real acquisitionné depuis twitter.
en utilisant notre méthodologie, on a essayé d’avoir la prédiction avec une
précession de 86,6% sur le premier model et une convergence a 87.8% pour le
deuxième.
Notre model montre une précision de prédiction dans la comparaison avec les
techniques de l’apprentissage automatique Support Vector Machine(SVM) et
la régression logistique(RL).
Note de contenu : Sommaire
Background 4
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Why we use Data mining ? . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 knowledge discovery from data . . . . . . . . . . . . . . . . . . 5
1.4 What kind of Data can be mined? . . . . . . . . . . . . . . . . 7
1.4.1 Relational Database . . . . . . . . . . . . . . . . . . . . 7
1.4.2 Data warehouses . . . . . . . . . . . . . . . . . . . . . . 7
1.4.3 Time-series Databases . . . . . . . . . . . . . . . . . . . 8
1.5 Data Mining technique . . . . . . . . . . . . . . . . . . . . . . . 8
1.5.1 Association rules mining . . . . . . . . . . . . . . . . . 9
1.5.2 Classification . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5.3 Prediction Technique . . . . . . . . . . . . . . . . . . . 10
1.5.4 Clustering Technique . . . . . . . . . . . . . . . . . . . 11
1.6 Outliers analysis technique . . . . . . . . . . . . . . . . . . . . 11
1.7 Data mining task primitives . . . . . . . . . . . . . . . . . . . . 11
1.7.1 Set of task relevant data to be mined . . . . . . . . . . . 12
1.7.2 Kind of knowledge to be discovered . . . . . . . . . . . 12
1.7.3 Background knowledge . . . . . . . . . . . . . . . . . . 12
1.7.4 Justification of the interestingness of the knowledge . . 12
1.7.5 Representation for visualizing . . . . . . . . . . . . . . 12
1.8 Machine Learning . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.9 History of Machine Learning . . . . . . . . . . . . . . . . . . . 13
1.9.1 ALAN TURING . . . . . . . . . . . . . . . . . . . . . . . 13
1.9.2 ARTHUR SAMUEL . . . . . . . . . . . . . . . . . . . . 14
1.9.3 TOM M. MITCHELL . . . . . . . . . . . . . . . . . . . . 14
1.9.4 SUMMARY DEFINITION . . . . . . . . . . . . . . . . . 14
1.10 Machine learning Techniques . . . . . . . . . . . . . . . . . . . 14
1.10.1 Supervised Learning . . . . . . . . . . . . . . . . . . . . 14
1.10.2 Supervised learning techniques . . . . . . . . . . . . . 15
1.10.3 Supervised learning algorithms . . . . . . . . . . . . . . 15
iii
1.11 Unsupervised learning . . . . . . . . . . . . . . . . . . . . . . . 16
1.11.1 Unsupervised Algorithms . . . . . . . . . . . . . . . . . 16
1.12 Machine Learning Algorithms . . . . . . . . . . . . . . . . . . . 16
1.12.1 Support Vector Machines . . . . . . . . . . . . . . . . . 16
1.12.2 Neural Networks . . . . . . . . . . . . . . . . . . . . . . 19
1.12.3 What is Artificial Neural Network ? . . . . . . . . . . . 19
1.12.4 ANN Architectures . . . . . . . . . . . . . . . . . . . . 20
1.12.4.1 Feed-forward networks . . . . . . . . . . . . . 20
1.12.4.2 Feedback networks . . . . . . . . . . . . . . . 22
1.12.4.3 Activation functions . . . . . . . . . . . . . . . 22
1.12.4.4 Back-Propagation . . . . . . . . . . . . . . . . 23
1.13 Logistic Regression . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.14 Decision tree . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.15 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2 Deep Learning 26
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3 Deep learning architectures . . . . . . . . . . . . . . . . . . . . 27
2.3.1 Deep Neural Networks (DNN) . . . . . . . . . . . . . . 27
2.3.2 Convolutional Neural Networks . . . . . . . . . . . . . 28
2.3.3 Recurrent Neural Networks . . . . . . . . . . . . . . . . 29
2.3.3.1 How does RNN works? . . . . . . . . . . . . . 29
2.3.3.2 Training through RNN . . . . . . . . . . . . . 30
2.3.4 Advantages of Recurrent Neural Network . . . . . . . . 31
2.3.5 Disadvantages of Recurrent Neural Network . . . . . . 31
2.4 Overfitting and Underfitting . . . . . . . . . . . . . . . . . . . . 31
2.4.1 Overfitting . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.4.1.1 Dropout . . . . . . . . . . . . . . . . . . . . . . 31
2.4.1.2 Batch normalization . . . . . . . . . . . . . . . 32
2.4.2 Underfitting . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3 LITERATURE REVIEW 33
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2 Social networks . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2.1 Social networks modelling . . . . . . . . . . . . . . . . . 34
3.3 Information Diffusion and Epidemic Modeling . . . . . . . . . 34
3.3.1 SI model . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
iv
3.3.2 SIS model . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.3.3 SIR model . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.3.4 SIRS Model . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.4 Predictive Models . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.4.1 Independent Cascade Model (ICM) . . . . . . . . . . . 37
3.4.2 Linear Threshold Model (LTM) . . . . . . . . . . . . . . 38
3.4.3 Game Theory Model (GTM) . . . . . . . . . . . . . . . 38
3.5 Related work . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4 Adeep learning model for predicting information diffusion inOSN 40
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2 Problematic formulation . . . . . . . . . . . . . . . . . . . . . . 40
4.3 The proposed data mining framework . . . . . . . . . . . . . . 42
4.4 Data collection . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.4.1 How to get data from twitter API? . . . . . . . . . . . . 43
4.4.2 Dataset description . . . . . . . . . . . . . . . . . . . . . 43
4.5 Data preprocessing . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.6 Feature Extraction . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.6.1 User features . . . . . . . . . . . . . . . . . . . . . . . . 44
4.6.2 Content features . . . . . . . . . . . . . . . . . . . . . . 45
4.6.3 Sentiment Features . . . . . . . . . . . . . . . . . . . . . 47
4.7 Prediction model construction based on LSTM . . . . . . . . . 47
4.7.1 Long short term memory (LSTM) . . . . . . . . . . . . 48
4.7.2 Forget gate . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.7.3 Input gate . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.7.4 Output gate . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.7.5 The proposed architecture . . . . . . . . . . . . . . . . . 50
4.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5 Implementation and Results 53
5.1 introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2 Environment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2.1 Language R . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2.2 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.2.3 Anaconda . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.2.4 Scikit-learn . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.2.5 Tensorflow . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.2.6 Keras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
v
5.3 Implementation . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.3.1 The features extraction . . . . . . . . . . . . . . . . . . . 56
5.3.2 Support vector machines . . . . . . . . . . . . . . . . . . 56
5.3.3 Logistic regression . . . . . . . . . . . . . . . . . . . . . 56
5.3.4 LSTM model configuration . . . . . . . . . . . . . . . . 56
5.4 Evaluation and results . . . . . . . . . . . . . . . . . . . . . . . 58
5.4.1 Metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.4.2 Results and discussion . . . . . . . . . . . . . . . . . . . 59
5.4.2.1 Robustness of the predictive LSTM model . . 64
5.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69Côte titre : MAI/0313 En ligne : https://drive.google.com/file/d/1W_sW-aQDFuJmtdvY_zSoShN4ajY52Ibt/view?usp=shari [...] Format de la ressource électronique : A Deep learning model for predicting information diffusion in social networks [texte imprimé] / Hadjoudj ,Khalil, Auteur ; Drif ahlem, Directeur de thèse . - [S.l.] : Setif:UFA, 2019 . - 1 vol (74 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Apprentissage automatique
SupportVector Machine(SVM)
Régression
logistique,
Long Short memory
Réseau sociaux
diffusion de l’information
sentimentsIndex. décimale : 004 - Informatique Résumé : les réseau sociaux sont devenu un outil très important pour diffuser
une information. Plusieurs études sont faites dans le but de comprendre
le phénomène de la diffusion de l’information. Dans cette
thèse de master, on présente un modèle de prédiction pour la diffusion de
l’information dans les réseaux sociaux. Dans l’ordre de comprendre l’élément
essentiel durant la propagation de l’information, on a extrait des caractéristiques
essentielles de la dataset qu’on a acquisitionnée comme celle de
l’utilisateur, les caractéristiques du contenu de tweet et les sentiments. Pour le
model de prédiction, on a fait l’indexation du temp sur un nombre de session
spécifique et on a proposé une architecture LSTM(Long Short memory). On a
prouvé les caractéristiques qu’ont un impact sur la diffusion de l’information
par l’implémentation de deux model l’u se base sur les caractéristiques de
l’utilisateur en rajoutant le contenu et l’autre se base sur les caractéristiques
de ce dernier en rajoutant les sentiments. L’apprentissage de ces deux modèles
sont tester et valider sur des dataset real acquisitionné depuis twitter.
en utilisant notre méthodologie, on a essayé d’avoir la prédiction avec une
précession de 86,6% sur le premier model et une convergence a 87.8% pour le
deuxième.
Notre model montre une précision de prédiction dans la comparaison avec les
techniques de l’apprentissage automatique Support Vector Machine(SVM) et
la régression logistique(RL).
Note de contenu : Sommaire
Background 4
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Why we use Data mining ? . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 knowledge discovery from data . . . . . . . . . . . . . . . . . . 5
1.4 What kind of Data can be mined? . . . . . . . . . . . . . . . . 7
1.4.1 Relational Database . . . . . . . . . . . . . . . . . . . . 7
1.4.2 Data warehouses . . . . . . . . . . . . . . . . . . . . . . 7
1.4.3 Time-series Databases . . . . . . . . . . . . . . . . . . . 8
1.5 Data Mining technique . . . . . . . . . . . . . . . . . . . . . . . 8
1.5.1 Association rules mining . . . . . . . . . . . . . . . . . 9
1.5.2 Classification . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5.3 Prediction Technique . . . . . . . . . . . . . . . . . . . 10
1.5.4 Clustering Technique . . . . . . . . . . . . . . . . . . . 11
1.6 Outliers analysis technique . . . . . . . . . . . . . . . . . . . . 11
1.7 Data mining task primitives . . . . . . . . . . . . . . . . . . . . 11
1.7.1 Set of task relevant data to be mined . . . . . . . . . . . 12
1.7.2 Kind of knowledge to be discovered . . . . . . . . . . . 12
1.7.3 Background knowledge . . . . . . . . . . . . . . . . . . 12
1.7.4 Justification of the interestingness of the knowledge . . 12
1.7.5 Representation for visualizing . . . . . . . . . . . . . . 12
1.8 Machine Learning . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.9 History of Machine Learning . . . . . . . . . . . . . . . . . . . 13
1.9.1 ALAN TURING . . . . . . . . . . . . . . . . . . . . . . . 13
1.9.2 ARTHUR SAMUEL . . . . . . . . . . . . . . . . . . . . 14
1.9.3 TOM M. MITCHELL . . . . . . . . . . . . . . . . . . . . 14
1.9.4 SUMMARY DEFINITION . . . . . . . . . . . . . . . . . 14
1.10 Machine learning Techniques . . . . . . . . . . . . . . . . . . . 14
1.10.1 Supervised Learning . . . . . . . . . . . . . . . . . . . . 14
1.10.2 Supervised learning techniques . . . . . . . . . . . . . 15
1.10.3 Supervised learning algorithms . . . . . . . . . . . . . . 15
iii
1.11 Unsupervised learning . . . . . . . . . . . . . . . . . . . . . . . 16
1.11.1 Unsupervised Algorithms . . . . . . . . . . . . . . . . . 16
1.12 Machine Learning Algorithms . . . . . . . . . . . . . . . . . . . 16
1.12.1 Support Vector Machines . . . . . . . . . . . . . . . . . 16
1.12.2 Neural Networks . . . . . . . . . . . . . . . . . . . . . . 19
1.12.3 What is Artificial Neural Network ? . . . . . . . . . . . 19
1.12.4 ANN Architectures . . . . . . . . . . . . . . . . . . . . 20
1.12.4.1 Feed-forward networks . . . . . . . . . . . . . 20
1.12.4.2 Feedback networks . . . . . . . . . . . . . . . 22
1.12.4.3 Activation functions . . . . . . . . . . . . . . . 22
1.12.4.4 Back-Propagation . . . . . . . . . . . . . . . . 23
1.13 Logistic Regression . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.14 Decision tree . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.15 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2 Deep Learning 26
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3 Deep learning architectures . . . . . . . . . . . . . . . . . . . . 27
2.3.1 Deep Neural Networks (DNN) . . . . . . . . . . . . . . 27
2.3.2 Convolutional Neural Networks . . . . . . . . . . . . . 28
2.3.3 Recurrent Neural Networks . . . . . . . . . . . . . . . . 29
2.3.3.1 How does RNN works? . . . . . . . . . . . . . 29
2.3.3.2 Training through RNN . . . . . . . . . . . . . 30
2.3.4 Advantages of Recurrent Neural Network . . . . . . . . 31
2.3.5 Disadvantages of Recurrent Neural Network . . . . . . 31
2.4 Overfitting and Underfitting . . . . . . . . . . . . . . . . . . . . 31
2.4.1 Overfitting . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.4.1.1 Dropout . . . . . . . . . . . . . . . . . . . . . . 31
2.4.1.2 Batch normalization . . . . . . . . . . . . . . . 32
2.4.2 Underfitting . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3 LITERATURE REVIEW 33
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2 Social networks . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2.1 Social networks modelling . . . . . . . . . . . . . . . . . 34
3.3 Information Diffusion and Epidemic Modeling . . . . . . . . . 34
3.3.1 SI model . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
iv
3.3.2 SIS model . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.3.3 SIR model . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.3.4 SIRS Model . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.4 Predictive Models . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.4.1 Independent Cascade Model (ICM) . . . . . . . . . . . 37
3.4.2 Linear Threshold Model (LTM) . . . . . . . . . . . . . . 38
3.4.3 Game Theory Model (GTM) . . . . . . . . . . . . . . . 38
3.5 Related work . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4 Adeep learning model for predicting information diffusion inOSN 40
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2 Problematic formulation . . . . . . . . . . . . . . . . . . . . . . 40
4.3 The proposed data mining framework . . . . . . . . . . . . . . 42
4.4 Data collection . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.4.1 How to get data from twitter API? . . . . . . . . . . . . 43
4.4.2 Dataset description . . . . . . . . . . . . . . . . . . . . . 43
4.5 Data preprocessing . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.6 Feature Extraction . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.6.1 User features . . . . . . . . . . . . . . . . . . . . . . . . 44
4.6.2 Content features . . . . . . . . . . . . . . . . . . . . . . 45
4.6.3 Sentiment Features . . . . . . . . . . . . . . . . . . . . . 47
4.7 Prediction model construction based on LSTM . . . . . . . . . 47
4.7.1 Long short term memory (LSTM) . . . . . . . . . . . . 48
4.7.2 Forget gate . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.7.3 Input gate . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.7.4 Output gate . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.7.5 The proposed architecture . . . . . . . . . . . . . . . . . 50
4.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5 Implementation and Results 53
5.1 introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2 Environment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2.1 Language R . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2.2 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.2.3 Anaconda . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.2.4 Scikit-learn . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.2.5 Tensorflow . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.2.6 Keras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
v
5.3 Implementation . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.3.1 The features extraction . . . . . . . . . . . . . . . . . . . 56
5.3.2 Support vector machines . . . . . . . . . . . . . . . . . . 56
5.3.3 Logistic regression . . . . . . . . . . . . . . . . . . . . . 56
5.3.4 LSTM model configuration . . . . . . . . . . . . . . . . 56
5.4 Evaluation and results . . . . . . . . . . . . . . . . . . . . . . . 58
5.4.1 Metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.4.2 Results and discussion . . . . . . . . . . . . . . . . . . . 59
5.4.2.1 Robustness of the predictive LSTM model . . 64
5.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69Côte titre : MAI/0313 En ligne : https://drive.google.com/file/d/1W_sW-aQDFuJmtdvY_zSoShN4ajY52Ibt/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0313 MAI/0313 Mémoire Bibliothéque des sciences Français Disponible
Disponible
Titre : FAKE NEWS DETECTION ON SOCIAL MEDIA DOCUMENTS Type de document : texte imprimé Auteurs : Zineb Ferhat Hamida, Auteur ; Drif ahlem, Directeur de thèse Editeur : Sétif:UFA1 Année de publication : 2023 Importance : 1 vol (98 f.) Format : 29 cm Langues : Anglais (eng) Catégories : Informatique Mots-clés : Fake news
Social networks
Social bot detectionIndex. décimale : 004 Informatique Résumé :
Due to the rise of social media platforms, a new political, economical and cultural climate
arose in which the prevalence of fake news grew significantly. Thus, there are wide
implications of false information for both individuals and society. For humans, it is
difficult to identify and classify fake news through heuristics, common sense, and analysis.
The objective of this Ph.D. research is to suggest automated intelligent approaches for
detecting fake news sources, especially social bots. Social bots are autonomous entities that
generate significant social media content. In our thesis, we present two main contributions:
the first one presents “Sentiment Analysis-based Model for Bot Detection on Social
Media” (Deep Bi-LSTM) that incorporates different sentiment and semantic features to
perform the bots detection. Experiment on the cresci-2017 dataset shows that our approach
can achieve competitive performance with 97.36% of accuracy. The second contribution
captures the linguistic-based features by developing a novel framework that we have called
“Hybrid Mixing Engineered Linguistic framework Features Based on Autoencoder”. This
framework is split into two segments: the features learner and a deep neural networks
classifier. The feature learner aims at performing the feature extraction task due to a deep
autoencoder based on dense layers and a BiLSTM autoencoder. We enhance the feature
extractor: (i) by feeding the lexical and syntactic features to the first autoencoder to
represent the high-order features in latent space; (ii) by building the semantic and the
context features using the BiLSTM autoencoder; (iii) the merging of the two previous
trained encoder blocks would generate a compacted data based on elite features. This
architecture help us to discover human writing style patterns accurately. Experiments
conducted on real datasets show that a significant improvement can be achieved for finegrained bots detection with 92.22% of accuracy = En raison de la monte´e en puissance des plateformes de me´dias sociaux, un nouveau
climat politique, e´conomique et culturel est apparu dans lequel la pre´valence des fausses
nouvelles a conside´rablement augmente´. Ainsi, les fausses informations ont de vastes
implications tant pour les individus que pour la socie´te´. Pour les humains, il est difficile
d’identifier et de classer les fausses nouvelles par l’heuristique, le bon sens et l’analyse.
L’objectif de cette the`se de doctorat est de proposer des approches intelligentes automatise´es
pour de´tecter les fausses sources d’informations, en particulier les robots sociaux. Les
robots sociaux sont des entite´s autonomes qui ge´ne`rent un contenu important sur les re´seaux
sociaux. Dans notre the`se, nous pre´sentons deux contributions principales : la premie`re
approche est un mode`le “ Sentiment Analysis-based Model for Bot Detection on Social
Media ” (Deep Bi-LSTM) qui inte`gre diffe´rentes fonctionnalite´s de sentiment et de la
sémantique pour effectuer la de´tection des bots. Les expe´rimentations sur le jeu de donne´es
cresci-2017 montrent que notre approche peut atteindre des performances compe´titives avec
une précision de 97.36%. La deuxie`me contribution capture les fonctionnalite´s base´es sur la
linguistique en de´veloppant une nouvelle framework appele´e “Hybrid Mixing Engineered
Linguistic Features Framework Based on Autoencoder”. Cette framework comporte deux
composants : l’apprenant de caracte´ristiques et un classificateur de re´seaux de neurones
profonds. L’apprenant de fonctionnalite´s est constitue´ d’un autoencodeur profond base´ sur
des couches denses et un deuxie`me autoencodeur BiLSTM. Ce qui a permis d’extraire des
caracte´ristiques pertinentes par les encodeurs tout en appliquant l’apprentissage par
transfert. Cette architecture discerne correctement les diffe´rences dans le style d’e´criture
des humains et des bots. Ensuite, les initialisation des classificateurs avec les
fonctionnalite´s transfe´re´es a nettement ame´liore´ les performances de la de´tection de bots
avec un précision de 92.22%.Côte titre : DI/0077 En ligne : http://dspace.univ-setif.dz:8888/jspui/handle/123456789/4269 Format de la ressource électronique : FAKE NEWS DETECTION ON SOCIAL MEDIA DOCUMENTS [texte imprimé] / Zineb Ferhat Hamida, Auteur ; Drif ahlem, Directeur de thèse . - [S.l.] : Sétif:UFA1, 2023 . - 1 vol (98 f.) ; 29 cm.
Langues : Anglais (eng)
Catégories : Informatique Mots-clés : Fake news
Social networks
Social bot detectionIndex. décimale : 004 Informatique Résumé :
Due to the rise of social media platforms, a new political, economical and cultural climate
arose in which the prevalence of fake news grew significantly. Thus, there are wide
implications of false information for both individuals and society. For humans, it is
difficult to identify and classify fake news through heuristics, common sense, and analysis.
The objective of this Ph.D. research is to suggest automated intelligent approaches for
detecting fake news sources, especially social bots. Social bots are autonomous entities that
generate significant social media content. In our thesis, we present two main contributions:
the first one presents “Sentiment Analysis-based Model for Bot Detection on Social
Media” (Deep Bi-LSTM) that incorporates different sentiment and semantic features to
perform the bots detection. Experiment on the cresci-2017 dataset shows that our approach
can achieve competitive performance with 97.36% of accuracy. The second contribution
captures the linguistic-based features by developing a novel framework that we have called
“Hybrid Mixing Engineered Linguistic framework Features Based on Autoencoder”. This
framework is split into two segments: the features learner and a deep neural networks
classifier. The feature learner aims at performing the feature extraction task due to a deep
autoencoder based on dense layers and a BiLSTM autoencoder. We enhance the feature
extractor: (i) by feeding the lexical and syntactic features to the first autoencoder to
represent the high-order features in latent space; (ii) by building the semantic and the
context features using the BiLSTM autoencoder; (iii) the merging of the two previous
trained encoder blocks would generate a compacted data based on elite features. This
architecture help us to discover human writing style patterns accurately. Experiments
conducted on real datasets show that a significant improvement can be achieved for finegrained bots detection with 92.22% of accuracy = En raison de la monte´e en puissance des plateformes de me´dias sociaux, un nouveau
climat politique, e´conomique et culturel est apparu dans lequel la pre´valence des fausses
nouvelles a conside´rablement augmente´. Ainsi, les fausses informations ont de vastes
implications tant pour les individus que pour la socie´te´. Pour les humains, il est difficile
d’identifier et de classer les fausses nouvelles par l’heuristique, le bon sens et l’analyse.
L’objectif de cette the`se de doctorat est de proposer des approches intelligentes automatise´es
pour de´tecter les fausses sources d’informations, en particulier les robots sociaux. Les
robots sociaux sont des entite´s autonomes qui ge´ne`rent un contenu important sur les re´seaux
sociaux. Dans notre the`se, nous pre´sentons deux contributions principales : la premie`re
approche est un mode`le “ Sentiment Analysis-based Model for Bot Detection on Social
Media ” (Deep Bi-LSTM) qui inte`gre diffe´rentes fonctionnalite´s de sentiment et de la
sémantique pour effectuer la de´tection des bots. Les expe´rimentations sur le jeu de donne´es
cresci-2017 montrent que notre approche peut atteindre des performances compe´titives avec
une précision de 97.36%. La deuxie`me contribution capture les fonctionnalite´s base´es sur la
linguistique en de´veloppant une nouvelle framework appele´e “Hybrid Mixing Engineered
Linguistic Features Framework Based on Autoencoder”. Cette framework comporte deux
composants : l’apprenant de caracte´ristiques et un classificateur de re´seaux de neurones
profonds. L’apprenant de fonctionnalite´s est constitue´ d’un autoencodeur profond base´ sur
des couches denses et un deuxie`me autoencodeur BiLSTM. Ce qui a permis d’extraire des
caracte´ristiques pertinentes par les encodeurs tout en appliquant l’apprentissage par
transfert. Cette architecture discerne correctement les diffe´rences dans le style d’e´criture
des humains et des bots. Ensuite, les initialisation des classificateurs avec les
fonctionnalite´s transfe´re´es a nettement ame´liore´ les performances de la de´tection de bots
avec un précision de 92.22%.Côte titre : DI/0077 En ligne : http://dspace.univ-setif.dz:8888/jspui/handle/123456789/4269 Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité DI/0077 DI/0077 Thèse Bibliothéque des sciences Anglais Disponible
Disponible
Titre : Tobologies dynamiques pour la communication et la gestion des réseaux ad hoc Type de document : texte imprimé Auteurs : Drif ahlem, Auteur ; Abdellah BOUKERRAM, Directeur de thèse Editeur : Setif:UFA Importance : 1 vol (118 f .) Format : 29 cm Catégories : Informatique Mots-clés : Optimisation de la topologie Applications sans fil
Méthodes de détection des communautés
fouille de données de trajectoires
Motifs fréquents, analyse des données géospatiales
Extractionde l’information
Méthodes de prédiction de liens
Réseaux complexesIndex. décimale : 004 Informatique Résumé :
La problématique de l’exploitation d’un haut niveau d’abstraction des utilisateurs mobiles pour optimiser les applications sans fil est l’un des défis les plus prometteurs dans les domaines des sciences sociales computationnelles et les réseaux de communication. Notre travail de thèse propose trois contributions principales: Dans la première contribution, nous proposons une stratégie d’auto-organisation des dispositifs mobiles basées sur des topologies distribuées et efficaces en investissant l’interêt commun des utilisateurs et leurs aspects sociaux. Notre deuxième contribution analyse la corrélation entre les comportements des utilisateurs, en effet, cette dimension sociale peut être vue comme étant la motivation principale des mouvements des individus durant leur vie de tous les jours, ainsi, nous divisons notre travail en trois phases: la phase de filtrage des données mobiles, la phase de création des communautés et la phase d’analyse de modèle obtenu. Dans notre troisième contribution, nous introduisons l’apprentissage de la dynamique des communuatés mobiles. Dans cette optique, nous proposons un nouvel algorithme de prédiction en exploitant l’aspect temporel lié à l’historiques de mobilité d’un utilisateur et à l’historique des personnes qui lui sont liées. Nos contributions à la recherche sont très intéressantes et tirent profit des comportements sociaux des individus. Elles apportent plus d’efficacité en terme de temps et de précision et ouvrent la voie à des avancées dans le domaine de recherche de la mobilité humaine et les réseaux sans fil avec une approche très interdisciplinaire.Côte titre : DI/0027 En ligne : http://dspace.univ-setif.dz:8888/jspui/handle/123456789/1309 Tobologies dynamiques pour la communication et la gestion des réseaux ad hoc [texte imprimé] / Drif ahlem, Auteur ; Abdellah BOUKERRAM, Directeur de thèse . - [S.l.] : Setif:UFA, [s.d.] . - 1 vol (118 f .) ; 29 cm.
Catégories : Informatique Mots-clés : Optimisation de la topologie Applications sans fil
Méthodes de détection des communautés
fouille de données de trajectoires
Motifs fréquents, analyse des données géospatiales
Extractionde l’information
Méthodes de prédiction de liens
Réseaux complexesIndex. décimale : 004 Informatique Résumé :
La problématique de l’exploitation d’un haut niveau d’abstraction des utilisateurs mobiles pour optimiser les applications sans fil est l’un des défis les plus prometteurs dans les domaines des sciences sociales computationnelles et les réseaux de communication. Notre travail de thèse propose trois contributions principales: Dans la première contribution, nous proposons une stratégie d’auto-organisation des dispositifs mobiles basées sur des topologies distribuées et efficaces en investissant l’interêt commun des utilisateurs et leurs aspects sociaux. Notre deuxième contribution analyse la corrélation entre les comportements des utilisateurs, en effet, cette dimension sociale peut être vue comme étant la motivation principale des mouvements des individus durant leur vie de tous les jours, ainsi, nous divisons notre travail en trois phases: la phase de filtrage des données mobiles, la phase de création des communautés et la phase d’analyse de modèle obtenu. Dans notre troisième contribution, nous introduisons l’apprentissage de la dynamique des communuatés mobiles. Dans cette optique, nous proposons un nouvel algorithme de prédiction en exploitant l’aspect temporel lié à l’historiques de mobilité d’un utilisateur et à l’historique des personnes qui lui sont liées. Nos contributions à la recherche sont très intéressantes et tirent profit des comportements sociaux des individus. Elles apportent plus d’efficacité en terme de temps et de précision et ouvrent la voie à des avancées dans le domaine de recherche de la mobilité humaine et les réseaux sans fil avec une approche très interdisciplinaire.Côte titre : DI/0027 En ligne : http://dspace.univ-setif.dz:8888/jspui/handle/123456789/1309 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité DI/0027 DI/0027 Thèse Bibliothéque des sciences Français Disponible
Disponible