University Sétif 1 FERHAT ABBAS Faculty of Sciences
Détail de l'indexation
Ouvrages de la bibliothèque en indexation 004 - Informatique
Ajouter le résultat dans votre panier Affiner la recherche
Titre : A Deep Learning Model For Collaborative Filtering Type de document : texte imprimé Auteurs : Ferkous, Mohamed Laid, Auteur ; Ahlem Drif, Directeur de thèse Editeur : Setif:UFA Année de publication : 2021 Importance : 1 vol (83 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Informatique Mots-clés : Recommender systems
Mutual Influence
Graph Attention NetworkIndex. décimale : 004 - Informatique Résumé :
Recommender systems have become an integral part of e-commerce sites and
other platforms such as social networking, movie/-music rendering websites. Network representation
learning have been used as a successful approaches to build efficient recommender
systems. However, learning the mutual influence generated by the contributions of each
node in the network is a challenging issue. In fact, the mutual influence carries collaborative
signals on user decisions helping to account for complex user-item interactions. For this
purpose, in this master thesis, we propose Multual Intercation Graph Attention Network
‘MIGAN” which is a new algorithm based on a the self-supervised representation learning
on large scale bipartite graph (BGNN). Experiments on real-world datasets demonstrate
that the proposed Graph learning method can achieve more accurate predictions and higher
recommendation efficiency.Côte titre : MAI/0522 En ligne : https://drive.google.com/file/d/1mGYDn5WsQu4tz8wXwWqFf3RXOFw_iyJV/view?usp=shari [...] Format de la ressource électronique : A Deep Learning Model For Collaborative Filtering [texte imprimé] / Ferkous, Mohamed Laid, Auteur ; Ahlem Drif, Directeur de thèse . - [S.l.] : Setif:UFA, 2021 . - 1 vol (83 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Recommender systems
Mutual Influence
Graph Attention NetworkIndex. décimale : 004 - Informatique Résumé :
Recommender systems have become an integral part of e-commerce sites and
other platforms such as social networking, movie/-music rendering websites. Network representation
learning have been used as a successful approaches to build efficient recommender
systems. However, learning the mutual influence generated by the contributions of each
node in the network is a challenging issue. In fact, the mutual influence carries collaborative
signals on user decisions helping to account for complex user-item interactions. For this
purpose, in this master thesis, we propose Multual Intercation Graph Attention Network
‘MIGAN” which is a new algorithm based on a the self-supervised representation learning
on large scale bipartite graph (BGNN). Experiments on real-world datasets demonstrate
that the proposed Graph learning method can achieve more accurate predictions and higher
recommendation efficiency.Côte titre : MAI/0522 En ligne : https://drive.google.com/file/d/1mGYDn5WsQu4tz8wXwWqFf3RXOFw_iyJV/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0522 MAI/0522 Mémoire Bibliothéque des sciences Anglais Disponible
Disponible
Titre : Deep Learning model for diagnosis of Diabetic Retinopathy Type de document : texte imprimé Auteurs : Bellal, Haroune, Auteur ; Mediani,Chahrazed, Directeur de thèse Editeur : Setif:UFA Année de publication : 2021 Importance : 1 vol (44 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Informatique Mots-clés : Informatique Index. décimale : 004 - Informatique Côte titre : MAI/0531 En ligne : https://drive.google.com/file/d/1kd1ou4QKRTnlx3y6GGoT3kFVfluoekXU/view?usp=shari [...] Format de la ressource électronique : Deep Learning model for diagnosis of Diabetic Retinopathy [texte imprimé] / Bellal, Haroune, Auteur ; Mediani,Chahrazed, Directeur de thèse . - [S.l.] : Setif:UFA, 2021 . - 1 vol (44 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Informatique Index. décimale : 004 - Informatique Côte titre : MAI/0531 En ligne : https://drive.google.com/file/d/1kd1ou4QKRTnlx3y6GGoT3kFVfluoekXU/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0531 MAI/0531 Mémoire Bibliothéque des sciences Français Disponible
Disponible
Titre : A Deep Learning Model For A Hybrid Recommender System Of Online Resources Type de document : texte imprimé Auteurs : Sebihi,Abdelkader, Auteur ; Mediani,Chahrazed, Directeur de thèse Editeur : Setif:UFA Année de publication : 2021 Importance : 1 vol (70 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Informatique Mots-clés : Machine learning
Deep learning
Recommender systemsIndex. décimale : 004 - Informatique Résumé :
Recommender system is a tool for interacting with large scale and complex
information space. They provide personalized views and prioritized items
likely to be of interest to the user. The field was named in 1995 and has been
greatly developed in the various problems solved, the technology used and
its practical application. Recommender systems research has incorporated
a wide variety of artificial intelligence techniques including machine learning,
data mining, user modeling, case-based reasoning, and constraint satisfaction,
among others. Personalized and prioritized recommendations are
an important part of many on-line e-commerce applications such as Amazon.
com, Netflix, and Pandora.Côte titre : MAI/0468 En ligne : https://drive.google.com/file/d/1-ZZ1i0PobHJ_2WhxueC8d6w_YP4IxTvk/view?usp=shari [...] Format de la ressource électronique : A Deep Learning Model For A Hybrid Recommender System Of Online Resources [texte imprimé] / Sebihi,Abdelkader, Auteur ; Mediani,Chahrazed, Directeur de thèse . - [S.l.] : Setif:UFA, 2021 . - 1 vol (70 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Machine learning
Deep learning
Recommender systemsIndex. décimale : 004 - Informatique Résumé :
Recommender system is a tool for interacting with large scale and complex
information space. They provide personalized views and prioritized items
likely to be of interest to the user. The field was named in 1995 and has been
greatly developed in the various problems solved, the technology used and
its practical application. Recommender systems research has incorporated
a wide variety of artificial intelligence techniques including machine learning,
data mining, user modeling, case-based reasoning, and constraint satisfaction,
among others. Personalized and prioritized recommendations are
an important part of many on-line e-commerce applications such as Amazon.
com, Netflix, and Pandora.Côte titre : MAI/0468 En ligne : https://drive.google.com/file/d/1-ZZ1i0PobHJ_2WhxueC8d6w_YP4IxTvk/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0468 MAI/0468 Mémoire Bibliothéque des sciences Français Disponible
Disponible
Titre : A Deep learning model for predicting information diffusion in social networks Type de document : texte imprimé Auteurs : Hadjoudj ,Khalil, Auteur ; Drif ahlem, Directeur de thèse Editeur : Setif:UFA Année de publication : 2019 Importance : 1 vol (74 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Informatique Mots-clés : Apprentissage automatique
SupportVector Machine(SVM)
Régression
logistique,
Long Short memory
Réseau sociaux
diffusion de l’information
sentimentsIndex. décimale : 004 - Informatique Résumé : les réseau sociaux sont devenu un outil très important pour diffuser
une information. Plusieurs études sont faites dans le but de comprendre
le phénomène de la diffusion de l’information. Dans cette
thèse de master, on présente un modèle de prédiction pour la diffusion de
l’information dans les réseaux sociaux. Dans l’ordre de comprendre l’élément
essentiel durant la propagation de l’information, on a extrait des caractéristiques
essentielles de la dataset qu’on a acquisitionnée comme celle de
l’utilisateur, les caractéristiques du contenu de tweet et les sentiments. Pour le
model de prédiction, on a fait l’indexation du temp sur un nombre de session
spécifique et on a proposé une architecture LSTM(Long Short memory). On a
prouvé les caractéristiques qu’ont un impact sur la diffusion de l’information
par l’implémentation de deux model l’u se base sur les caractéristiques de
l’utilisateur en rajoutant le contenu et l’autre se base sur les caractéristiques
de ce dernier en rajoutant les sentiments. L’apprentissage de ces deux modèles
sont tester et valider sur des dataset real acquisitionné depuis twitter.
en utilisant notre méthodologie, on a essayé d’avoir la prédiction avec une
précession de 86,6% sur le premier model et une convergence a 87.8% pour le
deuxième.
Notre model montre une précision de prédiction dans la comparaison avec les
techniques de l’apprentissage automatique Support Vector Machine(SVM) et
la régression logistique(RL).
Note de contenu : Sommaire
Background 4
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Why we use Data mining ? . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 knowledge discovery from data . . . . . . . . . . . . . . . . . . 5
1.4 What kind of Data can be mined? . . . . . . . . . . . . . . . . 7
1.4.1 Relational Database . . . . . . . . . . . . . . . . . . . . 7
1.4.2 Data warehouses . . . . . . . . . . . . . . . . . . . . . . 7
1.4.3 Time-series Databases . . . . . . . . . . . . . . . . . . . 8
1.5 Data Mining technique . . . . . . . . . . . . . . . . . . . . . . . 8
1.5.1 Association rules mining . . . . . . . . . . . . . . . . . 9
1.5.2 Classification . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5.3 Prediction Technique . . . . . . . . . . . . . . . . . . . 10
1.5.4 Clustering Technique . . . . . . . . . . . . . . . . . . . 11
1.6 Outliers analysis technique . . . . . . . . . . . . . . . . . . . . 11
1.7 Data mining task primitives . . . . . . . . . . . . . . . . . . . . 11
1.7.1 Set of task relevant data to be mined . . . . . . . . . . . 12
1.7.2 Kind of knowledge to be discovered . . . . . . . . . . . 12
1.7.3 Background knowledge . . . . . . . . . . . . . . . . . . 12
1.7.4 Justification of the interestingness of the knowledge . . 12
1.7.5 Representation for visualizing . . . . . . . . . . . . . . 12
1.8 Machine Learning . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.9 History of Machine Learning . . . . . . . . . . . . . . . . . . . 13
1.9.1 ALAN TURING . . . . . . . . . . . . . . . . . . . . . . . 13
1.9.2 ARTHUR SAMUEL . . . . . . . . . . . . . . . . . . . . 14
1.9.3 TOM M. MITCHELL . . . . . . . . . . . . . . . . . . . . 14
1.9.4 SUMMARY DEFINITION . . . . . . . . . . . . . . . . . 14
1.10 Machine learning Techniques . . . . . . . . . . . . . . . . . . . 14
1.10.1 Supervised Learning . . . . . . . . . . . . . . . . . . . . 14
1.10.2 Supervised learning techniques . . . . . . . . . . . . . 15
1.10.3 Supervised learning algorithms . . . . . . . . . . . . . . 15
iii
1.11 Unsupervised learning . . . . . . . . . . . . . . . . . . . . . . . 16
1.11.1 Unsupervised Algorithms . . . . . . . . . . . . . . . . . 16
1.12 Machine Learning Algorithms . . . . . . . . . . . . . . . . . . . 16
1.12.1 Support Vector Machines . . . . . . . . . . . . . . . . . 16
1.12.2 Neural Networks . . . . . . . . . . . . . . . . . . . . . . 19
1.12.3 What is Artificial Neural Network ? . . . . . . . . . . . 19
1.12.4 ANN Architectures . . . . . . . . . . . . . . . . . . . . 20
1.12.4.1 Feed-forward networks . . . . . . . . . . . . . 20
1.12.4.2 Feedback networks . . . . . . . . . . . . . . . 22
1.12.4.3 Activation functions . . . . . . . . . . . . . . . 22
1.12.4.4 Back-Propagation . . . . . . . . . . . . . . . . 23
1.13 Logistic Regression . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.14 Decision tree . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.15 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2 Deep Learning 26
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3 Deep learning architectures . . . . . . . . . . . . . . . . . . . . 27
2.3.1 Deep Neural Networks (DNN) . . . . . . . . . . . . . . 27
2.3.2 Convolutional Neural Networks . . . . . . . . . . . . . 28
2.3.3 Recurrent Neural Networks . . . . . . . . . . . . . . . . 29
2.3.3.1 How does RNN works? . . . . . . . . . . . . . 29
2.3.3.2 Training through RNN . . . . . . . . . . . . . 30
2.3.4 Advantages of Recurrent Neural Network . . . . . . . . 31
2.3.5 Disadvantages of Recurrent Neural Network . . . . . . 31
2.4 Overfitting and Underfitting . . . . . . . . . . . . . . . . . . . . 31
2.4.1 Overfitting . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.4.1.1 Dropout . . . . . . . . . . . . . . . . . . . . . . 31
2.4.1.2 Batch normalization . . . . . . . . . . . . . . . 32
2.4.2 Underfitting . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3 LITERATURE REVIEW 33
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2 Social networks . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2.1 Social networks modelling . . . . . . . . . . . . . . . . . 34
3.3 Information Diffusion and Epidemic Modeling . . . . . . . . . 34
3.3.1 SI model . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
iv
3.3.2 SIS model . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.3.3 SIR model . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.3.4 SIRS Model . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.4 Predictive Models . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.4.1 Independent Cascade Model (ICM) . . . . . . . . . . . 37
3.4.2 Linear Threshold Model (LTM) . . . . . . . . . . . . . . 38
3.4.3 Game Theory Model (GTM) . . . . . . . . . . . . . . . 38
3.5 Related work . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4 Adeep learning model for predicting information diffusion inOSN 40
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2 Problematic formulation . . . . . . . . . . . . . . . . . . . . . . 40
4.3 The proposed data mining framework . . . . . . . . . . . . . . 42
4.4 Data collection . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.4.1 How to get data from twitter API? . . . . . . . . . . . . 43
4.4.2 Dataset description . . . . . . . . . . . . . . . . . . . . . 43
4.5 Data preprocessing . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.6 Feature Extraction . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.6.1 User features . . . . . . . . . . . . . . . . . . . . . . . . 44
4.6.2 Content features . . . . . . . . . . . . . . . . . . . . . . 45
4.6.3 Sentiment Features . . . . . . . . . . . . . . . . . . . . . 47
4.7 Prediction model construction based on LSTM . . . . . . . . . 47
4.7.1 Long short term memory (LSTM) . . . . . . . . . . . . 48
4.7.2 Forget gate . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.7.3 Input gate . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.7.4 Output gate . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.7.5 The proposed architecture . . . . . . . . . . . . . . . . . 50
4.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5 Implementation and Results 53
5.1 introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2 Environment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2.1 Language R . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2.2 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.2.3 Anaconda . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.2.4 Scikit-learn . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.2.5 Tensorflow . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.2.6 Keras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
v
5.3 Implementation . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.3.1 The features extraction . . . . . . . . . . . . . . . . . . . 56
5.3.2 Support vector machines . . . . . . . . . . . . . . . . . . 56
5.3.3 Logistic regression . . . . . . . . . . . . . . . . . . . . . 56
5.3.4 LSTM model configuration . . . . . . . . . . . . . . . . 56
5.4 Evaluation and results . . . . . . . . . . . . . . . . . . . . . . . 58
5.4.1 Metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.4.2 Results and discussion . . . . . . . . . . . . . . . . . . . 59
5.4.2.1 Robustness of the predictive LSTM model . . 64
5.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69Côte titre : MAI/0313 En ligne : https://drive.google.com/file/d/1W_sW-aQDFuJmtdvY_zSoShN4ajY52Ibt/view?usp=shari [...] Format de la ressource électronique : A Deep learning model for predicting information diffusion in social networks [texte imprimé] / Hadjoudj ,Khalil, Auteur ; Drif ahlem, Directeur de thèse . - [S.l.] : Setif:UFA, 2019 . - 1 vol (74 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Apprentissage automatique
SupportVector Machine(SVM)
Régression
logistique,
Long Short memory
Réseau sociaux
diffusion de l’information
sentimentsIndex. décimale : 004 - Informatique Résumé : les réseau sociaux sont devenu un outil très important pour diffuser
une information. Plusieurs études sont faites dans le but de comprendre
le phénomène de la diffusion de l’information. Dans cette
thèse de master, on présente un modèle de prédiction pour la diffusion de
l’information dans les réseaux sociaux. Dans l’ordre de comprendre l’élément
essentiel durant la propagation de l’information, on a extrait des caractéristiques
essentielles de la dataset qu’on a acquisitionnée comme celle de
l’utilisateur, les caractéristiques du contenu de tweet et les sentiments. Pour le
model de prédiction, on a fait l’indexation du temp sur un nombre de session
spécifique et on a proposé une architecture LSTM(Long Short memory). On a
prouvé les caractéristiques qu’ont un impact sur la diffusion de l’information
par l’implémentation de deux model l’u se base sur les caractéristiques de
l’utilisateur en rajoutant le contenu et l’autre se base sur les caractéristiques
de ce dernier en rajoutant les sentiments. L’apprentissage de ces deux modèles
sont tester et valider sur des dataset real acquisitionné depuis twitter.
en utilisant notre méthodologie, on a essayé d’avoir la prédiction avec une
précession de 86,6% sur le premier model et une convergence a 87.8% pour le
deuxième.
Notre model montre une précision de prédiction dans la comparaison avec les
techniques de l’apprentissage automatique Support Vector Machine(SVM) et
la régression logistique(RL).
Note de contenu : Sommaire
Background 4
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Why we use Data mining ? . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 knowledge discovery from data . . . . . . . . . . . . . . . . . . 5
1.4 What kind of Data can be mined? . . . . . . . . . . . . . . . . 7
1.4.1 Relational Database . . . . . . . . . . . . . . . . . . . . 7
1.4.2 Data warehouses . . . . . . . . . . . . . . . . . . . . . . 7
1.4.3 Time-series Databases . . . . . . . . . . . . . . . . . . . 8
1.5 Data Mining technique . . . . . . . . . . . . . . . . . . . . . . . 8
1.5.1 Association rules mining . . . . . . . . . . . . . . . . . 9
1.5.2 Classification . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5.3 Prediction Technique . . . . . . . . . . . . . . . . . . . 10
1.5.4 Clustering Technique . . . . . . . . . . . . . . . . . . . 11
1.6 Outliers analysis technique . . . . . . . . . . . . . . . . . . . . 11
1.7 Data mining task primitives . . . . . . . . . . . . . . . . . . . . 11
1.7.1 Set of task relevant data to be mined . . . . . . . . . . . 12
1.7.2 Kind of knowledge to be discovered . . . . . . . . . . . 12
1.7.3 Background knowledge . . . . . . . . . . . . . . . . . . 12
1.7.4 Justification of the interestingness of the knowledge . . 12
1.7.5 Representation for visualizing . . . . . . . . . . . . . . 12
1.8 Machine Learning . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.9 History of Machine Learning . . . . . . . . . . . . . . . . . . . 13
1.9.1 ALAN TURING . . . . . . . . . . . . . . . . . . . . . . . 13
1.9.2 ARTHUR SAMUEL . . . . . . . . . . . . . . . . . . . . 14
1.9.3 TOM M. MITCHELL . . . . . . . . . . . . . . . . . . . . 14
1.9.4 SUMMARY DEFINITION . . . . . . . . . . . . . . . . . 14
1.10 Machine learning Techniques . . . . . . . . . . . . . . . . . . . 14
1.10.1 Supervised Learning . . . . . . . . . . . . . . . . . . . . 14
1.10.2 Supervised learning techniques . . . . . . . . . . . . . 15
1.10.3 Supervised learning algorithms . . . . . . . . . . . . . . 15
iii
1.11 Unsupervised learning . . . . . . . . . . . . . . . . . . . . . . . 16
1.11.1 Unsupervised Algorithms . . . . . . . . . . . . . . . . . 16
1.12 Machine Learning Algorithms . . . . . . . . . . . . . . . . . . . 16
1.12.1 Support Vector Machines . . . . . . . . . . . . . . . . . 16
1.12.2 Neural Networks . . . . . . . . . . . . . . . . . . . . . . 19
1.12.3 What is Artificial Neural Network ? . . . . . . . . . . . 19
1.12.4 ANN Architectures . . . . . . . . . . . . . . . . . . . . 20
1.12.4.1 Feed-forward networks . . . . . . . . . . . . . 20
1.12.4.2 Feedback networks . . . . . . . . . . . . . . . 22
1.12.4.3 Activation functions . . . . . . . . . . . . . . . 22
1.12.4.4 Back-Propagation . . . . . . . . . . . . . . . . 23
1.13 Logistic Regression . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.14 Decision tree . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.15 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2 Deep Learning 26
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3 Deep learning architectures . . . . . . . . . . . . . . . . . . . . 27
2.3.1 Deep Neural Networks (DNN) . . . . . . . . . . . . . . 27
2.3.2 Convolutional Neural Networks . . . . . . . . . . . . . 28
2.3.3 Recurrent Neural Networks . . . . . . . . . . . . . . . . 29
2.3.3.1 How does RNN works? . . . . . . . . . . . . . 29
2.3.3.2 Training through RNN . . . . . . . . . . . . . 30
2.3.4 Advantages of Recurrent Neural Network . . . . . . . . 31
2.3.5 Disadvantages of Recurrent Neural Network . . . . . . 31
2.4 Overfitting and Underfitting . . . . . . . . . . . . . . . . . . . . 31
2.4.1 Overfitting . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.4.1.1 Dropout . . . . . . . . . . . . . . . . . . . . . . 31
2.4.1.2 Batch normalization . . . . . . . . . . . . . . . 32
2.4.2 Underfitting . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3 LITERATURE REVIEW 33
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2 Social networks . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2.1 Social networks modelling . . . . . . . . . . . . . . . . . 34
3.3 Information Diffusion and Epidemic Modeling . . . . . . . . . 34
3.3.1 SI model . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
iv
3.3.2 SIS model . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.3.3 SIR model . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.3.4 SIRS Model . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.4 Predictive Models . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.4.1 Independent Cascade Model (ICM) . . . . . . . . . . . 37
3.4.2 Linear Threshold Model (LTM) . . . . . . . . . . . . . . 38
3.4.3 Game Theory Model (GTM) . . . . . . . . . . . . . . . 38
3.5 Related work . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4 Adeep learning model for predicting information diffusion inOSN 40
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2 Problematic formulation . . . . . . . . . . . . . . . . . . . . . . 40
4.3 The proposed data mining framework . . . . . . . . . . . . . . 42
4.4 Data collection . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.4.1 How to get data from twitter API? . . . . . . . . . . . . 43
4.4.2 Dataset description . . . . . . . . . . . . . . . . . . . . . 43
4.5 Data preprocessing . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.6 Feature Extraction . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.6.1 User features . . . . . . . . . . . . . . . . . . . . . . . . 44
4.6.2 Content features . . . . . . . . . . . . . . . . . . . . . . 45
4.6.3 Sentiment Features . . . . . . . . . . . . . . . . . . . . . 47
4.7 Prediction model construction based on LSTM . . . . . . . . . 47
4.7.1 Long short term memory (LSTM) . . . . . . . . . . . . 48
4.7.2 Forget gate . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.7.3 Input gate . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.7.4 Output gate . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.7.5 The proposed architecture . . . . . . . . . . . . . . . . . 50
4.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5 Implementation and Results 53
5.1 introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2 Environment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2.1 Language R . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2.2 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.2.3 Anaconda . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.2.4 Scikit-learn . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.2.5 Tensorflow . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.2.6 Keras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
v
5.3 Implementation . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.3.1 The features extraction . . . . . . . . . . . . . . . . . . . 56
5.3.2 Support vector machines . . . . . . . . . . . . . . . . . . 56
5.3.3 Logistic regression . . . . . . . . . . . . . . . . . . . . . 56
5.3.4 LSTM model configuration . . . . . . . . . . . . . . . . 56
5.4 Evaluation and results . . . . . . . . . . . . . . . . . . . . . . . 58
5.4.1 Metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.4.2 Results and discussion . . . . . . . . . . . . . . . . . . . 59
5.4.2.1 Robustness of the predictive LSTM model . . 64
5.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69Côte titre : MAI/0313 En ligne : https://drive.google.com/file/d/1W_sW-aQDFuJmtdvY_zSoShN4ajY52Ibt/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0313 MAI/0313 Mémoire Bibliothéque des sciences Français Disponible
Disponible
Titre : Deep Learning Model for Recognition of Genomic Signals and Regions Type de document : texte imprimé Auteurs : Debiche ,Hadjer, Auteur ; Bilal Bouaita, Directeur de thèse Editeur : Setif:UFA Année de publication : 2021 Importance : 1 vol (55 f .) Format : 29 cm Langues : Anglais (eng) Catégories : Thèses & Mémoires:Informatique Mots-clés : Bioinformatique
GénomiqueIndex. décimale : 004 - Informatique Résumé :
La reconnaissance des signaux et des régions génomiques (GSR) dans l‘ADN est
cruciale pour comprendre l‘organisation, la régulation et la fonction des gènes, qui à leur tour
produisent de meilleures annotations génomiques et génétiques. Bien que de nombreuses
méthodes aient été mises au point pour reconnaître les GSR, leur identification purement
informatique demeure difficile. De plus, divers GSR exigent habituellement un ensemble
spécialisé de caractéristiques pour développer des modèles de reconnaissance robustes.
Récemment, il a été démontré que les méthodes d‘apprentissage profond (DL) génèrent des
modèles de prévision plus précis que les méthodes peu profondes. Donc, pour mieux
reconnaître ces GSR il est nécessaire d‘abord de bien comprendre la jonction des épissures
dans les séquences d‘ADN, c‘est ce que nous faisons dans notre étude.
La classification des jonctions d‘épissage dans une cellule eucaryote est un problème
important parce que la jonction d‘épissage indique quelle partie de la séquence d‘ADN porte
l‘information de codage de protéine. Le principal problème lors de l‘élaboration d‘un
classificateur pour cette tâche de classification est de savoir comment représenter la séquence
d‘ADN sur les ordinateurs, puisque la précision de toute technique de classification dépend de
façon critique de la représentation adoptée.
Dans le stage de notre travail, nous implémentons un modèle Multilayer Perceptron
pour trouver la représentation appropriée pour la tâche de classification des jonctions. Il s‘agit
de reconnaître des données dans trois classes de limites exon/intron (ou sites « donneurs »), de
limites intron/exon (ou sites « accepteurs ») ou bien ni l‘une ni l‘autre. Notre modèle proposé
à une exactitude de 93 % .Côte titre : MAI/0558 En ligne : https://drive.google.com/file/d/1CPfnJfpj6OeCfGccLGgoB3gMnLGbbdl_/view?usp=shari [...] Format de la ressource électronique : Deep Learning Model for Recognition of Genomic Signals and Regions [texte imprimé] / Debiche ,Hadjer, Auteur ; Bilal Bouaita, Directeur de thèse . - [S.l.] : Setif:UFA, 2021 . - 1 vol (55 f .) ; 29 cm.
Langues : Anglais (eng)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Bioinformatique
GénomiqueIndex. décimale : 004 - Informatique Résumé :
La reconnaissance des signaux et des régions génomiques (GSR) dans l‘ADN est
cruciale pour comprendre l‘organisation, la régulation et la fonction des gènes, qui à leur tour
produisent de meilleures annotations génomiques et génétiques. Bien que de nombreuses
méthodes aient été mises au point pour reconnaître les GSR, leur identification purement
informatique demeure difficile. De plus, divers GSR exigent habituellement un ensemble
spécialisé de caractéristiques pour développer des modèles de reconnaissance robustes.
Récemment, il a été démontré que les méthodes d‘apprentissage profond (DL) génèrent des
modèles de prévision plus précis que les méthodes peu profondes. Donc, pour mieux
reconnaître ces GSR il est nécessaire d‘abord de bien comprendre la jonction des épissures
dans les séquences d‘ADN, c‘est ce que nous faisons dans notre étude.
La classification des jonctions d‘épissage dans une cellule eucaryote est un problème
important parce que la jonction d‘épissage indique quelle partie de la séquence d‘ADN porte
l‘information de codage de protéine. Le principal problème lors de l‘élaboration d‘un
classificateur pour cette tâche de classification est de savoir comment représenter la séquence
d‘ADN sur les ordinateurs, puisque la précision de toute technique de classification dépend de
façon critique de la représentation adoptée.
Dans le stage de notre travail, nous implémentons un modèle Multilayer Perceptron
pour trouver la représentation appropriée pour la tâche de classification des jonctions. Il s‘agit
de reconnaître des données dans trois classes de limites exon/intron (ou sites « donneurs »), de
limites intron/exon (ou sites « accepteurs ») ou bien ni l‘une ni l‘autre. Notre modèle proposé
à une exactitude de 93 % .Côte titre : MAI/0558 En ligne : https://drive.google.com/file/d/1CPfnJfpj6OeCfGccLGgoB3gMnLGbbdl_/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0558 MAI/0558 Mémoire Bibliothéque des sciences Anglais Disponible
DisponiblePermalinkPermalinkPermalinkPermalinkPermalinkPermalinkPermalinkDégradation/Suppression de Données Dirigée Par le Besoin d’Anonymat Exprimé Par le Propriétaire des Données / Bouaicha,Smail
PermalinkLa délivrance des alertes dans les réseaux véhiculaires à base des réseaux de capteurs sans fil / Anane,Fahima
PermalinkDelphi 6:Delphi 6 developer's guide / Steve Teivier
Permalink