Titre : |
Fake news detection and rewording fetch(Darija, Arab, French, English) |
Type de document : |
document électronique |
Auteurs : |
Belkacem Djaouzi ; Samir Hebbat ; Kenza Ayad ; Salim Belkhiri ; Nadjet Kemel, Directeur de thèse ; Samir Hebbat |
Editeur : |
Setif:UFA |
Année de publication : |
2024 |
Importance : |
1 vol (96 f .) |
Format : |
29 cm |
Langues : |
Français (fre) |
Catégories : |
Thèses & Mémoires:Informatique
|
Mots-clés : |
Artificial intelligence Long Short-Term Memory (LSTM) Transformer Natural Language
Processing Arabic Dialects |
Index. décimale : |
004 Informatique |
Résumé : |
This dissertation explores advanced machine learning techniques for Fake News Detection (FND), focusing
particularly on transformer models and Long Short-Term Memory (LSTM) architectures. The aim
of this research is to develop models capable of accurately identifying and mitigating the spread of false
information by leveraging the power of deep learning and natural language processing (NLP) frameworks.
The research begins with a comprehensive overview of the current landscape of fake news and its impact
on society. Various machine learning and deep learning approaches are analyzed, including traditional
models, as well as more advanced neural network architectures. Particular emphasis is placed on the use of
transformer models, which have proven to be highly effective in NLP tasks.
Through extensive experimentation, we demonstrate that our proposed LSTM architecture, specifically
designed for the challenges of fake news detection, achieves superior performance compared to traditional
methods. Additionally, we adapt a pre-trained transformer model using transfer learning, which allows us
to fine-tune it for the detection of false news in Arabic dialects.
Additionally, we introduce a dynamic approach that incorporates reinforcement learning to enhance the
model’s performance over time. |
Note de contenu : |
Contents
Acknowledgements 2
Abstract 3
Contents 6
List of Figures 11
List of Tables 13
Introduction 14
1 Overview of Fake News Recognition and the Use of Artificial Intelligence Techniques for
Misinformation Detection 16
1.1 Fake news Recognition Overview . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.1.1 Fake news definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.1.2 Characteristics and impact . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.1.2.1 Common type of fake news . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2 Artificial Intelligence Techniques in the Detection of Misinformation . . . . . . . . . . 18
1.2.1 Machine Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 18
1.2.1.1 Supervised learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.2.1.2 Unsupervised learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.2.1.3 Reinforcement learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.2.2 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.2.2.1 Artificial Neural Networks (ANNs) . . . . . . . . . . . . . . . . . . . . . . . . 21
1.2.2.2 Convolutional Neural Networks (CNNs) . . . . . . . . . . . . . . . . . . . . 22
1.2.2.3 Recurrent Neural Networks (RNNs) . . . . . . . . . . . . . . . . . . . . . . . 22
1.2.2.4 Long Short-Term Memory (LSTM) . . . . . . . . . . . . . . . . . . . . . . . 23
1.2.3 Transformers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.2.3.1 Background on Transformers . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.2.3.2 Transformer Architecture . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.3 Works Related to Fake News Detection . . . . . . . . . . . . . . . . . . . . . . . . 26
1.3.1 Measure fake news’ impact . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.3.2 NLP and machine learning besides size up the leverage of feature . . . . . . . . . . . . 29
1.3.3 Markov chain modeling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 30
1.3.4 NLP and deep learning method . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.4 Translator Models and Advanced Learning Strategies: Transfer Learning, Fine-Tuning, and
Optimization Techniques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.4.1 Type of translator . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.4.1.1 STM Family . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.4.1.2 NMT family . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.4.2 Transfer Learning and Fine-Tuning: Strategies and Challenges . . . . . . . . . . . . . 33
1.4.2.1 Transfer Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.4.2.2 Fine-Tuning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.4.2.3 Challenges Addressed . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.4.3 Curve Enhancement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.4.4 Logarithmic Scales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.4.5 The Fast Fourier Transform (FFT) . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.4.5.1 The Importance of the Fast Fourier Transform (FFT) in Data Analysis . . . 36
2 Key Data Challenges and Approaches in AI 39
2.1 Importance of data set in artificial intelligence . . . . . . . . . . . . . . . . . . . . 39
2.1.1 Key Roles of Datasets in AI Model Development . . . . . . . . . . . . . . . . . . . . . 39
2.1.2 Objectives in Developing an Arabic Translation Model for Fake News Detection . . . . 40
2.1.3 Challenges Associated with Non-Predominant Languages, Particularly the Arabic Language. . . . 40
2.1.4 Challenges in Using Google Translate and Alternative Solutions for Language Translation 41
2.2 Data Processioning and Cleaning . . . . . . . . . . . . . . . . . . . . . . . . .. 42
2.2.1 Data Exploration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.2.2 Data Cleaning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.2.3 Handling Special Characters and Emojis . . . . . . . . . . . . . . . . . . . . 42
2.2.4 Stemming and Lemmatization . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.2.5 Text Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.3 Data Augmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.4 Data Balancing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.5 Text Segmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.6 All dataset used regard models and services . . . . . . . . . . . . . . . . . . 43
2.7 Performance’s Metric . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.7.1 BLEU metric (Bilingual Evaluation Understudy) . . . . . . . . . . . . . . . . 45
2.7.2 REUGE Metric for NMT Evaluation . . . . . . . . . . . . . . . . . . . . . . 45
2.7.3 COMET . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.7.4 Statistic’s metric . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.7.5 Other metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3 Contribution 1 : Translator model 49
3.1 Our model in STM, LSTM and NMT . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.1.1 STM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.1.2 LSTM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.1.2.1 Our proposed LSTM architecture . . . . . . . . . . . . . . . . . . . . . . . . 50
3.1.2.2 Detailed Explanation of LSTM Cell Operations . . . . . . . . . . . . . . . . 53
3.1.2.3 Step-by-Step Encoder-Decoder LSTM Walkthrough . . . . . . . . . . . . . . 53
3.1.3 NMT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.2 Result . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.2.1 STM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.2.2 LSTM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.2.3 NMT-TFM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.3 Model result interpretation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.3.1 STM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.3.2 LSTM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.3.3 NMT-TFM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4 Contribution 2 : Fake news detection models 68
4.1 Comprehensive Feature Analysis Using Advanced APIs . . . . . . . . . . . . . . . . 68
4.1.1 Lexical Cues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.1.2 Syntactic Cues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.1.3 Semantic Cues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .69
4.1.4 Psycholinguistic Cues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.1.5 Bias-Related Cues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.1.6 Discourse-Level Cues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.1.7 Metadata and Non-textual Cues . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.2 A Transfer Learning over Potented our own built-in ransformers . . . . . . . . . . . . 71
4.2.1 Our Model . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.3 Results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.3.1 Machine learning’result . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.3.2 Deep learning’s result . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
5 Implementation 77
5.1 Application’s Architecture . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
5.1.1 General Architecture of our Application . . . . . . . . . . . . . . . . . . . 77
5.1.2 Analysis and Design . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
5.1.2.1 Application Requirements . . . . . . . . . . . . . . . . . . . . . . . . . 79
5.1.2.2 Sequence and flow diagram . . . . . . . . . . . . . . . . . . . . . . . . 79
5.1.2.3 Deployment diagram . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
5.2 Implementation detail: CUDA API training . . . . . . . . . . . . . . . . . . 84
5.2.1 Understanding the Role of GPUs in AI Training . . . . . . . . . . . . . . 84
5.2.1.1 Parallel Processing . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.2.1.2 Memory Bandwidth . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.2.2 The CUDA Workflow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.2.2.1 Data Transfer . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.2.2.2 Kernel Launch . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.2.2.3 Data Transfer . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.2.3 Benefits of CUDA for AI Training . . . . . . . . . . . . . . . . . . .85
5.3 UI UX User interface and experience . . . . . . . . . . . . . . . . . . 86
5.3.1 Front-End Technologies . . . . . . . . . . . . . . . . . . . . . . . 86
5.3.1.1 HTML (HyperText Markup Language) . . . . . . . . . . . . . . . . 86
5.3.1.2 CSS (Cascading Style Sheets) . . . . . . . . . . . . . . . . . . 86
5.3.1.3 JavaScript . . . . . . . . . . . . . . . . . . . . . . . . . .. 86
5.3.1.4 Bootstrap . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.3.2 Back-End Technologies . . . . . . . . . . . . . . . . . . . . . 87
5.3.2.1 Django . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.3.2.2 SQLite . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.3.2.3 Django Templating System . . . . . . . . . . . . . . . . . . 87
5.3.3 User Interface (UI) . . . . . . . . . . . . . . . . . . . . 87
5.3.4 User Experience (UX) . . . . . . . . . . . . . . . . . . . .89
5.4 The offered services . . . . . . . . . . . . . . . . . . . 90
Conclusion 92
Bibliography 93 |
Côte titre : |
MAI/0955 |
Fake news detection and rewording fetch(Darija, Arab, French, English) [document électronique] / Belkacem Djaouzi ; Samir Hebbat ; Kenza Ayad ; Salim Belkhiri ; Nadjet Kemel, Directeur de thèse ; Samir Hebbat . - [S.l.] : Setif:UFA, 2024 . - 1 vol (96 f .) ; 29 cm. Langues : Français ( fre)
Catégories : |
Thèses & Mémoires:Informatique
|
Mots-clés : |
Artificial intelligence Long Short-Term Memory (LSTM) Transformer Natural Language
Processing Arabic Dialects |
Index. décimale : |
004 Informatique |
Résumé : |
This dissertation explores advanced machine learning techniques for Fake News Detection (FND), focusing
particularly on transformer models and Long Short-Term Memory (LSTM) architectures. The aim
of this research is to develop models capable of accurately identifying and mitigating the spread of false
information by leveraging the power of deep learning and natural language processing (NLP) frameworks.
The research begins with a comprehensive overview of the current landscape of fake news and its impact
on society. Various machine learning and deep learning approaches are analyzed, including traditional
models, as well as more advanced neural network architectures. Particular emphasis is placed on the use of
transformer models, which have proven to be highly effective in NLP tasks.
Through extensive experimentation, we demonstrate that our proposed LSTM architecture, specifically
designed for the challenges of fake news detection, achieves superior performance compared to traditional
methods. Additionally, we adapt a pre-trained transformer model using transfer learning, which allows us
to fine-tune it for the detection of false news in Arabic dialects.
Additionally, we introduce a dynamic approach that incorporates reinforcement learning to enhance the
model’s performance over time. |
Note de contenu : |
Contents
Acknowledgements 2
Abstract 3
Contents 6
List of Figures 11
List of Tables 13
Introduction 14
1 Overview of Fake News Recognition and the Use of Artificial Intelligence Techniques for
Misinformation Detection 16
1.1 Fake news Recognition Overview . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.1.1 Fake news definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.1.2 Characteristics and impact . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.1.2.1 Common type of fake news . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2 Artificial Intelligence Techniques in the Detection of Misinformation . . . . . . . . . . 18
1.2.1 Machine Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 18
1.2.1.1 Supervised learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.2.1.2 Unsupervised learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.2.1.3 Reinforcement learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.2.2 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.2.2.1 Artificial Neural Networks (ANNs) . . . . . . . . . . . . . . . . . . . . . . . . 21
1.2.2.2 Convolutional Neural Networks (CNNs) . . . . . . . . . . . . . . . . . . . . 22
1.2.2.3 Recurrent Neural Networks (RNNs) . . . . . . . . . . . . . . . . . . . . . . . 22
1.2.2.4 Long Short-Term Memory (LSTM) . . . . . . . . . . . . . . . . . . . . . . . 23
1.2.3 Transformers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.2.3.1 Background on Transformers . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.2.3.2 Transformer Architecture . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.3 Works Related to Fake News Detection . . . . . . . . . . . . . . . . . . . . . . . . 26
1.3.1 Measure fake news’ impact . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.3.2 NLP and machine learning besides size up the leverage of feature . . . . . . . . . . . . 29
1.3.3 Markov chain modeling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 30
1.3.4 NLP and deep learning method . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.4 Translator Models and Advanced Learning Strategies: Transfer Learning, Fine-Tuning, and
Optimization Techniques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.4.1 Type of translator . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.4.1.1 STM Family . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.4.1.2 NMT family . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.4.2 Transfer Learning and Fine-Tuning: Strategies and Challenges . . . . . . . . . . . . . 33
1.4.2.1 Transfer Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.4.2.2 Fine-Tuning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.4.2.3 Challenges Addressed . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.4.3 Curve Enhancement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.4.4 Logarithmic Scales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.4.5 The Fast Fourier Transform (FFT) . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.4.5.1 The Importance of the Fast Fourier Transform (FFT) in Data Analysis . . . 36
2 Key Data Challenges and Approaches in AI 39
2.1 Importance of data set in artificial intelligence . . . . . . . . . . . . . . . . . . . . 39
2.1.1 Key Roles of Datasets in AI Model Development . . . . . . . . . . . . . . . . . . . . . 39
2.1.2 Objectives in Developing an Arabic Translation Model for Fake News Detection . . . . 40
2.1.3 Challenges Associated with Non-Predominant Languages, Particularly the Arabic Language. . . . 40
2.1.4 Challenges in Using Google Translate and Alternative Solutions for Language Translation 41
2.2 Data Processioning and Cleaning . . . . . . . . . . . . . . . . . . . . . . . . .. 42
2.2.1 Data Exploration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.2.2 Data Cleaning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.2.3 Handling Special Characters and Emojis . . . . . . . . . . . . . . . . . . . . 42
2.2.4 Stemming and Lemmatization . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.2.5 Text Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.3 Data Augmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.4 Data Balancing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.5 Text Segmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.6 All dataset used regard models and services . . . . . . . . . . . . . . . . . . 43
2.7 Performance’s Metric . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.7.1 BLEU metric (Bilingual Evaluation Understudy) . . . . . . . . . . . . . . . . 45
2.7.2 REUGE Metric for NMT Evaluation . . . . . . . . . . . . . . . . . . . . . . 45
2.7.3 COMET . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.7.4 Statistic’s metric . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.7.5 Other metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3 Contribution 1 : Translator model 49
3.1 Our model in STM, LSTM and NMT . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.1.1 STM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.1.2 LSTM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.1.2.1 Our proposed LSTM architecture . . . . . . . . . . . . . . . . . . . . . . . . 50
3.1.2.2 Detailed Explanation of LSTM Cell Operations . . . . . . . . . . . . . . . . 53
3.1.2.3 Step-by-Step Encoder-Decoder LSTM Walkthrough . . . . . . . . . . . . . . 53
3.1.3 NMT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.2 Result . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.2.1 STM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.2.2 LSTM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.2.3 NMT-TFM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.3 Model result interpretation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.3.1 STM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.3.2 LSTM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.3.3 NMT-TFM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4 Contribution 2 : Fake news detection models 68
4.1 Comprehensive Feature Analysis Using Advanced APIs . . . . . . . . . . . . . . . . 68
4.1.1 Lexical Cues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.1.2 Syntactic Cues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.1.3 Semantic Cues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .69
4.1.4 Psycholinguistic Cues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.1.5 Bias-Related Cues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.1.6 Discourse-Level Cues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.1.7 Metadata and Non-textual Cues . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.2 A Transfer Learning over Potented our own built-in ransformers . . . . . . . . . . . . 71
4.2.1 Our Model . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.3 Results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.3.1 Machine learning’result . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.3.2 Deep learning’s result . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
5 Implementation 77
5.1 Application’s Architecture . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
5.1.1 General Architecture of our Application . . . . . . . . . . . . . . . . . . . 77
5.1.2 Analysis and Design . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
5.1.2.1 Application Requirements . . . . . . . . . . . . . . . . . . . . . . . . . 79
5.1.2.2 Sequence and flow diagram . . . . . . . . . . . . . . . . . . . . . . . . 79
5.1.2.3 Deployment diagram . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
5.2 Implementation detail: CUDA API training . . . . . . . . . . . . . . . . . . 84
5.2.1 Understanding the Role of GPUs in AI Training . . . . . . . . . . . . . . 84
5.2.1.1 Parallel Processing . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.2.1.2 Memory Bandwidth . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.2.2 The CUDA Workflow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.2.2.1 Data Transfer . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.2.2.2 Kernel Launch . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.2.2.3 Data Transfer . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.2.3 Benefits of CUDA for AI Training . . . . . . . . . . . . . . . . . . .85
5.3 UI UX User interface and experience . . . . . . . . . . . . . . . . . . 86
5.3.1 Front-End Technologies . . . . . . . . . . . . . . . . . . . . . . . 86
5.3.1.1 HTML (HyperText Markup Language) . . . . . . . . . . . . . . . . 86
5.3.1.2 CSS (Cascading Style Sheets) . . . . . . . . . . . . . . . . . . 86
5.3.1.3 JavaScript . . . . . . . . . . . . . . . . . . . . . . . . . .. 86
5.3.1.4 Bootstrap . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.3.2 Back-End Technologies . . . . . . . . . . . . . . . . . . . . . 87
5.3.2.1 Django . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.3.2.2 SQLite . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.3.2.3 Django Templating System . . . . . . . . . . . . . . . . . . 87
5.3.3 User Interface (UI) . . . . . . . . . . . . . . . . . . . . 87
5.3.4 User Experience (UX) . . . . . . . . . . . . . . . . . . . .89
5.4 The offered services . . . . . . . . . . . . . . . . . . . 90
Conclusion 92
Bibliography 93 |
Côte titre : |
MAI/0955 |
|