University Sétif 1 FERHAT ABBAS Faculty of Sciences
Catégories


Titre : Comparative Scheme of Modern Cryptosystems Type de document : texte imprimé Auteurs : Yasser Redouane Kadiri, Auteur ; Mounkidh Bouchareb ; Kharchi ,Samia, Directeur de thèse Editeur : Setif:UFA Année de publication : 2024 Importance : 1 vol (45 f .) Format : 29 cm Langues : Anglais (eng) Catégories : Thèses & Mémoires:Informatique Mots-clés : Cryptography
Modern cryptosystems
Data Security
Symmetric Encryption
Asymmetric EncryptionIndex. décimale : 004 - Informatique Résumé :
In today’s digital era, safeguarding information is crucial for businesses, governments, and individuals
due to the increasing cyber risks. This study aims to examine modern cryptosystems, comparing symmetric
encryption and asymmetric encryption methods including AES, Twofish, Camellia, ChaCha20, RSA,
and ElGamal, while assessing their strengths and weaknesses. The necessity of identifying the optimal
algorithm for specific contexts underscores the significance of our research. To this end, we have developed
a comparative scheme represented in a desktop application. By using this application and through
multiple tests on the mentioned algorithms across various file types and sizes, we found that symmetric
algorithms like AES and ChaCha20 are faster and more efficient, particularly for large files, while
asymmetric algorithms like RSA and ElGamal are slower and utilize more memory. We recommend
ChaCha20 for small files and AES for large files. These insights assist in making informed decisions
about selecting the appropriate encryption algorithms to protect our data.Note de contenu : Sommaire
Acknowledgments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . i
Dedication . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ii
Abstract . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iv
Résumé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iv
Abstract (in arabic) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . v
List of Figures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . vi
List of Tables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . vii
List of Abbreviations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . viii
General introduction 1
1 Modern Cryptography: Exploring Techniques and Applications 2
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Overview of Cryptography . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.2 Objectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.3 Cryptography Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.4 Case Study: Example of a Cryptographic Attack . . . . . . . . . . . . . . . . . 4
1.2.5 The importance of adopting strong cryptography . . . . . . . . . . . . . . . . . 4
1.2.6 Cryptography Types . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Symmetric Cryptography . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1 Substitution cipher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.2 Stream cipher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.3 Block cipher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Asymmetric cryptography . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.1 RSA Algorithm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.2 ElGamal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4.3 Elliptic Curve Cryptography . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5 Hash Functions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5.1 An Overview of Hash functions . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5.2 The hash function SHA-256 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5.3 The hash function SHA-3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5.4 The hash function Blake3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.6 Post-Quantum Cryptography . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.6.1 Introduction to Quantum Computing Threats . . . . . . . . . . . . . . . . . . . 18
1.6.2 Overview of Post-Quantum Cryptography (PQC) . . . . . . . . . . . . . . . . . 18
1.6.3 Examples of Popular PQC Methods . . . . . . . . . . . . . . . . . . . . . . . . 18
1.6.4 Transitioning to PQC: Securing the Future . . . . . . . . . . . . . . . . . . . . . 19
1.7 Review of Related Research . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.7.1 Symmetric and Asymmetric Algorithms . . . . . . . . . . . . . . . . . . . . . . 19
1.7.2 Hash functions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2 Implementation and Results 23
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2 Implementation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2.1 Environmental Hardware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2.2 Environmental Software . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2.3 Implementation of the algorithms . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.4 CryptoCompare: Application overview . . . . . . . . . . . . . . . . . . . . . . 30
2.2.5 Scenario of Encryption and Decryption Process Using AES Algorithm . . . . . . 33
2.3 Results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.3.1 Experimental Setup . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.3.2 Experimental Results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.3.3 Overall Analysis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.3.4 Our Recommendations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
General conclusion 42Côte titre : MAI/0844 Comparative Scheme of Modern Cryptosystems [texte imprimé] / Yasser Redouane Kadiri, Auteur ; Mounkidh Bouchareb ; Kharchi ,Samia, Directeur de thèse . - [S.l.] : Setif:UFA, 2024 . - 1 vol (45 f .) ; 29 cm.
Langues : Anglais (eng)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Cryptography
Modern cryptosystems
Data Security
Symmetric Encryption
Asymmetric EncryptionIndex. décimale : 004 - Informatique Résumé :
In today’s digital era, safeguarding information is crucial for businesses, governments, and individuals
due to the increasing cyber risks. This study aims to examine modern cryptosystems, comparing symmetric
encryption and asymmetric encryption methods including AES, Twofish, Camellia, ChaCha20, RSA,
and ElGamal, while assessing their strengths and weaknesses. The necessity of identifying the optimal
algorithm for specific contexts underscores the significance of our research. To this end, we have developed
a comparative scheme represented in a desktop application. By using this application and through
multiple tests on the mentioned algorithms across various file types and sizes, we found that symmetric
algorithms like AES and ChaCha20 are faster and more efficient, particularly for large files, while
asymmetric algorithms like RSA and ElGamal are slower and utilize more memory. We recommend
ChaCha20 for small files and AES for large files. These insights assist in making informed decisions
about selecting the appropriate encryption algorithms to protect our data.Note de contenu : Sommaire
Acknowledgments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . i
Dedication . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ii
Abstract . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iv
Résumé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iv
Abstract (in arabic) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . v
List of Figures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . vi
List of Tables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . vii
List of Abbreviations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . viii
General introduction 1
1 Modern Cryptography: Exploring Techniques and Applications 2
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Overview of Cryptography . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.2 Objectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.3 Cryptography Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.4 Case Study: Example of a Cryptographic Attack . . . . . . . . . . . . . . . . . 4
1.2.5 The importance of adopting strong cryptography . . . . . . . . . . . . . . . . . 4
1.2.6 Cryptography Types . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Symmetric Cryptography . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1 Substitution cipher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.2 Stream cipher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.3 Block cipher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Asymmetric cryptography . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.1 RSA Algorithm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.2 ElGamal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4.3 Elliptic Curve Cryptography . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5 Hash Functions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5.1 An Overview of Hash functions . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5.2 The hash function SHA-256 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5.3 The hash function SHA-3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5.4 The hash function Blake3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.6 Post-Quantum Cryptography . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.6.1 Introduction to Quantum Computing Threats . . . . . . . . . . . . . . . . . . . 18
1.6.2 Overview of Post-Quantum Cryptography (PQC) . . . . . . . . . . . . . . . . . 18
1.6.3 Examples of Popular PQC Methods . . . . . . . . . . . . . . . . . . . . . . . . 18
1.6.4 Transitioning to PQC: Securing the Future . . . . . . . . . . . . . . . . . . . . . 19
1.7 Review of Related Research . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.7.1 Symmetric and Asymmetric Algorithms . . . . . . . . . . . . . . . . . . . . . . 19
1.7.2 Hash functions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2 Implementation and Results 23
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2 Implementation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2.1 Environmental Hardware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2.2 Environmental Software . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2.3 Implementation of the algorithms . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.4 CryptoCompare: Application overview . . . . . . . . . . . . . . . . . . . . . . 30
2.2.5 Scenario of Encryption and Decryption Process Using AES Algorithm . . . . . . 33
2.3 Results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.3.1 Experimental Setup . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.3.2 Experimental Results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.3.3 Overall Analysis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.3.4 Our Recommendations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
General conclusion 42Côte titre : MAI/0844 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0844 MAI/0844 Mémoire Bibliothéque des sciences Anglais Disponible
DisponibleComparative study of population-based metaheuristic algorithms for Adaptive Networkbased on Inference System parameters optimization / Mennad Saidi
![]()
Titre : Comparative study of population-based metaheuristic algorithms for Adaptive Networkbased on Inference System parameters optimization Type de document : texte imprimé Auteurs : Mennad Saidi ; Akrem Chelghoum ; Mohamed Abderraouf Ferradji Editeur : Setif:UFA Année de publication : 2023 Importance : 1 vol (44 f.) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Informatique Mots-clés : ANFIS : Adaptive Neuro Fuzzy Inference System
PSO : Particle Swarm Optimization
GWO : Grey Wolf Optimizer
DE : Differential Evolution
GA : Genetic Algorithm
ANN : artificial neural network
FLS : Fuzzy Logic Systems
RMSE : Root Mean Square ErrorIndex. décimale : 004 Informatique Résumé : In this work we present a study on neural network, fuzzy logic system and ANFIS
and we try to improve the parameters of ANFIS adaptive fuzzy inference system
using a metaheuristic algorithms ( PSO GWO DE ) , Where PSO that is based
on the swarm intelligence concept (such as the flocking of birds) and GWO The
algorithm mimics the leadership hierarchy and hunting mechanism of grey wolves
in nature, where four types of grey wolves such as alpha, beta, delta, and omega are
employed for simulating the leadership hierarchy, and DE that iteratively tries to
improve a candidate solution with regard to a given measure of quality, for solving
complex optimization problems and GA which are inspired by natural selection by
simulating biological processes such as mutation, crossing over, and selection are
frequently used to produce excellent solutions for optimization and research problems,
Where the results showed a significant convergence between these algorithms = Dans ce travail, nous présentons une étude sur le réseau de neurones, le système
de logique floue et ANFIS et nous essayons d’améliorer les paramètres du système
d’inférence floue adaptative ANFIS en utilisant un algorithme métaheuristique
(PSO GWO DE), o`u PSO qui est bas´e sur le concept d’intelligence en essaim ( tels
que le troupeau d’oiseaux) et GWO L’algorithme imite la hiérarchie de leadership
et le mécanisme de chasse des loups gris dans la nature, o`u quatre types de loups
gris tels que alpha, bêta, delta et oméga sont utilisés pour simuler la hiérarchie
de leadership, et DE qui essaie de maniére itérative d’améliorer une solution candidate
par rapport `a une mesure de qualité donnée, pour résoudre des problèmes
d’optimisation complexes et GA qui s’inspirent de la sélection naturelle en simulant
des processus biologiques tels que la mutation, le croisement et la sélection
sont fréquemment utilisés pour produire d’excellentes solutions pour des problèmes
d’optimisation et de recherche, o`u les résultats ont montré une convergence significative
entre ces algorithmes
Côte titre : MAI/0768 En ligne : https://drive.google.com/file/d/1wnGZVG78kMiS1tM1IO8yg1zE5kA68cbs/view?usp=drive [...] Format de la ressource électronique : Comparative study of population-based metaheuristic algorithms for Adaptive Networkbased on Inference System parameters optimization [texte imprimé] / Mennad Saidi ; Akrem Chelghoum ; Mohamed Abderraouf Ferradji . - [S.l.] : Setif:UFA, 2023 . - 1 vol (44 f.) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Informatique Mots-clés : ANFIS : Adaptive Neuro Fuzzy Inference System
PSO : Particle Swarm Optimization
GWO : Grey Wolf Optimizer
DE : Differential Evolution
GA : Genetic Algorithm
ANN : artificial neural network
FLS : Fuzzy Logic Systems
RMSE : Root Mean Square ErrorIndex. décimale : 004 Informatique Résumé : In this work we present a study on neural network, fuzzy logic system and ANFIS
and we try to improve the parameters of ANFIS adaptive fuzzy inference system
using a metaheuristic algorithms ( PSO GWO DE ) , Where PSO that is based
on the swarm intelligence concept (such as the flocking of birds) and GWO The
algorithm mimics the leadership hierarchy and hunting mechanism of grey wolves
in nature, where four types of grey wolves such as alpha, beta, delta, and omega are
employed for simulating the leadership hierarchy, and DE that iteratively tries to
improve a candidate solution with regard to a given measure of quality, for solving
complex optimization problems and GA which are inspired by natural selection by
simulating biological processes such as mutation, crossing over, and selection are
frequently used to produce excellent solutions for optimization and research problems,
Where the results showed a significant convergence between these algorithms = Dans ce travail, nous présentons une étude sur le réseau de neurones, le système
de logique floue et ANFIS et nous essayons d’améliorer les paramètres du système
d’inférence floue adaptative ANFIS en utilisant un algorithme métaheuristique
(PSO GWO DE), o`u PSO qui est bas´e sur le concept d’intelligence en essaim ( tels
que le troupeau d’oiseaux) et GWO L’algorithme imite la hiérarchie de leadership
et le mécanisme de chasse des loups gris dans la nature, o`u quatre types de loups
gris tels que alpha, bêta, delta et oméga sont utilisés pour simuler la hiérarchie
de leadership, et DE qui essaie de maniére itérative d’améliorer une solution candidate
par rapport `a une mesure de qualité donnée, pour résoudre des problèmes
d’optimisation complexes et GA qui s’inspirent de la sélection naturelle en simulant
des processus biologiques tels que la mutation, le croisement et la sélection
sont fréquemment utilisés pour produire d’excellentes solutions pour des problèmes
d’optimisation et de recherche, o`u les résultats ont montré une convergence significative
entre ces algorithmes
Côte titre : MAI/0768 En ligne : https://drive.google.com/file/d/1wnGZVG78kMiS1tM1IO8yg1zE5kA68cbs/view?usp=drive [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0768 MAI/0768 Mémoire Bibliothéque des sciences Anglais Disponible
DisponibleComparison between deep and machine learning for Arabic sentiment analysis / Yahia Salah Eddine Sersoub
Titre : Comparison between deep and machine learning for Arabic sentiment analysis Type de document : texte imprimé Auteurs : Yahia Salah Eddine Sersoub, Auteur ; Oussama Bouberrima ; Fatiha Tebbani, Directeur de thèse Editeur : Setif:UFA Année de publication : 2024 Importance : 1 vol (47 f .) Format : 29 cm Langues : Anglais (eng) Catégories : Thèses & Mémoires:Informatique Mots-clés : Informatique Index. décimale : 004 - Informatique Résumé :
This work explores the effectiveness of machine learning and deep learning
methods for sentiment analysis in Arabic dialects. The goal is to determine
the most effective method for analyzing Arabic emotions, whether deep
learning or machine learning, and to classify text excerpts into three
emotional categories : positive, negative, and neutral. This work uses
several machine learning algorithms such as support vector machines and
random forests, as well as deep learning architectures such as
convolutional neural networks and recurrent neural networks. The results
and performance of these methods are compared and evaluated on datasets
specifically designed for the selected dialects.Note de contenu : Sommaire
General Introduction 1
1 Sentiment Analysis and the Arabic Language 1
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Sentiment analysis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.3 Basic concepts of sentiment analysis . . . . . . . . . . . . . . . . . . . . . . 2
1.3.1 Objective vs. Subjective Sentences . . . . . . . . . . . . . . . . . . . 2
1.3.2 Categorization of feelings . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3.3 Sentiment analysis levels . . . . . . . . . . . . . . . . . . . . . . . 3
1.4 Sentiment analysis applications . . . . . . . . . . . . . . . . . . . . . . . . 4
1.5 Sentiment Analysis Classification (Approaches) . . . . . . . . . . . . . . . 5
1.6 Evaluation Measures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.7 Arabic language . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.7.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.7.2 Arabic language types . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.7.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2 Machine-Learning and Deep Learning 11
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Machine learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3 Why use machine learning . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3.1 Improve efficiency and automation . . . . . . . . . . . . . . . . . . 11
2.3.2 Better decision making . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3.3 Innovation and creation of new products and services . . . . . . . . 12
2.4 Types of machine learning . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.4.1 Supervised Learning . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.4.2 Unsupervised Learning . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4.3 Semi-Supervised Learning . . . . . . . . . . . . . . . . . . . . . . . 19
2.4.4 Reinforcement Learning . . . . . . . . . . . . . . . . . . . . . . . . 19
2.5 Machine Learning Steps . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5.1 Data Collection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5.2 Data Preprocessing . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5.3 Choosing the right model . . . . . . . . . . . . . . . . . . . . . . . 21
2.5.4 Training the model . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.5.5 Evaluating the model . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.5.6 Hyperparameter tuning and optimization . . . . . . . . . . . . . . . 21
2.5.7 Predictions and deployment . . . . . . . . . . . . . . . . . . . . . . 21
2.6 Deep learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.6.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.7 Basic concepts of deep learning . . . . . . . . . . . . . . . . . . . . . . . . 22
2.7.1 Single Neuron . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.7.2 Activation functions . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.8 Deep learning architecture . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.8.1 Artificial Neural Networks (ANN) : . . . . . . . . . . . . . . . . . . 26
2.8.2 Recurrent Neural Networks (RNNs) : . . . . . . . . . . . . . . . . . 27
2.8.3 Long Short-Term Memory (LSTMs) . . . . . . . . . . . . . . . . . 28
2.8.4 Convolutional Neural Networks(CNN) . . . . . . . . . . . . . . . . 29
2.9 Conclusion : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3 Practical side 32
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.2 Development environment . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.2.1 Python : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.2.2 Anaconda : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.2.3 Jupyter notebook : . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.2.4 Google colab : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2.5 Pandas : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2.6 Numpy : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2.7 Matplotlib . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2.8 Scikit-learn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2.9 Pickle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.10 NLTK (Natural Language ToolKit) . . . . . . . . . . . . . . . . . . 34
3.2.11 Gensim . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.12 Tkinter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.3 Data collection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.4 Implementation : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.4.1 Data pre-processing . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.4.2 Word Embedding . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.4.3 Implementation of Machine Learning algorithms : . . . . . . . . . . 38
3.4.4 Implementation of Deep Learning models : . . . . . . . . . . . . . . 41
3.4.5 Comparison of the results : . . . . . . . . . . . . . . . . . . . . . . 43
3.4.6 Model prediction result : . . . . . . . . . . . . . . . . . . . . . . . 46
3.4.7 Graphic Interface . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.5 Conclusion : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47Côte titre : MAI/0894 Comparison between deep and machine learning for Arabic sentiment analysis [texte imprimé] / Yahia Salah Eddine Sersoub, Auteur ; Oussama Bouberrima ; Fatiha Tebbani, Directeur de thèse . - [S.l.] : Setif:UFA, 2024 . - 1 vol (47 f .) ; 29 cm.
Langues : Anglais (eng)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Informatique Index. décimale : 004 - Informatique Résumé :
This work explores the effectiveness of machine learning and deep learning
methods for sentiment analysis in Arabic dialects. The goal is to determine
the most effective method for analyzing Arabic emotions, whether deep
learning or machine learning, and to classify text excerpts into three
emotional categories : positive, negative, and neutral. This work uses
several machine learning algorithms such as support vector machines and
random forests, as well as deep learning architectures such as
convolutional neural networks and recurrent neural networks. The results
and performance of these methods are compared and evaluated on datasets
specifically designed for the selected dialects.Note de contenu : Sommaire
General Introduction 1
1 Sentiment Analysis and the Arabic Language 1
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Sentiment analysis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.3 Basic concepts of sentiment analysis . . . . . . . . . . . . . . . . . . . . . . 2
1.3.1 Objective vs. Subjective Sentences . . . . . . . . . . . . . . . . . . . 2
1.3.2 Categorization of feelings . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3.3 Sentiment analysis levels . . . . . . . . . . . . . . . . . . . . . . . 3
1.4 Sentiment analysis applications . . . . . . . . . . . . . . . . . . . . . . . . 4
1.5 Sentiment Analysis Classification (Approaches) . . . . . . . . . . . . . . . 5
1.6 Evaluation Measures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.7 Arabic language . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.7.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.7.2 Arabic language types . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.7.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2 Machine-Learning and Deep Learning 11
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Machine learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3 Why use machine learning . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3.1 Improve efficiency and automation . . . . . . . . . . . . . . . . . . 11
2.3.2 Better decision making . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3.3 Innovation and creation of new products and services . . . . . . . . 12
2.4 Types of machine learning . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.4.1 Supervised Learning . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.4.2 Unsupervised Learning . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4.3 Semi-Supervised Learning . . . . . . . . . . . . . . . . . . . . . . . 19
2.4.4 Reinforcement Learning . . . . . . . . . . . . . . . . . . . . . . . . 19
2.5 Machine Learning Steps . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5.1 Data Collection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5.2 Data Preprocessing . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5.3 Choosing the right model . . . . . . . . . . . . . . . . . . . . . . . 21
2.5.4 Training the model . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.5.5 Evaluating the model . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.5.6 Hyperparameter tuning and optimization . . . . . . . . . . . . . . . 21
2.5.7 Predictions and deployment . . . . . . . . . . . . . . . . . . . . . . 21
2.6 Deep learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.6.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.7 Basic concepts of deep learning . . . . . . . . . . . . . . . . . . . . . . . . 22
2.7.1 Single Neuron . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.7.2 Activation functions . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.8 Deep learning architecture . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.8.1 Artificial Neural Networks (ANN) : . . . . . . . . . . . . . . . . . . 26
2.8.2 Recurrent Neural Networks (RNNs) : . . . . . . . . . . . . . . . . . 27
2.8.3 Long Short-Term Memory (LSTMs) . . . . . . . . . . . . . . . . . 28
2.8.4 Convolutional Neural Networks(CNN) . . . . . . . . . . . . . . . . 29
2.9 Conclusion : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3 Practical side 32
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.2 Development environment . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.2.1 Python : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.2.2 Anaconda : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.2.3 Jupyter notebook : . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.2.4 Google colab : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2.5 Pandas : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2.6 Numpy : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2.7 Matplotlib . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2.8 Scikit-learn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2.9 Pickle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.10 NLTK (Natural Language ToolKit) . . . . . . . . . . . . . . . . . . 34
3.2.11 Gensim . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.12 Tkinter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.3 Data collection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.4 Implementation : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.4.1 Data pre-processing . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.4.2 Word Embedding . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.4.3 Implementation of Machine Learning algorithms : . . . . . . . . . . 38
3.4.4 Implementation of Deep Learning models : . . . . . . . . . . . . . . 41
3.4.5 Comparison of the results : . . . . . . . . . . . . . . . . . . . . . . 43
3.4.6 Model prediction result : . . . . . . . . . . . . . . . . . . . . . . . 46
3.4.7 Graphic Interface . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.5 Conclusion : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47Côte titre : MAI/0894 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0894 MAI/0894 Mémoire Bibliothéque des sciences Anglais Disponible
DisponibleComplexité lexicale des textes Arabes par les techniques d’apprentissage automatique / Chenni,Ghozlene
![]()
Titre : Complexité lexicale des textes Arabes par les techniques d’apprentissage automatique Type de document : texte imprimé Auteurs : Chenni,Ghozlene, Auteur ; Sadik Bessou, Directeur de thèse Editeur : Setif:UFA Année de publication : 2019 Langues : Français (fre) Catégories : Thèses & Mémoires:Informatique Mots-clés : Traitement du langage naturel
Classification du texte arabe
complexité lexicale
Arabe
Extraction de caractéristiques
Apprentissage automatiqueIndex. décimale : 004 Informatique Résumé : La langue arabe est l’une des langues les plus anciennes et les plus complexes du
monde, mais elle existe encore jusqu’à présent. En raison de la complexité de cette
langue, elle présente des défis pour de nombreuses applications de traitement en
langage naturel.
Dans ce mémoire, nous présentons les détails de la collecte et de la construction
d’un grand ensemble de données "corpus" de textes arabes. Les techniques
utilisées pour le prétraitement des données collectées sont expliquées. Nous
présentons nos quatre classes: ancienne, islamique, récente et enfantine.
Différents algorithmes d’apprentissage automatique ont été utilisés pour classer
les textes: Bayes naïves multinomiales, Bernoulli Naive Bayes, Régression logistique,
Support Vector Machine, et Random Forest. Et un modèle N-gram a été
proposé où les documents sont classés sur la base de: everygrams, unigrammes,
bigrams, unigrammes et bigrams ensemble.
Les meilleurs résultats de la précision que nous avons obtenue en utilisant
Countvectorizer était 86,47% avec le classificateur Bayes Naive Multinomial, et
87,2% en utilisant Tfidfvectorizer avec le classificateur Support Vector Machine
en utilisant everygrams .Note de contenu : Sommaire
Abstract ii
Acknowledgements v
1 Introduction 1
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Thesis organization . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2 Natural Language Processing 3
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.2 Natural Language Processing (NLP) . . . . . . . . . . . . . . . . . . 3
2.3 NLP components . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.4 Levels of NLP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.4.1 Phonology . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.4.2 Morphology . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.4.3 Lexical . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.4.4 Syntax . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.4.5 Semantics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.4.6 Pragmatics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.4.7 Discourse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.5 Natural Language Processing Applications . . . . . . . . . . . . . . 9
2.5.1 Information Retrieval . . . . . . . . . . . . . . . . . . . . . . 9
2.5.2 Speech Recognition (SR) . . . . . . . . . . . . . . . . . . . . . 10
2.5.3 Information Extraction (IE) . . . . . . . . . . . . . . . . . . . 10
vii
2.5.4 Spam Filtering . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.5.5 Question-Answering . . . . . . . . . . . . . . . . . . . . . . 12
2.5.6 Summarization . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.5.7 Machine Translation . . . . . . . . . . . . . . . . . . . . . . 13
2.5.8 Dialogue Systems . . . . . . . . . . . . . . . . . . . . . . . . 14
2.5.9 Text Categorization . . . . . . . . . . . . . . . . . . . . . . . . 14
2.5.10 Medicine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3 Machine Learning 16
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.2 Machine Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.3 Definitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.3.1 Alan Turing . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.3.2 Arthur Samuel . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.3.3 Tom Mitchell . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.3.4 Sebastian Raschka . . . . . . . . . . . . . . . . . . . . . . . . 18
3.4 Machine Learning Process . . . . . . . . . . . . . . . . . . . . . . . . 18
3.5 Machine Learning Categories . . . . . . . . . . . . . . . . . . . . . . 19
3.5.1 Supervised Learning . . . . . . . . . . . . . . . . . . . . . . . 20
3.5.1.1 Classification . . . . . . . . . . . . . . . . . . . . . . 20
3.5.1.2 Regression . . . . . . . . . . . . . . . . . . . . . . . 20
3.5.2 Unsupervised Learning . . . . . . . . . . . . . . . . . . . . . 21
3.5.2.1 Clustering . . . . . . . . . . . . . . . . . . . . . . . 21
3.5.2.2 Dimensionality Reduction . . . . . . . . . . . . . . 22
3.5.3 Reinforcement Learning . . . . . . . . . . . . . . . . . . . . . 22
3.6 Machine Learning Algorithms . . . . . . . . . . . . . . . . . . . . . . 23
3.6.1 Naive Bayes Classifiers . . . . . . . . . . . . . . . . . . . . . 23
3.6.1.1 Multinomial Naive Bayes . . . . . . . . . . . . . . . 24
viii
3.6.1.2 Bernoulli Naive Bayes . . . . . . . . . . . . . . . . . 25
3.6.2 Decision Tree . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.6.2.1 Decision Tree Representation . . . . . . . . . . . . . 25
3.6.3 Random Forests . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.6.3.1 The General Idea . . . . . . . . . . . . . . . . . . . . 27
3.6.4 Logistic Regression . . . . . . . . . . . . . . . . . . . . . . . . 28
3.6.5 Support Vector Machine . . . . . . . . . . . . . . . . . . . . . 28
3.6.5.1 Basic concept . . . . . . . . . . . . . . . . . . . . . . 29
3.6.5.2 Linear Support Vector Machines . . . . . . . . . . . 30
3.6.5.3 The Non-Separable Case . . . . . . . . . . . . . . . 31
3.6.6 Artificial Neural Networks . . . . . . . . . . . . . . . . . . . 33
3.6.6.1 Basics Of Artificial Neural Networks . . . . . . . . 33
3.6.6.2 Neural Networks Types . . . . . . . . . . . . . . . . 34
3.6.6.3 Activation Functions . . . . . . . . . . . . . . . . . 35
3.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4 Arabic Lexical Complexity 38
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.2 The Arabic Language . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.3 Characteristics of Arabic Language . . . . . . . . . . . . . . . . . . . 39
4.4 Arabic Text classification . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.5 Arabic complexity . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
5 Datasets And Implementation Frameworks 43
5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5.2 Proposed System implementation . . . . . . . . . . . . . . . . . . . . 43
5.2.1 Data Collection . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.2.1.1 Dataset statistics . . . . . . . . . . . . . . . . . . . . 46
5.2.2 Data Preprocessing . . . . . . . . . . . . . . . . . . . . . . . . 47
ix
5.2.3 Training and test sets . . . . . . . . . . . . . . . . . . . . . . . 50
5.2.4 Features Extraction . . . . . . . . . . . . . . . . . . . . . . . . 51
5.2.4.1 CountVectorizer . . . . . . . . . . . . . . . . . . . . 52
5.2.4.2 TfidfVectorizer . . . . . . . . . . . . . . . . . . . . . 53
5.2.4.3 N-grams . . . . . . . . . . . . . . . . . . . . . . . . 54
5.2.5 Classification . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.3 Implementation Frameworks . . . . . . . . . . . . . . . . . . . . . . 56
5.3.1 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.3.2 Jupyter Notebook . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.3.3 TensorFlow . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.3.4 Keras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.3.5 NLTK . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.3.6 Pandas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.3.7 Scikit-learn . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.3.8 Matplotlib . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.3.9 Seaborn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
6 Results And Discussion 60
6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
6.2 Evaluation metrics of performance . . . . . . . . . . . . . . . . . . . 60
6.2.1 Accuracy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.2.2 Precision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
6.2.3 Recall . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
6.2.4 F-score . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
6.3 Results and evaluation . . . . . . . . . . . . . . . . . . . . . . . . . . 62
6.3.1 Results using CountVectorizer . . . . . . . . . . . . . . . . . 63
6.3.1.1 Using everygrams . . . . . . . . . . . . . . . . . . . 63
6.3.1.2 Using Unigrams . . . . . . . . . . . . . . . . . . . . 64
x
6.3.1.3 Using Bigrams . . . . . . . . . . . . . . . . . . . . . 65
6.3.1.4 Using Unigrams and Bigrams . . . . . . . . . . . . 66
6.3.2 summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
6.3.3 Results using TfidfVectorizer . . . . . . . . . . . . . . . . . . 68
6.3.3.1 Using everygrams . . . . . . . . . . . . . . . . . . . 68
6.3.3.2 Using Unigrams . . . . . . . . . . . . . . . . . . . . 69
6.3.3.3 Using Bigrams . . . . . . . . . . . . . . . . . . . . . 70
6.3.3.4 Using Unigrams and Bigrams . . . . . . . . . . . . 71
6.3.4 summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
6.3.5 Testing the classifier . . . . . . . . . . . . . . . . . . . . . . . 73
6.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
7 Conclusion 75
7.1 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
7.2 Future Works . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
BibliographyCôte titre : MAI/0298 En ligne : https://drive.google.com/file/d/1ceh0in6uDQMW_m9_7t3zxipgLKgjvYcx/view?usp=shari [...] Format de la ressource électronique : Complexité lexicale des textes Arabes par les techniques d’apprentissage automatique [texte imprimé] / Chenni,Ghozlene, Auteur ; Sadik Bessou, Directeur de thèse . - [S.l.] : Setif:UFA, 2019.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Traitement du langage naturel
Classification du texte arabe
complexité lexicale
Arabe
Extraction de caractéristiques
Apprentissage automatiqueIndex. décimale : 004 Informatique Résumé : La langue arabe est l’une des langues les plus anciennes et les plus complexes du
monde, mais elle existe encore jusqu’à présent. En raison de la complexité de cette
langue, elle présente des défis pour de nombreuses applications de traitement en
langage naturel.
Dans ce mémoire, nous présentons les détails de la collecte et de la construction
d’un grand ensemble de données "corpus" de textes arabes. Les techniques
utilisées pour le prétraitement des données collectées sont expliquées. Nous
présentons nos quatre classes: ancienne, islamique, récente et enfantine.
Différents algorithmes d’apprentissage automatique ont été utilisés pour classer
les textes: Bayes naïves multinomiales, Bernoulli Naive Bayes, Régression logistique,
Support Vector Machine, et Random Forest. Et un modèle N-gram a été
proposé où les documents sont classés sur la base de: everygrams, unigrammes,
bigrams, unigrammes et bigrams ensemble.
Les meilleurs résultats de la précision que nous avons obtenue en utilisant
Countvectorizer était 86,47% avec le classificateur Bayes Naive Multinomial, et
87,2% en utilisant Tfidfvectorizer avec le classificateur Support Vector Machine
en utilisant everygrams .Note de contenu : Sommaire
Abstract ii
Acknowledgements v
1 Introduction 1
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Thesis organization . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2 Natural Language Processing 3
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.2 Natural Language Processing (NLP) . . . . . . . . . . . . . . . . . . 3
2.3 NLP components . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.4 Levels of NLP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.4.1 Phonology . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.4.2 Morphology . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.4.3 Lexical . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.4.4 Syntax . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.4.5 Semantics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.4.6 Pragmatics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.4.7 Discourse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.5 Natural Language Processing Applications . . . . . . . . . . . . . . 9
2.5.1 Information Retrieval . . . . . . . . . . . . . . . . . . . . . . 9
2.5.2 Speech Recognition (SR) . . . . . . . . . . . . . . . . . . . . . 10
2.5.3 Information Extraction (IE) . . . . . . . . . . . . . . . . . . . 10
vii
2.5.4 Spam Filtering . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.5.5 Question-Answering . . . . . . . . . . . . . . . . . . . . . . 12
2.5.6 Summarization . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.5.7 Machine Translation . . . . . . . . . . . . . . . . . . . . . . 13
2.5.8 Dialogue Systems . . . . . . . . . . . . . . . . . . . . . . . . 14
2.5.9 Text Categorization . . . . . . . . . . . . . . . . . . . . . . . . 14
2.5.10 Medicine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3 Machine Learning 16
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.2 Machine Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.3 Definitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.3.1 Alan Turing . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.3.2 Arthur Samuel . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.3.3 Tom Mitchell . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.3.4 Sebastian Raschka . . . . . . . . . . . . . . . . . . . . . . . . 18
3.4 Machine Learning Process . . . . . . . . . . . . . . . . . . . . . . . . 18
3.5 Machine Learning Categories . . . . . . . . . . . . . . . . . . . . . . 19
3.5.1 Supervised Learning . . . . . . . . . . . . . . . . . . . . . . . 20
3.5.1.1 Classification . . . . . . . . . . . . . . . . . . . . . . 20
3.5.1.2 Regression . . . . . . . . . . . . . . . . . . . . . . . 20
3.5.2 Unsupervised Learning . . . . . . . . . . . . . . . . . . . . . 21
3.5.2.1 Clustering . . . . . . . . . . . . . . . . . . . . . . . 21
3.5.2.2 Dimensionality Reduction . . . . . . . . . . . . . . 22
3.5.3 Reinforcement Learning . . . . . . . . . . . . . . . . . . . . . 22
3.6 Machine Learning Algorithms . . . . . . . . . . . . . . . . . . . . . . 23
3.6.1 Naive Bayes Classifiers . . . . . . . . . . . . . . . . . . . . . 23
3.6.1.1 Multinomial Naive Bayes . . . . . . . . . . . . . . . 24
viii
3.6.1.2 Bernoulli Naive Bayes . . . . . . . . . . . . . . . . . 25
3.6.2 Decision Tree . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.6.2.1 Decision Tree Representation . . . . . . . . . . . . . 25
3.6.3 Random Forests . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.6.3.1 The General Idea . . . . . . . . . . . . . . . . . . . . 27
3.6.4 Logistic Regression . . . . . . . . . . . . . . . . . . . . . . . . 28
3.6.5 Support Vector Machine . . . . . . . . . . . . . . . . . . . . . 28
3.6.5.1 Basic concept . . . . . . . . . . . . . . . . . . . . . . 29
3.6.5.2 Linear Support Vector Machines . . . . . . . . . . . 30
3.6.5.3 The Non-Separable Case . . . . . . . . . . . . . . . 31
3.6.6 Artificial Neural Networks . . . . . . . . . . . . . . . . . . . 33
3.6.6.1 Basics Of Artificial Neural Networks . . . . . . . . 33
3.6.6.2 Neural Networks Types . . . . . . . . . . . . . . . . 34
3.6.6.3 Activation Functions . . . . . . . . . . . . . . . . . 35
3.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4 Arabic Lexical Complexity 38
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.2 The Arabic Language . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.3 Characteristics of Arabic Language . . . . . . . . . . . . . . . . . . . 39
4.4 Arabic Text classification . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.5 Arabic complexity . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
5 Datasets And Implementation Frameworks 43
5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5.2 Proposed System implementation . . . . . . . . . . . . . . . . . . . . 43
5.2.1 Data Collection . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.2.1.1 Dataset statistics . . . . . . . . . . . . . . . . . . . . 46
5.2.2 Data Preprocessing . . . . . . . . . . . . . . . . . . . . . . . . 47
ix
5.2.3 Training and test sets . . . . . . . . . . . . . . . . . . . . . . . 50
5.2.4 Features Extraction . . . . . . . . . . . . . . . . . . . . . . . . 51
5.2.4.1 CountVectorizer . . . . . . . . . . . . . . . . . . . . 52
5.2.4.2 TfidfVectorizer . . . . . . . . . . . . . . . . . . . . . 53
5.2.4.3 N-grams . . . . . . . . . . . . . . . . . . . . . . . . 54
5.2.5 Classification . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.3 Implementation Frameworks . . . . . . . . . . . . . . . . . . . . . . 56
5.3.1 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.3.2 Jupyter Notebook . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.3.3 TensorFlow . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.3.4 Keras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.3.5 NLTK . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.3.6 Pandas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.3.7 Scikit-learn . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.3.8 Matplotlib . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.3.9 Seaborn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
6 Results And Discussion 60
6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
6.2 Evaluation metrics of performance . . . . . . . . . . . . . . . . . . . 60
6.2.1 Accuracy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.2.2 Precision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
6.2.3 Recall . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
6.2.4 F-score . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
6.3 Results and evaluation . . . . . . . . . . . . . . . . . . . . . . . . . . 62
6.3.1 Results using CountVectorizer . . . . . . . . . . . . . . . . . 63
6.3.1.1 Using everygrams . . . . . . . . . . . . . . . . . . . 63
6.3.1.2 Using Unigrams . . . . . . . . . . . . . . . . . . . . 64
x
6.3.1.3 Using Bigrams . . . . . . . . . . . . . . . . . . . . . 65
6.3.1.4 Using Unigrams and Bigrams . . . . . . . . . . . . 66
6.3.2 summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
6.3.3 Results using TfidfVectorizer . . . . . . . . . . . . . . . . . . 68
6.3.3.1 Using everygrams . . . . . . . . . . . . . . . . . . . 68
6.3.3.2 Using Unigrams . . . . . . . . . . . . . . . . . . . . 69
6.3.3.3 Using Bigrams . . . . . . . . . . . . . . . . . . . . . 70
6.3.3.4 Using Unigrams and Bigrams . . . . . . . . . . . . 71
6.3.4 summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
6.3.5 Testing the classifier . . . . . . . . . . . . . . . . . . . . . . . 73
6.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
7 Conclusion 75
7.1 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
7.2 Future Works . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
BibliographyCôte titre : MAI/0298 En ligne : https://drive.google.com/file/d/1ceh0in6uDQMW_m9_7t3zxipgLKgjvYcx/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0298 MAI/0298 Mémoire Bibliothéque des sciences Français Disponible
Disponible
Titre : Component models as enablers for real time systems (RTS) Type de document : texte imprimé Auteurs : Mansouri,Hayame, Auteur ; Abdallah Khababa, Directeur de thèse Editeur : Setif:UFA Année de publication : 2020 Importance : 1 vol (50 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Informatique Mots-clés : Systèmes en temps réel
Composants
Modèles de composants
Délais
délais durs et souplesIndex. décimale : 004 - Informatique Résumé :
Les modèles de composants sont basés sur le concept de composants et constituent
le meilleur moyen de réaliser des systèmes en temps réel en raison de leur
nature modulaire et de la séparation entre le code et les interfaces. Un système en
temps réel signie que la réponse doit être garantie dans une contrainte de temps
spéciée ou que le système doit respecter le délai spécié. Cette thèse présente une
étape vers la réalisation d'une application de streaming vidéo basée sur des composants
et respectant les exigences de synchronisation des systèmes temps réel. La
mise en ÷uvre de c'est à l'aide d'un rebase en temps réel qui contientun base de
données en temps réel, la vidéo sera diusée à tous les utilisateurs instantanément.
Le système qui répond à un délai spécique est également présent.Côte titre : MAI/0378 En ligne : https://drive.google.com/file/d/1Qiets6WfRkuKRnEKTRT07_vtj_JRWsQ5/view?usp=shari [...] Format de la ressource électronique : Component models as enablers for real time systems (RTS) [texte imprimé] / Mansouri,Hayame, Auteur ; Abdallah Khababa, Directeur de thèse . - [S.l.] : Setif:UFA, 2020 . - 1 vol (50 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Systèmes en temps réel
Composants
Modèles de composants
Délais
délais durs et souplesIndex. décimale : 004 - Informatique Résumé :
Les modèles de composants sont basés sur le concept de composants et constituent
le meilleur moyen de réaliser des systèmes en temps réel en raison de leur
nature modulaire et de la séparation entre le code et les interfaces. Un système en
temps réel signie que la réponse doit être garantie dans une contrainte de temps
spéciée ou que le système doit respecter le délai spécié. Cette thèse présente une
étape vers la réalisation d'une application de streaming vidéo basée sur des composants
et respectant les exigences de synchronisation des systèmes temps réel. La
mise en ÷uvre de c'est à l'aide d'un rebase en temps réel qui contientun base de
données en temps réel, la vidéo sera diusée à tous les utilisateurs instantanément.
Le système qui répond à un délai spécique est également présent.Côte titre : MAI/0378 En ligne : https://drive.google.com/file/d/1Qiets6WfRkuKRnEKTRT07_vtj_JRWsQ5/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0378 MAI/0378 Mémoire Bibliothéque des sciences Anglais Disponible
DisponiblePermalinkPermalinkPermalinkPermalinkPermalinkPermalinkPermalinkPermalinkPermalinkPermalinkPermalinkPermalinkPermalinkConception et Implémentation d’Architectures Modulaires et Hiérarchiques en Reconnaissance Biométrique / Regouid,Meryem
![]()
PermalinkConception et implémentation d'un classifieur SVM pour la reconnaissance de visage humain / Louaim,Maroua
![]()
PermalinkConception et implémentation d'un simulateur pour les réseaux de capteurs sans fil / Khalfi,hanane
![]()
PermalinkConception d’un outil d’aide à l’indexation sémantique des ressources pédagogiques / CHETTOUH, Sarah
![]()
PermalinkPermalinkConception et réalisation d'une application multi-plateforme pour la gestion numérique de l'Ecole (e-school) / Khadidja Barkat
![]()
PermalinkPermalinkPermalinkConception et Réalisation d'un site WebTV pour la Fédération des Associations des parents d'élèves de la wilaya de Sétif / Tebani, Slimane Houssam Eddine
![]()
PermalinkConception et Réalisation d’un système de Réalité Augmentée appliquée aux opérations sur les systèmes Industriels / Kenzi Bey
![]()
PermalinkPermalinkPermalinkPermalinkConstruction et interrogation d’une ontologie de domaine pour un environnement d’apprentissage collaboratif / BOUDJELDA, Lamia
![]()
PermalinkConstruction of a corpus of tweets in Arabic and annotation in semantic roles and emotions / Bendris ,Aimen
![]()
PermalinkPermalinkConstruire, inférer et aligner des profils pour l’adaptation des documents multimédias / BELLAL, Wassim
![]()
PermalinkPermalinkPermalinkPermalinkContext-independent word embedding methods in Machine Learning for Arabic Document Classification / Mohamed Akram Belbedar
![]()
PermalinkContribution bio-inspirée basée sur l'algorithme de Pélican Search dans les MANETs / Mourad Felouah
![]()
PermalinkContribution à la conception d'architecture logicielle sure des systèmes critiques basés agent / Boucherit,Ammar
![]()
PermalinkContribution à la sécurisation du protocole SIP : Amélioration de l’authentification http-digest / GUESSAS, Yaâkoub
![]()
PermalinkContribution à la segmentation d'images médicales par les algrithmes bio- inspirés / Moussa,Semchedine
![]()
PermalinkContributions à l'étude de la diagnosticabilité et la prédictibilité des systèmes à événements discrets flous / Benmessahel, Bilal
![]()
PermalinkContributions à la Résolution de l'Emergence Inversée en Utilisant les Métaheuristiques Quantiques / Djemame,Sefia
![]()
Permalink"Control des mouvements d'avatar en utilisant la technique ""Inverse Kenimatics"" " / Cheraga,k.abdelmoumene
PermalinkContrôle autonomique contextualise guide par les ontologies des applications mobiles multimodales / Abderrahim Lakehal
![]()
PermalinkPermalinkPermalinkPermalink