University Sétif 1 FERHAT ABBAS Faculty of Sciences
Détail de l'auteur
Auteur Hamitouche,Ilyes |
Documents disponibles écrits par cet auteur



Deep learning for the recognition and classification of different postures and behaviors of vehicle drivers / Hamitouche,Ilyes
![]()
Titre : Deep learning for the recognition and classification of different postures and behaviors of vehicle drivers Type de document : texte imprimé Auteurs : Hamitouche,Ilyes, Auteur ; Moussaoui ,Abdelouahab, Directeur de thèse Editeur : Setif:UFA Année de publication : 2018 Importance : 1 vol (71 f .) Format : 29 cm Langues : Anglais (eng) Langues originales : Anglais (eng) Catégories : Thèses & Mémoires:Informatique Mots-clés : Deep learning
Réseau de neurons convolutionnel
Reconnaissance
Des postures
Apprentissage automatique
Data mining
TensorflowIndex. décimale : 004 Informatique Résumé : Résumé
Ce travail présente un nouveau système qui applique le réseau de neurons
convolutionnel pour détecter automatiquement et prédire les postures des
conducteurs. L’idée principale est de surveiller les informations discriminantes
extraites pour prédire les différentes postures de conduite. L’approche
a été testée et vérifiée à l’aide du base de données State Farm distracted
driver, qui comprend des images couvrant dix positions de conduite différentes,
y compris la conduite normal (sécurisée), parler au téléphone main
droite/main gauche, manipuler la radio, parler avec le passager etc. Comparé
à d’autres approches populaires avec des descripteurs d’image et des
méthodes de classification différents, notre modèle a obtenu les meilleures
résultats.Note de contenu :
Sommaire
List of Tables 9
List of Figures 11
1 Introduction 1
1.1 Thesis objectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Thesis organization . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2 Background 3
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.2 Why DataMining (Motivation) ? . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.3 Type of data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.3.1 Data of DataBases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.3.2 Data of DataWarehouses . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.3.3 Transactional data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.4 DataMining techniques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.4.1 Association rules mining . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.4.2 Classification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.4.3 Prediction technique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4.4 Clustering technique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4.5 Outlier analysis technique . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.5 DataMining Task Primitives . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.6 What isMachine learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.6.1 Some Definitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.7 Machine learning techniques . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.7.1 Supervised learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.7.2 Unsupervised learning . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.8 Machine Learning algorithms . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.8.1 Decision Tree . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.8.2 Support vector machine . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.8.3 Neural networks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.8.4 Randomforests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3
CONTENTS
2.9 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3 Deep Learning Overview:
A new artificial intelligence alternative. 23
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2 Concepts and definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2.2 Concepts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.3 Deep Learning architectures types . . . . . . . . . . . . . . . . . . . . . . . . 24
3.3.1 Deep Autoencoder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.3.2 Deep Belief Networks . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.3.3 Convolutional Neural Networks (CNNs) . . . . . . . . . . . . . . . . 28
3.3.4 Recurrent Neural Networks . . . . . . . . . . . . . . . . . . . . . . . . 32
3.3.5 Comparison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.4 Deep Learning Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.4.1 Image and video processing . . . . . . . . . . . . . . . . . . . . . . . . 33
3.4.2 Speech and audio processing . . . . . . . . . . . . . . . . . . . . . . . 34
3.4.3 Text Analysis and Natural Language Processing . . . . . . . . . . . . 35
3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4 Literature review 37
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.2 Posture recognition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.2.2 Concept . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.2.3 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.3 Human postures recognition methods . . . . . . . . . . . . . . . . . . . . . . 40
4.3.1 Intrusive techniques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.3.2 Non-intrusive techniques . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.4 Postures recognition methodology . . . . . . . . . . . . . . . . . . . . . . . . 41
4.4.1 Data Acquisition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.4.2 Preprocessing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.4.3 Segmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.4.4 Feature Extrcation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.4.5 Recognition and classification . . . . . . . . . . . . . . . . . . . . . . 43
4.5 RelatedWork . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5 Methodology and tools 47
5.1 Dataset, Preprocessing and features extraction . . . . . . . . . . . . . . . . . 47
CONTENTS
5.1.1 Dataset description . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.1.2 Preprocessing and Feature extraction . . . . . . . . . . . . . . . . . . 49
5.2 Development environment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.2.1 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.2.2 Jupyter Notebook . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.2.3 Tensorflow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.2.4 Keras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.2.5 Scikitlearn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.2.6 Google Colaboratory . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.3 Methodology . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.3.1 Implementation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.3.2 Poposed approaches . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.3.3 CNN Confugirations results . . . . . . . . . . . . . . . . . . . . . . . . 54
5.4 Results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.4.1 First configuration results . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.4.2 Second configuration results . . . . . . . . . . . . . . . . . . . . . . . 55
5.4.3 Randomforest results . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.5 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
6 Conclusion 61
Bibliography 63
Côte titre : MAI/0227 En ligne : https://drive.google.com/file/d/1g4J8M_tIvqVfAv0bAQQkVVw_UHQwsibf/view?usp=shari [...] Format de la ressource électronique : Deep learning for the recognition and classification of different postures and behaviors of vehicle drivers [texte imprimé] / Hamitouche,Ilyes, Auteur ; Moussaoui ,Abdelouahab, Directeur de thèse . - [S.l.] : Setif:UFA, 2018 . - 1 vol (71 f .) ; 29 cm.
Langues : Anglais (eng) Langues originales : Anglais (eng)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Deep learning
Réseau de neurons convolutionnel
Reconnaissance
Des postures
Apprentissage automatique
Data mining
TensorflowIndex. décimale : 004 Informatique Résumé : Résumé
Ce travail présente un nouveau système qui applique le réseau de neurons
convolutionnel pour détecter automatiquement et prédire les postures des
conducteurs. L’idée principale est de surveiller les informations discriminantes
extraites pour prédire les différentes postures de conduite. L’approche
a été testée et vérifiée à l’aide du base de données State Farm distracted
driver, qui comprend des images couvrant dix positions de conduite différentes,
y compris la conduite normal (sécurisée), parler au téléphone main
droite/main gauche, manipuler la radio, parler avec le passager etc. Comparé
à d’autres approches populaires avec des descripteurs d’image et des
méthodes de classification différents, notre modèle a obtenu les meilleures
résultats.Note de contenu :
Sommaire
List of Tables 9
List of Figures 11
1 Introduction 1
1.1 Thesis objectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Thesis organization . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2 Background 3
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.2 Why DataMining (Motivation) ? . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.3 Type of data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.3.1 Data of DataBases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.3.2 Data of DataWarehouses . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.3.3 Transactional data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.4 DataMining techniques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.4.1 Association rules mining . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.4.2 Classification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.4.3 Prediction technique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4.4 Clustering technique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4.5 Outlier analysis technique . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.5 DataMining Task Primitives . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.6 What isMachine learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.6.1 Some Definitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.7 Machine learning techniques . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.7.1 Supervised learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.7.2 Unsupervised learning . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.8 Machine Learning algorithms . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.8.1 Decision Tree . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.8.2 Support vector machine . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.8.3 Neural networks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.8.4 Randomforests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3
CONTENTS
2.9 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3 Deep Learning Overview:
A new artificial intelligence alternative. 23
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2 Concepts and definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2.2 Concepts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.3 Deep Learning architectures types . . . . . . . . . . . . . . . . . . . . . . . . 24
3.3.1 Deep Autoencoder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.3.2 Deep Belief Networks . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.3.3 Convolutional Neural Networks (CNNs) . . . . . . . . . . . . . . . . 28
3.3.4 Recurrent Neural Networks . . . . . . . . . . . . . . . . . . . . . . . . 32
3.3.5 Comparison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.4 Deep Learning Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.4.1 Image and video processing . . . . . . . . . . . . . . . . . . . . . . . . 33
3.4.2 Speech and audio processing . . . . . . . . . . . . . . . . . . . . . . . 34
3.4.3 Text Analysis and Natural Language Processing . . . . . . . . . . . . 35
3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4 Literature review 37
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.2 Posture recognition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.2.2 Concept . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.2.3 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.3 Human postures recognition methods . . . . . . . . . . . . . . . . . . . . . . 40
4.3.1 Intrusive techniques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.3.2 Non-intrusive techniques . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.4 Postures recognition methodology . . . . . . . . . . . . . . . . . . . . . . . . 41
4.4.1 Data Acquisition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.4.2 Preprocessing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.4.3 Segmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.4.4 Feature Extrcation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.4.5 Recognition and classification . . . . . . . . . . . . . . . . . . . . . . 43
4.5 RelatedWork . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5 Methodology and tools 47
5.1 Dataset, Preprocessing and features extraction . . . . . . . . . . . . . . . . . 47
CONTENTS
5.1.1 Dataset description . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.1.2 Preprocessing and Feature extraction . . . . . . . . . . . . . . . . . . 49
5.2 Development environment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.2.1 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.2.2 Jupyter Notebook . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.2.3 Tensorflow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.2.4 Keras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.2.5 Scikitlearn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.2.6 Google Colaboratory . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.3 Methodology . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.3.1 Implementation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.3.2 Poposed approaches . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.3.3 CNN Confugirations results . . . . . . . . . . . . . . . . . . . . . . . . 54
5.4 Results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.4.1 First configuration results . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.4.2 Second configuration results . . . . . . . . . . . . . . . . . . . . . . . 55
5.4.3 Randomforest results . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.5 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
6 Conclusion 61
Bibliography 63
Côte titre : MAI/0227 En ligne : https://drive.google.com/file/d/1g4J8M_tIvqVfAv0bAQQkVVw_UHQwsibf/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0227 MAI/0227 Mémoire Bibliothéque des sciences Anglais Disponible
Disponible