University Sétif 1 FERHAT ABBAS Faculty of Sciences
Détail de l'indexation
Ouvrages de la bibliothèque en indexation 004 - Informatique


Titre : 3-D Computer Vision : Principles, Algorithms and Applications Type de document : texte imprimé Auteurs : Yu-Jin Zhang Editeur : Berlin : Springer-Verlag Année de publication : 2023 Importance : 1 vol (743 p.) Format : 24 cm ISBN/ISSN/EAN : 978-981-19757-9-0 Langues : Français (fre) Catégories : Informatique Mots-clés : Informatique Index. décimale : 004 - Informatique Résumé :
This textbook offers advanced content on computer vision (basic content can be found in its prerequisite textbook, “2D Computer Vision: Principles, Algorithms and Applications”), including the basic principles, typical methods and practical techniques. It is intended for graduate courses on related topics, e.g. Computer Vision, 3-D Computer Vision, Graphics, Artificial Intelligence, etc.
The book is mainly based on my lecture notes for several undergraduate and graduate classes I have offered over the past several years, while a number of topics stem from my research publications co-authored with my students. This book takes into account the needs of learners with various professional backgrounds, as well as those of self-learners. Furthermore, it can be used as a reference guide for practitioners and professionals in related fields.
To aid in comprehension, the book includes a wealth of self-test questions (with hints and answersCôte titre : Fs/24984 3-D Computer Vision : Principles, Algorithms and Applications [texte imprimé] / Yu-Jin Zhang . - Berlin : Springer-Verlag, 2023 . - 1 vol (743 p.) ; 24 cm.
ISBN : 978-981-19757-9-0
Langues : Français (fre)
Catégories : Informatique Mots-clés : Informatique Index. décimale : 004 - Informatique Résumé :
This textbook offers advanced content on computer vision (basic content can be found in its prerequisite textbook, “2D Computer Vision: Principles, Algorithms and Applications”), including the basic principles, typical methods and practical techniques. It is intended for graduate courses on related topics, e.g. Computer Vision, 3-D Computer Vision, Graphics, Artificial Intelligence, etc.
The book is mainly based on my lecture notes for several undergraduate and graduate classes I have offered over the past several years, while a number of topics stem from my research publications co-authored with my students. This book takes into account the needs of learners with various professional backgrounds, as well as those of self-learners. Furthermore, it can be used as a reference guide for practitioners and professionals in related fields.
To aid in comprehension, the book includes a wealth of self-test questions (with hints and answersCôte titre : Fs/24984 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité Fs/24984 Fs/24984 Livre Bibliothéque des sciences Anglais Disponible
Sorti jusqu'au 04/11/2024
Titre : les activités d’élicitation et analyse des exigences au context aux projets big data Type de document : texte imprimé Auteurs : Manel Ariba, Auteur ; Anfel Matoug ; Khabbaba ,Abdellah, Directeur de thèse Editeur : Sétif:UFS Année de publication : 2023 Importance : 1 vol (60 f.) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Informatique Mots-clés : Informatique Index. décimale : 004 - Informatique Résumé : Ce mémoire met en évidence l'importance des activités d'élicitation et d'analyse
des exigences dans le contexte des projets Big Data. Il souligne les défis
spécifiques liés à la gestion et à l'exploitation des données massives, ainsi que
les meilleures pratiques pour mener à bien ces activités.
L'objectif de cette étude est d'analyser les activités d'élicitation et d'analyse des
exigences spécifiques aux projets Big Data. Elle explore les différentes
techniques et approches utilisées dans ce contexte complexe.
Dans cette thèse, nous proposons une solution en quatre étapes : tout d'abord, la
vérification des anomalies pour toutes les exigences, suivie du stockage des
exigences présentant des problèmes dans la table des anomalies. Ensuite, nous
procédons à la révision des anomalies et terminons par la mise à jour du
référentiel des exigences.
Notre solution présente l'avantage d'appliquer la vérification des ambiguïtés,
ainsi que la vérification des exigences spécifiques aux projets Big Data, en
particulier la cohérence des propriétés telles que le volume, la vitesse et la
variété. Nous avons mis en pratique cette solution à travers une étude de cas
pour démontrer la faisabilité de notre proposition = This thesis highlights the importance of elicitation and requirements analysis
activities in the context of Big Data projects. It highlights the specific challenges
of managing and leveraging big data, as well as best practices for carrying out
these activities.
The objective of this study is to analyze the activities of elicitation and analysis
of requirements specific to Big Data projects. It explores the different techniques
and approaches used in this complex context.
In this thesis, we propose a four-step solution: first, checking for anomalies for
all requirements, followed by storing requirements with problems in the
anomaly table. Next, we review the anomalies and finish with updating the
requirements repository.
Our solution has the advantage of applying ambiguity checking, as well as
checking requirements specific to big data projects, especially consistency of
properties such as volume, speed and variety. We put this solution into practice
through a case study to demonstrate the feasibility of our proposal.Côte titre : MAI/0795
En ligne : https://drive.google.com/file/d/1WDhK5sHizA0ppVO3CY9m6_-LRBef5G_p/view?usp=drive [...] Format de la ressource électronique : les activités d’élicitation et analyse des exigences au context aux projets big data [texte imprimé] / Manel Ariba, Auteur ; Anfel Matoug ; Khabbaba ,Abdellah, Directeur de thèse . - [S.l.] : Sétif:UFS, 2023 . - 1 vol (60 f.) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Informatique Index. décimale : 004 - Informatique Résumé : Ce mémoire met en évidence l'importance des activités d'élicitation et d'analyse
des exigences dans le contexte des projets Big Data. Il souligne les défis
spécifiques liés à la gestion et à l'exploitation des données massives, ainsi que
les meilleures pratiques pour mener à bien ces activités.
L'objectif de cette étude est d'analyser les activités d'élicitation et d'analyse des
exigences spécifiques aux projets Big Data. Elle explore les différentes
techniques et approches utilisées dans ce contexte complexe.
Dans cette thèse, nous proposons une solution en quatre étapes : tout d'abord, la
vérification des anomalies pour toutes les exigences, suivie du stockage des
exigences présentant des problèmes dans la table des anomalies. Ensuite, nous
procédons à la révision des anomalies et terminons par la mise à jour du
référentiel des exigences.
Notre solution présente l'avantage d'appliquer la vérification des ambiguïtés,
ainsi que la vérification des exigences spécifiques aux projets Big Data, en
particulier la cohérence des propriétés telles que le volume, la vitesse et la
variété. Nous avons mis en pratique cette solution à travers une étude de cas
pour démontrer la faisabilité de notre proposition = This thesis highlights the importance of elicitation and requirements analysis
activities in the context of Big Data projects. It highlights the specific challenges
of managing and leveraging big data, as well as best practices for carrying out
these activities.
The objective of this study is to analyze the activities of elicitation and analysis
of requirements specific to Big Data projects. It explores the different techniques
and approaches used in this complex context.
In this thesis, we propose a four-step solution: first, checking for anomalies for
all requirements, followed by storing requirements with problems in the
anomaly table. Next, we review the anomalies and finish with updating the
requirements repository.
Our solution has the advantage of applying ambiguity checking, as well as
checking requirements specific to big data projects, especially consistency of
properties such as volume, speed and variety. We put this solution into practice
through a case study to demonstrate the feasibility of our proposal.Côte titre : MAI/0795
En ligne : https://drive.google.com/file/d/1WDhK5sHizA0ppVO3CY9m6_-LRBef5G_p/view?usp=drive [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0795 MAI/0795 Mémoire Bibliothéque des sciences Français Disponible
Disponible
Titre : Admin des reseau par la pratique : Exercices pour débutants Type de document : texte imprimé Auteurs : Youcef Dahmani, Auteur Editeur : Alger : OPU Année de publication : 2017 Importance : 1 vol. (127 p.) Présentation : ill. Format : 27 cm Langues : Français (fre) Catégories : Informatique Mots-clés : Informatique Index. décimale : 004 - Informatique Côte titre : Fs/21249-21258 Admin des reseau par la pratique : Exercices pour débutants [texte imprimé] / Youcef Dahmani, Auteur . - Alger : OPU, 2017 . - 1 vol. (127 p.) : ill. ; 27 cm.
Langues : Français (fre)
Catégories : Informatique Mots-clés : Informatique Index. décimale : 004 - Informatique Côte titre : Fs/21249-21258 Exemplaires (10)
Code-barres Cote Support Localisation Section Disponibilité Fs/21249 Fs/21249-21258 livre Bibliothéque des sciences Français Disponible
DisponibleFs/21250 Fs/21249-21258 livre Bibliothéque des sciences Français Disponible
DisponibleFs/21251 Fs/21249-21258 livre Bibliothéque des sciences Français Disponible
DisponibleFs/21252 Fs/21249-21258 livre Bibliothéque des sciences Français Disponible
DisponibleFs/21253 Fs/21249-21258 livre Bibliothéque des sciences Français Disponible
DisponibleFs/21254 Fs/21249-21258 livre Bibliothéque des sciences Français Disponible
DisponibleFs/21255 Fs/21249-21258 livre Bibliothéque des sciences Français Disponible
DisponibleFs/21256 Fs/21249-21258 livre Bibliothéque des sciences Français Disponible
DisponibleFs/21257 Fs/21249-21258 livre Bibliothéque des sciences Français Disponible
DisponibleFs/21258 Fs/21249-21258 livre Bibliothéque des sciences Français Disponible
DisponibleAdvanced Detection of Arabic Offensive Language in Social Media Using Machine Learning and Natural Language Processing / Asma Kahla
Titre : Advanced Detection of Arabic Offensive Language in Social Media Using Machine Learning and Natural Language Processing Type de document : texte imprimé Auteurs : Asma Kahla, Auteur ; Yassina Belguet ; Sadik Bessou, Directeur de thèse Editeur : Setif:UFA Année de publication : 2024 Importance : 1 vol (93 f .) Format : 29 cm Langues : Anglais (eng) Catégories : Thèses & Mémoires:Informatique Mots-clés : Offensive Language
Machine Learning
Natural Language Processing
TransformersIndex. décimale : 004 - Informatique Résumé :
Because social media platforms like Facebook offer so many services, they have become an
essential part of our everyday life. However, there has also been an increase in offensive
speech on these platforms, which has become a major issue. The massive amount of data
and the significant consumption of time and money make the old way of manually finding
and removing offensive language online extremely challenging. As a result, there is an
increasing need for automatic offensive language identification, particularly in cases when
posts are written in complex languages or lack resources, such as Arabic.
In this work, we focused on Algerian dialects. We used different machine learning algorithms:
Logistic Regression, SVM, MultinomialNB, BernoulliNB, and Stochastic Gradient
Descent. Our best results yielded accuracies of 89.70% and 89.19% for the Term
Frequency-Inverse Document Frequency (TFIDF) with n-gram and Bag of Words (BoW)
with n-gram, respectively, using MultinomialNB and BernoulliNB classifiers.
Additionally, we utilized Convolutional Neural Networks (CNN) and Long Short-Term
Memory (LSTM) models with BERT for data analysis, in our case we used marBERT v2.
In this experiment, LSTM achieved an accuracy of 89.20%. However, marBERT v2 alone
outperformed all previous experiments with an accuracy of 95%.Note de contenu : Sommaire
List of Figures i
List of Tables iv
General introduction 1
1 Offensive Language 3
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Offensive language . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.2 Offensive language types . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.3 Offensive language categories . . . . . . . . . . . . . . . . . . . . . 7
1.2.4 Different definitions of offensive language . . . . . . . . . . . . . . . 8
1.2.5 Offensive language in social media and peoples’ cultures . . . . . . 9
1.3 International laws . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4 Related works . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4.1 Current state in offensive language detection and related concept . 13
1.4.2 Summary and Analysis . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2 Machine Learning 20
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3 Machine Learning types . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.1 Supervised Learning . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.2 Unsupervised Learning . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.3 Reinforcement Learning . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3.4 Semi-supervised Learning . . . . . . . . . . . . . . . . . . . . . . . 23
2.4 Machine Learning algorithms . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4.1 Logistic regression . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4.2 Naive Bayes classifier . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.4.3 Stochastic Gradient Descent . . . . . . . . . . . . . . . . . . . . . . 24
2.4.4 Support Vector Machine . . . . . . . . . . . . . . . . . . . . . . . . 24
2.5 Machine Learning concepts . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.6 Machine Learning process . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.6.1 Data collection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.6.2 Preparation data . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.6.3 Choosing a model . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.6.4 Training the model . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.6.5 Testing the model . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.6.6 Improve the model . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
.6.7 Prediction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.7 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.7.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.7.2 Deep Learning types . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3 Sentiment Analysis 31
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2 Sentiment Analysis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2.1 Sentiments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2.2 Sentiments Analysis . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.3 Subjectivity classification . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.4 Sentiment analysis levels . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.4.1 Document-level sentiment analysis . . . . . . . . . . . . . . . . . . 33
3.4.2 Sentence level of sentiment analysis . . . . . . . . . . . . . . . . . . 33
3.4.3 Word/Phrase Level of sentiment analysis . . . . . . . . . . . . . . . 33
3.5 Sentiment Analysis approaches . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.5.1 Machine Learning (ML) . . . . . . . . . . . . . . . . . . . . . . . . 33
3.5.2 Lexicon-based approach . . . . . . . . . . . . . . . . . . . . . . . . 34
3.5.3 Hybrid approach . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.6 Types of Sentiment Analysis . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.6.1 Emotion Recognition . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.6.2 Fine-Grained . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
...........Côte titre : MAI/0913
Advanced Detection of Arabic Offensive Language in Social Media Using Machine Learning and Natural Language Processing [texte imprimé] / Asma Kahla, Auteur ; Yassina Belguet ; Sadik Bessou, Directeur de thèse . - [S.l.] : Setif:UFA, 2024 . - 1 vol (93 f .) ; 29 cm.
Langues : Anglais (eng)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Offensive Language
Machine Learning
Natural Language Processing
TransformersIndex. décimale : 004 - Informatique Résumé :
Because social media platforms like Facebook offer so many services, they have become an
essential part of our everyday life. However, there has also been an increase in offensive
speech on these platforms, which has become a major issue. The massive amount of data
and the significant consumption of time and money make the old way of manually finding
and removing offensive language online extremely challenging. As a result, there is an
increasing need for automatic offensive language identification, particularly in cases when
posts are written in complex languages or lack resources, such as Arabic.
In this work, we focused on Algerian dialects. We used different machine learning algorithms:
Logistic Regression, SVM, MultinomialNB, BernoulliNB, and Stochastic Gradient
Descent. Our best results yielded accuracies of 89.70% and 89.19% for the Term
Frequency-Inverse Document Frequency (TFIDF) with n-gram and Bag of Words (BoW)
with n-gram, respectively, using MultinomialNB and BernoulliNB classifiers.
Additionally, we utilized Convolutional Neural Networks (CNN) and Long Short-Term
Memory (LSTM) models with BERT for data analysis, in our case we used marBERT v2.
In this experiment, LSTM achieved an accuracy of 89.20%. However, marBERT v2 alone
outperformed all previous experiments with an accuracy of 95%.Note de contenu : Sommaire
List of Figures i
List of Tables iv
General introduction 1
1 Offensive Language 3
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Offensive language . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.2 Offensive language types . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.3 Offensive language categories . . . . . . . . . . . . . . . . . . . . . 7
1.2.4 Different definitions of offensive language . . . . . . . . . . . . . . . 8
1.2.5 Offensive language in social media and peoples’ cultures . . . . . . 9
1.3 International laws . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4 Related works . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4.1 Current state in offensive language detection and related concept . 13
1.4.2 Summary and Analysis . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2 Machine Learning 20
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3 Machine Learning types . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.1 Supervised Learning . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.2 Unsupervised Learning . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.3 Reinforcement Learning . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3.4 Semi-supervised Learning . . . . . . . . . . . . . . . . . . . . . . . 23
2.4 Machine Learning algorithms . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4.1 Logistic regression . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4.2 Naive Bayes classifier . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.4.3 Stochastic Gradient Descent . . . . . . . . . . . . . . . . . . . . . . 24
2.4.4 Support Vector Machine . . . . . . . . . . . . . . . . . . . . . . . . 24
2.5 Machine Learning concepts . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.6 Machine Learning process . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.6.1 Data collection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.6.2 Preparation data . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.6.3 Choosing a model . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.6.4 Training the model . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.6.5 Testing the model . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.6.6 Improve the model . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
.6.7 Prediction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.7 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.7.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.7.2 Deep Learning types . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3 Sentiment Analysis 31
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2 Sentiment Analysis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2.1 Sentiments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2.2 Sentiments Analysis . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.3 Subjectivity classification . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.4 Sentiment analysis levels . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.4.1 Document-level sentiment analysis . . . . . . . . . . . . . . . . . . 33
3.4.2 Sentence level of sentiment analysis . . . . . . . . . . . . . . . . . . 33
3.4.3 Word/Phrase Level of sentiment analysis . . . . . . . . . . . . . . . 33
3.5 Sentiment Analysis approaches . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.5.1 Machine Learning (ML) . . . . . . . . . . . . . . . . . . . . . . . . 33
3.5.2 Lexicon-based approach . . . . . . . . . . . . . . . . . . . . . . . . 34
3.5.3 Hybrid approach . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.6 Types of Sentiment Analysis . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.6.1 Emotion Recognition . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.6.2 Fine-Grained . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
...........Côte titre : MAI/0913
Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0913 MAI/0913 Mémoire Bibliothéque des sciences Anglais Disponible
DisponibleAdvancing Medical Image Classification with Generalized Zero Shot Learning / takoua el djalil Ben laribi
Titre : Advancing Medical Image Classification with Generalized Zero Shot Learning Type de document : texte imprimé Auteurs : takoua el djalil Ben laribi, Auteur ; Rania Bentoumi ; Moussaoui ,Abdelouahab, Directeur de thèse Editeur : Setif:UFA Année de publication : 2024 Importance : 1 vol (68 f .) Format : 29 cm Langues : Anglais (eng) Catégories : Thèses & Mémoires:Informatique Mots-clés : Chest diseases
Chest X-ray
Deep learning
Zero-Shot Learning
Convolutional Neural Networks
MED-CLIP
Medical imagingIndex. décimale : 004 - Informatique Résumé :
Chest diseases, such as pneumonia, tuberculosis, and lung cancer, present significant
challenges in healthcare, necessitating accurate and timely diagnosis for effective management.
This study focuses on evaluating deep learning models for the classification of
chest X-ray images, which are pivotal in diagnosing these conditions.
We propose and assess three models: Zero-Shot Learning (ZSL), Convolutional Neural
Networks (CNN), and MED-CLIP. The ZSL model achieved an accuracy of 72%, closely
matching the CNN model’s accuracy of 75%. This close performance indicates that ZSL
is particularly promising for classifying rare diseases in the absence of extensive labeled
data, suggesting that it will improve in the future with more research and development.
The CNN model, renowned for its robustness in image recognition tasks, confirmed its
suitability for chest X-ray interpretation with a strong performance. Conversely, MEDCLIP,
a specialized adaptation of the CLIP model for medical applications, attained an
accuracy of 40%, highlighting the difficulties in adapting general vision-language models
to specific medical tasks.
This study underscores the potential of ZSL in medical imaging, especially in scenarios
with limited labeled data, and emphasizes the importance of exploring diverse models to
enhance diagnostic accuracy.Note de contenu :
Sommaire
General Introduction 1
1 AN OVERVIEW OF CHEST DISEASES and X-ray 3
1.1 OVERVIEW OF CHEST DISEASES . . . . . . . . . . . . . . . . . . . . . 3
1.2 Atelectasis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Definition of Atelectasis . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2 the symptoms of atelectasis . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Consolidation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 Definition of Consolidation . . . . . . . . . . . . . . . . . . . . . . 6
1.3.2 the symptoms of Consolidation . . . . . . . . . . . . . . . . . . . . 6
1.4 Infiltration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4.1 Definition of Infiltration . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4.2 the symptoms of Infiltration . . . . . . . . . . . . . . . . . . . . . . 7
1.5 Coronavirus, COVID-19 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5.1 Definition of Infiltration . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5.2 the symptoms of Coronavirus, COVID-19 . . . . . . . . . . . . . . 7
1.6 Pleural effusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.6.1 Definition of Pleural effusion . . . . . . . . . . . . . . . . . . . . . 8
1.6.2 the symptoms of Pleural effusion . . . . . . . . . . . . . . . . . . . 8
1.7 pneumothorax . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.7.1 Definition of pneumothorax . . . . . . . . . . . . . . . . . . . . . . 8
1.7.2 the symptoms of pneumothorax . . . . . . . . . . . . . . . . . . . . 9
1.8 Pleural thickening . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.8.1 Definition of Pleural thickening . . . . . . . . . . . . . . . . . . . . 9
1.8.2 the symptoms of Pleural thickening . . . . . . . . . . . . . . . . . 10
1.9 Pneumonia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.9.1 Definition of Pneumonia . . . . . . . . . . . . . . . . . . . . . . . . 10
1.9.2 the symptoms of pneumonia . . . . . . . . . . . . . . . . . . . . . 11
1.10 Emphysema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.10.1 Definition of Emphysema . . . . . . . . . . . . . . . . . . . . . . . 11
1.10.2 the symptoms of Emphysema . . . . . . . . . . . . . . . . . . . . . 12
1.11 X-rays . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.11.1 Understanding the Mechanism of Medical X-rays . . . . . . . . . . 12
1.11.2 Applications of Medical X-rays . . . . . . . . . . . . . . . . . . . . 12
1.11.2.1 Diagnostic . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.11.2.2 Therapeutic . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.12 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2 STATE OF THE ART AND RELATED WORKS 15
2.1 Artificial Intelligence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Machine Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.1 The Importance of Machine Learning . . . . . . . . . . . . . . . . 16
2.2.2 How Does Machine Learning Work? . . . . . . . . . . . . . . . . . . 16
2.2.2.1 Data collection . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.2.2 Data preprocessing . . . . . . . . . . . . . . . . . . . . . 17
2.2.2.3 Choosing the right model . . . . . . . . . . . . . . . . . . 17
2.2.2.4 Training the model . . . . . . . . . . . . . . . . . . . . . 18
2.2.2.5 Evaluating the model . . . . . . . . . . . . . . . . . . . . 18
2.2.2.6 Hyperparameter tuning and optimization . . . . . . . . . 18
2.2.2.7 Predictions and deployment . . . . . . . . . . . . . . . . . 18
2.2.3 Machine Learning Types . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.3.1 Supervised learning . . . . . . . . . . . . . . . . . . . . . . 18
2.2.3.2 Unsupervised Learning . . . . . . . . . . . . . . . . . . . . 19
2.3 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3.1 Key Elements of Deep Learning . . . . . . . . . . . . . . . . . . . . 20
2.3.1.1 neural network . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3.1.2 layers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.1.3 Optimization . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.1.4 Regularization . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3.1.5 Model parameters . . . . . . . . . . . . . . . . . . . . . . 22
2.3.1.6 Activation Function . . . . . . . . . . . . . . . . . . . . . 23
2.3.1.7 Backpropagation . . . . . . . . . . . . . . . . . . . . . . 25
2.3.2 Convolutional Neural Network (CNN) . . . . . . . . . . . . . . . . 26
2.3.2.1 Convolutional Layer . . . . . . . . . . . . . . . . . . . . 27
2.3.2.2 Padding . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.3.2.3 Pooling Layer . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3.2.4 Limitations of Convolutional neural networks (CNNs) . . 30
2.3.2.5 Related Works using cnn . . . . . . . . . . . . . . . . . . 31
2.3.3 Transfer Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.3.3.1 Understanding How Transfer Learning Works . . . . . . 32
2.3.3.2 The Benefits of Using Transfer Learning . . . . . . . . . 33
2.3.3.3 ResNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4 Zero-Shot Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.4.1 Zero-Shot Learning (ZSL) Key Takeaways . . . . . . . . . . . . . . 36
2.4.2 Types of Zero-Shot Learning . . . . . . . . . . . . . . . . . . . . . . 36
2.4.3 Basic Architecture of Zero-Shot Learning . . . . . . . . . . . . . . . 38
2.4.4 How Does Zero-shot Learning Work? . . . . . . . . . . . . . . . . . 39
2.4.5 Evaluating Zero-Shot Learning (ZSL) models . . . . . . . . . . . . . 40
2.4.6 Challenges of Zero-Shot Learning (ZSL) models . . . . . . . . . . . 40
2.4.7 Applications of Zero-Shot Learning (ZSL) . . . . . . . . . . . . . . 42
2.5 CLIP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.5.1 How Does CLIP Work? . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.5.2 CLIP Architecture explained . . . . . . . . . . . . . . . . . . . . . . 42
2.5.3 The CLIP training architecture . . . . . . . . . . . . . . . . . . . . 44
2.5.4 Integration Between Natural Language and Image Processing . . . 45
2.5.5 Zero-Shot Image Classification . . . . . . . . . . . . . . . . . . . . 46
2.5.6 CLIP Limitations and Challenges . . . . . . . . . . . . . . . . . . . 47
2.6 MED-CLIP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.6.1 Baselines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.6.2 Related Works using medclip . . . . . . . . . . . . . . . . . . . . . 49
2.7 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3 Dataset and Implementation Tools 50
3.1 Dataset Description . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.1.1 Dataset Grouping . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.2 Preprocessing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.3 Data Augmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.4 Implementation Frameworks and Tools . . . . . . . . . . . . . . . . . . . . 51
3.4.1 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.4.2 Tensorflow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.4.3 Sickit-learn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.4.4 Matplotlib . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.4.5 NumPy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.4.6 Pandas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.4.7 PyTorch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.4.8 MedClip . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.4.9 Jupyter notebooks . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.4.10 Google Colab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.4.11 Kaggle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.5 Model Evaluation Metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.5.1 Accuracy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.5.2 Recall . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.5.3 Precision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.5.4 F1-Score . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.6 Confusion Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.7 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4 Experiments and Results 57
4.1 Chest Classification Approaches . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2 Deep learning approaches . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2.1 Convolution Neural Network (CNN) . . . . . . . . . . . . . . . . . 57
4.2.2 Zero Shot Learning Approachs . . . . . . . . . . . . . . . . . . . . 62
4.2.2.1 MedClip Model . . . . . . . . . . . . . . . . . . . . . . . 63
4.2.2.2 Our Model . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.3 Results comparisons and summary . . . . . . . . . . . . . . . . . . . . . . 64
4.3.1 Hyperparameters . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.3.2 Summarized Models . . . . . . . . . . . . . . . . . . . . . . . . . . 64Côte titre : MAI/0888 Advancing Medical Image Classification with Generalized Zero Shot Learning [texte imprimé] / takoua el djalil Ben laribi, Auteur ; Rania Bentoumi ; Moussaoui ,Abdelouahab, Directeur de thèse . - [S.l.] : Setif:UFA, 2024 . - 1 vol (68 f .) ; 29 cm.
Langues : Anglais (eng)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Chest diseases
Chest X-ray
Deep learning
Zero-Shot Learning
Convolutional Neural Networks
MED-CLIP
Medical imagingIndex. décimale : 004 - Informatique Résumé :
Chest diseases, such as pneumonia, tuberculosis, and lung cancer, present significant
challenges in healthcare, necessitating accurate and timely diagnosis for effective management.
This study focuses on evaluating deep learning models for the classification of
chest X-ray images, which are pivotal in diagnosing these conditions.
We propose and assess three models: Zero-Shot Learning (ZSL), Convolutional Neural
Networks (CNN), and MED-CLIP. The ZSL model achieved an accuracy of 72%, closely
matching the CNN model’s accuracy of 75%. This close performance indicates that ZSL
is particularly promising for classifying rare diseases in the absence of extensive labeled
data, suggesting that it will improve in the future with more research and development.
The CNN model, renowned for its robustness in image recognition tasks, confirmed its
suitability for chest X-ray interpretation with a strong performance. Conversely, MEDCLIP,
a specialized adaptation of the CLIP model for medical applications, attained an
accuracy of 40%, highlighting the difficulties in adapting general vision-language models
to specific medical tasks.
This study underscores the potential of ZSL in medical imaging, especially in scenarios
with limited labeled data, and emphasizes the importance of exploring diverse models to
enhance diagnostic accuracy.Note de contenu :
Sommaire
General Introduction 1
1 AN OVERVIEW OF CHEST DISEASES and X-ray 3
1.1 OVERVIEW OF CHEST DISEASES . . . . . . . . . . . . . . . . . . . . . 3
1.2 Atelectasis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Definition of Atelectasis . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2 the symptoms of atelectasis . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Consolidation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 Definition of Consolidation . . . . . . . . . . . . . . . . . . . . . . 6
1.3.2 the symptoms of Consolidation . . . . . . . . . . . . . . . . . . . . 6
1.4 Infiltration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4.1 Definition of Infiltration . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4.2 the symptoms of Infiltration . . . . . . . . . . . . . . . . . . . . . . 7
1.5 Coronavirus, COVID-19 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5.1 Definition of Infiltration . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5.2 the symptoms of Coronavirus, COVID-19 . . . . . . . . . . . . . . 7
1.6 Pleural effusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.6.1 Definition of Pleural effusion . . . . . . . . . . . . . . . . . . . . . 8
1.6.2 the symptoms of Pleural effusion . . . . . . . . . . . . . . . . . . . 8
1.7 pneumothorax . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.7.1 Definition of pneumothorax . . . . . . . . . . . . . . . . . . . . . . 8
1.7.2 the symptoms of pneumothorax . . . . . . . . . . . . . . . . . . . . 9
1.8 Pleural thickening . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.8.1 Definition of Pleural thickening . . . . . . . . . . . . . . . . . . . . 9
1.8.2 the symptoms of Pleural thickening . . . . . . . . . . . . . . . . . 10
1.9 Pneumonia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.9.1 Definition of Pneumonia . . . . . . . . . . . . . . . . . . . . . . . . 10
1.9.2 the symptoms of pneumonia . . . . . . . . . . . . . . . . . . . . . 11
1.10 Emphysema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.10.1 Definition of Emphysema . . . . . . . . . . . . . . . . . . . . . . . 11
1.10.2 the symptoms of Emphysema . . . . . . . . . . . . . . . . . . . . . 12
1.11 X-rays . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.11.1 Understanding the Mechanism of Medical X-rays . . . . . . . . . . 12
1.11.2 Applications of Medical X-rays . . . . . . . . . . . . . . . . . . . . 12
1.11.2.1 Diagnostic . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.11.2.2 Therapeutic . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.12 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2 STATE OF THE ART AND RELATED WORKS 15
2.1 Artificial Intelligence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Machine Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.1 The Importance of Machine Learning . . . . . . . . . . . . . . . . 16
2.2.2 How Does Machine Learning Work? . . . . . . . . . . . . . . . . . . 16
2.2.2.1 Data collection . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.2.2 Data preprocessing . . . . . . . . . . . . . . . . . . . . . 17
2.2.2.3 Choosing the right model . . . . . . . . . . . . . . . . . . 17
2.2.2.4 Training the model . . . . . . . . . . . . . . . . . . . . . 18
2.2.2.5 Evaluating the model . . . . . . . . . . . . . . . . . . . . 18
2.2.2.6 Hyperparameter tuning and optimization . . . . . . . . . 18
2.2.2.7 Predictions and deployment . . . . . . . . . . . . . . . . . 18
2.2.3 Machine Learning Types . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.3.1 Supervised learning . . . . . . . . . . . . . . . . . . . . . . 18
2.2.3.2 Unsupervised Learning . . . . . . . . . . . . . . . . . . . . 19
2.3 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3.1 Key Elements of Deep Learning . . . . . . . . . . . . . . . . . . . . 20
2.3.1.1 neural network . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3.1.2 layers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.1.3 Optimization . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.1.4 Regularization . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3.1.5 Model parameters . . . . . . . . . . . . . . . . . . . . . . 22
2.3.1.6 Activation Function . . . . . . . . . . . . . . . . . . . . . 23
2.3.1.7 Backpropagation . . . . . . . . . . . . . . . . . . . . . . 25
2.3.2 Convolutional Neural Network (CNN) . . . . . . . . . . . . . . . . 26
2.3.2.1 Convolutional Layer . . . . . . . . . . . . . . . . . . . . 27
2.3.2.2 Padding . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.3.2.3 Pooling Layer . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3.2.4 Limitations of Convolutional neural networks (CNNs) . . 30
2.3.2.5 Related Works using cnn . . . . . . . . . . . . . . . . . . 31
2.3.3 Transfer Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.3.3.1 Understanding How Transfer Learning Works . . . . . . 32
2.3.3.2 The Benefits of Using Transfer Learning . . . . . . . . . 33
2.3.3.3 ResNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4 Zero-Shot Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.4.1 Zero-Shot Learning (ZSL) Key Takeaways . . . . . . . . . . . . . . 36
2.4.2 Types of Zero-Shot Learning . . . . . . . . . . . . . . . . . . . . . . 36
2.4.3 Basic Architecture of Zero-Shot Learning . . . . . . . . . . . . . . . 38
2.4.4 How Does Zero-shot Learning Work? . . . . . . . . . . . . . . . . . 39
2.4.5 Evaluating Zero-Shot Learning (ZSL) models . . . . . . . . . . . . . 40
2.4.6 Challenges of Zero-Shot Learning (ZSL) models . . . . . . . . . . . 40
2.4.7 Applications of Zero-Shot Learning (ZSL) . . . . . . . . . . . . . . 42
2.5 CLIP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.5.1 How Does CLIP Work? . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.5.2 CLIP Architecture explained . . . . . . . . . . . . . . . . . . . . . . 42
2.5.3 The CLIP training architecture . . . . . . . . . . . . . . . . . . . . 44
2.5.4 Integration Between Natural Language and Image Processing . . . 45
2.5.5 Zero-Shot Image Classification . . . . . . . . . . . . . . . . . . . . 46
2.5.6 CLIP Limitations and Challenges . . . . . . . . . . . . . . . . . . . 47
2.6 MED-CLIP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.6.1 Baselines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.6.2 Related Works using medclip . . . . . . . . . . . . . . . . . . . . . 49
2.7 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3 Dataset and Implementation Tools 50
3.1 Dataset Description . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.1.1 Dataset Grouping . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.2 Preprocessing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.3 Data Augmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.4 Implementation Frameworks and Tools . . . . . . . . . . . . . . . . . . . . 51
3.4.1 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.4.2 Tensorflow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.4.3 Sickit-learn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.4.4 Matplotlib . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.4.5 NumPy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.4.6 Pandas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.4.7 PyTorch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.4.8 MedClip . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.4.9 Jupyter notebooks . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.4.10 Google Colab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.4.11 Kaggle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.5 Model Evaluation Metrics . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.5.1 Accuracy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.5.2 Recall . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.5.3 Precision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.5.4 F1-Score . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.6 Confusion Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.7 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4 Experiments and Results 57
4.1 Chest Classification Approaches . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2 Deep learning approaches . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2.1 Convolution Neural Network (CNN) . . . . . . . . . . . . . . . . . 57
4.2.2 Zero Shot Learning Approachs . . . . . . . . . . . . . . . . . . . . 62
4.2.2.1 MedClip Model . . . . . . . . . . . . . . . . . . . . . . . 63
4.2.2.2 Our Model . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.3 Results comparisons and summary . . . . . . . . . . . . . . . . . . . . . . 64
4.3.1 Hyperparameters . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.3.2 Summarized Models . . . . . . . . . . . . . . . . . . . . . . . . . . 64Côte titre : MAI/0888 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0888 MAI/0888 Mémoire Bibliothéque des sciences Anglais Disponible
DisponiblePermalinkPermalinkPermalinkPermalinkPermalinkPermalinkUn algorithme auto-stabilisant pour le calcul dun ensemble dominant capacitif capacitated dominating set / Mehnana,Nour el houda
![]()
PermalinkPermalinkPermalinkAlgorithme heuristique pour le problème de l'ensemble dominant connexe de poids minimum / Hebbache,Imad
Permalink