|
| Titre : |
Deep Learning-Based Methods for Organs at Risk Segmentation in Head and Neck Cancer |
| Type de document : |
document électronique |
| Auteurs : |
Sarah Moussaoui, Auteur ; Rayene Chebana, Auteur ; Kidar,Halima Saadia, Directeur de thèse |
| Editeur : |
Setif:UFA |
| Année de publication : |
2025 |
| Importance : |
1 vol (59 f.) |
| Format : |
29 cm |
| Langues : |
Anglais (eng) |
| Catégories : |
Thèses & Mémoires:Physique
|
| Mots-clés : |
Physique |
| Index. décimale : |
530 - Physique |
| Résumé : |
This thesis investigates the use of deep learning techniques with 3D architectures to
enhance the segmentation accuracy of organs at risk (OARs) in head and neck cancer
radiotherapy. The study focuses on the implementation of two models, 3D U-Net and 3D
TransUNet, applied to CT images from the Head and Neck dataset and the MICCAI Head
and Neck Challenge dataset.
The objective is to evaluate the effectiveness of incorporating 3D spatial context
and transformer-based modules in segmenting critical anatomical structures such as the
brainstem, mandible, and parotid glands. Additionally, the impact of dataset generalization
is assessed by comparing models trained on a single dataset versus a combined dataset
approach.
The results demonstrate that 3D architectures outperform their 2D counterparts and
the benchmark method from the literature (3D TransSeg) across most target structures. The
3D TransUNet achieved Dice scores of 91.57 for the mandible, 84.24 for the brainstem, and
84.75 for the left parotid gland. When trained on the combined dataset, the performance
improved further for the brainstem, with the Dice score increasing from 82.97 to 84.39 using
3D U-Net, and from 84.24 to 86.55 using 3D TransUNet.
These findings highlight the advantages of transformer-enhanced 3D architectures and
the use of diverse training data in improving segmentation performance. The results support
the integration of 3D TransUNet into clinical radiotherapy workflows for accurate and
reliable OAR delineation. |
| Note de contenu : |
Sommaire
Acknowledgments i
Summary i
List of figures vii
List of tables ix
List of abbreviations x
Introduction 1
1 Background on Organs at Risk Segmentation 3
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Radiotherapy for Head and Neck Cancer . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Role and Workflow . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2 Organs at Risk Definition . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.3 Importance of OAR in Treatment Planning . . . . . . . . . . . . . . . 5
1.3 Imaging Modalities for OAR Segmentation . . . . . . . . . . . . . . . . . . . 6
1.3.1 Computed Tomography (CT) . . . . . . . . . . . . . . . . . . . . . . 6
1.3.2 Magnetic Resonance Imaging (MRI) . . . . . . . . . . . . . . . . . . 6
1.3.3 Positron Emission Tomography (PET) . . . . . . . . . . . . . . . . . 7
1.4 Traditional Methods for OAR Segmentation . . . . . . . . . . . . . . . . . . 7
1.4.1 Manual Segmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.2 Semi-automated Segmentation . . . . . . . . . . . . . . . . . . . . . . 9
1.4.3 Fully automated Segmentation . . . . . . . . . . . . . . . . . . . . . . 10
1.5 Motivation for Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2 Deep Learning for Medical Image Segmentation 13
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2 Overview of Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3 Convolutional neural networks (CNNs) . . . . . . . . . . . . . . . . . . . . . 15
2.3.1 Role of CNNs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.2 Popular CNN Architectures . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.3 U-net Architecture . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.4 Challenges in Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.5 Advanced deep learning techniques . . . . . . . . . . . . . . . . . . . . . . . 18
2.5.1 Attention mechanisms . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.5.2 Transformers and Attention Mechanism . . . . . . . . . . . . . . . . . 18
2.5.3 TransUnet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.6 Model Behavior and Learning Challenges . . . . . . . . . . . . . . . . . . . . 21
2.6.1 Overfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.6.2 Underfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.6.3 Fitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.7 Generalization in Deep Learning Models . . . . . . . . . . . . . . . . . . . . 22
2.7.1 Factors Affecting Generalization . . . . . . . . . . . . . . . . . . . . . 22
2.7.2 Techniques to Enhance Generalization . . . . . . . . . . . . . . . . . 23
2.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3 Materials and Methods 24
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.2 Data Description . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.2.1 HaN-Seg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.2.2 MICCAI 2015 Head and Neck Challenge . . . . . . . . . . . . . . . . 25
3.3 Materials . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.3.1 Preprocessing tools . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.3.1.1 3D Slicer . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.3.1.2 ImageJ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.3.2 Implementation tools . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.3.2.1 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.3.2.2 Kaggle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3.2.3 TensorFlow and Keras . . . . . . . . . . . . . . . . . . . . . 28
3.3.3 Hyper-parameters . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3.3.1 Batch size . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.3.3.2 Epochs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.3.3.3 Iteration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.3.3.4 Learning rate . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.4 Evaluation Metrics for Segmentation . . . . . . . . . . . . . . . . . . . . . . 29
3.4.1 Loss function . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.4.2 Dice Coefficient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.4.3 Intersection over Union (IoU) . . . . . . . . . . . . . . . . . . . . . . 31
3.5 Methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.5.1 Image Pre-Processing . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.5.1.1 Dataset Format . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.5.1.2 Downloading Required Libraries on Kaggle: . . . . . . . . . 32
3.5.1.3 Importing Images into Kaggle: . . . . . . . . . . . . . . . . 33
3.5.1.4 Normalization . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.5.1.5 Dataset Splitting Strategy . . . . . . . . . . . . . . . . . . . 33
3.5.1.6 Generalization . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.5.2 Proposed Architectures . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.5.3 Model Compilation and Training . . . . . . . . . . . . . . . . . . . . 36
3.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4 Results and Discussion 38
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2 Qualitative Evaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2.1 3D U-Net Training and Validation Curves . . . . . . . . . . . . . . . 39
4.2.2 3D TransUNet Training and Validation Curves . . . . . . . . . . . . . 41
4.2.3 Visual Comparison of 3D Model Segmented Structures . . . . . . . . 43
4.3 Quantitative Evaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.3.1 Comparison Between 3D and 2D Models . . . . . . . . . . . . . . . . 45
4.3.2 Comparison Between 3D TransUnet and TransSeg: Literature
Benchmark . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.4 Impact of Dataset Combination . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.4.1 Training and Validation Curves . . . . . . . . . . . . . . . . . . . . . 47
4.4.2 Quantitative Evaluation . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
Bibliography 52
|
| Côte titre : |
MAPH/0670 |
Deep Learning-Based Methods for Organs at Risk Segmentation in Head and Neck Cancer [document électronique] / Sarah Moussaoui, Auteur ; Rayene Chebana, Auteur ; Kidar,Halima Saadia, Directeur de thèse . - [S.l.] : Setif:UFA, 2025 . - 1 vol (59 f.) ; 29 cm. Langues : Anglais ( eng)
| Catégories : |
Thèses & Mémoires:Physique
|
| Mots-clés : |
Physique |
| Index. décimale : |
530 - Physique |
| Résumé : |
This thesis investigates the use of deep learning techniques with 3D architectures to
enhance the segmentation accuracy of organs at risk (OARs) in head and neck cancer
radiotherapy. The study focuses on the implementation of two models, 3D U-Net and 3D
TransUNet, applied to CT images from the Head and Neck dataset and the MICCAI Head
and Neck Challenge dataset.
The objective is to evaluate the effectiveness of incorporating 3D spatial context
and transformer-based modules in segmenting critical anatomical structures such as the
brainstem, mandible, and parotid glands. Additionally, the impact of dataset generalization
is assessed by comparing models trained on a single dataset versus a combined dataset
approach.
The results demonstrate that 3D architectures outperform their 2D counterparts and
the benchmark method from the literature (3D TransSeg) across most target structures. The
3D TransUNet achieved Dice scores of 91.57 for the mandible, 84.24 for the brainstem, and
84.75 for the left parotid gland. When trained on the combined dataset, the performance
improved further for the brainstem, with the Dice score increasing from 82.97 to 84.39 using
3D U-Net, and from 84.24 to 86.55 using 3D TransUNet.
These findings highlight the advantages of transformer-enhanced 3D architectures and
the use of diverse training data in improving segmentation performance. The results support
the integration of 3D TransUNet into clinical radiotherapy workflows for accurate and
reliable OAR delineation. |
| Note de contenu : |
Sommaire
Acknowledgments i
Summary i
List of figures vii
List of tables ix
List of abbreviations x
Introduction 1
1 Background on Organs at Risk Segmentation 3
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Radiotherapy for Head and Neck Cancer . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Role and Workflow . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2 Organs at Risk Definition . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.3 Importance of OAR in Treatment Planning . . . . . . . . . . . . . . . 5
1.3 Imaging Modalities for OAR Segmentation . . . . . . . . . . . . . . . . . . . 6
1.3.1 Computed Tomography (CT) . . . . . . . . . . . . . . . . . . . . . . 6
1.3.2 Magnetic Resonance Imaging (MRI) . . . . . . . . . . . . . . . . . . 6
1.3.3 Positron Emission Tomography (PET) . . . . . . . . . . . . . . . . . 7
1.4 Traditional Methods for OAR Segmentation . . . . . . . . . . . . . . . . . . 7
1.4.1 Manual Segmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.2 Semi-automated Segmentation . . . . . . . . . . . . . . . . . . . . . . 9
1.4.3 Fully automated Segmentation . . . . . . . . . . . . . . . . . . . . . . 10
1.5 Motivation for Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2 Deep Learning for Medical Image Segmentation 13
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2 Overview of Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3 Convolutional neural networks (CNNs) . . . . . . . . . . . . . . . . . . . . . 15
2.3.1 Role of CNNs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.2 Popular CNN Architectures . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.3 U-net Architecture . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.4 Challenges in Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.5 Advanced deep learning techniques . . . . . . . . . . . . . . . . . . . . . . . 18
2.5.1 Attention mechanisms . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.5.2 Transformers and Attention Mechanism . . . . . . . . . . . . . . . . . 18
2.5.3 TransUnet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.6 Model Behavior and Learning Challenges . . . . . . . . . . . . . . . . . . . . 21
2.6.1 Overfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.6.2 Underfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.6.3 Fitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.7 Generalization in Deep Learning Models . . . . . . . . . . . . . . . . . . . . 22
2.7.1 Factors Affecting Generalization . . . . . . . . . . . . . . . . . . . . . 22
2.7.2 Techniques to Enhance Generalization . . . . . . . . . . . . . . . . . 23
2.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3 Materials and Methods 24
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.2 Data Description . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.2.1 HaN-Seg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.2.2 MICCAI 2015 Head and Neck Challenge . . . . . . . . . . . . . . . . 25
3.3 Materials . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.3.1 Preprocessing tools . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.3.1.1 3D Slicer . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.3.1.2 ImageJ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.3.2 Implementation tools . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.3.2.1 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.3.2.2 Kaggle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3.2.3 TensorFlow and Keras . . . . . . . . . . . . . . . . . . . . . 28
3.3.3 Hyper-parameters . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3.3.1 Batch size . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.3.3.2 Epochs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.3.3.3 Iteration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.3.3.4 Learning rate . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.4 Evaluation Metrics for Segmentation . . . . . . . . . . . . . . . . . . . . . . 29
3.4.1 Loss function . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.4.2 Dice Coefficient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.4.3 Intersection over Union (IoU) . . . . . . . . . . . . . . . . . . . . . . 31
3.5 Methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.5.1 Image Pre-Processing . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.5.1.1 Dataset Format . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.5.1.2 Downloading Required Libraries on Kaggle: . . . . . . . . . 32
3.5.1.3 Importing Images into Kaggle: . . . . . . . . . . . . . . . . 33
3.5.1.4 Normalization . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.5.1.5 Dataset Splitting Strategy . . . . . . . . . . . . . . . . . . . 33
3.5.1.6 Generalization . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.5.2 Proposed Architectures . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.5.3 Model Compilation and Training . . . . . . . . . . . . . . . . . . . . 36
3.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4 Results and Discussion 38
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2 Qualitative Evaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2.1 3D U-Net Training and Validation Curves . . . . . . . . . . . . . . . 39
4.2.2 3D TransUNet Training and Validation Curves . . . . . . . . . . . . . 41
4.2.3 Visual Comparison of 3D Model Segmented Structures . . . . . . . . 43
4.3 Quantitative Evaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.3.1 Comparison Between 3D and 2D Models . . . . . . . . . . . . . . . . 45
4.3.2 Comparison Between 3D TransUnet and TransSeg: Literature
Benchmark . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.4 Impact of Dataset Combination . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.4.1 Training and Validation Curves . . . . . . . . . . . . . . . . . . . . . 47
4.4.2 Quantitative Evaluation . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
Bibliography 52
|
| Côte titre : |
MAPH/0670 |
|