University Sétif 1 FERHAT ABBAS Faculty of Sciences
Détail de l'auteur
Auteur Khelladi ,Samia |
Documents disponibles écrits par cet auteur



Titre : Diagonal Conjugate Gradient Methods For Nonlinear Optimization Problem Type de document : texte imprimé Auteurs : Aya Debabha, Auteur ; Ahlam Meheni ; Khelladi ,Samia, Directeur de thèse Editeur : Sétif:UFS Année de publication : 2024 Importance : 1 vol (56 f.) Format : 29 cm Langues : Anglais (eng) Catégories : Thèses & Mémoires:Mathématique Mots-clés : Nonlinear unconstrained optimization
Diagonal conjugate gradient method
Inexact line searchIndex. décimale : 510-Mathématique Résumé :
The conjugate gradient method is one of the most efficient methods for solving
nonlinear unconstrained optimization problems as well as large linear systems.
In this dissertation, we considered a new type of conjugate gradient methods called
Diagonal type, in particular the two variants DPRP and DLS.
We carried out a comparative study, through numerical tests, between the two variants
using different rules of inexact linear search, where we found that the DPRP method is
the best.Note de contenu :
Sommaire
Introduction ii
1 Basic concepts for unconstrained optimization 1
1.1 Unconstrained nonlinear optimization . . . . . . . . . . . . . . . . 1
1.1.1 DeÂ…nitions and notations . . . . . . . . . . . . . . . . . . . 1
1.1.2 The results of existence and uniqueness . . . . . . . . . . . 3
1.1.3 Optimality conditions . . . . . . . . . . . . . . . . . . . . 5
1.2 Descent methods . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.1 The principal of descent methods . . . . . . . . . . . . . . 6
1.2.2 Gradient method . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.3 Newton Method . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.4 Quasi-Newton methods . . . . . . . . . . . . . . . . . . . . 11
2 Conjugate gradient method and line search techniques 15
2.1 Conjugate gradient methods . . . . . . . . . . . . . . . . . . . . . 15
2.1.1 Conjugate gradient method for the linear case . . . . . . . 16
2.1.2 Conjugate gradient method for the nonlinear case . . . . . 18
2.2 Convergence results of the conjugate gradient method . . . . . . . 21
2.2.1 Conditions C1 and C2 and ZoutendijkÂ’s Theorem . . . . . 21
2.2.2 ZoutendijkÂ’s Theorem and global convergence . . . . . . . 23
2.3 Line search . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.3.1 Principle of line search . . . . . . . . . . . . . . . . . . . . 24
2.3.2 Exact line search . . . . . . . . . . . . . . . . . . . . . . . 24
2.3.3 Inexact line search . . . . . . . . . . . . . . . . . . . . . . 26
3 Diagonal conjugate gradient methods 30
3.1 Diagonal conjuguate gradient methods . . . . . . . . . . . . . . . 30
3.2 Convergence results . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.3 Numerical tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39Côte titre : MAM/0716 Diagonal Conjugate Gradient Methods For Nonlinear Optimization Problem [texte imprimé] / Aya Debabha, Auteur ; Ahlam Meheni ; Khelladi ,Samia, Directeur de thèse . - [S.l.] : Sétif:UFS, 2024 . - 1 vol (56 f.) ; 29 cm.
Langues : Anglais (eng)
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Nonlinear unconstrained optimization
Diagonal conjugate gradient method
Inexact line searchIndex. décimale : 510-Mathématique Résumé :
The conjugate gradient method is one of the most efficient methods for solving
nonlinear unconstrained optimization problems as well as large linear systems.
In this dissertation, we considered a new type of conjugate gradient methods called
Diagonal type, in particular the two variants DPRP and DLS.
We carried out a comparative study, through numerical tests, between the two variants
using different rules of inexact linear search, where we found that the DPRP method is
the best.Note de contenu :
Sommaire
Introduction ii
1 Basic concepts for unconstrained optimization 1
1.1 Unconstrained nonlinear optimization . . . . . . . . . . . . . . . . 1
1.1.1 DeÂ…nitions and notations . . . . . . . . . . . . . . . . . . . 1
1.1.2 The results of existence and uniqueness . . . . . . . . . . . 3
1.1.3 Optimality conditions . . . . . . . . . . . . . . . . . . . . 5
1.2 Descent methods . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.1 The principal of descent methods . . . . . . . . . . . . . . 6
1.2.2 Gradient method . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.3 Newton Method . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.4 Quasi-Newton methods . . . . . . . . . . . . . . . . . . . . 11
2 Conjugate gradient method and line search techniques 15
2.1 Conjugate gradient methods . . . . . . . . . . . . . . . . . . . . . 15
2.1.1 Conjugate gradient method for the linear case . . . . . . . 16
2.1.2 Conjugate gradient method for the nonlinear case . . . . . 18
2.2 Convergence results of the conjugate gradient method . . . . . . . 21
2.2.1 Conditions C1 and C2 and ZoutendijkÂ’s Theorem . . . . . 21
2.2.2 ZoutendijkÂ’s Theorem and global convergence . . . . . . . 23
2.3 Line search . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.3.1 Principle of line search . . . . . . . . . . . . . . . . . . . . 24
2.3.2 Exact line search . . . . . . . . . . . . . . . . . . . . . . . 24
2.3.3 Inexact line search . . . . . . . . . . . . . . . . . . . . . . 26
3 Diagonal conjugate gradient methods 30
3.1 Diagonal conjuguate gradient methods . . . . . . . . . . . . . . . 30
3.2 Convergence results . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.3 Numerical tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39Côte titre : MAM/0716 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAM/0716 MAM/0716 Mémoire Bibliothéque des sciences Anglais Disponible
Disponible
Titre : Etude comparative de quelques méthodes du gradient conjugué Type de document : texte imprimé Auteurs : Wafa Bouguern, Auteur ; Khelladi ,Samia, Directeur de thèse Editeur : Setif:UFA Année de publication : 2020 Importance : 1 vol (62 f.) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation non linéaire sans contraintes
Gradient conjugué
Méthode de Newton
Recherche linéaire
Quasi-Newton
Méthode hybride.Index. décimale : 510 - Mathématique Résumé :
La méthode du gradient conjugué est l’une des méthodes les plus efficaces
pour résoudre des systèmes linéaires de grande dimension ainsi que les
problèmes d’optimisation non linéaire sans contraintes.
Dans ce mémoire, on a présenté plusieurs variantes de la méthode du gradient
conjugué, en particulier la méthode hybride BFGS-GC.
On a fait une étude comparative, à travers des tests numériques, entres les
différentes variantes en utilisant plusieurs types de recherche linéaire.Côte titre : MAM/0395 En ligne : https://drive.google.com/file/d/1pNcj0aifnvtWRlq-CzuoX0b8M-pzqgwJ/view?usp=shari [...] Format de la ressource électronique : Etude comparative de quelques méthodes du gradient conjugué [texte imprimé] / Wafa Bouguern, Auteur ; Khelladi ,Samia, Directeur de thèse . - [S.l.] : Setif:UFA, 2020 . - 1 vol (62 f.) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation non linéaire sans contraintes
Gradient conjugué
Méthode de Newton
Recherche linéaire
Quasi-Newton
Méthode hybride.Index. décimale : 510 - Mathématique Résumé :
La méthode du gradient conjugué est l’une des méthodes les plus efficaces
pour résoudre des systèmes linéaires de grande dimension ainsi que les
problèmes d’optimisation non linéaire sans contraintes.
Dans ce mémoire, on a présenté plusieurs variantes de la méthode du gradient
conjugué, en particulier la méthode hybride BFGS-GC.
On a fait une étude comparative, à travers des tests numériques, entres les
différentes variantes en utilisant plusieurs types de recherche linéaire.Côte titre : MAM/0395 En ligne : https://drive.google.com/file/d/1pNcj0aifnvtWRlq-CzuoX0b8M-pzqgwJ/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAM/0395 MAM/0395 Mémoire Bibliothéque des sciences Français Disponible
DisponibleEtude numérique comparative d’une famille à deux paramètres de la méthode du gradient conjugué / Saidi, Djouhaina
![]()
Titre : Etude numérique comparative d’une famille à deux paramètres de la méthode du gradient conjugué Type de document : texte imprimé Auteurs : Saidi, Djouhaina, Auteur ; Khelladi ,Samia, Directeur de thèse Editeur : Setif:UFA Année de publication : 2021 Importance : 1 vol (58 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation non linéaire sans contraintes
Méthode du gradient conjugué
Méthode de quasi-Newton
Recherche linéaire
Méthode hybride.Index. décimale : 510 Mathématique Résumé : La méthode du gradient conjugué est l’une des méthodes les plus efficaces pour résoudre des systèmes linéaires de grande dimension ainsi que les problèmes d’optimisation non linéaire sans contraintes.
Dans ce mémoire, on a présenté plusieurs variantes de la méthode du gradient conjugué, en particulier une famille à deux paramètres ainsi que quelques méthodes de type Dai-Liao.
On a fait une étude comparative, à travers des tests numériques, entres les différentes variantes, en utilisant plusieurs formules pour calculer les directions de recherche et les pas de déplacement.Côte titre : MAM/0473 En ligne : https://drive.google.com/file/d/1hfrMazTHfJXTP3RsFLlNUaJJ7CytPh6M/view?usp=shari [...] Format de la ressource électronique : Etude numérique comparative d’une famille à deux paramètres de la méthode du gradient conjugué [texte imprimé] / Saidi, Djouhaina, Auteur ; Khelladi ,Samia, Directeur de thèse . - [S.l.] : Setif:UFA, 2021 . - 1 vol (58 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation non linéaire sans contraintes
Méthode du gradient conjugué
Méthode de quasi-Newton
Recherche linéaire
Méthode hybride.Index. décimale : 510 Mathématique Résumé : La méthode du gradient conjugué est l’une des méthodes les plus efficaces pour résoudre des systèmes linéaires de grande dimension ainsi que les problèmes d’optimisation non linéaire sans contraintes.
Dans ce mémoire, on a présenté plusieurs variantes de la méthode du gradient conjugué, en particulier une famille à deux paramètres ainsi que quelques méthodes de type Dai-Liao.
On a fait une étude comparative, à travers des tests numériques, entres les différentes variantes, en utilisant plusieurs formules pour calculer les directions de recherche et les pas de déplacement.Côte titre : MAM/0473 En ligne : https://drive.google.com/file/d/1hfrMazTHfJXTP3RsFLlNUaJJ7CytPh6M/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAM/0473 MAM/0473 Mémoire Bibliothéque des sciences Français Disponible
Disponible
Titre : Nouvelle méthode du gradient conjugué avec BFGS de quasi-Newton Type de document : texte imprimé Auteurs : Krim ,Dalila, Auteur ; Khelladi ,Samia, Directeur de thèse Editeur : Setif:UFA Année de publication : 2019 Importance : 1 vol (58 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation non linéaire sans contraintes
Gradient conjugué
Méthode de Newton
Recherche linéaire
Quasi-Newton
Méthode hybrideIndex. décimale : 510 Mathématique Résumé : La méthode du gradient conjugué est l’une des méthodes les plus efficaces pour
résoudre des systèmes linéaires de grande dimension ainsi que les problèmes
d’optimisation non linéaire sans contraintes.
Dans ce mémoire, on a présenté plusieurs variantes de la méthode du gradient
conjugué, en particulier la méthode hybride BFGS-GC.
On a fait des tests numériques et une comparaison entre ces différentes
variantes en utilisant la recherche linéaire de Wolfe.Note de contenu : Sommaire
MéthodedesNewtonetdequasi-Newton4
1.1Dé…nitionsetnotionspourl’optimisationsanscontraintes........ 4
1.1.1Dé…nitionsetnotions......................... 4
1.1.2Résultatsd’existenceetd’unicité.................. 7
1.1.3Conditionsd’optimalité........................ 8
1.2Méthodesà directionsdedescente...................... 10
1.2.1Principegénéral............................ 10
1.2.2Directiondedescente......................... 10
1.3Méthodedugradient............................. 11
1.3.1Principedelaméthodedugradient................. 11
1.3.2Algorithmedugradient........................ 12
1.4MéthodedeNewton............................. 12
1.4.1PrincipedelaméthodedeNewton................. 12
1.4.2AlgorithmedeNewton........................ 13
1.4.3AvantagesetinconvénientsdeNewton............... 13
1.5Méthodedequasi-Newton.......................... 14
1.5.1Principegénéral............................ 14
1.5.2FormuledeBroyden......................... 16
1.5.3MéthodedeDavidonFletcherPowell(DFP)............ 17
1.5.4MéthodedeBroyden-Fletcher-Goldfarb-Shanno(BFGS)..... 20
iii
2 Méthodesdugradientconjuguéetrechercheslinéaires22
2.1Méthodedesdirectionsconjugueés..................... 22
2.2Méthodesdugradientconjuguée....................... 24
2.2.1Principe................................ 24
2.2.2Méthodedugradientconjugué.Casquadratique.......... 24
2.2.3Méthodedugradientconjugué.Casnonquadratique....... 27
2.3Convergencedelaméthodedugradientconjugué............. 31
2.3.1ConditionsC1etC2etthéorèmedeZoutendijk.......... 31
2.4Méthodesderecherchelinéaire........................ 33
2.5Recherchelinéaire............................... 33
2.5.1Butdelarecherchelinéaire..................... 34
2.5.2Rechercheslinéairesexactes..................... 35
2.5.3Rechercheslinéairesinexactes.................... 37
3 NouvelleméthodedugradientconjuguéavecBFGSdequasiNewton41
3.1Lesméthodeshybridesdugradientconjugué................ 42
3.1.1MéthodeshybridesutilisantFRetPRP.............. 42
3.1.2MéthodeshybridesutilisantDYetHS............... 42
3.2Lesméthodesmodi…ées............................ 42
3.3MéthodemixtedugradientconjuguéLS-CD................ 45
3.3.1ConvergencedelaméthodedugradientconjuguéMLSCD.... 46
3.4MéthodemixtedugradientconjuguéDHSDL-DLSDL........... 47
3.4.1ConvergencedelaméthodedugradientconjuguéMMDL..... 48
3.5MéthodehybrideBFGS-GC......................... 48
3.5.1MéthodeH-BFGS-GCà troistermes................ 49
3.5.2ConvergencedelaméthodeH-BFGS-GC.............. 49
3.6Testsnumériques............................... 51
Côte titre : MAM/0334 En ligne : https://drive.google.com/file/d/1819XlxMwOYJq3cfS6BU7fxTpOzx2gwcH/view?usp=shari [...] Format de la ressource électronique : Nouvelle méthode du gradient conjugué avec BFGS de quasi-Newton [texte imprimé] / Krim ,Dalila, Auteur ; Khelladi ,Samia, Directeur de thèse . - [S.l.] : Setif:UFA, 2019 . - 1 vol (58 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation non linéaire sans contraintes
Gradient conjugué
Méthode de Newton
Recherche linéaire
Quasi-Newton
Méthode hybrideIndex. décimale : 510 Mathématique Résumé : La méthode du gradient conjugué est l’une des méthodes les plus efficaces pour
résoudre des systèmes linéaires de grande dimension ainsi que les problèmes
d’optimisation non linéaire sans contraintes.
Dans ce mémoire, on a présenté plusieurs variantes de la méthode du gradient
conjugué, en particulier la méthode hybride BFGS-GC.
On a fait des tests numériques et une comparaison entre ces différentes
variantes en utilisant la recherche linéaire de Wolfe.Note de contenu : Sommaire
MéthodedesNewtonetdequasi-Newton4
1.1Dé…nitionsetnotionspourl’optimisationsanscontraintes........ 4
1.1.1Dé…nitionsetnotions......................... 4
1.1.2Résultatsd’existenceetd’unicité.................. 7
1.1.3Conditionsd’optimalité........................ 8
1.2Méthodesà directionsdedescente...................... 10
1.2.1Principegénéral............................ 10
1.2.2Directiondedescente......................... 10
1.3Méthodedugradient............................. 11
1.3.1Principedelaméthodedugradient................. 11
1.3.2Algorithmedugradient........................ 12
1.4MéthodedeNewton............................. 12
1.4.1PrincipedelaméthodedeNewton................. 12
1.4.2AlgorithmedeNewton........................ 13
1.4.3AvantagesetinconvénientsdeNewton............... 13
1.5Méthodedequasi-Newton.......................... 14
1.5.1Principegénéral............................ 14
1.5.2FormuledeBroyden......................... 16
1.5.3MéthodedeDavidonFletcherPowell(DFP)............ 17
1.5.4MéthodedeBroyden-Fletcher-Goldfarb-Shanno(BFGS)..... 20
iii
2 Méthodesdugradientconjuguéetrechercheslinéaires22
2.1Méthodedesdirectionsconjugueés..................... 22
2.2Méthodesdugradientconjuguée....................... 24
2.2.1Principe................................ 24
2.2.2Méthodedugradientconjugué.Casquadratique.......... 24
2.2.3Méthodedugradientconjugué.Casnonquadratique....... 27
2.3Convergencedelaméthodedugradientconjugué............. 31
2.3.1ConditionsC1etC2etthéorèmedeZoutendijk.......... 31
2.4Méthodesderecherchelinéaire........................ 33
2.5Recherchelinéaire............................... 33
2.5.1Butdelarecherchelinéaire..................... 34
2.5.2Rechercheslinéairesexactes..................... 35
2.5.3Rechercheslinéairesinexactes.................... 37
3 NouvelleméthodedugradientconjuguéavecBFGSdequasiNewton41
3.1Lesméthodeshybridesdugradientconjugué................ 42
3.1.1MéthodeshybridesutilisantFRetPRP.............. 42
3.1.2MéthodeshybridesutilisantDYetHS............... 42
3.2Lesméthodesmodi…ées............................ 42
3.3MéthodemixtedugradientconjuguéLS-CD................ 45
3.3.1ConvergencedelaméthodedugradientconjuguéMLSCD.... 46
3.4MéthodemixtedugradientconjuguéDHSDL-DLSDL........... 47
3.4.1ConvergencedelaméthodedugradientconjuguéMMDL..... 48
3.5MéthodehybrideBFGS-GC......................... 48
3.5.1MéthodeH-BFGS-GCà troistermes................ 49
3.5.2ConvergencedelaméthodeH-BFGS-GC.............. 49
3.6Testsnumériques............................... 51
Côte titre : MAM/0334 En ligne : https://drive.google.com/file/d/1819XlxMwOYJq3cfS6BU7fxTpOzx2gwcH/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAM/0334 MAM/0334 Mémoire Bibliothéque des sciences Français Disponible
DisponibleSur des méthodes hybrides de type Fletcher-Reeves pour résoudre un problème d’optimisation sans contraintes / Imane Bensalem
![]()
Titre : Sur des méthodes hybrides de type Fletcher-Reeves pour résoudre un problème d’optimisation sans contraintes Type de document : texte imprimé Auteurs : Imane Bensalem, Auteur ; Khadidja Hamadi, Auteur ; Khelladi ,Samia, Directeur de thèse Editeur : Sétif:UFS Année de publication : 2023 Importance : 1 vol (62 f.) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation non linéaire sans contraintes
Gradient conjugué
Méthode de Fletcher-Reeves
Recherche linéaire inexacteIndex. décimale : 510-Mathématique Résumé : La méthode du gradient conjugué est l’une des méthodes les plus efficaces pour
résoudre les problèmes d’optimisation non linéaire sans contraintes, ainsi que les
systèmes linéaires de grande dimension.
Dans ce mémoire, on a présenté quelques variantes de la méthode du gradient conjugué
de type Fletcher-Reeves, en particulier les méthodes hybrides FR-HS et FR-LS et la
méthode modifiée FRM.
On a fait une étude comparative, à travers des tests numériques, entres les différentes
variantes en utilisant différentes règles de la recherche linéaire inexacte = The conjugate gradient method is one of the most efficient methods for solving nonlinear unconstrained optimization problems as well as large linear systems.
In this dissertation, we presented several variants of the conjugate gradient method of
the type Fletcher-Reeves, in particular the FR-HS and FR-LS hybrids methods and the
modified method MFR.
We made numerical tests and a comparison, between these different variants using
different rules of the inexact line-search.Côte titre : MAM/0661 En ligne : https://drive.google.com/file/d/1YeGyRYiclw0YvJQ_vh1iJd1hVR0DV53Z/view?usp=drive [...] Format de la ressource électronique : Sur des méthodes hybrides de type Fletcher-Reeves pour résoudre un problème d’optimisation sans contraintes [texte imprimé] / Imane Bensalem, Auteur ; Khadidja Hamadi, Auteur ; Khelladi ,Samia, Directeur de thèse . - [S.l.] : Sétif:UFS, 2023 . - 1 vol (62 f.) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation non linéaire sans contraintes
Gradient conjugué
Méthode de Fletcher-Reeves
Recherche linéaire inexacteIndex. décimale : 510-Mathématique Résumé : La méthode du gradient conjugué est l’une des méthodes les plus efficaces pour
résoudre les problèmes d’optimisation non linéaire sans contraintes, ainsi que les
systèmes linéaires de grande dimension.
Dans ce mémoire, on a présenté quelques variantes de la méthode du gradient conjugué
de type Fletcher-Reeves, en particulier les méthodes hybrides FR-HS et FR-LS et la
méthode modifiée FRM.
On a fait une étude comparative, à travers des tests numériques, entres les différentes
variantes en utilisant différentes règles de la recherche linéaire inexacte = The conjugate gradient method is one of the most efficient methods for solving nonlinear unconstrained optimization problems as well as large linear systems.
In this dissertation, we presented several variants of the conjugate gradient method of
the type Fletcher-Reeves, in particular the FR-HS and FR-LS hybrids methods and the
modified method MFR.
We made numerical tests and a comparison, between these different variants using
different rules of the inexact line-search.Côte titre : MAM/0661 En ligne : https://drive.google.com/file/d/1YeGyRYiclw0YvJQ_vh1iJd1hVR0DV53Z/view?usp=drive [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAM/0661 MAM/0661 Mémoire Bibliothéque des sciences Français Disponible
Disponible