University Sétif 1 FERHAT ABBAS Faculty of Sciences
Détail de l'auteur
Auteur Zebar,Ilhem |
Documents disponibles écrits par cet auteur



Complexité de la méthode du gradient avec recherche linéaire pour une fonction fortement convexe / Zebar,Ilhem
![]()
Titre : Complexité de la méthode du gradient avec recherche linéaire pour une fonction fortement convexe Type de document : texte imprimé Auteurs : Zebar,Ilhem, Auteur ; Djamel Benterki, Directeur de thèse Editeur : Setif:UFA Année de publication : 2019 Importance : 1 vol (52 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation sans contraintes
Méthode de gradient
linéaire de WolfeIndex. décimale : 510 Mathématique Résumé : Dans ce travail, nous sommes intéressés à l’étude numérique
d’une méthode modifiée du gradient classique, dite gradient noisy proposée
par E. De Klerk et al. Cette méthode offre une nouvelle direction approximant
le gradient négatif de la fonction objective à minimiser. Nous
avons effectué des tests numériques comparatifs entre la méthode de gradient
classique et celle de gradient noisy moyennant une recherche linéaire
de Wolfe. Les résultats numériques effectués confirment les propos théoriquesNote de contenu : Sommaire
Introduction 3
1 Rappel sur lÂ’analyse convexe et lÂ’optimisation sans contraintes 5
1.1 Ensemble convexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Fonctions convexes, strictement convexes, fortement convexes . . . 6
1.1.2 Caractérisation de la convexité . . . . . . . . . . . . . . . . . . . 7
1.1.3 Caractérisation de la convexité stricte . . . . . . . . . . . . . . . . 8
1.1.4 Caractérisation de la convexité forte . . . . . . . . . . . . . . . . . 8
1.2 Optimisation sans contraintes . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.1 Conditions d’optimalité des problèmes d’optimisation sans contraintes 11
2 Méthodes de résolution des problèmes d’optimisation sans contraintes 13
2.1 Les méthodes de descente . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1.1 La méthode du Gradient . . . . . . . . . . . . . . . . . . . . . . . 16
2.1.2 La méthode de Newton . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2 Recherche linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2.1 Recherches linéaires exactes . . . . . . . . . . . . . . . . . . . . . 27
2.2.2 Recherches linéaires inexactes . . . . . . . . . . . . . . . . . . . . 28
3 Méthode du gradient avec recherche linéaire pour une fonction lisse
fortement convexe 40
1
3.1 Algorithme du gradient avec recherche linéaire de Wolfe pour une fonction
lisse fortement convexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.1.1 Algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.1.2 Convergence de la méthode de Gradient pour une fonction L-lisse,
-fortement convexe . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2 Méthode du gradient noisy . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2.1 Méthode de gradient noisy avec recherche linéaire . . . . . . . . . 43
3.2.2 Algorithme de la méthode du gradient noisy avec recherche linéaire 44
3.2.3 Convergence de la méthode du gradient noisy avec recherche linéaire 44
3.3 Tests Numériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3.1 Exemple à taille variable . . . . . . . . . . . . . . . . . . . . . . . 45
Conclusion 49
Côte titre : MAM/0369 En ligne : https://drive.google.com/file/d/1dawMbrpMPaVVS1HA7kFW-aOzatPgStpI/view?usp=shari [...] Format de la ressource électronique : Complexité de la méthode du gradient avec recherche linéaire pour une fonction fortement convexe [texte imprimé] / Zebar,Ilhem, Auteur ; Djamel Benterki, Directeur de thèse . - [S.l.] : Setif:UFA, 2019 . - 1 vol (52 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation sans contraintes
Méthode de gradient
linéaire de WolfeIndex. décimale : 510 Mathématique Résumé : Dans ce travail, nous sommes intéressés à l’étude numérique
d’une méthode modifiée du gradient classique, dite gradient noisy proposée
par E. De Klerk et al. Cette méthode offre une nouvelle direction approximant
le gradient négatif de la fonction objective à minimiser. Nous
avons effectué des tests numériques comparatifs entre la méthode de gradient
classique et celle de gradient noisy moyennant une recherche linéaire
de Wolfe. Les résultats numériques effectués confirment les propos théoriquesNote de contenu : Sommaire
Introduction 3
1 Rappel sur lÂ’analyse convexe et lÂ’optimisation sans contraintes 5
1.1 Ensemble convexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Fonctions convexes, strictement convexes, fortement convexes . . . 6
1.1.2 Caractérisation de la convexité . . . . . . . . . . . . . . . . . . . 7
1.1.3 Caractérisation de la convexité stricte . . . . . . . . . . . . . . . . 8
1.1.4 Caractérisation de la convexité forte . . . . . . . . . . . . . . . . . 8
1.2 Optimisation sans contraintes . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.1 Conditions d’optimalité des problèmes d’optimisation sans contraintes 11
2 Méthodes de résolution des problèmes d’optimisation sans contraintes 13
2.1 Les méthodes de descente . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1.1 La méthode du Gradient . . . . . . . . . . . . . . . . . . . . . . . 16
2.1.2 La méthode de Newton . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2 Recherche linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2.1 Recherches linéaires exactes . . . . . . . . . . . . . . . . . . . . . 27
2.2.2 Recherches linéaires inexactes . . . . . . . . . . . . . . . . . . . . 28
3 Méthode du gradient avec recherche linéaire pour une fonction lisse
fortement convexe 40
1
3.1 Algorithme du gradient avec recherche linéaire de Wolfe pour une fonction
lisse fortement convexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.1.1 Algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.1.2 Convergence de la méthode de Gradient pour une fonction L-lisse,
-fortement convexe . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2 Méthode du gradient noisy . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2.1 Méthode de gradient noisy avec recherche linéaire . . . . . . . . . 43
3.2.2 Algorithme de la méthode du gradient noisy avec recherche linéaire 44
3.2.3 Convergence de la méthode du gradient noisy avec recherche linéaire 44
3.3 Tests Numériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3.1 Exemple à taille variable . . . . . . . . . . . . . . . . . . . . . . . 45
Conclusion 49
Côte titre : MAM/0369 En ligne : https://drive.google.com/file/d/1dawMbrpMPaVVS1HA7kFW-aOzatPgStpI/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAM/0369 MAM/0369 Mémoire Bibliothéque des sciences Français Disponible
Disponible