University Sétif 1 FERHAT ABBAS Faculty of Sciences
Détail de l'auteur
Auteur Larabi,Yasmina |
Documents disponibles écrits par cet auteur
Ajouter le résultat dans votre panier Affiner la recherche
Laméthod de newton régularisée avec correction pour l'optimisation convexe sans contraintes / Larabi,Yasmina
Titre : Laméthod de newton régularisée avec correction pour l'optimisation convexe sans contraintes Type de document : texte imprimé Auteurs : Larabi,Yasmina, Auteur ; Benterki,DJ, Directeur de thèse Editeur : Setif:UFA Année de publication : 2018 Importance : 1 vol (49 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Mathématique Mots-clés : Méthode de newton Régularisée
Technique de correction
Optimisation sans contraintesIndex. décimale : 510 Mathématique Note de contenu : Sommaire
Introduction 2
1 Rappel sur lÂ’analyse convexe 6
1.1 Ensemble convexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Fonctions convexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Convexité et la dérivée . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4 Caractérisation de la convexité en termes du Hessien . . . . . . . . . . . 9
1.5 Caractérisation de la convexité en termes du gradient . . . . . . . . . . . 10
1.6 Résultats d’existence et d’unicité d’un problème d’optimisation sans contraintes 11
1.6.1 Conditions nécessaires . . . . . . . . . . . . . . . . . . . . . . . . 11
1.6.2 Conditions nécessaires et su¢ santes . . . . . . . . . . . . . . . . . 11
2 Méthodes de résolution d’un problème d’optimisation sans contraintes 13
2.1 Méthodes de descente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.1 Principe et algorithme des méthodes de descente . . . . . . . . . . 13
2.2 Méthode de gradient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.1 Principe et algorithme des méthodes de gradient . . . . . . . . . . 15
2.3 Méthode du gradient conjuguée . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.1 Principe et algorithme des méthodes du gradient conjuguée . . . . 16
2.3.2 Convergence de la méthode du gradient conjuguée . . . . . . . . . 18
1
2.4 Méthode de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4.1 Principe et algorithme de la méthode de Newton . . . . . . . . . . 18
2.4.2 Convergence de la méthode de Newton . . . . . . . . . . . . . . . 20
2.4.3 Avantages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4.4 Inconvénients . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5 Méthode Quasi-Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.5.1 Principe général . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.5.2 Méthode de correction de rang un . . . . . . . . . . . . . . . . . . 24
2.5.3 Méthode de Davidon-Fletcher-Powell (DFP) . . . . . . . . . . . . 27
2.5.4 Méthode de Broyden-Fletcher-Goldfarb-Shanno (BFGS) . . . . . 30
3 Méthode de Newton régularisée avec correction pour l’optimisation
convexe sans contraintes 33
3.1 Principe de la méthode de Newton régularisée avec correction . . . . . . 33
3.2 LÂ’algorithme et sa convergence globale . . . . . . . . . . . . . . . . . . . 35
3.2.1 Algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.2.2 Convergence de la méthode de Newton régularisée avec correction 40
3.3 Implémentation numérique . . . . . . . . . . . . . . . . . . . . . . . . . . 44
Conclusion 46
BibliographieCôte titre : MAM/0296 En ligne : https://drive.google.com/file/d/1_wEs-ZOtZQLaJesyZumw1i7uSkO2ajkW/view?usp=shari [...] Format de la ressource électronique : Laméthod de newton régularisée avec correction pour l'optimisation convexe sans contraintes [texte imprimé] / Larabi,Yasmina, Auteur ; Benterki,DJ, Directeur de thèse . - [S.l.] : Setif:UFA, 2018 . - 1 vol (49 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Méthode de newton Régularisée
Technique de correction
Optimisation sans contraintesIndex. décimale : 510 Mathématique Note de contenu : Sommaire
Introduction 2
1 Rappel sur lÂ’analyse convexe 6
1.1 Ensemble convexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Fonctions convexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Convexité et la dérivée . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4 Caractérisation de la convexité en termes du Hessien . . . . . . . . . . . 9
1.5 Caractérisation de la convexité en termes du gradient . . . . . . . . . . . 10
1.6 Résultats d’existence et d’unicité d’un problème d’optimisation sans contraintes 11
1.6.1 Conditions nécessaires . . . . . . . . . . . . . . . . . . . . . . . . 11
1.6.2 Conditions nécessaires et su¢ santes . . . . . . . . . . . . . . . . . 11
2 Méthodes de résolution d’un problème d’optimisation sans contraintes 13
2.1 Méthodes de descente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.1 Principe et algorithme des méthodes de descente . . . . . . . . . . 13
2.2 Méthode de gradient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.1 Principe et algorithme des méthodes de gradient . . . . . . . . . . 15
2.3 Méthode du gradient conjuguée . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.1 Principe et algorithme des méthodes du gradient conjuguée . . . . 16
2.3.2 Convergence de la méthode du gradient conjuguée . . . . . . . . . 18
1
2.4 Méthode de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4.1 Principe et algorithme de la méthode de Newton . . . . . . . . . . 18
2.4.2 Convergence de la méthode de Newton . . . . . . . . . . . . . . . 20
2.4.3 Avantages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4.4 Inconvénients . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5 Méthode Quasi-Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.5.1 Principe général . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.5.2 Méthode de correction de rang un . . . . . . . . . . . . . . . . . . 24
2.5.3 Méthode de Davidon-Fletcher-Powell (DFP) . . . . . . . . . . . . 27
2.5.4 Méthode de Broyden-Fletcher-Goldfarb-Shanno (BFGS) . . . . . 30
3 Méthode de Newton régularisée avec correction pour l’optimisation
convexe sans contraintes 33
3.1 Principe de la méthode de Newton régularisée avec correction . . . . . . 33
3.2 LÂ’algorithme et sa convergence globale . . . . . . . . . . . . . . . . . . . 35
3.2.1 Algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.2.2 Convergence de la méthode de Newton régularisée avec correction 40
3.3 Implémentation numérique . . . . . . . . . . . . . . . . . . . . . . . . . . 44
Conclusion 46
BibliographieCôte titre : MAM/0296 En ligne : https://drive.google.com/file/d/1_wEs-ZOtZQLaJesyZumw1i7uSkO2ajkW/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAM/0296 MAM/0296 Mémoire Bibliothéque des sciences Français Disponible
Disponible