University Sétif 1 FERHAT ABBAS Faculty of Sciences
Résultat de la recherche
1 résultat(s) recherche sur le mot-clé 'Méthode de newton Régularisée Technique de correction Optimisation sans contraintes'
Ajouter le résultat dans votre panier Affiner la recherche Générer le flux rss de la recherche
Partager le résultat de cette recherche
Laméthod de newton régularisée avec correction pour l'optimisation convexe sans contraintes / Larabi,Yasmina
Titre : Laméthod de newton régularisée avec correction pour l'optimisation convexe sans contraintes Type de document : texte imprimé Auteurs : Larabi,Yasmina, Auteur ; Benterki,DJ, Directeur de thèse Editeur : Setif:UFA Année de publication : 2018 Importance : 1 vol (49 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Mathématique Mots-clés : Méthode de newton Régularisée
Technique de correction
Optimisation sans contraintesIndex. décimale : 510 Mathématique Note de contenu : Sommaire
Introduction 2
1 Rappel sur lÂ’analyse convexe 6
1.1 Ensemble convexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Fonctions convexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Convexité et la dérivée . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4 Caractérisation de la convexité en termes du Hessien . . . . . . . . . . . 9
1.5 Caractérisation de la convexité en termes du gradient . . . . . . . . . . . 10
1.6 Résultats d’existence et d’unicité d’un problème d’optimisation sans contraintes 11
1.6.1 Conditions nécessaires . . . . . . . . . . . . . . . . . . . . . . . . 11
1.6.2 Conditions nécessaires et su¢ santes . . . . . . . . . . . . . . . . . 11
2 Méthodes de résolution d’un problème d’optimisation sans contraintes 13
2.1 Méthodes de descente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.1 Principe et algorithme des méthodes de descente . . . . . . . . . . 13
2.2 Méthode de gradient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.1 Principe et algorithme des méthodes de gradient . . . . . . . . . . 15
2.3 Méthode du gradient conjuguée . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.1 Principe et algorithme des méthodes du gradient conjuguée . . . . 16
2.3.2 Convergence de la méthode du gradient conjuguée . . . . . . . . . 18
1
2.4 Méthode de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4.1 Principe et algorithme de la méthode de Newton . . . . . . . . . . 18
2.4.2 Convergence de la méthode de Newton . . . . . . . . . . . . . . . 20
2.4.3 Avantages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4.4 Inconvénients . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5 Méthode Quasi-Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.5.1 Principe général . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.5.2 Méthode de correction de rang un . . . . . . . . . . . . . . . . . . 24
2.5.3 Méthode de Davidon-Fletcher-Powell (DFP) . . . . . . . . . . . . 27
2.5.4 Méthode de Broyden-Fletcher-Goldfarb-Shanno (BFGS) . . . . . 30
3 Méthode de Newton régularisée avec correction pour l’optimisation
convexe sans contraintes 33
3.1 Principe de la méthode de Newton régularisée avec correction . . . . . . 33
3.2 LÂ’algorithme et sa convergence globale . . . . . . . . . . . . . . . . . . . 35
3.2.1 Algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.2.2 Convergence de la méthode de Newton régularisée avec correction 40
3.3 Implémentation numérique . . . . . . . . . . . . . . . . . . . . . . . . . . 44
Conclusion 46
BibliographieCôte titre : MAM/0296 En ligne : https://drive.google.com/file/d/1_wEs-ZOtZQLaJesyZumw1i7uSkO2ajkW/view?usp=shari [...] Format de la ressource électronique : Laméthod de newton régularisée avec correction pour l'optimisation convexe sans contraintes [texte imprimé] / Larabi,Yasmina, Auteur ; Benterki,DJ, Directeur de thèse . - [S.l.] : Setif:UFA, 2018 . - 1 vol (49 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Méthode de newton Régularisée
Technique de correction
Optimisation sans contraintesIndex. décimale : 510 Mathématique Note de contenu : Sommaire
Introduction 2
1 Rappel sur lÂ’analyse convexe 6
1.1 Ensemble convexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Fonctions convexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Convexité et la dérivée . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4 Caractérisation de la convexité en termes du Hessien . . . . . . . . . . . 9
1.5 Caractérisation de la convexité en termes du gradient . . . . . . . . . . . 10
1.6 Résultats d’existence et d’unicité d’un problème d’optimisation sans contraintes 11
1.6.1 Conditions nécessaires . . . . . . . . . . . . . . . . . . . . . . . . 11
1.6.2 Conditions nécessaires et su¢ santes . . . . . . . . . . . . . . . . . 11
2 Méthodes de résolution d’un problème d’optimisation sans contraintes 13
2.1 Méthodes de descente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.1 Principe et algorithme des méthodes de descente . . . . . . . . . . 13
2.2 Méthode de gradient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.1 Principe et algorithme des méthodes de gradient . . . . . . . . . . 15
2.3 Méthode du gradient conjuguée . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.1 Principe et algorithme des méthodes du gradient conjuguée . . . . 16
2.3.2 Convergence de la méthode du gradient conjuguée . . . . . . . . . 18
1
2.4 Méthode de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4.1 Principe et algorithme de la méthode de Newton . . . . . . . . . . 18
2.4.2 Convergence de la méthode de Newton . . . . . . . . . . . . . . . 20
2.4.3 Avantages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4.4 Inconvénients . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5 Méthode Quasi-Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.5.1 Principe général . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.5.2 Méthode de correction de rang un . . . . . . . . . . . . . . . . . . 24
2.5.3 Méthode de Davidon-Fletcher-Powell (DFP) . . . . . . . . . . . . 27
2.5.4 Méthode de Broyden-Fletcher-Goldfarb-Shanno (BFGS) . . . . . 30
3 Méthode de Newton régularisée avec correction pour l’optimisation
convexe sans contraintes 33
3.1 Principe de la méthode de Newton régularisée avec correction . . . . . . 33
3.2 LÂ’algorithme et sa convergence globale . . . . . . . . . . . . . . . . . . . 35
3.2.1 Algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.2.2 Convergence de la méthode de Newton régularisée avec correction 40
3.3 Implémentation numérique . . . . . . . . . . . . . . . . . . . . . . . . . . 44
Conclusion 46
BibliographieCôte titre : MAM/0296 En ligne : https://drive.google.com/file/d/1_wEs-ZOtZQLaJesyZumw1i7uSkO2ajkW/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAM/0296 MAM/0296 Mémoire Bibliothéque des sciences Français Disponible
Disponible