University Sétif 1 FERHAT ABBAS Faculty of Sciences
Résultat de la recherche
1 résultat(s) recherche sur le mot-clé 'Optimisation sans contrainte Méthode de descente Les méthodes de gradient Gradient conjugué Méthode de Hestenes-Stiefel Méthode de Fletcher-Reeves Méthode de Polak-Rebière-Polyak Méthode de la descente conjuguée Méthode de Dai-Yuan'
Ajouter le résultat dans votre panier Affiner la recherche Générer le flux rss de la recherche
Partager le résultat de cette recherche
Etude des différentes variantes de la méthode du gradient conjugué pour la programmation non-linéaire / Karar ,Asma
Titre : Etude des différentes variantes de la méthode du gradient conjugué pour la programmation non-linéaire Type de document : texte imprimé Auteurs : Karar ,Asma, Auteur ; Ziadi, Raouf, Directeur de thèse Editeur : Setif:UFA Année de publication : 2019 Importance : 1 vol (52 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation sans contrainte
Méthode de descente
Les méthodes de gradient
Gradient conjugué
Méthode de Hestenes-Stiefel
Méthode de Fletcher-Reeves
Méthode de Polak-Rebière-Polyak
Méthode de la descente conjuguée
Méthode de Dai-YuanIndex. décimale : 510 Mathématique Résumé :
Dans ce mémoire, nous présentons une synthèse sur les différentes variantes de la méthode du gradient conjugué pour résoudre des problèmes d’optimisation sans contraintes où la fonction objectif est continument différentiable (différentiable). Pour illustrés la performance des différentes variantes, des expériences numériques ont été réalisées sur certaines fonctions de tests.Note de contenu :
Sommaire
Introduction3
1 Notionsdebaseetrésultatspréliminaires5
1.1Qu’est-cequ’unproblèmed’optimisation?..................5
1.2Notionsdebase.................................6
1.2.1FonctionLipschitzienne.........................6
1.2.2Fonctioncoercive............................6
1.2.3Di¤érentiabilité.............................7
1.2.4Formequadratique...........................9
1.2.5Laconvexité..............................9
1.3Principauxrésultatsd’existencedesolution:.................11
1.4Unicitédelasolution..............................12
1.5Conditionsnécessairesd’optimalité:.....................12
1.5.1Conditionsnécessaires.........................12
1.5.2Conditionsnécessairesetsu¢santes:.................13
1.6Convergencedesalgorithmes..........................15
1.6.1LÂ’algorithmeenoptimisation......................15
1.6.2Convergenceglobale..........................15
1.6.3Vitessedeconvergenceenquotient..................15
2 Lesméthodesdedescente17
2.1Méthodededescente..............................17
2.2Lesméthodesdegradient...........................19
2.2.1Principegénéraldelaméthodedegradient.19
2.2.2Laméthodedugradientà pas…xe(ouà pasconstant).......19
2.2.3Algorithmedugradientà pasoptimal.................20
2.2.4LesinconvénientsdelaméthodedeGradient.............22
3 Rechercheslinéairesexactesetinexactes23
3.1Objectifsà atteindre..............................24
3.1.1Intervalledesécurité..........................24
3.1.2Algorithmedebase..........................24
3.2Rechercheslinéairesexactes..........................25
3.2.1Lesinconvénientsdesrechercheslinéairesexactes..........26
3.3Rechercheslinéairesinexactes.........................26
3.3.1Larecherchelinéaireinexacted’Armijo................26
3.3.2LarecherchelinéaireinexactedeGoldstein-Price...........28
3.3.3RecherchelinéaireinexactedeWolfe.................30
4 Méthodedugradientconjugué34
4.1Lesdi¤érentesvariantesdelaméthodedugradientconjugué........34
4.2Algorithmedugradientconjugué.......................36
4.3HypothèseC1(deLipschitz)..........................36
4.4Lesdi¤érentesvariantesdugradientconjugué................37
4.4.1MéthodedeHestenesetStiefel....................37
4.4.2MéthodedeFletcher-Reeves......................37
4.4.3MéthodedePolak-Ribière-Polyak...................38
4.4.4Méthodedeladescenteconjuguée...................39
4.4.5MéthodedeLiuetStorey(LS)....................39
4.4.6MéthodedeDai-Yuan.........................40
5 Applicationsnumériques41
résoudreleproblème (P), lamajoritédesméthodesgénèrentunesuiteCôte titre : MAM/0300 En ligne : https://drive.google.com/file/d/1dON6kgjWUkuh7q4ztkRJX6euOsPzWAHD/view?usp=shari [...] Format de la ressource électronique : Etude des différentes variantes de la méthode du gradient conjugué pour la programmation non-linéaire [texte imprimé] / Karar ,Asma, Auteur ; Ziadi, Raouf, Directeur de thèse . - [S.l.] : Setif:UFA, 2019 . - 1 vol (52 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation sans contrainte
Méthode de descente
Les méthodes de gradient
Gradient conjugué
Méthode de Hestenes-Stiefel
Méthode de Fletcher-Reeves
Méthode de Polak-Rebière-Polyak
Méthode de la descente conjuguée
Méthode de Dai-YuanIndex. décimale : 510 Mathématique Résumé :
Dans ce mémoire, nous présentons une synthèse sur les différentes variantes de la méthode du gradient conjugué pour résoudre des problèmes d’optimisation sans contraintes où la fonction objectif est continument différentiable (différentiable). Pour illustrés la performance des différentes variantes, des expériences numériques ont été réalisées sur certaines fonctions de tests.Note de contenu :
Sommaire
Introduction3
1 Notionsdebaseetrésultatspréliminaires5
1.1Qu’est-cequ’unproblèmed’optimisation?..................5
1.2Notionsdebase.................................6
1.2.1FonctionLipschitzienne.........................6
1.2.2Fonctioncoercive............................6
1.2.3Di¤érentiabilité.............................7
1.2.4Formequadratique...........................9
1.2.5Laconvexité..............................9
1.3Principauxrésultatsd’existencedesolution:.................11
1.4Unicitédelasolution..............................12
1.5Conditionsnécessairesd’optimalité:.....................12
1.5.1Conditionsnécessaires.........................12
1.5.2Conditionsnécessairesetsu¢santes:.................13
1.6Convergencedesalgorithmes..........................15
1.6.1LÂ’algorithmeenoptimisation......................15
1.6.2Convergenceglobale..........................15
1.6.3Vitessedeconvergenceenquotient..................15
2 Lesméthodesdedescente17
2.1Méthodededescente..............................17
2.2Lesméthodesdegradient...........................19
2.2.1Principegénéraldelaméthodedegradient.19
2.2.2Laméthodedugradientà pas…xe(ouà pasconstant).......19
2.2.3Algorithmedugradientà pasoptimal.................20
2.2.4LesinconvénientsdelaméthodedeGradient.............22
3 Rechercheslinéairesexactesetinexactes23
3.1Objectifsà atteindre..............................24
3.1.1Intervalledesécurité..........................24
3.1.2Algorithmedebase..........................24
3.2Rechercheslinéairesexactes..........................25
3.2.1Lesinconvénientsdesrechercheslinéairesexactes..........26
3.3Rechercheslinéairesinexactes.........................26
3.3.1Larecherchelinéaireinexacted’Armijo................26
3.3.2LarecherchelinéaireinexactedeGoldstein-Price...........28
3.3.3RecherchelinéaireinexactedeWolfe.................30
4 Méthodedugradientconjugué34
4.1Lesdi¤érentesvariantesdelaméthodedugradientconjugué........34
4.2Algorithmedugradientconjugué.......................36
4.3HypothèseC1(deLipschitz)..........................36
4.4Lesdi¤érentesvariantesdugradientconjugué................37
4.4.1MéthodedeHestenesetStiefel....................37
4.4.2MéthodedeFletcher-Reeves......................37
4.4.3MéthodedePolak-Ribière-Polyak...................38
4.4.4Méthodedeladescenteconjuguée...................39
4.4.5MéthodedeLiuetStorey(LS)....................39
4.4.6MéthodedeDai-Yuan.........................40
5 Applicationsnumériques41
résoudreleproblème (P), lamajoritédesméthodesgénèrentunesuiteCôte titre : MAM/0300 En ligne : https://drive.google.com/file/d/1dON6kgjWUkuh7q4ztkRJX6euOsPzWAHD/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAM/0300 MAM/0300 Mémoire Bibliothéque des sciences Français Disponible
Disponible