University Sétif 1 FERHAT ABBAS Faculty of Sciences
Détail de l'auteur
Auteur Karar ,Asma |
Documents disponibles écrits par cet auteur



Etude des différentes variantes de la méthode du gradient conjugué pour la programmation non-linéaire / Karar ,Asma
![]()
Titre : Etude des différentes variantes de la méthode du gradient conjugué pour la programmation non-linéaire Type de document : texte imprimé Auteurs : Karar ,Asma, Auteur ; Ziadi, Raouf, Directeur de thèse Editeur : Setif:UFA Année de publication : 2019 Importance : 1 vol (52 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation sans contrainte
Méthode de descente
Les méthodes de gradient
Gradient conjugué
Méthode de Hestenes-Stiefel
Méthode de Fletcher-Reeves
Méthode de Polak-Rebière-Polyak
Méthode de la descente conjuguée
Méthode de Dai-YuanIndex. décimale : 510 Mathématique Résumé :
Dans ce mémoire, nous présentons une synthèse sur les différentes variantes de la méthode du gradient conjugué pour résoudre des problèmes d’optimisation sans contraintes où la fonction objectif est continument différentiable (différentiable). Pour illustrés la performance des différentes variantes, des expériences numériques ont été réalisées sur certaines fonctions de tests.Note de contenu :
Sommaire
Introduction3
1 Notionsdebaseetrésultatspréliminaires5
1.1Qu’est-cequ’unproblèmed’optimisation?..................5
1.2Notionsdebase.................................6
1.2.1FonctionLipschitzienne.........................6
1.2.2Fonctioncoercive............................6
1.2.3Di¤érentiabilité.............................7
1.2.4Formequadratique...........................9
1.2.5Laconvexité..............................9
1.3Principauxrésultatsd’existencedesolution:.................11
1.4Unicitédelasolution..............................12
1.5Conditionsnécessairesd’optimalité:.....................12
1.5.1Conditionsnécessaires.........................12
1.5.2Conditionsnécessairesetsu¢santes:.................13
1.6Convergencedesalgorithmes..........................15
1.6.1LÂ’algorithmeenoptimisation......................15
1.6.2Convergenceglobale..........................15
1.6.3Vitessedeconvergenceenquotient..................15
2 Lesméthodesdedescente17
2.1Méthodededescente..............................17
2.2Lesméthodesdegradient...........................19
2.2.1Principegénéraldelaméthodedegradient.19
2.2.2Laméthodedugradientà pas…xe(ouà pasconstant).......19
2.2.3Algorithmedugradientà pasoptimal.................20
2.2.4LesinconvénientsdelaméthodedeGradient.............22
3 Rechercheslinéairesexactesetinexactes23
3.1Objectifsà atteindre..............................24
3.1.1Intervalledesécurité..........................24
3.1.2Algorithmedebase..........................24
3.2Rechercheslinéairesexactes..........................25
3.2.1Lesinconvénientsdesrechercheslinéairesexactes..........26
3.3Rechercheslinéairesinexactes.........................26
3.3.1Larecherchelinéaireinexacted’Armijo................26
3.3.2LarecherchelinéaireinexactedeGoldstein-Price...........28
3.3.3RecherchelinéaireinexactedeWolfe.................30
4 Méthodedugradientconjugué34
4.1Lesdi¤érentesvariantesdelaméthodedugradientconjugué........34
4.2Algorithmedugradientconjugué.......................36
4.3HypothèseC1(deLipschitz)..........................36
4.4Lesdi¤érentesvariantesdugradientconjugué................37
4.4.1MéthodedeHestenesetStiefel....................37
4.4.2MéthodedeFletcher-Reeves......................37
4.4.3MéthodedePolak-Ribière-Polyak...................38
4.4.4Méthodedeladescenteconjuguée...................39
4.4.5MéthodedeLiuetStorey(LS)....................39
4.4.6MéthodedeDai-Yuan.........................40
5 Applicationsnumériques41
résoudreleproblème (P), lamajoritédesméthodesgénèrentunesuiteCôte titre : MAM/0300 En ligne : https://drive.google.com/file/d/1dON6kgjWUkuh7q4ztkRJX6euOsPzWAHD/view?usp=shari [...] Format de la ressource électronique : Etude des différentes variantes de la méthode du gradient conjugué pour la programmation non-linéaire [texte imprimé] / Karar ,Asma, Auteur ; Ziadi, Raouf, Directeur de thèse . - [S.l.] : Setif:UFA, 2019 . - 1 vol (52 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation sans contrainte
Méthode de descente
Les méthodes de gradient
Gradient conjugué
Méthode de Hestenes-Stiefel
Méthode de Fletcher-Reeves
Méthode de Polak-Rebière-Polyak
Méthode de la descente conjuguée
Méthode de Dai-YuanIndex. décimale : 510 Mathématique Résumé :
Dans ce mémoire, nous présentons une synthèse sur les différentes variantes de la méthode du gradient conjugué pour résoudre des problèmes d’optimisation sans contraintes où la fonction objectif est continument différentiable (différentiable). Pour illustrés la performance des différentes variantes, des expériences numériques ont été réalisées sur certaines fonctions de tests.Note de contenu :
Sommaire
Introduction3
1 Notionsdebaseetrésultatspréliminaires5
1.1Qu’est-cequ’unproblèmed’optimisation?..................5
1.2Notionsdebase.................................6
1.2.1FonctionLipschitzienne.........................6
1.2.2Fonctioncoercive............................6
1.2.3Di¤érentiabilité.............................7
1.2.4Formequadratique...........................9
1.2.5Laconvexité..............................9
1.3Principauxrésultatsd’existencedesolution:.................11
1.4Unicitédelasolution..............................12
1.5Conditionsnécessairesd’optimalité:.....................12
1.5.1Conditionsnécessaires.........................12
1.5.2Conditionsnécessairesetsu¢santes:.................13
1.6Convergencedesalgorithmes..........................15
1.6.1LÂ’algorithmeenoptimisation......................15
1.6.2Convergenceglobale..........................15
1.6.3Vitessedeconvergenceenquotient..................15
2 Lesméthodesdedescente17
2.1Méthodededescente..............................17
2.2Lesméthodesdegradient...........................19
2.2.1Principegénéraldelaméthodedegradient.19
2.2.2Laméthodedugradientà pas…xe(ouà pasconstant).......19
2.2.3Algorithmedugradientà pasoptimal.................20
2.2.4LesinconvénientsdelaméthodedeGradient.............22
3 Rechercheslinéairesexactesetinexactes23
3.1Objectifsà atteindre..............................24
3.1.1Intervalledesécurité..........................24
3.1.2Algorithmedebase..........................24
3.2Rechercheslinéairesexactes..........................25
3.2.1Lesinconvénientsdesrechercheslinéairesexactes..........26
3.3Rechercheslinéairesinexactes.........................26
3.3.1Larecherchelinéaireinexacted’Armijo................26
3.3.2LarecherchelinéaireinexactedeGoldstein-Price...........28
3.3.3RecherchelinéaireinexactedeWolfe.................30
4 Méthodedugradientconjugué34
4.1Lesdi¤érentesvariantesdelaméthodedugradientconjugué........34
4.2Algorithmedugradientconjugué.......................36
4.3HypothèseC1(deLipschitz)..........................36
4.4Lesdi¤érentesvariantesdugradientconjugué................37
4.4.1MéthodedeHestenesetStiefel....................37
4.4.2MéthodedeFletcher-Reeves......................37
4.4.3MéthodedePolak-Ribière-Polyak...................38
4.4.4Méthodedeladescenteconjuguée...................39
4.4.5MéthodedeLiuetStorey(LS)....................39
4.4.6MéthodedeDai-Yuan.........................40
5 Applicationsnumériques41
résoudreleproblème (P), lamajoritédesméthodesgénèrentunesuiteCôte titre : MAM/0300 En ligne : https://drive.google.com/file/d/1dON6kgjWUkuh7q4ztkRJX6euOsPzWAHD/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAM/0300 MAM/0300 Mémoire Bibliothéque des sciences Français Disponible
Disponible