University Sétif 1 FERHAT ABBAS Faculty of Sciences
Catégories
![](./images/expand_all.gif)
![](./images/collapse_all.gif)
Titre : Sur certaines méthodes de descente nonlinéaires. Type de document : texte imprimé Auteurs : Sofiane Hamani, Auteur ; Asma Goumache, Auteur ; Raouf Ziadi, Directeur de thèse Editeur : Sétif:UFS Année de publication : 2023 Importance : 1 vol (52 f.) Langues : Français (fre) Catégories : Thèses & Mémoires:Mathématique Index. décimale : 510-Mathématique Résumé : Dans ce mémoire, nous présentons une synthèse sur les différentes variantes de la méthode
du gradient conjugué et méthodes de Quasi-Newton pour résoudre des problèmes
d'optimisation sans contraintes où la fonction objectif est continument différentiable. Pour
illustrés la performance des différentes variantes, des expériences numériques ont été réalisées
sur certaines fonctions de tests = In this memoir, we present certain conjugate gradient and quasi-Newton type methods for
solving unconstraint optimization problems, where the objective function is non-linear and
continuosly differentiable. Numerical experiments are archieved on several typical functions
tests to present the performance of the studied methods.Côte titre : MAM/0658 En ligne : https://drive.google.com/file/d/1zTxRfULrQurtRQCdGz-Wh_AzkI1wktW_/view?usp=drive [...] Format de la ressource électronique : Sur certaines méthodes de descente nonlinéaires. [texte imprimé] / Sofiane Hamani, Auteur ; Asma Goumache, Auteur ; Raouf Ziadi, Directeur de thèse . - [S.l.] : Sétif:UFS, 2023 . - 1 vol (52 f.).
Langues : Français (fre)
Catégories : Thèses & Mémoires:Mathématique Index. décimale : 510-Mathématique Résumé : Dans ce mémoire, nous présentons une synthèse sur les différentes variantes de la méthode
du gradient conjugué et méthodes de Quasi-Newton pour résoudre des problèmes
d'optimisation sans contraintes où la fonction objectif est continument différentiable. Pour
illustrés la performance des différentes variantes, des expériences numériques ont été réalisées
sur certaines fonctions de tests = In this memoir, we present certain conjugate gradient and quasi-Newton type methods for
solving unconstraint optimization problems, where the objective function is non-linear and
continuosly differentiable. Numerical experiments are archieved on several typical functions
tests to present the performance of the studied methods.Côte titre : MAM/0658 En ligne : https://drive.google.com/file/d/1zTxRfULrQurtRQCdGz-Wh_AzkI1wktW_/view?usp=drive [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAM/0658 MAM/0658 Mémoire Bibliothéque des sciences Français Disponible
DisponibleSur certaines méthodes d’optimisation globale basées sur l’introduction de fonctions auxiliaires / KETFI-CHERIF, Amine
![]()
Titre : Sur certaines méthodes d’optimisation globale basées sur l’introduction de fonctions auxiliaires Type de document : texte imprimé Auteurs : KETFI-CHERIF, Amine, Auteur ; A. Ziadi, Directeur de thèse Editeur : Setif:UFA Année de publication : 2016 Importance : 1 vol (129 f.) Format : 29 cm Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation globale
Optimisation non convexe
Optimisation non régulière
Fonction auxiliaire
Fonction de descente globaleIndex. décimale : 510 Mathématique Résumé :
Résumé:
Cette thèse traite les méthodes d'optimisation globale qui introduisent des fonctions
auxiliaires. Une approche utilisant une nouvelle fonction auxiliaire, dite de descente globale, a
été proposée. Elle permet de résoudre des problèmes assez généraux d’optimisation continue, avec
des contraintes seulement continues. Une série d’applications numériques ont été effectuées
prouvant l’efficacité de cette approche.
Mots–clés: Optimisation globale, Optimisation non convexe, Optimisation non régulière,
FonctionNote de contenu : Table des mati`eres
Introduction g´en´erale 4
1 G´en´eralit´es sur l’optimisation globale 7
1.1 Minimum local et minimum global . . . . . . . . . . . . . . . . . . . 7
1.2 L’existence d’un minimum global . . . . . . . . . . . . . . . . . . . . 9
1.3 Solution approch´ee . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4 Classification des probl`emes d’optimisation globale . . . . . . . . . . 10
1.4.1 Classification par rapport `a la nature du domaine faisable . . 11
1.4.2 Classification par rapport aux propri´et´es de la fonction objectif 12
1.5 Quelques caract´erisations d’un minimiseur global d’un probl`eme non
convexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5.1 Cas d’un probl`eme diff´erentiable . . . . . . . . . . . . . . . . . 14
1.5.2 Cas d’un probl`eme lipschitzien . . . . . . . . . . . . . . . . . . 16
1.5.3 Cas d’un probl`eme non lipschitzien . . . . . . . . . . . . . . . 20
1.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2 M´ethodes d’optimisation globale bas´ees sur l’introduction d’une fonction auxiliaire 23
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2 La m´ethode de la fonction de diffusion . . . . . . . . . . . . . . . . . 24
2.2.1 Principe de la m´ethode de la fonction de diffusion . . . . . . . 24
2.2.2 La transformation gaussienne . . . . . . . . . . . . . . . . . . 27
2.2.3 Proc´edure d’optimisation . . . . . . . . . . . . . . . . . . . . . 29`
2.3 La m´ethode de l’indicateur de relief . . . . . . . . . . . . . . . . . . . 31
2.3.1 Notion de s´eparateur . . . . . . . . . . . . . . . . . . . . . . . 32
2.3.2 Crit`ere d’optimalit´e globale . . . . . . . . . . . . . . . . . . . 34
2.3.3 Description de la m´ethode . . . . . . . . . . . . . . . . . . . . 35
2.4 Les m´ethodes qui utilisent des fonctions minorantes de la fonction objectif . . .. . . 39
2.4.1 Les m´ethodes de recouvrement . . . . . . . . . . . . . . . . . . 39
2.4.2 La m´ethode de s´eparation et ´evaluation (Branch-and-Bound) . 47
2.5 La m´ethode de la fonction Tunneling . . . . . . . . . . . . . . . . . . 52
2.6 La m´ethode de la fonction Filled . . . . . . . . . . . . . . . . . . . . 54
2.6.1 Principe de la m´ethode de la fonction Filled . . . . . . . . . . 54
2.6.2 Quelques variantes de la m´ethode de la fonction Filled . . . . 56
2.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3 Une nouvelle fonction auxiliaire de descente globale 68
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.2 Pr´esentation du probl`eme `a optimiser et son approximation . . . . . . 69
3.3 Une nouvelle fonction auxiliaire de descente globale avec ses propri´et´es 71
3.4 La m´ethode de descente globale . . . . . . . . . . . . . . . . . . . . . 81
3.4.1 Algorithme de descente globale . . . . . . . . . . . . . . . . . 81
3.4.2 Convergence asymptotique . . . . . . . . . . . . . . . . . . . 82
3.4.3 Condition d’arrˆet . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.4.4 Un exemple illustratif . . . . . . . . . . . . . . . . . . . . . . 86
3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4 Utilisation de la nouvelle fonction de descente globale pour r´esoudre
des probl`emes d’optimisation discr`ete 91
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.2 Pr´eliminaire sur l’optimisation discr`ete . . . . . . . . . . . . . . . . . 92
4.3 Quelques propri´et´es de la nouvelle fonction de descente globale pour l’optimisation discr`ete . . . . . . . . 93 `
4.4 Description de l’algorithme . . . . . . . . . . . . . . . . . . . . . . . 99
4.5 Exemples illustratifs . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
4.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5 Applications 104
Conclusion g´en´erale et perspectives 122
Bibliographie 124Côte titre : DM/0112 En ligne : https://drive.google.com/file/d/1pW66ueHCOgwRqGo02thuaHPqP6-6R-fj/view?usp=shari [...] Format de la ressource électronique : Sur certaines méthodes d’optimisation globale basées sur l’introduction de fonctions auxiliaires [texte imprimé] / KETFI-CHERIF, Amine, Auteur ; A. Ziadi, Directeur de thèse . - [S.l.] : Setif:UFA, 2016 . - 1 vol (129 f.) ; 29 cm.
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation globale
Optimisation non convexe
Optimisation non régulière
Fonction auxiliaire
Fonction de descente globaleIndex. décimale : 510 Mathématique Résumé :
Résumé:
Cette thèse traite les méthodes d'optimisation globale qui introduisent des fonctions
auxiliaires. Une approche utilisant une nouvelle fonction auxiliaire, dite de descente globale, a
été proposée. Elle permet de résoudre des problèmes assez généraux d’optimisation continue, avec
des contraintes seulement continues. Une série d’applications numériques ont été effectuées
prouvant l’efficacité de cette approche.
Mots–clés: Optimisation globale, Optimisation non convexe, Optimisation non régulière,
FonctionNote de contenu : Table des mati`eres
Introduction g´en´erale 4
1 G´en´eralit´es sur l’optimisation globale 7
1.1 Minimum local et minimum global . . . . . . . . . . . . . . . . . . . 7
1.2 L’existence d’un minimum global . . . . . . . . . . . . . . . . . . . . 9
1.3 Solution approch´ee . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4 Classification des probl`emes d’optimisation globale . . . . . . . . . . 10
1.4.1 Classification par rapport `a la nature du domaine faisable . . 11
1.4.2 Classification par rapport aux propri´et´es de la fonction objectif 12
1.5 Quelques caract´erisations d’un minimiseur global d’un probl`eme non
convexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5.1 Cas d’un probl`eme diff´erentiable . . . . . . . . . . . . . . . . . 14
1.5.2 Cas d’un probl`eme lipschitzien . . . . . . . . . . . . . . . . . . 16
1.5.3 Cas d’un probl`eme non lipschitzien . . . . . . . . . . . . . . . 20
1.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2 M´ethodes d’optimisation globale bas´ees sur l’introduction d’une fonction auxiliaire 23
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2 La m´ethode de la fonction de diffusion . . . . . . . . . . . . . . . . . 24
2.2.1 Principe de la m´ethode de la fonction de diffusion . . . . . . . 24
2.2.2 La transformation gaussienne . . . . . . . . . . . . . . . . . . 27
2.2.3 Proc´edure d’optimisation . . . . . . . . . . . . . . . . . . . . . 29`
2.3 La m´ethode de l’indicateur de relief . . . . . . . . . . . . . . . . . . . 31
2.3.1 Notion de s´eparateur . . . . . . . . . . . . . . . . . . . . . . . 32
2.3.2 Crit`ere d’optimalit´e globale . . . . . . . . . . . . . . . . . . . 34
2.3.3 Description de la m´ethode . . . . . . . . . . . . . . . . . . . . 35
2.4 Les m´ethodes qui utilisent des fonctions minorantes de la fonction objectif . . .. . . 39
2.4.1 Les m´ethodes de recouvrement . . . . . . . . . . . . . . . . . . 39
2.4.2 La m´ethode de s´eparation et ´evaluation (Branch-and-Bound) . 47
2.5 La m´ethode de la fonction Tunneling . . . . . . . . . . . . . . . . . . 52
2.6 La m´ethode de la fonction Filled . . . . . . . . . . . . . . . . . . . . 54
2.6.1 Principe de la m´ethode de la fonction Filled . . . . . . . . . . 54
2.6.2 Quelques variantes de la m´ethode de la fonction Filled . . . . 56
2.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3 Une nouvelle fonction auxiliaire de descente globale 68
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.2 Pr´esentation du probl`eme `a optimiser et son approximation . . . . . . 69
3.3 Une nouvelle fonction auxiliaire de descente globale avec ses propri´et´es 71
3.4 La m´ethode de descente globale . . . . . . . . . . . . . . . . . . . . . 81
3.4.1 Algorithme de descente globale . . . . . . . . . . . . . . . . . 81
3.4.2 Convergence asymptotique . . . . . . . . . . . . . . . . . . . 82
3.4.3 Condition d’arrˆet . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.4.4 Un exemple illustratif . . . . . . . . . . . . . . . . . . . . . . 86
3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4 Utilisation de la nouvelle fonction de descente globale pour r´esoudre
des probl`emes d’optimisation discr`ete 91
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.2 Pr´eliminaire sur l’optimisation discr`ete . . . . . . . . . . . . . . . . . 92
4.3 Quelques propri´et´es de la nouvelle fonction de descente globale pour l’optimisation discr`ete . . . . . . . . 93 `
4.4 Description de l’algorithme . . . . . . . . . . . . . . . . . . . . . . . 99
4.5 Exemples illustratifs . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
4.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5 Applications 104
Conclusion g´en´erale et perspectives 122
Bibliographie 124Côte titre : DM/0112 En ligne : https://drive.google.com/file/d/1pW66ueHCOgwRqGo02thuaHPqP6-6R-fj/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité DM/0112 DM/0112 Thèse Bibliothéque des sciences Français Disponible
DisponibleSur certaines variantes de la méthode de quasi Newton pour la programmation non-linéaire. / Kaddari ,Nadia
![]()
Titre : Sur certaines variantes de la méthode de quasi Newton pour la programmation non-linéaire. Type de document : texte imprimé Auteurs : Kaddari ,Nadia, Auteur ; Ziadi,R, Directeur de thèse Editeur : Setif:UFA Année de publication : 2018 Importance : 1 vol (33 f .) Format : 29 cm Langues : Français (fre) Langues originales : Français (fre) Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation
Algorithme de Newton
Algorithme
DFP, algorithme de BFGS.
AbstractIndex. décimale : 515-Mathématique Résumé : Dans ce mémoire nous avons étudiés la méthode de Newton et
les deux variantes de la méthode de quasi Newton (BFGS,
DFP) pour résoudre des problèmes d’optimisation sans
contraintes où la fonction objectif est différentiable, non linéaire
et non convexe. Des expériences numériques ont été réalisées
sur certain fonctions de tests, ainsi une comparaison numérique
de la méthode BFGS avec d’autres méthodes a été faite.Note de contenu : Sommaire
Introductioni
Notationsii
1 NotionsfondamentalesdÂ’optimisation:1
1.1Dé…nition....................................1
1.2Convergencedesalgorithmes..........................2
1.2.1LÂ’algorithmeenoptimisation......................2
1.2.2Convergenceglobale...........................3
1.2.3Modesetvitessedeconvergence....................3
1.3Dérivéedirectionnelle..............................4
1.4Directiondedescente..............................4
1.5Conditionsd’optimalité.............................4
1.5.1Conditionsnécessaires.........................5
1.5.2Conditionssu¢santes..........................6
2 Rechercheslinéairesexactesetinexactes7
2.1Butdelarecherchelinéaire:..........................8
2.2Intervalledesécurité:.............................8
2.3Rechercheslinéairesexactes..........................9
2.4Rechercheslinéairesinexactes.........................10
2.4.1Larègled’Armijo............................10
2.4.2LarègledeGoldsteinPrice:......................11
2.4.3LarègledeWolfe:...........................13
3 MéthodesdeNewtonetquasi-Newton:17
3.1MéthodedeNewton:..............................17
3.1.1Descriptiondelaméthode.......................17
3.1.2Algorithmedelaméthode:......................18
3.1.3Avantagesetinconvénientsdel’algorithmedeNewton:.......19
1
3.2Méthodedequasi-Newton...........................20
3.2.1FormuledeDavidon,FletcheretPowell(DFP):...........21
3.2.2MéthodedeBroydenFletcherGoldfardShanno(BFGS):......23
4 Applicationnumérique26
Bibliographie33
iCôte titre : MAM/0276 En ligne : https://drive.google.com/file/d/1VhVFNtp3XJbyq7-qmqnyFd3lZBfeafGb/view?usp=shari [...] Format de la ressource électronique : Sur certaines variantes de la méthode de quasi Newton pour la programmation non-linéaire. [texte imprimé] / Kaddari ,Nadia, Auteur ; Ziadi,R, Directeur de thèse . - [S.l.] : Setif:UFA, 2018 . - 1 vol (33 f .) ; 29 cm.
Langues : Français (fre) Langues originales : Français (fre)
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation
Algorithme de Newton
Algorithme
DFP, algorithme de BFGS.
AbstractIndex. décimale : 515-Mathématique Résumé : Dans ce mémoire nous avons étudiés la méthode de Newton et
les deux variantes de la méthode de quasi Newton (BFGS,
DFP) pour résoudre des problèmes d’optimisation sans
contraintes où la fonction objectif est différentiable, non linéaire
et non convexe. Des expériences numériques ont été réalisées
sur certain fonctions de tests, ainsi une comparaison numérique
de la méthode BFGS avec d’autres méthodes a été faite.Note de contenu : Sommaire
Introductioni
Notationsii
1 NotionsfondamentalesdÂ’optimisation:1
1.1Dé…nition....................................1
1.2Convergencedesalgorithmes..........................2
1.2.1LÂ’algorithmeenoptimisation......................2
1.2.2Convergenceglobale...........................3
1.2.3Modesetvitessedeconvergence....................3
1.3Dérivéedirectionnelle..............................4
1.4Directiondedescente..............................4
1.5Conditionsd’optimalité.............................4
1.5.1Conditionsnécessaires.........................5
1.5.2Conditionssu¢santes..........................6
2 Rechercheslinéairesexactesetinexactes7
2.1Butdelarecherchelinéaire:..........................8
2.2Intervalledesécurité:.............................8
2.3Rechercheslinéairesexactes..........................9
2.4Rechercheslinéairesinexactes.........................10
2.4.1Larègled’Armijo............................10
2.4.2LarègledeGoldsteinPrice:......................11
2.4.3LarègledeWolfe:...........................13
3 MéthodesdeNewtonetquasi-Newton:17
3.1MéthodedeNewton:..............................17
3.1.1Descriptiondelaméthode.......................17
3.1.2Algorithmedelaméthode:......................18
3.1.3Avantagesetinconvénientsdel’algorithmedeNewton:.......19
1
3.2Méthodedequasi-Newton...........................20
3.2.1FormuledeDavidon,FletcheretPowell(DFP):...........21
3.2.2MéthodedeBroydenFletcherGoldfardShanno(BFGS):......23
4 Applicationnumérique26
Bibliographie33
iCôte titre : MAM/0276 En ligne : https://drive.google.com/file/d/1VhVFNtp3XJbyq7-qmqnyFd3lZBfeafGb/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAM/0276 MAM/0276 Mémoire Bibliothéque des sciences Français Disponible
DisponibleSur certaines variantes de la méthode de Quasi Newton pour la programmation non-linéaire / Mounnes, Amel
![]()
Titre : Sur certaines variantes de la méthode de Quasi Newton pour la programmation non-linéaire Type de document : texte imprimé Auteurs : Mounnes, Amel, Auteur ; Ziadi, Raouf, Directeur de thèse Editeur : Setif:UFA Année de publication : 2019 Importance : 1 vol (51f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation
Algorithme de Newton
Algorithme DFP
Algorithme de BFGSIndex. décimale : 510 Mathématique Résumé : Dans ce mémoire, nous avons étudié la méthode de Newton et les deux variantes de la méthode de Quasi Newton (BFGS, DFP) pour résoudre les problèmes d’optimisation sans contraintes, où la fonction objectif est différentiable, non linéaire et non convexe. Des expériences numériques ont été réalisées sur certaines fonctions de tests, ainsi qu’une comparaison numérique de la méthode BFGS avec d’autres méthodes a été faite. Note de contenu : Sommaire
Introduction3
1 Notionsdebaseetrésultatspréliminaires5
1.1Fonctionlipschitzienne.............................5
1.2Fonctioncoercive................................5
1.3Résultatssurladi¤érentiabilité........................6
1.3.1Dérivéepartielle.............................6
1.3.2Gradient.................................6
1.3.3Dérivéedirectionnelle.........................6
1.3.4MatriceHessienne...........................7
1.4Directiondedescente..............................7
1.5FormeQuadratique..............................8
1.6Laconvexité...................................8
1.6.1EnsemblesConvexes..........................8
1.6.2Fonctionsconvexes...........................9
1.7Résultatsd’existenceetd’unicité.......................11
1.7.1Existence................................11
1.7.2Unicitédelasolution..........................11
1.8Conditionsd’optimalité............................12
1.8.1Conditionsnécessairesd’optimalité..................12
1.8.2Conditionsnécessaireetsu¢santesd’optimalité...........13
1.9Convergencedesalgorithmes..........................15
1.9.1LÂ’algorithmeenoptimisation......................15
1.9.2Convergenceglobale..........................15
1.9.3Vitessedeconvergenceenquotient..................15
2 Lesméthodesdedescente16
2.1Laméthodededescente............................16
2.2Lesméthodesdegradient...........................17
2.2.1Principedesméthodesdegradient..................17
2.2.2Méthodedegradientà pas…xe....................18
2.2.3Méthodedugradientà pasvariable..................19
2.2.4Méthodedugradientà pasoptimal..................19
3 Rechercheslinéairesexactesetinexactes21
3.1Butdelarecherchelinéaire..........................22
3.2Intervalledesécurité..............................22
3.3Algorithmedebase...............................22
3.4Rechercheslinéairesexactes..........................23
3.4.1Avantagesdesrechercheslinéairesexactes..............24
3.4.2Inconvénientsdesrechercheslinéairesexactes.............24
3.5Rechercheslinéairesinexactes..........................24
3.5.1Larègled’Armijo............................24
3.5.2LarègledeGoldsteinetPrice.....................26
3.5.3LarègledeWolfe............................28
4 MéthodesdeNewtonetQuasi-Newton32
4.1LaméthodedeNewton.............................32
4.1.1Principedelaméthode.........................32
4.1.2AlgorithmedelaméthodedeNewton.................33
4.1.3AvantagesetinconvénientsdelaméthodedeNewton........34
4.2MéthodedeQuasi-Newton...........................35
4.3MéthodedeDavidon-Fletcher-Powell(D.F.P)................36
4.3.1AlgorithmedeDavidon-Fletcher-Powel(D.F.P)...........37
4.3.2InconvénientsdelaméthodedeD.F.P................37
4.4MéthodedeBroydenFletcherGoldfardShanno(BFGS)..........38
4.4.1AlgorithmedeBroydenFletcherGoldfardShanno(BFGS).....38
5 Applicationsnumériques40
Bibliographie49
Côte titre : MAM/0301 En ligne : https://drive.google.com/file/d/1oM_ycvsle7fCdqbGUwmAY9wOqbW1qous/view?usp=shari [...] Format de la ressource électronique : Sur certaines variantes de la méthode de Quasi Newton pour la programmation non-linéaire [texte imprimé] / Mounnes, Amel, Auteur ; Ziadi, Raouf, Directeur de thèse . - [S.l.] : Setif:UFA, 2019 . - 1 vol (51f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation
Algorithme de Newton
Algorithme DFP
Algorithme de BFGSIndex. décimale : 510 Mathématique Résumé : Dans ce mémoire, nous avons étudié la méthode de Newton et les deux variantes de la méthode de Quasi Newton (BFGS, DFP) pour résoudre les problèmes d’optimisation sans contraintes, où la fonction objectif est différentiable, non linéaire et non convexe. Des expériences numériques ont été réalisées sur certaines fonctions de tests, ainsi qu’une comparaison numérique de la méthode BFGS avec d’autres méthodes a été faite. Note de contenu : Sommaire
Introduction3
1 Notionsdebaseetrésultatspréliminaires5
1.1Fonctionlipschitzienne.............................5
1.2Fonctioncoercive................................5
1.3Résultatssurladi¤érentiabilité........................6
1.3.1Dérivéepartielle.............................6
1.3.2Gradient.................................6
1.3.3Dérivéedirectionnelle.........................6
1.3.4MatriceHessienne...........................7
1.4Directiondedescente..............................7
1.5FormeQuadratique..............................8
1.6Laconvexité...................................8
1.6.1EnsemblesConvexes..........................8
1.6.2Fonctionsconvexes...........................9
1.7Résultatsd’existenceetd’unicité.......................11
1.7.1Existence................................11
1.7.2Unicitédelasolution..........................11
1.8Conditionsd’optimalité............................12
1.8.1Conditionsnécessairesd’optimalité..................12
1.8.2Conditionsnécessaireetsu¢santesd’optimalité...........13
1.9Convergencedesalgorithmes..........................15
1.9.1LÂ’algorithmeenoptimisation......................15
1.9.2Convergenceglobale..........................15
1.9.3Vitessedeconvergenceenquotient..................15
2 Lesméthodesdedescente16
2.1Laméthodededescente............................16
2.2Lesméthodesdegradient...........................17
2.2.1Principedesméthodesdegradient..................17
2.2.2Méthodedegradientà pas…xe....................18
2.2.3Méthodedugradientà pasvariable..................19
2.2.4Méthodedugradientà pasoptimal..................19
3 Rechercheslinéairesexactesetinexactes21
3.1Butdelarecherchelinéaire..........................22
3.2Intervalledesécurité..............................22
3.3Algorithmedebase...............................22
3.4Rechercheslinéairesexactes..........................23
3.4.1Avantagesdesrechercheslinéairesexactes..............24
3.4.2Inconvénientsdesrechercheslinéairesexactes.............24
3.5Rechercheslinéairesinexactes..........................24
3.5.1Larègled’Armijo............................24
3.5.2LarègledeGoldsteinetPrice.....................26
3.5.3LarègledeWolfe............................28
4 MéthodesdeNewtonetQuasi-Newton32
4.1LaméthodedeNewton.............................32
4.1.1Principedelaméthode.........................32
4.1.2AlgorithmedelaméthodedeNewton.................33
4.1.3AvantagesetinconvénientsdelaméthodedeNewton........34
4.2MéthodedeQuasi-Newton...........................35
4.3MéthodedeDavidon-Fletcher-Powell(D.F.P)................36
4.3.1AlgorithmedeDavidon-Fletcher-Powel(D.F.P)...........37
4.3.2InconvénientsdelaméthodedeD.F.P................37
4.4MéthodedeBroydenFletcherGoldfardShanno(BFGS)..........38
4.4.1AlgorithmedeBroydenFletcherGoldfardShanno(BFGS).....38
5 Applicationsnumériques40
Bibliographie49
Côte titre : MAM/0301 En ligne : https://drive.google.com/file/d/1oM_ycvsle7fCdqbGUwmAY9wOqbW1qous/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAM/0301 MAM/0301 Mémoire Bibliothéque des sciences Français Disponible
Disponible
Titre : Sur une classe de distributions nilpotentes Type de document : texte imprimé Auteurs : Dounia Ben Gherieb, ; Naceurdine Bensalem, Directeur de thèse Année de publication : 2015 Catégories : Thèses & Mémoires:Mathématique Mots-clés : Algèbre et géométrie, Distribution nilpotente, Non-commutativité, Champs de vecteurs, Noyau
de la chaleurRésumé : Dans ce mémoire, on a étudié la relation entre la classe de nilpotence d'une
distribution et la non commutativité des carrés des champs de vecteurs qui l'engendrent.
Plus précisément, on a montré le résultat le suivant : si les champs de vecteurs X et Y
engendrent une distribution nilpotente de classe 2, alors les carrés des champs de
vecteurs ne commutent pas.
Côte titre : MAM/0113 En ligne : https://drive.google.com/file/d/1nQknVrdD1xbBiWkegNMbyoOLduIScBlt/view?usp=shari [...] Format de la ressource électronique : Sur une classe de distributions nilpotentes [texte imprimé] / Dounia Ben Gherieb, ; Naceurdine Bensalem, Directeur de thèse . - 2015.
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Algèbre et géométrie, Distribution nilpotente, Non-commutativité, Champs de vecteurs, Noyau
de la chaleurRésumé : Dans ce mémoire, on a étudié la relation entre la classe de nilpotence d'une
distribution et la non commutativité des carrés des champs de vecteurs qui l'engendrent.
Plus précisément, on a montré le résultat le suivant : si les champs de vecteurs X et Y
engendrent une distribution nilpotente de classe 2, alors les carrés des champs de
vecteurs ne commutent pas.
Côte titre : MAM/0113 En ligne : https://drive.google.com/file/d/1nQknVrdD1xbBiWkegNMbyoOLduIScBlt/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAM/0113 MAM/0113 Mémoire Bibliothéque des sciences Français Disponible
DisponibleSur une classe de systèmes différentiels par morceaux avec cycle limites non algébriques / Asma Dahel
![]()
PermalinkSur la construction des fonctions de LYAPUNOV pour la stabilité des modèles mathématiques dans la biologie des populations / Maache ,Hanane
PermalinkSur la construction des fonctions de LYAPUNOV pour la stabilité des modèles mathématiques dans la biologie des populations / Hanane Maache
![]()
PermalinkSur la convergence asymptotique d’un problème aux limites lié au système d’élasticité générale dans une couche mince avec frottement / Mati, Djillali
PermalinkSur la convergence asymptotique d’un problème aux limites non linéaire avec frottement / Letoufa,Yassine
![]()
PermalinkPermalinkPermalinkSur les directions de descente des méthodes de points intérieurs pour l’optimisation linéaire / Hadjer Remadna
![]()
PermalinkPermalinkPermalinkPermalinkSur l’existence d’un automorphisme non intérieur d’ordre p d’un p-groupe non abelien fini / Yassine Guerboussa
![]()
PermalinkPermalinkSur l'existence et l'unicité de cycles limites pour le système de Liénard généralisé / Hassina Daoud
![]()
PermalinkPermalinkPermalinkPermalinkSur la méthode des éléments finis appliquée à certains problèmes stationnaires et instationnaires en dimension deux / Ahlem Katib
![]()
PermalinkSur la méthode de monotonie et application aux problèmes aux limites non linéaires / Sabrina Guidoum
![]()
PermalinkPermalink