University Sétif 1 FERHAT ABBAS Faculty of Sciences
Détail de l'auteur
Auteur Djamel Benterki |
Documents disponibles écrits par cet auteur
Ajouter le résultat dans votre panier Affiner la recherche
Complexité de la méthode du gradient avec recherche linéaire pour une fonction fortement convexe / Zebar,Ilhem
Titre : Complexité de la méthode du gradient avec recherche linéaire pour une fonction fortement convexe Type de document : texte imprimé Auteurs : Zebar,Ilhem, Auteur ; Djamel Benterki, Directeur de thèse Editeur : Setif:UFA Année de publication : 2019 Importance : 1 vol (52 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation sans contraintes
Méthode de gradient
linéaire de WolfeIndex. décimale : 510 Mathématique Résumé : Dans ce travail, nous sommes intéressés à l’étude numérique
d’une méthode modifiée du gradient classique, dite gradient noisy proposée
par E. De Klerk et al. Cette méthode offre une nouvelle direction approximant
le gradient négatif de la fonction objective à minimiser. Nous
avons effectué des tests numériques comparatifs entre la méthode de gradient
classique et celle de gradient noisy moyennant une recherche linéaire
de Wolfe. Les résultats numériques effectués confirment les propos théoriquesNote de contenu : Sommaire
Introduction 3
1 Rappel sur lÂ’analyse convexe et lÂ’optimisation sans contraintes 5
1.1 Ensemble convexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Fonctions convexes, strictement convexes, fortement convexes . . . 6
1.1.2 Caractérisation de la convexité . . . . . . . . . . . . . . . . . . . 7
1.1.3 Caractérisation de la convexité stricte . . . . . . . . . . . . . . . . 8
1.1.4 Caractérisation de la convexité forte . . . . . . . . . . . . . . . . . 8
1.2 Optimisation sans contraintes . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.1 Conditions d’optimalité des problèmes d’optimisation sans contraintes 11
2 Méthodes de résolution des problèmes d’optimisation sans contraintes 13
2.1 Les méthodes de descente . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1.1 La méthode du Gradient . . . . . . . . . . . . . . . . . . . . . . . 16
2.1.2 La méthode de Newton . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2 Recherche linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2.1 Recherches linéaires exactes . . . . . . . . . . . . . . . . . . . . . 27
2.2.2 Recherches linéaires inexactes . . . . . . . . . . . . . . . . . . . . 28
3 Méthode du gradient avec recherche linéaire pour une fonction lisse
fortement convexe 40
1
3.1 Algorithme du gradient avec recherche linéaire de Wolfe pour une fonction
lisse fortement convexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.1.1 Algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.1.2 Convergence de la méthode de Gradient pour une fonction L-lisse,
-fortement convexe . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2 Méthode du gradient noisy . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2.1 Méthode de gradient noisy avec recherche linéaire . . . . . . . . . 43
3.2.2 Algorithme de la méthode du gradient noisy avec recherche linéaire 44
3.2.3 Convergence de la méthode du gradient noisy avec recherche linéaire 44
3.3 Tests Numériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3.1 Exemple à taille variable . . . . . . . . . . . . . . . . . . . . . . . 45
Conclusion 49
Côte titre : MAM/0369 En ligne : https://drive.google.com/file/d/1dawMbrpMPaVVS1HA7kFW-aOzatPgStpI/view?usp=shari [...] Format de la ressource électronique : Complexité de la méthode du gradient avec recherche linéaire pour une fonction fortement convexe [texte imprimé] / Zebar,Ilhem, Auteur ; Djamel Benterki, Directeur de thèse . - [S.l.] : Setif:UFA, 2019 . - 1 vol (52 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation sans contraintes
Méthode de gradient
linéaire de WolfeIndex. décimale : 510 Mathématique Résumé : Dans ce travail, nous sommes intéressés à l’étude numérique
d’une méthode modifiée du gradient classique, dite gradient noisy proposée
par E. De Klerk et al. Cette méthode offre une nouvelle direction approximant
le gradient négatif de la fonction objective à minimiser. Nous
avons effectué des tests numériques comparatifs entre la méthode de gradient
classique et celle de gradient noisy moyennant une recherche linéaire
de Wolfe. Les résultats numériques effectués confirment les propos théoriquesNote de contenu : Sommaire
Introduction 3
1 Rappel sur lÂ’analyse convexe et lÂ’optimisation sans contraintes 5
1.1 Ensemble convexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Fonctions convexes, strictement convexes, fortement convexes . . . 6
1.1.2 Caractérisation de la convexité . . . . . . . . . . . . . . . . . . . 7
1.1.3 Caractérisation de la convexité stricte . . . . . . . . . . . . . . . . 8
1.1.4 Caractérisation de la convexité forte . . . . . . . . . . . . . . . . . 8
1.2 Optimisation sans contraintes . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.1 Conditions d’optimalité des problèmes d’optimisation sans contraintes 11
2 Méthodes de résolution des problèmes d’optimisation sans contraintes 13
2.1 Les méthodes de descente . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1.1 La méthode du Gradient . . . . . . . . . . . . . . . . . . . . . . . 16
2.1.2 La méthode de Newton . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2 Recherche linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2.1 Recherches linéaires exactes . . . . . . . . . . . . . . . . . . . . . 27
2.2.2 Recherches linéaires inexactes . . . . . . . . . . . . . . . . . . . . 28
3 Méthode du gradient avec recherche linéaire pour une fonction lisse
fortement convexe 40
1
3.1 Algorithme du gradient avec recherche linéaire de Wolfe pour une fonction
lisse fortement convexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.1.1 Algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.1.2 Convergence de la méthode de Gradient pour une fonction L-lisse,
-fortement convexe . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2 Méthode du gradient noisy . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2.1 Méthode de gradient noisy avec recherche linéaire . . . . . . . . . 43
3.2.2 Algorithme de la méthode du gradient noisy avec recherche linéaire 44
3.2.3 Convergence de la méthode du gradient noisy avec recherche linéaire 44
3.3 Tests Numériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3.1 Exemple à taille variable . . . . . . . . . . . . . . . . . . . . . . . 45
Conclusion 49
Côte titre : MAM/0369 En ligne : https://drive.google.com/file/d/1dawMbrpMPaVVS1HA7kFW-aOzatPgStpI/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAM/0369 MAM/0369 Mémoire Bibliothéque des sciences Français Disponible
DisponibleMéthodes de points intérieurs et leurs applications sur des problèmes d'optimisation semi-définis / Zerari ,Amina
Titre : Méthodes de points intérieurs et leurs applications sur des problèmes d'optimisation semi-définis Type de document : texte imprimé Auteurs : Zerari ,Amina, Auteur ; Djamel Benterki, Directeur de thèse Editeur : Setif:UFA Année de publication : 2020 Importance : 1 vol (93 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Mathématique Mots-clés : Programmation semi-définie
Méthode de points intérieurs
Méthode projectiveIndex. décimale : 510 - Mathématique Résumé : Les méthodes de points intérieurs sont bien connues comme les plus efficaces pour résoudre les problèmes d’optimisation. Ces méthodes possèdent une convergence polynômiale et un bon comportement numérique. Dans cette recherche, nous nous sommes intéressés à une étude théorique, algorithmique et numérique des méthodes de points intérieurs pour la programmation semi-définie.
En effet, on présente dans une première partie un algorithme réalisable projectif primal-dual de points intérieurs de type polynômial à deux phases, où on a introduit trois nouvelles alternatives efficaces pour calculer le pas de déplacement.
Ensuite, dans la deuxième partie, on s’intéresse aux méthodes de type trajectoire centrale primale-duale via une fonction noyau, nous proposons deux nouvelles fonctions noyaux à terme logarithmique qui donnent la meilleure complexité algorithmique, obtenue jusqu’à présent.Côte titre : DM/0160 En ligne : https://drive.google.com/file/d/1rFNeEG1GpEdyy-kEw-4m_S1tpr2D36Ou/view?usp=shari [...] Format de la ressource électronique : Méthodes de points intérieurs et leurs applications sur des problèmes d'optimisation semi-définis [texte imprimé] / Zerari ,Amina, Auteur ; Djamel Benterki, Directeur de thèse . - [S.l.] : Setif:UFA, 2020 . - 1 vol (93 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Programmation semi-définie
Méthode de points intérieurs
Méthode projectiveIndex. décimale : 510 - Mathématique Résumé : Les méthodes de points intérieurs sont bien connues comme les plus efficaces pour résoudre les problèmes d’optimisation. Ces méthodes possèdent une convergence polynômiale et un bon comportement numérique. Dans cette recherche, nous nous sommes intéressés à une étude théorique, algorithmique et numérique des méthodes de points intérieurs pour la programmation semi-définie.
En effet, on présente dans une première partie un algorithme réalisable projectif primal-dual de points intérieurs de type polynômial à deux phases, où on a introduit trois nouvelles alternatives efficaces pour calculer le pas de déplacement.
Ensuite, dans la deuxième partie, on s’intéresse aux méthodes de type trajectoire centrale primale-duale via une fonction noyau, nous proposons deux nouvelles fonctions noyaux à terme logarithmique qui donnent la meilleure complexité algorithmique, obtenue jusqu’à présent.Côte titre : DM/0160 En ligne : https://drive.google.com/file/d/1rFNeEG1GpEdyy-kEw-4m_S1tpr2D36Ou/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité DM/0160 DM/0160 Mémoire Bibliothéque des sciences Français Disponible
DisponibleOn the search direction of interior point algorithm for linearly constrained convex optimization / Maroua Lamiri
Titre : On the search direction of interior point algorithm for linearly constrained convex optimization Type de document : texte imprimé Auteurs : Maroua Lamiri, Auteur ; Hizia Latreche, Auteur ; Djamel Benterki, Directeur de thèse Editeur : Sétif:UFS Année de publication : 2023 Importance : 1 vol (37 f.) Format : 29 cm Langues : Anglais (eng) Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation convexe à contraintes linéaires
Méthode de points intérieursIndex. décimale : 510-Mathématique Résumé : Dans cette étude, nous nous intéressons aux performances des algorithmes primaux-duaux de
type points intérieurs pour résoudre un problème d'optimisation convexe sous contraintes
linéaires. Nous introduisons une fonction dans le but d'améliorer la complexité de l'algorithme
de Zhang. De plus, nous dérivons l'itération associée à l'algorithme, qui coïncide avec
l'itération la plus célèbre associée à ce type d’algorithmes. Les résultats numériques réalisés
montrent que l'algorithme proposé est compétitif et fiable avec l'algorithme de Zhang = In this study, we are interested in the performance of the primal-dual algorithms of the
interior point type to solve a linearly constrained convex optimization problem. We introduce
a function that allows improving the complexity of Zhang’s algorithm. Moreover, we derive
the iteration bound for the algorithm, which coincides with the best-known iteration bound for
this type of algorithms. Numerical results show that the proposed algorithm is competitive
and reliable than that Zhang’s algorithmCôte titre : MAM/0666 En ligne : https://drive.google.com/file/d/1KDAvv2oM84J8KblJiMk43uLIfsBdUFYy/view?usp=drive [...] Format de la ressource électronique : On the search direction of interior point algorithm for linearly constrained convex optimization [texte imprimé] / Maroua Lamiri, Auteur ; Hizia Latreche, Auteur ; Djamel Benterki, Directeur de thèse . - [S.l.] : Sétif:UFS, 2023 . - 1 vol (37 f.) ; 29 cm.
Langues : Anglais (eng)
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation convexe à contraintes linéaires
Méthode de points intérieursIndex. décimale : 510-Mathématique Résumé : Dans cette étude, nous nous intéressons aux performances des algorithmes primaux-duaux de
type points intérieurs pour résoudre un problème d'optimisation convexe sous contraintes
linéaires. Nous introduisons une fonction dans le but d'améliorer la complexité de l'algorithme
de Zhang. De plus, nous dérivons l'itération associée à l'algorithme, qui coïncide avec
l'itération la plus célèbre associée à ce type d’algorithmes. Les résultats numériques réalisés
montrent que l'algorithme proposé est compétitif et fiable avec l'algorithme de Zhang = In this study, we are interested in the performance of the primal-dual algorithms of the
interior point type to solve a linearly constrained convex optimization problem. We introduce
a function that allows improving the complexity of Zhang’s algorithm. Moreover, we derive
the iteration bound for the algorithm, which coincides with the best-known iteration bound for
this type of algorithms. Numerical results show that the proposed algorithm is competitive
and reliable than that Zhang’s algorithmCôte titre : MAM/0666 En ligne : https://drive.google.com/file/d/1KDAvv2oM84J8KblJiMk43uLIfsBdUFYy/view?usp=drive [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAM/0666 MAM/0666 Mémoire Bibliothéque des sciences Anglais Disponible
Disponible
Titre : Programmation fractionnaire linéaire : formulation et résolution numérique Type de document : texte imprimé Auteurs : Karim Drabla ; Djamel Benterki, Directeur de thèse Editeur : Setif:UFA Année de publication : 2017 Importance : 1 vol (52 f.) Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation et contrôle Côte titre : MAM/0231 En ligne : https://drive.google.com/file/d/1tthePqgfI_BVPQKf7_YgpDEMm4uyuzrF/view?usp=shari [...] Format de la ressource électronique : Programmation fractionnaire linéaire : formulation et résolution numérique [texte imprimé] / Karim Drabla ; Djamel Benterki, Directeur de thèse . - [S.l.] : Setif:UFA, 2017 . - 1 vol (52 f.).
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation et contrôle Côte titre : MAM/0231 En ligne : https://drive.google.com/file/d/1tthePqgfI_BVPQKf7_YgpDEMm4uyuzrF/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAM/0231 MAM/0231 Mémoire Bibliothéque des sciences Français Disponible
DisponibleSur les directions de descente des méthodes de points intérieurs pour l’optimisation linéaire / Hadjer Remadna
Titre : Sur les directions de descente des méthodes de points intérieurs pour l’optimisation linéaire Type de document : texte imprimé Auteurs : Hadjer Remadna, Auteur ; Djamel Benterki, Directeur de thèse Editeur : Setif:UFA Année de publication : 2020 Importance : 1 vol (59 f.) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Mathématique Mots-clés : Programmation Linéaire
Méthode de Points Intérieurs
Fonction Noyau
Directions de Newton.Index. décimale : 510 Mathématique Résumé :
Dans ce mémoire, nous présentons deux méthodes de points intérieurs de
type primal- dual de trajectoire centrale pour résoudre les problèmes de la
programmation linéaire. La première méthode est basée sur une nouvelle
fonction noyau trigonométrique donnée par S. F. Hafshejani et al. en 2019.
La deuxième méthode est basée sur une nouvelle direction de descente avec
un pas de Newton complet donnée par Zs. Darvay et al. en 2018, le spécificité
de cette méthode est de calculer le pas de Newton en utilisant un système
modifié de l’équation de centralité. Des tests numériques comparatifs sont
réalisés mettant en faveur la supériorité en nombre d’itérations de
l’algorithme de Zs. Darvay et alCôte titre : MAM/0403 En ligne : https://drive.google.com/file/d/1sA1P-sGENydR_sKlOVXx9CWC2QUw2pPK/view?usp=shari [...] Format de la ressource électronique : Sur les directions de descente des méthodes de points intérieurs pour l’optimisation linéaire [texte imprimé] / Hadjer Remadna, Auteur ; Djamel Benterki, Directeur de thèse . - [S.l.] : Setif:UFA, 2020 . - 1 vol (59 f.) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Programmation Linéaire
Méthode de Points Intérieurs
Fonction Noyau
Directions de Newton.Index. décimale : 510 Mathématique Résumé :
Dans ce mémoire, nous présentons deux méthodes de points intérieurs de
type primal- dual de trajectoire centrale pour résoudre les problèmes de la
programmation linéaire. La première méthode est basée sur une nouvelle
fonction noyau trigonométrique donnée par S. F. Hafshejani et al. en 2019.
La deuxième méthode est basée sur une nouvelle direction de descente avec
un pas de Newton complet donnée par Zs. Darvay et al. en 2018, le spécificité
de cette méthode est de calculer le pas de Newton en utilisant un système
modifié de l’équation de centralité. Des tests numériques comparatifs sont
réalisés mettant en faveur la supériorité en nombre d’itérations de
l’algorithme de Zs. Darvay et alCôte titre : MAM/0403 En ligne : https://drive.google.com/file/d/1sA1P-sGENydR_sKlOVXx9CWC2QUw2pPK/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAM/0403 MAM/0403 Mémoire Bibliothéque des sciences Français Disponible
DisponiblePermalink