University Sétif 1 FERHAT ABBAS Faculty of Sciences
Détail de l'auteur
Auteur Djamel Benterki |
Documents disponibles écrits par cet auteur



Complexité de la méthode du gradient avec recherche linéaire pour une fonction fortement convexe / Zebar,Ilhem
![]()
Titre : Complexité de la méthode du gradient avec recherche linéaire pour une fonction fortement convexe Type de document : texte imprimé Auteurs : Zebar,Ilhem, Auteur ; Djamel Benterki, Directeur de thèse Editeur : Setif:UFA Année de publication : 2019 Importance : 1 vol (52 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation sans contraintes
Méthode de gradient
linéaire de WolfeIndex. décimale : 510 Mathématique Résumé : Dans ce travail, nous sommes intéressés à l’étude numérique
d’une méthode modifiée du gradient classique, dite gradient noisy proposée
par E. De Klerk et al. Cette méthode offre une nouvelle direction approximant
le gradient négatif de la fonction objective à minimiser. Nous
avons effectué des tests numériques comparatifs entre la méthode de gradient
classique et celle de gradient noisy moyennant une recherche linéaire
de Wolfe. Les résultats numériques effectués confirment les propos théoriquesNote de contenu : Sommaire
Introduction 3
1 Rappel sur lÂ’analyse convexe et lÂ’optimisation sans contraintes 5
1.1 Ensemble convexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Fonctions convexes, strictement convexes, fortement convexes . . . 6
1.1.2 Caractérisation de la convexité . . . . . . . . . . . . . . . . . . . 7
1.1.3 Caractérisation de la convexité stricte . . . . . . . . . . . . . . . . 8
1.1.4 Caractérisation de la convexité forte . . . . . . . . . . . . . . . . . 8
1.2 Optimisation sans contraintes . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.1 Conditions d’optimalité des problèmes d’optimisation sans contraintes 11
2 Méthodes de résolution des problèmes d’optimisation sans contraintes 13
2.1 Les méthodes de descente . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1.1 La méthode du Gradient . . . . . . . . . . . . . . . . . . . . . . . 16
2.1.2 La méthode de Newton . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2 Recherche linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2.1 Recherches linéaires exactes . . . . . . . . . . . . . . . . . . . . . 27
2.2.2 Recherches linéaires inexactes . . . . . . . . . . . . . . . . . . . . 28
3 Méthode du gradient avec recherche linéaire pour une fonction lisse
fortement convexe 40
1
3.1 Algorithme du gradient avec recherche linéaire de Wolfe pour une fonction
lisse fortement convexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.1.1 Algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.1.2 Convergence de la méthode de Gradient pour une fonction L-lisse,
-fortement convexe . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2 Méthode du gradient noisy . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2.1 Méthode de gradient noisy avec recherche linéaire . . . . . . . . . 43
3.2.2 Algorithme de la méthode du gradient noisy avec recherche linéaire 44
3.2.3 Convergence de la méthode du gradient noisy avec recherche linéaire 44
3.3 Tests Numériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3.1 Exemple à taille variable . . . . . . . . . . . . . . . . . . . . . . . 45
Conclusion 49
Côte titre : MAM/0369 En ligne : https://drive.google.com/file/d/1dawMbrpMPaVVS1HA7kFW-aOzatPgStpI/view?usp=shari [...] Format de la ressource électronique : Complexité de la méthode du gradient avec recherche linéaire pour une fonction fortement convexe [texte imprimé] / Zebar,Ilhem, Auteur ; Djamel Benterki, Directeur de thèse . - [S.l.] : Setif:UFA, 2019 . - 1 vol (52 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation sans contraintes
Méthode de gradient
linéaire de WolfeIndex. décimale : 510 Mathématique Résumé : Dans ce travail, nous sommes intéressés à l’étude numérique
d’une méthode modifiée du gradient classique, dite gradient noisy proposée
par E. De Klerk et al. Cette méthode offre une nouvelle direction approximant
le gradient négatif de la fonction objective à minimiser. Nous
avons effectué des tests numériques comparatifs entre la méthode de gradient
classique et celle de gradient noisy moyennant une recherche linéaire
de Wolfe. Les résultats numériques effectués confirment les propos théoriquesNote de contenu : Sommaire
Introduction 3
1 Rappel sur lÂ’analyse convexe et lÂ’optimisation sans contraintes 5
1.1 Ensemble convexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Fonctions convexes, strictement convexes, fortement convexes . . . 6
1.1.2 Caractérisation de la convexité . . . . . . . . . . . . . . . . . . . 7
1.1.3 Caractérisation de la convexité stricte . . . . . . . . . . . . . . . . 8
1.1.4 Caractérisation de la convexité forte . . . . . . . . . . . . . . . . . 8
1.2 Optimisation sans contraintes . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.1 Conditions d’optimalité des problèmes d’optimisation sans contraintes 11
2 Méthodes de résolution des problèmes d’optimisation sans contraintes 13
2.1 Les méthodes de descente . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1.1 La méthode du Gradient . . . . . . . . . . . . . . . . . . . . . . . 16
2.1.2 La méthode de Newton . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2 Recherche linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2.1 Recherches linéaires exactes . . . . . . . . . . . . . . . . . . . . . 27
2.2.2 Recherches linéaires inexactes . . . . . . . . . . . . . . . . . . . . 28
3 Méthode du gradient avec recherche linéaire pour une fonction lisse
fortement convexe 40
1
3.1 Algorithme du gradient avec recherche linéaire de Wolfe pour une fonction
lisse fortement convexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.1.1 Algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.1.2 Convergence de la méthode de Gradient pour une fonction L-lisse,
-fortement convexe . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2 Méthode du gradient noisy . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2.1 Méthode de gradient noisy avec recherche linéaire . . . . . . . . . 43
3.2.2 Algorithme de la méthode du gradient noisy avec recherche linéaire 44
3.2.3 Convergence de la méthode du gradient noisy avec recherche linéaire 44
3.3 Tests Numériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3.1 Exemple à taille variable . . . . . . . . . . . . . . . . . . . . . . . 45
Conclusion 49
Côte titre : MAM/0369 En ligne : https://drive.google.com/file/d/1dawMbrpMPaVVS1HA7kFW-aOzatPgStpI/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAM/0369 MAM/0369 Mémoire Bibliothéque des sciences Français Disponible
DisponibleMéthodes de points intérieurs et leurs applications sur des problèmes d'optimisation semi-définis / Zerari ,Amina
![]()
Titre : Méthodes de points intérieurs et leurs applications sur des problèmes d'optimisation semi-définis Type de document : texte imprimé Auteurs : Zerari ,Amina, Auteur ; Djamel Benterki, Directeur de thèse Editeur : Setif:UFA Année de publication : 2020 Importance : 1 vol (93 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Mathématique Mots-clés : Programmation semi-définie
Méthode de points intérieurs
Méthode projectiveIndex. décimale : 510 - Mathématique Résumé : Les méthodes de points intérieurs sont bien connues comme les plus efficaces pour résoudre les problèmes d’optimisation. Ces méthodes possèdent une convergence polynômiale et un bon comportement numérique. Dans cette recherche, nous nous sommes intéressés à une étude théorique, algorithmique et numérique des méthodes de points intérieurs pour la programmation semi-définie.
En effet, on présente dans une première partie un algorithme réalisable projectif primal-dual de points intérieurs de type polynômial à deux phases, où on a introduit trois nouvelles alternatives efficaces pour calculer le pas de déplacement.
Ensuite, dans la deuxième partie, on s’intéresse aux méthodes de type trajectoire centrale primale-duale via une fonction noyau, nous proposons deux nouvelles fonctions noyaux à terme logarithmique qui donnent la meilleure complexité algorithmique, obtenue jusqu’à présent.Côte titre : DM/0160 En ligne : https://drive.google.com/file/d/1rFNeEG1GpEdyy-kEw-4m_S1tpr2D36Ou/view?usp=shari [...] Format de la ressource électronique : Méthodes de points intérieurs et leurs applications sur des problèmes d'optimisation semi-définis [texte imprimé] / Zerari ,Amina, Auteur ; Djamel Benterki, Directeur de thèse . - [S.l.] : Setif:UFA, 2020 . - 1 vol (93 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Programmation semi-définie
Méthode de points intérieurs
Méthode projectiveIndex. décimale : 510 - Mathématique Résumé : Les méthodes de points intérieurs sont bien connues comme les plus efficaces pour résoudre les problèmes d’optimisation. Ces méthodes possèdent une convergence polynômiale et un bon comportement numérique. Dans cette recherche, nous nous sommes intéressés à une étude théorique, algorithmique et numérique des méthodes de points intérieurs pour la programmation semi-définie.
En effet, on présente dans une première partie un algorithme réalisable projectif primal-dual de points intérieurs de type polynômial à deux phases, où on a introduit trois nouvelles alternatives efficaces pour calculer le pas de déplacement.
Ensuite, dans la deuxième partie, on s’intéresse aux méthodes de type trajectoire centrale primale-duale via une fonction noyau, nous proposons deux nouvelles fonctions noyaux à terme logarithmique qui donnent la meilleure complexité algorithmique, obtenue jusqu’à présent.Côte titre : DM/0160 En ligne : https://drive.google.com/file/d/1rFNeEG1GpEdyy-kEw-4m_S1tpr2D36Ou/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité DM/0160 DM/0160 Mémoire Bibliothéque des sciences Français Disponible
DisponibleNew techniques for determining search directions of interior point algorithms in optimization / Billel Zaoui
![]()
Titre : New techniques for determining search directions of interior point algorithms in optimization Type de document : document électronique Auteurs : Billel Zaoui, Auteur ; Djamel Benterki, Directeur de thèse ; Samia KIhelladi Editeur : Setif:UFA Année de publication : 2024 Importance : 1 vol (146 f.) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Mathématique Mots-clés : Linear programming, Convex quadratic programming, Semidefinite programming,
Primal dual interior point method, Algebraic transformation, Descent directionIndex. décimale : 510 - Mathématique Résumé : This thesis deals with solving optimization problems using primal
dual interior point methods.
By employing algebraic transformations of centrality equations, we conducted a theoretical and
algorithmic study on four optimization problems: linear programming, convex quadratic
programming, l inear semi definite programming and convex quadratic semi definite programming.
For each problem, through various algebraic transformations, we demonstrated the convergence
of the proposed algorithms and provided the rates of their polynomial algorithmic complexities.
The obtained results
are reinforced by hi ghly significant numerical experiments.Côte titre : DM/0201 En ligne : http://dspace.univ-setif.dz:8888/jspui/handle/123456789/4408 Format de la ressource électronique : New techniques for determining search directions of interior point algorithms in optimization [document électronique] / Billel Zaoui, Auteur ; Djamel Benterki, Directeur de thèse ; Samia KIhelladi . - [S.l.] : Setif:UFA, 2024 . - 1 vol (146 f.) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Linear programming, Convex quadratic programming, Semidefinite programming,
Primal dual interior point method, Algebraic transformation, Descent directionIndex. décimale : 510 - Mathématique Résumé : This thesis deals with solving optimization problems using primal
dual interior point methods.
By employing algebraic transformations of centrality equations, we conducted a theoretical and
algorithmic study on four optimization problems: linear programming, convex quadratic
programming, l inear semi definite programming and convex quadratic semi definite programming.
For each problem, through various algebraic transformations, we demonstrated the convergence
of the proposed algorithms and provided the rates of their polynomial algorithmic complexities.
The obtained results
are reinforced by hi ghly significant numerical experiments.Côte titre : DM/0201 En ligne : http://dspace.univ-setif.dz:8888/jspui/handle/123456789/4408 Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité DM/0201 DM/0201 Thèse Bibliothéque des sciences Anglais Disponible
DisponibleOn the search direction of interior point algorithm for linearly constrained convex optimization / Maroua Lamiri
![]()
Titre : On the search direction of interior point algorithm for linearly constrained convex optimization Type de document : texte imprimé Auteurs : Maroua Lamiri, Auteur ; Hizia Latreche, Auteur ; Djamel Benterki, Directeur de thèse Editeur : Sétif:UFS Année de publication : 2023 Importance : 1 vol (37 f.) Format : 29 cm Langues : Anglais (eng) Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation convexe à contraintes linéaires
Méthode de points intérieursIndex. décimale : 510-Mathématique Résumé : Dans cette étude, nous nous intéressons aux performances des algorithmes primaux-duaux de
type points intérieurs pour résoudre un problème d'optimisation convexe sous contraintes
linéaires. Nous introduisons une fonction dans le but d'améliorer la complexité de l'algorithme
de Zhang. De plus, nous dérivons l'itération associée à l'algorithme, qui coïncide avec
l'itération la plus célèbre associée à ce type d’algorithmes. Les résultats numériques réalisés
montrent que l'algorithme proposé est compétitif et fiable avec l'algorithme de Zhang = In this study, we are interested in the performance of the primal-dual algorithms of the
interior point type to solve a linearly constrained convex optimization problem. We introduce
a function that allows improving the complexity of Zhang’s algorithm. Moreover, we derive
the iteration bound for the algorithm, which coincides with the best-known iteration bound for
this type of algorithms. Numerical results show that the proposed algorithm is competitive
and reliable than that Zhang’s algorithmCôte titre : MAM/0666 En ligne : https://drive.google.com/file/d/1KDAvv2oM84J8KblJiMk43uLIfsBdUFYy/view?usp=drive [...] Format de la ressource électronique : On the search direction of interior point algorithm for linearly constrained convex optimization [texte imprimé] / Maroua Lamiri, Auteur ; Hizia Latreche, Auteur ; Djamel Benterki, Directeur de thèse . - [S.l.] : Sétif:UFS, 2023 . - 1 vol (37 f.) ; 29 cm.
Langues : Anglais (eng)
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation convexe à contraintes linéaires
Méthode de points intérieursIndex. décimale : 510-Mathématique Résumé : Dans cette étude, nous nous intéressons aux performances des algorithmes primaux-duaux de
type points intérieurs pour résoudre un problème d'optimisation convexe sous contraintes
linéaires. Nous introduisons une fonction dans le but d'améliorer la complexité de l'algorithme
de Zhang. De plus, nous dérivons l'itération associée à l'algorithme, qui coïncide avec
l'itération la plus célèbre associée à ce type d’algorithmes. Les résultats numériques réalisés
montrent que l'algorithme proposé est compétitif et fiable avec l'algorithme de Zhang = In this study, we are interested in the performance of the primal-dual algorithms of the
interior point type to solve a linearly constrained convex optimization problem. We introduce
a function that allows improving the complexity of Zhang’s algorithm. Moreover, we derive
the iteration bound for the algorithm, which coincides with the best-known iteration bound for
this type of algorithms. Numerical results show that the proposed algorithm is competitive
and reliable than that Zhang’s algorithmCôte titre : MAM/0666 En ligne : https://drive.google.com/file/d/1KDAvv2oM84J8KblJiMk43uLIfsBdUFYy/view?usp=drive [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAM/0666 MAM/0666 Mémoire Bibliothéque des sciences Anglais Disponible
Disponible
Titre : Primal-dual method with algebraic equivalent transformation for linear programming Type de document : texte imprimé Auteurs : Asma Benidir, Auteur ; Fadila Zerkaoui ; Djamel Benterki, Directeur de thèse Editeur : Sétif:UFS Année de publication : 2024 Importance : 1 vol (42 f.) Format : 29 cm Langues : Anglais (eng) Catégories : Thèses & Mémoires:Mathématique Mots-clés : Mathématique Index. décimale : 510-Mathématique Note de contenu : Sommaire
Introduction 3
1 Fundamentalnotionsofconvexanalysisandoptimization 6
1.1 Convexanalysis . ................................ 6
1.1.1 Convexsets . .............................. 6
1.1.2 Convexfunction . ........................... 7
1.1.3 Characterizationofdifferentiableconvexfunction . ........ 8
1.2 Mathematicalprogramming . ......................... 9
1.2.1 Statementoftheproblem . ...................... 9
1.2.2 Existenceanduniquenessofoptimalsolutions . .......... 10
1.2.3 Optimalityconditions . ........................ 11
1.3 Linearoptimization(LO) . ........................... 12
1.3.1 Dualityinlinearprogramming . ................... 12
2 Recentdescentdirectionofprimal-dualalgorithmforlinearprogramming 14
2.1 Primal-duallinearprogrammingproblems . ................ 14
2.2 Classicalcentralpathmethod . ........................ 15
2.3 Recentdescentdirections . ........................... 16
2.3.1 Agenericprimal-dualalgorithmforLO . .............. 18
2.3.2 Algorithmconvergenceandcomplexityanalysis . ......... 19
3 Newdescentdirectionofprimal-dualalgorithmforlinearoptimization 21
3.1 Convergenceanalysis . ............................. 21
3.2 Numericalexperiments . ............................ 32
3.2.1 Exampleswithfixedsize . ....................... 32
3.2.2 Examplewithvariablesize . ..................... 37
Côte titre : MAM/0720 Primal-dual method with algebraic equivalent transformation for linear programming [texte imprimé] / Asma Benidir, Auteur ; Fadila Zerkaoui ; Djamel Benterki, Directeur de thèse . - [S.l.] : Sétif:UFS, 2024 . - 1 vol (42 f.) ; 29 cm.
Langues : Anglais (eng)
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Mathématique Index. décimale : 510-Mathématique Note de contenu : Sommaire
Introduction 3
1 Fundamentalnotionsofconvexanalysisandoptimization 6
1.1 Convexanalysis . ................................ 6
1.1.1 Convexsets . .............................. 6
1.1.2 Convexfunction . ........................... 7
1.1.3 Characterizationofdifferentiableconvexfunction . ........ 8
1.2 Mathematicalprogramming . ......................... 9
1.2.1 Statementoftheproblem . ...................... 9
1.2.2 Existenceanduniquenessofoptimalsolutions . .......... 10
1.2.3 Optimalityconditions . ........................ 11
1.3 Linearoptimization(LO) . ........................... 12
1.3.1 Dualityinlinearprogramming . ................... 12
2 Recentdescentdirectionofprimal-dualalgorithmforlinearprogramming 14
2.1 Primal-duallinearprogrammingproblems . ................ 14
2.2 Classicalcentralpathmethod . ........................ 15
2.3 Recentdescentdirections . ........................... 16
2.3.1 Agenericprimal-dualalgorithmforLO . .............. 18
2.3.2 Algorithmconvergenceandcomplexityanalysis . ......... 19
3 Newdescentdirectionofprimal-dualalgorithmforlinearoptimization 21
3.1 Convergenceanalysis . ............................. 21
3.2 Numericalexperiments . ............................ 32
3.2.1 Exampleswithfixedsize . ....................... 32
3.2.2 Examplewithvariablesize . ..................... 37
Côte titre : MAM/0720 Exemplaires
Code-barres Cote Support Localisation Section Disponibilité aucun exemplaire PermalinkPermalinkPermalinkPermalinkSur les directions de descente des méthodes de points intérieurs pour l’optimisation linéaire / Hadjer Remadna
![]()
PermalinkPermalink