University Sétif 1 FERHAT ABBAS Faculty of Sciences
Détail de l'auteur
Auteur Ziadi, Raouf |
Documents disponibles écrits par cet auteur



Titre : Un algorithme pour la résolution d’un système d’équations non-linéaires Type de document : texte imprimé Auteurs : Dounia Demouche, Auteur ; Ilham Haddadj, Auteur ; Ziadi, Raouf, Directeur de thèse Année de publication : 2022 Importance : 1 vol (45 f.) Format : 29 cm Langues : Français (fre) Catégories : Mathématique Mots-clés : Optimisation globale
Méthode stochastiqueIndex. décimale : 510-Mathématique Résumé :
Dans ce mémoire, nous présentons quelques méthodes
stochastiques d’optimisation globale. Ainsi on a proposé un
algorithme pour la résolution d’un système d’équations non-linéaires
où on a transformé ce système à un problème d’optimisation globale.
Les résultats préliminaires montrent que la variante H-LBFGSB est
prometteuse.
Côte titre : MAM/0596 En ligne : https://drive.google.com/file/d/1y_kISIE73EBfgx1wmvQAnOVo8aX6FzU3/view?usp=share [...] Format de la ressource électronique : Un algorithme pour la résolution d’un système d’équations non-linéaires [texte imprimé] / Dounia Demouche, Auteur ; Ilham Haddadj, Auteur ; Ziadi, Raouf, Directeur de thèse . - 2022 . - 1 vol (45 f.) ; 29 cm.
Langues : Français (fre)
Catégories : Mathématique Mots-clés : Optimisation globale
Méthode stochastiqueIndex. décimale : 510-Mathématique Résumé :
Dans ce mémoire, nous présentons quelques méthodes
stochastiques d’optimisation globale. Ainsi on a proposé un
algorithme pour la résolution d’un système d’équations non-linéaires
où on a transformé ce système à un problème d’optimisation globale.
Les résultats préliminaires montrent que la variante H-LBFGSB est
prometteuse.
Côte titre : MAM/0596 En ligne : https://drive.google.com/file/d/1y_kISIE73EBfgx1wmvQAnOVo8aX6FzU3/view?usp=share [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAM/0596 MAM/0596 Mémoire Bibliothéque des sciences Français Disponible
DisponibleAlgorithmes stochastiques d'optimisation globale pour la résolution de certains problèmes en ingénierie / Abdelkarim Khenouche
![]()
Titre : Algorithmes stochastiques d'optimisation globale pour la résolution de certains problèmes en ingénierie Type de document : texte imprimé Auteurs : Abdelkarim Khenouche, Auteur ; Ziadi, Raouf, Auteur Editeur : Setif:UFA Année de publication : 2021 Importance : 1 vol (46 f.) Langues : Français (fre) Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation globale
Méthodes stochastiques
Méthodes évolutionnaires.Index. décimale : 510 - Mathématique Résumé : De nombreux problèmes en ingénierie, économie, télécommunications, etc., peuvent être formulés
comme des problèmes d'optimisation impliquant des fonctions objectives qui ne possèdent pas des
propriétés mathématiques fortes tel que la convexité, la différentiabilité, etc.. Au cours des deux
dernières décennies, de nombreux algorithmes stochastiques et évolutionnaires ont été proposés
comme l'algorithme génétique, l'algorithme d'optimisation par essaims particulaires, l'algorithme
à évolution différentielle etc. et ont été appliqués pour résoudre divers problèmes d'ingénierie.
Dans ce travail, nous présentons les méthodes stochastiques et évolutionnaires les plus utilisées
pour résoudre des problèmes d'optimisation globale en ingénierie.Côte titre : MAM/0479 En ligne : https://drive.google.com/file/d/1lvPQ-j-pZp62y7MiHe4CpLSEnG3rFYF3/view?usp=shari [...] Format de la ressource électronique : Algorithmes stochastiques d'optimisation globale pour la résolution de certains problèmes en ingénierie [texte imprimé] / Abdelkarim Khenouche, Auteur ; Ziadi, Raouf, Auteur . - [S.l.] : Setif:UFA, 2021 . - 1 vol (46 f.).
Langues : Français (fre)
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation globale
Méthodes stochastiques
Méthodes évolutionnaires.Index. décimale : 510 - Mathématique Résumé : De nombreux problèmes en ingénierie, économie, télécommunications, etc., peuvent être formulés
comme des problèmes d'optimisation impliquant des fonctions objectives qui ne possèdent pas des
propriétés mathématiques fortes tel que la convexité, la différentiabilité, etc.. Au cours des deux
dernières décennies, de nombreux algorithmes stochastiques et évolutionnaires ont été proposés
comme l'algorithme génétique, l'algorithme d'optimisation par essaims particulaires, l'algorithme
à évolution différentielle etc. et ont été appliqués pour résoudre divers problèmes d'ingénierie.
Dans ce travail, nous présentons les méthodes stochastiques et évolutionnaires les plus utilisées
pour résoudre des problèmes d'optimisation globale en ingénierie.Côte titre : MAM/0479 En ligne : https://drive.google.com/file/d/1lvPQ-j-pZp62y7MiHe4CpLSEnG3rFYF3/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAM/0479 MAM/0479 Mémoire Bibliothéque des sciences Français Disponible
Disponible
Titre : Améliorations de certaines méthodes probabilistes en optimisation globale Type de document : texte imprimé Auteurs : Ziadi, Raouf, Auteur ; Bencherif-Madani.A, Directeur de thèse Editeur : Setif:UFA Année de publication : 2017 Importance : 1 vol (176 f .) Format : 29 cm Langues : Français (fre) Langues originales : Français (fre) Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation globale
Méthode stochastique
Perturbation stochastique
Métaheuristic
Transformation réductrice
Courbe paramétréeIndex. décimale : 519 Mathématiques appliquées, probabilités (statistiques mathématiques) Résumé :
Cette thèse traite les méthodes stochastiques d'optimisation globale les plus connues. dans ce conteste,deux nouvelle méthodes ont été élaborées, la première est une perturbation stochastique de la méthode du gradient conjugué de polak- ribiére et la deuxième est une nouvelle technique basée sur la génération des courbes paramétrées.l'étude numérique amontréque ces deux méthodes sont compétitives avec les méthodes existant actuellementCôte titre : DM/0123 En ligne : http://dspace.univ-setif.dz:8888/jspui/handle/123456789/1558 Améliorations de certaines méthodes probabilistes en optimisation globale [texte imprimé] / Ziadi, Raouf, Auteur ; Bencherif-Madani.A, Directeur de thèse . - [S.l.] : Setif:UFA, 2017 . - 1 vol (176 f .) ; 29 cm.
Langues : Français (fre) Langues originales : Français (fre)
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation globale
Méthode stochastique
Perturbation stochastique
Métaheuristic
Transformation réductrice
Courbe paramétréeIndex. décimale : 519 Mathématiques appliquées, probabilités (statistiques mathématiques) Résumé :
Cette thèse traite les méthodes stochastiques d'optimisation globale les plus connues. dans ce conteste,deux nouvelle méthodes ont été élaborées, la première est une perturbation stochastique de la méthode du gradient conjugué de polak- ribiére et la deuxième est une nouvelle technique basée sur la génération des courbes paramétrées.l'étude numérique amontréque ces deux méthodes sont compétitives avec les méthodes existant actuellementCôte titre : DM/0123 En ligne : http://dspace.univ-setif.dz:8888/jspui/handle/123456789/1558 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité DM/0123 DM/0123 Thèse Bibliothéque des sciences Français Disponible
DisponibleEtude de certaines méthodes du gradient conjugué pour la programmation nonlinéaire. / Hadjer Laidoudi
![]()
Titre : Etude de certaines méthodes du gradient conjugué pour la programmation nonlinéaire. Type de document : texte imprimé Auteurs : Hadjer Laidoudi, Auteur ; Nahed Gridi, Auteur ; Ziadi, Raouf, Directeur de thèse Editeur : Sétif:UFS Année de publication : 2023 Importance : 1 vol (60 f.) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation non-linéaire
Optimisation sans contrainte
Méthodes du gradient conjuguéIndex. décimale : 510-Mathématique Résumé : Dans ce mémoire, nous avons étudiée certaines variantes de la
méthode du gradient conjugué pour résoudre des problèmes
d’optimisation sans contraintes où la fonction objectif est continument
différentiable. Pour illustrer la performance des différentes variantes,
des expériences numériques ont été réalisées sur certaines fonctions de
tests ainsi sur le problème de restauration d’image afin d’améliorer la
qualité de l’image = In this memoir, we present some conjugate gradient variants to
solve unconstraint optimization problems, where the objective
function is continuously differentiable. To illustrate the performance
of these methods, numerical experiments are archived on some
typical test functions, also on the Image restoration problem to
improve the image quality.Côte titre : MAM/0662 En ligne : https://drive.google.com/file/d/11Mq88kfT-FCG6xvYPLtk2_o_m0g3QE9D/view?usp=drive [...] Format de la ressource électronique : Etude de certaines méthodes du gradient conjugué pour la programmation nonlinéaire. [texte imprimé] / Hadjer Laidoudi, Auteur ; Nahed Gridi, Auteur ; Ziadi, Raouf, Directeur de thèse . - [S.l.] : Sétif:UFS, 2023 . - 1 vol (60 f.) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation non-linéaire
Optimisation sans contrainte
Méthodes du gradient conjuguéIndex. décimale : 510-Mathématique Résumé : Dans ce mémoire, nous avons étudiée certaines variantes de la
méthode du gradient conjugué pour résoudre des problèmes
d’optimisation sans contraintes où la fonction objectif est continument
différentiable. Pour illustrer la performance des différentes variantes,
des expériences numériques ont été réalisées sur certaines fonctions de
tests ainsi sur le problème de restauration d’image afin d’améliorer la
qualité de l’image = In this memoir, we present some conjugate gradient variants to
solve unconstraint optimization problems, where the objective
function is continuously differentiable. To illustrate the performance
of these methods, numerical experiments are archived on some
typical test functions, also on the Image restoration problem to
improve the image quality.Côte titre : MAM/0662 En ligne : https://drive.google.com/file/d/11Mq88kfT-FCG6xvYPLtk2_o_m0g3QE9D/view?usp=drive [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAM/0662 MAM/0662 Mémoire Bibliothéque des sciences Français Disponible
DisponibleEtude des différentes variantes de la méthode du gradient conjugué pour la programmation non-linéaire. / Mechri ,Djouhaina
![]()
Titre : Etude des différentes variantes de la méthode du gradient conjugué pour la programmation non-linéaire. Type de document : texte imprimé Auteurs : Mechri ,Djouhaina, Auteur ; Ziadi, Raouf, Directeur de thèse Editeur : Setif:UFA Année de publication : 2018 Importance : 1 vol (38 f .) Format : 29 cm Langues : Français (fre) Langues originales : Français (fre) Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation sans contrainte
Gradient conjugué
Méthode de Hestenes-Stiefel
Méthode de Fletcher-Reeves
Méthode de Polak-Rebière-Polyak
Méthode de la descente conjuguée
Méthode de Dai-YuanIndex. décimale : 510 - Mathématique Résumé : Dans ce mémoire, nous présentons une synthèse sur les différentes variantes de la méthode du gradient conjugué pour résoudre des problèmes d’optimisation sans contraintes où la fonction objectif est continument différentiable (différentiable). Pour illustrés la performance des différentes variantes, des expériences numériques ont été réalisées sur certaines fonctions de tests. Note de contenu :
Sommaire
Introductionii
1 Notionsdebaseetrésultatspréliminaires2
1.1Formequadratique...............................2
1.2Laconvexité...................................2
1.3Gradient,Hessien................................3
1.4Fonctionconvexedi¤érentiable.........................4
1.5Fonctionconvexedeuxfoisdi¤érentiable...................4
1.6Directiondedescente..............................4
1.7Dérivéedirectionnelle..............................5
1.8Fonctionmultivoque:..............................5
1.9Convergencedesalgorithmes:.........................5
1.9.1convergenceglobale:..........................5
1.9.2Lesmodesdeconvergence:......................5
1.10Résultatsd’existenceetd’unicité.......................6
1.11Conditionsd’optimalité.............................6
1.11.1Conditionsnécessairesd’optimalité..................7
1.11.2Conditionssu¢santesd’optimalité..................8
2 Rechercheslinéairesexactesetinexactes10
2.1Intervalledesécurité..............................11
2.2Algorithmedebase...............................11
2.3Recherchelinéairesexactes...........................12
2.3.1Avantagesdesrechercheslinéairesexactes..............12
2.3.2Inconvénientsdesrechercheslinéairesexactes.............13
2.4Rechercheslinéairesinexactes.........................13
2.4.1Recherchelinéaireinexacted’Armijo.................14
2.4.2RecherchelinéaireinexactedeGoldstein...............16
2.4.3RecherchelinéaireinexactedeWolfe.................18
1
3 Gradientconjuguéducasdesfonctionsnonquadratiques22
3.1Introductionetdi¤érentesformesdugradientconjugué...........22
3.2AlgorithmeduGradientconjuguécasnonquadratique...........24
3.3HypothèsesC1etC2(deLipschitzetdebornetude).............24
3.4Lesdi¤érentesvariantesdugradientconjugué................25
3.4.1MéthodedeFletcher-Reeves......................25
3.4.2Méthodededescenteconjuguée....................25
3.4.3MéthodedeDai-Yuan.........................26
3.4.4MéthodedePolak-Ribière-Polyak...................26
3.4.5MéthodedeHestenesetStiefel....................26
3.4.6MéthodedeLiuetStoreyLS.....................27
4 Applicationsnumériques28
Côte titre : MAM/0288 En ligne : https://drive.google.com/file/d/1lxThOFW_ohblce3wVys5EJhePgTc62EB/view?usp=shari [...] Format de la ressource électronique : Etude des différentes variantes de la méthode du gradient conjugué pour la programmation non-linéaire. [texte imprimé] / Mechri ,Djouhaina, Auteur ; Ziadi, Raouf, Directeur de thèse . - [S.l.] : Setif:UFA, 2018 . - 1 vol (38 f .) ; 29 cm.
Langues : Français (fre) Langues originales : Français (fre)
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation sans contrainte
Gradient conjugué
Méthode de Hestenes-Stiefel
Méthode de Fletcher-Reeves
Méthode de Polak-Rebière-Polyak
Méthode de la descente conjuguée
Méthode de Dai-YuanIndex. décimale : 510 - Mathématique Résumé : Dans ce mémoire, nous présentons une synthèse sur les différentes variantes de la méthode du gradient conjugué pour résoudre des problèmes d’optimisation sans contraintes où la fonction objectif est continument différentiable (différentiable). Pour illustrés la performance des différentes variantes, des expériences numériques ont été réalisées sur certaines fonctions de tests. Note de contenu :
Sommaire
Introductionii
1 Notionsdebaseetrésultatspréliminaires2
1.1Formequadratique...............................2
1.2Laconvexité...................................2
1.3Gradient,Hessien................................3
1.4Fonctionconvexedi¤érentiable.........................4
1.5Fonctionconvexedeuxfoisdi¤érentiable...................4
1.6Directiondedescente..............................4
1.7Dérivéedirectionnelle..............................5
1.8Fonctionmultivoque:..............................5
1.9Convergencedesalgorithmes:.........................5
1.9.1convergenceglobale:..........................5
1.9.2Lesmodesdeconvergence:......................5
1.10Résultatsd’existenceetd’unicité.......................6
1.11Conditionsd’optimalité.............................6
1.11.1Conditionsnécessairesd’optimalité..................7
1.11.2Conditionssu¢santesd’optimalité..................8
2 Rechercheslinéairesexactesetinexactes10
2.1Intervalledesécurité..............................11
2.2Algorithmedebase...............................11
2.3Recherchelinéairesexactes...........................12
2.3.1Avantagesdesrechercheslinéairesexactes..............12
2.3.2Inconvénientsdesrechercheslinéairesexactes.............13
2.4Rechercheslinéairesinexactes.........................13
2.4.1Recherchelinéaireinexacted’Armijo.................14
2.4.2RecherchelinéaireinexactedeGoldstein...............16
2.4.3RecherchelinéaireinexactedeWolfe.................18
1
3 Gradientconjuguéducasdesfonctionsnonquadratiques22
3.1Introductionetdi¤érentesformesdugradientconjugué...........22
3.2AlgorithmeduGradientconjuguécasnonquadratique...........24
3.3HypothèsesC1etC2(deLipschitzetdebornetude).............24
3.4Lesdi¤érentesvariantesdugradientconjugué................25
3.4.1MéthodedeFletcher-Reeves......................25
3.4.2Méthodededescenteconjuguée....................25
3.4.3MéthodedeDai-Yuan.........................26
3.4.4MéthodedePolak-Ribière-Polyak...................26
3.4.5MéthodedeHestenesetStiefel....................26
3.4.6MéthodedeLiuetStoreyLS.....................27
4 Applicationsnumériques28
Côte titre : MAM/0288 En ligne : https://drive.google.com/file/d/1lxThOFW_ohblce3wVys5EJhePgTc62EB/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAM/0288 MAM/0288 Mémoire Bibliothéque des sciences Français Disponible
DisponibleEtude des différentes variantes de la méthode du gradient conjugué pour la programmation non-linéaire / Karar ,Asma
![]()
PermalinkEtude des différentes variantes de la méthode du gradient conjuguée pour la programmation non-linéaire / Nidhal Sellaoui
![]()
PermalinkEtude des différentes variantes de la méthode de Quasi-Newton pour la programmation non-linéaire / Ayache Bensahli
![]()
PermalinkModélisation et résolution de certains problèmes réels d’optimisation globale avec des algorithmes métaheuristiques / Douaa Karkache
![]()
PermalinkPermalinkSur certaines variantes de la méthode de Quasi Newton pour la programmation non-linéaire / Mounnes, Amel
![]()
Permalink