University Sétif 1 FERHAT ABBAS Faculty of Sciences
Détail de l'indexation
Ouvrages de la bibliothèque en indexation 510
Ajouter le résultat dans votre panier Affiner la recherche
Stochastic processes with applications / R. N. Bhattacharya
Titre : Stochastic processes with applications Type de document : texte imprimé Auteurs : R. N. Bhattacharya ; Edward C. Waymire Editeur : New York ; Chichester [etc.] : J. Wiley Année de publication : 1990 Importance : 1 vol (672 p.) Format : 24 cm ISBN/ISSN/EAN : 978-0-471-84272-9 Langues : Anglais (eng) Langues originales : Anglais (eng) Catégories : Mathématique Mots-clés : Processus stochastiques
Probabilités
Processus stochastiquesIndex. décimale : 510 Mathématique Résumé : ce livre développe systématiquement et rigoureusement, mais d'une manière déclaratif et vivante, l'évolution des processus aléatoires généraux et leurs grandes propriétés de temps telles que la fugacité, la récurrence et la convergence des états stables. L'accent est mis sur les classes les plus importantes de ces processus du point de vue de la théorie et des applications, à savoir les processus de Markov.
Le livre présente une couverture très large des aspects les plus applicables des processus stochastiques, y compris du matériel suffisant pour des cours autonomes sur la marche aléatoire dans une et plusieurs dimensions; Les chaînes de Markov en temps discret et continu, y compris les processus de naissance-mort; Mouvement brownien et diffusions; optimisation stochastique; et les équations différentielles stochastiques.
La plupart des résultats sont présentés avec des preuves complètes, alors que certaines questions très techniques sont relégués à une section théorique à la Complements fin de chaque chapitre afin de ne pas entraver l'écoulement du matériau. Chapitre applications, ainsi que de nombreux exemples travaillés, illustrant des applications importantes de la matière à divers domaines de la science, l'ingénierie, l'économie et les mathématiques appliquées. Les éléments essentiels de la probabilité théorique de mesure sont inclus dans une annexe pour compléter certains des aspects les plus techniques du texte.Note de contenu : Sommaire
1- Random walk and brownian motion
2- Discrete parameter markov chains
3- Birth death markov chains
4- Continuous parameter markov chains
5- Brownian motion and diffusions
6- Dynamic programming and stochastic optimization
7- An introduction to stochastic differential equations
8- A probability and measure theory overviewCôte titre : Fs/14415 Stochastic processes with applications [texte imprimé] / R. N. Bhattacharya ; Edward C. Waymire . - [S.l.] : New York ; Chichester [etc.] : J. Wiley, 1990 . - 1 vol (672 p.) ; 24 cm.
ISBN : 978-0-471-84272-9
Langues : Anglais (eng) Langues originales : Anglais (eng)
Catégories : Mathématique Mots-clés : Processus stochastiques
Probabilités
Processus stochastiquesIndex. décimale : 510 Mathématique Résumé : ce livre développe systématiquement et rigoureusement, mais d'une manière déclaratif et vivante, l'évolution des processus aléatoires généraux et leurs grandes propriétés de temps telles que la fugacité, la récurrence et la convergence des états stables. L'accent est mis sur les classes les plus importantes de ces processus du point de vue de la théorie et des applications, à savoir les processus de Markov.
Le livre présente une couverture très large des aspects les plus applicables des processus stochastiques, y compris du matériel suffisant pour des cours autonomes sur la marche aléatoire dans une et plusieurs dimensions; Les chaînes de Markov en temps discret et continu, y compris les processus de naissance-mort; Mouvement brownien et diffusions; optimisation stochastique; et les équations différentielles stochastiques.
La plupart des résultats sont présentés avec des preuves complètes, alors que certaines questions très techniques sont relégués à une section théorique à la Complements fin de chaque chapitre afin de ne pas entraver l'écoulement du matériau. Chapitre applications, ainsi que de nombreux exemples travaillés, illustrant des applications importantes de la matière à divers domaines de la science, l'ingénierie, l'économie et les mathématiques appliquées. Les éléments essentiels de la probabilité théorique de mesure sont inclus dans une annexe pour compléter certains des aspects les plus techniques du texte.Note de contenu : Sommaire
1- Random walk and brownian motion
2- Discrete parameter markov chains
3- Birth death markov chains
4- Continuous parameter markov chains
5- Brownian motion and diffusions
6- Dynamic programming and stochastic optimization
7- An introduction to stochastic differential equations
8- A probability and measure theory overviewCôte titre : Fs/14415 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité Fs/14415 Fs/14415 Livre Bibliothéque des sciences Anglais Disponible
Disponible
Titre : Study of deep learning convergence Type de document : texte imprimé Auteurs : Benkhelifa ,Radia, Auteur ; Djaghloul,H, Directeur de thèse Editeur : Setif:UFA Année de publication : 2019 Importance : 1 vol (49 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Mathématique Mots-clés : Mathématique Index. décimale : 510 Mathématique Résumé : This project allowed us to study deep learning methods and how to improve
their performance by tuning dierent parameters in the training data from learning
to prediction steps. Although deep learning has gained a great popularity in vari-
ous application domains and it is more widely used today, it still has some obstacles
and problems, including relatively a huge time of parametrization during the learning
steps and a diculty to select the best neuron architectures for certain problem type
which still an open question.
Deep learning is kind of a self-learning algorithms which is basically depends
on articial neural networks. It has a huge set of techniques such as: deep neural
networks, deep belief networks, recurrent neural networks and convolutional neural
networks which used in such a diverse elds enabling her to grab a great attention
including computer vision, speech recognition, natural language processing, audio
recognition, social network ltering, machine translation and drug design.
In order to improve the performance, we used in practice dierent frameworks
and toolkits each one with a specic paradigm and abstraction level and chooses a
specic changes like the batch size. We have also studied theoretical and practical
studies related to a range of media and criteria used in the process of improvement. It
was concluded that the neural cluster network is strongly correlated with the amount
of information used and the quality of the data provided. In spite of all attempts,
deep learning remains highly relevant to the eld of progress, we cannot general-
ize it or determine the type of special engineering that provides results during the
improvement.
41Note de contenu : Sommaire
General Introduction 1
1 Chapter one: Deep learning for convolutional neural networks 2
1.1 Deep learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.2 Why deep learning . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.3 Deep learning architecture . . . . . . . . . . . . . . . . . . . . 3
1.1.4 Some of Deep learning applications and how it works . . . . . 3
1.1.5 Examples of Deep learning at Work . . . . . . . . . . . . . . . 4
1.2 Neural Networks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.2 Why neural networks . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.3 Neural networks types . . . . . . . . . . . . . . . . . . . . . . 8
1.2.4 Neural networks tasks . . . . . . . . . . . . . . . . . . . . . . 9
1.2.5 Neural networks applications . . . . . . . . . . . . . . . . . . . 12
1.3 Convolutional neural networks . . . . . . . . . . . . . . . . . . . . . . 12
1.3.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.2 Layers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3.3 Architectures . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2 Chapter two: Convergence and digital performance 19
2.1 Convergence theorems . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.1 Theorem 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.1.2 Theorem 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.1.3 Theorem 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2 Back-propagation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3 Genetic algorithms . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.4 Combining Genetic algorithms and Back-propagation: The GA-BP
Method . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.5 The K-Means algorithm as a gradient descent . . . . . . . . . . . . . 28
2.6 Learning Vector Quantization . . . . . . . . . . . . . . . . . . . . . . 29
2.6.1 A review of LVQ algorithm . . . . . . . . . . . . . . . . . . . 29
2.6.2 Convergence of the LVQ algorithm . . . . . . . . . . . . . . . 29
3 Chapter three: Experimental study of deep learning convergence 33
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2 Implementation frameworks . . . . . . . . . . . . . . . . . . . . 33
3.2.1 Theano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2.2 Tensor
ow . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.3 Keras: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.4 Frameworks comparison: . . . . . . . . . . . . . . . . . . . . . 35
3.2.5 Impact of the framework on problems diagnosis . . . . . . . . 36
3.3 Better deep learning network . . . . . . . . . . . . . . . . . . . . . . . 36
3.3.1 Improving problems . . . . . . . . . . . . . . . . . . . . . . . . 36
3.3.2 Improving techniques . . . . . . . . . . . . . . . . . . . . . . . 37
3.4 Batch size . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
Conclusion 41
Bibliography 42
List ofCôte titre : MAM/0374 En ligne : https://drive.google.com/file/d/1BKXlUiJoeLfKxladvrfLp_mWUJmY_olN/view?usp=shari [...] Format de la ressource électronique : Study of deep learning convergence [texte imprimé] / Benkhelifa ,Radia, Auteur ; Djaghloul,H, Directeur de thèse . - [S.l.] : Setif:UFA, 2019 . - 1 vol (49 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Mathématique Index. décimale : 510 Mathématique Résumé : This project allowed us to study deep learning methods and how to improve
their performance by tuning dierent parameters in the training data from learning
to prediction steps. Although deep learning has gained a great popularity in vari-
ous application domains and it is more widely used today, it still has some obstacles
and problems, including relatively a huge time of parametrization during the learning
steps and a diculty to select the best neuron architectures for certain problem type
which still an open question.
Deep learning is kind of a self-learning algorithms which is basically depends
on articial neural networks. It has a huge set of techniques such as: deep neural
networks, deep belief networks, recurrent neural networks and convolutional neural
networks which used in such a diverse elds enabling her to grab a great attention
including computer vision, speech recognition, natural language processing, audio
recognition, social network ltering, machine translation and drug design.
In order to improve the performance, we used in practice dierent frameworks
and toolkits each one with a specic paradigm and abstraction level and chooses a
specic changes like the batch size. We have also studied theoretical and practical
studies related to a range of media and criteria used in the process of improvement. It
was concluded that the neural cluster network is strongly correlated with the amount
of information used and the quality of the data provided. In spite of all attempts,
deep learning remains highly relevant to the eld of progress, we cannot general-
ize it or determine the type of special engineering that provides results during the
improvement.
41Note de contenu : Sommaire
General Introduction 1
1 Chapter one: Deep learning for convolutional neural networks 2
1.1 Deep learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.2 Why deep learning . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.3 Deep learning architecture . . . . . . . . . . . . . . . . . . . . 3
1.1.4 Some of Deep learning applications and how it works . . . . . 3
1.1.5 Examples of Deep learning at Work . . . . . . . . . . . . . . . 4
1.2 Neural Networks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.2 Why neural networks . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.3 Neural networks types . . . . . . . . . . . . . . . . . . . . . . 8
1.2.4 Neural networks tasks . . . . . . . . . . . . . . . . . . . . . . 9
1.2.5 Neural networks applications . . . . . . . . . . . . . . . . . . . 12
1.3 Convolutional neural networks . . . . . . . . . . . . . . . . . . . . . . 12
1.3.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.2 Layers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3.3 Architectures . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2 Chapter two: Convergence and digital performance 19
2.1 Convergence theorems . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.1 Theorem 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.1.2 Theorem 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.1.3 Theorem 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2 Back-propagation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3 Genetic algorithms . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.4 Combining Genetic algorithms and Back-propagation: The GA-BP
Method . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.5 The K-Means algorithm as a gradient descent . . . . . . . . . . . . . 28
2.6 Learning Vector Quantization . . . . . . . . . . . . . . . . . . . . . . 29
2.6.1 A review of LVQ algorithm . . . . . . . . . . . . . . . . . . . 29
2.6.2 Convergence of the LVQ algorithm . . . . . . . . . . . . . . . 29
3 Chapter three: Experimental study of deep learning convergence 33
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2 Implementation frameworks . . . . . . . . . . . . . . . . . . . . 33
3.2.1 Theano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2.2 Tensor
ow . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.3 Keras: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.4 Frameworks comparison: . . . . . . . . . . . . . . . . . . . . . 35
3.2.5 Impact of the framework on problems diagnosis . . . . . . . . 36
3.3 Better deep learning network . . . . . . . . . . . . . . . . . . . . . . . 36
3.3.1 Improving problems . . . . . . . . . . . . . . . . . . . . . . . . 36
3.3.2 Improving techniques . . . . . . . . . . . . . . . . . . . . . . . 37
3.4 Batch size . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
Conclusion 41
Bibliography 42
List ofCôte titre : MAM/0374 En ligne : https://drive.google.com/file/d/1BKXlUiJoeLfKxladvrfLp_mWUJmY_olN/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAM/0374 MAM/0374 Mémoire Bibliothéque des sciences Anglais Disponible
DisponibleSuites numériques / Mohammed Hazi
Titre : Suites numériques : Cours détaillé et exercices résolus Type de document : texte imprimé Auteurs : Mohammed Hazi, Auteur Editeur : Alger : OPU Année de publication : 2018 Importance : 1 vol (272 p.) Format : 24 cm ISBN/ISSN/EAN : 978-9961-0-2066-1 Langues : Français (fre) Catégories : Mathématique Mots-clés : Mathématique Index. décimale : 510 Mathématique Résumé :
Ce livre est le deuxième parmi sept cahiers exposant un des grands piliers du programme d’analyse mathématique du premier cycle universitaire : les suites numériques. Il est commun à toutes les filières et spécialités scientifiques ou autres. Il est réparti en treize sections englobant les outils fondamentaux de l’étude da la nature d’une suite numérique. Pour assurer la clarté et booster la compréhension il est fait appel à beaucoup d’exemples d’illustration et exercices d’application dont 77 résolus et 67 laissés comme compléments pour consolidation d’acquis et agrément.Côte titre : Fs/24271 Suites numériques : Cours détaillé et exercices résolus [texte imprimé] / Mohammed Hazi, Auteur . - Alger : OPU, 2018 . - 1 vol (272 p.) ; 24 cm.
ISBN : 978-9961-0-2066-1
Langues : Français (fre)
Catégories : Mathématique Mots-clés : Mathématique Index. décimale : 510 Mathématique Résumé :
Ce livre est le deuxième parmi sept cahiers exposant un des grands piliers du programme d’analyse mathématique du premier cycle universitaire : les suites numériques. Il est commun à toutes les filières et spécialités scientifiques ou autres. Il est réparti en treize sections englobant les outils fondamentaux de l’étude da la nature d’une suite numérique. Pour assurer la clarté et booster la compréhension il est fait appel à beaucoup d’exemples d’illustration et exercices d’application dont 77 résolus et 67 laissés comme compléments pour consolidation d’acquis et agrément.Côte titre : Fs/24271 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité Fs/24271 Fs/24271 livre Bibliothéque des sciences Français Disponible
Disponible
Titre : Sur certaines classes d’équations différentielles abstraites Type de document : texte imprimé Auteurs : Nasreddine Amroune, Auteur ; Aissa Aibeche, Directeur de thèse Editeur : Setif:UFA Année de publication : 2016 Importance : 1 vol (83 f.) Catégories : Thèses & Mémoires:Mathématique Mots-clés : Equation différentielle abstraite,
Conditions aux limites non-locales,
Espace UMD,
Théorème de Dore-VenniIndex. décimale : 510 Mathématique Résumé : Résumé :
Cette thèse présente quelques résultats sur une classe d’équations différentielles abstraites
(à coefficients opérateurs) de type elliptiques dans l’espace UMD. La première partie étudie
cette classe avec des conditions aux limites l’une des est non-locale et la deuxième partie
consiste un travail similaire mais avec des conditions aux limites non-locales générales. Le
but principal dans les deux parties est l’obtention des résultats concernant l’existence, l’unicité de la solution stricte et sa régularité grâce à la théorie des semi-groupes, la théorie
d’interpolations et le Théorème de Dore-Venni.
Note de contenu : Table des matières
1 Rappels 13
1.1 Opérateurs fermés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2 Théorie des semi-groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.1 Semi-groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.2 Semi-groupes analytiques généralisés . . . . . . . . . . . . . . . . . . . 20
1.2.3 Groupes fortement continus . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3 Espaces d’interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.3.1 Espaces de moyenne de Lions-Peetre [36] . . . . . . . . . . . . . . . . . 26
1.3.2 Propriété fondamentale d’interpolation . . . . . . . . . . . . . . . . . . 27
1.3.3 Autres définitions des espaces d’interpolation . . . . . . . . . . . . . . . 27
1.3.4 Réitération . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.4 Calcul fonctionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.4.1 Calcul fonctionnel de Dunford . . . . . . . . . . . . . . . . . . . . . . . 29
1.4.2 Puissances fractionnaires d’opérateurs . . . . . . . . . . . . . . . . . . . 32
1.5 Espaces UMD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.5.1 Théorème de Dore-Venni . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2 Classe d’équations elliptiques avec des conditions non-locales 39
2.1 Commutativité des opérateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.1.1 Commutativité au sens des résolvantes avec ρ(P) 6= ∅ et ρ(Q) 6= ∅ . . 40
2.1.2 Commutativité pour deux opérateurs avec ρ(P) ou ρ(Q) 6= ∅ . . . . . . 42
2.1.3 Lien entre (P − λI)−1(Q − µI)−1 = (Q − µI)−1(P − λI)−1et P Q = QP 43
2.2 Cas B = 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.2.1 Position du problème et hypothèses . . . . . . . . . . . . . . . . . . . . 46
2.2.2 Représentation de la solution . . . . . . . . . . . . . . . . . . . . . . . 47
2.2.3 Quelques résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.2.4 Résultat principal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.2.5 Problème avec un paramètre spectral . . . . . . . . . . . . . . . . . . . 53
2.2.6 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.3 B génère un groupe fortement continu . . . . . . . . . . . . . . . . . . . . . . . 56
2.3.1 Position du problème et hypothèses . . . . . . . . . . . . . . . . . . . . 56
2.3.2 Quelques résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.3.3 Problème avec un paramètre spectral . . . . . . . . . . . . . . . . . . . 60
3 Conditions non-locales générales 63
3.1 Le cas où B = 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.1.1 Position du problème et hypothèses . . . . . . . . . . . . . . . . . . . . 63
3.1.2 Réprésentation de la solution du (3.1)-(3.2) . . . . . . . . . . . . . . . . 65
3.1.3 Quelques résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.1.4 Résultat principal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.1.5 Problème avec un paramètre spectral . . . . . . . . . . . . . . . . . . . 71
3.1.6 Etude de quelques cas particuliers . . . . . . . . . . . . . . . . . . . . . 74
3.1.7 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78Côte titre : DM/0116 En ligne : https://drive.google.com/file/d/1CiA59H2lVywHw78aUl1bthP3XRxhngJJ/view?usp=shari [...] Format de la ressource électronique : Sur certaines classes d’équations différentielles abstraites [texte imprimé] / Nasreddine Amroune, Auteur ; Aissa Aibeche, Directeur de thèse . - [S.l.] : Setif:UFA, 2016 . - 1 vol (83 f.).
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Equation différentielle abstraite,
Conditions aux limites non-locales,
Espace UMD,
Théorème de Dore-VenniIndex. décimale : 510 Mathématique Résumé : Résumé :
Cette thèse présente quelques résultats sur une classe d’équations différentielles abstraites
(à coefficients opérateurs) de type elliptiques dans l’espace UMD. La première partie étudie
cette classe avec des conditions aux limites l’une des est non-locale et la deuxième partie
consiste un travail similaire mais avec des conditions aux limites non-locales générales. Le
but principal dans les deux parties est l’obtention des résultats concernant l’existence, l’unicité de la solution stricte et sa régularité grâce à la théorie des semi-groupes, la théorie
d’interpolations et le Théorème de Dore-Venni.
Note de contenu : Table des matières
1 Rappels 13
1.1 Opérateurs fermés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2 Théorie des semi-groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.1 Semi-groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.2 Semi-groupes analytiques généralisés . . . . . . . . . . . . . . . . . . . 20
1.2.3 Groupes fortement continus . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3 Espaces d’interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.3.1 Espaces de moyenne de Lions-Peetre [36] . . . . . . . . . . . . . . . . . 26
1.3.2 Propriété fondamentale d’interpolation . . . . . . . . . . . . . . . . . . 27
1.3.3 Autres définitions des espaces d’interpolation . . . . . . . . . . . . . . . 27
1.3.4 Réitération . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.4 Calcul fonctionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.4.1 Calcul fonctionnel de Dunford . . . . . . . . . . . . . . . . . . . . . . . 29
1.4.2 Puissances fractionnaires d’opérateurs . . . . . . . . . . . . . . . . . . . 32
1.5 Espaces UMD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.5.1 Théorème de Dore-Venni . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2 Classe d’équations elliptiques avec des conditions non-locales 39
2.1 Commutativité des opérateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.1.1 Commutativité au sens des résolvantes avec ρ(P) 6= ∅ et ρ(Q) 6= ∅ . . 40
2.1.2 Commutativité pour deux opérateurs avec ρ(P) ou ρ(Q) 6= ∅ . . . . . . 42
2.1.3 Lien entre (P − λI)−1(Q − µI)−1 = (Q − µI)−1(P − λI)−1et P Q = QP 43
2.2 Cas B = 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.2.1 Position du problème et hypothèses . . . . . . . . . . . . . . . . . . . . 46
2.2.2 Représentation de la solution . . . . . . . . . . . . . . . . . . . . . . . 47
2.2.3 Quelques résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.2.4 Résultat principal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.2.5 Problème avec un paramètre spectral . . . . . . . . . . . . . . . . . . . 53
2.2.6 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.3 B génère un groupe fortement continu . . . . . . . . . . . . . . . . . . . . . . . 56
2.3.1 Position du problème et hypothèses . . . . . . . . . . . . . . . . . . . . 56
2.3.2 Quelques résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.3.3 Problème avec un paramètre spectral . . . . . . . . . . . . . . . . . . . 60
3 Conditions non-locales générales 63
3.1 Le cas où B = 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.1.1 Position du problème et hypothèses . . . . . . . . . . . . . . . . . . . . 63
3.1.2 Réprésentation de la solution du (3.1)-(3.2) . . . . . . . . . . . . . . . . 65
3.1.3 Quelques résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.1.4 Résultat principal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.1.5 Problème avec un paramètre spectral . . . . . . . . . . . . . . . . . . . 71
3.1.6 Etude de quelques cas particuliers . . . . . . . . . . . . . . . . . . . . . 74
3.1.7 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78Côte titre : DM/0116 En ligne : https://drive.google.com/file/d/1CiA59H2lVywHw78aUl1bthP3XRxhngJJ/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité DM/0116 DM/0116 Thèse Bibliothéque des sciences Français Disponible
DisponibleSur certaines méthodes d’optimisation globale basées sur l’introduction de fonctions auxiliaires / KETFI-CHERIF, Amine
Titre : Sur certaines méthodes d’optimisation globale basées sur l’introduction de fonctions auxiliaires Type de document : texte imprimé Auteurs : KETFI-CHERIF, Amine, Auteur ; A. Ziadi, Directeur de thèse Editeur : Setif:UFA Année de publication : 2016 Importance : 1 vol (129 f.) Format : 29 cm Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation globale
Optimisation non convexe
Optimisation non régulière
Fonction auxiliaire
Fonction de descente globaleIndex. décimale : 510 Mathématique Résumé :
Résumé:
Cette thèse traite les méthodes d'optimisation globale qui introduisent des fonctions
auxiliaires. Une approche utilisant une nouvelle fonction auxiliaire, dite de descente globale, a
été proposée. Elle permet de résoudre des problèmes assez généraux d’optimisation continue, avec
des contraintes seulement continues. Une série d’applications numériques ont été effectuées
prouvant l’efficacité de cette approche.
Mots–clés: Optimisation globale, Optimisation non convexe, Optimisation non régulière,
FonctionNote de contenu : Table des mati`eres
Introduction g´en´erale 4
1 G´en´eralit´es sur l’optimisation globale 7
1.1 Minimum local et minimum global . . . . . . . . . . . . . . . . . . . 7
1.2 L’existence d’un minimum global . . . . . . . . . . . . . . . . . . . . 9
1.3 Solution approch´ee . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4 Classification des probl`emes d’optimisation globale . . . . . . . . . . 10
1.4.1 Classification par rapport `a la nature du domaine faisable . . 11
1.4.2 Classification par rapport aux propri´et´es de la fonction objectif 12
1.5 Quelques caract´erisations d’un minimiseur global d’un probl`eme non
convexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5.1 Cas d’un probl`eme diff´erentiable . . . . . . . . . . . . . . . . . 14
1.5.2 Cas d’un probl`eme lipschitzien . . . . . . . . . . . . . . . . . . 16
1.5.3 Cas d’un probl`eme non lipschitzien . . . . . . . . . . . . . . . 20
1.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2 M´ethodes d’optimisation globale bas´ees sur l’introduction d’une fonction auxiliaire 23
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2 La m´ethode de la fonction de diffusion . . . . . . . . . . . . . . . . . 24
2.2.1 Principe de la m´ethode de la fonction de diffusion . . . . . . . 24
2.2.2 La transformation gaussienne . . . . . . . . . . . . . . . . . . 27
2.2.3 Proc´edure d’optimisation . . . . . . . . . . . . . . . . . . . . . 29`
2.3 La m´ethode de l’indicateur de relief . . . . . . . . . . . . . . . . . . . 31
2.3.1 Notion de s´eparateur . . . . . . . . . . . . . . . . . . . . . . . 32
2.3.2 Crit`ere d’optimalit´e globale . . . . . . . . . . . . . . . . . . . 34
2.3.3 Description de la m´ethode . . . . . . . . . . . . . . . . . . . . 35
2.4 Les m´ethodes qui utilisent des fonctions minorantes de la fonction objectif . . .. . . 39
2.4.1 Les m´ethodes de recouvrement . . . . . . . . . . . . . . . . . . 39
2.4.2 La m´ethode de s´eparation et ´evaluation (Branch-and-Bound) . 47
2.5 La m´ethode de la fonction Tunneling . . . . . . . . . . . . . . . . . . 52
2.6 La m´ethode de la fonction Filled . . . . . . . . . . . . . . . . . . . . 54
2.6.1 Principe de la m´ethode de la fonction Filled . . . . . . . . . . 54
2.6.2 Quelques variantes de la m´ethode de la fonction Filled . . . . 56
2.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3 Une nouvelle fonction auxiliaire de descente globale 68
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.2 Pr´esentation du probl`eme `a optimiser et son approximation . . . . . . 69
3.3 Une nouvelle fonction auxiliaire de descente globale avec ses propri´et´es 71
3.4 La m´ethode de descente globale . . . . . . . . . . . . . . . . . . . . . 81
3.4.1 Algorithme de descente globale . . . . . . . . . . . . . . . . . 81
3.4.2 Convergence asymptotique . . . . . . . . . . . . . . . . . . . 82
3.4.3 Condition d’arrˆet . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.4.4 Un exemple illustratif . . . . . . . . . . . . . . . . . . . . . . 86
3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4 Utilisation de la nouvelle fonction de descente globale pour r´esoudre
des probl`emes d’optimisation discr`ete 91
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.2 Pr´eliminaire sur l’optimisation discr`ete . . . . . . . . . . . . . . . . . 92
4.3 Quelques propri´et´es de la nouvelle fonction de descente globale pour l’optimisation discr`ete . . . . . . . . 93 `
4.4 Description de l’algorithme . . . . . . . . . . . . . . . . . . . . . . . 99
4.5 Exemples illustratifs . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
4.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5 Applications 104
Conclusion g´en´erale et perspectives 122
Bibliographie 124Côte titre : DM/0112 En ligne : https://drive.google.com/file/d/1pW66ueHCOgwRqGo02thuaHPqP6-6R-fj/view?usp=shari [...] Format de la ressource électronique : Sur certaines méthodes d’optimisation globale basées sur l’introduction de fonctions auxiliaires [texte imprimé] / KETFI-CHERIF, Amine, Auteur ; A. Ziadi, Directeur de thèse . - [S.l.] : Setif:UFA, 2016 . - 1 vol (129 f.) ; 29 cm.
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Optimisation globale
Optimisation non convexe
Optimisation non régulière
Fonction auxiliaire
Fonction de descente globaleIndex. décimale : 510 Mathématique Résumé :
Résumé:
Cette thèse traite les méthodes d'optimisation globale qui introduisent des fonctions
auxiliaires. Une approche utilisant une nouvelle fonction auxiliaire, dite de descente globale, a
été proposée. Elle permet de résoudre des problèmes assez généraux d’optimisation continue, avec
des contraintes seulement continues. Une série d’applications numériques ont été effectuées
prouvant l’efficacité de cette approche.
Mots–clés: Optimisation globale, Optimisation non convexe, Optimisation non régulière,
FonctionNote de contenu : Table des mati`eres
Introduction g´en´erale 4
1 G´en´eralit´es sur l’optimisation globale 7
1.1 Minimum local et minimum global . . . . . . . . . . . . . . . . . . . 7
1.2 L’existence d’un minimum global . . . . . . . . . . . . . . . . . . . . 9
1.3 Solution approch´ee . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4 Classification des probl`emes d’optimisation globale . . . . . . . . . . 10
1.4.1 Classification par rapport `a la nature du domaine faisable . . 11
1.4.2 Classification par rapport aux propri´et´es de la fonction objectif 12
1.5 Quelques caract´erisations d’un minimiseur global d’un probl`eme non
convexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5.1 Cas d’un probl`eme diff´erentiable . . . . . . . . . . . . . . . . . 14
1.5.2 Cas d’un probl`eme lipschitzien . . . . . . . . . . . . . . . . . . 16
1.5.3 Cas d’un probl`eme non lipschitzien . . . . . . . . . . . . . . . 20
1.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2 M´ethodes d’optimisation globale bas´ees sur l’introduction d’une fonction auxiliaire 23
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2 La m´ethode de la fonction de diffusion . . . . . . . . . . . . . . . . . 24
2.2.1 Principe de la m´ethode de la fonction de diffusion . . . . . . . 24
2.2.2 La transformation gaussienne . . . . . . . . . . . . . . . . . . 27
2.2.3 Proc´edure d’optimisation . . . . . . . . . . . . . . . . . . . . . 29`
2.3 La m´ethode de l’indicateur de relief . . . . . . . . . . . . . . . . . . . 31
2.3.1 Notion de s´eparateur . . . . . . . . . . . . . . . . . . . . . . . 32
2.3.2 Crit`ere d’optimalit´e globale . . . . . . . . . . . . . . . . . . . 34
2.3.3 Description de la m´ethode . . . . . . . . . . . . . . . . . . . . 35
2.4 Les m´ethodes qui utilisent des fonctions minorantes de la fonction objectif . . .. . . 39
2.4.1 Les m´ethodes de recouvrement . . . . . . . . . . . . . . . . . . 39
2.4.2 La m´ethode de s´eparation et ´evaluation (Branch-and-Bound) . 47
2.5 La m´ethode de la fonction Tunneling . . . . . . . . . . . . . . . . . . 52
2.6 La m´ethode de la fonction Filled . . . . . . . . . . . . . . . . . . . . 54
2.6.1 Principe de la m´ethode de la fonction Filled . . . . . . . . . . 54
2.6.2 Quelques variantes de la m´ethode de la fonction Filled . . . . 56
2.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3 Une nouvelle fonction auxiliaire de descente globale 68
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.2 Pr´esentation du probl`eme `a optimiser et son approximation . . . . . . 69
3.3 Une nouvelle fonction auxiliaire de descente globale avec ses propri´et´es 71
3.4 La m´ethode de descente globale . . . . . . . . . . . . . . . . . . . . . 81
3.4.1 Algorithme de descente globale . . . . . . . . . . . . . . . . . 81
3.4.2 Convergence asymptotique . . . . . . . . . . . . . . . . . . . 82
3.4.3 Condition d’arrˆet . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.4.4 Un exemple illustratif . . . . . . . . . . . . . . . . . . . . . . 86
3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4 Utilisation de la nouvelle fonction de descente globale pour r´esoudre
des probl`emes d’optimisation discr`ete 91
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.2 Pr´eliminaire sur l’optimisation discr`ete . . . . . . . . . . . . . . . . . 92
4.3 Quelques propri´et´es de la nouvelle fonction de descente globale pour l’optimisation discr`ete . . . . . . . . 93 `
4.4 Description de l’algorithme . . . . . . . . . . . . . . . . . . . . . . . 99
4.5 Exemples illustratifs . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
4.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5 Applications 104
Conclusion g´en´erale et perspectives 122
Bibliographie 124Côte titre : DM/0112 En ligne : https://drive.google.com/file/d/1pW66ueHCOgwRqGo02thuaHPqP6-6R-fj/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité DM/0112 DM/0112 Thèse Bibliothéque des sciences Français Disponible
DisponibleSur certaines variantes de la méthode de Quasi Newton pour la programmation non-linéaire / Mounnes, Amel
PermalinkSur la construction des fonctions de LYAPUNOV pour la stabilité des modèles mathématiques dans la biologie des populations / Maache ,Hanane
PermalinkPermalinkSur les directions de descente des méthodes de points intérieurs pour l’optimisation linéaire / Hadjer Remadna
PermalinkPermalinkPermalinkSur l’existence d’un automorphisme non intérieur d’ordre p d’un p-groupe non abelien fini / Yassine Guerboussa
PermalinkPermalinkPermalinkSur les méthodes directes en optimisation globale / Lakhder Chiter
Permalink