University Sétif 1 FERHAT ABBAS Faculty of Sciences
Détail de l'indexation
Ouvrages de la bibliothèque en indexation 510
Ajouter le résultat dans votre panier Affiner la recherche
Statistique non paramétrique et robustesse / Jean-Pierre Lecoutre
Titre : Statistique non paramétrique et robustesse Type de document : texte imprimé Auteurs : Jean-Pierre Lecoutre, Auteur ; Philippe Tassi (1949-....), Auteur Editeur : Paris : Economica Année de publication : 1987 Collection : Economie et statistiques avancées. Série Ecole nationale de la statistique et de l'administration économique, Division des cadres de gestion statistique et des attachés Sous-collection : Série Ecole nationale de la statistique et de l'administration économique, Division des cadres de gestion statistique et des attachés num. 2 Importance : 1 vol. (455 p.) Présentation : ill. Format : 24 cm ISBN/ISSN/EAN : 978-2-7178-1301-2 Note générale : Index Langues : Français (fre) Catégories : Mathématique Mots-clés : Nonparametric statistics
Méthodes statistiques
Statistique non paramétrique
Statistiques robustes
StatistiqueIndex. décimale : 510 Mathématique Note de contenu :
Sommaire
1. En guise d'introduction
- Le modèle statistique et ses formes faibles
- Quelques notions utiles
2. La robustesse ; outils et définitions
- Les outils mathématiques de la robustesse
- La fonction d'influence
- Définition de la robustesse
3. Théorie de l'estimation robuste
- Les M-estimateurs
- Les L-estimateurs
- Les R-estimateurs
- Relations asymptotiques entres les M, L, R-estimateurs
- Application à la robustesse d'estimateurs d'un paramètre de translation
- Estimateur asymptotiquement efficace
- Estimateur minimax-robuste
4. La régression robuste
- Estimateurs des moindres carrés ordinaires
- Classe des M-estimateurs
- Classe des GM-estimateurs
- Classe des L-estimateurs
- Classe des R-estimateurs
- Un exemple d'utilisation
5. La statistique d'ordre
- La statistique d'ordre
- Lois dérivées de la statistique d'ordre
- Calcul des moments de la statistique d'ordre
- Comportement asymptotique
- Résultats complémentaires
6. Problèmes à un échantillon
- Test de l'hypothèse d'un échantillon aléatoire
- Efficacité relative asymptotique
- Problème de localisation
7. Problèmes à deux échantillons
- Tests d'indépendance
- Paramètre de position
- Paramètre d'échelle
- Alternative générale
8. Problèmes à k échantillons
- Test de Kruskal-Wallis
- Test de Kendall-Spearman
9. Estimation à partir de la statistique d'ordre
- Estimation fondée sur la statistique d'ordre
- Estimateurs asymptotiquement efficaces
- Moindres carrés sur un échantillon ordonné
- Les estimateurs incomplets
- Exemple - La loi des extrêmes de type I
- Estimation d'un fractile
10. Jackknife et bootstrap
- Le jackknife
- Le bootstrap
- La classe des U-statistiques
- Application du jackknife et du bootstrap
11. Validation d'un modèle
- Les papiers fonctionnels
- Adéquation à une loi donnée
- Adéquation à une famille de lois paramétrées
- Tests de normalité
- Généralités sur les points aberrants
- Le traitement des points aberrants dans Census X 11
- Détection dans un échantillon d'une loi normale
- Echantillon d'une loi gamma
- Distributions favorables ou résistantes aux valeurs aberantesCôte titre : Fs/19585 Statistique non paramétrique et robustesse [texte imprimé] / Jean-Pierre Lecoutre, Auteur ; Philippe Tassi (1949-....), Auteur . - Paris : Economica, 1987 . - 1 vol. (455 p.) : ill. ; 24 cm. - (Economie et statistiques avancées. Série Ecole nationale de la statistique et de l'administration économique, Division des cadres de gestion statistique et des attachés. Série Ecole nationale de la statistique et de l'administration économique, Division des cadres de gestion statistique et des attachés; 2) .
ISBN : 978-2-7178-1301-2
Index
Langues : Français (fre)
Catégories : Mathématique Mots-clés : Nonparametric statistics
Méthodes statistiques
Statistique non paramétrique
Statistiques robustes
StatistiqueIndex. décimale : 510 Mathématique Note de contenu :
Sommaire
1. En guise d'introduction
- Le modèle statistique et ses formes faibles
- Quelques notions utiles
2. La robustesse ; outils et définitions
- Les outils mathématiques de la robustesse
- La fonction d'influence
- Définition de la robustesse
3. Théorie de l'estimation robuste
- Les M-estimateurs
- Les L-estimateurs
- Les R-estimateurs
- Relations asymptotiques entres les M, L, R-estimateurs
- Application à la robustesse d'estimateurs d'un paramètre de translation
- Estimateur asymptotiquement efficace
- Estimateur minimax-robuste
4. La régression robuste
- Estimateurs des moindres carrés ordinaires
- Classe des M-estimateurs
- Classe des GM-estimateurs
- Classe des L-estimateurs
- Classe des R-estimateurs
- Un exemple d'utilisation
5. La statistique d'ordre
- La statistique d'ordre
- Lois dérivées de la statistique d'ordre
- Calcul des moments de la statistique d'ordre
- Comportement asymptotique
- Résultats complémentaires
6. Problèmes à un échantillon
- Test de l'hypothèse d'un échantillon aléatoire
- Efficacité relative asymptotique
- Problème de localisation
7. Problèmes à deux échantillons
- Tests d'indépendance
- Paramètre de position
- Paramètre d'échelle
- Alternative générale
8. Problèmes à k échantillons
- Test de Kruskal-Wallis
- Test de Kendall-Spearman
9. Estimation à partir de la statistique d'ordre
- Estimation fondée sur la statistique d'ordre
- Estimateurs asymptotiquement efficaces
- Moindres carrés sur un échantillon ordonné
- Les estimateurs incomplets
- Exemple - La loi des extrêmes de type I
- Estimation d'un fractile
10. Jackknife et bootstrap
- Le jackknife
- Le bootstrap
- La classe des U-statistiques
- Application du jackknife et du bootstrap
11. Validation d'un modèle
- Les papiers fonctionnels
- Adéquation à une loi donnée
- Adéquation à une famille de lois paramétrées
- Tests de normalité
- Généralités sur les points aberrants
- Le traitement des points aberrants dans Census X 11
- Détection dans un échantillon d'une loi normale
- Echantillon d'une loi gamma
- Distributions favorables ou résistantes aux valeurs aberantesCôte titre : Fs/19585 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité Fs/19585 Fs/19585 Livre Bibliothéque des sciences Français Disponible
DisponibleStochastic processes with applications / R. N. Bhattacharya
Titre : Stochastic processes with applications Type de document : texte imprimé Auteurs : R. N. Bhattacharya ; Edward C. Waymire Editeur : New York ; Chichester [etc.] : J. Wiley Année de publication : 1990 Importance : 1 vol (672 p.) Format : 24 cm ISBN/ISSN/EAN : 978-0-471-84272-9 Langues : Anglais (eng) Langues originales : Anglais (eng) Catégories : Mathématique Mots-clés : Processus stochastiques
Probabilités
Processus stochastiquesIndex. décimale : 510 Mathématique Résumé : ce livre développe systématiquement et rigoureusement, mais d'une manière déclaratif et vivante, l'évolution des processus aléatoires généraux et leurs grandes propriétés de temps telles que la fugacité, la récurrence et la convergence des états stables. L'accent est mis sur les classes les plus importantes de ces processus du point de vue de la théorie et des applications, à savoir les processus de Markov.
Le livre présente une couverture très large des aspects les plus applicables des processus stochastiques, y compris du matériel suffisant pour des cours autonomes sur la marche aléatoire dans une et plusieurs dimensions; Les chaînes de Markov en temps discret et continu, y compris les processus de naissance-mort; Mouvement brownien et diffusions; optimisation stochastique; et les équations différentielles stochastiques.
La plupart des résultats sont présentés avec des preuves complètes, alors que certaines questions très techniques sont relégués à une section théorique à la Complements fin de chaque chapitre afin de ne pas entraver l'écoulement du matériau. Chapitre applications, ainsi que de nombreux exemples travaillés, illustrant des applications importantes de la matière à divers domaines de la science, l'ingénierie, l'économie et les mathématiques appliquées. Les éléments essentiels de la probabilité théorique de mesure sont inclus dans une annexe pour compléter certains des aspects les plus techniques du texte.Note de contenu : Sommaire
1- Random walk and brownian motion
2- Discrete parameter markov chains
3- Birth death markov chains
4- Continuous parameter markov chains
5- Brownian motion and diffusions
6- Dynamic programming and stochastic optimization
7- An introduction to stochastic differential equations
8- A probability and measure theory overviewCôte titre : Fs/14415 Stochastic processes with applications [texte imprimé] / R. N. Bhattacharya ; Edward C. Waymire . - [S.l.] : New York ; Chichester [etc.] : J. Wiley, 1990 . - 1 vol (672 p.) ; 24 cm.
ISBN : 978-0-471-84272-9
Langues : Anglais (eng) Langues originales : Anglais (eng)
Catégories : Mathématique Mots-clés : Processus stochastiques
Probabilités
Processus stochastiquesIndex. décimale : 510 Mathématique Résumé : ce livre développe systématiquement et rigoureusement, mais d'une manière déclaratif et vivante, l'évolution des processus aléatoires généraux et leurs grandes propriétés de temps telles que la fugacité, la récurrence et la convergence des états stables. L'accent est mis sur les classes les plus importantes de ces processus du point de vue de la théorie et des applications, à savoir les processus de Markov.
Le livre présente une couverture très large des aspects les plus applicables des processus stochastiques, y compris du matériel suffisant pour des cours autonomes sur la marche aléatoire dans une et plusieurs dimensions; Les chaînes de Markov en temps discret et continu, y compris les processus de naissance-mort; Mouvement brownien et diffusions; optimisation stochastique; et les équations différentielles stochastiques.
La plupart des résultats sont présentés avec des preuves complètes, alors que certaines questions très techniques sont relégués à une section théorique à la Complements fin de chaque chapitre afin de ne pas entraver l'écoulement du matériau. Chapitre applications, ainsi que de nombreux exemples travaillés, illustrant des applications importantes de la matière à divers domaines de la science, l'ingénierie, l'économie et les mathématiques appliquées. Les éléments essentiels de la probabilité théorique de mesure sont inclus dans une annexe pour compléter certains des aspects les plus techniques du texte.Note de contenu : Sommaire
1- Random walk and brownian motion
2- Discrete parameter markov chains
3- Birth death markov chains
4- Continuous parameter markov chains
5- Brownian motion and diffusions
6- Dynamic programming and stochastic optimization
7- An introduction to stochastic differential equations
8- A probability and measure theory overviewCôte titre : Fs/14415 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité Fs/14415 Fs/14415 Livre Bibliothéque des sciences Anglais Disponible
Disponible
Titre : Study of deep learning convergence Type de document : texte imprimé Auteurs : Benkhelifa ,Radia, Auteur ; Djaghloul,H, Directeur de thèse Editeur : Setif:UFA Année de publication : 2019 Importance : 1 vol (49 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Mathématique Mots-clés : Mathématique Index. décimale : 510 Mathématique Résumé : This project allowed us to study deep learning methods and how to improve
their performance by tuning dierent parameters in the training data from learning
to prediction steps. Although deep learning has gained a great popularity in vari-
ous application domains and it is more widely used today, it still has some obstacles
and problems, including relatively a huge time of parametrization during the learning
steps and a diculty to select the best neuron architectures for certain problem type
which still an open question.
Deep learning is kind of a self-learning algorithms which is basically depends
on articial neural networks. It has a huge set of techniques such as: deep neural
networks, deep belief networks, recurrent neural networks and convolutional neural
networks which used in such a diverse elds enabling her to grab a great attention
including computer vision, speech recognition, natural language processing, audio
recognition, social network ltering, machine translation and drug design.
In order to improve the performance, we used in practice dierent frameworks
and toolkits each one with a specic paradigm and abstraction level and chooses a
specic changes like the batch size. We have also studied theoretical and practical
studies related to a range of media and criteria used in the process of improvement. It
was concluded that the neural cluster network is strongly correlated with the amount
of information used and the quality of the data provided. In spite of all attempts,
deep learning remains highly relevant to the eld of progress, we cannot general-
ize it or determine the type of special engineering that provides results during the
improvement.
41Note de contenu : Sommaire
General Introduction 1
1 Chapter one: Deep learning for convolutional neural networks 2
1.1 Deep learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.2 Why deep learning . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.3 Deep learning architecture . . . . . . . . . . . . . . . . . . . . 3
1.1.4 Some of Deep learning applications and how it works . . . . . 3
1.1.5 Examples of Deep learning at Work . . . . . . . . . . . . . . . 4
1.2 Neural Networks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.2 Why neural networks . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.3 Neural networks types . . . . . . . . . . . . . . . . . . . . . . 8
1.2.4 Neural networks tasks . . . . . . . . . . . . . . . . . . . . . . 9
1.2.5 Neural networks applications . . . . . . . . . . . . . . . . . . . 12
1.3 Convolutional neural networks . . . . . . . . . . . . . . . . . . . . . . 12
1.3.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.2 Layers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3.3 Architectures . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2 Chapter two: Convergence and digital performance 19
2.1 Convergence theorems . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.1 Theorem 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.1.2 Theorem 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.1.3 Theorem 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2 Back-propagation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3 Genetic algorithms . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.4 Combining Genetic algorithms and Back-propagation: The GA-BP
Method . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.5 The K-Means algorithm as a gradient descent . . . . . . . . . . . . . 28
2.6 Learning Vector Quantization . . . . . . . . . . . . . . . . . . . . . . 29
2.6.1 A review of LVQ algorithm . . . . . . . . . . . . . . . . . . . 29
2.6.2 Convergence of the LVQ algorithm . . . . . . . . . . . . . . . 29
3 Chapter three: Experimental study of deep learning convergence 33
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2 Implementation frameworks . . . . . . . . . . . . . . . . . . . . 33
3.2.1 Theano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2.2 Tensor
ow . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.3 Keras: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.4 Frameworks comparison: . . . . . . . . . . . . . . . . . . . . . 35
3.2.5 Impact of the framework on problems diagnosis . . . . . . . . 36
3.3 Better deep learning network . . . . . . . . . . . . . . . . . . . . . . . 36
3.3.1 Improving problems . . . . . . . . . . . . . . . . . . . . . . . . 36
3.3.2 Improving techniques . . . . . . . . . . . . . . . . . . . . . . . 37
3.4 Batch size . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
Conclusion 41
Bibliography 42
List ofCôte titre : MAM/0374 En ligne : https://drive.google.com/file/d/1BKXlUiJoeLfKxladvrfLp_mWUJmY_olN/view?usp=shari [...] Format de la ressource électronique : Study of deep learning convergence [texte imprimé] / Benkhelifa ,Radia, Auteur ; Djaghloul,H, Directeur de thèse . - [S.l.] : Setif:UFA, 2019 . - 1 vol (49 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Mathématique Index. décimale : 510 Mathématique Résumé : This project allowed us to study deep learning methods and how to improve
their performance by tuning dierent parameters in the training data from learning
to prediction steps. Although deep learning has gained a great popularity in vari-
ous application domains and it is more widely used today, it still has some obstacles
and problems, including relatively a huge time of parametrization during the learning
steps and a diculty to select the best neuron architectures for certain problem type
which still an open question.
Deep learning is kind of a self-learning algorithms which is basically depends
on articial neural networks. It has a huge set of techniques such as: deep neural
networks, deep belief networks, recurrent neural networks and convolutional neural
networks which used in such a diverse elds enabling her to grab a great attention
including computer vision, speech recognition, natural language processing, audio
recognition, social network ltering, machine translation and drug design.
In order to improve the performance, we used in practice dierent frameworks
and toolkits each one with a specic paradigm and abstraction level and chooses a
specic changes like the batch size. We have also studied theoretical and practical
studies related to a range of media and criteria used in the process of improvement. It
was concluded that the neural cluster network is strongly correlated with the amount
of information used and the quality of the data provided. In spite of all attempts,
deep learning remains highly relevant to the eld of progress, we cannot general-
ize it or determine the type of special engineering that provides results during the
improvement.
41Note de contenu : Sommaire
General Introduction 1
1 Chapter one: Deep learning for convolutional neural networks 2
1.1 Deep learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.2 Why deep learning . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.3 Deep learning architecture . . . . . . . . . . . . . . . . . . . . 3
1.1.4 Some of Deep learning applications and how it works . . . . . 3
1.1.5 Examples of Deep learning at Work . . . . . . . . . . . . . . . 4
1.2 Neural Networks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.2 Why neural networks . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.3 Neural networks types . . . . . . . . . . . . . . . . . . . . . . 8
1.2.4 Neural networks tasks . . . . . . . . . . . . . . . . . . . . . . 9
1.2.5 Neural networks applications . . . . . . . . . . . . . . . . . . . 12
1.3 Convolutional neural networks . . . . . . . . . . . . . . . . . . . . . . 12
1.3.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.2 Layers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3.3 Architectures . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2 Chapter two: Convergence and digital performance 19
2.1 Convergence theorems . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.1 Theorem 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.1.2 Theorem 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.1.3 Theorem 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2 Back-propagation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3 Genetic algorithms . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.4 Combining Genetic algorithms and Back-propagation: The GA-BP
Method . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.5 The K-Means algorithm as a gradient descent . . . . . . . . . . . . . 28
2.6 Learning Vector Quantization . . . . . . . . . . . . . . . . . . . . . . 29
2.6.1 A review of LVQ algorithm . . . . . . . . . . . . . . . . . . . 29
2.6.2 Convergence of the LVQ algorithm . . . . . . . . . . . . . . . 29
3 Chapter three: Experimental study of deep learning convergence 33
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2 Implementation frameworks . . . . . . . . . . . . . . . . . . . . 33
3.2.1 Theano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2.2 Tensor
ow . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.3 Keras: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.4 Frameworks comparison: . . . . . . . . . . . . . . . . . . . . . 35
3.2.5 Impact of the framework on problems diagnosis . . . . . . . . 36
3.3 Better deep learning network . . . . . . . . . . . . . . . . . . . . . . . 36
3.3.1 Improving problems . . . . . . . . . . . . . . . . . . . . . . . . 36
3.3.2 Improving techniques . . . . . . . . . . . . . . . . . . . . . . . 37
3.4 Batch size . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
Conclusion 41
Bibliography 42
List ofCôte titre : MAM/0374 En ligne : https://drive.google.com/file/d/1BKXlUiJoeLfKxladvrfLp_mWUJmY_olN/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAM/0374 MAM/0374 Mémoire Bibliothéque des sciences Anglais Disponible
DisponibleSuites numériques / Mohammed Hazi
Titre : Suites numériques : Cours détaillé et exercices résolus Type de document : texte imprimé Auteurs : Mohammed Hazi, Auteur Editeur : Alger : OPU Année de publication : 2018 Importance : 1 vol (272 p.) Format : 24 cm ISBN/ISSN/EAN : 978-9961-0-2066-1 Langues : Français (fre) Catégories : Mathématique Mots-clés : Mathématique Index. décimale : 510 Mathématique Résumé :
Ce livre est le deuxième parmi sept cahiers exposant un des grands piliers du programme d’analyse mathématique du premier cycle universitaire : les suites numériques. Il est commun à toutes les filières et spécialités scientifiques ou autres. Il est réparti en treize sections englobant les outils fondamentaux de l’étude da la nature d’une suite numérique. Pour assurer la clarté et booster la compréhension il est fait appel à beaucoup d’exemples d’illustration et exercices d’application dont 77 résolus et 67 laissés comme compléments pour consolidation d’acquis et agrément.Côte titre : Fs/24271 Suites numériques : Cours détaillé et exercices résolus [texte imprimé] / Mohammed Hazi, Auteur . - Alger : OPU, 2018 . - 1 vol (272 p.) ; 24 cm.
ISBN : 978-9961-0-2066-1
Langues : Français (fre)
Catégories : Mathématique Mots-clés : Mathématique Index. décimale : 510 Mathématique Résumé :
Ce livre est le deuxième parmi sept cahiers exposant un des grands piliers du programme d’analyse mathématique du premier cycle universitaire : les suites numériques. Il est commun à toutes les filières et spécialités scientifiques ou autres. Il est réparti en treize sections englobant les outils fondamentaux de l’étude da la nature d’une suite numérique. Pour assurer la clarté et booster la compréhension il est fait appel à beaucoup d’exemples d’illustration et exercices d’application dont 77 résolus et 67 laissés comme compléments pour consolidation d’acquis et agrément.Côte titre : Fs/24271 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité Fs/24271 Fs/24271 livre Bibliothéque des sciences Français Disponible
Disponible
Titre : Sur certaines classes d’équations différentielles abstraites Type de document : texte imprimé Auteurs : Nasreddine Amroune, Auteur ; Aissa Aibeche, Directeur de thèse Editeur : Setif:UFA Année de publication : 2016 Importance : 1 vol (83 f.) Catégories : Thèses & Mémoires:Mathématique Mots-clés : Equation différentielle abstraite,
Conditions aux limites non-locales,
Espace UMD,
Théorème de Dore-VenniIndex. décimale : 510 Mathématique Résumé : Résumé :
Cette thèse présente quelques résultats sur une classe d’équations différentielles abstraites
(à coefficients opérateurs) de type elliptiques dans l’espace UMD. La première partie étudie
cette classe avec des conditions aux limites l’une des est non-locale et la deuxième partie
consiste un travail similaire mais avec des conditions aux limites non-locales générales. Le
but principal dans les deux parties est l’obtention des résultats concernant l’existence, l’unicité de la solution stricte et sa régularité grâce à la théorie des semi-groupes, la théorie
d’interpolations et le Théorème de Dore-Venni.
Note de contenu : Table des matières
1 Rappels 13
1.1 Opérateurs fermés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2 Théorie des semi-groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.1 Semi-groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.2 Semi-groupes analytiques généralisés . . . . . . . . . . . . . . . . . . . 20
1.2.3 Groupes fortement continus . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3 Espaces d’interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.3.1 Espaces de moyenne de Lions-Peetre [36] . . . . . . . . . . . . . . . . . 26
1.3.2 Propriété fondamentale d’interpolation . . . . . . . . . . . . . . . . . . 27
1.3.3 Autres définitions des espaces d’interpolation . . . . . . . . . . . . . . . 27
1.3.4 Réitération . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.4 Calcul fonctionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.4.1 Calcul fonctionnel de Dunford . . . . . . . . . . . . . . . . . . . . . . . 29
1.4.2 Puissances fractionnaires d’opérateurs . . . . . . . . . . . . . . . . . . . 32
1.5 Espaces UMD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.5.1 Théorème de Dore-Venni . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2 Classe d’équations elliptiques avec des conditions non-locales 39
2.1 Commutativité des opérateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.1.1 Commutativité au sens des résolvantes avec ρ(P) 6= ∅ et ρ(Q) 6= ∅ . . 40
2.1.2 Commutativité pour deux opérateurs avec ρ(P) ou ρ(Q) 6= ∅ . . . . . . 42
2.1.3 Lien entre (P − λI)−1(Q − µI)−1 = (Q − µI)−1(P − λI)−1et P Q = QP 43
2.2 Cas B = 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.2.1 Position du problème et hypothèses . . . . . . . . . . . . . . . . . . . . 46
2.2.2 Représentation de la solution . . . . . . . . . . . . . . . . . . . . . . . 47
2.2.3 Quelques résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.2.4 Résultat principal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.2.5 Problème avec un paramètre spectral . . . . . . . . . . . . . . . . . . . 53
2.2.6 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.3 B génère un groupe fortement continu . . . . . . . . . . . . . . . . . . . . . . . 56
2.3.1 Position du problème et hypothèses . . . . . . . . . . . . . . . . . . . . 56
2.3.2 Quelques résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.3.3 Problème avec un paramètre spectral . . . . . . . . . . . . . . . . . . . 60
3 Conditions non-locales générales 63
3.1 Le cas où B = 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.1.1 Position du problème et hypothèses . . . . . . . . . . . . . . . . . . . . 63
3.1.2 Réprésentation de la solution du (3.1)-(3.2) . . . . . . . . . . . . . . . . 65
3.1.3 Quelques résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.1.4 Résultat principal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.1.5 Problème avec un paramètre spectral . . . . . . . . . . . . . . . . . . . 71
3.1.6 Etude de quelques cas particuliers . . . . . . . . . . . . . . . . . . . . . 74
3.1.7 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78Côte titre : DM/0116 En ligne : https://drive.google.com/file/d/1CiA59H2lVywHw78aUl1bthP3XRxhngJJ/view?usp=shari [...] Format de la ressource électronique : Sur certaines classes d’équations différentielles abstraites [texte imprimé] / Nasreddine Amroune, Auteur ; Aissa Aibeche, Directeur de thèse . - [S.l.] : Setif:UFA, 2016 . - 1 vol (83 f.).
Catégories : Thèses & Mémoires:Mathématique Mots-clés : Equation différentielle abstraite,
Conditions aux limites non-locales,
Espace UMD,
Théorème de Dore-VenniIndex. décimale : 510 Mathématique Résumé : Résumé :
Cette thèse présente quelques résultats sur une classe d’équations différentielles abstraites
(à coefficients opérateurs) de type elliptiques dans l’espace UMD. La première partie étudie
cette classe avec des conditions aux limites l’une des est non-locale et la deuxième partie
consiste un travail similaire mais avec des conditions aux limites non-locales générales. Le
but principal dans les deux parties est l’obtention des résultats concernant l’existence, l’unicité de la solution stricte et sa régularité grâce à la théorie des semi-groupes, la théorie
d’interpolations et le Théorème de Dore-Venni.
Note de contenu : Table des matières
1 Rappels 13
1.1 Opérateurs fermés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2 Théorie des semi-groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.1 Semi-groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.2 Semi-groupes analytiques généralisés . . . . . . . . . . . . . . . . . . . 20
1.2.3 Groupes fortement continus . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3 Espaces d’interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.3.1 Espaces de moyenne de Lions-Peetre [36] . . . . . . . . . . . . . . . . . 26
1.3.2 Propriété fondamentale d’interpolation . . . . . . . . . . . . . . . . . . 27
1.3.3 Autres définitions des espaces d’interpolation . . . . . . . . . . . . . . . 27
1.3.4 Réitération . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.4 Calcul fonctionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.4.1 Calcul fonctionnel de Dunford . . . . . . . . . . . . . . . . . . . . . . . 29
1.4.2 Puissances fractionnaires d’opérateurs . . . . . . . . . . . . . . . . . . . 32
1.5 Espaces UMD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.5.1 Théorème de Dore-Venni . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2 Classe d’équations elliptiques avec des conditions non-locales 39
2.1 Commutativité des opérateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.1.1 Commutativité au sens des résolvantes avec ρ(P) 6= ∅ et ρ(Q) 6= ∅ . . 40
2.1.2 Commutativité pour deux opérateurs avec ρ(P) ou ρ(Q) 6= ∅ . . . . . . 42
2.1.3 Lien entre (P − λI)−1(Q − µI)−1 = (Q − µI)−1(P − λI)−1et P Q = QP 43
2.2 Cas B = 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.2.1 Position du problème et hypothèses . . . . . . . . . . . . . . . . . . . . 46
2.2.2 Représentation de la solution . . . . . . . . . . . . . . . . . . . . . . . 47
2.2.3 Quelques résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.2.4 Résultat principal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.2.5 Problème avec un paramètre spectral . . . . . . . . . . . . . . . . . . . 53
2.2.6 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.3 B génère un groupe fortement continu . . . . . . . . . . . . . . . . . . . . . . . 56
2.3.1 Position du problème et hypothèses . . . . . . . . . . . . . . . . . . . . 56
2.3.2 Quelques résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.3.3 Problème avec un paramètre spectral . . . . . . . . . . . . . . . . . . . 60
3 Conditions non-locales générales 63
3.1 Le cas où B = 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.1.1 Position du problème et hypothèses . . . . . . . . . . . . . . . . . . . . 63
3.1.2 Réprésentation de la solution du (3.1)-(3.2) . . . . . . . . . . . . . . . . 65
3.1.3 Quelques résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.1.4 Résultat principal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.1.5 Problème avec un paramètre spectral . . . . . . . . . . . . . . . . . . . 71
3.1.6 Etude de quelques cas particuliers . . . . . . . . . . . . . . . . . . . . . 74
3.1.7 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78Côte titre : DM/0116 En ligne : https://drive.google.com/file/d/1CiA59H2lVywHw78aUl1bthP3XRxhngJJ/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité DM/0116 DM/0116 Thèse Bibliothéque des sciences Français Disponible
DisponibleSur certaines méthodes d’optimisation globale basées sur l’introduction de fonctions auxiliaires / KETFI-CHERIF, Amine
PermalinkSur certaines variantes de la méthode de Quasi Newton pour la programmation non-linéaire / Mounnes, Amel
PermalinkSur la construction des fonctions de LYAPUNOV pour la stabilité des modèles mathématiques dans la biologie des populations / Maache ,Hanane
PermalinkPermalinkSur les directions de descente des méthodes de points intérieurs pour l’optimisation linéaire / Hadjer Remadna
PermalinkPermalinkPermalinkSur l’existence d’un automorphisme non intérieur d’ordre p d’un p-groupe non abelien fini / Yassine Guerboussa
PermalinkPermalinkPermalink