University Sétif 1 FERHAT ABBAS Faculty of Sciences
Détail de l'indexation
Ouvrages de la bibliothèque en indexation 519.6



Titre : An introduction to optimization Type de document : texte imprimé Auteurs : Edwin Kah Pin Chong ; Stanislaw H. Zak Mention d'édition : 4e éd. Editeur : Hoboken : Wiley Année de publication : 2013 Collection : Wiley Series in Discrete Mathematics and Optimization Importance : 1 vol. (622 p.) Présentation : illustrations Format : 24 cm ISBN/ISSN/EAN : 978-1-118-27901-4 Catégories : Mathématique Mots-clés : Optimisation mathématique : Problèmes et exercices
Programmation linéaire : Problèmes et exercices
Matrices : Problèmes et exercicesIndex. décimale : 519.6 Optimisation mathématique Résumé :
Entièrement mis à jour pour refléter les nouveaux développements dans le domaine, la quatrième édition de Introduction à l'optimisation remplit la nécessité d'un traitement accessible de la théorie de l'optimisation et des méthodes en mettant l'accent sur la conception d'ingénierie. définitions et notations de base sont fournies en plus de l'arrière-plan fondamental lié à l'algèbre linéaire, la géométrie et le calcul.
Cette nouvelle édition explore les thèmes essentiels des problèmes d'optimisation, sans contrainte problèmes de programmation linéaire et optimisation sous contrainte non linéaire. Les auteurs présentent également une perspective d'optimisation sur les méthodes de recherche globale et comprennent des discussions sur les algorithmes génétiques, optimisation des essaim de particules, et l'algorithme de recuit simulé. Doté d'une introduction élémentaire à des réseaux de neurones artificiels, l'optimisation convexe et l'optimisation multi-objectifs, la quatrième édition offre également:
Un nouveau chapitre sur la programmation entier
couverture élargie des méthodes unidimensionnelles
sections mises à jour et étendues sur les inégalités de matrice linéaire
De nombreux nouveaux exercices à la fin de chaque chapitre
des exercices et des problèmes de MATLAB® forage pour renforcer la théorie discutée et algorithmes
De nombreux schémas et chiffres qui complètent la présentation écrite des concepts clés
M fichiers Matlab pour la mise en œuvre de la théorie discutée et des algorithmes (disponible sur le site Web du livre)
Introduction à l'optimisation, quatrième édition est un manuel idéal pour des cours sur la théorie de l'optimisation et des méthodes. De plus, le livre est une référence utile pour les professionnels en mathématiques, recherche opérationnelle, génie électrique, l'économie, les statistiques et les entreprises.Note de contenu :
Sommaire
Preface
PART I MATHEMATICAL REVIEW
1 Methods of Proof and Some Notation 3
1.1 Methods of Proof 3
1.2 Notation 5
Exercises 6
2 Vector Spaces and Matrices 7
2.1 Vector and Matrix 7
2.2 Rank of a Matrix 13
2.3 Linear Equations 17
2.4 Inner Products and Norms 19
Exercises 22
3 Transformations 25
3.1 Linear Transformations 25
3.2 Eigenvalues and Eigenvectors 26
3.3 Orthogonal Projections 29
3.4 Quadratic Forms 31
3.5 Matrix Norms 35
Exercises 40
4 Concepts from Geometry 45
4.1 Line Segments 45
4.2 Hyperplanes and Linear Varieties 46
4.3 Convex Sets 48
4.4 Neighborhoods 50
4.5 Polytopes and Polyhedra 52
Exercises 53
5 Elements of Calculus 55
5.1 Sequences and Limits 55
5.2 Differentiability 62
5.3 The Derivative Matrix 63
5.4 Differentiation Rules 67
5.5 Level Sets and Gradients 68
5.6 Taylor Series 72
Exercises 77
PART II UNCONSTRAINED OPTIMIZATION
6 Basics of Set–Constrained and Unconstrained Optimization 81
6.1 Introduction 81
6.2 Conditions for Local Minimizers 83
Exercises 93
7 One–Dimensional Search Methods 103
7.1 Introduction 103
7.2 Golden Section Search 104
7.3 Fibonacci Method 108
7.4 Bisection Method 116
7.5 Newton s Method 116
7.6 Secant Method 120
7.7 Bracketing 123
7.8 Line Search in Multidimensional Optimization 124
Exercises 126
8 Gradient Methods 131
8.1 Introduction 131
8.2 The Method of Steepest Descent 133
8.3 Analysis of Gradient Methods 141
Exercises 153
9 Newton s Method 161
9.1 Introduction 161
9.2 Analysis of Newton s Method 164
9.3 Levenberg–Marquardt Modification 168
9.4 Newton s Method for Nonlinear Least Squares 168
Exercises 171
0 Conjugate Direction Methods 17
10.1 Introduction 175
10.2 The Conjugate Direction Algorithm 177
10.3 The Conjugate Gradient Algorithm 182
10.4 The Conjugate Gradient Algorithm for Nonquadratic
Problems 186
Exercises 189
11 Quasi–Newton Methods 193
11.1 Introduction 193
11.2 Approximating the Inverse Hessian 194
11.3 The Rank One Correction Formula 197
11.4 The DFP Algorithm 202
11.5 The BFGS Algorithm 207
Exercises 211
12 Solving Linear Equations 217
12.1 Least–Squares Analysis 217
12.2 The Recursive Least–Squares Algorithm 227
12.3 Solution to a Linear Equation with Minimum Norm 231
12.4 Kaczmarz s Algorithm 232
12.5 Solving Linear Equations in General 236
exercises 244
13 Unconstrained Optimization and Neural Networks 253
13.1 Introduction 253
13.2 Single–Neuron Training 256
13.3 The Backpropagation Algorithm 258
Exercises 270
14 Global Search Algorithms 273
14.1 Introduction 273
14.2 The Nelder–Mead Simplex Algorithm 274
14.3 Simulated Annealing 278
14.4 Particle Swarm Optimization 282
14.5 Genetic Algorithms 285
Exercises 298
PART III LINEAR PROGRAMMING
15 Introduction to Linear Programming 305
15.1 Brief History of Linear Programming 305
15.2 Simple Examples of Linear Programs 307
15.3 Two–Dimensional Linear Programs 314
15.4 Convex Polyhedra and Linear Programming 316
15.5 Standard Form Linear Programs 318
15.6 Basic Solutions 324
15.7 Properties of Basic Solutions 327
15.8 Geometric View of Linear Programs 330
Exercises 335
16 Simplex Method 339
16.1 Solving Linear Equations Using Row Operations 339
16.2 The Canonical Augmented Matrix 346
6.3 Updating the Augmented Matrix 349
16.4 The Simplex Algorithm 350
16.5 Matrix Form of the Simplex Method 357
16.6 Two–Phase Simplex Method 361
16.7 Revised Simplex Method 364
Exercises 369
17 Duality 379
17.1 Dual Linear Programs 379
17.2 Properties of Dual Problems 387
Exercises 394
18 Nonsimplex Methods 403
18.1 Introduction 403
18.2 Khachiyan s Method 405
18.3 Affine Scaling Method 408
18.4 Karmarkar s Method 413
Exercises 426
19 Integer Linear Programming 429
19.1 Introduction 429
19.2 Unimodular Matrices 430
19.3 The Gomory Cutting–Plane Method 437
Exercises 447
PART IV NONLINEAR CONSTRAINED OPTIMIZATION
20 Problems with Equality Constraints 453
20.1 Introduction 453
20.2 Problem Formulation 455
20.3 Tangent and Normal Spaces 456
20.4 Lagrange Condition 463
20.5 Second–Order Conditions 472
20.6 Minimizing Quadratics Subject to Linear Constraints 476
Exercises 481
21 Problems with Inequality Constraints 487
21.1 Karush–Kuhn–Tucker Condition 487
21.2 Second–Order Conditions 496
Exercises 501
22 Convex Optimization Problems 509
22.1 Introduction 509
22.2 Convex Functions 512
22.3 Convex Optimization Problems 521
22.4 Semidefinite Programming 527
Exercises 540
23 Algorithms for Constrained Optimization 549
23.1 Introduction 549
23.2 Projections 549
23.3 Projected Gradient Methods with Linear Constraints 553
23.4 Lagrangian Algorithms 557
23.5 Penalty Methods 564
Exercises 571
24 Multiobjective Optimization 577
24.1 Introduction 577
24.2 Pareto Solutions 578
24.3 Computing the Pareto Front 581
24.4 From Multiobjective to Single–Objective Optimization 585
24.5 Uncertain Linear Programming Problems 588
Exercises 596
References 599
Index 609Côte titre : Fs/19778 An introduction to optimization [texte imprimé] / Edwin Kah Pin Chong ; Stanislaw H. Zak . - 4e éd. . - Hoboken : Wiley, 2013 . - 1 vol. (622 p.) : illustrations ; 24 cm. - (Wiley Series in Discrete Mathematics and Optimization) .
ISBN : 978-1-118-27901-4
Catégories : Mathématique Mots-clés : Optimisation mathématique : Problèmes et exercices
Programmation linéaire : Problèmes et exercices
Matrices : Problèmes et exercicesIndex. décimale : 519.6 Optimisation mathématique Résumé :
Entièrement mis à jour pour refléter les nouveaux développements dans le domaine, la quatrième édition de Introduction à l'optimisation remplit la nécessité d'un traitement accessible de la théorie de l'optimisation et des méthodes en mettant l'accent sur la conception d'ingénierie. définitions et notations de base sont fournies en plus de l'arrière-plan fondamental lié à l'algèbre linéaire, la géométrie et le calcul.
Cette nouvelle édition explore les thèmes essentiels des problèmes d'optimisation, sans contrainte problèmes de programmation linéaire et optimisation sous contrainte non linéaire. Les auteurs présentent également une perspective d'optimisation sur les méthodes de recherche globale et comprennent des discussions sur les algorithmes génétiques, optimisation des essaim de particules, et l'algorithme de recuit simulé. Doté d'une introduction élémentaire à des réseaux de neurones artificiels, l'optimisation convexe et l'optimisation multi-objectifs, la quatrième édition offre également:
Un nouveau chapitre sur la programmation entier
couverture élargie des méthodes unidimensionnelles
sections mises à jour et étendues sur les inégalités de matrice linéaire
De nombreux nouveaux exercices à la fin de chaque chapitre
des exercices et des problèmes de MATLAB® forage pour renforcer la théorie discutée et algorithmes
De nombreux schémas et chiffres qui complètent la présentation écrite des concepts clés
M fichiers Matlab pour la mise en œuvre de la théorie discutée et des algorithmes (disponible sur le site Web du livre)
Introduction à l'optimisation, quatrième édition est un manuel idéal pour des cours sur la théorie de l'optimisation et des méthodes. De plus, le livre est une référence utile pour les professionnels en mathématiques, recherche opérationnelle, génie électrique, l'économie, les statistiques et les entreprises.Note de contenu :
Sommaire
Preface
PART I MATHEMATICAL REVIEW
1 Methods of Proof and Some Notation 3
1.1 Methods of Proof 3
1.2 Notation 5
Exercises 6
2 Vector Spaces and Matrices 7
2.1 Vector and Matrix 7
2.2 Rank of a Matrix 13
2.3 Linear Equations 17
2.4 Inner Products and Norms 19
Exercises 22
3 Transformations 25
3.1 Linear Transformations 25
3.2 Eigenvalues and Eigenvectors 26
3.3 Orthogonal Projections 29
3.4 Quadratic Forms 31
3.5 Matrix Norms 35
Exercises 40
4 Concepts from Geometry 45
4.1 Line Segments 45
4.2 Hyperplanes and Linear Varieties 46
4.3 Convex Sets 48
4.4 Neighborhoods 50
4.5 Polytopes and Polyhedra 52
Exercises 53
5 Elements of Calculus 55
5.1 Sequences and Limits 55
5.2 Differentiability 62
5.3 The Derivative Matrix 63
5.4 Differentiation Rules 67
5.5 Level Sets and Gradients 68
5.6 Taylor Series 72
Exercises 77
PART II UNCONSTRAINED OPTIMIZATION
6 Basics of Set–Constrained and Unconstrained Optimization 81
6.1 Introduction 81
6.2 Conditions for Local Minimizers 83
Exercises 93
7 One–Dimensional Search Methods 103
7.1 Introduction 103
7.2 Golden Section Search 104
7.3 Fibonacci Method 108
7.4 Bisection Method 116
7.5 Newton s Method 116
7.6 Secant Method 120
7.7 Bracketing 123
7.8 Line Search in Multidimensional Optimization 124
Exercises 126
8 Gradient Methods 131
8.1 Introduction 131
8.2 The Method of Steepest Descent 133
8.3 Analysis of Gradient Methods 141
Exercises 153
9 Newton s Method 161
9.1 Introduction 161
9.2 Analysis of Newton s Method 164
9.3 Levenberg–Marquardt Modification 168
9.4 Newton s Method for Nonlinear Least Squares 168
Exercises 171
0 Conjugate Direction Methods 17
10.1 Introduction 175
10.2 The Conjugate Direction Algorithm 177
10.3 The Conjugate Gradient Algorithm 182
10.4 The Conjugate Gradient Algorithm for Nonquadratic
Problems 186
Exercises 189
11 Quasi–Newton Methods 193
11.1 Introduction 193
11.2 Approximating the Inverse Hessian 194
11.3 The Rank One Correction Formula 197
11.4 The DFP Algorithm 202
11.5 The BFGS Algorithm 207
Exercises 211
12 Solving Linear Equations 217
12.1 Least–Squares Analysis 217
12.2 The Recursive Least–Squares Algorithm 227
12.3 Solution to a Linear Equation with Minimum Norm 231
12.4 Kaczmarz s Algorithm 232
12.5 Solving Linear Equations in General 236
exercises 244
13 Unconstrained Optimization and Neural Networks 253
13.1 Introduction 253
13.2 Single–Neuron Training 256
13.3 The Backpropagation Algorithm 258
Exercises 270
14 Global Search Algorithms 273
14.1 Introduction 273
14.2 The Nelder–Mead Simplex Algorithm 274
14.3 Simulated Annealing 278
14.4 Particle Swarm Optimization 282
14.5 Genetic Algorithms 285
Exercises 298
PART III LINEAR PROGRAMMING
15 Introduction to Linear Programming 305
15.1 Brief History of Linear Programming 305
15.2 Simple Examples of Linear Programs 307
15.3 Two–Dimensional Linear Programs 314
15.4 Convex Polyhedra and Linear Programming 316
15.5 Standard Form Linear Programs 318
15.6 Basic Solutions 324
15.7 Properties of Basic Solutions 327
15.8 Geometric View of Linear Programs 330
Exercises 335
16 Simplex Method 339
16.1 Solving Linear Equations Using Row Operations 339
16.2 The Canonical Augmented Matrix 346
6.3 Updating the Augmented Matrix 349
16.4 The Simplex Algorithm 350
16.5 Matrix Form of the Simplex Method 357
16.6 Two–Phase Simplex Method 361
16.7 Revised Simplex Method 364
Exercises 369
17 Duality 379
17.1 Dual Linear Programs 379
17.2 Properties of Dual Problems 387
Exercises 394
18 Nonsimplex Methods 403
18.1 Introduction 403
18.2 Khachiyan s Method 405
18.3 Affine Scaling Method 408
18.4 Karmarkar s Method 413
Exercises 426
19 Integer Linear Programming 429
19.1 Introduction 429
19.2 Unimodular Matrices 430
19.3 The Gomory Cutting–Plane Method 437
Exercises 447
PART IV NONLINEAR CONSTRAINED OPTIMIZATION
20 Problems with Equality Constraints 453
20.1 Introduction 453
20.2 Problem Formulation 455
20.3 Tangent and Normal Spaces 456
20.4 Lagrange Condition 463
20.5 Second–Order Conditions 472
20.6 Minimizing Quadratics Subject to Linear Constraints 476
Exercises 481
21 Problems with Inequality Constraints 487
21.1 Karush–Kuhn–Tucker Condition 487
21.2 Second–Order Conditions 496
Exercises 501
22 Convex Optimization Problems 509
22.1 Introduction 509
22.2 Convex Functions 512
22.3 Convex Optimization Problems 521
22.4 Semidefinite Programming 527
Exercises 540
23 Algorithms for Constrained Optimization 549
23.1 Introduction 549
23.2 Projections 549
23.3 Projected Gradient Methods with Linear Constraints 553
23.4 Lagrangian Algorithms 557
23.5 Penalty Methods 564
Exercises 571
24 Multiobjective Optimization 577
24.1 Introduction 577
24.2 Pareto Solutions 578
24.3 Computing the Pareto Front 581
24.4 From Multiobjective to Single–Objective Optimization 585
24.5 Uncertain Linear Programming Problems 588
Exercises 596
References 599
Index 609Côte titre : Fs/19778 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité Fs/19778 Fs/19778 Livre Bibliothéque des sciences Français Disponible
Disponible
Titre : Convex optimization Type de document : texte imprimé Auteurs : Stephen Poythress Boyd (1958-....), Auteur ; Lieven Vandenberghe, Auteur Editeur : Cambridge : Cambridge university press Année de publication : 2004 Importance : 1 vol. (716 p.) Présentation : ill. Format : 25 cm ISBN/ISSN/EAN : 978-0-521-83378-3 Langues : Anglais (eng) Catégories : Mathématique Mots-clés : ptimisation mathématique
Fonctions convexes
Recherche opérationnelle
Programmation (mathématiques)
Programmation linéaireIndex. décimale : 519.6 Optimisation mathématique Résumé :
Les problèmes d'optimisation convexe surviennent fréquemment dans de nombreux domaines différents. Ce livre fournit une introduction complète au sujet, couvrant la théorie, de nombreuses applications et des exemples, et des méthodes numériques. Le livre commence par les éléments de base des ensembles et des fonctions convexes, décrit diverses classes de problèmes d'optimisation convexe, puis trie la théorie de la dualité. La deuxième partie couvre une grande variété d'applications, dans l'estimation, l'approximation, les statistiques, la géométrie computationnelle et d'autres domaines. La dernière partie du livre présente des méthodes numériques pour les problèmes d'optimisation convexe, passant des méthodes de base pour les problèmes sans contrainte aux méthodes de point intérieur. L'objectif du livre est de reconnaître et de formuler des problèmes d'optimisation convexe, puis de les résoudre efficacement.Note de contenu :
Sommaire :
1. Introduction
I.Theory
2. Convex sets
3. Convex functions
4. Convex optimization problems
5. Duality
II. Applications
6. Approximation and fitting
7. Statistical estimation
8. Geometric problems
III. Algorithms
9. Unconstrained minimization
10. Equality constrained minimization
11. Interior-point methods
Appendices
A. Mathematical background
B. Problems involving two quadratic functions
C. Numerical linear algebra background
Côte titre : Fs/19725 Convex optimization [texte imprimé] / Stephen Poythress Boyd (1958-....), Auteur ; Lieven Vandenberghe, Auteur . - Cambridge : Cambridge university press, 2004 . - 1 vol. (716 p.) : ill. ; 25 cm.
ISBN : 978-0-521-83378-3
Langues : Anglais (eng)
Catégories : Mathématique Mots-clés : ptimisation mathématique
Fonctions convexes
Recherche opérationnelle
Programmation (mathématiques)
Programmation linéaireIndex. décimale : 519.6 Optimisation mathématique Résumé :
Les problèmes d'optimisation convexe surviennent fréquemment dans de nombreux domaines différents. Ce livre fournit une introduction complète au sujet, couvrant la théorie, de nombreuses applications et des exemples, et des méthodes numériques. Le livre commence par les éléments de base des ensembles et des fonctions convexes, décrit diverses classes de problèmes d'optimisation convexe, puis trie la théorie de la dualité. La deuxième partie couvre une grande variété d'applications, dans l'estimation, l'approximation, les statistiques, la géométrie computationnelle et d'autres domaines. La dernière partie du livre présente des méthodes numériques pour les problèmes d'optimisation convexe, passant des méthodes de base pour les problèmes sans contrainte aux méthodes de point intérieur. L'objectif du livre est de reconnaître et de formuler des problèmes d'optimisation convexe, puis de les résoudre efficacement.Note de contenu :
Sommaire :
1. Introduction
I.Theory
2. Convex sets
3. Convex functions
4. Convex optimization problems
5. Duality
II. Applications
6. Approximation and fitting
7. Statistical estimation
8. Geometric problems
III. Algorithms
9. Unconstrained minimization
10. Equality constrained minimization
11. Interior-point methods
Appendices
A. Mathematical background
B. Problems involving two quadratic functions
C. Numerical linear algebra background
Côte titre : Fs/19725 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité Fs/19725 Fs/19725 Livre Bibliothéque des sciences Français Disponible
Disponible
Titre : Initiation à l'optimisation : Métaheuristiques ; problèmes à variables continues Type de document : texte imprimé Auteurs : Sameh Kessentini (1983-....), Auteur ; Dominique Barchiesi, Auteur Editeur : Paris : Ellipses Année de publication : 2020 Importance : 1 vol. (261 p.) Présentation : ill. Format : 24 cm ISBN/ISSN/EAN : 978-2-340-03674-1 Note générale : Bibliogr. p. 249-252. Index Langues : Français (fre) Catégories : Mathématique Mots-clés : Optimisation mathématique Index. décimale : 519.6 Optimisation mathématique Résumé : Les métaheuristiques sont parmi les méthodes d’optimisation les plus faciles à mettre en Å“uvre pour trouver la solution à des problèmes difficiles voire impossibles à résoudre directement, en s’inspirant de phénomènes issus de la nature et des sciences.
Douze méthodes avec variantes sont présentées et les codes en Matlab/GNU octave sont donnés :
GA (génétique),DE (évolution différentielle),BBO (biogéographie),RS (recuit simulé),GSO (Gravitationnel),CRO (réaction chimique),PSO (essaim de particules),LUC (lucioles),ABC (colonies d’abeilles artificielles),GWO (loup gris),ACO (colonies de fourmis),BSO (brainstorming).
Elles sont caractérisées, comparées et les outils fournis permettent de les combiner, les modifier ad libitum afin de les adapter à des problèmes réels.
Des applications à la thermique, l’électronique, l’agriculture, la mécanique permettent d’étendre leur domaine d’application à la résolution de problème inverse, à l’ajustement de modèle à des résultats expérimentaux et à la propagation d’incertitudes.Note de contenu : Sommaire:
Chapitre 1: Formulation d’un problème
Chapitre 2: Opérations et codes élémentaires
Chapitre 3: Caractérisation des algorithmes
Chapitre 4: Classifications des métaheuristiques
Chapitre 5: Opérateurs pour les métaheuristiques
Chapitre 6: Algorithmes évolutionnaires
Chapitre 7: Inspiration de la physique-chimie
Chapitre 8: Intelligence collective
Chapitre 9: Comparaison des méthodes
Chapitre 10: Optimisation de l’optimisation
Chapitre 11: Applications de l’optimisationCôte titre : Fs/24730-24731 Initiation à l'optimisation : Métaheuristiques ; problèmes à variables continues [texte imprimé] / Sameh Kessentini (1983-....), Auteur ; Dominique Barchiesi, Auteur . - [S.l.] : Paris : Ellipses, 2020 . - 1 vol. (261 p.) : ill. ; 24 cm.
ISBN : 978-2-340-03674-1
Bibliogr. p. 249-252. Index
Langues : Français (fre)
Catégories : Mathématique Mots-clés : Optimisation mathématique Index. décimale : 519.6 Optimisation mathématique Résumé : Les métaheuristiques sont parmi les méthodes d’optimisation les plus faciles à mettre en Å“uvre pour trouver la solution à des problèmes difficiles voire impossibles à résoudre directement, en s’inspirant de phénomènes issus de la nature et des sciences.
Douze méthodes avec variantes sont présentées et les codes en Matlab/GNU octave sont donnés :
GA (génétique),DE (évolution différentielle),BBO (biogéographie),RS (recuit simulé),GSO (Gravitationnel),CRO (réaction chimique),PSO (essaim de particules),LUC (lucioles),ABC (colonies d’abeilles artificielles),GWO (loup gris),ACO (colonies de fourmis),BSO (brainstorming).
Elles sont caractérisées, comparées et les outils fournis permettent de les combiner, les modifier ad libitum afin de les adapter à des problèmes réels.
Des applications à la thermique, l’électronique, l’agriculture, la mécanique permettent d’étendre leur domaine d’application à la résolution de problème inverse, à l’ajustement de modèle à des résultats expérimentaux et à la propagation d’incertitudes.Note de contenu : Sommaire:
Chapitre 1: Formulation d’un problème
Chapitre 2: Opérations et codes élémentaires
Chapitre 3: Caractérisation des algorithmes
Chapitre 4: Classifications des métaheuristiques
Chapitre 5: Opérateurs pour les métaheuristiques
Chapitre 6: Algorithmes évolutionnaires
Chapitre 7: Inspiration de la physique-chimie
Chapitre 8: Intelligence collective
Chapitre 9: Comparaison des méthodes
Chapitre 10: Optimisation de l’optimisation
Chapitre 11: Applications de l’optimisationCôte titre : Fs/24730-24731 Exemplaires (2)
Code-barres Cote Support Localisation Section Disponibilité Fs/24730 Fs/24730-24731 Livre Bibliothéque des sciences Français Disponible
DisponibleFs/24731 Fs/24730-24731 Livre Bibliothéque des sciences Français Disponible
Disponible
Titre : Interior Point Methods for Linear Optimization Type de document : texte imprimé Auteurs : Cornelis Roos Editeur : Berlin : Springer Année de publication : 2010 Importance : 1 vol. (497 p.) Présentation : ill. Format : 24 cm ISBN/ISSN/EAN : 978-1-4419-3887-9 Langues : Anglais (eng) Catégories : Mathématique Mots-clés : Optimisation Linéaire Index. décimale : 519.6 Optimisation mathématique Résumé :
Ce livre s'adresse à la communauté des chercheurs en optimisation, aux étudiants avancés et aux étudiants diplômés qui souhaitent connaître les fondamentaux et les principales variantes des Méthodes Point Point pour l'optimisation linéaire, qui souhaitent une introduction complète aux méthodes Point Point qui ont révolutionné la théorie et la pratique De l'optimisation moderneCôte titre : Fs/16546-16548 En ligne : https://www.amazon.fr/Interior-Point-Methods-Linear-Optimization-ebook/dp/B00FB1 [...] Format de la ressource électronique : Interior Point Methods for Linear Optimization [texte imprimé] / Cornelis Roos . - Berlin : Springer, 2010 . - 1 vol. (497 p.) : ill. ; 24 cm.
ISBN : 978-1-4419-3887-9
Langues : Anglais (eng)
Catégories : Mathématique Mots-clés : Optimisation Linéaire Index. décimale : 519.6 Optimisation mathématique Résumé :
Ce livre s'adresse à la communauté des chercheurs en optimisation, aux étudiants avancés et aux étudiants diplômés qui souhaitent connaître les fondamentaux et les principales variantes des Méthodes Point Point pour l'optimisation linéaire, qui souhaitent une introduction complète aux méthodes Point Point qui ont révolutionné la théorie et la pratique De l'optimisation moderneCôte titre : Fs/16546-16548 En ligne : https://www.amazon.fr/Interior-Point-Methods-Linear-Optimization-ebook/dp/B00FB1 [...] Format de la ressource électronique : Exemplaires (3)
Code-barres Cote Support Localisation Section Disponibilité Fs/16546 Fs/16546-16548 Livre Bibliothéque des sciences Français Disponible
Sorti jusqu'au 02/09/2024Fs/16547 Fs/16546-16548 Livre Bibliothéque des sciences Français Disponible
DisponibleFs/16548 Fs/16546-16548 Livre Bibliothéque des sciences Français Disponible
Disponible
Titre : Introduction à l'analyse numérique matricielle et à l'optimisation : Cours et exercices corrigés Type de document : texte imprimé Auteurs : Ciarlet, Philippe G ; Lions, Jacques-Louis Mention d'édition : Nouvelle présentation 2006 Editeur : Paris : Dunod Année de publication : 2006 Collection : Mathématiques appliquées pour le Master Importance : 1 vol. (279 p.) Présentation : graph., couv. ill. en coul. Format : 24 cm ISBN/ISSN/EAN : 978-2-10-050808-2 Catégories : Mathématique Mots-clés : Mathématiques : Manuels d'enseignement supérieur
Valeurs propres
Analyse numérique matricielle
Matrices
Optimisation mathématiqueIndex. décimale : 519.6 Optimisation mathématique Résumé :
Philippe G. Ciarlet est mondialement connu dans le domaine des mathématiques appliquées, et notamment de l'analyse numérique (résolution de problèmes complexes par des méthodes pouvant être mises en oeuvre sur ordinateur). Cet ouvrage est un classique de l'analyse numérique.
Initialement publié chez Masson, il est issu de la prestigieuse collection "Mathématiques appliquées pour la maîtrise", dirigée par P.G. Ciarlet et J.L. Lions.Note de contenu :
Sommaire
Méthodes directes de résolution de systèmes linéaires
Méthodes itératives
Méthodes de calcul des valeurs propres et des vecteurs propres
Optimisation : calcul différentiel
Généralités sur l'optimisation
Programmation non linéaire
Programmation linéaireCôte titre : Fs/16549-16553 Introduction à l'analyse numérique matricielle et à l'optimisation : Cours et exercices corrigés [texte imprimé] / Ciarlet, Philippe G ; Lions, Jacques-Louis . - Nouvelle présentation 2006 . - Paris : Dunod, 2006 . - 1 vol. (279 p.) : graph., couv. ill. en coul. ; 24 cm. - (Mathématiques appliquées pour le Master) .
ISBN : 978-2-10-050808-2
Catégories : Mathématique Mots-clés : Mathématiques : Manuels d'enseignement supérieur
Valeurs propres
Analyse numérique matricielle
Matrices
Optimisation mathématiqueIndex. décimale : 519.6 Optimisation mathématique Résumé :
Philippe G. Ciarlet est mondialement connu dans le domaine des mathématiques appliquées, et notamment de l'analyse numérique (résolution de problèmes complexes par des méthodes pouvant être mises en oeuvre sur ordinateur). Cet ouvrage est un classique de l'analyse numérique.
Initialement publié chez Masson, il est issu de la prestigieuse collection "Mathématiques appliquées pour la maîtrise", dirigée par P.G. Ciarlet et J.L. Lions.Note de contenu :
Sommaire
Méthodes directes de résolution de systèmes linéaires
Méthodes itératives
Méthodes de calcul des valeurs propres et des vecteurs propres
Optimisation : calcul différentiel
Généralités sur l'optimisation
Programmation non linéaire
Programmation linéaireCôte titre : Fs/16549-16553 Exemplaires (5)
Code-barres Cote Support Localisation Section Disponibilité Fs/16549 Fs/16549-16553 Livre Bibliothéque des sciences Français Disponible
DisponibleFs/16550 Fs/16549-16553 Livre Bibliothéque des sciences Français Disponible
DisponibleFs/16551 Fs/16549-16553 Livre Bibliothéque des sciences Français Disponible
DisponibleFs/16553 Fs/16549-16553 Livre Bibliothéque des sciences Français Disponible
DisponibleFs/16552 Fs/16549-16553 Livre Bibliothéque des sciences Français Disponible
DisponiblePermalinkPermalinkPermalinkPermalinkPermalinkPermalinkPermalinkPermalinkPermalinkPermalink