University Sétif 1 FERHAT ABBAS Faculty of Sciences
Détail de l'éditeur
Documents disponibles chez cet éditeur
Ajouter le résultat dans votre panier Affiner la recherche
Technologies des systèmes multi-agents et applications industrielles
Titre : Technologies des systèmes multi-agents et applications industrielles Type de document : texte imprimé Auteurs : Amal El Fallah Seghrouchni, Directeur de publication, rédacteur en chef ; Jean-Pierre Briot, Directeur de publication, rédacteur en chef Editeur : Paris : Hermès science publications-Lavoisier Année de publication : 2009 Collection : Traités IC2. Série Informatique et systèmes d'information Sous-collection : Informatique et systèmes d'information Importance : 1 vol. (267 p.) Présentation : ill. Format : 24 cm ISBN/ISSN/EAN : 978-2-7462-1785-0 Langues : Français (fre) Catégories : Informatique Mots-clés : Intelligence artificielle répartie : Applications industrielles
Systèmes d'information : Applications industriellesIndex. décimale : 006.3 - Intelligence artificielle Résumé :
Les systèmes multi-agents (SMA) constituent aujourd'hui une technologie de choix pour la conception et la mise en oeuvre d'applications réparties et coopératives. La dualité entre agent comme entité autonome et adaptative et système multi-agent comme organisation décentralisée coopérative offre en effet un cadre tout à fait privilégié pour aborder les enjeux de l'informatique de plus en plus dynamique et distribuée des applications du futur. Suite à leur importance croissante depuis les années 90 dans la communauté de recherche scientifique, les systèmes multi-agents sont depuis lors également sortis des laboratoires et sont de plus en plus convoités en milieu industriel. Ce livre a pour objectif de sensibiliser et faire le point sur les technologies actuelles des systèmes multi-agents, leurs liens avec d'autres technologies récentes, et leur mise en oeuvre à travers plusieurs domaines d'application. Il est destiné aux scientifiques, ingénieurs et responsables industriels souhaitant comprendre la technologie SMA et leurs applications, ainsi que leurs enjeux de recherche.Note de contenu :
Sommaire
Introduction aux systèmes multi-agents
Méthodes orientées agent et multi-agent
Interopérabilité des systèmes multi-agents à l'aide des services web
Agents situés : une nouvelle voie pour le développement d'applications industrielles
Composants logiciels et systèmes multi-agents
Des systèmes multitâches aux systèmes multi-agents
Systèmes multi-agents pour l'identification de cibles par un système multicapteur
Jeux vidéo et systèmes multi-agentsCôte titre : Fs/9137-9140 Technologies des systèmes multi-agents et applications industrielles [texte imprimé] / Amal El Fallah Seghrouchni, Directeur de publication, rédacteur en chef ; Jean-Pierre Briot, Directeur de publication, rédacteur en chef . - Paris : Hermès science publications-Lavoisier, 2009 . - 1 vol. (267 p.) : ill. ; 24 cm. - (Traités IC2. Série Informatique et systèmes d'information. Informatique et systèmes d'information) .
ISBN : 978-2-7462-1785-0
Langues : Français (fre)
Catégories : Informatique Mots-clés : Intelligence artificielle répartie : Applications industrielles
Systèmes d'information : Applications industriellesIndex. décimale : 006.3 - Intelligence artificielle Résumé :
Les systèmes multi-agents (SMA) constituent aujourd'hui une technologie de choix pour la conception et la mise en oeuvre d'applications réparties et coopératives. La dualité entre agent comme entité autonome et adaptative et système multi-agent comme organisation décentralisée coopérative offre en effet un cadre tout à fait privilégié pour aborder les enjeux de l'informatique de plus en plus dynamique et distribuée des applications du futur. Suite à leur importance croissante depuis les années 90 dans la communauté de recherche scientifique, les systèmes multi-agents sont depuis lors également sortis des laboratoires et sont de plus en plus convoités en milieu industriel. Ce livre a pour objectif de sensibiliser et faire le point sur les technologies actuelles des systèmes multi-agents, leurs liens avec d'autres technologies récentes, et leur mise en oeuvre à travers plusieurs domaines d'application. Il est destiné aux scientifiques, ingénieurs et responsables industriels souhaitant comprendre la technologie SMA et leurs applications, ainsi que leurs enjeux de recherche.Note de contenu :
Sommaire
Introduction aux systèmes multi-agents
Méthodes orientées agent et multi-agent
Interopérabilité des systèmes multi-agents à l'aide des services web
Agents situés : une nouvelle voie pour le développement d'applications industrielles
Composants logiciels et systèmes multi-agents
Des systèmes multitâches aux systèmes multi-agents
Systèmes multi-agents pour l'identification de cibles par un système multicapteur
Jeux vidéo et systèmes multi-agentsCôte titre : Fs/9137-9140 Exemplaires (4)
Code-barres Cote Support Localisation Section Disponibilité Fs/9137 Fs/9137-9140 livre Bibliothéque des sciences Français Disponible
DisponibleFs/9138 Fs/9137-9140 livre Bibliothéque des sciences Français Disponible
DisponibleFs/9139 Fs/9137-9140 livre Bibliothéque des sciences Français Disponible
DisponibleFs/9140 Fs/9137-9140 livre Bibliothéque des sciences Français Disponible
DisponibleThéorie de l'information et du codage / Olivier Rioul
Titre : Théorie de l'information et du codage Type de document : texte imprimé Auteurs : Olivier Rioul, Auteur Editeur : Paris : Hermès science publications-Lavoisier Année de publication : 2007 Importance : 1 vol. (286 p.) Présentation : ill. Format : 24 cm ISBN/ISSN/EAN : 978-2-7462-1719-5 Note générale : 978-2-7462-1719-5 Langues : Français (fre) Catégories : Informatique Mots-clés : Codage
Information, Théorie de l'
Théorie de l'informationIndex. décimale : 003.54 Théorie de l'information Résumé :
La théorie de l'information fournit les principes mathématiques nécessaires à la compréhension des systèmes de communication. Elle énonce, en particulier, les limites de performances possibles pour la compression et la transmission de données, clés de la conception des techniques modernes des télécommunications. Cet ouvrage présente les outils généraux de la théorie de l'information et met en évidence leurs applications au codage de source (compression d'information) et de canal (transmission d'information). Des exercices et problèmes complètent le texte.
Ce livre est une référence en français qui traite de la théorie de l'information en détail, depuis la présentation des outils de base de la théorie (entropie, divergence, information mutuelle, théorème du traitement de données, information de Fisher et variance entropique) jusqu'à la démonstration des théorèmes de Shannon (pour le codage de source avec ou sans pertes, le codage de canal et le codage conjoint source/canal). Il s'adresse aussi bien aux chercheurs et ingénieurs des télécommunications qu'aux étudiants de second cycle des universités et écoles d'ingénieurs.Note de contenu :
Sommaire
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
PREMIÈRE PARTIE. OUTILS DE LA THÉORIE DE L’INFORMATION . . . . 15
Chapitre 1. Entropie et entropie relative . . . . . . . . . . . . . . . . . . . . . 17
1.1. Rappels sur les variables aléatoires . . . . . . . . . . . . . . . . . . . . 17
1.1.1. Variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . 17
1.1.2. Variables aléatoires continues . . . . . . . . . . . . . . . . . . . . 20
1.1.3. Notation unifiée . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.2. Entropie H(X) d’une variable aléatoire . . . . . . . . . . . . . . . . . 23
1.3. Entropie différentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.4. Entropie relative ou divergence D(p, q) . . . . . . . . . . . . . . . . . 30
Chapitre 2. Traitement et information . . . . . . . . . . . . . . . . . . . . . . 35
2.1. Traitements et canaux . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.1.1. Traitements et canaux discrets . . . . . . . . . . . . . . . . . . . . 37
2.1.2. Traitements et canaux continus . . . . . . . . . . . . . . . . . . . . 42
2.1.3. Traitements et canaux réciproques . . . . . . . . . . . . . . . . . . 44
2.2. Information mutuelle I(X, Y ) . . . . . . . . . . . . . . . . . . . . . . 46
Chapitre 3. Information et entropie . . . . . . . . . . . . . . . . . . . . . . . 51
3.1. Information mutuelle et entropies . . . . . . . . . . . . . . . . . . . . . 51
3.2. Information et incertitude . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.3. Diagrammes de Venn . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.4. Information transmise sur des canaux discrets . . . . . . . . . . . . . . 58
3.5. Information et entropies différentielles . . . . . . . . . . . . . . . . . . 60
Chapitre 4. Concavité et Maximum d’entropie
6 Théorie de l’Information et du Codage
4.1. Propriétés de concavité et de convexité . . . . . . . . . . . . . . . . . . 67
4.2. Inégalité de Gibbs et borne de Shannon . . . . . . . . . . . . . . . . . 71
4.3. Inégalités de Fano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
Chapitre 5. Chaînes de traitement et perte d’information . . . . . . . . . . 83
5.1. Chaînes de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.1.1. Deux traitements successifs X → Y → Z . . . . . . . . . . . . . 83
5.1.2. Plusieurs traitements successifs X1 → X2 → · · · → Xn . . . . . 88
5.2. Développement de l’information sur plusieurs v.a. . . . . . . . . . . . 91
5.3. Traitement de données et information mutuelle . . . . . . . . . . . . . 97
5.4. Traitement de données et divergence . . . . . . . . . . . . . . . . . . . 102
Chapitre 6. Information de Fisher et e.q.m. minimale . . . . . . . . . . . . . 105
6.1. Information de Fisher paramétrique Jθ(X) . . . . . . . . . . . . . . . 105
6.2. Inégalité de Cramér-Rao . . . . . . . . . . . . . . . . . . . . . . . . . . 110
6.3. Traitement de données et information de Fisher . . . . . . . . . . . . . 113
6.4. Erreur quadratique moyenne minimale Var(θ|X) . . . . . . . . . . . . 116
6.5. Traitement de données et e.q.m. minimale . . . . . . . . . . . . . . . . 120
6.6. Information de Fisher non paramétrique et e.q.m.m. . . . . . . . . . . 121
Chapitre 7. Variance entropique et identité de de Bruijn . . . . . . . . . . . 125
7.1. Entropie et mélange de variables aléatoires . . . . . . . . . . . . . . . 125
7.2. Variance entropique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
7.3. Inégalité de l’information de Fisher . . . . . . . . . . . . . . . . . . . 133
7.4. Informations de Fisher et de Shannon . . . . . . . . . . . . . . . . . . 137
7.5. Identité de de Bruijn . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
DEUXIÈME PARTIE. LIMITES ET THÉORÈMES DE SHANNON . . . . . . . 145
Chapitre 8. Sources et canaux . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
8.1. Modèles de sources . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
8.2. Modèles de canaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
8.3. Entropie et information mutuelle des composantes . . . . . . . . . . . 159
Chapitre 9. Codage de source et de canal . . . . . . . . . . . . . . . . . . . . 165
9.1. Le problème général du codage . . . . . . . . . . . . . . . . . . . . . . 165
9.2. Codage de source . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
9.3. Codage de canal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
9.4. Codage de source/canal conjoint . . . . . . . . . . . . . . . . . . . . . 174
Chapitre 10. Limites de Shannon . . . . . . . . . . . . . . . . . . . . . . . . . 177
10.1. L’inégalité fondamentale du codage : OPTA . . . . . . . . . . . . . . . 177
10.2. Codage de source : fonction taux-distortion R(D) . . . . . . . . . . . 180
10.3. Codage de canal : fonction capacité-coût C(P) . . . . . . . . . . . . . 182
10.4. Allure des fonctions R(D) et C(P) . . . . . . . . . . . . . . . . . . . 184
10.5. Influence de la dimension . . . . . . . . . . . . . . . . . . . . . . . . . 190
10.6. Influence de la mémoire . . . . . . . . . . . . . . . . . . . . . . . . . . 192
Chapitre 11. Calcul théorique des limites de Shannon . . . . . . . . . . . . 197
11.1. R(D) pour une source sans mémoire . . . . . . . . . . . . . . . . . . . 197
11.2. C(P) pour un canal additif sans mémoire . . . . . . . . . . . . . . . . 202
11.3. Divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
Chapitre 12. Séquences typiques . . . . . . . . . . . . . . . . . . . . . . . . . 211
12.1. Séquences typiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
12.2. Séquences conjointement typiques . . . . . . . . . . . . . . . . . . . . 213
12.3. Inégalités de dépendance typique . . . . . . . . . . . . . . . . . . . . . 215
Chapitre 13. Théorèmes de Shannon . . . . . . . . . . . . . . . . . . . . . . . 217
13.1. Codage de source sans pertes . . . . . . . . . . . . . . . . . . . . . . . 217
13.2. Codage de canal sans contrainte de coût . . . . . . . . . . . . . . . . . 221
13.3. Codage de canal : cas général . . . . . . . . . . . . . . . . . . . . . . . 225
13.4. Codage de source avec pertes (cas général) . . . . . . . . . . . . . . . 226
13.5. Commentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
13.6. Codage source/canal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
13.7. L’éloge de la paresse . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
Annexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
A. Exercices pour la première partie . . . . . . . . . . . . . . . . . . . . . . 239
B. Problèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
B.1. Codage optimal pour le canal à effacement . . . . . . . . . . . . . 255
B.2. Capacité de Hartley du canal uniforme . . . . . . . . . . . . . . . 256
B.3. Calcul de capacité de canaux symétriques . . . . . . . . . . . . . . 257
B.4. Encadrement de la fonction taux-distorsion . . . . . . . . . . . . . 259
B.5. Encadrement de la capacité . . . . . . . . . . . . . . . . . . . . . . 260
B.6. Algorithme de Blahut-Arimoto . . . . . . . . . . . . . . . . . . . . 260
B.7. Capacité avec voie de retour . . . . . . . . . . . . . . . . . . . . . 263
B.8. Capacité d’un canal à états . . . . . . . . . . . . . . . . . . . . . . 264
B.9. Capacité d’un canal à états connus . . . . . . . . . . . . . . . . . . 266
B.10. Capacité du canal gaussien à évanouissements . . . . . . . . . . . 267
B.11. Capacité du canal de Gilbert-Elliott . . . . . . . . . . . . . . . . . 268
B.12. Entropie d’une source stationnaire . . . . . . . . . . . . . . . . . . 269
B.13. Capacité d’un canal binaire avec mémoire . . . . . . . . . . . . . 270
B.14. Systèmes sûrs en cryptographie à clef secrète . . . . . . . . . . . . 271
héorie de l’Information et du Codage
B.15. Codage source-canal tandem dans le cas gaussien . . . . . . . . . 273
B.16. Région de capacité d’un canal à accès multiple . . . . . . . . . . . 274
Bibliographie annotée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
IndCôte titre : Fs/12226-12230,Fs/12662 Théorie de l'information et du codage [texte imprimé] / Olivier Rioul, Auteur . - Paris : Hermès science publications-Lavoisier, 2007 . - 1 vol. (286 p.) : ill. ; 24 cm.
ISBN : 978-2-7462-1719-5
978-2-7462-1719-5
Langues : Français (fre)
Catégories : Informatique Mots-clés : Codage
Information, Théorie de l'
Théorie de l'informationIndex. décimale : 003.54 Théorie de l'information Résumé :
La théorie de l'information fournit les principes mathématiques nécessaires à la compréhension des systèmes de communication. Elle énonce, en particulier, les limites de performances possibles pour la compression et la transmission de données, clés de la conception des techniques modernes des télécommunications. Cet ouvrage présente les outils généraux de la théorie de l'information et met en évidence leurs applications au codage de source (compression d'information) et de canal (transmission d'information). Des exercices et problèmes complètent le texte.
Ce livre est une référence en français qui traite de la théorie de l'information en détail, depuis la présentation des outils de base de la théorie (entropie, divergence, information mutuelle, théorème du traitement de données, information de Fisher et variance entropique) jusqu'à la démonstration des théorèmes de Shannon (pour le codage de source avec ou sans pertes, le codage de canal et le codage conjoint source/canal). Il s'adresse aussi bien aux chercheurs et ingénieurs des télécommunications qu'aux étudiants de second cycle des universités et écoles d'ingénieurs.Note de contenu :
Sommaire
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
PREMIÈRE PARTIE. OUTILS DE LA THÉORIE DE L’INFORMATION . . . . 15
Chapitre 1. Entropie et entropie relative . . . . . . . . . . . . . . . . . . . . . 17
1.1. Rappels sur les variables aléatoires . . . . . . . . . . . . . . . . . . . . 17
1.1.1. Variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . 17
1.1.2. Variables aléatoires continues . . . . . . . . . . . . . . . . . . . . 20
1.1.3. Notation unifiée . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.2. Entropie H(X) d’une variable aléatoire . . . . . . . . . . . . . . . . . 23
1.3. Entropie différentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.4. Entropie relative ou divergence D(p, q) . . . . . . . . . . . . . . . . . 30
Chapitre 2. Traitement et information . . . . . . . . . . . . . . . . . . . . . . 35
2.1. Traitements et canaux . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.1.1. Traitements et canaux discrets . . . . . . . . . . . . . . . . . . . . 37
2.1.2. Traitements et canaux continus . . . . . . . . . . . . . . . . . . . . 42
2.1.3. Traitements et canaux réciproques . . . . . . . . . . . . . . . . . . 44
2.2. Information mutuelle I(X, Y ) . . . . . . . . . . . . . . . . . . . . . . 46
Chapitre 3. Information et entropie . . . . . . . . . . . . . . . . . . . . . . . 51
3.1. Information mutuelle et entropies . . . . . . . . . . . . . . . . . . . . . 51
3.2. Information et incertitude . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.3. Diagrammes de Venn . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.4. Information transmise sur des canaux discrets . . . . . . . . . . . . . . 58
3.5. Information et entropies différentielles . . . . . . . . . . . . . . . . . . 60
Chapitre 4. Concavité et Maximum d’entropie
6 Théorie de l’Information et du Codage
4.1. Propriétés de concavité et de convexité . . . . . . . . . . . . . . . . . . 67
4.2. Inégalité de Gibbs et borne de Shannon . . . . . . . . . . . . . . . . . 71
4.3. Inégalités de Fano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
Chapitre 5. Chaînes de traitement et perte d’information . . . . . . . . . . 83
5.1. Chaînes de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.1.1. Deux traitements successifs X → Y → Z . . . . . . . . . . . . . 83
5.1.2. Plusieurs traitements successifs X1 → X2 → · · · → Xn . . . . . 88
5.2. Développement de l’information sur plusieurs v.a. . . . . . . . . . . . 91
5.3. Traitement de données et information mutuelle . . . . . . . . . . . . . 97
5.4. Traitement de données et divergence . . . . . . . . . . . . . . . . . . . 102
Chapitre 6. Information de Fisher et e.q.m. minimale . . . . . . . . . . . . . 105
6.1. Information de Fisher paramétrique Jθ(X) . . . . . . . . . . . . . . . 105
6.2. Inégalité de Cramér-Rao . . . . . . . . . . . . . . . . . . . . . . . . . . 110
6.3. Traitement de données et information de Fisher . . . . . . . . . . . . . 113
6.4. Erreur quadratique moyenne minimale Var(θ|X) . . . . . . . . . . . . 116
6.5. Traitement de données et e.q.m. minimale . . . . . . . . . . . . . . . . 120
6.6. Information de Fisher non paramétrique et e.q.m.m. . . . . . . . . . . 121
Chapitre 7. Variance entropique et identité de de Bruijn . . . . . . . . . . . 125
7.1. Entropie et mélange de variables aléatoires . . . . . . . . . . . . . . . 125
7.2. Variance entropique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
7.3. Inégalité de l’information de Fisher . . . . . . . . . . . . . . . . . . . 133
7.4. Informations de Fisher et de Shannon . . . . . . . . . . . . . . . . . . 137
7.5. Identité de de Bruijn . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
DEUXIÈME PARTIE. LIMITES ET THÉORÈMES DE SHANNON . . . . . . . 145
Chapitre 8. Sources et canaux . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
8.1. Modèles de sources . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
8.2. Modèles de canaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
8.3. Entropie et information mutuelle des composantes . . . . . . . . . . . 159
Chapitre 9. Codage de source et de canal . . . . . . . . . . . . . . . . . . . . 165
9.1. Le problème général du codage . . . . . . . . . . . . . . . . . . . . . . 165
9.2. Codage de source . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
9.3. Codage de canal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
9.4. Codage de source/canal conjoint . . . . . . . . . . . . . . . . . . . . . 174
Chapitre 10. Limites de Shannon . . . . . . . . . . . . . . . . . . . . . . . . . 177
10.1. L’inégalité fondamentale du codage : OPTA . . . . . . . . . . . . . . . 177
10.2. Codage de source : fonction taux-distortion R(D) . . . . . . . . . . . 180
10.3. Codage de canal : fonction capacité-coût C(P) . . . . . . . . . . . . . 182
10.4. Allure des fonctions R(D) et C(P) . . . . . . . . . . . . . . . . . . . 184
10.5. Influence de la dimension . . . . . . . . . . . . . . . . . . . . . . . . . 190
10.6. Influence de la mémoire . . . . . . . . . . . . . . . . . . . . . . . . . . 192
Chapitre 11. Calcul théorique des limites de Shannon . . . . . . . . . . . . 197
11.1. R(D) pour une source sans mémoire . . . . . . . . . . . . . . . . . . . 197
11.2. C(P) pour un canal additif sans mémoire . . . . . . . . . . . . . . . . 202
11.3. Divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
Chapitre 12. Séquences typiques . . . . . . . . . . . . . . . . . . . . . . . . . 211
12.1. Séquences typiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
12.2. Séquences conjointement typiques . . . . . . . . . . . . . . . . . . . . 213
12.3. Inégalités de dépendance typique . . . . . . . . . . . . . . . . . . . . . 215
Chapitre 13. Théorèmes de Shannon . . . . . . . . . . . . . . . . . . . . . . . 217
13.1. Codage de source sans pertes . . . . . . . . . . . . . . . . . . . . . . . 217
13.2. Codage de canal sans contrainte de coût . . . . . . . . . . . . . . . . . 221
13.3. Codage de canal : cas général . . . . . . . . . . . . . . . . . . . . . . . 225
13.4. Codage de source avec pertes (cas général) . . . . . . . . . . . . . . . 226
13.5. Commentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
13.6. Codage source/canal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
13.7. L’éloge de la paresse . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
Annexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
A. Exercices pour la première partie . . . . . . . . . . . . . . . . . . . . . . 239
B. Problèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
B.1. Codage optimal pour le canal à effacement . . . . . . . . . . . . . 255
B.2. Capacité de Hartley du canal uniforme . . . . . . . . . . . . . . . 256
B.3. Calcul de capacité de canaux symétriques . . . . . . . . . . . . . . 257
B.4. Encadrement de la fonction taux-distorsion . . . . . . . . . . . . . 259
B.5. Encadrement de la capacité . . . . . . . . . . . . . . . . . . . . . . 260
B.6. Algorithme de Blahut-Arimoto . . . . . . . . . . . . . . . . . . . . 260
B.7. Capacité avec voie de retour . . . . . . . . . . . . . . . . . . . . . 263
B.8. Capacité d’un canal à états . . . . . . . . . . . . . . . . . . . . . . 264
B.9. Capacité d’un canal à états connus . . . . . . . . . . . . . . . . . . 266
B.10. Capacité du canal gaussien à évanouissements . . . . . . . . . . . 267
B.11. Capacité du canal de Gilbert-Elliott . . . . . . . . . . . . . . . . . 268
B.12. Entropie d’une source stationnaire . . . . . . . . . . . . . . . . . . 269
B.13. Capacité d’un canal binaire avec mémoire . . . . . . . . . . . . . 270
B.14. Systèmes sûrs en cryptographie à clef secrète . . . . . . . . . . . . 271
héorie de l’Information et du Codage
B.15. Codage source-canal tandem dans le cas gaussien . . . . . . . . . 273
B.16. Région de capacité d’un canal à accès multiple . . . . . . . . . . . 274
Bibliographie annotée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
IndCôte titre : Fs/12226-12230,Fs/12662 Exemplaires (6)
Code-barres Cote Support Localisation Section Disponibilité Fs/12226 Fs/12226-12230 livre Bibliothéque des sciences Français Disponible
DisponibleFs/12227 Fs/12226-12230 livre Bibliothéque des sciences Français Disponible
DisponibleFs/12228 Fs/12226-12230 livre Bibliothéque des sciences Français Disponible
DisponibleFs/12229 Fs/12226-12230 livre Bibliothéque des sciences Français Disponible
DisponibleFs/12230 Fs/12226-12230 livre Bibliothéque des sciences Français Disponible
DisponibleFs/12662 Fs/12662 livre Bibliothéque des sciences Français Disponible
DisponibleThéorie des probabilités / Olivier Rioul
Titre : Théorie des probabilités Type de document : texte imprimé Auteurs : Olivier Rioul, Auteur Editeur : Paris : Hermès science publications-Lavoisier Année de publication : 2008 Collection : Collection Sciences et technologies (Paris. 2004), ISSN 1952-2401 Importance : 1 vol. (364 p.) Présentation : ill., couv. ill. en coul. Format : 24 cm ISBN/ISSN/EAN : 978-2-7462-1720-1 Note générale : Bibliogr. p. 357-358. Index Langues : Français (fre) Catégories : Mathématique Mots-clés : Probabilités
Processus stochastiques
Théorèmes des limites (théorie des probabilités)Index. décimale : 519.2 Probabilités Résumé :
Cet ouvrage propose une approche non dogmatique de la théorie des probabilités, qui combine la description mathématique à une compréhension intuitive des idées sous-jacentes. De la définition de la probabilité jusqu'aux processus ergodiques, en passant par le conditionnement et les lois des grands nombres, les concepts exposés, même les plus abstraits, sont traités avec rigueur dans un langage accessible et illustrés par de nombreux exemples. Les variables et vecteurs aléatoires sont définis directement par des distributions de probabilité, sans faire appel, au préalable, à la théorie abstraite de la mesure. Les cas discret et continu sont traités ensemble, par une notation unifiée qui simplifie les calculs. Les notions les plus avancées, comme les définitions de convergence et la construction de processus, sont exposées en détail en fin d'ouvrage.
Par son approche originale, Théorie des probabilités permet une appréhension rapide des outils de calcul pour les besoins pratiques dans les différents domaines des sciences physiques et de l'ingénieur, sans pour autant abandonner l'intérêt d'une étude suffisamment rigoureuse des concepts.Note de contenu :
Sommaire
Bases de la théorie des probabilités
Classification des variables aléatoires
Fonctions et composantes de vecteurs aléatoires
Indépendance
Conditionnement
Espérance
Moments et fonction caractéristique
Inégalités
Corrélation linéaire
Vecteurs gaussiens réels et complexes
Estimation et corrélation non linéaire
Lois des grands nombres
Processus aléatoires, stationnaires, ergodiques
Annexe. Exercices et problèmesCôte titre : Fs/13714-13716,Fs/9883-9886 Théorie des probabilités [texte imprimé] / Olivier Rioul, Auteur . - Paris : Hermès science publications-Lavoisier, 2008 . - 1 vol. (364 p.) : ill., couv. ill. en coul. ; 24 cm. - (Collection Sciences et technologies (Paris. 2004), ISSN 1952-2401) .
ISBN : 978-2-7462-1720-1
Bibliogr. p. 357-358. Index
Langues : Français (fre)
Catégories : Mathématique Mots-clés : Probabilités
Processus stochastiques
Théorèmes des limites (théorie des probabilités)Index. décimale : 519.2 Probabilités Résumé :
Cet ouvrage propose une approche non dogmatique de la théorie des probabilités, qui combine la description mathématique à une compréhension intuitive des idées sous-jacentes. De la définition de la probabilité jusqu'aux processus ergodiques, en passant par le conditionnement et les lois des grands nombres, les concepts exposés, même les plus abstraits, sont traités avec rigueur dans un langage accessible et illustrés par de nombreux exemples. Les variables et vecteurs aléatoires sont définis directement par des distributions de probabilité, sans faire appel, au préalable, à la théorie abstraite de la mesure. Les cas discret et continu sont traités ensemble, par une notation unifiée qui simplifie les calculs. Les notions les plus avancées, comme les définitions de convergence et la construction de processus, sont exposées en détail en fin d'ouvrage.
Par son approche originale, Théorie des probabilités permet une appréhension rapide des outils de calcul pour les besoins pratiques dans les différents domaines des sciences physiques et de l'ingénieur, sans pour autant abandonner l'intérêt d'une étude suffisamment rigoureuse des concepts.Note de contenu :
Sommaire
Bases de la théorie des probabilités
Classification des variables aléatoires
Fonctions et composantes de vecteurs aléatoires
Indépendance
Conditionnement
Espérance
Moments et fonction caractéristique
Inégalités
Corrélation linéaire
Vecteurs gaussiens réels et complexes
Estimation et corrélation non linéaire
Lois des grands nombres
Processus aléatoires, stationnaires, ergodiques
Annexe. Exercices et problèmesCôte titre : Fs/13714-13716,Fs/9883-9886 Exemplaires (7)
Code-barres Cote Support Localisation Section Disponibilité Fs/13716 Fs/13714-13716 Livre Bibliothéque des sciences Français Disponible
DisponibleFs/13714 Fs/13714-13716 Livre Bibliothéque des sciences Français Disponible
DisponibleFs/13715 Fs/13714-13716 Livre Bibliothéque des sciences Français Disponible
DisponibleFs/9883 Fs/9883-9886 livre Bibliothéque des sciences Français Disponible
DisponibleFs/9884 Fs/9883-9886 livre Bibliothéque des sciences Français Disponible
DisponibleFs/9885 Fs/9883-9886 livre Bibliothéque des sciences Français Disponible
DisponibleFs/9886 Fs/9883-9886 livre Bibliothéque des sciences Français Disponible
DisponibleVibrations, ondes et optique, 1. Vibrations mécaniques et électromagnétiques / Tamer Bécherrawy
Titre de série : Vibrations, ondes et optique, 1 Titre : Vibrations mécaniques et électromagnétiques Type de document : texte imprimé Auteurs : Tamer Bécherrawy, Auteur Editeur : Paris : Hermès science publications-Lavoisier Année de publication : impr. 2007 Collection : Collection Sciences et technologies (Paris. 2004), ISSN 1952-2401 num. volume 1 Importance : 1 vol. (487 p.) Présentation : ill. Format : 24 cm ISBN/ISSN/EAN : 978-2-7462-1895-6 Note générale : Bibliogr. p. 479-482. Index Langues : Français (fre) Catégories : Physique Mots-clés : Vibrations
Électromagnétisme : Problèmes et exercices
Analyse de Fourier
Oscillations
Oscillations : Problèmes et exercicesIndex. décimale : 620.3 Vibrations mécaniques Résumé :
Adapté aux tendances actuelles de l'enseignement de la physique, cet ouvrage permet l'étude approfondie des vibrations mécaniques et électromagnétiques à un et à plusieurs degrés de liberté. Il présente en détail les principes de base et les notions-clés telles que l'analyse de Fourier, les filtres et les systèmes de transmission, et démontre avec clarté et rigueur les lois régissant ces phénomènes vibratoires : Pour une meilleure analyse des systèmes physiques et de leurs comportements oscillatoires, les techniques mathématiques utiles sont également graduellement introduites et les aspects physiques longuement développés.
Didactique, Vibrations, ondes et optique : vibrations mécaniques et électromagnétiques mêle théorie et pratique en proposant à chaque chapitre un ensemble d'outils pédagogiques : des exemples résolus, un résumé des principaux résultats, des conseils pour la résolution des problèmes posés, des questions de réflexion et de nombreux exercices groupés par sections et classés par difficulté croissante, allant des simples applications à des exercices qui nécessitent une analyse poussée.Note de contenu :
Sommaire
Avant-propos
Oscillations, notions élémentaires
Systèmes mécaniques libres à un degré de liberté
Vibrations électromagnétiques
Superposition des grandeurs harmoniques, analyse de Fourier
Systèmes à plusieurs degrés de liberté
Oscillations forcées
Analyse de Fourier, transformation de Laplace : approfondissement
Filtres et systèmes de transmission
Réponses de quelques exercices
Annexe 1. Quelques relations mathématiques
Annexe 2. Unités en physique
Annexe 3. Quelques constantes physiques
Bibliographie
IndexCôte titre : Fs/3613-3619,Fs/3622,Fs/6893-6894 Vibrations, ondes et optique, 1. Vibrations mécaniques et électromagnétiques [texte imprimé] / Tamer Bécherrawy, Auteur . - Paris : Hermès science publications-Lavoisier, impr. 2007 . - 1 vol. (487 p.) : ill. ; 24 cm. - (Collection Sciences et technologies (Paris. 2004), ISSN 1952-2401; volume 1) .
ISBN : 978-2-7462-1895-6
Bibliogr. p. 479-482. Index
Langues : Français (fre)
Catégories : Physique Mots-clés : Vibrations
Électromagnétisme : Problèmes et exercices
Analyse de Fourier
Oscillations
Oscillations : Problèmes et exercicesIndex. décimale : 620.3 Vibrations mécaniques Résumé :
Adapté aux tendances actuelles de l'enseignement de la physique, cet ouvrage permet l'étude approfondie des vibrations mécaniques et électromagnétiques à un et à plusieurs degrés de liberté. Il présente en détail les principes de base et les notions-clés telles que l'analyse de Fourier, les filtres et les systèmes de transmission, et démontre avec clarté et rigueur les lois régissant ces phénomènes vibratoires : Pour une meilleure analyse des systèmes physiques et de leurs comportements oscillatoires, les techniques mathématiques utiles sont également graduellement introduites et les aspects physiques longuement développés.
Didactique, Vibrations, ondes et optique : vibrations mécaniques et électromagnétiques mêle théorie et pratique en proposant à chaque chapitre un ensemble d'outils pédagogiques : des exemples résolus, un résumé des principaux résultats, des conseils pour la résolution des problèmes posés, des questions de réflexion et de nombreux exercices groupés par sections et classés par difficulté croissante, allant des simples applications à des exercices qui nécessitent une analyse poussée.Note de contenu :
Sommaire
Avant-propos
Oscillations, notions élémentaires
Systèmes mécaniques libres à un degré de liberté
Vibrations électromagnétiques
Superposition des grandeurs harmoniques, analyse de Fourier
Systèmes à plusieurs degrés de liberté
Oscillations forcées
Analyse de Fourier, transformation de Laplace : approfondissement
Filtres et systèmes de transmission
Réponses de quelques exercices
Annexe 1. Quelques relations mathématiques
Annexe 2. Unités en physique
Annexe 3. Quelques constantes physiques
Bibliographie
IndexCôte titre : Fs/3613-3619,Fs/3622,Fs/6893-6894 Exemplaires (11)
Code-barres Cote Support Localisation Section Disponibilité Fs/3613 Fs/3613-3619 Livre Bibliothéque des sciences Français Disponible
DisponibleFs/3613-3619 Fs/3613-3619 Livre Bibliothéque des sciences Français Disponible
DisponibleFs/3614 Fs/3613-3619 Livre Bibliothéque des sciences Français Disponible
DisponibleFs/3615 Fs/3613-3619 Livre Bibliothéque des sciences Français Disponible
DisponibleFs/3616 Fs/3613-3619 Livre Bibliothéque des sciences Français Disponible
DisponibleFs/3617 Fs/3613-3619 Livre Bibliothéque des sciences Français Disponible
DisponibleFs/3618 Fs/3613-3619 Livre Bibliothéque des sciences Français Disponible
DisponibleFs/3619 Fs/3613-3619 Livre Bibliothéque des sciences Français Disponible
DisponibleFs/3622 Fs/3622 Livre Bibliothéque des sciences Français Disponible
DisponibleFs/6893 Fs/6893-6894 livre Bibliothéque des sciences Français Disponible
DisponibleFs/6894 Fs/6893-6894 livre Bibliothéque des sciences Français Disponible
DisponibleVibrations, ondes et optique, 2. Ondes mécaniques / Tamer Bécherrawy
Titre de série : Vibrations, ondes et optique, 2 Titre : Ondes mécaniques Type de document : texte imprimé Auteurs : Tamer Bécherrawy, Auteur Editeur : Paris : Hermès science publications-Lavoisier Année de publication : 2008 Collection : Collection Sciences et technologies (Paris. 2004), ISSN 1952-2401 num. volume 2 Importance : 1 vol. (415 p.) Présentation : ill. Format : 24 cm ISBN/ISSN/EAN : 978-2-7462-1896-3 Note générale : Bibliogr. p. 399-401. Index Langues : Français (fre) Catégories : Physique Mots-clés : Ondes
Ondes élastiques : Problèmes et exercices
Ondes sonoresIndex. décimale : 531.1 Dynamique, gravité, masse, mécanique des particules Résumé :
Adapté aux tendances actuelles de l'enseignement de la physique, cet ouvrage permet une étude approfondie des ondes mécaniques. Il présente en détail les principes de base (équations de propagation, propagation de l'énergie, lois de conservation, ondes élastiques, sonores et à la surface des liquides) et expose les notions-clés telles que la réflexion, l'interférence, la diffraction de sondes et leur propagation dans les milieux limités (ondes guidées et stationnaires). Les techniques mathématiques et les aspects physiques sont également longuement développés afin de démontrer avec clarté et rigueur les lois régissant les ondes mécaniques. Didactique, Vibrations, ondes et optique : ondes mécaniques propose, dans chaque chapitre, un ensemble d'outils pédagogiques : des exemples résolus, un résumé des principaux résultats, des conseils pour la résolution des problèmes posés, des questions de réflexion et de nombreux exercices groupés par sections et classés par difficulté croissante, allant des simples applications à des exercices qui nécessitent une analyse poussée.Côte titre : Fs/3620-3621,Fs/3623-3628 Vibrations, ondes et optique, 2. Ondes mécaniques [texte imprimé] / Tamer Bécherrawy, Auteur . - Paris : Hermès science publications-Lavoisier, 2008 . - 1 vol. (415 p.) : ill. ; 24 cm. - (Collection Sciences et technologies (Paris. 2004), ISSN 1952-2401; volume 2) .
ISBN : 978-2-7462-1896-3
Bibliogr. p. 399-401. Index
Langues : Français (fre)
Catégories : Physique Mots-clés : Ondes
Ondes élastiques : Problèmes et exercices
Ondes sonoresIndex. décimale : 531.1 Dynamique, gravité, masse, mécanique des particules Résumé :
Adapté aux tendances actuelles de l'enseignement de la physique, cet ouvrage permet une étude approfondie des ondes mécaniques. Il présente en détail les principes de base (équations de propagation, propagation de l'énergie, lois de conservation, ondes élastiques, sonores et à la surface des liquides) et expose les notions-clés telles que la réflexion, l'interférence, la diffraction de sondes et leur propagation dans les milieux limités (ondes guidées et stationnaires). Les techniques mathématiques et les aspects physiques sont également longuement développés afin de démontrer avec clarté et rigueur les lois régissant les ondes mécaniques. Didactique, Vibrations, ondes et optique : ondes mécaniques propose, dans chaque chapitre, un ensemble d'outils pédagogiques : des exemples résolus, un résumé des principaux résultats, des conseils pour la résolution des problèmes posés, des questions de réflexion et de nombreux exercices groupés par sections et classés par difficulté croissante, allant des simples applications à des exercices qui nécessitent une analyse poussée.Côte titre : Fs/3620-3621,Fs/3623-3628 Exemplaires (8)
Code-barres Cote Support Localisation Section Disponibilité Fs/3620 Fs/3620-3621 Livre Bibliothéque des sciences Français Disponible
DisponibleFs/3621 Fs/3620-3621 Livre Bibliothéque des sciences Français Disponible
DisponibleFs/3623 Fs/3623-3628 Livre Bibliothéque des sciences Français Disponible
DisponibleFs/3624 Fs/3623-3628 Livre Bibliothéque des sciences Français Disponible
DisponibleFs/3625 Fs/3623-3628 Livre Bibliothéque des sciences Français Disponible
DisponibleFs/3626 Fs/3623-3628 Livre Bibliothéque des sciences Français Disponible
DisponibleFs/3627 Fs/3623-3628 Livre Bibliothéque des sciences Français Disponible
DisponibleFs/3628 Fs/3623-3628 Livre Bibliothéque des sciences Français Disponible
DisponibleVibrations, ondes et optique, 3. Ondes électromagnétiques / Tamer Bécherrawy
Permalink