University Sétif 1 FERHAT ABBAS Faculty of Sciences
Détail de l'indexation
Ouvrages de la bibliothèque en indexation 003.54



Titre : Machine and Deep Learning for Detection of Hate Speech in Videos Type de document : texte imprimé Auteurs : Kram,Amira, Auteur ; Toumi,Lyazid, Directeur de thèse Editeur : Setif:UFA Année de publication : 2021 Importance : 1 vol (67 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Informatique Mots-clés : Hate speech
Oensive language
Videos
Natural language
processingIndex. décimale : 003.54 Théorie de l'information Résumé :
In the last decade, the social network became popular, and the emergence
of the phenomenon of hate speech has been observed. A streaming platforms
like YouTube contains a lot of videos in dierent languages. The Arabic
videos with hate speech become a noticeable problem that requires the development
of automated tools to detect oensive language that aects all
categories of people who use YouTube.
The Arabic language is a Semitic language, but unfortunately, there is a
few scientic research concerning this language. The limited availability of
tools using the Arabic language makes to propose an automation tool is more
dicult. To our knowledge, this work is the rst that propose an automation
tool for detecting hate speech in Arabic videos.
In this master thesis, we propose to build an Arabic videos dataset from
the YouTube stream platform, how we annotated it, and using NLP techniques
for pre-processing step. Then, we applied popular machine learning
classiers using BOW, ngrams, TF-IDF and we propose deep learning methods
to solve our problem. Finally, the experiments on the used dataset show
that the support vector machines model gives the best performance for our
problem than the best known other classiers.
Côte titre : MAI/0475 En ligne : https://drive.google.com/file/d/1YUryxThPYFAP9g3mN0eCTHG4ZpUP8VT_/view?usp=shari [...] Format de la ressource électronique : Machine and Deep Learning for Detection of Hate Speech in Videos [texte imprimé] / Kram,Amira, Auteur ; Toumi,Lyazid, Directeur de thèse . - [S.l.] : Setif:UFA, 2021 . - 1 vol (67 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Hate speech
Oensive language
Videos
Natural language
processingIndex. décimale : 003.54 Théorie de l'information Résumé :
In the last decade, the social network became popular, and the emergence
of the phenomenon of hate speech has been observed. A streaming platforms
like YouTube contains a lot of videos in dierent languages. The Arabic
videos with hate speech become a noticeable problem that requires the development
of automated tools to detect oensive language that aects all
categories of people who use YouTube.
The Arabic language is a Semitic language, but unfortunately, there is a
few scientic research concerning this language. The limited availability of
tools using the Arabic language makes to propose an automation tool is more
dicult. To our knowledge, this work is the rst that propose an automation
tool for detecting hate speech in Arabic videos.
In this master thesis, we propose to build an Arabic videos dataset from
the YouTube stream platform, how we annotated it, and using NLP techniques
for pre-processing step. Then, we applied popular machine learning
classiers using BOW, ngrams, TF-IDF and we propose deep learning methods
to solve our problem. Finally, the experiments on the used dataset show
that the support vector machines model gives the best performance for our
problem than the best known other classiers.
Côte titre : MAI/0475 En ligne : https://drive.google.com/file/d/1YUryxThPYFAP9g3mN0eCTHG4ZpUP8VT_/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0475 MAI/0475 Mémoire Bibliothéque des sciences Anglais Disponible
DisponibleUn Systeme de Detection d'intrusion base sur l'Apprentissage Automatique pour l'Internet des Objets / Khellaf,Amani
![]()
Titre : Un Systeme de Detection d'intrusion base sur l'Apprentissage Automatique pour l'Internet des Objets Type de document : texte imprimé Auteurs : Khellaf,Amani, Auteur ; Fenanir,Samir, Directeur de thèse Editeur : Setif:UFA Année de publication : 2021 Importance : 1 vol (83 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Informatique Mots-clés : Internet des objets (IoT)
Systeme de detection d'intrusion (IDS)Index. décimale : 003.54 Théorie de l'information Résumé :
L'Internet des objets (Internet of Things ou IoT), permet de combiner toute sorte
de communication, tout le temps, pour tout le monde, et sur n'importe quel objet.
Bien que l'IoT ore un ensemble impressionnant d'avantages, il presente egalement
un ensemble de des, ou la securite est le principal de.
Pour ameliorer la securite de l'IoT, dans ce memoire nous proposons un nouveau
systeme de detection d'intrusion qui est un systeme de detection d'intrusion leger
(LIDS).
Nous avons construit un modele de classication base sur l'apprentissage
automatique qui sera en mesure de classer et d'identier les dierentes attaques.
En premier lieu, nous presentons les techniques utilisees pour le pretraitement
de l'ensemble de donnees. Ensuit, nous utilisons cinq techniques de selection des
attributs pour diminuer le cout de calcul. Dierents algorithmes d'apprentissage
automatique (ML) ont ete utilises pour la classication : regression logistique
(LR), Bayes naf (NB), arbre de decision (DT), for^et aleatoire (RF), k-plus proche
voisin (KNN), machine a vecteurs de support (SVM) et perceptron multicouche
(MLP). Nous les avons evalues et compares, puis nous proposons un systeme
base sur l'algorithme le plus performant. Nous avons selectionne les algorithmes
arbre de decision (DT) etCôte titre : MAI/0510 En ligne : https://drive.google.com/file/d/1K_lXmcS_kRfvyXO0Wab7xGLeRJ3Xfa8q/view?usp=shari [...] Format de la ressource électronique : Un Systeme de Detection d'intrusion base sur l'Apprentissage Automatique pour l'Internet des Objets [texte imprimé] / Khellaf,Amani, Auteur ; Fenanir,Samir, Directeur de thèse . - [S.l.] : Setif:UFA, 2021 . - 1 vol (83 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Internet des objets (IoT)
Systeme de detection d'intrusion (IDS)Index. décimale : 003.54 Théorie de l'information Résumé :
L'Internet des objets (Internet of Things ou IoT), permet de combiner toute sorte
de communication, tout le temps, pour tout le monde, et sur n'importe quel objet.
Bien que l'IoT ore un ensemble impressionnant d'avantages, il presente egalement
un ensemble de des, ou la securite est le principal de.
Pour ameliorer la securite de l'IoT, dans ce memoire nous proposons un nouveau
systeme de detection d'intrusion qui est un systeme de detection d'intrusion leger
(LIDS).
Nous avons construit un modele de classication base sur l'apprentissage
automatique qui sera en mesure de classer et d'identier les dierentes attaques.
En premier lieu, nous presentons les techniques utilisees pour le pretraitement
de l'ensemble de donnees. Ensuit, nous utilisons cinq techniques de selection des
attributs pour diminuer le cout de calcul. Dierents algorithmes d'apprentissage
automatique (ML) ont ete utilises pour la classication : regression logistique
(LR), Bayes naf (NB), arbre de decision (DT), for^et aleatoire (RF), k-plus proche
voisin (KNN), machine a vecteurs de support (SVM) et perceptron multicouche
(MLP). Nous les avons evalues et compares, puis nous proposons un systeme
base sur l'algorithme le plus performant. Nous avons selectionne les algorithmes
arbre de decision (DT) etCôte titre : MAI/0510 En ligne : https://drive.google.com/file/d/1K_lXmcS_kRfvyXO0Wab7xGLeRJ3Xfa8q/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0510 MAI/0510 livre Bibliothéque des sciences Français Disponible
Disponible
Titre : Théorie des codes : compression, cryptage, correction Type de document : texte imprimé Auteurs : Jean-Guillaume Dumas (1975-....), ; Jean-Louis Roch (19..-....), ; Eric Tannier (1974-....), ; Sébastien Varrette, Mention d'édition : 3e édition. Editeur : Dunod Année de publication : DL 2018. Collection : Info sup (Paris. 2015), ISSN 2429-263X. Importance : 1 vol. (401 p.) Présentation : ill., fig., graph., couv. ill. en coul. Format : 24 cm. ISBN/ISSN/EAN : 978-2-10-078109-6 Langues : Français (fre) Catégories : Informatique Mots-clés : Informatique Index. décimale : 003.54 Théorie de l'information Résumé :
La 4e de couverture indique : "Cet ouvrage est destin© aux ©tudiants en master de mathématiques appliqu©es ou d'informatique ainsi qu'aux ©l¨ves ing©nieurs. Il sera egalement utile  tous ceux qui travaillent dans les t©l©communications ou la cybers©curit©. L'efficacit©, la s©curit©, l'int©grit© sont les trois pr©occupations essentielles de ceux qui con§oivent des m©thodes de transmission de l'information. Pour y parvenir la th©orie des codes s'appuie sur un certain nombre d'outils issus de l'alg¨bre lin©aire, de l'arithm©tique, des probabilit©s et de l'algorithmique qui sont pr©sent©s de mani¨re p©dagogique et approfondie dans ce livre. Les notions de cours sont illustr©es par pr¨s de 150 exercices corrig©s."Note de contenu :
Sommaire
Théorie des codes
Codage par flots et probabilités
Codage par blocs, algèbre et arithmétique
Décoder, déchiffrer, attaquer
Théorie de l'information et compression
Codage statistique
Heuristiques de réduction d'entropie
Codes compresseurs usuels
La compression audio/video avec perte
Cryptologie
Principes généraux et terminologie
Attaques sur les systèmes cryptographiques
Système cryptographique à clef secrète
Système cryptographique à clef publique
Authentification, intégrité, non-répudiation et signatures électroniques
Protocoles usuels de gestion de clef
Détection et corrections d'erreurs
Détections d'erreurs par parité
Distance d'un code
Codes linéaires et codes cycliques
Paquets d'erreurs et entrelacement
Codes convolutifs et turbo-codes.
Côte titre : Fs/23414 Théorie des codes : compression, cryptage, correction [texte imprimé] / Jean-Guillaume Dumas (1975-....), ; Jean-Louis Roch (19..-....), ; Eric Tannier (1974-....), ; Sébastien Varrette, . - 3e édition. . - [S.l.] : Dunod, DL 2018. . - 1 vol. (401 p.) : ill., fig., graph., couv. ill. en coul. ; 24 cm.. - (Info sup (Paris. 2015), ISSN 2429-263X.) .
ISBN : 978-2-10-078109-6
Langues : Français (fre)
Catégories : Informatique Mots-clés : Informatique Index. décimale : 003.54 Théorie de l'information Résumé :
La 4e de couverture indique : "Cet ouvrage est destin© aux ©tudiants en master de mathématiques appliqu©es ou d'informatique ainsi qu'aux ©l¨ves ing©nieurs. Il sera egalement utile  tous ceux qui travaillent dans les t©l©communications ou la cybers©curit©. L'efficacit©, la s©curit©, l'int©grit© sont les trois pr©occupations essentielles de ceux qui con§oivent des m©thodes de transmission de l'information. Pour y parvenir la th©orie des codes s'appuie sur un certain nombre d'outils issus de l'alg¨bre lin©aire, de l'arithm©tique, des probabilit©s et de l'algorithmique qui sont pr©sent©s de mani¨re p©dagogique et approfondie dans ce livre. Les notions de cours sont illustr©es par pr¨s de 150 exercices corrig©s."Note de contenu :
Sommaire
Théorie des codes
Codage par flots et probabilités
Codage par blocs, algèbre et arithmétique
Décoder, déchiffrer, attaquer
Théorie de l'information et compression
Codage statistique
Heuristiques de réduction d'entropie
Codes compresseurs usuels
La compression audio/video avec perte
Cryptologie
Principes généraux et terminologie
Attaques sur les systèmes cryptographiques
Système cryptographique à clef secrète
Système cryptographique à clef publique
Authentification, intégrité, non-répudiation et signatures électroniques
Protocoles usuels de gestion de clef
Détection et corrections d'erreurs
Détections d'erreurs par parité
Distance d'un code
Codes linéaires et codes cycliques
Paquets d'erreurs et entrelacement
Codes convolutifs et turbo-codes.
Côte titre : Fs/23414 Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité Fs/23414 Fs/23414 livre Bibliothéque des sciences Français Disponible
Disponible
Titre : Théorie de l'information et du codage Type de document : texte imprimé Auteurs : Olivier Rioul, Auteur Editeur : Paris : Hermès science publications-Lavoisier Année de publication : 2007 Importance : 1 vol. (286 p.) Présentation : ill. Format : 24 cm ISBN/ISSN/EAN : 978-2-7462-1719-5 Note générale : 978-2-7462-1719-5 Langues : Français (fre) Catégories : Informatique Mots-clés : Codage
Information, Théorie de l'
Théorie de l'informationIndex. décimale : 003.54 Théorie de l'information Résumé :
La théorie de l'information fournit les principes mathématiques nécessaires à la compréhension des systèmes de communication. Elle énonce, en particulier, les limites de performances possibles pour la compression et la transmission de données, clés de la conception des techniques modernes des télécommunications. Cet ouvrage présente les outils généraux de la théorie de l'information et met en évidence leurs applications au codage de source (compression d'information) et de canal (transmission d'information). Des exercices et problèmes complètent le texte.
Ce livre est une référence en français qui traite de la théorie de l'information en détail, depuis la présentation des outils de base de la théorie (entropie, divergence, information mutuelle, théorème du traitement de données, information de Fisher et variance entropique) jusqu'à la démonstration des théorèmes de Shannon (pour le codage de source avec ou sans pertes, le codage de canal et le codage conjoint source/canal). Il s'adresse aussi bien aux chercheurs et ingénieurs des télécommunications qu'aux étudiants de second cycle des universités et écoles d'ingénieurs.Note de contenu :
Sommaire
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
PREMIÈRE PARTIE. OUTILS DE LA THÉORIE DE L’INFORMATION . . . . 15
Chapitre 1. Entropie et entropie relative . . . . . . . . . . . . . . . . . . . . . 17
1.1. Rappels sur les variables aléatoires . . . . . . . . . . . . . . . . . . . . 17
1.1.1. Variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . 17
1.1.2. Variables aléatoires continues . . . . . . . . . . . . . . . . . . . . 20
1.1.3. Notation unifiée . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.2. Entropie H(X) d’une variable aléatoire . . . . . . . . . . . . . . . . . 23
1.3. Entropie différentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.4. Entropie relative ou divergence D(p, q) . . . . . . . . . . . . . . . . . 30
Chapitre 2. Traitement et information . . . . . . . . . . . . . . . . . . . . . . 35
2.1. Traitements et canaux . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.1.1. Traitements et canaux discrets . . . . . . . . . . . . . . . . . . . . 37
2.1.2. Traitements et canaux continus . . . . . . . . . . . . . . . . . . . . 42
2.1.3. Traitements et canaux réciproques . . . . . . . . . . . . . . . . . . 44
2.2. Information mutuelle I(X, Y ) . . . . . . . . . . . . . . . . . . . . . . 46
Chapitre 3. Information et entropie . . . . . . . . . . . . . . . . . . . . . . . 51
3.1. Information mutuelle et entropies . . . . . . . . . . . . . . . . . . . . . 51
3.2. Information et incertitude . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.3. Diagrammes de Venn . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.4. Information transmise sur des canaux discrets . . . . . . . . . . . . . . 58
3.5. Information et entropies différentielles . . . . . . . . . . . . . . . . . . 60
Chapitre 4. Concavité et Maximum d’entropie
6 Théorie de l’Information et du Codage
4.1. Propriétés de concavité et de convexité . . . . . . . . . . . . . . . . . . 67
4.2. Inégalité de Gibbs et borne de Shannon . . . . . . . . . . . . . . . . . 71
4.3. Inégalités de Fano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
Chapitre 5. Chaînes de traitement et perte d’information . . . . . . . . . . 83
5.1. Chaînes de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.1.1. Deux traitements successifs X → Y → Z . . . . . . . . . . . . . 83
5.1.2. Plusieurs traitements successifs X1 → X2 → · · · → Xn . . . . . 88
5.2. Développement de l’information sur plusieurs v.a. . . . . . . . . . . . 91
5.3. Traitement de données et information mutuelle . . . . . . . . . . . . . 97
5.4. Traitement de données et divergence . . . . . . . . . . . . . . . . . . . 102
Chapitre 6. Information de Fisher et e.q.m. minimale . . . . . . . . . . . . . 105
6.1. Information de Fisher paramétrique Jθ(X) . . . . . . . . . . . . . . . 105
6.2. Inégalité de Cramér-Rao . . . . . . . . . . . . . . . . . . . . . . . . . . 110
6.3. Traitement de données et information de Fisher . . . . . . . . . . . . . 113
6.4. Erreur quadratique moyenne minimale Var(θ|X) . . . . . . . . . . . . 116
6.5. Traitement de données et e.q.m. minimale . . . . . . . . . . . . . . . . 120
6.6. Information de Fisher non paramétrique et e.q.m.m. . . . . . . . . . . 121
Chapitre 7. Variance entropique et identité de de Bruijn . . . . . . . . . . . 125
7.1. Entropie et mélange de variables aléatoires . . . . . . . . . . . . . . . 125
7.2. Variance entropique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
7.3. Inégalité de l’information de Fisher . . . . . . . . . . . . . . . . . . . 133
7.4. Informations de Fisher et de Shannon . . . . . . . . . . . . . . . . . . 137
7.5. Identité de de Bruijn . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
DEUXIÈME PARTIE. LIMITES ET THÉORÈMES DE SHANNON . . . . . . . 145
Chapitre 8. Sources et canaux . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
8.1. Modèles de sources . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
8.2. Modèles de canaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
8.3. Entropie et information mutuelle des composantes . . . . . . . . . . . 159
Chapitre 9. Codage de source et de canal . . . . . . . . . . . . . . . . . . . . 165
9.1. Le problème général du codage . . . . . . . . . . . . . . . . . . . . . . 165
9.2. Codage de source . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
9.3. Codage de canal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
9.4. Codage de source/canal conjoint . . . . . . . . . . . . . . . . . . . . . 174
Chapitre 10. Limites de Shannon . . . . . . . . . . . . . . . . . . . . . . . . . 177
10.1. L’inégalité fondamentale du codage : OPTA . . . . . . . . . . . . . . . 177
10.2. Codage de source : fonction taux-distortion R(D) . . . . . . . . . . . 180
10.3. Codage de canal : fonction capacité-coût C(P) . . . . . . . . . . . . . 182
10.4. Allure des fonctions R(D) et C(P) . . . . . . . . . . . . . . . . . . . 184
10.5. Influence de la dimension . . . . . . . . . . . . . . . . . . . . . . . . . 190
10.6. Influence de la mémoire . . . . . . . . . . . . . . . . . . . . . . . . . . 192
Chapitre 11. Calcul théorique des limites de Shannon . . . . . . . . . . . . 197
11.1. R(D) pour une source sans mémoire . . . . . . . . . . . . . . . . . . . 197
11.2. C(P) pour un canal additif sans mémoire . . . . . . . . . . . . . . . . 202
11.3. Divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
Chapitre 12. Séquences typiques . . . . . . . . . . . . . . . . . . . . . . . . . 211
12.1. Séquences typiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
12.2. Séquences conjointement typiques . . . . . . . . . . . . . . . . . . . . 213
12.3. Inégalités de dépendance typique . . . . . . . . . . . . . . . . . . . . . 215
Chapitre 13. Théorèmes de Shannon . . . . . . . . . . . . . . . . . . . . . . . 217
13.1. Codage de source sans pertes . . . . . . . . . . . . . . . . . . . . . . . 217
13.2. Codage de canal sans contrainte de coût . . . . . . . . . . . . . . . . . 221
13.3. Codage de canal : cas général . . . . . . . . . . . . . . . . . . . . . . . 225
13.4. Codage de source avec pertes (cas général) . . . . . . . . . . . . . . . 226
13.5. Commentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
13.6. Codage source/canal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
13.7. L’éloge de la paresse . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
Annexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
A. Exercices pour la première partie . . . . . . . . . . . . . . . . . . . . . . 239
B. Problèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
B.1. Codage optimal pour le canal à effacement . . . . . . . . . . . . . 255
B.2. Capacité de Hartley du canal uniforme . . . . . . . . . . . . . . . 256
B.3. Calcul de capacité de canaux symétriques . . . . . . . . . . . . . . 257
B.4. Encadrement de la fonction taux-distorsion . . . . . . . . . . . . . 259
B.5. Encadrement de la capacité . . . . . . . . . . . . . . . . . . . . . . 260
B.6. Algorithme de Blahut-Arimoto . . . . . . . . . . . . . . . . . . . . 260
B.7. Capacité avec voie de retour . . . . . . . . . . . . . . . . . . . . . 263
B.8. Capacité d’un canal à états . . . . . . . . . . . . . . . . . . . . . . 264
B.9. Capacité d’un canal à états connus . . . . . . . . . . . . . . . . . . 266
B.10. Capacité du canal gaussien à évanouissements . . . . . . . . . . . 267
B.11. Capacité du canal de Gilbert-Elliott . . . . . . . . . . . . . . . . . 268
B.12. Entropie d’une source stationnaire . . . . . . . . . . . . . . . . . . 269
B.13. Capacité d’un canal binaire avec mémoire . . . . . . . . . . . . . 270
B.14. Systèmes sûrs en cryptographie à clef secrète . . . . . . . . . . . . 271
héorie de l’Information et du Codage
B.15. Codage source-canal tandem dans le cas gaussien . . . . . . . . . 273
B.16. Région de capacité d’un canal à accès multiple . . . . . . . . . . . 274
Bibliographie annotée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
IndCôte titre : Fs/12226-12230,Fs/12662 Théorie de l'information et du codage [texte imprimé] / Olivier Rioul, Auteur . - Paris : Hermès science publications-Lavoisier, 2007 . - 1 vol. (286 p.) : ill. ; 24 cm.
ISBN : 978-2-7462-1719-5
978-2-7462-1719-5
Langues : Français (fre)
Catégories : Informatique Mots-clés : Codage
Information, Théorie de l'
Théorie de l'informationIndex. décimale : 003.54 Théorie de l'information Résumé :
La théorie de l'information fournit les principes mathématiques nécessaires à la compréhension des systèmes de communication. Elle énonce, en particulier, les limites de performances possibles pour la compression et la transmission de données, clés de la conception des techniques modernes des télécommunications. Cet ouvrage présente les outils généraux de la théorie de l'information et met en évidence leurs applications au codage de source (compression d'information) et de canal (transmission d'information). Des exercices et problèmes complètent le texte.
Ce livre est une référence en français qui traite de la théorie de l'information en détail, depuis la présentation des outils de base de la théorie (entropie, divergence, information mutuelle, théorème du traitement de données, information de Fisher et variance entropique) jusqu'à la démonstration des théorèmes de Shannon (pour le codage de source avec ou sans pertes, le codage de canal et le codage conjoint source/canal). Il s'adresse aussi bien aux chercheurs et ingénieurs des télécommunications qu'aux étudiants de second cycle des universités et écoles d'ingénieurs.Note de contenu :
Sommaire
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
PREMIÈRE PARTIE. OUTILS DE LA THÉORIE DE L’INFORMATION . . . . 15
Chapitre 1. Entropie et entropie relative . . . . . . . . . . . . . . . . . . . . . 17
1.1. Rappels sur les variables aléatoires . . . . . . . . . . . . . . . . . . . . 17
1.1.1. Variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . 17
1.1.2. Variables aléatoires continues . . . . . . . . . . . . . . . . . . . . 20
1.1.3. Notation unifiée . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.2. Entropie H(X) d’une variable aléatoire . . . . . . . . . . . . . . . . . 23
1.3. Entropie différentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.4. Entropie relative ou divergence D(p, q) . . . . . . . . . . . . . . . . . 30
Chapitre 2. Traitement et information . . . . . . . . . . . . . . . . . . . . . . 35
2.1. Traitements et canaux . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.1.1. Traitements et canaux discrets . . . . . . . . . . . . . . . . . . . . 37
2.1.2. Traitements et canaux continus . . . . . . . . . . . . . . . . . . . . 42
2.1.3. Traitements et canaux réciproques . . . . . . . . . . . . . . . . . . 44
2.2. Information mutuelle I(X, Y ) . . . . . . . . . . . . . . . . . . . . . . 46
Chapitre 3. Information et entropie . . . . . . . . . . . . . . . . . . . . . . . 51
3.1. Information mutuelle et entropies . . . . . . . . . . . . . . . . . . . . . 51
3.2. Information et incertitude . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.3. Diagrammes de Venn . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.4. Information transmise sur des canaux discrets . . . . . . . . . . . . . . 58
3.5. Information et entropies différentielles . . . . . . . . . . . . . . . . . . 60
Chapitre 4. Concavité et Maximum d’entropie
6 Théorie de l’Information et du Codage
4.1. Propriétés de concavité et de convexité . . . . . . . . . . . . . . . . . . 67
4.2. Inégalité de Gibbs et borne de Shannon . . . . . . . . . . . . . . . . . 71
4.3. Inégalités de Fano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
Chapitre 5. Chaînes de traitement et perte d’information . . . . . . . . . . 83
5.1. Chaînes de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.1.1. Deux traitements successifs X → Y → Z . . . . . . . . . . . . . 83
5.1.2. Plusieurs traitements successifs X1 → X2 → · · · → Xn . . . . . 88
5.2. Développement de l’information sur plusieurs v.a. . . . . . . . . . . . 91
5.3. Traitement de données et information mutuelle . . . . . . . . . . . . . 97
5.4. Traitement de données et divergence . . . . . . . . . . . . . . . . . . . 102
Chapitre 6. Information de Fisher et e.q.m. minimale . . . . . . . . . . . . . 105
6.1. Information de Fisher paramétrique Jθ(X) . . . . . . . . . . . . . . . 105
6.2. Inégalité de Cramér-Rao . . . . . . . . . . . . . . . . . . . . . . . . . . 110
6.3. Traitement de données et information de Fisher . . . . . . . . . . . . . 113
6.4. Erreur quadratique moyenne minimale Var(θ|X) . . . . . . . . . . . . 116
6.5. Traitement de données et e.q.m. minimale . . . . . . . . . . . . . . . . 120
6.6. Information de Fisher non paramétrique et e.q.m.m. . . . . . . . . . . 121
Chapitre 7. Variance entropique et identité de de Bruijn . . . . . . . . . . . 125
7.1. Entropie et mélange de variables aléatoires . . . . . . . . . . . . . . . 125
7.2. Variance entropique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
7.3. Inégalité de l’information de Fisher . . . . . . . . . . . . . . . . . . . 133
7.4. Informations de Fisher et de Shannon . . . . . . . . . . . . . . . . . . 137
7.5. Identité de de Bruijn . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
DEUXIÈME PARTIE. LIMITES ET THÉORÈMES DE SHANNON . . . . . . . 145
Chapitre 8. Sources et canaux . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
8.1. Modèles de sources . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
8.2. Modèles de canaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
8.3. Entropie et information mutuelle des composantes . . . . . . . . . . . 159
Chapitre 9. Codage de source et de canal . . . . . . . . . . . . . . . . . . . . 165
9.1. Le problème général du codage . . . . . . . . . . . . . . . . . . . . . . 165
9.2. Codage de source . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
9.3. Codage de canal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
9.4. Codage de source/canal conjoint . . . . . . . . . . . . . . . . . . . . . 174
Chapitre 10. Limites de Shannon . . . . . . . . . . . . . . . . . . . . . . . . . 177
10.1. L’inégalité fondamentale du codage : OPTA . . . . . . . . . . . . . . . 177
10.2. Codage de source : fonction taux-distortion R(D) . . . . . . . . . . . 180
10.3. Codage de canal : fonction capacité-coût C(P) . . . . . . . . . . . . . 182
10.4. Allure des fonctions R(D) et C(P) . . . . . . . . . . . . . . . . . . . 184
10.5. Influence de la dimension . . . . . . . . . . . . . . . . . . . . . . . . . 190
10.6. Influence de la mémoire . . . . . . . . . . . . . . . . . . . . . . . . . . 192
Chapitre 11. Calcul théorique des limites de Shannon . . . . . . . . . . . . 197
11.1. R(D) pour une source sans mémoire . . . . . . . . . . . . . . . . . . . 197
11.2. C(P) pour un canal additif sans mémoire . . . . . . . . . . . . . . . . 202
11.3. Divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
Chapitre 12. Séquences typiques . . . . . . . . . . . . . . . . . . . . . . . . . 211
12.1. Séquences typiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
12.2. Séquences conjointement typiques . . . . . . . . . . . . . . . . . . . . 213
12.3. Inégalités de dépendance typique . . . . . . . . . . . . . . . . . . . . . 215
Chapitre 13. Théorèmes de Shannon . . . . . . . . . . . . . . . . . . . . . . . 217
13.1. Codage de source sans pertes . . . . . . . . . . . . . . . . . . . . . . . 217
13.2. Codage de canal sans contrainte de coût . . . . . . . . . . . . . . . . . 221
13.3. Codage de canal : cas général . . . . . . . . . . . . . . . . . . . . . . . 225
13.4. Codage de source avec pertes (cas général) . . . . . . . . . . . . . . . 226
13.5. Commentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
13.6. Codage source/canal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
13.7. L’éloge de la paresse . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
Annexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
A. Exercices pour la première partie . . . . . . . . . . . . . . . . . . . . . . 239
B. Problèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
B.1. Codage optimal pour le canal à effacement . . . . . . . . . . . . . 255
B.2. Capacité de Hartley du canal uniforme . . . . . . . . . . . . . . . 256
B.3. Calcul de capacité de canaux symétriques . . . . . . . . . . . . . . 257
B.4. Encadrement de la fonction taux-distorsion . . . . . . . . . . . . . 259
B.5. Encadrement de la capacité . . . . . . . . . . . . . . . . . . . . . . 260
B.6. Algorithme de Blahut-Arimoto . . . . . . . . . . . . . . . . . . . . 260
B.7. Capacité avec voie de retour . . . . . . . . . . . . . . . . . . . . . 263
B.8. Capacité d’un canal à états . . . . . . . . . . . . . . . . . . . . . . 264
B.9. Capacité d’un canal à états connus . . . . . . . . . . . . . . . . . . 266
B.10. Capacité du canal gaussien à évanouissements . . . . . . . . . . . 267
B.11. Capacité du canal de Gilbert-Elliott . . . . . . . . . . . . . . . . . 268
B.12. Entropie d’une source stationnaire . . . . . . . . . . . . . . . . . . 269
B.13. Capacité d’un canal binaire avec mémoire . . . . . . . . . . . . . 270
B.14. Systèmes sûrs en cryptographie à clef secrète . . . . . . . . . . . . 271
héorie de l’Information et du Codage
B.15. Codage source-canal tandem dans le cas gaussien . . . . . . . . . 273
B.16. Région de capacité d’un canal à accès multiple . . . . . . . . . . . 274
Bibliographie annotée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
IndCôte titre : Fs/12226-12230,Fs/12662 Exemplaires (6)
Code-barres Cote Support Localisation Section Disponibilité Fs/12226 Fs/12226-12230 livre Bibliothéque des sciences Français Disponible
DisponibleFs/12227 Fs/12226-12230 livre Bibliothéque des sciences Français Disponible
DisponibleFs/12228 Fs/12226-12230 livre Bibliothéque des sciences Français Disponible
DisponibleFs/12229 Fs/12226-12230 livre Bibliothéque des sciences Français Disponible
DisponibleFs/12230 Fs/12226-12230 livre Bibliothéque des sciences Français Disponible
DisponibleFs/12662 Fs/12662 livre Bibliothéque des sciences Français Disponible
Disponible