Introduction à la théorie de l'information
Trouver ce livre chez des libraires en ligne ou en libre accès
Présentation
La théorie de l'information intervient dans plusieurs disciplines telles que les réseaux de communication, la robotique, l'intelligence artificielle, le e-commerce ou la cybersécurité. Ce livre est un cours sur la théorie de l'information destiné aux étudiants en licence de mathématiques, d’informatique ou d’électronique et à ceux des grandes écoles. C'est un support de cours pour des enseignements correspondant à ces niveaux. Il contient plus de cent trente exercices corrigés et des travaux pratiques testés par le logiciel Python. Les sujets traités concernent le codage et la mesure de l'information, le codage des sources, les canaux discrets sans mémoire et les codes correcteurs d'erreurs.
Table des matières
Préface
Remerciements
1 Généralités sur le codage de l'information 1
1.1 Introduction
1.2 Les codes historiques
1.3 Source et codage de source
1.4 Exercices
1.5 Corrigé des exercices
1.6 Travaux pratiques
1.7 Corrigé des TP
2 Mesure de l'information
2.1 Introduction
2.2 Espace probabilisé discret
2.3 Entropie de Shannon d'une source
2.4 Une définition de l'information mutuelle
2.5 Exercices
2.6 Corrigé des exercices
2.7 Travaux pratiques
2.8 Corrigé des TP
3 Codage des sources discrètes
3.1 Codes et Test de Sardinas et Patterson
3.2 Les codes préfixes
3.3 Premier théorème de Shannon
3.4 Algorithme de compression LZ77
3.5 Exercices
3.6 Corrigé des exercices
3.7 Travaux pratiques
3.8 Corrigé des TP
4 Canaux discrets sans mémoire 146
4.1 Généralités
4.2 Capacité d'un canal
4.3 Capacité d'un canal symétrique
4.4 Capacité d'un canal binaire à effacement
4.5 Le second théorème de Shannon
4.6 Exercices
4.7 Corrigé des exercices
4.8 Travaux pratiques
4.9 Corrigé des TP
5 Les codes correcteurs d'erreurs
5.1 Introduction
5.2 Le code de Hamming
5.3 Le code de Viterbi
5.4 Exercices
5.5 Corrigé des exercices
5.6 Travaux pratiques
5.7 Corrigé des TP
Table des figures
Bibliographie
Index


