I. Introduction
Le codage consiste à rendre les messages émis par la source compatibles avec le canal. La
conversion du message émis par une source discrète sans mémoire (SDSM) est appelée
codage source.
Codage de la
SDSM
SDSM source Suite binaire 01
Code 1 2 3 4 5 6
S1 00 00 0 0 0 1
S2 01 01 1 10 01 01
Un code est de longueur fixe si tous les mots-code ont même longueur.
Les codes (1) et (2) sont de longueur fixe ; et les codes (3), (4), (5) et (6) de longueur variable.
1
Un code est univoque si chaque mot-code est distinct de tous les autres.
Un code est sans préfixe si aucun mot ne peut être formé à partir d’un autre
par addition des symboles (aucun mot n’est le préfixe d’un autre).
Exemple : le code (3) n’est pas à décodage unique puisque 1001 peut correspondre à s2s1s1 s2
ou à s2s3s2.
Une condition suffisante pour qu’un code soit à décodage unique est qu’aucun de ses mots ne
soit le préfixe d’un autre.
Exemples :
Codes
instantanés
2
V. Construction des codes linéaires irréductibles
Les codes binaires instantanés peuvent être construits à l’aide de l’algorithme :
Soit [S] l’ensemble des messages de la source. On divise [S] en deux sous ensemble S0 et S1 :
S0 S1
S0 codé 0 et S1 codé 1.
On continue cette opération jusqu’à ce que de chaque sous ensemble il n’en reste qu’un seul
élément sj auquel correspondra un mot-code.
111
1 0 110
1 101
1 0 0
100
1 011
0 1 0
0 010
1 001
0 000
S1
S2
S3
3
Autres codes :
Code BCD
Le code binaire est mieux adapté pour les circuits numériques, mais il est pénible de
traduire un nombre binaire en décimal surtout quand on a un grand nombre de bits.
Principe : chaque chiffre du nombre décimal est codé en un nombre binaire pur de quatre
bits.
Exemple :
7 2 9
1 1 7
Ce code est utilisé dans les calculatrices et exploité par de nombreux afficheurs (car
permet de traduire facilement le binaire en décimal).
Code ASCII
Adapté par la plupart des constructeurs des ordinateurs comme standard (communication
entre clavier et unité centrale ou entre unité centrale et écran).
ASCII standard
ASCII entendu
4
VI. Efficacité du codage
Longueur moyenne d’un mot-code :
̅=
( ) = −∑ .
Cette quantité, notion essentielle de la théorie de l’information, représente ou mesure la
certitude sur l’information émise par la source S.
( )
̅ .
Par ailleurs la valeur maximale de l’entropie de l’alphabet code est donnée par la valeur
log , étant le nombre de mots-code.
( )
≤ .
̅
Capacité du code : c’est la valeur maximale de l’entropie de l’alphabet du code :
= .
L’efficacité du code est définie par le rapport de la longueur moyenne minimale et la longueur
moyenne d’un mot-code
5
̅
min
= ≤ 1.
̅
̅ = ( ).
D’où l’efficacité du code est :
( )
= .
̅
Soit une source dont l’alphabet est : [S]=[s1 s2 s3 s4], et les probabilités :
[x]=[0, 1]
Supposons les codages suivants :
Code 1 S1 00
S0 01
S3 10
S4 11
Code 2 S1 0
S2 10
S3 110
S4 111