There is no commentSelect some text and then click Comment, or simply add a comment to this page from below to start a discussion.
Chaine de transmission numérique
Auteur: Rémi Maubanc Professeur: M. Dewaghe
Emploi du temps - 1ère partie:
6h de CM
2h de TD
4h de TP (Contrôle TP 0,5 ECTS)
1h de Contrôle (0,75 ECTS)
Codage source
Introduction au codage source-canal
Codage : On a des données initiales que l'on veut adapter à une transmission. On les transfome en données utiles et vice-versa (bijection). L'idée c'est d'avoir une correspondance entre les deux ensembles.
Des informations
Interne au système
Code de représentation : Binaire, Décimal, Héxadécimal, Base n, ASCII, Unicode… Remarque :
places binaire: mots
mots: places binaire
Code de communications: MORSE (les symbole les plus fréquents ont les codes les plus court)
Détection des erreurs (et correction): On ajoute une règle et de la redondance
Bit de parité : Redondance structurelle
Sécurité Sociale :
CRC : Code Cyclique
Cryptage : Protéger l'information d'un tier.
Code symétrique : César, Vigenère, AES…
Code asymétrique : SSL, GPG…
Compression
Avec perte: mp3, mp4…
Sans perte: Huffman, LZ78…
Du signal
Adaptation au support: Filaire, Aérien…
Canal de transmission
Canal discret sans mémoire = 3 éléments suivants :
Entrée du canal : va , n'admettant que les symboles d'un alphabet
Sortie du canal : va , délivrant des symboles d'un alphabet
Matrice de transition définie par : et
CBS (Canal Binaire Symétrique): Probabilité d'erreur du canal
Une source d'information délivre des symboles d'un alphabet avec une probabilité d'occurrence. On modélise cette source par la variable aléatoire avec les probabilités :
Code : Un code est un sous-ensemble de (A = Alphabet). Les éléments sont les mots du code. On note par la longueur du mot . Code binaire, en bloc (tous les mots ont la même longueur), à préfixe, uniquement décodable (décodage déterministe), longueur moyenne…
Exemple:
Codage 1
Codage 2
Source équiprobable :
bits
bits
Source :, ,
bits
bits
Shannon
Information: Ce qui est nouveau
Reste: Redondant
Quantité d'information (Shannon):
Source
Canal
Quantité d'information d'un symbole :
Information et entropie
L'entropie de la source d'information est définie par :
Remarque:
: Quantité d'information moyenne minimale pour chaque symbole de la source
Exemple: bit bits bits
bits
Entropie
Redondance
incertitude sur lorsque l'on connaît $$ H(X) = H(Y) - H(Y/{X}) = H(X) - H(X/{Y})
Ex: Capacité du CBS
Théorème de Shannon
Théorème de codage de source
La compression maximale est minoré par la source. Autrement, on ne représente pas bien la source (perte)
Théorème de codage canal
La quantité d'information produite par la source doit être inférieur à la capacité du canal de transmission. On pourra construire un code de détection et de correction d'erreur.
Ex:
bits bits bits
Le codage de source
Inégalité de K.M Décodable déterministe
Exercice :
A préfixe ? Uniquement décodable ?
non, non (OO -> s1, s2, s3)
oui, oui
non, oui
?
, code optimal ?
?
Techniques primitives
RLE = Run Length Encoding Codage des répétitions : successions d'octets identiques