TRAITEMENT DES DONNÉES MULTIMÉDIA: LE SIGNAL AUDIO

SIGNAL AUDIO 

Programmation MULTIMÉDIA –Lase2 –Lasa2-ISTIC2017 

Wafa ABID FOURATI 

CHAPITRE 2 :TRAITEMENT DES DONNÉES MULTIMÉDIA: LE S A 

INTRODUCTION QUESTCE QUE LE SON

Un son est un ébranlement élastique de l’air, d’un fluide ou d’un solide qui se manifeste par des variations de pression pression autour autour de de la la pression pression moyenne moyenne du du milieu. milieu. 

Quand les cordes vocales créent des sons, c’est la voix et le processus de la phonation. 

Le spectre de fréquences de la voix humaine s’étend de 100Hz à 8000Hz . 

Le spectre audible par une oreille saine est compris entre 20Hz 20Hz et et 20 20 000Hz. 000Hz. 

Limite des fréquences audibles selon les espèces 

  1. PROPRIÉTÉS DES SIGNAUX ANALOGIQUES SONORES I.1. LE MICROPHONE CAPTEUR DE SON 

Exemple :le microphone électrostatique ó ó Principe Principe : : l’onde l’onde sonore sonore déforme déforme une une membrane membrane qui qui entraine entraine la variation de l’épaisseur de la capacité 

i(t) = UdC dt u(t) = RU dCdt 

C = ε S

Capacité 

Grille de protection 

Membrane 

i(t) 

Air u(t) R

Pour avoir une bonne sensibilité il faut U et R grandes car les variations de C sont faiblesLe signal acoustique est transformé en un 

signal électrique C’EST UN CAPTEUR 

  1. PROPRIÉTÉS DES SIGNAUX ANALOGIQUES SONORES 
  2. 2. ALLURE TEMPORELLE DUNE NOTE MUSICALE 

L’amplitude du son évolue dans l’enveloppe 

A l’intérieure de l’enveloppe le son évolue de façon périodique en fonction de la note jouée et de l’instrument utilisé 

enveloppe 

Durant le corps de la note, la forme d’onde périodique est caractéristique caractéristique l’instrument l’instrument 

Forme d’onde en triangle: Flute Forme d’onde en dents de scie: Violon 

fonction de la note jouée et de l’instrument utilisé 

  1. PROPRIÉTÉS DES SIGNAUX ANALOGIQUES SONORES 
  2. 3. NOTION DU BRUIT 

Un bruit est un ensemble de son ayant un caractère aléatoire non structuré qui ne véhicule pas d’information. 

Un signal est porteur d’une information structurée ayant une certaine organisation. 

L’identification de cette structure par l’homme lui permet de comprendre le message 

Exemple: signal de parole, signal sismique, sismique, echo echo radar, radar, signal signal musical…. musical…. 

Dans la pratique, il y a toujours la présence d’un bruit ó du fait du milieu ambiant qui perturbe le signal ó du fait des erreurs de calcul

  1. PROPRIÉTÉS DES SIGNAUX ANALOGIQUES SONORES 

1.4. HAUTEUR ET TIMBRE 

La hauteur d’une note de musique correspond à la fréquence de la la forme forme d’onde. d’onde. 

C’est le nombre de périodes de vibrations produites par l’instrument pendant une seconde. Elle est mesurée en Herz. 

Exemples : la note « La » pure à 440 Hz 

ó ó 

l’expression s(t) = 

t)*440**cos(2*0.9 mathématique π du signal ) 

○ ○ C’est C’est le le chronogramme chronogramme d’un d’un signal signal sinusoïdal, sinusoïdal, analogique analogique et et continu de la note » La » pure à 880 Hz 

LA 440Hz 

  1. PROPRIÉTÉS DES SIGNAUX ANALOGIQUES SONORES 

1.4. HAUTEUR ET TIMBRE 

Le timbre d’une note de musique est caractérisée par la forme d’onde de l’instrument 

○ ○ La La note note d’un d’un instrument instrument n’est n’est pas pas pure. pure. 

Elle résulte d’une somme de sinusoïdes 

Exemple de la corde vibrante: Les ondes à différents fréquences s’ajoutent pour former la forme d’onde 

t)f**sin(2 * 21 t)f**sin(2 * 21 t)f**sin(2 * 21 t)f**sin(2 Onde 3 2 1 0 π π π π + + + = 

On obtient une forme d’onde en dents de scie: 


  1. PROPRIÉTÉS DES SIGNAUX ANALOGIQUES SONORES 1.5. REPRÉSENTATION FRÉQUENTIELLE DE LA FORME DONDEt)f**sin(2 * 1 t)f**sin(2 * 1 t)f**sin(2 * 1 t)f**sin(2 Onde 3 2 1 0 π π π π + + + = 

Amplitude 

t)f**sin(2 * 2 t)f**sin(2 * 2 t)f**sin(2 * 2 t)f**sin(2 Onde 3 2 1 0 π π π π + + + = 

Temps 

Amplitude 

10,5 

f0 f1 f2 f3 Fréquence 


  1. INTRODUCTION À LANALYSE DE FOURIER DÉCOMPOSITION EN SÉRIE DE FOURIER 

peut peut s’écrire s’écrire Tout signal périodique xp(t) de période

T 0

1f

atx p )( 

xp+= 

(t) 0 = a∑ ∑ +∞ +∞0+aa n +∞)****2cos( ncos(2π 

π 

tfn π 

nf0 ot)+b+ ∑ 

+∞ +∞+∞b n n)****2sin( sin(2π π π nftfn ot) 0 n

1 n=1 

n=1 =

Tout signal périodique de fréquence fo est une somme d’harmoniques et on sait déterminer l’amplitude de chaque harmonique

0 0

1 T T 0 00 T

dttx p )( Valeur moyenne sur une période 

a n

T 2 0 T

tx p )****2cos()( π dttfn 0

0Le signal est projeté sur chaque 

signal harmonique b n T 2 bbbb 0

0

tx p )****2sin()( π 

dttfn 0 et on en calcul la moyenne 

sur une période 

Joseph Fourier, 1768-1830 

  1. INTRODUCTION À LANALYSE DE FOURIER DÉCOMPOSITION EN SÉRIE DE FOURIER 

Exemple, cas d’un signal carré : 

T2 T Spectre de phase 

n ≤3 

Spectre d’amplitude Spectre de phase 

f 3f 5f 7f f 3f 5f 7f a o= 12 an = 0 

n si n impair b

nπ 2φ n = Arctg(∞) = π

an = 0 sinon 

n ≤11 

n ≤15 

n ≤21 

10 

  1. INTRODUCTION À LANALYSE DE FOURIER DÉCOMPOSITION EN SÉRIE DE FOURIER 

Principe de l’analyse spectrale (ou harmonique) 

Le Le spectre spectre de de fréquence fréquence F(f) F(f) est est obtenu obtenu en en appliquant appliquant la la transformation mathématique de Fourier TF à un signal fonction du temps s(t). 

fF )( 

= ∞−+∞ets )( fti π2 dt avec f R∈

=  − Cas d’un signal continue N1fF )( 

ns cos)( t

2 π 

kt Ni sin 2 π kt N Cas d’un signal  

discret 

De même, si on connait le spectre de fréquence F(f), on peut retrouver le signal s(t) par la transformation de Fourier inverse TFI. 

11 

ó L’expérience montre que l’on ne perd pas d’information en 

échantillonnant le signal si: 

fe >= 2 ×fsignal 

C’est la condition d’échantillonnage de Shannon 

Shannon montre que dans ce cas on peut reconstruire en théorie théorie le le signal signal analogique analogique à à partir partir des des échantillons échantillons 

Claude Elwood Shannon 

Il existe dans ce cas un interpolateur idéal 

III. NUMÉRISATION DU SIGNAL ECHANTILLONNAGE 

Théorème de Shannon 

ó L’expérience montre que l’on ne perd pas d’information en 

Claude Elwood Shannon (30 avril 1916 24 février 2001

12 

III. NUMÉRISATION DU SIGNAL ECHANTILLONNAGE 

Applications 

13 

III. NUMÉRISATION DU SIGNAL 

QUANTIFICATION 

L’opération de quantification consiste à coder les échantillons à l’aide d’un ensemble de combinaisons binaires. Avec N bits, on a 2N combinaisons pour quantifier des échantillons échantillons qui qui peuvent peuvent prendre prendre une une infinité infinité de de valeurs. valeurs. 

Il s’agit de choisir les niveaux de quantifications de sorte que toute la gamme des échantillons soit quantifiable avec un pas de quantification constant. 

Application : Soit le signal échantillonné se(t) dont les échantillons sont compris entre les tensions Vmin et Vmax. 

On désire effectuer la quantification sur N bits. On dispose donc de 2Ncombinaisons possibles possibles qu’il qu’il faut faut répartir répartir entre entre Vmin Vmin et et Vmax. Vmax. Le pas de quantification, pour répartir les niveaux de quantification par rapport aux niveaux de tension, dans une quantification linéaire est donc So: 

pas = (Vmax – Vmin )/ 2

14 

III. NUMÉRISATION DU SIGNAL 

CALCUL DU DÉBIT ET TAILLE D’UN SON NUMÉRIQUE 

Quelques exemples de résolutions (nombres de bits) fréquemment utilisées: 

○ ○ Son Son qualité qualité téléphone: téléphone: 8000 8000 Hz Hz 8bits 8bits 

Son qualité radio FM: 22050 Hz 16bits 

Son qualité CD: 44100 Hz 16bits 

Son qualité DVD: 48000 Hz 24bits 

Son audio professionnel: 96000 et 192000 Hz 24 et 32 bits. 

Le débit et la taille d’un son numérisé croissent proportionnellement à 

la fréquence d’échantillonnage f

et à la longueur binaire des échantillons N ó ó et et décroissent décroissent par par contre contre proportionnellement proportionnellement au au taux taux de de compression. compression

Taille d’un son numérisé: mémoire requise pour stocker un son: en connaissant : 

le nombre d’échantillons par seconde (fréquence d’échantillonnage), 

La résolution (nombre de bits sur lequel est codé un échantillon) , 

le temps de la séquence (en seconde) 

et le nombre de voies utilisées : poids (octet) = Fréquence d’échantillonnage (Hz) x Résolution (octet) x Durée (seconde) x Nombre de voies 

15 

III. NUMÉRISATION DU SIGNAL 

CALCUL DU DÉBIT ET TAILLE D’UN SON NUMÉRIQUE 

Exemple: Calcul d’une seconde d’audio qualité CD 

Rappel: 1octet = 8bit et 1kilo-octet (ko) = 1024 octet 

=> Calculer le poids d’1 minute audio en 44100Hz, 16bit, stéréo. On souhaite 

une réponse en Mega Octet (Mo). 

44100(hz) x 16 (bit) x 60 (sec) x 2 (voies) 

44100 x 2 x 60 x 2 = 10584000 octets 

débit d’un son numérisé 

par seconde seconde Le l’opération débit pour pour associé jouer jouer de numérisation, le le à son son un son sans sans numérisé ralentir ralentir c’est aussi . 

. est le le nombre nombre de de bits bits à créés télécharger chaque par seconde Le débit s’exprime en bit par seconde (bps). 

Un son numérisé en monophonie avec feéchantillons de N bits chaque seconde 

provoque un débit de numérisation de N*fe bps (bit par seconde). 

des En sources cas de sonores, stéréophonie, il faut on doubler utilise le deux débit haut-parleurs par rapport à pour la monophonie. recréer l’information 16 

III. NUMÉRISATION DU SIGNAL 

CALCUL DU DÉBIT ET TAILLE D’UN SON NUMÉRIQUE 

Taux de compression 

○ ○ Le Le taux taux de de compression compression peut peut être être calculé calculé indifféremment indifféremment en faisant le rapport des tailles ou le rapport des débits du son avant compression et du son compressé. 

C= Taille finale/taille initiale 

Gain de compression = Quantité d’information supprimé=1-C 

Ainsi, si on applique un taux de compression C à un son numérique, numérique, 

ó Sa taille est divisée par C et devient tNfe ** 

bit 

ó Et son débit est divisé par C et devient Nfe

bps 

17 

nouveaux préfixes : 

ó Ils ont utilisé les préfixes SI en changeant légèrement leurs valeurs (par exemple kilo → 

1024 au lieu de 1000). ó Si l’erreur ainsi faite est faible pour les premières capacités mémoires qui s’exprimaient en 

ko (2,4 %), ó elle devient difficilement tolérable dans le cas des capacités actuelles qui s’expriment en 

To (10 %). 

Création de préfixes binaires Préfixes Préfixes SI SI (Système (Système International International d’unités d’unités ) ) Préfixes Préfixes binaires binaires 

Nom Symbole Valeur 

kilooctet ko 10

mégaoctet Mo 10

gigaoctet Go 10

téraoctet To 1012 

III. NUMÉRISATION DU SIGNAL 

CALCUL DU DÉBIT ET TAILLE D’UN SON NUMÉRIQUE 

Préfixes SI / Préfixesbinaire 

Les premiers informaticiens n’ont pas éprouvé le besoin d’inventer de nouveaux préfixes : 

Nom Symbole Valeur 

Kibioctet Kio 210 Mébioctet Mio 220 Gibioctet Gio 230 Tébioctet Tio 240 

18 

III. NUMÉRISATION DU SIGNAL EXERCICE 

comprise On désire entre numériser -8 volts le et signal +8 volts. vocal suivant, dont l’amplitude est ○ ○ Ce Ce fréquence bits signal signal est est de coupure préalablement préalablement fc = 10 filtré filtré kHz. par par La quantification un un filtre filtre passe passe est bas bas effectuée idéal idéal de 

de sur 8 

19 

III. NUMÉRISATION DU SIGNAL EXERCICE 

  1. Proposer une valeur pour la fréquence d’échantillonnage, 

et et représenter représenter les les échantillons échantillons prélevés prélevés sur sur le le signal signal analogique. 2. Quel est le volume du fichier correspondant à 5 secondes 

de ce signal ? 3. Quel est le pas de quantification ? 4. Donner les valeurs binaires des quatre premiers échantillons échantillons si si la la quantification quantification est est linéaire. linéaire. 

20 

  1. LES FORMATS DE FICHIER SON 

Le type de format correspond habituellement à l’extension l’extension du du fichier fichier (c.-à-d. (c.-à-d. les les lettres lettres qui qui se se trouvent trouvent après le point dans le nom du fichier, par exemple .mp3, .wav, .ogg, .wma). 

○ 

21 

  1. LES FORMATS DE FICHIER SON 

Principaux formats de fichier non compressés: 

.WAVE : Mise au point par Microsoft et IBM, le format Wave nommé aussi PCM est le format son standard de Windows. Il est limité à un poids de 2Go. Le Le format format « Disque « Disque compact » compact » 44.1 44.1 kHz, kHz, 16 16 bits bits et et stéréo stéréo nous nous servira servira de de référence pour le calcul du poids et ratio des autres formats. 

.AIFF : format de stockage des sons sur les ordinateurs Macintosh d’Apple. C’est l’équivalent du format WAV dans le monde Macintosh. Les résolutions de 8, 16, 20, 24 et 32 bits (à virgule flottante) sont acceptées. 

.RAW : Format audio brut (fichier binaire). 

22 

.AU : Le format AU est assez bien répandu grâce à Unix et Linux. La fréquence d’échantillonnage est comprise entre 1 kHz et 200 kHz. Mais les applications de rendu audio ne lisent principalement que trois fréquences d’échantillonnage: 8012.821Hz (codec entré), 22050Hz et 44100Hz. Les résolutions 8, 16, 20, 24 et 32 bits (flottant) sont acceptées. 22 

  1. LES FORMATS DE FICHIER SON 

23 

Principaux formats de fichier compressés: 

.MP3 .MP3 : : MPEG-1/2 MPEG-1/2 Audio Audio Layer Layer 3, 3, format format de de compression compression très très populaire populaire permettant permettant d’occuper quatre à douze fois moins d’espace de donné. Pour cela, certaines fréquences inaudibles par l’oreille humaine vont être totalement supprimées dans le fichier. La compression au format MP3 exploite aussi un modèle psycho- acoustique de l’effet dit de « masque » : si deux fréquences d’intensités différentes sont présentes en même temps, l’une peut être moins perçue que l’autre par l’oreille, selon que ces deux fréquences sont proches ou non. 

.AAC: Advanced Audio Coding. Amélioration du format MP3, c’est le format des des fichiers fichiers audio audio supportés supportés par par Apple Apple au au sein sein de de son son baladeur baladeur numérique numérique iPod iPod et et de son logiciel iTunes. L’AAC est un format de compression audio standardisé par l’ISO basé sur les nomes du MPEG-4, d’ou son nom MP4. Les fréquences d’échantillonnage vont de 8 kHz à 96 kHz (MP3 officiel : 16 à 48 kHz) et il peut gérer jusque 48 canaux. 

23 

  1. LES FORMATS DE FICHIER SON 

24 

Principaux formats de fichier compressés: 

.WMA (Windows Media Audio) : format de compression audio propriétaire développé par Microsoft. Il fut à l’origine présenté pour remplacer le MP3 grâce à ses fonctionnalités de compression plus élevées. Il offre la possibilité de protéger dès dès l’encodage l’encodage les les fichiers fichiers de de sortie sortie contre contre la la copie copie illégale illégale par par une une techniquetechnique nommée gestion numérique des droits (ou GND). 

.OGG Vorbis (ou OGA): formats et codecs multimédias ouverts, libres et dégagés de tout brevet. Le format de compression audio « Vorbis » est proposé par la fondation Xiph.Org. Moins populaire que le MP3, il lui est pourtant supérieur en terme de qualité à poids égal. Débit variable : le débit s’adapte à la musique pour conserver une qualité sonore constante. Bitrate : débit instantané. CBR (Constant Bit Bit Rate) Rate) / / VBR VBR (Variable (Variable Bit Bit Rate) Rate) 

.RA: .ra (real audio), .rv (real video), .rm (real media), .ram (real audio metadata). Famille de codecs audio propriétaires (RealNetworks). Très ancien, il permet de diffuser de la musique sur internet en utilisant la technique du streaming. 24 

  1. COMPRESSION 

Le besoin en compression 

○ ○ Contraintes: Contraintes: 

Volume d’informations de plus en plus grand 

Stockage: capacités de stockage limitées !!! 

Transmission: bande passante des réseaux très chère 

Solutions: 

○ ○ Augmenter Augmenter les les débits débits des des réseaux réseaux (infrastructure) (infrastructure) 

Réduire la taille des données: compression 

25 

  1. COMPRESSION: CLASSIFICATION DES 

La ALGORITHMES compression sans pertes DE (réversible) 

COMPRESSION 

Après décompression, on retrouve exactement les données de la source 

○ ○ Taux Taux de de compression compression max max obtenu obtenu de de l’ordre l’ordre de de 40% 40% (insuffisant (insuffisant parfois) 

Les algorithmes sont indépendants du type des données (image, son, vidéo…) 

Parfois, complément d’une méthode de compression avec pertes 

La compression avec pertes (irréversible) 

Une dégradation est acceptée sous la réserve qu’elle soit indiscernable, indiscernable, où où en en relation relation avec avec le le gain gain en en compression compression 

Ce type de compression dépend du type des données puisqu’il exploite les caractéristiques humaines 

○ ○ Taux Applications: de compression Image (JPEG), très performants vidéo (MPEG) allant , et à 90% 

son (audio MPEG) 

26 

V.1 Méthodes de compression 27 

Elles se basent sur des méthodes de codage. 

Un CODEC (pour COder DECoder) est un traitement logiciel utilisé pour appliquer un taux de compression à un un fichier fichier audio audio (on (on dit dit aussi aussi coder), coder), et et ensuite ensuite pour pour décompresser (ou décoder) le fichier compressé. 

2 types de compression: 

Codage RLE (Run Length Encoding), 

Codage Huffman, 

− − Codage Codage LZW. LZW. 

MP3, Ogg Vorbis, 

JPEG, 

MPEG. 

28 V.2 COMPRESSION SANS PERTES 

Toute suite de bits identiques est remplacée par un couple couple (nbre (nbre occurrence, occurrence, bit). 

bit). 

Coder ce qui est fréquent sur peu de place et coder sur des séquences plus longues ce qui revient rarement. Codage LZW : des séquences plus longues (code (code zip zip et et format format gif) gif) Des successions de caractères se retrouvent plus souvent que d’autres ; on les remplace par un nouveau caractère, en construisant au dictionnaire. fur et à mesure un 

28 

29 V.2 COMPRESSION SANS PERTES: CODAGE RLE (RUN LENGTH ENCODING

trouver passer la compression de la l’un représentation à (ou l’autre: compactage) la plus compacte : Pour possible. une même On donnée, peut facilement on essai de ○ ○ On On repère repère les les répétitions répétitions et et on on les les note note de de façon façon plus plus compacte. 

compacte. 

On répétition. peut par exemple utiliser un symbole spécial, comme * pour indiquer une AAAAABBBCDDDD compactage *5ABBBC*4D 

AAAAABBBCDDDD décompactage *5ABBBC*4D 

*5A *5A on on répète répète 5 5 fois fois A A 

BBB on laisse tel quel (*3B n’est pas plus compacte que BBB) 

C on laisse tel quel 

*4D on répète 4 fois D (c’est plus compacte que DDDD) 29 

V.2 COMPRESSION SANS PERTES: CODAGE RLE (RUN LENGTH ENCODING

Exemple: AAAAABBBCDDDD 

○ ○ Taille Taille avant avant compression compression (ASCII (ASCII étendue) étendue) = = 13*8 13*8 = = 104 bits 

Séquence compressée: *5ABBBC*4D 

Entête : * 

Taille après compression =10*8 = 80 bits 

Taux Taux de de compression compression Tc= Tc= 0.76 0.76 

30 

IV.1 COMPRESSION SANS PERTES: CODAGE HUFFMAN 31 

David Huffman a proposé en 1952 une méthode statistique qui permet d’attribuer un mot de code binaire aux différents symboles symboles à à compresser compresser (pixels (pixels ou ou caractères caractères par par exemple). exemple). 

La longueur de chaque mot de code n’est pas identique pour tous les symboles: 

les symboles les plus fréquents (qui apparaissent le plus souvent) sont codés avec de petits mots de code, tandis que les symboles les plus rares reçoivent de plus longs codes binaires. binaires. 

On parle de codage à longueur variable (en anglais VLC pour variable code length

31 

IV.1 COMPRESSION SANS PERTES: CODAGE 

HUFFMAN 32 

Le codage de Huffman réalise la compression de données en utilisant un nombre inférieur de bits pour la représentation des caractères avec une apparition plus fréquente. 

Soit  » Bonjourtous  » la séquence demande 77 bits. 

Caractère ASCII Binaire 

b 62 1100010 O 6f 1101111 n 6E 1111110 j 6A 1101100 u 75 1110101 R 72 1110010 t t 74 74 1110110 1110110 s 73 1110011 

Le code numérique de la séquence à compresser est: 62 6F 6E 6A 6F 75 72 74 6F 75 73 La suite de bits correspondante est: 1100010 110111 1101110 1101100 1101111 1110110 1110010 1110110 1101111 1110101 1110011 

32 

IV.1 COMPRESSION SANS PERTES: CODAGE HUFFMAN 

Table des fréquences d’apparition 

Pour chaque symbole si de la séquence s, 

déterminer la probabilité pi (nombre d’occurrences divisé par le nombre total de symboles) 

Exemple : s = Bonjourtous 

Alphabet probabilité b 1/11=0,09 j j 1/11=0,09 1/11=0,09 n 1/11=0,09 r 1/11=0,09 s 1/11=0,09 t 1/11=0,09 u 2/11=0,18 o 3/11=0,27 

33 

IV.1 COMPRESSION SANS PERTES: CODAGE HUFFMAN 

Construction de l’arbre de Huffman 1) 1) Ranger Ranger les les symboles symboles par par ordre ordre décroissant décroissant de de 

fréquences 

2) Combiner les 2 symboles les moins probables pi et pj 

3) Former, à partir de ces 2 symboles, un nœud dont la 

probabilité est la somme pi + pj 

4) 4) Ignorer Ignorer les les deux deux nœuds nœuds d’origine d’origine 

5) Revenir à l’étape 2 jusqu’à obtenir un seul nœud de 

probabilité 1 

34 

IV.1 COMPRESSION SANS PERTES: CODAGE HUFFMAN EXEMPLE 

35 

Etape 1: trier par nombre d’apparition dans le sens décroissant: décroissant: 

Alphabet probabilité 

b 1/11=0,09 

j 1/11=0,09 

n 1/11=0,09 

r 1/11=0,09 

s 1/11=0,09 

t 1/11=0,09 

u 2/11=0,18 

o 3/11=0,27 

Alphabet probabilité 

o 3/11=0,27 

u 2/11=0,18 

t 1/11=0,09 

s s 1/11=0,09 1/11=0,09 

r 1/11=0,09 

n 1/11=0,09 

j 1/11=0,09 

b 1/11=0,09 

35 

Etape 2,3,4,5 

7Symb et prob 

ème classific ation 

o=0,27 0.27 0.27 0.27 0.36 0.36 0.63 

u=0,18 0.18 0.18 0.18 0.27 0.36 1 

t=0,09 0.18 0.18 0.18 0.18 0.27 0.36 

s=0,09 0.09 0.18 0.18 0.18 

r=0,09 0.09 0.09 0.18 

n=0,09 0.09 0.09 

j=0,09 0.09 

b=0,09 

1ère classific ation 

2ème classific ation 

3ème classific ation 

4ème classific ation 

5ème classific ation 

6ème classific ation 

36 

Etape 2,3 Trier 

t→ 1/11=0,09 s→1/11=0,09 r→ 1/11=0,09 n→ 1/11=0,09 j→ 2/11=0,09 b→ 3/11=0,09 bj/0.18 bj/0.18 

b

Priority queue 0→3/11=0,27 u→ 2/11=0,18 

Etape 4,5 

Trier 

Priority queue 0→3/11=0,27 u→ u→ 2/11=0,18 2/11=0,18 bj→0.18 t→ 1/11=0,09 s→1/11=0,09 r→ 1/11=0,09 n→ 1/11=0,09 

nr/0.18 nr/0.18 

bj/0.18 bj/0.18 

n

b

Etape 4,5 

Trier 

Priority queue 0→3/11=0,27 u→ u→ 2/11=0,18 2/11=0,18 bj→0.18 nr→0.18 t→ 1/11=0,09 s→1/11=0,09 

st/0.18 

nr/0.18 nr/0.18 

bj/0.18 bj/0.18 

bj/0.18 bj/0.18 

s t 

n r b j 

Etape 4,5 

Trier 

u→ 2/11=0,18 bj→0.18 

strn/0.36 

nr→0.18 st→0.18 

st/0.18 

nr/0.18 nr/0.18 

bj/0.18 bj/0.18 

bj/0.18 bj/0.18 

s t 

n r b j 

Priority queue 0→3/11=0,27 

Etape 4,5 

Trier 

Priority queue srnt→0.36 0→3/11=0,27 0 3/11=0,27 u→ 2/11=0,18 bj→0.18 

strn/0.36 

bju/0.36 

st/0.18 

nr/0.18 nr/0.18 

bj/0.18 bj/0.18 

s t 

n r b j 


Etape 4,5 

Trier 

Priority queue 

obju/0.63 obju/0.63 

srnt→0.36 srnt 0.36 bju→0.36 0→3/11=0,27 

strn/0.36 

o bju/0.36 st/0.18 

nr/0.18 nr/0.18 

bj/0.18 bj/0.18 

s t 

n r b j 


Etape 4,5 Trier 

1 0 

strn/0.36 

o bju/0.36 1 0 1 0 

st/0.18 

nr/0.18 bj/0.18

1 1 0 0 1 1 0 0 1 1 0 0 

b j n r s t 

Ajouter les poids des fils de l’arbre: → Convention: « 0 » à droite et « 1 » à gauche Puis établissement du tableau des codes: on parcourt la table du haut en bas 

srntobju/~1 

Priority

queue obju→0.63 obju/0.63 

srnt→0.36 

IV.1 COMPRESSION SANS PERTES: CODAGE HUFFMAN: EXEMPLE 

Détermination des mots de code 1) Etiqueter Etiqueter les les transitions transitions montantes montantes (à (à gauche) gauche) de de 1 1 

et descendantes (à droite) de 0 (ou bien l’inverse) en 

cas d’addition de deux fréquences. 

2) Déterminer les mots de code en faisant un parcours 

à partir du haut de l’arbre ou du fin du tableau. 

44 

Etape 1,2 pour la détermination des mots de code Trier 

1 0 

strn/0.36 

o bju/0.36 1 0 1 0 

st/0.18 

nr/0.18 bj/0.18

1 1 0 0 1 1 0 0 1 1

0 000 000 

s t 

n r 100 b j Ajouter les poids des fils de l’arbre: → Convention: « 0 » à droite et « 1 » à gauche Puis établissement du tableau des codes: on parcourt la table du haut en bas 

srntobju/~1 

obju/0.63 


code Alphabet probabilit 

é b 1/11=0,09 0011 j 1/11=0,09 0010 n 1/11=0,09 101 r 1/11=0,09 100 s 1/11=0,09 111 t t 1/11=0,09 1/11=0,09 110 110 u 2/11=0,18 000 

o 3/11=0,27 01 

○ ○ 0011 0011 01 01 101 101 0010 0010 01 01 000 000 100 100 1010 01 000 111 

Etude de l’efficacité ó Taille originale dans le cas de 

l’utilisation de 7 bits par symbole = 77 bits ó Taille après compression 1 = 33 bits 

ó Taux de compression= 0.43 ó Gain = 

IV.1 COMPRESSION SANS PERTES: CODAGE HUFFMAN EXEMPLE 

Donc la séquence devient 

46 

46 

IV.1 COMPRESSION SANS PERTES: CODAGE HUFFMAN EXEMPLE 

La compression 

○ ○ Restituer Restituer chaque chaque symbole symbole par par le le mot mot de de code code correspondant selon l’arbre de Huffman 

Entête nécessaire pour le décodage (la table de codage doit être transmise) 

La décompression 

Suivre la règle du préfixe ou utiliser l’arbre de Huffman Huffman 

47 

IV.1 COMPRESSION SANS PERTES: CODAGE HUFFMAN DÉCOMPRESSION 

48 

Pour la décompression, vous lisez l’entête du fichier (On cherche la combinaison combinaison qui qui se se trouve trouve dans dans le le dictionnaire). dictionnaire). 

puis, pour chaque bit lu, vous descendez dans votre arbre et à chaque feuille terminale, 

Exemple: à partir de l’arbre de codage obtenue précédemment décoder la séquence suivante: 001101101110010000100 

○ ○ On On définit définit le le ratio ratio de de compression compression : : 

C = taille taille_ compressé _initiale Le problème est que la construction de l’arbre prend beaucoup plus de temps (l’arbre est plus gros,il y 65536 doublets possibles de caractères ASCII étendu par exemple). De même, l’en-tête prend une place considérable. 

C

taille _ initiale 

IV.1 COMPRESSION SANS PERTES: CODAGE HUFFMAN EXEMPLE

49 

49 

IV.2.COMPRESSION AVEC PERTES 

50 

50 

IV.2.COMPRESSION AVEC PERTES 

Représentation fréquentielle d’un signal 

Flûte 

fondamental : 440 Hz 3 harmoniques 

51 

51 

52 

  1. Traduction des échantillons temporels en représentation 

fréquentielle ( TFD : Transformée de Fourier Discrète), 

  1. Découpage en des intervalle de fréquence: plusieurs 

bandes spectrales 

  1. Analyse selon le modèle psycho-acoustique 
  2. a) a) Toute Toute fréquence fréquence en en dessous dessous du du seuil seuil d’écoute d’écoute est est éliminée éliminée 
  3. b) Toute composante masquée par une autre est éliminée 
  4. Quantification et codage: Codage Huffman pour traduire 

IV.2.Compression avec pertes Principe de la compression MP3 

les données. 52 

IV.2.Compression avec pertes Principe de la compression MP3 

Modèle psycho-acoustique 

Masquage fréquentiel 

Deux sons successifs de fréquences très proches 

sont fusionnés en une seule fréquence: Même instant: un seul son : celui dont l’amplitude est 

plus forte 

Masquage temporel ➢ ➢ Un Un son son de de forte forte amplitude amplitude est est perçu perçu plus plus longtemps longtemps (écho) et masquer les sons qui suivent. 

53 

Codeur 

Décodeur 

IV.2.COMPRESSION AVEC PERTES LA NORME MP

54 

IV.2.COMPRESSION AVEC PERTES LA NORME MP

MP3: MPEG Layer III audio encoding (codage audio). 

○ ○ 3 3 couches couches (layers) (layers) 

Niveau I 

ó Quantification uniforme ó Seul le masquage fréquentiel est utilisé 

Niveau II 

ó Quantification uniforme ó ó Masquage Masquage fréquentiel fréquentiel et et temporel temporel 

Niveau III 

ó Quantification adaptative ó Masquage fréquentiel et temporel 

Codage Huffman 55 

IV.2.Compression avec pertes Exemple de compression MP3 simplifié 

Selon les étapes décrit précédemment: 

On On considère considère un un signal. signal. 

On notera r le facteur de compression souhaité. (un facteur 3 signifie que le fichier compressé est 3 fois plus petit que l’original) 

Réalisez les étapes de compression en calculant un seuil s tel que : – – Toutes Toutes les les fréquences fréquences de de puissance puissance inférieure inférieure à à s s seront seront négligées – les fréquences de puissance supérieure à s seront gardées ; – le pourcentage de fréquences gardées (100/r)% correspond à un facteur de compression de r. 56 

IV.2.Compression avec pertes Exemple de compression MP3 simplifié 

57 

 

télécharger gratuitement TRAITEMENT DES DONNÉES MULTIMÉDIA: LE SIGNAL AUDIO

Quitter la version mobile