Upload
others
View
5
Download
0
Embed Size (px)
Citation preview
N° d’ordre 01/GTR/TCO Année Universitaire : 2006/2007
UNIVERSITE D'ANTANANARIVO
ECOLE SUPERIEURE POLYTECHNIQUE
DEPARTEMENT TELECOMMUNICATION
MEMOIRE DE FIN D'ETUDES
en vue de l'obtention
du DIPLOME d'INGENIEUR
Spécialité : Télécommunication
Option : Génie des Télécommunications et Réseaux
par : ANDRIAMBOAVONJY Henintsoa Harifidy
LA TELEVISION NUMERIQUE REALISEE
AVEC LA NORME DVB-T
Soutenu le lundi 10 décembre 2007 devant la commission d’examen composée de :
Président : M. RATSIHOARANA Constant
Examinateurs :
M. RADONAMANDIMBY Edmond Jean Pierre
Mme. RABEHERIMANANA Lyliane
M. RAZAFINDRADINA Henri Bruno
Directeur de mémoire : M. BOTO ANDRIANANDRASANA Jean Espérant
REMERCIEMENTS
La grâce de Dieu nous a inondé pendant toute l’élaboration de ce mémoire. De Lui découle tout -
tout ce qui a été fait, tout ce qui existe, et tout ce que je suis – et ce, pour sa gloire. Je Te loue Mon
Seigneur, Mon Sauveur et Mon Maître, Jésus Christ.
Je dédie ma profonde gratitude à :
- Monsieur RAMANANTSIZEHENA Pascal, Professeur et Directeur de l’Ecole Supérieure
Polytechnique d’Antananarivo, pour nos cinq années d’études dans cet établissement.
- Monsieur RANDRIAMITANTSOA Paul Auguste, Professeur et Chef du Département
Télécommunication à l’ESPA. Toute ma gratitude pour son assistance pendant mes années
d’études.
- Monsieur BOTO ANDRIANANDRASANA Jean Espérant, Enseignant au sein du
Département Télécommunication et Directeur de ce mémoire, qui n’a cessé de me
prodiguer de précieux conseils et de me guider durant tout ce travail.
- Monsieur RATSIHOARANA Constant, Enseignant au sein du Département
Télécommunication, qui nous a fait l’honneur de présider les membres de Jury de ce
mémoire.
Je remercie aussi tous les membres du Jury de ce mémoire :
- Monsieur RADONAMANDIMBY Edmond Jean Pierre, Enseignant du Département
Télécommunication.
- Madame RABEHERIMANANA Lyliane, Enseignante du Département
Télécommunication.
- Monsieur RAZAFINDRADINA Henri Bruno, Enseignant du Département
Télécommunication.
Qu’ils trouvent ici l’expression de notre reconnaissance profonde.
Je tiens également à remercier tous les différents corps de l’Ecole Supérieure Polytechnique, qui
nous ont permis d’effectuer nos cinq années d’étude au sein de l’Ecole.
Pour leur soutien tant spirituel que moral, je remercie ceux qui ont contribué, de près ou de loin, à
la réalisation de ce présent mémoire. Je remercie aussi toute ma famille et tous mes amis, vos
appuis et vos aides ont été si précieux. J’y ai trouvé ma source d’encouragement.
Grand merci à tous !
AVANT-PROPOS
Parmi les secteurs les plus attrayants actuellement, les télécommunications suivent une évolution
exponentielle. Depuis la veille des années soixante, et surtout ces deux dernières décennies, les
chercheurs en matière de nouvelles technologies n’ont cessé de nous impressionner, vue leurs
impacts socio-économiques ainsi que culturels.
Les divers pays développés donnent une place très importante aux télécommunications puisque ce
sont grâce à ces dernières que les échanges d’informations ont pu se faire correctement et
rapidement.
Le mémoire ci-présent va nous renseigner au mieux sur l’un des fruits de la montée technologique
en matière de diffusion de ces informations. Il a pour titre : ‘‘ La télévision numérique réalisée
avec la norme DVB-T’’.
i
TABLE DES MATIERES
TABLE DES MATIERES ............................................................................................................................. i
ABREVIATIONS ......................................................................................................................................... iv
INTRODUCTION GENERALE .................................................................................................................. 1
Chapitre 1 : Les bases de la télévision ..................................................................................................... 4
1.1 Historique .............................................................................................................................................................. 4
1.2 La perception d'une image par l'œil ..................................................................................................................... 5
1.2.1 La lumière ........................................................................................................................................................ 5
1.2.2 L'œil humain ................................................................................................................................................... 7
1.3 Les signaux de télévision ..................................................................................................................................... 10
1.3.1 Acquisition des signaux de télévision........................................................................................................... 10
1.3.2 Emission monochrome .................................................................................................................................. 11
1.3.3 Emission couleur ........................................................................................................................................... 12
1.3.3.1 Le signal de luminance .......................................................................................................................................... 12
1.3.3.2 Les signaux de chrominance ................................................................................................................................. 12
1.3.4 Signaux de synchronisation .......................................................................................................................... 13
1.3.4.1 Le signal de synchronisation et de suppression ligne ........................................................................................... 13
1.3.4.2 Le signal de synchronisation et de suppression trame .......................................................................................... 14
1.3.5 Signal vidéo composite .................................................................................................................................. 14
1.3.6 Signal audio ................................................................................................................................................... 15
1.4 L'analyse et la transmission d'une image ........................................................................................................... 15
1.4.1 Liaison par faisceaux hertziens .................................................................................................................... 17
1.4.2 Liaison par satellite ....................................................................................................................................... 17
1.5 Les systèmes mondiaux de télévision .................................................................................................................. 18
1.5.1 Le système NTSC .......................................................................................................................................... 18
1.5.2 Le système PAL ............................................................................................................................................. 19
1.5.3 Le système SECAM ...................................................................................................................................... 20
1.6 Transmission radioélectrique des signaux de télévision .................................................................................... 21
1.6.1 Antenne d’émission de télévision ................................................................................................................. 21
1.6.2 Antenne de réception de télévision .............................................................................................................. 23
1.6.3 Zone de couverture d’un émetteur de télévision ........................................................................................ 24
1.6.4 Défauts de transmission radioélectrique en émission de télévision ........................................................... 25
1.6.5 Réception de la télévision ............................................................................................................................. 25
Chapitre 2 : Introduction à la télévision numérique et la norme DVB-T .......................................... 27
2.1 Introduction ......................................................................................................................................................... 27
ii
2.2 Histoire de la télévision numérique .................................................................................................................... 27
2.3 Généralité sur la télévision numérique ............................................................................................................... 29
2.4 La norme DVB-T ................................................................................................................................................. 31
2.4.1 Définition ....................................................................................................................................................... 31
2.4.2 Les objectifs du DVB .................................................................................................................................... 32
2.4.3 Les paramètres de la norme DVB-T............................................................................................................ 32
Chapitre 3 : La télévision numérique réalisée avec la norme DVB-T ................................................ 35
3.1 Introduction ......................................................................................................................................................... 35
3.2 Synoptique de la chaîne de diffusion DVB-T ..................................................................................................... 35
3.3 Fonctionnement de la chaîne de diffusion numérique DVB-T ......................................................................... 36
3.3.1 Le codage de source ...................................................................................................................................... 37
3.3.1.1 Compression MPEG-2 ........................................................................................................................................... 37
3.3.1.2 Multiplexage et embrouillage ................................................................................................................................ 41
3.3.2 Séparateur ..................................................................................................................................................... 43
3.3.3 Codage de canal ............................................................................................................................................ 43
3.3.3.1 Dispersion d’énergie (brassage) ............................................................................................................................ 44
3.3.3.2 Codage Reed-Solomon (codage externe) ............................................................................................................... 45
3.3.3.3 Entrelacement externe ........................................................................................................................................... 47
3.3.3.4 Codage convolutif (codage interne) ...................................................................................................................... 49
3.3.3.5 Entrelacement interne ........................................................................................................................................... 51
3.3.4 Adaptation au canal de transmission terrestre ........................................................................................... 52
3.3.4.1 Modulation numérique et adaptation trame ......................................................................................................... 53
3.3.4.2 Modulation OFDM ................................................................................................................................................ 55
3.3.4.3 Modulation COFDM (Coded Orthogonal Frequency Division Multiplexing) .................................................... 58
3.3.4.4 Conversion numérique/analogique et transposition radiofréquence ................................................................... 61
3.3.4.5 Caractéristiques du canal de transmission terrestre ............................................................................................. 61
3.4 Utilisation des fréquences ................................................................................................................................... 63
3.4.1 Le Multi Frequency Network (MFN) ou réseau multifréquence .............................................................. 63
3.4.2 Le Single Frequency Network (SFN) ou réseau monofréquence .............................................................. 64
3.5 Principe de la réception numérique DVB-T ....................................................................................................... 64
3.6 Principe d’un récepteur numérique de télévision .............................................................................................. 66
3.6.1 Les adaptateurs numériques pour TV analogique ..................................................................................... 66
3.6.2 Les adaptateurs pour PC .............................................................................................................................. 67
3.6.3 Les récepteurs de télévision avec décodeur numérique intégré ................................................................ 67
3.6.4 Les boîtiers « triple play » compatibles avec la réception numérique hertzienne ................................... 67
Chapitre 4 : Simulation sous Matlab .................................................................................................... 68
4.1 Description du logiciel Matlab ............................................................................................................................ 68
4.2 Théories utilisées pour la simulation .................................................................................................................. 68
iii
4.3 Fonctionnement de la simulation ....................................................................................................................... 69
4.3.1 La partie présentation (fenêtre d’accueil) ................................................................................................... 69
4.3.2 L’interface d’exécution de la simulation ..................................................................................................... 70
4.3.3 La partie contenant les aides (aides)............................................................................................................ 71
4.4 Exemples effectués pour la simulation ............................................................................................................... 72
4.4.1 Pour ‘‘un émetteur’’ sélectionné.................................................................................................................. 72
4.4.2 Pour ‘‘deux émetteurs’’ ................................................................................................................................ 75
4.4.3 Dans le cas de ‘‘trois émetteurs’’ ................................................................................................................. 77
CONCLUSION GENERALE .................................................................................................................... 80
ANNEXE 1 : DEFINITIONS ET APPELLATIONS EN MODULATION NUMERIQUE .......... 82
ANNEXE 2 : CALCUL DU DEBIT UTILE ...................................................................................... 82
ANNEXE 3 : CODE DE REED SOLOMON .................................................................................... 83
ANNEXE 4 : SIGNIFICATION DE : ‘‘4 : 2 : 2’’ ............................................................................. 83
ANNEXE 5 : ORGANIGRAMME DU PROGRAMME DE LA SIMULATION ........ .................. 84
BIBLIOGRAPHIE ...................................................................................................................................... 85
iv
ABREVIATIONS
ASCII : American Standard Code for Information Interchange
ATSC : Advanced Television Standards Committee
BBC : British Broadcasting Corporation
BP : Basse Priorité
CBS : Columbia Broadcasting System
CCD : Charge Coupled Devices
CCETT : Centre Commun d’Etudes de Télédiffusion et Télécommunications
CCIR : Comité Consultatif International des Radiocommunications
CD : Compact Disc
CFT : Compagnie Française de Télévision
CIE : Commission Internationale de l’Eclairage
COFDM : Coded Orthogonal Frequency Division Multiplexing
CSA : Conseil Supérieur de l’Audiovisuel
DAT : Digital Audio Tape
DVB : Digital Video Broadcasting
DVB-C : Digital Video Broadcasting- Câble
DVB-H : Digital Video Broadcasting- Handheld
DVB-MHP : Multimedia Home Platform
DVB-S : Digital Video Broadcasting -Satellite
DVB-T : Digital Video Broadcasting-Terrestrial
DVD : Digital Versatile Disc
ES : Elementary Stream
ETSI : European Telecommunications Standards Institute
FCC : Federal Communications Commission
FEC : Forward Error Correction
FFT : Fast Fourier Transform
FI : Fréquence Intermédiaire
GOP : Group Of Pictures
HP : Haute Priorité
IES : Interférences Entre Symboles
v
IFFT : Inverse Fast Fourier Transform
ISDB-T : Integrated Service Digital Broadcast Terrestrial
ISO : International Standardization Operating
JPEG : Joint Pictures Expert Group
MATLAB : MAT trix LABoratory
MAC : Multiplex Analog Component
MFN : Multi Frequency Network
MP@ML : Main Profile at Main Level
MPEG : Moving Pictures Expert Group
MTC : Multi-Tone Channel
MPTS : Multiple Program Transport Stream
NBC : National Broadcasting Company
NICAM : Near Instantanious Companding Audio Multiplexer
NTSC : National Television System Committee
OFDM : Orthogonal frequency Division Multiplexing
PAL : Phase Alternation Line
PC : Personal Computer
PCI : Peripheral Component Interface
PES : Packetized Elementary Stream
PRBS : Pseudo Random Binary Sequence
QAM : Quadrature Amplitude Modulation
QPSK : Quadrature Phase Shift Keying
RF : Radio Fréquence
RGB : Red Green Blue
RS : Reed Solomon
RVB : Rouge Vert Bleue
SECAM : SEquence de Couleur Avec Mémoire
SFN : Single Frequency Network
STPS : Single Program Transport Stream
TEB : Taux d’Erreur Binaire
TFID : Transformée de Fourier Inverse Discrète
TNP : Télévision Numérique de Poche/Personnelle
vi
TNT : Télévision Numérique Terrestre
TPS : Transmission Parameter Signal
TSF : Télégraphie Sans Fil
UHF : Ultra High Frequency
UIT-R : Union Internationale des Télécommunications-Radiocommunications
UIT-T : Union Internationale des Télécommunications-Télécommunications
USB : Universal Serial Bus
VHF : Very High Frequency
1
INTRODUCTION GENERALE
Bien que les aspects économiques et le potentiel de création d'emplois soient clairement des
éléments essentiels à prendre en compte dans l'élaboration de la politique communautaire, c'est le
rôle socioculturel des médias de l'audiovisuel qui constitue le point de départ de la définition des
politiques. L'impact social de ces médias est considérable et puisqu'il s'agit de leur spécificité
même, il est au cœur des politiques les concernant. Le rôle de la télévision illustre déjà clairement
cet impact social. Cela étant dit, il convient de ne pas oublier le rôle toujours important de la radio
parmi les médias.
Les médias du secteur audiovisuel jouent un rôle capital dans la bonne marche de nos sociétés
démocratiques modernes. Sans cette libre circulation de l'information, ces sociétés ne peuvent
fonctionner. Les médias du secteur audiovisuel assurent en outre une mission fondamentale pour
le développement et la transmission des valeurs sociales : non seulement parce qu'ils influent
largement sur les faits et les images du monde qui nous sont présentés, mais aussi parce qu'ils
fournissent les concepts et catégorisations - politiques, sociales, ethniques, géographiques,
psychologiques, etc. - que nous utilisons pour décrypter ces faits et images. Ils contribuent donc à
définir non seulement « ce que nous voyons », mais aussi « notre manière de le voir ».
A l’heure actuelle, la télévision occupe une position forte mouvante. Le souci de vouloir toujours
améliorer la qualité des images et du son a conduit les ingénieurs à rechercher et à développer des
procédés numériques ou semi-numériques où les habituels défauts de diaphotie, mélange des
teintes colorées ou couleurs fondamentales, des couleurs qui n’existent plus et où le son acquiert
une grande qualité. Ces procédés imposent la détention d’un décodeur.
La numérisation de la distribution de la télévision correspond à une évolution mondiale. A long
terme, la Télévision Numérique Terrestre (TNT) va offrir une desserte additionnelle de chaînes de
télévision indépendantes des opérateurs par satellite et des câblodistributeurs.
La numérisation est inéluctable. Elle concerne l’ensemble des réseaux et des services de
communication. Les avantages qui résultent du passage au numérique intéressent à la fois les
téléspectateurs et les opérateurs : offre élargie de programmes et de services et souplesse de leur
consommation, qualité des images et du son, diffusion de tous types d’informations (vidéo, images
fixes, données, sons) sur n’importe quel support, interactivité, gestion plus économique du spectre
des fréquences, baisse des coûts et diversification des sources de revenus pour les opérateurs. A
2
ces attraits peuvent être ajoutés, pour le support hertzien, la portabilité, voire la mobilité, et par
voie de conséquence de nouveaux services.
Ce sont les moyens de transmission les plus récents (satellite puis câble) qui ont bénéficié les
premiers des avantages de la numérisation. Aujourd’hui, les évolutions technologiques permettent
la digitalisation de la diffusion hertzienne.
Des normes ont été adoptées au niveau européen. Le groupe européen Digital Video Broadcasting
ou DVB a ainsi établi des spécifications techniques, soumises aux organismes de normalisation
européenne, pour les différents supports de diffusion (terrestre, câble, satellite). Les techniques de
transmission pour la diffusion hertzienne terrestre (DVB-T où T pour Terrestrial) ont été définies
en 1997.
Nombre d’Etats procèdent aujourd’hui à un réexamen de leur cadre réglementaire à la lumière des
évolutions technologiques, en particulier leur égard à l’introduction pour le grand public des
techniques numériques et leurs corollaires (la compression des signaux, les systèmes d’accès
conditionnel). Quelques Etats membres de l’Union européenne ont déjà envisagé une date limite
pour la migration vers le numérique, aux environs de l’an 2010. Les enjeux sont importants. Ils ne
sont pas que technologiques et économiques ; ils sont surtout culturels. La technologie n’est pas
une fin en soi. Ce n’est pas la technologie que l’on réglemente, ce sont les usages.
Par ailleurs, la Commission européenne met actuellement la pression pour adopter une nouvelle
approche remplaçant la séparation réglementaire actuelle entre télécommunications et
radiodiffusion par une séparation réglementaire entre infrastructures de transmission et contenus.
Elle a établi un nouveau cadre réglementaire pour les réseaux et les services de communications
électroniques qui devra s’appliquer à tous les réseaux terrestres et satellitaires, filaires ou non
(réseau téléphonique commuté public, réseaux utilisant le protocole Internet, la télévision par
câble, les réseaux mobiles et terrestres de radiodiffusion). Le nouveau cadre réglementaire aborde
également la question du spectre radioélectrique.
Une des conséquences de cette approche européenne est qu’il conviendra à l’avenir de prévoir des
procédures distinctes pour la sélection des opérateurs de contenus et pour la sélection des
opérateurs techniques de transmission. La numérisation de la diffusion hertzienne terrestre est
l’occasion de réfléchir aux règles du jeu en regard des objectifs d’intérêt public rappelés ci-dessus.
Le présent mémoire, qui s’intitule ‘‘La télévision numérique réalisée avec la norme DVB-T’’, a
été fait pour fournir de plus amples informations à l’occasion de cette numérisation de la diffusion
hertzienne terrestre. De ce fait, nous procéderons par chapitre, c’est-à-dire de la manière suivante :
3
- Le premier chapitre portera sur les bases qu’il faudra connaître sur la télévision ; à savoir :
son historique, la perception d’une image par l’œil, les signaux de télévision, l’analyse et
la transmission d’une image, les systèmes mondiaux de télévision, et la transmission
radioélectrique des signaux de télévision.
- Nous consacrerons le second chapitre à un aperçu de la télévision numérique et de la
norme DVB-T ; notamment : l’histoire de la télévision numérique ainsi que sa généralité,
et la norme DVB-T.
- Dans le troisième chapitre, nous aborderons les techniques utilisées pour la télévision
numérique réalisée avec la norme DVB-T. Ceci mettra en évidence : l’introduction à
l’émission et à la réception numérique de la télévision normée DVB-T, un synoptique de la
chaîne de diffusion numérique DVB-T, le fonctionnement de cette chaîne, l’utilisation des
fréquences, le principe de réception numérique et enfin les matériels nécessaires pour cette
réception dans la voie terrestre.
- Et le dernier chapitre sera la simulation sous Matlab de l’installation radioélectrique
d’émetteurs de télévision DVB-T qui mettra en relief l’informatique avec la théorie en
matière de diffusion radioélectrique.
4
Chapitre 1 : Les bases de la télévision
1.1 Historique [2] [4]
L’histoire de la télévision est intimement liée à la mise au point des appareils permettant
d’analyser l’image par balayage. Le premier de ces dispositifs fut le disque Nipkow, breveté en
1884 par l’inventeur allemand du même nom. En 1897, Ferdinand Braun mit au point le premier
tube cathodique, instrument fondamental de la télévision. Ferdinand Braun, corécipiendaire du
prix Nobel de physique en 1909 avec Guglielmo Marconi, pour leur contribution au
développement de la Télégraphie Sans Fil (TSF), est avant tout l’inventeur du tube cathodique ou
oscillographe (1895), élément principal des postes de télévision.
Le tube de dissection de l’image fut mis au point par Philo Taylor Farnsworth peu de temps après
1928. En 1926, John Logie Baird créa un système de télévision incorporant des raies infrarouges
pour filmer dans l’obscurité. Cette date correspond ainsi à la première diffusion publique d’images
télévisées. On sait que la télévision permet au particulier de regarder des émissions. Mais la
télévision connaît aujourd’hui des applications plus techniques et plus scientifiques, telles que
l’exploration de l’espace ou de notre planète vue de l’espace (analyse des phénomènes
météorologiques, espionnage industriel ou militaire, etc.). Les premières émissions de télévision
publiques furent réalisées en 1927 par la BBC (British Broadcasting Corporation) en Angleterre,
en 1930 par CBS (Columbia Broadcasting System) et NBC (National Broadcasting Company) aux
Etats-Unis. Cependant, la diffusion régulière d’émissions de télévision commença seulement en
1936 en Angleterre et en 1939 aux États-Unis. Les ventes de téléviseurs grimpèrent régulièrement
dès la fin des années 1940, d’abord aux États-Unis puis en Europe.
Aux Etats-Unis, le système 525 lignes et 30 images par seconde a été pris comme standard en
1941, après la décision de la commission fédérale américaine des télécommunications tandis que
la Belgique et l’Italie ont démarré le système 625 lignes en 1948. Mais, les améliorations les plus
remarquables se sont surtout manifestées en 1953, après la définition du premier système couleur
NTSC (National Television System Committee). Ce nouveau codage de l’époque permet en fait
aux appareils noir et blanc de recevoir des émissions en couleur.
En 1957, le système SECAM (SEquence de Couleur Avec Mémoire) inventé et mis au point par
Henri De France, a vu le jour. Et ce n’est que trois ans plus tard que l’allemand Walter Bruch a pu
élaborer le système PAL (Phase Alternation Line). Ce dernier fut adopté par quelques pays
européens. C’est seulement vers les années 70 que les deux derniers systèmes de couleurs furent
bien établis. En cette même période, l’idée visait déjà à appliquer les techniques numériques aux
5
émissions de télévision, mais ces techniques restaient plutôt appliquées au trucage et mélange
vidéo dans les studios de production.
L’émission de télévision directe par satellite et par câbles conforme au système PAL et SECAM
s’est développée en Europe au début des années quatre vingt. En 1992, une nouvelle norme D2-
MAC (Multiplex Analog Component) vient de s’imposer comme étant le nouveau standard
d’émission de télévision par câble et par satellite, pourtant cette norme est toujours basée sur la
technique analogique.
En 1993, l’Europe a développé la recherche sur l’émission numérique de télévision destinée au
grand public. Cette recherche connut son succès l’année 97 grâce aux diverses techniques de
transmission numérique et surtout au développement et à la standardisation de la norme de MPEG
(Moving Pictures Expert Group) l’année 1994. Cette nouvelle technique d’émission de télévision
connue sous le nom de TNT (Télévision Numérique Terrestre) commence aujourd’hui à
s’implanter en Europe et même dans d’autres pays. Comme dans le cas d’émission analogique, de
nombreuses normes apparaissent ou sont en cours d’études dans divers pays ; on peut citer parmi
elles la DVB (Digital Video Broadcasting) de l’Europe, l’ATSC (Advanced Television Standards
Committee) des Etats-Unis et du Canada….
La télévision, par définition, consiste à transmettre à distance une image animée en noir et blanc
ou en couleur, et du son. Pour comprendre le principe de cette transmission, nous allons étudier
successivement les points suivants :
- La perception d'une image par l’œil ;
- Les signaux de télévision ;
- L’analyse et la transmission d’une image ;
- Les systèmes mondiaux de télévision ;
- La transmission radioélectrique des signaux de télévision.
1.2 La perception d'une image par l'œil [7]
Elle doit être étudiée en fonction de la nature de la lumière et des caractéristiques de l'œil humain.
1.2.1 La lumière
La lumière est un rayonnement électromagnétique de même nature générale que le rayonnement
hertzien utilisé par la radio et par la télévision, entre 380 nm et 780 nm. Ce rayonnement est
sensible à l'un de nos sens : l'œil. Il est constitué par des photons, particules sans masse. La
lumière blanche est constituée par la perception simultanée de l'ensemble des radiations sensibles
à l'œil et dans un rapport voulu. Au moyen d'un prisme on décompose la lumière blanche et on fait
6
apparaître le spectre des couleurs du rouge au violet. La figure suivante nous donne une indication
sur l'ensemble du rayonnement électromagnétique et la répartition des couleurs dans la petite
fraction visible par l'œil.
Figure 1.01 : Le rayonnement électromagnétique et le spectre des couleurs visibles par l'œil
La sensibilité de l'œil n'est pas égale pour toutes les fréquences. C'est la perception simultanée du
rayonnement électromagnétique qui donne la sensation de lumière blanche. L'œil est très sensible
à la couleur verte (550nm) et beaucoup moins aux extrémités du spectre visible. Les différentes
sources lumineuses ont chacune un spectre qui leur est propre ; le soleil, une ampoule à
incandescence, un tube fluorescent ne donne pas du tout la même courbe d'intensité en fonction de
la fréquence.
Ces rayonnements lumineux peuvent parvenir à notre œil soit directement, soit le plus souvent,
indirectement par l'intermédiaire des objets éclairés par cette source. Ces objets peuvent altérer
plus ou moins le rayonnement original suivant qu'ils absorbent ou réfléchissent de façon
préférentielle toute ou une partie du spectre reçu ; c'est l'impression de couleur que nous percevons
de ces objets.
On peut donc classer les matériaux selon leur comportement lorsqu'ils sont éclairés par une
lumière comprenant toutes les fréquences du spectre visible :
• S'ils se laissent traverser de façon égale par toutes les radiations, ils sont incolores
(exemple : verre, eau pure, etc.) ;
• S'ils absorbent toutes les directions et de façon égale tout le spectre, ils sont blancs ;
• S'ils absorbent toutes les radiations visibles, ils sont noirs ;
• S'ils absorbent ou diffusent inégalement ces radiations en fonction de leur longueur d'onde,
ils sont colorés.
7
1.2.2 L'œil humain
L'œil humain est comparable à une chambre photographique. Il comprend :
- Une chambre noire sphérique emplie d'une humeur vitrée ;
- Un objectif, la cornée et le cristallin ;
- Un diaphragme, l'iris percé d'un trou de diamètre variable, la pupille ;
- La surface photosensible, constituée par la rétine ;
- La paupière peut jouer le rôle d'un obturateur, mais pas comme en photographie où il faut
changer la surface photosensible lorsqu'elle est impressionnée ; la rétine est apte à recevoir
des impressions successives très rapprochées les unes des autres.
Figure 1.02: Coupe transversale de l’œil humain
Le corps vitré contient du liquide maintenant la structure autonome de l’œil.
La fonction optique de l’œil c’est de focaliser un stimulus de couleur sur sa partie photosensible,
la rétine.
Figure 1.03: Coupe longitudinale de l'œil humain
8
La cornée est une membrane transparente et résistante ; elle assure la focalisation principale.
Le cristallin forme sur la rétine une image, automatiquement au point et d'intensité lumineuse
optimale selon les fonctions de vision. Le cristallin est une lentille biconvexe molle qui permet de
focaliser le stimulus grâce à sa capacité à modifier sa courbure.
L’iris qui est une membrane coloriée (pigments protecteurs) joue le rôle de diaphragme contrôlant
la quantité de lumière qui pénètre dans l’œil et l’ouverture centrale est la pupille.
La rétine, partie photosensible, contient deux types de cellules : les cônes et les bâtonnets.
La rétine est formée de capteurs sensibles reliés au cerveau par les fibres du nerf optique :
• Les cônes sont reliés individuellement au cerveau, ils donnent les détails les plus fins
perceptibles ; ils sont seuls sensibles à la fréquence, donc à la couleur ;
• Les bâtonnets sont reliés par grappes au nerf optique, ils sont les plus sensibles à l'intensité
lumineuse. C'est pourquoi lorsque l'intensité lumineuse devient très faible, la vision
colorée s'estompe et disparaît. A ce moment, les cônes ne transmettent plus d'information
au cerveau et seuls les bâtonnets assurent la vision.
Ces capteurs sont très petits, leurs dimensions sont comprises entre 1 et mµ15 . L’œil humain ne
peut séparer deux sensations lumineuses très brèves et très rapprochées, deux flashes électroniques
par exemple ; il n'en perçoit qu'une. La persistance rétinienne est égale à 1/15ème de seconde. Cette
propriété est très importante, car elle a permis d'établir le principe du cinéma et de la télévision.
Les capteurs de la rétine, à l'endroit où ils sont les plus rapprochés (tâche jaune ou fovéa) sont
distants de mµ5,2 .
Comme la distance focale du cristallin est d'environ cm5,2 , nous déterminons l'angle d'acuité
visuelle ou du pouvoir séparateur de l'œil qui est d'environ une minute d'angle. L'œil ne peut donc
pas distinguer des informations trop petites ou trop proches l'une de l'autre. Cette caractéristique
permet de calculer la définition optimale de la transmission d'une image télévisée. Il est inutile de
reproduire une image avec une finesse supérieure à cet angle séparateur de 1' à la distance normale
de vision.
La couleur est le résultat de la perception sur la rétine d'une lumière incidente. La réponse de l’œil
à une lumière monochromatique a été mesurée en fonction de la longueur d’onde :
9
Figure 1.04 : La réponse de l'œil à une lumière monochromatique
La sensibilité spectrale de l’œil humain (fonction d’efficacité lumineuse relative spectrale) est
notée V(λ). Elle a été définie en 1924 par la CIE (Commission Internationale de l’Eclairage) en
vision diurne photopique, et en 1951 pour la vision prénocturne (scotopic). La mesure des
grandeurs radiométriques (radiométrie) par rapport à l’organe de vision constitue la photométrie.
D’après la figure précédente : le vert paraîtra le plus brillant des trois couleurs car l’efficacité
lumineuse atteint un maximum dans la région du vert (555nm). Le rouge paraîtra moins brillant et
le bleu sera le plus foncé des trois.
Figure 1.05 : Sensibilités relatives des cônes et des bâtonnets
Il est important de noter que l'influence des cellules en bâtonnets n'est importante que pour la
vision scotopique.
10
1.3 Les signaux de télévision
Depuis son invention, l’émission de télévision n’a pas cessé d’évoluer, évolution qui se manifeste
par des modifications appliquées aux signaux vidéo et audio. En restant dans le domaine
d’émission analogique, l’évolution la plus remarquable est le passage de l’émission monochrome
(noir et blanc) à l’émission couleur. Dans l’émission monochrome, seul un signal dit de
‘‘luminance’’ caractérise l’image et selon les techniques utilisées dans divers pays pour son
émission.
A l’arrivée de l’émission couleur, des signaux dits de ‘‘chrominance’’ forment avec le signal de
luminance les éléments nécessaires pour une image. Selon les procédés d’émission des signaux de
chrominance, on définit le système de couleur comme Phase Alternation Line (PAL), National
Television System Committee (NTSC) ou SEquence de Couleur Avec Mémoire (SECAM).
Une émission analogique de télévision est alors aujourd’hui caractérisée par deux grands
paramètres : le standard et le système de couleur.
Deux grands standards de base sont adoptés pour la télévision : celui du Federal Communications
Commission (FCC) et celui du Comité Consultatif International des Radiocommunications
(CCIR).
Le standard de la FCC est paramétré par un nombre de lignes de l’écran égal à 525 et de trente
images affichées par seconde. Pour le standard du CCIR, le nombre de lignes de l’écran est de 625
et il affiche vingt-cinq images par seconde.
Notons que ces deux standards utilisent le format 4/3 (rapport entre la largeur et la hauteur de
l’écran). Ils regroupent seulement ceux qui ont le même nombre de lignes sur l’écran, et le même
nombre d’images affichées par seconde.
Cependant, il existe d’autres paramètres nécessaires à définir pour une émission de télévision
(comme la modulation vidéo : positive ou négative, etc.). Notons qu’il y a huit standards dans le
monde qui définissent les caractéristiques des signaux audio et vidéo, ainsi que de leur émission.
1.3.1 Acquisition des signaux de télévision
En vidéo, c’est la caméra qui se charge de la transduction de la lumière en courant électrique ou
plus simplement, qui convertira une information optique en information électrique. Cette
conversion est obtenue grâce à la photocellule de cette caméra. Les signaux électriques ainsi
obtenus sont proportionnels aux caractéristiques des points formant l’image. En effet, l’acquisition
d’une image se fait par sa décomposition en plusieurs points élémentaires (pixels ou picture
element) et analyse des caractéristiques de ces points, à savoir : la luminance et la chrominance.
11
Cette analyse se fait séquentiellement point par point et ligne par ligne. On réalise la même
opération à la reproduction, c’est-à-dire qu’on affiche l’image point par point et ligne par ligne
grâce aux faisceaux d’électrons frappant chaque point de l’écran. Pour ce faire, on introduit la
notion de balayage de l’écran.
Le balayage se fait ligne par ligne et de gauche à droite en s’inclinant un peu vers le bas. A chaque
fin de ligne, on retourne rapidement vers la gauche et on doit s’assurer qu’à ce retour, aucun
faisceau d’électrons ne frappe l’écran, ainsi l’œil ne peut remarquer ce retour.
Pour éviter le scintillement qui se produit quand le passage d’une vue se fait trop lentement, en fait
l’œil pourrait percevoir le balayage du fait que les luminophores de l’écran des télévisions se
caractérisent en général par leur faible persistance, on procède au balayage entrelacé : on effectue
le balayage des lignes impaires, ce qui correspond aux trames impaires ; et après, le balayage des
lignes paires ce qui correspond aux trames paires. C’est ce procédé de balayage qui impose la
nécessité des signaux de synchronisation pour assurer la conformité de la reproduction d’une
image.
En plus de la nécessité de l’entrelacement, il faut aussi tenir compte que l’œil doit garder une
sensation de continuité. Cette continuité est obtenue au-delà de vingt images par seconde.
La prise du son peut se faire en monophonie ou en stéréophonie, mais dans un système de
télévision, les signaux audio et vidéo sont distincts.
Le signal émis à partir d’un émetteur de télévision est composé de deux principaux signaux : le
signal audio et le signal correspondant aux informations d’images. Ce dernier est encore composé
du signal de luminance, de chrominance et des signaux de synchronisation.
1.3.2 Emission monochrome
La structure actuelle du signal vidéo est étroitement liée à l’histoire de la télévision, en particulier
aux dispositifs de prise de vue et d’affichage de l’image. L’image en noir et blanc est analysée et
reproduite en appréciant uniquement la luminance (caractère clair ou sombre) des différentes
parties qui la composent.
A chaque valeur du signal vidéo (Y ou YE ) correspond une nuance de gris comprise entre le noir et
le blanc. Il faut souligner que la valeur de cette luminance évolue le long d’une ligne comme s’il
s’agissait d’une suite de points placés côte à côte. Ce signal est encadré de tops de synchronisation
ligne qui précise la position des bords gauche et droite de l’écran.
12
La particularité du signal de luminance est l’existence des intervalles libres, c’est-à-dire
l’intervalle de fréquence où l’énergie est nulle. Ces intervalles vont être exploités en système
couleur pour insérer les signaux de chrominance.
1.3.3 Emission couleur
Le système couleur repose sur la décomposition d’une image colorée en trois composantes,
couleurs fondamentales : Rouge, Vert et Bleu (RVB ou Red Green Blue pour RGB).
Comme en système monochrome, on doit assurer la transformation de ces images d’une seule
teinte en trois signaux électriques désignés souvent par RE pour l’image rouge, VE pour l’image
verte et BE pour l’image bleue. On n’émet pas directement et intégralement ces signaux mais
plutôt leur différence avec la luminance, plus précisément : YR EE − et YB EE − représentent les
bases des signaux de chrominance.
Avec ces signaux de différence, l’amplitude des signaux de chrominance est faible devant celle de
la luminance, et cet aspect contribue à protéger le récepteur noir et blanc des moirages quand il
s’agit d’observer l’image en noir et blanc.
1.3.3.1 Le signal de luminance
A l’arrivée du système couleur, la condition de compatibilité est exigée : un poste téléviseur noir
et blanc doit pouvoir recevoir en noir et blanc une émission couleur. Un signal est donc nécessaire
au récepteur de l’émission en noir et blanc, ce signal est la luminance dans l’émission couleur. Il
est obtenu par la combinaison des signauxRE , VE et BE selon la proportion suivante :
BVRY EEEE 11,059,030,0 ++= (1.01)
Cette proportion est valable pour tous les systèmes de couleur. On remarque ici l’autre avantage
des signaux de différence qui est constitué par le fait que ces différences deviennent nulles chaque
fois que le point de l’image explorée est blanc, gris ou noir ; donc les signaux de chrominance
disparaissent.
1.3.3.2 Les signaux de chrominance
Comme il faut rajouter au signal de luminance les deux signaux de base de couleur et qu’il n’y a
qu’une seule voie, un codage doit être entrepris. C’est là qu’interviennent les systèmes et leur
propre originalité. Cependant, dans tous les systèmes de télévision couleur, les signaux de
chrominance sont insérés dans le haut du spectre de luminance pour diminuer encore l’influence
sur la luminance ; et l’information de chrominance est portée par une sous-porteuse modulée par
les signaux de couleur.
13
1.3.4 Signaux de synchronisation
En tenant compte du balayage, pour assurer la synchronisation entre le système d’acquisition (le
balayage de la caméra) et le système de reproduction (le tube cathodique de l’écran), on ajoute des
informations supplémentaires dites de synchronisation aux signaux vidéo résultant de l’image. On
distingue alors : le signal de synchronisation ligne et le signal de synchronisation trame.
En outre, pour l’émission couleur on a le signal de synchronisation couleur.
Ces signaux sont enfin nécessaires pour éviter l’instabilité de l’image à l’écran (exemple : un
glissement de l’image) et une fausse reproduction de couleur.
1.3.4.1 Le signal de synchronisation et de suppression ligne
Les impulsions de synchronisation ligne servent de commande de fin de ligne à la réception. Ces
impulsions ont une durée de sµ2,07,4 ± pour les deux standards FCC et CCIR. On assure d’autant
plus la suppression des faisceaux d’électrons frappant l’écran pendant le retour de ligne, en
apportant au signal vidéo un niveau dit de suppression, légèrement inférieur au niveau noir. Cette
suppression dure sµ11 pour le FCC et sµ12 pour le CCIR. En outre, on émet pendant la suppression
la salve de référence pour avoir la synchronisation des signaux de chrominance.
En normalisant le signal vidéo à 1V, les divers ordres de niveaux de ces signaux dans le système
monochrome et les systèmes couleurs sont indiqués ci-dessous :
Figure 1.06 : Système monochrome
En notant A et A1 les durées de la salve de chrominance, respectivement égales à
sµ279,0514,2 ± et sµ5 ; nous avons, pour les trois systèmes NTSC, PAL et SECAM :
14
Figure 1.07a : Systèmes PAL et NTSC
Figure 1.07b : Système SECAM
Figure 1.07 : Signal de synchronisation et de suppression ligne
1.3.4.2 Le signal de synchronisation et de suppression trame
Comme en synchronisation ligne, la synchronisation trame indique au récepteur la fin de la trame
paire ou impaire.
Le signal de suppression trame est émis entre cycle trame. Il dure quelques vingtaines de la durée
d’une ligne avec un niveau légèrement inférieur au niveau noir. Ce signal est composé
d’impulsions de pré-égalisation de synchronisation trame et d’impulsions de post-égalisation.
Les impulsions d’égalisation permettent de raccorder la trame paire et impaire. En effet, la fin
d’une trame paire est exactement en fin de ligne alors que le début d’une trame impaire est en mi-
ligne. De même, la fin d’une trame impaire est en mi-ligne alors que la trame paire commence au
début de ligne, ce qui peut provoquer un problème de synchronisation ligne au bord supérieur de
l’image. Pour pallier à ce désaccord, cinq impulsions d’égalisation sont émises avant et après la
synchronisation trame. La principale caractéristique de ces impulsions est la fréquence double de
celle de la ligne, ce qui offre la possibilité de commencer le balayage trame en début ou en mi-
ligne.
Certaines lignes sont destinées à émettre la suppression trame, et ainsi ne donnent aucune
information sur l’image : ces lignes sont des lignes de synchronisation.
1.3.5 Signal vidéo composite
Le signal vidéo compositeME représente l’information intégrale d’une image. Il est composé de
signaux de luminance et de chrominance, ainsi que de divers signaux de synchronisation. Ainsi :
- Pour le NTSC :
)2cos()2sin( tfEtfEEE scQscIYM ππ ++= (1.02)
avec MHzfsc 58,3=
15
- Pour le PAL :
)2cos()2sin( tfEtfEEE scVscUYM ππ ±+= (1.03)
avec MHzfsc 43,4=
- Et pour le SECAM :
( )( )∫∆++= dtDffEE RORORYM π2cos07,0 (1.04)
pour la ligne rouge ; avec MHzfOR 40625,4= et kHzfOR 280=∆ ou
( )( )∫∆++= dtDffEE BOBOBYM π2cos07,0 (1.05)
pour la ligne bleue ; avec MHzfOB 25,4= et kHzfOB 230=∆
1.3.6 Signal audio
Le signal audio occupe la bande de fréquence de 40 Hz à 15 kHz. Il doit être capté et reproduit en
phase avec l’image.
En général, le signal audio en télévision est unique, mais certains standards autorisent l’émission
d’un ou de plusieurs signaux audio. Ces signaux pourront être les canaux gauche et droit pour un
son en stéréophonie ou des signaux audio sous deux langues lorsqu’il s’agit d’une émission
bilingue. Les signaux vidéo composite et audio sont les signaux nécessaires pour une émission de
télévision en analogique.
1.4 L'analyse et la transmission d'une image [5] [7]
L'analyse et la transmission d'une image doivent être déterminées en fonction des caractéristiques
de l'œil.
Nous avons vu que l'œil procède à une analyse simultanée de l'image formée sur la rétine. Il en est
de même en photographie, où tous les points sensibles de la gélatine sont impressionnés à la fois.
La projection fixe d'un cliché consiste à projeter simultanément sur un écran toutes les
informations de l'image enregistrée. On projette un nombre d'images fixes par seconde, supérieur à
la valeur de la persistance rétinienne de l'œil. Il fait la synthèse des différentes informations reçues
et recrée le mouvement. Notons que le nombre d'images doit être sensiblement plus grand que ne
le voudrait la persistance rétinienne ; c'est pourquoi il a été adopté une projection de 24 images par
seconde, au lieu de 15 images par seconde strictement nécessaires.
En télévision, il est difficile de procéder à une analyse simultanée des images à transmettre. En
effet, il faudrait autant de canaux qu'il y a de points élémentaires ; pour avoir une définition
suffisante et la reconstitution du mouvement, ce sont plusieurs millions de points qu'il faut
transmettre par seconde. Nous sommes donc obligés de procéder à une analyse séquentielle de
16
l’image ; c'est-à-dire de transmettre les points élémentaires les uns après les autres sur un canal
unique.
Chaque point élémentaire de l'image est analysé en fonction de sa luminance. Un point blanc
donne une tension maximale et un point noir une tension nulle. Toute l'échelle des gris donne une
tension intermédiaire, en fonction de sa densité. Il suffit de transmettre les points élémentaires de
chaque image dans un ordre déterminé. A la réception, ces points sont replacés au bon endroit sur
un écran, afin de reconstituer l'image initiale. Cette synchronisation entre l'émission et la réception
est assurée au moyen de signaux spéciaux qui sont superposés aux tensions produites par les
points élémentaires en fonction de leur luminosité.
L'établissement d'un système de télévision est basé sur ces principes. Chaque image est explorée
selon les lignes horizontales successives de gauche à droite. Les lignes sont placées les unes au-
dessous des autres pour former une image complète. Il faut transmettre 25 images par seconde
pour reconstituer le mouvement. Il faut donc prévoir un signal de synchronisation à la fin de
chacune des lignes, pour passer à la ligne suivante et un signal différent à la fin de chacune des
images.
Ainsi, à la réception, nous percevons un scintillement désagréable de l'image, parce qu'elle s'est
formée trop lentement. Pour y remédier, on adopte la synthèse par trames entrelacées. Dans ce cas,
on explore tout d'abord les lignes impaires, puis ensuite les lignes paires de l'image. Chaque demi-
image s'appelle une trame. On obtient donc cinquante trames par seconde ; ce qui correspond à la
fréquence du secteur d'alimentation. On évite ainsi les risques d'interférences dues à l'induction
magnétique ou à un filtrage insuffisant. Actuellement, ces problèmes ne se posent plus grâce à
l'évolution de la technologie et une fréquence différente pourrait être définie dans un standard
futur. Elle serait plus élevée pour réduire encore plus le scintillement sur une image très
lumineuse.
Dans les pays dotés d'un secteur 60Hz, le système de télévision est établi avec 60 trames et 30
images par seconde, pour les mêmes raisons.
Les lignes de deux trames successives doivent être légèrement décalées, afin de ne pas être
superposées, ce qui diviserait par deux la définition de l'image. On dit que l'entrelacement des
trames doit être rigoureux. Pour cela il faut que le nombre de lignes soit impair.
Les antennes de télévision sont généralement placées au sommet de hautes tours (ou immeubles)
pour permettre aux signaux hautes fréquences (qui sont transmis dans des directions bien précises)
d'atteindre les téléspectateurs sans être perturbés par d'éventuels collines ou immeubles voisins.
17
Les petites antennes paraboliques installées sur ces tours émettent et reçoivent des signaux hautes
fréquences à destination et en provenance d'autres stations, ou de reporters qui émettent en direct à
partir d'une station mobile située à proximité.
1.4.1 Liaison par faisceaux hertziens
Dans une telle liaison, le support utilisé est l'espace libre, et la liaison s'effectue en général en
visibilité directe. Dans la représentation du centre de production, c'est l'émetteur faisceau qui
assure le rôle d'appareil d'émission.
A travers cet équipement, le signal vidéo est combiné avec 4 sous-porteuses modulées par 4
signaux audio et l'ensemble module en fréquence une porteuse de fréquence de 70MHz
(Fréquence Intermédiaire FI). Un convertisseur transpose le signal FI vers la fréquence d'émission
comprise dans la bande de fréquences attribuée aux faisceaux hertziens et le signal est émis selon
une puissance de l'ordre de 5 à 25W.
Dans le cas où les deux centres sont suffisamment éloignés (supérieur à 50km), un système de
relais hertzien est nécessaire puisque la visibilité de la liaison n'est plus atteinte et la dégradation
du signal est très remarquée.
1.4.2 Liaison par satellite
Ce type de réseau s'emploie couramment pour une couverture nationale ; son principe est le même
que celui de la diffusion directe de télévision par satellite. Le centre de production émet à travers
un émetteur satellite les signaux vidéo et audio au satellite. Le satellite effectue la retransmission
de ceux-ci aux centres émetteurs, qui à leur tour, assurent la diffusion du signal. Selon la
technique de transmission utilisée, les signaux vidéo et audio à émettre au satellite peuvent être
analogiques ou numériques.
Notons que si l'on a des centres émetteurs arrosant une région décomposée en plusieurs cellules
(c'est-à-dire, un émetteur assure la couverture d'une cellule selon un canal de fréquences), c'est la
technique de faisceau chaud qui est utilisée pour une réalisation du réseau de liaison. Cette
technique se base seulement sur une transposition directe de fréquence : un émetteur diffuse à un
canal de fréquence, les autres émetteurs dotés d'équipement de réception reçoivent le signal de la
même manière qu'un poste téléviseur classique et transposent directement la fréquence du signal
qu'ils reçoivent vers un autre (aucune opération de démodulation n'est réalisée). Il amplifie le
signal et le retransmet.
18
1.5 Les systèmes mondiaux de télévision [1]
1.5.1 Le système NTSC
National Television System Committee (ou NTSC) a été mis au point entre 1950 et 1953 aux
USA; il est le fruit de la collaboration des sociétés électroniques américaines. Il est très ingénieux
et sert de base à tous les autres systèmes mis au point ultérieurement.
Il utilise, bien entendu, les principes de : compatibilité, bande passante et trichromie (luminance et
chrominance).
Cependant, il a fallu trouver le moyen de transmettre deux signaux de différence de couleur avec
une seule sous-porteuse.
Le plan de chrominance de Fresnel permet de suivre le principe de ce système. Sur ce plan, un
vecteur quelconque, issu de l’origine, est l’image d’une sinusoïde dont l’amplitude est
proportionnelle à sa longueur et la phase de la sous-porteuse exprime la teinte de la couleur et que
l’amplitude représente la saturation. En particulier, la sous-porteuse disparaît en l’absence de
couleur à transmettre, points blancs, gris ou noirs.
L’écart des porteuses vision et son est de 4,2MHz aux USA et la fréquence de la sous-porteuse est
fixée à MHzfsc 58,3= .
La sous-porteuse est modulée en amplitude par le signal de différence YB EE − avec suppression
de la porteuse.
Une autre onde sinusoïdale, de même fréquence mais déphasée de 90° (en quadrature) par rapport
à la précédente, est modulée en amplitude avec suppression de la porteuse par le signal de
différence YB EE − .
La superposition de ces deux signaux donne la sous-porteuse de chrominance.
En fait, le codeur NTSC n’utilise pas directement les signaux de différence de couleur ; mais des
combinaisons déterminées pour éviter certains inconvénients.
Tout d’abord, on ne prend qu’une fraction des signaux de différence YB EE − et YB EE − afin
d’éviter une surmodulation en amplitude de la sous-porteuse par le signal résultant.
D’autre part, de nombreuses expériences ont démontré que la sensibilité de l’œil soumis à des
variations de teinte et de saturation n’est pas uniforme pour toutes les teintes. L’œil est plus
sensible aux variations de tonalité qu’à celles de saturation. Dans ces conditions, le codeur
détermine les signaux IE (in phase) et QE (quadrature) qui se déduisent des deux axes de
19
différence de couleur par une rotation de +33° et un changement d’échelle. On ne prend que 87%
du signal RE et 49% du signal BE .
On a donc, à l’émission, les signaux suivants :
• Luminance :
BVRY EEEE 11,059,030,0 ++= (1.06)
• Chrominance :
BVRQ
BVRI
E , -E,-E,
E
E,E, -E,E
32028060
310520210
=
+= (1.07)
Le signal résultant a alors pour expression :
( ) ( )tfEtsc
f EOP (t)E scQIC ππ 2cos2sin + == (1.08)
Avec tfscπϕ 2= , cette équation est illustrée par :
Figure 1.08 : Chrominance dans le système NTSC
Comme la largeur de la bande passante vision est de 4,2MHz et que la fréquence de la sous-
porteuse est de 3,58MHz, il ne reste pratiquement que 0,6MHz pour la modulation en amplitude
des signaux de chrominance. On a vu que c’est le signal qui doit donner le plus d’informations, en
fonction de la sensibilité de l’œil : sa bande passante est fixée à 1,3MHz. Par contreQE n’occupe
que 0,6MHz.
1.5.2 Le système PAL
Phase Alternation Line (ou PAL) a été mis au point et présenté en 1993. Il est basé sur le système
NTSC, mais il comporte des modifications, afin d’améliorer certains de ces défauts et en
particulier sa sensibilité aux distorsions de phase.
L’idée fondamentale de l’inventeur est d’inverser de 180° la direction de l’axeIE une ligne sur
deux, d’où son nom. A la réception, un inverseur permet de retrouver le signal IE dans la phase
correcte.
20
Les signaux de différence de couleur sont transmis avec la même largeur de bande, égale à
1,5MHz. En Europe, la fréquence de la sous-porteuse est fixée à 4,43MHz
Le signal UE est toujours émis avec la même phase, tandis que le signal VE est déphasé de +90°
pendant une ligne et de -90° la ligne suivante et ainsi de suite. Pour que le décodeur, à la
réception, connaisse la polarité de la porteuse IE (90° ou 270°), on transmet une salve dont la
phase est alternativement 180° - 45° = 135° et - 180° + 45° = - 45° (salve alternante).
Dans le système PAL, les composantes du signal de chrominance sont les suivants :
) - E(E,E
) -E(E,E
YRV
YBU
870
490
==
(1.09)
L’expression du signal de chrominance est alors :
)( ± )= tπfΕtπf( EE scVscUC 2cos2sin (1.10)
Le système PAL est une amélioration du système NTSC en apportant une méthode pour éliminer
l’erreur de phase dont l’idée fondamentale est d’inverser de 180° la direction de l’axe VE une ligne
sur deux.
Figure 1.09 : Compensation d'erreur de phase dans le système PAL
En plus de la correction de l’erreur de phase, l’amplitude du signal de chrominance résultant est
beaucoup plus importante qu’en système NTSC, ce qui confère au système PAL une forte
saturation en couleur.
1.5.3 Le système SECAM
SEquence de Couleur Avec Mémoire (ou SECAM) a été développé par la Compagnie Française
de Télévision (ou CFT) ; c’est le système adopté par la France et par différents autres pays
mondiaux.
21
Les grandes bases de ce système sont toujours celles mises au point par le NTSC ; l’inventeur a
cherché, tout comme pour le PAL à éliminer les défauts dus aux variations d’amplitude et de
phase des signaux de chrominance.
Comme la principale difficulté réside dans la transmission simultanée des deux signaux de
chrominance sur une même sous-porteuse, le SECAM a choisi de transmettre les deux
informations l’une après l’autre ; d’où le nom du système.
Les composantes du signal de chrominance sont désignées par RD et BD et qui sont définies par :
)- E(E,D
) -E(E, -D
YRR
YBB
51
91
==
(1.11)
A la différence avec les systèmes PAL et NTSC, le système SECAM utilise une émission
séquentielle de signaux de chrominance. En effet dans ce système, on émet alternativement le
signal BD et RD pour deux lignes consécutives, on dénomme alors une ligne comme "rouge"
lorsque c’est RD qui est émis, et comme "bleue" lorsque c’estBD qui est émis.
Dans le cas d’une ligne rouge, le signalRD module en fréquence une porteuse de
fréquence kHzMHzfOR 240625,4 ±= avec une excursion de fréquence kHzfOR 280±=∆ . Et pour
une ligne bleue, BD module en fréquence une porteuse de fréquence kHzMHzfOB 2250,4 ±= avec
une excursion de fréquences kHzfOB 230±=∆ .
Comme dans tous les systèmes couleurs, sur le palier arrière de suppression ligne, on transmet un
signal alternatif sinusoïdal de fréquence ORf ou OBf , pour identifier que le signal de chrominance
émis pendant cette ligne estRD ou BD .
1.6 Transmission radioélectrique des signaux de télévision [3] [7] [8]
La réception des images de télévision suppose, avant toute chose, que l’on dispose d’un collecteur
d’ondes, autrement dit, d’une antenne.
Une antenne constitue un organe de transition entre un conducteur (circuit, ligne, guide d’onde …)
et un milieu de propagation indéfini quelconque. Son rôle est réversible : à l’émission, elle
rayonne de l’énergie, à la réception, elle capte de l’énergie. Ses caractéristiques conditionnent la
qualité de la liaison.
1.6.1 Antenne d’émission de télévision
Une antenne d’émission est un conducteur qui transforme une énergie électrique en énergie de
rayonnement électromagnétique. Cette énergie est rayonnée sous la forme d’ondes
électromagnétiques qui sont définies par deux champs, l’un électrique, l’autre magnétique dont les
22
lignes de forces constitutives sont disposées perpendiculairement les unes par rapport aux autres,
et qui se déplacent à la vitesse de la lumière, soit 300.000km/s.
La même antenne peut souvent servir à émettre ou capter selon qu’elle est alimentée ou non en
courant.
Une protection améliorée contre les échos est un gage de la qualité des images reçues, dans des
emplacements où sévissent de nombreuses réflexions parasites.
Lorsque des problèmes d’encombrement et de poids se posent, il est évident d’envisager des
antennes qui ne sacrifient ni au gain, ni à la directivité. La solution c’est celle de l’antenne
panneau. L’antenne panneau est souvent réalisée sous la forme d’un groupement en quadruple
nappe.
En général, dans le système de transmission de télévision, les antennes utilisées sont à polarisation
rectiligne horizontale comme l’indique la figure suivante. Ce choix se justifie, qu’avec une telle
polarisation l’effet du multi trajet est minime par rapport à la polarisation verticale face à
l’environnement de propagation considéré.
Figure 1.10 : Onde rayonnée par l’antenne à polarisation horizontale
La principale caractéristique de cette antenne est sa grande largeur de bande (ce qui justifie son
utilisation en télévision). Voici l’allure du diagramme de rayonnement dans le plan horizontal et
dans le plan vertical de l’antenne panneau :
23
Figure 1.11a : Dans le plan horizontal
Figure 1.11b : Dans le plan vertical
Figure 1.11 : Allure du diagramme de rayonnement d'une antenne panneau
Pour améliorer le gain dans le plan horizontal, plusieurs antennes peuvent être placées les unes
au-dessus des autres.
Figure 1.12 : Association de plusieurs antennes panneaux
1.6.2 Antenne de réception de télévision
Une antenne de réception traduit un rayonnement électromagnétique en courant électrique induit.
L’antenne Yagi est l’antenne de réception de télévision la plus utilisée, de plus elle sert de base à
d’autres antennes de télévision.
Une telle antenne se présente sur la figure suivante :
24
Figure 1.13 : Antenne Yagi
Le diagramme de rayonnement d’une antenne Yagi est :
Figure 1.14 : Diagramme de rayonnement d’une antenne Yagi
Pour un rendement optimal, une antenne de réception de télévision doit être orientée
perpendiculairement à la direction de l’émetteur.
1.6.3 Zone de couverture d’un émetteur de télévision
En émission de télévision, les ondes se propagent sensiblement en ligne droite, donc on ne tient
généralement compte dans ce système que de la portée optique, soit une liaison à vue entre
antennes de l’émetteur et du récepteur.
Figure 1.15 : Liaison à vue entre les antennes de l'émetteur et du récepteur
On a la formule suivante qui donne la distance maximale du récepteur par rapport à l’émetteur
pour qu’il reste dans la zone de couverture de l’émetteur : ( )2157,3 hhD += en km.
25
Où h1 et h2 sont exprimées en mètres et représentent les hauteurs respectives des antennes
d’émission et réception par rapport au sol.
Cette formule n’est en fait que la portée optique d’un émetteur de télévision, mais on doit aussi
tenir compte du niveau de tension minimale, disponible aux bornes de l’antenne émettrice, pour
avoir une meilleure qualité de réception. Cette qualité pourra être obtenue lorsque la tension
disponible à l’antenne réceptrice est supérieure à 60dBµV soit 1mV en VHF (Very High
Frequency) et 63dBµV soit 1,41mV en UHF (Ultra High Frequency).
1.6.4 Défauts de transmission radioélectrique en émission de télévision
La principale source de défaut, comme dans toute liaison radioélectrique, est le trajet multiple du
fait que les fréquences des signaux rayonnées par les émetteurs de télévision sont facilement
renvoyées par un obstacle (montagne, building, …).
Le récepteur reçoit alors des signaux issus du rayon direct et des rayons réfléchis, ce qui dégrade
la qualité du son et de l’image en réception. Le premier effet du trajet multiple est l’apparition, à
l’écran d’un poste téléviseur, d’une image "fantôme" (image dédoublée) ou une image floue du
fait qu’on reçoit plusieurs fois le même signal mais décalé d’un petit intervalle de temps.
Le second effet, couramment appelé "fading", est l’atténuation importante des signaux si la
différence entre le trajet direct et réfléchi est supérieure à la demi-longueur d’onde d’émission.
Figure 1.16 : Principe de formation du dédoublement d’images
Pour réduire l’effet de ce phénomène, dans la transmission analogique on utilise une antenne de
réception beaucoup plus directive.
1.6.5 Réception de la télévision
La réception de la télévision, comme tout système de réception, consiste à effectuer les opérations
inverses appliquées aux signaux de télévision en émission pour retrouver ces signaux dans ses
états initiaux qui sont plus rapprochés à la production.
26
Bien que l’émission de télévision soit conditionnée par les paramètres des standards et les
systèmes de couleur, les téléviseurs d’aujourd’hui sont en général multistandards et multi
systèmes.
27
Chapitre 2 : Introduction à la télévision numérique et la norme DVB-T
2.1 Introduction
Le "numérique" a le vent en poupe. Depuis la sortie des premiers "CD" (Compact Disc) dans les
années quatre vingt, les applications du numérique n'ont cessé d'augmenter.
La télévision numérique n'est plus dans le domaine du futur, elle est maintenant une réalité dans le
monde. Aux États-Unis d'abord, où des satellites offrent depuis quelques années plusieurs dizaines
de chaînes de télévision en numérique ; en Europe ensuite, où on assiste à une véritable
mobilisation depuis les premières semaines de l'année 1996. Ce qui a permis la révolution
numérique, ce sont les progrès réalisés dans la compression des données et plus particulièrement
les travaux du groupe de normalisation MPEG (Moving Pictures Expert Group) dont furent issues
entre autres les normes MPEG-1 et MPEG-2.
Ce chapitre nous permettra donc d’élargir un peu nos connaissances sur :
- L’histoire de la télévision numérique ;
- La généralité sur la télévision numérique ;
- Et la norme DVB-T.
2.2 Histoire de la télévision numérique
Il est assurément difficile de donner une date précise marquant le premier pas de la télévision
numérique et, pour un observateur de 1995, cette époque se perd déjà dans la nuit des temps. On
peut néanmoins situer au milieu des années 60 le moment où des ingénieurs, dans un laboratoire,
réussirent l’exploit (car c’en était un, avec la technologie de l’époque) d’échantillonner à plus
d’une dizaine de mégahertz un signal vidéo et de le quantifier : c’était l’époque où les techniques
de transmission numérique et de commutation électronique prenaient leur essor dans le domaine
de la téléphonie, mais la numérisation de la transmission de la télévision représentait un enjeu bien
moindre. Les réseaux de transmission à grande distance par faisceaux hertziens venaient d’être
construits, les besoins quantitatifs ne croissaient que lentement et les besoins qualitatifs étaient
dominés par l’introduction du SECAM pour la télévision en couleur.
Le besoin était marginal et la technologie balbutiante. Un moteur puissant pour le développement
des techniques de base de la télévision numérique allait cependant apparaître peu après et occuper
le devant de la scène pendant toute la fin des années 60. Dans le domaine de télévision numérique,
cette période est à marquer d’une pierre blanche, car c’est pratiquement à ce moment qu’est
apparu pour la première fois le concept de compression. Le besoin était exactement le même que
celui qui préside aujourd’hui à la relance de la télévision numérique en transmission et en
28
diffusion : grâce à la numérisation, utiliser des supports de transmission banalisés, notamment sur
le réseau de transmission à grande distance et, grâce à la compression, abaisser le débit par voie et
donc le coût de transmission.
Le premier moyen pour abaisser le débit de transmission est apparu de manière assez naturelle en
visiophonie, puisqu’il s’agit de l’abaissement de la fréquence d’échantillonnage : le visiophone,
par construction, partait d’une résolution réduite, verticalement (267 lignes ou 313 lignes suivant
que la fréquence trame était de 60 ou 50Hz) et horizontalement (signal vidéo limité à 1MHz de
bande, alors que la télévision traditionnelle en demande 5 ou 6). En échantillonnant à 2MHz
(suivant la règle bien connue de Shannon, qui veut que, pour reproduire fidèlement un signal, on
l’échantillonne à 2 fois au moins sa fréquence maximum), on voit qu’il fallait une efficacité de
codage de l’ordre de 3 bits/échantillon si l’on voulait utiliser un système de transmission à
6,3Mbits/s et de moins de 1bit/échantillon si l’on voulait “passer” sur les voies à 1,5Mbits/s. C’est
cette situation qui les a poussés (les Bell Laboratories) à abandonner les chemins déjà en bonne
partie défrichés du codage “intra-image”, pour explorer un domaine vierge mais prometteur : celui
de l’exploitation de la redondance temporelle des signaux télévisuels par des systèmes de codage
“inter-image”. En deux mots, il s’agissait d’exploiter le fait que deux images successives prises à
la cadence normale de la télévision de 25 à 30 images par seconde se “ressemblent” beaucoup et
que, pour faire des économies de transmission, il “suffit” de transmettre ce qui a changé entre une
image et la suivante.
Avec le début des années 70, un tournant se produit dans la finalité des études et des
développements en matière de codage d’images : l’application au visiophone passe au second
plan, alors que s’ouvre le champ d’application à la télévision conventionnelle. On peut trouver un
signe de cette évolution, en même temps que de la lucidité des fondateurs, dans le fait que le
CCETT (Centre Commun d’Etudes de Télédiffusion et Télécommunications), qui voit le jour à
Rennes en 1972, inscrit la numérisation des images en première ligne de son champ
d’investigations, aux frontières des télécommunications et de l’audiovisuel. On peut penser qu’il
s’agit là d’une réaction de techniciens désireux de dépasser rapidement la cassure encore fraîche
du monde européen entre le PAL et le SECAM. On peut penser que le problème de la
normalisation de la télévision numérique de base était relativement simple, puisqu’il suffisait de
fixer trois paramètres : la fréquence d’échantillonnage de la luminance, celle de la chrominance, et
la finesse de quantification (nombre de bits/échantillon). Le dernier paramètre ne portait guère à
discussion car on savait, pratiquement depuis le tout début des travaux sur la numérisation des
29
images qu’il fallait 8bits/échantillon pour représenter et restituer toutes les demi-teintes. Par
contre, le choix des fréquences d’échantillonnage a fait l’objet de débats homériques,
essentiellement entre américains et européens. C’est pourquoi, lors d’une réunion “historique” à
Winchester en 1981, un compromis est pourtant trouvé qui devait être ensuite “coulé dans le
bronze” sous l’appellation de “Recommandation 601 du CCIR” (publiée en 1982). Cette norme
mondiale de représentation numérique de la télévision fixe à 13,5MHz la fréquence
d’échantillonnage de la luminance et à la valeur moitié, 6,75MHz, la fréquence d’échantillonnage
de chacun des 2 signaux de couleur. C’est la première fois qu’un pont est jeté entre les univers du
525lignes/60Hz (Amérique du Nord et Japon) et du 625lignes/50Hz (reste du monde, dont
l’Europe). A partir de cette date charnière, le numérique se déploie de manière assez progressive
dans le secteur de la production, en commençant bien sûr par les générateurs d’effets spéciaux et
les magnétoscopes et en s’étendant, au fur et à mesure des échéances de renouvellement de
matériel, à l’ensemble des équipements et des studios. Le premier studio “tout numérique”
opérationnel au monde a été mis en service à Rennes en 1985.
2.3 Généralité sur la télévision numérique [9]
Le numérique intervient à divers titres dans les processus d’information et de communication, en
particulier d’une part comme agent de transport et d’autre part comme facteur déterminant des
modes médiatiques utilisés.
Le procédé numérique permettra de faire passer cinq ou six chaînes par fréquence, là où
l’analogique ne permettait d’en faire passer qu’une seule.
Par définition, la numérisation est la conversion d'un objet réel en une suite de nombres permettant
de représenter cet objet en informatique ou en électronique numérique. On utilise parfois le terme
franglais "digitalisation" (digit signifiant chiffre en anglais). La numérisation est une des manières
de créer des données à traiter. Les procédés de numérisation sont multiples :
- La numérisation directe d'image par des matériels électroniques :
o Une caméra CCD, appareil photo numérique ;
o Un scanner ;
- La numérisation d'un modèle analogique (son, vidéo) :
o Par échantillonnage (sampling).
La suite de nombres obtenus est en général stockée dans un fichier.
La numérisation pose le problème de la représentation des données sous forme de nombre, donc
du format des données.
30
Pour numériser une image vidéo, la première étape consiste à sous diviser chaque image vidéo
selon une résolution donnée (normalement 720 x 486pixels pour une image vidéo normale) et à
associer une valeur numérique à chacun des éléments qui forment la couleur de ce pixel (RGB) en
utilisant une table de conversion de couleurs (normalement 24bits par pixels pour 16millions de
couleurs possibles en chaque point).
Ce procédé de conversion doit se faire très rapidement étant donné qu'une image vidéo
traditionnelle contient plusieurs milliers de pixels et que la vidéo analogique NTSC défile à près
de 30images par seconde (25images de 720 x 576pixels par seconde en PAL). Heureusement, il
existe actuellement plusieurs puces permettant d'accomplir cette tâche en temps réel.
Si un signal vidéo de 720x486pixels de résolution est numérisé en utilisant la norme RGB 4:2:2, le
fichier résultant sera de 1025,16Ko/image ou 30,03Mo/s. C'est ce qu'on appelle le format non
comprimé de ratio 1:1. Ces valeurs sont calculées de la façon suivante :
geoctets/ima 760 049 1 bits/pixel 24 pixels 486 pixels 720 =×× (2.01)
La conversion octets/image en Koctets/image est telle que :
Ko/image 1025,16 = octets Ko/1024 1 geoctets/ima 760 049 1 × (2.02)
La conversion Koctets/image en Koctets/s se calcule par :
Ko/s 30754,69 = images/s 30 Ko/image 1025,16 × (2.03)
Et la conversion Koctets/s en Moctets/s est telle que :
Mo/s 30,03 = Ko Mo/1024 1 Ko/s 30754,69 × (2.04)
Ces calculs sont valides pour le format NTSC. Pour le PAL, les calculs donneront environ
25,03Mo/s en se basant sur la résolution 720 x 576pixels à 25images/s.
La télévision numérique est un mode de diffusion de télévision dans lequel les signaux vidéo,
audio et de données ont été numérisés puis ordonnés dans un flux unique, le "multiplex", avant
d’être diffusés via les ondes électromagnétiques.
De nombreuses normes d'émission numérique sont aujourd'hui admises dans divers pays comme
l'ATSC (Advanced Television Standards Committee) aux Etats-Unis et au Canada, l'ISDB-T
(Integrated Service Digital Broadcast-Terrestrial) au Japon, le DVB (Digital Video Broadcasting)
en Europe,…. Pour ce qui est de notre travail, nous avons à étudier la norme DVB, en particulier
la DVB-T (Digital Video Broadcasting -Terrestrial).
Voici la chronologie de la télévision numérique terrestre avec la norme DVB :
31
Figure 2.01 : La chronologie de la Télévision Numérique avec la norme DVB
Notons que l’apparition de l’émission numérique de télévision est surtout liée au développement
des normes de compression, en particulier MPEG-2. Ajoutée aux techniques de transmission,
l’émission numérique de télévision est rendue possible, tout en conservant quelques ressources en
analogique (antenne de réception, canal de fréquence,…).
2.4 La norme DVB-T
Aujourd’hui, on ne peut que constater l’évolution rapide de la numérisation du monde de
l’audiovisuel. Cette numérisation est d’abord apparue dans les équipements et régie de production
pour ensuite gagner les secteurs des réseaux de transmission et de diffusion que sont le câble,
l'hertzien et le satellite.
Encore est-il qu'aujourd’hui, c’est au tour des réseaux hertziens terrestres d’être numérisés. Les
téléspectateurs abonnés ni au câble, ni au satellite pourront désormais recevoir chez eux des
images numériques et des services interactifs. C’est pourquoi, cette étude va nous permettre de
mieux comprendre les grands principes de fonctionnement de la diffusion numérique terrestre.
Dans ce chapitre, nous allons parcourir successivement les points suivants :
• La définition de DVB ;
• Ses objectifs ;
• Et ses paramètres.
2.4.1 Définition [11]
DVB ou Digital Video Broadcasting est le nom du projet européen associant plus de 180
structures (des industriels aux diffuseurs et aux instances de régulation) de plus de 20 pays en
32
Europe, qui a défini les standards de diffusion numérique Satellite (DVB-S ou Digital Video
Broadcasting - Satellite), Câble (DVB-C) et Hertzien (DVB-T ou Digital Video Broadcasting -
Terrestrial). Il a également défini un système de cryptage pour le contrôle d’accès. D’autres
standards DVB ont également été définis, comme le DVB-TXT (télétexte), DVB-MHP
(Multimedia Home Platform ou moteur d’interactivité) et plus récemment DVB-H (Handheld).
Le Digital Video Broadcasting (DVB, ou Transmission Vidéo Numérique) assure une réception
sans interférence, donnant ainsi accès à une image et un son de qualité remarquable.
Ce qui est encore nouveau aujourd'hui (depuis le 31 mars 2005), c'est la diffusion terrestre de ce
DVB (DVB-T) car depuis longtemps, ce signal est déjà diffusé par le satellite (DVB-S) et par le
câble (DVB-C).
2.4.2 Les objectifs du DVB
Les objectifs principaux du DVB sont :
- de créer un cadre européen pour un développement de la télévision numérique (satellite,
câble, hertzien) équilibré et guidé par le marché ;
- d’établir les spécifications techniques pour l’élaboration des normes ;
- de faciliter l’introduction de nouveaux services utilisant ces normes ;
- et de faciliter la coordination entre normalisation, recherche et développement.
DVB établit donc des spécifications techniques, qui sont ensuite soumises aux organismes de
normalisation pour devenir des normes européennes (ETSI ou European Telecommunications
Standards Institute pour les signaux de télévision numérique).
La compression des signaux audio et vidéo, la constitution du multiplex (multiplexage) et
l’embrouillage sont communs à tous les supports de diffusion (terrestre, câble, satellite). Il n’y a
que les techniques de transmission qui sont spécifiquement adaptées.
2.4.3 Les paramètres de la norme DVB-T [12]
Les paramètres issus de la norme nécessaires pour la planification des fréquences sont
essentiellement les suivants :
- le type de modulation : QPSK (Quadrature Phase Shift Keying), 16QAM (Quadrature
Amplitude Modulation), ou 64QAM ;
- le rendement de code ;
- le mode de réception (qui se traduit en type de canal de transmission, Rice pour le mode de
réception fixe et Rayleigh pour le mode de réception portable).
33
Le choix d’une combinaison de ces paramètres détermine la valeur du rapport porteuse / bruit
minimal (P/Bmin) nécessaire à l’entrée du récepteur numérique pour assurer une bonne réception et
cette valeur de P/Bmin se traduit par un niveau de champ minimal nécessaire au niveau de
l’antenne de réception. Ce dernier permet à son tour de déterminer le niveau de puissance à
l’émission nécessaire pour couvrir une zone donnée, d’où son influence directe sur la planification
des fréquences.
Par ailleurs, d’autres paramètres de la norme ont des conséquences sur la capacité et sur la qualité
de couverture du signal numérique, sans forcément influencer directement la planification des
fréquences. Ces paramètres sont :
- le mode (2k pour 1705 porteuses, ou 8k pour 6817 porteuses). Il influe, de par la durée du
temps symbole correspondant, sur la robustesse du signal vis-à-vis de certains types de
bruits (bruits impulsifs, plus gênants sur un système à 2000 porteuses) et sur la facilité de
réception en mobile (limitation de la vitesse avec le système à 8000 porteuses) ;
- la durée de l’intervalle de garde. Elle influe sur le débit utile total qui peut être transmis
dans un canal/fréquence numérique. D’un autre côté, un intervalle de garde plus grand
facilite l’ingénierie dans une plaque mono fréquence (SFN ou Single Frequency Network).
En France, le CSA (Conseil Supérieur de l’Audiovisuel) a effectué la planification des fréquences
en prenant comme hypothèse l’utilisation des paramètres suivants :
- Modulation : 64 QAM ;
- Rendement de code : 2/3 ;
- Mode de réception : fixe (canal de transmission de type Rice) ;
- Mode : 8k (6817 porteuses) ;
- Intervalle de garde : 28µs.
Avec ces paramètres, le niveau de champ médian minimal à planifier à une hauteur de 10m par
rapport au sol est de 53dBµV/m en bande IV et de 57dBµV/m en bande V. Comparé au champ
médian minimal à planifier à 10m pour la télévision analogique (65dBµV/m en bande IV et
70dBµV/m en bande V), nous pouvons déduire le recul de puissance du signal numérique par
rapport au signal analogique à l’émission qui permet de couvrir la même zone, qui est de 12dB en
bande IV et de 13dB en bande V. Il est rappelé que le recul de puissance est défini comme l'écart
numérique.
D’autre part, la planification des fréquences numériques dans une bande occupée par la télévision
analogique nécessite la connaissance d’un ensemble de valeurs de rapports de protection (un
34
rapport de protection est le rapport minimal qu’il faut respecter entre les niveaux d’un signal utile
et d’un signal brouilleur présents à l’entrée du récepteur pour assurer une bonne réception).
Les modulations employées seront donc choisies de manière très attentive en fonction du type du
canal de transmission et un arsenal de technique de correction d'erreur sera également mis en
place.
35
Chapitre 3 : La télévision numérique réalisée avec la norme DVB-T
3.1 Introduction [12]
Dernier moyen de communication électronique asservi à une réception fixe, la télévision devrait,
dans un avenir très proche, accéder à son tour au nomadisme ‘‘high-tech’’, comme l’ont fait
depuis longtemps déjà la radio, récemment le téléphone et l’ordinateur, plus récemment encore le
cinéma grâce au lecteur de DVD (Digital Versatile Disc) portable. Ainsi, la micro télévision ou
TNP (Télévision Numérique de Poche/Personnelle) pourrait se déployer en même temps, voire
plus rapidement, que la maxi télévision, celle que l’on reçoit sur de grands écrans adaptés à la
haute définition. Toutes les deux facilitées par l’avènement de la diffusion numérique, elles
constituent les deuxième et troisième volets du développement de celle-ci après l’accroissement
du nombre de chaînes.
Une des principales caractéristiques des canaux de diffusion numérique tient au fait qu'ils peuvent
subir de grandes dégradations sans que cela ne soit visible. Mais lorsque l'on dépasse un certain
seuil, la rupture de service est brutale et totale. C'est tout ou rien.
Ce chapitre va nous renseigner au mieux en ce qui concerne l’émission et la réception numérique
de la télévision par la diffusion terrestre. Dans ce cas, nous aborderons ci-après :
• Le synoptique de la chaîne de diffusion DVB-T ;
• L’étude de son fonctionnement ;
• Et le principe de réception numérique DVB-T.
3.2 Synoptique de la chaîne de diffusion DVB-T
Le schéma synoptique de base d’une chaîne de diffusion numérique est généralisé par :
Figure 3.01 : Synoptique de la chaîne de diffusion numérique
C’est dans le codage de source que s’effectuent : la numérisation du signal analogique, les
compressions audio et vidéo, …. Il permet aussi de supprimer certains éléments binaires peu
significatifs du signal numérisé. Après le codage de source, la source de signal numérique ainsi
constitué est caractérisée par son débit binaire.
36
Le codage de canal, appelé aussi codage détecteur et/ou correcteur d’erreurs, est une fonction
spécifique des transmissions numériques qui n’a pas son équivalent en transmission analogique.
Cette opération permet d’améliorer la qualité de la transmission. Le codage de canal consiste à
insérer dans le signal des éléments binaires dits de redondance suivant une loi donnée.
Pour émettre le signal ainsi obtenu, il faut l’adapter au canal de transmission d’où le dernier bloc.
Dans notre cas, nous avons comme application de cette chaîne de diffusion numérique la chaîne
d’émission de télévision numérique avec la norme DVB-T suivante :
Figure 3.02 : Synoptique de la chaîne de diffusion DVB-T
Le principe de cette chaîne de diffusion est l’adaptation des signaux de télévision en bande de base
à la sortie du multiplexeur aux caractéristiques du canal terrestre.
3.3 Fonctionnement de la chaîne de diffusion numérique DVB-T [6] [9] [10] [11] [12] [13]
[14] [15] [16] [17]
Comme nous l’avons vu dans le paragraphe précédent, avec un débit d'environ 30Mo/s, la vidéo
numérique non-comprimée exigerait donc plus de 1,8Go d'espace disque pour capter une minute
de vidéo. Le problème est donc de diminuer au maximum le nombre de bits ou d'octets utilisés
pour représenter une image et, par là, de réduire le débit binaire nécessaire pour la transmettre.
37
La première solution est de diminuer le nombre d'images par secondes, sauf qu'en dessous de 15 à
18images par seconde, notre œil commencera à capter une saccade plutôt désagréable.
La deuxième possibilité est de réduire le nombre de points de l'image par 2 ou par 4 sauf que la
qualité visuelle de l'image résultante sera passablement réduite, voire même inacceptable.
La troisième possibilité est de coder moins d'informations de couleur, sur 2octets (16 bits) par
pixel en 64 000couleurs, par exemple, ou encore sur un seul octet par pixel en palette de 256
couleurs. Pour les applications multimédia, cette solution est acceptable et d'ailleurs très
recommandée pour les présentations multimédia, mais pas pour le montage vidéo, même amateur.
Toutes ces méthodes auront bel et bien pour effet de réduire le débit des données, mais la
dégradation de l'image sera si importante que même un amateur la rejetterait. La seule vraie
solution au problème de débit est apportée par la compression, aussi appelée Bit Rate Reduction
(réduction du débit binaire), d’où le paragraphe qui suit :
3.3.1 Le codage de source
Retenu par DVB, le codage de source repose sur le standard MPEG-2. Il est appliqué à l’audio et à
la vidéo, et a pour fonction de réduire le débit numérique pour une économie de bande.
Les composantes Rouge, Verte et bleue d'un signal vidéo sont numérisées chacune sur 8 bits
(diffusion) ou 10bits (en production). En diffusion on obtient donc 256 niveaux de rouge, de vert
et de bleu soit un total de 16 777 216couleurs (256x256x256).
L'oreille étant particulièrement exigeante, le signal audio est numérisé sur 16 bits, ce qui permet
d'obtenir une résolution de 65536 niveaux. La fréquence d'échantillonnage doit être supérieure au
double de la fréquence analogique la plus élevée. Pour l'audio, les très bonnes oreilles peuvent
entendre un son jusqu'à 20000Hz. La fréquence d'échantillonnage devra être supérieure à
40000Hz. La norme a retenu 44100Hz pour le CD audio. Le DAT (Digital Audio Tape)
échantillonne à 48000Hz. Le signal NICAM (Near Instantanious Companding Audio Multiplexer)
étant limité à la transmission d'une fréquence maximum de 15kHz, l'échantillonnage se fera à
32000Hz.
Recevoir une émission de télévision en définition standard ne nécessite que 4Mbits/s, soit près de
quarante fois moins, et sans dégradation visible de qualité. Les normes de compression constituent
donc les fondations de la télévision numérique.
3.3.1.1 Compression MPEG-2
MPEG (Moving Pictures Expert Group) est un comité formé en 1988 et constitue une norme
internationale ISO (International Standardization Operating). Il s’agit d’un groupe de travail dont
38
le propos est de définir des standards pour la compression de la vidéo et de l’audio au format
numérique.
MPEG-2, un standard dédié originalement à la télévision numérique, offre une qualité élevée à un
débit pouvant aller jusqu'à 40Mbits/s, et 5 canaux audio. Le MPEG-2 fut conçu pour traiter des
séquences d'images entrelacées et a été retenu pour les chaînes gratuites.
Le but était de produire des images de la qualité d'un système vidéo composite avec un débit
binaire de l'ordre de 4 à 8Mbits/seconde ou des images de haute qualité avec un débit de 10 à
15Mbits/s. Les domaines d'application principaux de MPEG-2 sont liés à la distribution de
programmes vidéo : diffusion par satellite, télédistribution, Digital Versatile Disc ou DVD. Il
permet de plus une identification et une protection contre le piratage.
MPEG appliqué à l’audio :
Le principe de la compression audio consiste à utiliser les faiblesses de l’audition humaine pour
réduire la quantité d’information à transmettre sans pour autant détériorer la qualité du signal
audio. L’oreille humaine n’est capable de percevoir que des sons compris entre 20Hz et 20kHz et
pour chacune de ces fréquences, l’illustration suivante représente en A les différents seuils
d’audibilité.
Figure 3.03: Seuil d’audibilité en fonction de la fréquence en présence d’un signal perturbateur C
Avec :
A : seuil normal de l'audition
B : seuil modifié dû à la tonalité C
D : bande du bruit rendue inaudible par la présence de la tonalité C
Si des signaux sont proches en fréquence (C et D), le signal qui a l’amplitude la plus importante
aura pour effet de remonter le seuil d’audibilité B à son voisinage et par conséquent de rendre
l’oreille insensible aux fréquences voisines : il s’agit du phénomène de masquage fréquentiel.
39
D’autre part, l’oreille ne perçoit pas les sons faibles précédant ou suivant un son de forte intensité
et de même hauteur : il s’agit du phénomène de masquage temporel.
La compression audio va donc utiliser les propriétés acoustiques du système auditif humain décrit
par les deux phénomènes de masquage précédents. Un grand nombre de sons sont en effet
inaudibles et considérés comme inutiles. Ils sont alors éliminés du signal audio à transmettre,
permettant ainsi de réduire le débit sans que la qualité subjective d’écoute n’en soit altérée. Le
codage audio va dans un premier temps diviser la bande passante audio (20Hz – 20kHz) en 32
sous-bandes. Le modèle psycho-acoustique permet ensuite d’éliminer les signaux de sous-bandes
non perçus par l’auditeur et de quantifier chacune des sous bandes de manière à ce que le bruit de
quantification reste inférieur au seuil d’audibilité.
MPEG appliqué à la vidéo :
Le format vidéo numérique utilise 166Mbits/s de débit brut pour coder les images avant
compression. On souhaite obtenir à la sortie du compresseur, un débit de 15Mbits/s au format
MP@ML (Main Profile at Main Level : les profils définissent les outils de compression utilisés,
tandis que les niveaux caractérisent la résolution de l’image), d’où la nécessité de réduire ce débit
en partant des principes suivants :
- "Il est inutile de répéter un à un les points qui sont identiques sur une image".
- "Si une image est très semblable à sa voisine, il suffit de ne transmettre que leurs
différences".
- "Certaines informations peu ou non pertinentes pour notre système visuel peuvent être
codées plus grossièrement, voire supprimées".
On souhaite donc obtenir un fort taux de compression tout en préservant une bonne qualité
d’image. Les outils spécifiques pour la compression des images animées utilisent le principe selon
lequel une image renferme des pixels identiques. Il est donc inutile de coder séparément chacun de
ces pixels puisqu’un seul peut les caractériser tous. D’autre part, il existe une très forte corrélation
entre les images successives.
La compression MPEG-2 va s’effectuer sur des séquences répétitives d’images, appelées GOP
(Group Of Pictures), qui se composent de trois types d’images en partant du principe qu’une
image d’une séquence est généralement très peu différente de celle qui la précède. Ces images
sont appelées : I (Intra), P (Prédite), B (Bidirectionnelle). Un GOP est une séquence d’images
comprises entre deux images « I ».
40
Figure 3.04 : Enchainement des trois types d’images MPEG sur un GOP
o Les images "I" : ce sont des images de référence comprimées de manière
indépendante, sans référence à une autre image. Elles sont codées en JPEG (Joint
Pictures Expert Group) sans aucune référence à d’autres images. Elles contiennent
tous les éléments nécessaires à leur reconstruction par le décodeur. Leur taux de
compression est le plus faible car il fait seulement l’objet d’un codage de type
JPEG. Elles sont le point d’entrée à une séquence.
o Les images "P" : ces images sont codées en tenant compte des images «I» ou «P»
prédites précédentes. Elles sont codées par rapport à l’image de type I ou P
précédente grâce aux techniques de compression avec compensation de
mouvement. On ne pourra pas multiplier indéfiniment le nombre d’images «P»
entre deux images «I», car, étant utilisées pour coder d’autres images «P» ou «B»,
elles propagent en amplifiant toute erreur de codage. Leur taux de compression est
nettement plus important que celui des images «I» car on ne code plus que l’erreur
de prédiction qui est normalement moins riche en détails fins que l’image
d’origine.
o Les images "B" : elles sont obtenues par interpolation bidirectionnelle entre les
images «I» et «P» qui les entourent. Comme elles ne sont pas utilisées pour définir
d’autres images, les images B ne propagent donc pas les erreurs de codage, elles
présentent le taux de compression le plus élevé.
La norme de compression MPEG-2 est la norme de compression vidéo broadcasting conçue pour
toutes les applications de distribution d’images et de sons par satellite, câble et voie terrestre. Elle
introduit le principe de profils et de niveaux. Ce sont des techniques de codage et de compression
dont résulte chaque fois un débit maximal. De toutes les combinaisons, MP@ML est devenue la
norme de diffusion numérique pour la télévision avec un débit de 15Mbits/s.
41
3.3.1.2 Multiplexage et embrouillage
Multiplexage des programmes
Les données audio et vidéo viennent de subir des opérations de réduction de débit. Il est nécessaire
maintenant d’organiser ces données grâce à des codeurs audio et vidéo qui fournissent à leur sortie
des trains élémentaires de données ES (Elementary Stream). Chaque train élémentaire (ES) est
divisé en paquets qui constituent ainsi un PES (Packetized Elementary Stream) comme le montre
la figure 3.05. Les PES sont obtenus en découpant le flux ES en morceaux plus ou moins longs.
Un en-tête est rajouté à chaque paquet PES pour l’identifier. Ces paquets restent de longueur
importante et variable et ne sont pas du tout adaptés à la transmission.
Figure 3.05a : Mise en paquets du signal vidéo
Figure 3.05b : Mise en paquets du signal audio
Figure 3.05 : Mise en paquets des données élémentaires
En transmission, on travaille avec des paquets de format court, fixe et à débit constant. C’est
pourquoi on réalise à partir des flux de données PES, un flux de transport TS (Transport Stream)
composé de paquets de 188octets (4 octets d’en-tête (Packet header) et 184octets de données utiles
(Payload)). Ces paquets TS sont obtenus en découpant les PES en petits morceaux de 184octets
(Payload).
Figure 3.06 : Hiérarchie du flux transport stream
Les PES vidéo sont découpés en TS vidéo et les PES audio sont découpés en TS audio.
42
Les PES audio et vidéo d’un même programme sont multiplexés pour obtenir un SPTS (Single
Program Transport Stream).
Les SPTS de plusieurs programmes peuvent être ensuite multiplexés par un opérateur de
multiplexage pour obtenir un MPTS (Multiple Program Transport Stream).
Figure 3.07 : Organisation du flux de transport TS, SPTS et MPTS
Le multiplexage permet la diffusion dans un même canal de plusieurs programmes de télévision
(cinq à six) organisés en « multiplex de programmes ».
Toutes les données numériques organisées en flux de transport SPTS sont ensuite transmises à
l’opérateur de multiplexage.
Figure 3.08 : Opérateur de multiplexage
43
La technique du multiplexage permet l’insertion de données associées telles que le sous-titrage, le
système d’information facilitant la navigation entre les différents services du ou des multiplex (5 à
6 programmes audiovisuels sur la même fréquence), ainsi que les services interactifs.
Avec le numérique, on gagne de la place mais ça ne veut pas dire qu’on va diviser une bande de
8Mhz uniformément en 5 ou 6 plages. Les programmes sont donc comprimés et vont pouvoir
voyager ensemble par petits morceaux sur la même bande de 8Mhz, là où ils trouvent de la place.
Au final, toute la bande sera occupée, et les 5 ou 6 programmes qui voyageront ensemble sur la
même bande formeront un multiplex.
Embrouillage
Une partie des émissions numériques seront payantes. La norme DVB a donc défini un algorithme
commun d’embrouillage CSA (Common Scrambling Algorithm) qui consiste à transformer un
signal numérique en un signal numérique aléatoire en vue d’en faciliter la transmission ou de le
rendre inintelligible.
L’embrouillage peut intervenir à deux niveaux : soit au niveau paquet élémentaire de données
PES, soit au niveau paquet transport TS.
3.3.2 Séparateur
Comme on l’observe dans la synoptique de la chaîne de diffusion en DVB-T, le séparateur fournit
à sa sortie deux flux de priorité différente : haute et basse.
La notion haute priorité résulte du fait qu’il y a une grande protection contre les erreurs de
transmission et que le débit binaire est assez bas. Quant au flux basse priorité, il sous entend la
faible protection contre les erreurs de transmission et un débit binaire élevé. Pour un décodage
sans erreur, la réception du flux basse priorité nécessite de meilleures conditions de réception.
3.3.3 Codage de canal
Le codage de source vient d’être effectué et on dispose maintenant d’un flux de transport MPEG-2
TS que l’on désire transmettre par voie radiofréquence vers les utilisateurs. Le canal de
transmission n’étant pas exempt d’erreurs qui viennent perturber le signal utile (bruit,
interférences, échos…), il est nécessaire de prendre des mesures avant la modulation pour
permettre la détection et la correction dans le récepteur des erreurs apportées par le canal de
transmission. Ces mesures, dont la principale consiste à apporter de la redondance au flux de
multiplex, constituent l’essentiel du codage de canal. Lorsque les conditions de transmission
deviennent mauvaises, on constate une disparition totale du signal en numérique. C’est pourquoi,
44
les données à transmettre MPEG-2 TS sont séparées en deux modes : mode hiérarchique et mode
non hiérarchique.
- Le mode hiérarchique
• Mode Simulcast
Il offre la possibilité de transmettre le flux de transport MPEG-2 TS multiplexé en un flux de
transport haute priorité (grande protection contre les erreurs de transmission et débit binaire assez
bas) et un flux de transport basse priorité (faible protection contre les erreurs de transmission et
débit binaire élevé) incluant les modules en pointillé dans la partie codage de canal du schéma
synoptique de la figure 3.02. La réception du dernier flux conduit à une meilleure qualité mais
nécessite de meilleures conditions de réception pour un décodage sans erreur.
• Mode non simulcast (multiprogramme)
Le flux basse priorité peut contenir un ou plusieurs programmes différents de ceux présents dans
le flux haute priorité. Un récepteur portable pourra décoder les programmes transmis avec une
forte protection tandis qu’un récepteur fixe pourra décoder le flux basse priorité permettant
d’obtenir des programmes supplémentaires.
- Le mode non hiérarchique
Ce mode nécessite uniquement le traitement représenté en traits pleins sur le schéma synoptique
de la chaîne de diffusion de la figure 3.02. La séparation n’est plus nécessaire, ce qui entraîne
qu’un flux peut véhiculer un ou plusieurs programmes protégés de façon identique qui supprime
alors de la chaîne de diffusion la partie où circule le flux basse priorité.
3.3.3.1 Dispersion d’énergie (brassage)
Le flux de transport d’entrée MPEG-2 TS est organisé en paquets de longueur fixe de 188octets.
Ici on veut répartir l'énergie sur l'ensemble du canal de transmission.
Le brassage sert à effectuer une dispersion d’énergie, c’est-à-dire, une répartition uniforme de
l’énergie dans le canal d’émission afin d’éviter les longues suites de 1 ou de 0 qui créeraient des
raies parasites dans le spectre du signal et qui empêcheraient la récupération de l’horloge. Il assure
cependant qu'un flux numérique soit envoyé au modulateur même s'il n'y a pas de signal vidéo à
transmettre.
Par embrouillage du polynôme générateur g(x), le signal TS est rendu quasi-aléatoire tel que :
15141)( xxxg ++= (3.01)
Pour pouvoir faire le traitement inverse en réception, on emploie deux mécanismes de
synchronisation. Au premier paquet TS qui se présente, on charge le générateur (série de registre à
45
décalage) avec un mot d'initialisation connu (100 1010 1000 0000) et l'octet de synchronisation du
paquet (47H) est inversé pour devenir B8H. Huit paquets d'affilée sont ainsi brassés. Au neuvième
paquet, le mot d'initialisation est de nouveau chargé et l'octet de synchronisation est de nouveau
inversé.
La fonction de dispersion d'énergie se valide par la porte ET (ou en anglais AND), grâce à l'entrée
E qui est mise au niveau bas à chaque octet de synchronisation pour ne pas les brasser et ainsi
conserver ces points de repère.
On attend un octet ayant le mot de synchronisation B8H pour charger le mot d'initialisation et
débrasser les huit paquets.
Figure 3.09 : Schéma du brasseur
C'est un dispositif simple formé de 15 registres à décalage, d’un ET et d'un OU exclusif. Le même
circuit s'emploie à la réception.
3.3.3.2 Codage Reed-Solomon (codage externe)
Afin de pouvoir corriger la majeure partie des erreurs introduites par le canal de transmission, on
introduit une redondance dans le signal permettant de détecter et de corriger ces erreurs. Le code
utilisé est un code de Reed-Solomon RS (204, 188, T=8) qui permet, complété d’un procédé
d’entrelacement, de corriger les erreurs en rafale (plusieurs octets consécutifs). Il s’applique à tous
les paquets de transport TS brassés de 188 octets, y compris les octets de synchronisation (inversés
ou non) :
Figure 3.10 : Format des paquets transport protégés
46
RS (204, 188, T=8) signifie qu’avec 188octets en entrée, 204octets en sortie, 8octets erronés par
paquet peuvent être corrigés en sortie, au delà le paquet sera considéré comme défectueux. Ceci
est possible puisque sa distance minimale de Hamming est d = 17octets ; ce qui permet bien de
corriger jusqu'à 82
1 =−= dt octets erronés. Le codage Reed-Solomon est donc particulièrement
bien adapté à la correction de petits paquets d’erreurs.
Le code Reed-Solomon ajoute 16octets de redondance derrière chaque paquet TS du train MPEG-
2 de 188octets portant ainsi à 204octets la longueur des séquences à la sortie du codeur.
Le polynôme générateur de ce code est :
( )( )( ) ( )( )1514210 ........)( λλλλλ +++++= xxxxxxg (3.02)
Avec H02=λ ou simplement :
161515
22
110 ...)( xxgxgxggxg +++++= (3.03)
Où les coefficients gi sont donnés par :
Coefficient Valeur en hexadécimal
g0 3B
g1 24
g2 32
g3 62
g4 E5
g5 29
g6 41
g7 A3
g8 08
g9 1E
g10 D1
g11 44
g12 BD
g13 68
g14 0D
g15 3B
Tableau 3.01 : Coefficients du polynôme générateur
47
Pour comprendre l'esprit de ce code, voici un exemple très simple : imaginons que nos paquets TS
fassent 3octets de long et que l'on transmette le paquet suivant : 03 10 15, on va rajouter deux
octets de redondance. Le premier est la somme de nos trois données soit 28, le deuxième est la
somme pondérée des 3octets telle que chaque octet est multiplié par son rang : 3x1 + 10x2 + 15x3
soit 68. Notre paquet à la sortie du codeur devient donc : 03 10 15 28 68 Après transmission et
perturbation, le récepteur reçoit le paquet : 03 12 15 28 68. On refait la somme simple
03+12+15=30 et la somme pondérée 3x1 + 12x2 + 15x3=72. La différence des sommes simples
(30-28) nous donne la valeur de l'erreur et la différence des sommes pondérées divisée par l'erreur
est égale au rang de l'erreur, donc (72-68)/2=2. On peut alors corriger notre paquet.
Le décodage à la réception est basé sur l'algorithme de Peterson-Gorenstein-Zierler qui utilise des
calculs matriciels. Cette procédure consiste à déterminer la localisation des erreurs dans le
polynôme reçu ainsi que l'amplitude de l'erreur (le symbole qu'il faudrait ajouter au symbole reçu
afin de retrouver le symbole encoder d'origine).
3.3.3.3 Entrelacement externe
Cette étape est destinée à augmenter l’efficacité du codage de Reed-Solomon. Un code a une
capacité de correction de paquets d’erreurs très inférieure à la capacité de correction d’erreurs
isolées. Afin de rendre plus efficace la correction par le codage Reed-Solomon, on disperse les
erreurs au moyen d’un entrelaceur. A la réception, l’ordre initial des échantillons est rétabli, ce qui
a pour effet de diviser les paquets d’erreurs en erreurs isolées et de faciliter la correction.
L’entrelacement n’augmente pas la capacité de correction mais seulement son efficacité. Une des
choses les plus difficiles à corriger est une longue suite de bits ou d'octets consécutifs erronés. On
va donc répartir, à l'émission, les octets d'un paquet dans d'autres paquets.
Dans la pratique on utilise un jeu de registres à décalage et de commutateurs pour placer chacun
des octets d'un paquet dans des 12 paquets différents.
Figure 3.11 : Principe de l'entrelaceur et du désentrelaceur
48
Notons que chaque registre à décalage ‘‘R’’ est composé de 17 cellules de 1octet.
A gauche, l'entrelaceur et à droite, le désentrelaceur. Ce qui d'un point de vue paquet se traduit
par :
Figure 3.12 : Résultat de l'entrelacement et du désentrelacement
A : avant entrelacement B : après entrelacement C : après désentrelacement
Le premier octet du paquet An va être le premier octet du paquet Bn. Le deuxième octet du paquet
An devient le deuxième octet du paquet Bn+1, et ainsi de suite jusqu’au 12ième octet du paquet An,
qui va devenir le 12ième octet du paquet Bn+11. On reprend de nouveau le cycle, c’est-à dire que le
13ième octet du paquet An va être le 13ième octet du paquet Bn, et ainsi de suite jusqu’au 204ième
octet du paquet An qui sera le 204ième du paquet Bn+11.
Voici un exemple d’utilisation de l’entrelacement : considérons la suite de paquets de 5octets
suivante :
niche
chien
poule
tasse
fours
balles
video
audio
petit
porte
49
Chaque paquet est mis en mémoire horizontalement et relu verticalement. Ainsi si on relit les
paquets depuis le e de niche, cela donne les paquets suivants :
eeuaf nlsob esuav erlia sldup eedep soito
A la suite de la transmission, on reçoit la séquence suivante affectée d'erreur :
eeuaf nlsob esuav **lia s***p eedep soito
Après désentrelacement, on retrouve les mots suivants :
e - - - - tass* fou*s bal*es vi*eo - - - -
On voit nettement que l'entrelacement a permis de répartir les erreurs sur plusieurs paquets. Seul
un octet par paquet est affecté et le code Reed Solomon, vu avant, peut facilement corriger ces
erreurs. Sans entrelacement, ce sont les mots complets qui auraient été affectés sans espoir de
pouvoir les récupérer.
3.3.3.4 Codage convolutif (codage interne)
Comme le canal de transmission hertzien est un canal fortement perturbé, il convient de renforcer
encore les mesures de protection des données à transmettre par l’ajout d’un deuxième code
correcteur d’erreurs : le code convolutif. La forte redondance introduite par ce code permet une
correction d’erreurs efficace, mais elle double le débit initial. Afin d’en améliorer le rendement
qui est de 1/2, on va effectuer une opération de poinçonnage en ne transmettant pas tous les bits en
sortie du codeur convolutif, dans le but de réduire la redondance du code et le débit total.
Rendement R Schéma de poinçonnage Séquence transmise après conversion parallèle / série
3/4 X : 101 Y : 110 X1Y1Y2X3
Tableau 3.02 : Matrice de poinçonnage pour un rendement de 3/4
L'idée du code convolutif est de lier un bit à un ou plusieurs bits précédents de sorte à pouvoir
retrouver sa valeur en cas de problème. Voici le codeur utilisé par DVB :
50
Figure 3.13 : Le codeur utilisé dans DVB
On voit que chaque bit incident va générer deux bits sortants et qu'il sera lié aux 6bits précédents.
Le bit 1 de sortie est un "OU exclusif" entre les bits 1, 2, 3, 4 et 7 tandis que le bit 2 de sortie est
un "OU exclusif" des bits 1, 3, 4, 6 et 7.
Ce code dit "en treillis" va permettre de retrouver la valeur la plus probable d'un bit en observant
les bits précédemment reçus et l'opération de décodage est réalisée en réception par le décodeur de
Viterbi.
Une autre opération doit être faite après le codage convolutif pour améliorer le rendement de ½ :
c’est le poinçonnage. Il consiste à ne pas transmettre certains bits sortant du codeur convolutif. Si
trois bits se présentent en entrée du codeur, on va en retrouver six en sortie mais on n’en
transmettra que quatre. Le rendement sera alors de 3/4. On parle aussi de FEC 3/4 (Forward Error
Correction). Voici un tableau montrant quelques rendements et quelques FEC :
Nombre de bits en entrée Nombre de bits en sortie Nombre de bits transmis FEC
1 2 2 1/2
2 4 3 2/3
3 6 4 3/4
5 10 6 5/6
7 14 8 7/8
Tableau 3.03 : Le poinçonnage
Bien sur, ce poinçonnage crée des erreurs puisque l'on ne transmet pas tous les bits. En réception,
dans le décodeur de Viterbi, on remplace ces bits par des zéros. De part la robustesse et la nature
du code convolutif choisi, on retrouve leur valeur la plus probable.
51
Il est à noter que dans le cas de la transmission par câble, qui est considéré comme un milieu
protégé, il n'y a pas d'application du code convolutif et donc du poinçonnage.
Avant d’associer la suite d’éléments binaires au symbole relatif à QPSK ou QAM-16 ou QAM-64,
l’entrelacement interne est effectué.
3.3.3.5 Entrelacement interne
Il est décomposé en :
- entrelacement de bits : qui permet de supprimer la corrélation des erreurs en
véhiculant sur une porteuse des bits qui ne sont pas consécutifs.
En mode non hiérarchique, l’unique flux de bits à l’entrée est démultiplexé en v flux où v est le
nombre de bits associés à un symbole (2bits pour QPSK, 4 pour QAM-16, 6 pour QAM -64). Si
nous allons noter : dX le bit en entrée du démultiplexeur où l’indice d désigne le rang du bit à
l’entrée, et 0,deb le bit sur une sortie du démultiplexeur où l’indice edésigne le numéro de la sortie
du démultiplexeur et d0 le rang du bit sur cette sortie ; nous avons la correspondance suivante :
0,ded bX → tel que :
[ ] [ ]2/2)2/)(( vdvdivvde ×+= (3.04)
Et
)2/)((0 vdivdd = (3.05)
Où [ ]signifie modulo et div désigne l’opérateur de division entière.
Par exemple, pour QAM-16, 4=v et 0,33 bx → puisque : [ ] [ ] 32322)(43 =×+= dive
Et 4)(30 divd = .
Ce qui donne bien 3=e et 00 =d .
En mode hiérarchique, le flux de bits haute priorité est démultiplexé en 2 flux et celle basse en
)2( −v flux. En notant dx' l’entrée haute priorité et dx" celle basse priorité, les indices eet
0d seront calculés par : [ ]2de= et 2)(0 divdd = pour 0,deb correspondant à dx' tels que :
[ ] 2)2
2(2)2
2)()(2( +
−×+−−= vdvdivvde (3.06)
Et
)2)((0 −= vdivdd (3.07)
Pour 0,deb correspondant à dx" .
52
En réception, après démultiplexage, chaque donnée 0,deb est groupée en 126bits pour former le
vecteur )(cB et passe dans l’entrelaceur de bit. Ce dernier associera le vecteur
),…,a,a,aA(e) = (a e,e,e,e, 125210 à chaque vecteur ),…,b,bB(e) = (b e,e,e, 12510 présent à son entrée avec
[ ]125,0)(,, ∈∀= wba weHewe où )(weH est la fonction d’entrelacement qui diffère pour chaque
entrelaceur. Il y a v entrelaceurs et dont leurs sorties sont groupées pour former les symboles de v
bits appelés symboles numériques. La sortie de l’ensemble est alors décrite par le
vecteur ),...,,(' ,1,1,0 wvwww aaay −= .
- entrelacement de symboles : qui consiste à effectuer des permutations des symboles
numériques issus des entrelaceurs de bits de façon à ce que les symboles
numériques successifs ne soient pas transmis sur des porteuses adjacentes. En fait,
ces symboles modulent des multiples de porteuses dont le nombre ( maxN ) sont
respectivement 1512 et 6048 pour les modes 2k et 8k.
Ainsi, l’entrelaceur de symboles associe le vecteur ),...,,,( 1max210 −= NyyyyY pour chaque vecteur
)',...,',','(' 1max210 −= NyyyyY à son entrée et selon une fonction de permutation décrite par un
algorithme.
Nous avons donc à la sortie de l’entrelaceur le symbole numérique qy formé de v
bits ),...,,( ,1,1,0 qvqq yyy − .
L’entrelacement de bits permet de supprimer la corrélation des erreurs en véhiculant sur une
porteuse des bits qui ne sont pas consécutifs. Quant à l’entrelacement de symboles, il permet de ne
pas moduler plusieurs porteuses consécutives par des symboles consécutifs.
Nous avons à la sortie du codage de canal, une suite de symboles qui vont être appliqués à une
constellation et qui va nous permettre de convertir du binaire sous une forme d’amplitude/phase et
les moduler sur une onde porteuse.
3.3.4 Adaptation au canal de transmission terrestre
Les systèmes de transmission numérique véhiculent de l'information entre une source et un
destinataire en utilisant un support physique comme le câble, la fibre optique ou encore, la
propagation sur un canal radioélectrique. Les signaux transportés peuvent être soit directement
d'origine numérique, comme dans les réseaux de données, soit d'origine analogique (parole,
image...) mais convertis sous une forme numérique. La tâche du système de transmission est
d'acheminer l'information de la source vers le destinataire avec le plus de fiabilité possible.
53
Le signal numérique a une forme rectangulaire et son spectre en fréquence est infini (unx
xsin ).
Donc, il nécessite un filtrage de façon à réduire la bande occupée. Le filtre choisi est le filtre de
Nyquist qui va diminuer le débit utile de notre signal en fonction d'un coefficient appelé Roll Off
et notéα . La largeur de bande occupée sera égale à :
)+1 ( utile Débit =occupée bande de Largeur α× (3.08)
3.3.4.1 Modulation numérique et adaptation trame
La modulation a pour rôle d'adapter le spectre du signal au canal (milieu physique) sur lequel il
sera émis. Cette opération consiste à modifier un ou plusieurs paramètres d'une onde porteuse
centrée sur la bande de fréquence du canal. Les paramètres modifiables sont : l’amplitude, la
phase et la fréquence.
Dans les procédés de modulation M-aire, le signal est transmis à l'aide d'un paramètre qui prend M
valeurs. Ceci permet d'associer à un état de modulation un mot de n digits binaires.
A la sortie de l’entrelaceur interne, on obtient une suite de symboles qy qui vont être appliqués à
la constellation (conversion binaire en amplitude/phase).
Figure 3.14: Mapping des symboles
Un mappeur associe les symboles qy formés de v bits à un symbole complexe kkk jbac += . Les
v bits sont décomposés en deux groupes pair et impair. Le groupe de bits pair correspond aux
symboles ka et le groupe impair correspond aux symboleskb . Ces deux symboles prennent leur
valeur sur l’alphabet A conforme à la modulation utilisée telle que QPSK, QAM-16 et QAM-64
uniforme ou non uniforme.
Lorsqu’on module les porteuses OFDM, on utilise une modulation hiérarchique ou non
hiérarchique.
La modulation hiérarchique permet d’assurer la transmission de deux multiplex DVB-T
autonomes sur un seul canal de télévision. Elle nécessite le choix du quadrant de phase sur la base
de deux bits d’un train de données QPSK en haute priorité (HP), et de la formation de la
constellation phase /amplitude complémentaire à l’intérieur du quadrant sélectionné en fonction
des deux ou quatre bits restants (QAM-16 ou QAM-64) d’un autre train de données en basse
54
priorité (BP). Dans la modulation non hiérarchique, le mappeur associe directement le symbole
numérique qy à un symbole complexekc .
Nous allons voir ici deux méthodes de modulation numérique : le QAM-16 et le QAM-64.
La transmission distincte des deux trains de données HP et BP, qui ont chacun leur propre
protection contre les erreurs, se traduit par le fait que la transmission de la QPSK incorporée dans
une modulation QAM-16 ou QAM-64 est moins sensible au brouillage que la QAM-16 ou la
QAM-64.
La modulation QAM-16
Les bits HP du symbole numérique qy sont qy ,0 et qy ,1 . Leurs combinaisons définissent la
position du symbole kc (associé àqy ) dans l’un des quatre quadrants. Pour les retrouver en
réception, il suffit de trouver le quadrant auquel le symbole complexe reçu pourrait appartenir. Les
bits BP du symbole numérique qy sont qy ,2 et qy ,3 . Associés aux bits HP, ils définissent
exactement la position de kc dans la constellation QAM-16. Leur décodage en réception sera
beaucoup plus compliqué car ceci nécessite d’abord la connaissance de la position du symbole
complexe reçu pour estimer le symbole numérique associé à ce dernier et pour extraire finalement
les bits BP.
Si chaque axe code maintenant deux bits, on va transporter 4 bits par symbole :
Figure 3.15: La constellation QAM-16
La modulation QAM-64
La procédure est la même que dans le cas du QAM-16, mais les bits BP sont augmentés de qy ,4 et
de qy ,5 au lieu de qy ,2 et de qy ,3 seulement.
Pour ceci, il faut coder 6bits par symbole :
55
Figure 3.16: La constellation QAM-64
Notons que pour une modulation QAM-32, elle nécessite le codage en 5bits d’un symbole.
On voit que plus on code de bits par symbole, plus les symboles sont rapprochés et donc plus on
est sensible au bruit. Un symbole très bruité et donc éloigné de son emplacement d'origine, peut
être confondu avec le symbole adjacent (d'ou l'utilité des opérations d'entrelacement et de
correction d'erreurs).
3.3.4.2 Modulation OFDM
Les techniques qu’on appelle multiporteuses consistent à transmettre des données numériques en
les modulant sur un grand nombre de porteuses en même temps. Ce sont des techniques de
multiplexage en fréquence qui existent depuis longtemps.
Pour OFDM (Orthogonal Frequency Division Multiplexing) ou MTC (Multi-Tone Channel), le
principe est de transmettre des données numériques en parallèles modulées sur un grand nombre
de porteuses à bas débit. Il consiste à grouper des données numériques par paquets de N, qu’on
appellera symbole OFDM et de moduler par chaque donnée une porteuse différente en même
temps.
Pour expliquer ceci, considérons la séquence de N données 110 ,...,, −Nccc en provenance du
mappeur. Appelons sT la durée symbole c’est-à-dire le temps qui sépare deux séquences de N
données. Chaque donnée kc module un signal à la fréquence kf telle que [ ]maxmin, KKk ∈ avec
0min =K et 1704max =K pour le mode 2k et 6816max =K pour le mode 8k. Le signal individuel
s’écrit sous forme complexe tkfj
kecπ2
; et le signal s(t) total correspondant à toutes les données
d’un symbole OFDM est la somme des signaux individuels :
56
tkfjN
kkects
π2
01 )( ∑=
= (3.09)
Le multiplexage est orthogonal si l’espace entre les fréquences estsT
1 . Alors :
sk T
kff += 0 (3.10)
Et
sTktjN
kk
tfjecets
ππ
21
0
02
1 )( ∑=−
= (3.11)
Voici le schéma de principe de la modulation :
Figure 3.17: Schéma de principe d’un modulateur OFDM
Rappelons que le symbole OFDM est un regroupement de N symboles numériques sur N
porteuses. Chaque porteuse modulant une donnée pendant une fenêtre de duréesT , son spectre est
la transformée de Fourier de la fenêtre.
L'analyse algébrique indique que le signal de sortie est sous la forme de l’équation 3.09.
En discrétisant ce signal et en le ramenant en bande de base pour l'étude numérique on obtient une
sortie sous la forme :
Nkn
jN
kkecns
π21
01 )( ∑=
−
= (3.12)
57
Les )(1 ns sont donc obtenus par une Transformée de Fourier Inverse Discrète (TFID) deskc . En
choisissant le nombre de porteuses N tel que nN 2= , la Transformée de Fourier Inverse se
simplifie et peut se calculer par une simple IFFT (Inverse Fast Fourier Transform).
Voici une représentation des spectres :
Figure 3.18: Spectres des N porteuses
Cette figure montre que l’espace entre chaque sous-porteuse sT
1 permet, lorsque le spectre d’une
sous-porteuse est maximal, d’annuler le spectre de toutes les autres : c’est la condition
d’orthogonalité. Et le spectre total est la somme des spectres individuels.
Par exemple, pour huit porteuses, les spectres sont représentés comme suit :
Figure 3.19: Spectre du signal OFDM pour huit porteuses
La figure ci-dessus montre qu’alors, la bande en fréquence est occupée de façon optimum, puisque
le spectre est presque plat dans cette bande. La bande occupée est à peu près sT
NB = (en 9
excluant les lobes secondaires de part et d’autre de la bande), chaque sous-porteuse occupant à peu
près 1/TS.
58
D’après la figure 3.17, le modulateur ainsi que le démodulateur devrait comporter N modulateurs
individuels ; ce qui est suffisamment grand en DVB-T.
Le principe de la démodulation dépend des perturbations subies par le signal après son passage
dans le canal. Les modulations multiporteuses sont particulièrement utiles pour des canaux
comportant des échos multiples.
L’OFDM associé au code convolutif constitue le système COFDM ou Coded Orthogonal
Frequency Division Multiplexing. C’est pourquoi nous parlerons de cette modulation dans le
paragraphe suivant.
3.3.4.3 Modulation COFDM (Coded Orthogonal Frequency Division Multiplexing)
C’est une des spécificités de la télévision numérique par voie terrestre : cette dénomination
(COFDM) se justifie par le fait que l’on assure la transmission à l’aide d’un multiplex fréquentiel
de sous porteuses orthogonales entre elles séparées par un intervalle de garde.
Le challenge relevé est qu'à la réception on puisse retrouver les symboles transmis
indépendamment des chemins multiples (réflexions, échos, antenne recevant deux émetteurs
différents, effet doppler dans le cas de la réception mobile) empruntés depuis le ou les émetteurs.
Une même suite de symbole arrivant à un récepteur par deux chemins différents se présente
comme la même information arrivant à deux instants différents et qui s'additionnent. Ces échos
provoquent deux types de défauts :
• L'interférence intra symbole : addition d'un symbole avec lui même légèrement déphasé ;
• L'interférence inter symbole : addition d'un symbole avec le suivant plus le précédent
légèrement déphasé.
Par définition, les caractéristiques d'un canal de transmission ne sont pas constantes dans le temps.
Mais durant un court laps de temps, les caractéristiques d'un canal hertzien sont stables. Le
COFDM découpe le canal en cellules selon les axes du temps et des fréquences.
59
Figure 3.20: Découpage des canaux en cellules
Le canal est alors constitué d'une suite de sous bandes de fréquence et d'une suite de segments
temporels :
Figure 3.21: La constitution d'un canal
A chaque cellule fréquence/temps est attribuée une porteuse dédiée qui représente un symbole
COFDM. On va donc répartir l'information à transporter sur un ensemble de ces porteuses,
modulée chacune à faible débit par une modulation du type QPSK ou QAM. Deux choix existent,
le mode dit 8k (6817 porteuses dans le canal) ou le mode dit 2k (1705 porteuses dans le canal).
Chacune des porteuses est orthogonale à la précédente.
Voici alors l’illustration d’une séquence OFDM :
60
Figure 3.22: Structure de la séquence OFDM
Entre chaque symbole transmis, on insère une zone ‘‘morte’’, connue sous l’appellation
‘‘intervalle de garde’’, à chaque début de symbole. Cet intervalle de garde est une valeur qu’il est
possible de paramétrer ; il permet de s’affranchir de l’interférence inter symbole qui résulte, au
niveau du récepteur, de la combinaison du signal direct et des différents échos. L’intervalle de
garde évite la prise en compte de ce signal déformé et doit donc être d’une période supérieure au
retard maximum apporté par les échos. Cependant, plus l’intervalle de garde est grand, moins on
transmet de symbole ; ce qui réduit le débit et oblige à augmenter le nombre de porteuses.
L’intervalle de garde prolonge la durée de chaque symbole transmis et assure donc un intervalle
de sécurité au symbole suivant. Le ratio de l’intervalle de garde par rapport à l’intervalle total pour
chaque symbole est en général de 1/4, 1/8, 1/16 ou 1/32.
Des pilotes de synchronisation sont insérées dans certaines porteuses pour faciliter le travail du
récepteur :
- Les pilotes fixes : ils sont toujours présents sur la même porteuse d’un symbole (177
porteuses en mode 8k et 45 en mode 2k) ;
- Les pilotes disséminés : ils occupent certaines porteuses de façon glissante d’un symbole à
l’autre et transportent des informations connues par le récepteur. Les porteuses pilotes vont
servir à estimer la fonction de transfert du canal et effectuer une égalisation du signal avant
démodulation.
- Les pilotes Transmission Parameter Signal ou TPS qui transportent un seul et unique bit de
données sur 17porteuses par symbole en mode 2k et 68porteuses par symbole en mode 8k.
Elles, ces porteuses, sont toujours présentes dans un symbole OFDM pour pouvoir accéder
à l’émission de télévision à tout instant.
61
Les deux premiers pilotes sont générés à partir d’un Pseudo Random Binary Sequence ou PRBS
connu par le récepteur, et sont émis selon une amplitude supérieure aux porteuses de données
utiles. L’insertion de ces porteuses pilotes est affectée dans le block adaptation trame du schéma
synoptique de la chaîne de diffusion DVB-T du paragraphe 3.2.
3.3.4.4 Conversion numérique/analogique et transposition radiofréquence
La suite formée de soixante huit symboles OFDM constitue une trame OFDM et quatre trames
forment une super trame c’est-à dire :
Mtrames_OFDOFDMsymboles 1_68 = et trameertrames _sup14 = (3.13)
Comme nous avons, issu du modulateur : Nkn
jN
kkecns
π21
01 )( ∑=
−
= ; le signal avant émission doit être
converti en analogique puis transposé vers la fréquence d’émission.
Le signal émis est organisé par trames :
∑ ∑ ∑=∞
= ==
0
67
0,,
max
min
,,
2)(.Re)(
m lklm
K
Kk
klm
tcfjtcets ψπ
(3.14)
Avec :
ss
smTslTtuTkj
klm TmltTmlpourailleurs
et )168()68(::0
)()68('2
,, ++≤≤+
=
−−∆−π
ψ (3.15)
Et 2
)(' minmax KK
kk+
−= où klmc ,, est le symbole complexe modulant la porteuse de rang k du
symbole OFDM de rang )1( −l dans la trame m ; et cf est la fréquence centrale du signal
radiofréquence (RF) émis.
3.3.4.5 Caractéristiques du canal de transmission terrestre
Le signal reçu en onde Hertzienne est rarement unique et de bonne qualité. Il subit des réflexions à
partir d’obstacle et prend des trajets différents. Tous ces phénomènes physiques entraînent des
échos et des évanouissements du signal, ce qui provoque une réception du signal principal ainsi
qu’une multitude de signaux atténués et retardés. De plus, en réception mobile, les échos évoluent,
et les ondes changent de fréquence en permanence à cause de l’effet Doppler.
62
Figure 3.23 : Signal direct et écho des ondes hertziennes
Il est caractérisé par plusieurs phénomènes physiques :
- la réflexion du signal sur un obstacle,
- la réfraction du signal lorsque celui-ci traverse un milieu d’indice différent de celui
d’où il provient,
- la diffraction due à un obstacle.
Ces échos (propagation par trajets multiples due à la présence d’obstacles) peuvent engendrer des
fadings (évanouissements) qui sont des « trous de transmission » résultant de l’annulation du
signal à un instant et une fréquence donnée, et des IES (Interférences Entre Symboles). Par
conséquent, lorsqu’on est en réception fixe, portable ou mobile, la probabilité de recevoir
uniquement une onde directe provenant d’un émetteur est très faible. On va donc recevoir le signal
émis par l’émetteur ainsi qu’une multitude de signaux atténués et retardés provenant des différents
échos.
La fonction de transfert d’un canal résultant d’une propagation à trajets multiples présente une
réponse fréquentielle qui n’est pas plate, mais comporte des creux et des bosses dus aux échos et
réflexions entre l’émetteur et le récepteur. Un très grand débit impose une grande bande passante,
et si cette bande couvre une partie du spectre comportant des creux, il y a perte totale de
l’information pour la fréquence correspondante. Le canal est dit alors sélectif en fréquence. Pour
63
remédier à ce désagrément, l’idée est de répartir l’information sur un grand nombre de porteuses,
créant ainsi des sous-canaux très étroits pour lesquels la réponse fréquentielle du canal peut être
considérée comme constante. Ainsi, pour ces canaux, le canal est non sélectif en fréquence, et s’il
y a un creux, il n’affectera que certaines fréquences, qui pourront être récupérées grâce à un
codage convolutif.
Figure 3.24: Fonction de transfert du canal de transmission
D’autre part, lors du déplacement d’un récepteur dans le cas d’une réception mobile, plusieurs
ondes parviennent au récepteur, ayant chacune un décalage de phase variable dans le temps. Cela
engendre sur le signal résultant des variations permanentes dans l’amplitude du signal. Cette
variation temporelle des phases et de l’amplitude des signaux s’appelle l’effet Doppler.
Pour résumer, c’est grâce à la modulation OFDM que l’on va pouvoir s’affranchir des
évanouissements dus aux échos en répartissant l’information sur un grand nombre de porteuses
orthogonales modulées à bas débit.
3.4 Utilisation des fréquences
Il existe généralement deux genres de réseaux pour la télévision numérique normée par DVB-T :
3.4.1 Le Multi Frequency Network (MFN) ou réseau multifréquence
Il utilise des fréquences différentes pour deux sites de diffusions voisines. C’est le mode déjà
utilisé en télévision analogique, et qui a permis une initialisation de la télévision numérique
terrestre. Cependant, il consomme plus de fréquences.
Voici une présentation simple de ceci :
64
Figure 3.25: Le réseau MFN
3.4.2 Le Single Frequency Network (SFN) ou réseau monofréquence
Il utilise une fréquence unique pour la diffusion d’un multiplex sur une région ou un pays. Moins
consommateur en fréquences, il est plus coûteux à implémenter.
Notons que pour faciliter l’introduction de la télévision numérique de terre, une approche mixte
SFN/MFN a été retenue dans un cadre de simulcast ou pour la cohabitation avec la télévision
analogique.
Figure 3.26 : Le réseau SFN
Pour éviter que la télévision numérique terrestre ne brouille certains émetteurs analogiques, il est
nécessaire de procéder à des réaménagements de fréquence.
Un réaménagement consiste à parler des points suivants :
• opérations techniques concernant les équipements de diffusion : réglage de l’émetteur
(inférieure à 25W), changement de l’antenne, pose de filtres ;
• communication et gestion de la réception chez les téléspectateurs : réglage des téléviseurs,
adaptation des antennes.
3.5 Principe de la réception numérique DVB-T
Actuellement, il existe trois modes de réception de l’émission numérique de télévision avec la
DVB-T :
65
• La réception fixe : pour recevoir de l’émission DVB-T, il suffit tout simplement d’avoir un
adaptateur qui effectue une triple action telle que le démultiplexage, le décodage et le
décryptage. Dans ce cas, il n’est pas nécessaire de modifier l’antenne sur le toit, déjà
utilisée pour la réception analogique.
• La réception portable : une antenne intérieure posée sur le poste téléviseur voir intégrée à
ce dernier permet de recevoir les programmes numériques de télévision. Un de ses atouts
consiste au fait qu’elle permet de s’affranchir du câblage.
• Et la réception mobile qui nous offre la possibilité de recevoir les programmes en se
déplaçant.
La norme DVB-T est basée sur un Taux d’Erreur Binaire (TEB) de 410.2 − .
Les bandes occupées par le DVB-T sont la bande III ou VHF pour Very High Frequency (de 174 à
230MHz), et les bandes IV et V ou UHF pour Ultra High Frequency (de 470 à 862MHz).
La bande VHF nécessite, à couverture équivalente, relativement peu d’émetteurs, et donc moins
d’investissements que la bande UHF. Cependant, et c’est là son principal inconvénient, la bande
VHF requiert, pour une bonne réception en intérieur, des antennes d’une vingtaine de centimètres,
taille inadaptée à un petit terminal nomade (à moins que l’antenne ne soit télescopique, qu’elle ne
soit sérigraphiée sur une carte électronique intégrée au terminal, ou encore que le câble de
raccordement à une paire d'écouteurs ne fasse office d'antenne). En revanche, la bande VHF
présente moins d’inconvénients dans le cas de la réception dans un véhicule, puisqu’il est alors
possible de mettre en œuvre une réception en diversité.
La bande UHF permet l’utilisation de petites antennes de réception, de l’ordre de quelques
centimètres : elle s’avère donc tout à fait adaptée à la réception sur des terminaux nomades.
Cependant, une couverture en bande UHF requiert un réseau d’émetteurs plus dense qu’en bande
VHF, donc des investissements plus importants (un doublement des coûts).
Une couverture en bande L nécessite un réseau d’émetteurs très dense, ce qui renchérit les coûts
de déploiement (triplement de ceux-ci par rapport à la bande UHF).
Ainsi, la bande UHF apparaît-elle la plus adaptée aux services de télévision mobile. Néanmoins,
cette bande est largement utilisée par les services de télévision, aussi bien pour la diffusion
analogique que pour la diffusion des multiplexes numériques. Il convient dès lors d’examiner les
disponibilités effectives dans chacune de ces bandes.
Pour compléter ces dires, voici les autres bandes de fréquences non énoncées ci-dessus :
o La bande I : de 47 à 68MHz ;
66
o La bande II ou bande FM : de 87,5 à 108MHz ;
o La bande L : de 1452 à 1492MHz.
3.6 Principe d’un récepteur numérique de télévision
Figure 3.27 : Principe d'un récepteur numérique de télévision
Comme à l’émission, le récepteur procède aux opérations inverses pour reconstruire le signal
vidéo et audio : le démodulateur reconstruit le signal, le démultiplexeur extrait du flux de données
en entrée les informations correspondant au programme de télévision choisi par le téléspectateur et
les répartit entre les décodeurs audio et vidéo. Les données additionnelles (vidéotext…) sont
traitées par des décodeurs prévus à cette intention. Dans le cas de programmes cryptés, le
dispositif d’autorisation d’accès est activé. En l’absence d’autorisation, les décodeurs sont inhibés.
Les données décodées et décomprimées sont ensuite « analogisées » et transmises respectivement
au tube et haut-parleurs du téléviseur. De plus récents modèles sont équipés d’un voie montante,
intégrant un moteur d’interactivité et un modem permettant de se connecter à une ligne
téléphonique.
Il existe actuellement quatre familles de matériel capable de recevoir la télévision numérique :
3.6.1 Les adaptateurs numériques pour TV analogique
Ils permettent la réception de programmes numériques tout en conservant son ancien téléviseur
analogique.
On distingue les types de « Set Top Box » suivants : les adaptateurs à simple tuner (entrée de
gamme), ceux à double tuner qui permettent une réception simultanée de deux programmes
différents.
67
3.6.2 Les adaptateurs pour PC
Ce sont des cartes additionnelles en connexion PCI ou USB qui permettent de recevoir la
télévision numérique sur un ordinateur personnel. Elles offrent bien souvent les mêmes
fonctionnalités de double tuner que les adaptateurs précédents.
3.6.3 Les récepteurs de télévision avec décodeur numérique intégré
Des récepteurs de télévision avec décodeur numérique intégré sont déjà disponibles.
Certains récepteurs sont bi-standard et permettent de recevoir les programmes analogiques et
numériques. Ce type de récepteur permet une transition de l’analogique vers le numérique en
douceur, surtout sur les zones non desservies par la diffusion numérique. Avec un poste bi-
standard, le spectateur perd le bénéfice de la portabilité car en raison de l’analogique, il devient
impossible de s’affranchir de l’antenne.
3.6.4 Les boîtiers « triple play » compatibles avec la réception numérique hertzienne
‘‘ Triple play’’ désigne les trois éléments suivants : audiovisuel, Internet et téléphone. C’est un
mode de diffusion très récent qui est historiquement issu des services produits par les fournisseurs
d’accès à Internet.
A ce jour, Neuf Télécom, fournisseur de services haut débit, est le seul à proposer un équipement
déjà compatible avec la télévision numérique terrestre. Son décodeur Neuf TV intègre un
démodulateur de télévision numérique permettant de capter des nouvelles chaînes du nouveau
service.
68
Chapitre 4 : Simulation sous Matlab
Ce chapitre est consacré à la simulation de l’installation radioélectrique d’un ou de plusieurs
émetteurs de télévision numérique avec la norme DVB-T afin d’éviter de mauvaises surprises lors
de la réalisation d’un tel projet dans un quelconque environnement.
4.1 Description du logiciel Matlab
MATLAB pour MAT rix LABoratory, est une application qui a été conçue afin de fournir un
environnement de calcul matriciel simple, efficace, interactif et portable. Il a été développé par la
société Math Work Inc (USA), et c’est un outil technique puissant et simple. Nous allons utiliser
Matlab dans sa version 7.0.0.1 sous Windows XP.
Matlab intègre dans sa version originale les outils mathématiques classiques tels que : le calcul
matriciel, la manipulation des fonctions, les graphismes…. De plus, il accepte tous les caractères
non accentués du code ASCII standard. Matlab n’exige pas une déclaration explicite de variables,
mais il fait une distinction entre majuscule et minuscule comme en langage C. Matlab reconnaît
tous les opérateurs existants : les opérateurs arithmétiques (+, -, *, /, ^), les opérateurs logiques
(OU, ET, NON), les opérateurs relationnels (<, >, ≤, ≥, ~=), les opérateurs matriciels (-, *, +,/)
ainsi que les fonctions de traitement de chaîne de caractères.
L’interface-utilisateur de MATLAB varie légèrement en fonction de la version de MATLAB et du
type de machine utilisée. Elle est constituée d’une fenêtre de commande qui peut être complétée
par une barre de menu et pour les versions les plus récentes de deux fenêtres, l’une affichant
l’historique de la session et l’autre la structure des répertoires accessibles par MATLAB .
L’accès aux aides de Matlab peut être fourni par :
- help qui permet d’obtenir l’aide et donne une liste thématique ;
- help nom de fonction qui donne la définition de la fonction désignée et des exemples
d’utilisation ;
- lookfor commande qui donne une liste des rubriques de l’aide en ligne en relation avec la
commande indiquée.
Matlab est aussi un grand outil de simulation scientifique c’est pourquoi notre choix du logiciel.
4.2 Théories utilisées pour la simulation [3] [8]
Du fait de la rotation de la terre, la présence des couches ionisées de l’ionosphère dans le champ
magnétique terrestre crée un effet Faraday impliquant un changement de polarisation de l’onde ;
cet effet se fait sentir jusqu’à 1GHz. L’on remédie à cet effet en utilisant des antennes à
69
polarisation circulaire pouvant capter à la fois les composantes horizontales et verticales de l’onde
polarisée. De ce fait, nous allons combiner quatre antennes panneaux.
De plus, sachant que la surface n’étant pas toujours plane, la portée de telles ondes est donc
limitée. L’on remédie à cet inconvénient en se servant d’antennes aussi hautes que possible ou
d’antennes intermédiaires. La portée maximale d entre deux antennes disposées à altitudes
respectives th et rh serait :
RhRhd rt 22 += où R désigne le rayon de la terre (6400km). Puisque notre fréquence
d’émission se situe dans la bande VHF et au-delà, nous allons donc choisir le mode de
propagation en ligne droite ou en ondes directes. Les ondes propagées sont donc des ondes
d’espace et nécessitent ainsi une ligne de vue entre l’antenne d’émission et l’antenne de réception.
Quant au coefficient d’efficacité d’antennesη , défini par :
RrR+
=η avec r la résistance ohmique d’antennes et R la résistance de rayonnement, nous allons
prendre la valeur typique 70%, soit 0,7 avec une résistance d’entrée de 50Ω.
4.3 Fonctionnement de la simulation
4.3.1 La partie présentation (fenêtre d’accueil)
Après avoir lancé le logiciel Matlab, par un double clic sur son icône, l’utilisateur doit saisir
« accueil » dans la fenêtre de commande suivi de la touche entrée.
>> accueil
>>
Ceci nous conduit à la fenêtre ci-après :
Figure 4.01 : La fenêtre d'accueil pour la simulation
70
4.3.2 L’interface d’exécution de la simulation
Pour accéder à l’interface d’exécution de la simulation, il suffit de faire un simple clic sur le
bouton « COMMENCER ». Ainsi, le résultat de ce clic est :
Figure 4.02 : La fenêtre d'exécution de la simulation
Dans cette fenêtre, nous observons huit boutons distincts qui sont :
• Précédent : ce bouton permet de retourner à la fenêtre d’accueil ;
• Aide : il mène à la fenêtre contenant les outils nécessaires pour faire la simulation ;
• Terminer : il permet d’arrêter la simulation et aussi de fermer toutes les fenêtres utilisées ;
• 2D : lorsqu’on clique dessus, nous avons une visualisation du site en bidimensionnel ;
• 3D : son clic fait basculer l’affichage du site en trois dimensions ;
• Réinitialisation : le clic sur ce bouton ramène la carte utilisée à son état initial ;
• Réception : il permet de déterminer la réception aux points choisis selon le nombre
d’émetteurs sélectionnés ;
• Détails : en cliquant dessus, le programme attend que l’utilisateur clique sur une zone dont
il veut connaître si elle est masquée ou non pour les émetteurs qu’il a soigneusement
placés sur la carte.
Remarquons qu’un menu à trois options se trouve dans la fenêtre car il désigne le nombre
d’émetteurs à installer et il permet ainsi d’activer les zones de saisie dans la partie pour l’émetteur.
71
4.3.3 La partie contenant les aides (aides)
Dans la fenêtre précédente, un clic sur le bouton « Aide » mène à :
Figure 4.03 : La fenêtre pour les aides
Trois options y sont offertes :
- Bouton d’accès aux aides sur les boutons de contrôles :
Figure 4.04 : Aides sur les boutons de contrôles
- Bouton d’accès aux aides sur les boutons d’exécution :
72
Figure 4.05 : Aide sur les boutons d'exécution
- Et un bouton pour une remarque importante.
Quant aux deux autres boutons, « Précédent » fait revenir à la fenêtre d’exécution de la
simulation, et « Fermer » quitte la fenêtre des aides.
4.4 Exemples effectués pour la simulation
Après avoir lancé Matlab, saisi accueil dans la fenêtre de commande, et cliqué sur commencer,
nous pouvons maintenant faire une simulation.
Prenons quelques exemples de valeurs pour la simulation.
4.4.1 Pour ‘‘un émetteur’’ sélectionné
Soit les valeurs par défaut pour l’émetteur n°1 :
Puissance
d’émission (en kW)
Hauteur de l’antenne
d’émission (en m)
Fréquence d’émission
(en MHz)
Ouverture de l’antenne
à -3dB (en °)
0,25 5 500 60
Tableau 4.01: Paramètres d’émission pour un émetteur
En chargeant une carte par le menu Carte/Charger, carte1 dans notre cas, une fenêtre de dialogue
nous informe que la carte a été chargée :
73
Figure 4.06 : Fenêtre de dialogue indiquant qu’une carte a été chargée
Un clic sur ‘‘OK’’ ferme ce message. D’après la remarque, il faut maintenant réinitialiser la carte
en appuyant sur le bouton adéquat ; ceci a pour résultat (sur l’état de la carte) :
Figure 4.07 : Carte1 après réinitialisation
Notons que cette vue est en 2D.
Nous allons maintenant prendre comme valeurs pour la réception :
Hauteur moyenne de
l’antenne de réception (en m)
Gain en antenne
(en dB)
Rapport C/N requis
(en dB)
Longueur du terrain (en
km)
5 20 13 10
Tableau 4.02 : Paramètres de réception
L’émetteur est ainsi mis en place. Pour voir l’état de la réception en un point, avec ces conditions
préétablies, un clic sur le bouton Réception donne la figure ci-après :
Figure 4.08 : Résultat après clic sur ''Réception'' et avant clic sur la zone voulue
Après clic et relâchement sur la zone voulue, un message d’attente apparaît signalant que
l’émetteur est en cours de traitement.
Finalement, le résultat est :
74
Figure 4.09 : Résultat de la réception
Les zones en blanches sont en bonne conditions de réception de l’émission tandis que celles en
bleues sont en mauvaises conditions de réception.
Pour les détails, choisissons une zone dans chaque cas :
o Dans la zone en bonne réception (partie blanche)
Figure 4.10 : Bonne réception
Cette fenêtre nous permet de déterminer l’état de la réception de l’émetteur mis en jeu en cette
zone afin de bien placer ce dernier.
o En choisissant un point dans la zone bleue :
75
Figure 4.11 : Mauvaise réception
4.4.2 Pour ‘‘deux émetteurs’’
Choisissons les exemples des valeurs suivantes :
Paramètres Emetteur n°1 Emetteur n°2
Puissance d’émission (en kW) 0,25 0,5
Hauteur de l’antenne d’émission (en m) 5 10
Fréquence d’émission (en MHz) 500 508
Ouverture de l’antenne à -3dB (en °) 60 60
Tableau 4.03 : Paramètres d’émission pour deux émetteurs
La carte chargée étant encore la carte1. Pour la réception, choisissons :
Hauteur moyenne de
l’antenne de réception (en m)
Gain en antenne
(en dB)
Rapport C/N
requis (en dB)
Longueur du terrain
(en km)
5 20 13 10
Tableau 4.04 : Paramètres de réception
Après avoir réinitialisé la carte et cliqué sur le bouton réception, un double clic sur deux points
différents fait apparaître le résultat suivant :
76
Figure 4.12 : Résultat obtenu pour deux émetteurs
Nous observons que la surface qui pourrait être bien servie est beaucoup plus importante que dans
le cas d’utilisation d’un seul émetteur.
Si nous voulons voir les détails en un point quelconque de cette surface, il nous suffit de cliquer
sur le bouton détails et puis sur le point en question et ainsi une fenêtre de résultat nous est
donnée. Par exemples, choisissons deux cas : un point dans la zone blanche et un autre dans la
bleue. Ce qui produit :
Figure 4.13 : Clic dans la partie blanche
Nous observons que la zone est masquée pour l’émetteur n°2.
77
Figure 4.14 : Clic dans la zone bleue
D’après ce résultat, on vérifie bien que les deux émetteurs ne sont pas dans la bonne condition
pour la réception considérée.
4.4.3 Dans le cas de ‘‘trois émetteurs’’
En reprenant les données précédentes pour les deux premiers émetteurs, nous allons ajouter les
paramètres suivants pour le dernier émetteur :
Puissance d’émission
(en kW)
Hauteur de l’antenne
d’émission (en m)
Fréquence d’émission
(en MHz)
Ouverture de l’antenne
à -3dB (en °)
0,75 15 516 60
Tableau 4.05 : Paramètres d’émission pour le troisième émetteur
L’état de la réception est illustré par la figure suivante :
Figure 4.15 : Réception pour trois émetteurs
Nous observons qu’ici encore la surface couverte est encore plus vaste que pour les deux cas
précédents. Ce qui met bien en valeur l’intérêt d’utiliser plusieurs émetteurs dans une zone
délimitée.
En voyant les détails en des points de cette surface, nous avons :
78
- Pour un point se trouvant dans la surface blanche :
Figure 4.16 : Point situé dans la surface blanche
Dans cet exemple, la constatation est que seul l’émetteur n°1 se trouve dans la bonne condition
afin d’obtenir une meilleure réception.
- Pour un point se trouvant dans la surface bleue :
Figure 4.17 : Point se trouvant dans la surface bleue
Nous pouvons tirer de ceci que les trois émetteurs sont mal placés pour ce point de la réception ou
que c’est ce dernier qui devrait être déplacé.
Pour finaliser, visualisons une vue en 3D de cette dernière manipulation.
79
Figure 4.18 : Vue en 3D
Les trois émetteurs sont marquées par des pointes en vertes sur la carte ci-dessus.
Nous tenons ici à noter que lorsque l’on décide d’arrêter la simulation, par simple clic sur le
bouton terminer, un message d’arrêt nous apparaît. Ceci est illustré par :
Figure 4.19 : Message apparaissant à la fin de la simulation
80
CONCLUSION GENERALE
Les nouvelles technologies ont apporté beaucoup d’amélioration au secteur de la télévision. Les
compressions effectuées sur les signaux audio, vidéo et mêmes les données ont permis aux
chercheurs de trouver diverses applications appropriées à ces découvertes. La télévision
numérique réalisée avec la norme DVB-T ou Digital Video Broadcasting - Terrestrial est une des
conséquences de ces applications.
Dans cette norme, les compressions se font par MPEG-2. Notons qu’aujourd’hui, la compression
MPEG-4 est aussi utilisée aussi dans l’émission de télévision numérique terrestre.
La technique du multiplexage permet également l’insertion de données associées telles que le
sous-titrage, le système d’information facilitant la navigation entre les différents services du ou
des multiplex, ainsi que les services interactifs.
L’utilisation des modulations multiporteuses et orthogonales a rendu le système DVB-T insensible
aux trajets multiples. De plus, des codes correcteurs d’erreurs sont aussi employés dans ce système
afin de minimiser au maximum les erreurs en transmission.
La télévision numérique semble disposer d’avantages qui seraient, de surcroît, compatibles avec
les équipements de réception actuels, ce qui en ferait de la télévision numérique une technologie
simple et assez peu coûteuse d'accès pour les particuliers.
Une réception facile sur les antennes individuelles et collectives, voire seulement sur des antennes
intérieures : la télévision numérique devient portable au moyen d’une antenne intégrée dans le
téléviseur ou jointe au récepteur. La télévision sera reçue partout dans la maison (et même, à plus
long terme, sur des récepteurs de poche), il suffit d’installer un décodeur. Ce dernier doit être
simplement relié à la prise de câble et au téléviseur afin de reproduire les images numériques sur
le téléviseur. Cette installation est facilement et rapidement réalisable par tout un chacun.
La télévision numérique normée DVB-T présente néanmoins certains inconvénients par rapport au
satellite notamment, mais le plus important consiste à la couverture fournie.
Il est important de noter que les avantageux de la diffusion numérique terrestre de la
télévision sont nombreux tels que les téléspectateurs, les opérateurs, les industries électroniques, et
les producteurs de programmes.
La diffusion analogique et la diffusion numérique terrestre vont coexister pendant plusieurs
années.
81
Dans cet ouvrage, nous n’avons vu que la partie superficielle du domaine passionnant que nous
offre la télévision numérique. Cependant, nous espérons avoir pu mettre en évidence certaines des
raisons qui font que ce domaine reste encore à l’heure actuelle un domaine de recherche très actif
et très prometteur.
82
ANNEXES
ANNEXE 1 : DEFINITIONS ET APPELLATIONS EN MODULATION NUMERIQUE
o Un symbole est un élément d'un alphabet. Si M est la taille de l'alphabet, le symbole est
alors dit M-aire. Lorsque M = 2, le symbole est dit binaire. En groupant, sous forme d'un
bloc, n symboles binaires indépendants, on obtient un alphabet de symboles M-aires.
o La rapidité de modulation R se définit comme étant le nombre de changements d'états par
seconde d'un ou de plusieurs paramètres modifiés simultanément. Un changement de phase
du signal porteur, une excursion de fréquence ou une variation d'amplitude sont par
définition des changements d'états. Elle s'exprime en "bauds".
o Le débit binaire D se définit comme étant le nombre de bits transmis par seconde. Il sera
égal ou supérieur à la rapidité de modulation selon qu'un changement d'état représentera un
bit ou un groupement de bits. Il s’exprime en "bits par seconde".
Pour un alphabet M-aire, on a la relation fondamentale :
bnTT = (A1.01)
soit
nRD = (A1.02)
ANNEXE 2 : CALCUL DU DEBIT UTILE
Avec α le coefficient de Roll-off :
α+=
1__arg
_canaldueurl
binaireDébit (A2.01)
Le Roll Off choisi est de 0,15 (milieu protégé et bande faible). Donc pour une largeur de 8 MHz,
le débit binaire est au maximum de 6,96. Ce débit est égal au Débit Symbole en sortie du
modulateur QAM. Si nous travaillons en QAM-64, un symbole représente 6 bits et donc le débit
brut, en sortie du multiplexeur est égal à 96,66× soit sMbits /76,41 codage Reed Solomon
compris. Ici, il n'y a pas de codage convolutif. Le débit utile est donc :
(A2.02)
Soit dans notre exemple 20418876,41 × soit 38.48Mbits/s.
Débit binaire utile = Débit binaire brut x Rendement du code Reed Solomon
83
ANNEXE 3 : CODE DE REED SOLOMON
Les codes de Reed Solomon sont des codes à éléments non binaires, chaque élément ‘q’ du code
est une puissance de deux :
mq 2= (A3.01)
On parle dans ce cas d’éléments q-aires. Les paramètres d’un code de Reed Solomon (n, k,mind ,t)
sont exprimés en nombre d’éléments q-aires :
12 −= mn (A3.02)
tnk 2−= (A3.03)
21min −= d
t (A3.04)
Un code de Reed Solomon peut corriger t éléments q-aires dans un bloc de n éléments q-aires.
C’est donc un code bien adapté pour corriger des erreurs en rafale (burst errors) introduites par le
canal de transmission. Il est utilisé dans le codage des CD-ROM, en télévision numérique, …
Le code de Reed Solomon a été adopté en télévision numérique DVB (Digital Video
Broadcasting), les éléments q du code sont des octets (q = 23 soit 8bits) : il est noté RS (255, 239, t
= 8), 16octets de redondance sont ajoutés, il permet de corriger 8 octets erronés. En pratique, on
utilise une version raccourcie RS (204, 188, t = 8). Cette version est obtenue en ajoutant 51octets
nuls avant les 188octets pour former les 239octets appliqués à l’entrée du codeur. Après le codage,
on supprime les 51 premiers octets nuls ajoutés avant codage donnant ainsi les 204octets de sortie.
ANNEXE 4 : SIGNIFICATION DE : ‘‘4 : 2 : 2’’
L’algorithme MPEG divise les images en des composantes chromatiques Y Cr Cb. Ces dernières
sont sous-échantillonnées en fonction de la composante de luminance (Y) avec un rapport Y Cr Cb.
Donc, Y Cr Cb = 4 : 2 : 2 signifie que l’on dispose de 4 échantillons de la luminance pour 2
échantillons de Cr et 2 échantillons de Cb. Ceci s’applique pour la norme MPEG-2.
84
ANNEXE 5 : ORGANIGRAMME DU PROGRAMME DE LA SIMULATION
L’élaboration de la simulation a été faite suivant l’organigramme de programme ci-dessus.
Début
Charger une carte
Nombre d’émetteurs à utiliser Puissance d’émission Fréquence d’émission Hauteurs des antennes d’émission Hauteur moyenne de l’antenne de réception Gain moyen des antennes Rapport P/B nécessaire à la réception
Installer les émetteurs
? Obstacle
Porteuse/Bruit
Réception Non réception
Fin
? (P/B) < (P/B)min
85
BIBLIOGRAPHIE
[1] J.E.B. Andrianandrasana, Réseaux des vidéocommunications, Cours 5ème année GTR, Dép.
Tél. – E.S.P.A., A.U. : 2006-2007
[2] Microsoft Encarta 2006
[3] J. Razakarivony, Antenne, Cours 4ème année, Dép. Tél. – E.S.P.A., A.U. : 2005-2006
[4] C. Nowakowski et A. Roux, Histoire des systèmes de télécommunication, Dunod : Paris,
1994
[5] T.H. Rahoelison, Emission et réception numérique de télévision avec la norme DVB-T,
mémoire de fin d'études, Dép. Tél. – E.S.P.A., A.U. : 2004-2005
[6] A. Schertz et C. Weck, La modulation hiérarchique, UER-Revue technique-sélection 2003
[7] R. Besson, Cours de télévision moderne, Radio : Paris, 1988
[8] C. Dartevelle, Antenne et réception TV, Dunod : Paris, 1995
[9] http://pages.videotron.com/danjean
[10] http://www.futura-sciences.com/comprendre
86
[11] http://www.tnt-gratuite.fr/
[12] http://pages.videotron.com/danjean
[13] http://uuu.enseirb.fr/publication/Publi.htm
[14] http://www.enseirb.fr/%7Ekadionik
[15] http://perso.libertysurf.fr/IPhilGood
[16] http://iphilgood.chez-alice.fr\Transmission\OFDM.htm
[17] http://www.enseirb.fr/~kadionik
87
PAGE DE RENSEIGNEMENTS
Nom : ANDRIAMBOAVONJY
Prénoms : Henintsoa Harifidy
Tél. : 032 43 768 21
E-mail : [email protected]
Titre du mémoire : LA TELEVISION NUMERIQUE REALISEE AVEC LA NORME DVB-T
Nombre de pages : 88
Nombre de tableaux : 8
Nombre de figures : 63
Mots clés : Télévision, Emetteur, Récepteur, Standard, Norme, Emission analogique,
Réception analogique, Emission numérique, Réception numérique, Brassage, COFDM, DVB-T,
MPEG, Modulation numérique, TNT, Télévision Numérique, Diffusion Numérique Terrestre,
DVB, Multiplex, OFDM, Dispersion d’énergie, Set Top Box.
Directeur de mémoire : Monsieur BOTO ANDRIANANDRASANA Jean Espérant
Adresse de l’auteur : Lot 039 cité Mandroseza, Antananarivo 101
88
RESUME
Les nouveautés en matière de technologies nous permettent aujourd’hui de nous jouir de la
diffusion rapide des informations. Le présent ouvrage a été élaboré afin de permettre aux jeunes
chercheurs de mieux comprendre ce qu’est la télévision numérique, surtout celle normée DVB-T
où la diffusion se fait par voie terrestre. La partie théorique est nécessaire pour avoir les bases
adéquates afin d’entamer une étude plus élargie. Des analyses de l’émission et de la réception ont
aussi été élaborées dans cet ouvrage. Quant à la partie simulation, elle nous a montré une manière
d’estimer l’emplacement d’émetteurs de télévision numérique DVB-T via un langage de
programmation.
La poursuite de ce mémoire serait un grand atout pour d’autres chercheurs désirant approfondir
leur connaissance en matière de télévision numérique.
Aujourd’hui, beaucoup de chercheurs font toujours objets de leurs recherches des nouveaux outils
techniques et technologiques afin d’obtenir de plus meilleure performance sur la qualité des
émissions fournies par les différents émetteurs existants. Récemment, ces recherches ont abouti à
la sortie d’une nouvelle technologie qui est la télévision haute définition.
ABSTRACT
Today, new technology enables fast broadcasting of information. This work was made to help
young searchers to a better understanding of digital television, particularly the so-called DVB-T,
the broadcasting is by land. We need the theoretical part to get the appropriate bases for starting a
more extended research. Besides, we have elaborated analyses of transmission and reception in
this work. As far as the simulation part is considered, we could have an idea of how to estimate
the location of transmitters of digital television DVB-T via a programming language.
Other searchers wishing to deepen their knowledge of digital television would be advantageous in
continuing this work.
Nowadays, several searchers aim their research at new technical and technological tools in order
to get much better performance in the quality of transmission provided by the different existing
transmitters. Theses searchers have made a success of a new technology called the high definition
television.