52
Journalistenworkshop 21. November 2007 Dokumentation Digitale Medien: Einblicke und Hintergründe

Digitale Medien: Einblicke und Hintergründe · 2021. 1. 28. · tale Medien«. Kein Thema ist so omnipräsent in unserer modernen Informationsgesellschaft wie digitale Medientechnologien

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

  • Journalistenworkshop 21. November 2007 Dokumentation

    Digitale Medien:Einblicke und Hintergründe

  • 1

    Inhalt

    Vorwort 3

    Die Autoren 4

    Audio- und Videocodierung 7Bedeutung der A / V-Codierung 8Audiocodierung 9

    Funktionsprinzip der Audiocodierung 9Erst Mono, dann Stereo – und jetzt auch noch Multikanal? 11Semantische Audiosignalverarbeitung – Audio technologie für die Zukunft 13Einige bekannte Audiocodierverfahren im Überblick 14

    Videocodierung und ihre Anwendungen 16Grundlagen der Videocodierung 16Standards und Anwendungen der Videocodierung 18Exkurs: Digitales Kino 19

    Digitaler Rundfunk 21Geschichte des Radios in Deutschland 22Verbreitungswege des digitalen Radios 23

    Terrestrische digitale Radiosysteme 23Satellitenrundfunk in Europa 28Internetradio: Der neue RadioübertragungsWWWeg 30

    Erweiterte Möglichkeiten des Digital Radio – heute und in Zukunft 32Datendienste im Überblick 32Hintergrundinformationen zu Datendiensten 34DAB Surround – 5.1 Klang für Digital Radio 35

    Digitaler Musikvertrieb 37Das »Digitale Dilemma« und die Musikindustrie 38

    DRM und neue Nutzungsformen 38Watermarking 40Anreizbasierte Systeme 41Kein Schutz 41

    Der intelligente Musik-Finder – globale Musiksuche und individuelle Empfehlung 42Grundzüge des Urheberrechts im digitalen Zeitalter 44Musikvertrieb aus der Sicht von kleineren Labels und unabhängigen Künstlern 47

    Glossar 50

  • 3

    Vorwort

    Den Einstieg erleichtern und eine Grundlage schaffen: dies ist das Ziel der vorliegenden Broschüre »Digi-tale Medien«. Kein Thema ist so omnipräsent in unserer modernen Informationsgesellschaft wie digitale Medientechnologien – und gleichzeitig ist kein Thema so durchdrungen von Abkürzungen und kryp-tischen Begriffen. Diese Broschüre soll ein wenig Licht in das Dickicht des Abkürzungsdschungels bringen und den Lesern einige Grundlagen digitaler Medien vermitteln.

    Die Beiträge in dieser Broschüre wurden von Wissenschaftlern, Entwicklern und Praktikern geschrieben. Sie sind allesamt Experten in ihren jeweiligen Fachgebieten und können kompetent Auskunft geben. Auf den letzten Seiten finden Sie einen Glossar, in dem häufig genannte Begriffe kurz erklärt werden.

    Diese Broschüre wirft Schlaglichter auf einzelne Themen. Sollten Sie weitere Fragen haben bei der Recher-che zu einem Artikel oder einfach aus persönlichem Interesse, dann kontaktieren Sie uns: Wir sind immer gerne bereit, uns Ihren Fragen zu stellen. Die E-Mail-Adressen der Autoren finden Sie direkt bei den Fach-texten. Und sollte es einmal dringend sein, dann erreichen Sie uns telefonisch unter 09131 / 776 3011.

    Der Inhalt dieser Broschüre orientiert sich am Programm des Journalistenworkshops »Digitale Medien«. In den Räumen der Zentrale der Fraunhofer-Gesellschaft in München vermittelten am 21. November 2007 Experten Hintergrundwissen zu neuen Medientechnologien. Dabei standen drei Themen im Mittelpunkt: Grundlagen Audio- und Videotechnologie, Grundlagen Digitale Rundfunksysteme und Digitaler Musik-vertrieb. Organisiert und durchgeführt wurde der Workshop vom Fraunhofer-Institut für Integrierte Schaltungen IIS und dem Fraunhofer-Institut für Digitale Medientechnologie IDMT in Kooperation mit dem hightech presseclub.

    Ich wünsche Ihnen viele neue Erkenntnisse bei der Lektüre und vielleicht findet dieses etwas andere Nachschlagewerk ja einen Stammplatz in Ihrem Bücherregal oder besser noch auf Ihrem Schreibtisch.

    Matthias Rose,Fraunhofer IIS

  • 4

    Die Autoren

    Audio- und Videocodierung

    Dr. Siegfried Fößel, Fraunhofer IIS ist seit 2001 Leiter der Gruppe »Digitales Kino« und koordiniert alle Projekte in den Be-reichen D-Cinema und E-Cinema. Er war Koordinator für das EU-Projekt WORLD-SCREEN und die Digital Cinema Initiatives beauftragte das Team rund um Siegfried Fößel mit der Erstellung des Testplans für Digitales Kino. [email protected]

    Harald Fuchs, Fraunhofer IISbeschäftigt sich als wissenschaftlicher Mitarbeiter mit Themen der Videocodierung und ihrer Anwendung in Szenarien wie IPTV und DVB. Ein weiterer Schwerpunkt seiner Ar-beit ist die Übertragung von Multimediainhalten über [email protected]

    Oliver Hellmuth, Fraunhofer IISLeitet die Gruppe »Semantische Audiosignalverarbeitung« und beschäftigt sich dabei mit der intelligenten Analyse und Verarbeitung von Audiosignalen. [email protected]

    Johannes Hilpert, Fraunhofer IISleitet die Gruppe »Audio Coding & Multimedia-Software« am Fraunhofer IIS. Er ist Ex-perte für Stereo- und Mehrkanal-Audiocodierverfahren und deren Umsetzung in PC-Software. [email protected]

    Angela Raguse, Fraunhofer IISist zuständig für PR und Marketing in der Abteilung Bildsensorik und für die Fraunhofer-Allianz Digital [email protected]

    Matthias Rose, Fraunhofer IISist verantwortlich für die Marketing- und Kommunikationsaktivitäten des Geschäfts-felds »Audio und Multimedia« des Fraunhofer [email protected]

  • 5

    Digitaler Rundfunk

    Dr. Nikolaus Färber, Fraunhofer IISals Leiter der Gruppe »Multimedia Transport« beschäftigt er sich mit Streamingtechno-logien zum Beispiel für Webradios, mit mobilem Fernsehen basierend auf DVB-H, mit Voice/Audio over IP und mit dem Heimnetzwerkstandard [email protected]

    Olaf Korte, Fraunhofer IISist seit 1999 Leiter der Gruppe »Broadcast Applications«. Er beschäftigt sich insbeson-dere mit MPEG-4 basierten Rundfunkprojekten, sowie Rundfunkanwendungen für den mobilen Einsatz. 2004 übernahm Olaf Korte als neues Schwerpunktthema die Einfüh-rung von Surround Sound in digitalen [email protected]

    Michael Schlicht, Fraunhofer IISleitet seit Mai 2007 die Abteilung »Integrierte Digitale Terminals (IDT)«. Die Schwer-punkte seiner Forschungsaktivitäten liegen im Bereich des digitalen Rundfunks und der Satellitenkommunikation und umfassen sowohl die Definition als auch die Entwicklung und Implementierung terrestrischer und satellitenbasierter digitaler Rundfunkterminals und deren Chipsä[email protected]

    Mandy Trommler, Fraunhofer IISarbeitet in der Marketing- und PR-Gruppe des Geschäftsfelds »Audio und Multimedia«[email protected]

    Alexander Zink, Fraunhofer IISist stellvertretender Leiter der Gruppe »Broadcast Applications«. Neben seiner Tätigkeit als Projektleiter der UMIS-Technologie für ortsbezogene Dienste hat er die Projektlei-tung und Vermarktung der Sendesystemfamilie »Fraunhofer ContentServer« übernom-men. Zudem ist er maßgeblich an der Entwicklung, Standardisierung und Markteinfüh-rung des Datendienstes Journaline beteiligt. [email protected]

  • 6

    Digitaler Musikvertrieb

    Patrick Aichroth, Fraunhofer IDMT beschäftigt sich als stellvertretender Gruppenleiter seit 2003 mit den Themen Medien-distribution und Sicherheit und leitet seit 2006 die gleichnamige Gruppe in der Abtei-lung »Metadaten« des Fraunhofer IDMT in Ilmenau. [email protected]

    Holger Großmann, Fraunhofer IDMTist seit 2005 Leiter der Abteilung »Metadaten« am Fraunhofer IDMT und war unter an-derem für die Entwicklung des Musikerkennungssystems AudioID [email protected]

    Stefan Krägeloh, Fraunhofer IISbeschäftigt sich als Gruppenleiter mit multimedialen Sicherheitstechnologien. Dabei liegt der Schwerpunkt seiner Arbeit auf Systemen für das Digitale Rechtemanagement wie zum Beispiel OMA DRM und auf Wasserzeichen in Audiodaten. [email protected]

    Prof. Dr. Frank Fechner, TU Ilmenau ist Leiter des Fachgebiets Öffentliches Recht an der TU Ilmenau. Zu seinem Fachgebiet zählen insbesondere öffentlich-rechtliches Wirtschaftsrecht und Medienrecht. Seit 2006 ist Professor Fechner Dekan der Fakultät für Wirtschaftswissenschaften. [email protected]

    Peter James, GermanSounds AGgründete 1993 den Verband Unabhängiger Tonträgerunternehmen, Musikprodu-zenten und -verlage (VUT) und führte die Geschäfte bis 2004. Er ist geschäftsführender Vorstand des von ihm gegründeten deutschen Musikexportbüros GermanSounds AG. [email protected]

  • 7

    Audio- und Videocodierung

  • 8

    Bedeutung der A / V-CodierungMatthias Rose

    Audiocodierung. Videocodierung. Diese leicht sper-rigen Begriffe stehen für Technologien, die aus un-serem Leben nicht mehr wegzudenken sind. Alltäg-liche Begleiter wie MP3-Player oder digitales Fernsehen wären undenkbar ohne Audio- und Vi-deocodierung. Ganze Industriezweige erfinden sich neu, um auf Herausforderungen zu reagieren, die ihre Ursache in der Kompression von Audio- und Videodaten haben. Aber warum verändern diese Technologien unsere Medienlandschaft und unser Rezeptionsverhalten so grundlegend?

    Der Grund liegt in der Knappheit von Ressourcen. Im Fall der Audio- und Videokompression sind dies die Ressourcen Speicherplatz beziehungsweise Übertragungsbandbreite. Als die Idee für Audio- und Videokompression aufkam, war Speicherplatz noch ein kostbares Gut – Übertragungsbandbreite ist dies heute noch. Ob Datenleitungen oder Kanäle zur Verbreitung von Rundfunkinhalten: Unkompri-mierte digitale Audio- und Videodaten könnten kaum ökonomisch sinnvoll übertragen werden. Zu groß ist deren Datenmenge. Also werden Kompres-sionsverfahren benötigt, die Audio- und Videosi-gnale stark schrumpfen – und dies möglichst ohne die Qualität zu beeinflussen. Je stärker die Daten komprimiert werden, desto mehr Musik speichern MP3-Player und desto mehr digitale Radio- und TV-Programme können über den gleichen Kanal ver-teilt werden.

    Mit anderen Worten: Audio- und Videokompressi-on ist praktisch und spart dabei noch Geld. Zudem ermöglicht die Kompression von Audio- und Video-daten Anwendungen, die vor einigen Jahren noch undenkbar waren: Heute kaufen wir Musik mit dem Handy, wir erzeugen eigene Inhalte und ma-chen damit etablierten Medien Konkurrenz, wir nutzen das Handy als Fernseher, wir bekommen Live-Berichte aus allen Winkeln der Welt. Die Liste ließe sich beliebig fortsetzen.

    Audiocodierung und Videocodierung sind nicht ein-fach nur Technologien, sondern kulturelle Phäno-mene. Sie sind wichtige Wegbereiter für den Wandel der Industrie- zur Informationsgesellschaft. Sie brin-gen lang funktionierende Geschäftsmodelle ins Wanken und sie generieren gleichzeitig völlig neue Märkte: Wie selbstverständlich kaufen wir heute Musik im Internet; die CD-Verkäufe brechen ein, da-für steigen die Online-Verkäufe ständig. Auch die Filmwirtschaft stellt sich bereits auf den Online- Vertrieb ein. Selbst TV-und Radioanbieter beginnen, ihre Angebote über das Internet zugänglich zu ma-chen.

    Die meisten dieser Kompressionsverfahren sind den Nutzern unbekannt. Zwar sind Technologien wie MPEG Layer 2, AAC oder AVC allgegenwärtig, den-noch sind sie für den Nutzer unsichtbar. Nur einer Technologie ist es gelungen aus dem Abkürzungsal-lerlei bis in das Bewusstsein der Menschen vorzu-dringen: MP3. Als Vorreiter der digitalen Medienre-volution spielte das Format eine entscheidende Rolle; heute kennt und nutzt das Format fast jeder. MP3 ist der weltweit beliebteste Standard für die Kompression von digitalen Audiodaten und das Sy-nonym für die tragbare Musiksammlung. So gut wie alle Geräte der Unterhaltungselektronik spielen MP3. Diese Allgegenwärtigkeit hat sich das Erlan-ger Entwicklerteam des Fraunhofer IIS Anfang der Neunziger Jahre wohl erhofft, absehbar war es da-mals sicherlich nicht. Unermüdlich kämpften die In-genieure und Wissenschaftler für den Einsatz der Technologie. Bald gab es deutsche Unternehmen, die MP3 im Profibereich einsetzten – so zum Bei-spiel studiotaugliche Geräte für die Übertragung von Audiosignalen über ISDN-Leitungen oder Halte-stellenansagen im öffentlichen Nahverkehr. Und es war auch eine deutsche Firma, die den weltweit ersten Decoderchip Mitte der Neunziger Jahre vor-stellte. Nahezu alle frühen MP3-Player nutzten die-sen Chip aus Deutschland für die Musikwieder-gabe. Und auch heute profitiert der Standort Deutschland von MP3: So bedingt MP3 rund 10.000 Arbeitsplätze in Deutschland, die jährlichen Steuereinnahmen für Bund und Länder summieren sich auf 300 Millionen Euro. Zahlreiche deutsche Unternehmen bieten heute sehr erfolgreich MP3-Produkte an. Hinzu kommt noch der immaterielle Wert: MP3 verdeutlicht die Innovationskraft des Standorts Deutschland weltweit, in keiner Image-kampagne fehlt der Hinweis auf die Geburtsstätte der MP3-Technologie.

    Audiocodierung. Videocodierung. Basistechnolo-gien also, die unseren Umgang mit Medien verän-dert haben. Und Technologien, über die erstaunlich wenig bekannt ist. Die folgenden Texte erklären deshalb die grundlegenden Funktionsprinzipien der Technologien im Schatten von iPod und Co.

  • 9

    Audiocodierung

    Funktionsprinzip der AudiocodierungJohannes hilPeRt, Matthias Rose

    Gehörangepasste Audiocodierverfahren wie MP3 nutzen zur Kompression von Audiodaten die Eigen-schaften des menschlichen Gehörs. Musik besteht aus sehr vielen verschiedenen Komponenten, die aber nicht gleich gut hörbar sind. So bleibt dem Zu-hörer beispielsweise ein leises Flötenspiel mögli-cherweise verborgen, wenn gleichzeitig kräftig auf die Pauke gehauen wird. Zwar ist das Flötenspiel immer noch vorhanden, aber das menschliche Ohr kann es im Augenblick des Paukenschlags nicht mehr wahrnehmen: Die Flöte wird durch die Pauke verdeckt beziehungsweise maskiert. Diese und wei-tere Eigenschaften des menschlichen Gehörs ma-chen sich gehörangepasste Audiocodierverfahren zunutze. Die Teile der Musik, die für den Menschen besonders gut hörbar sind, werden auch besonders genau dargestellt. Weniger gut hörbare Anteile werden weniger ge-nau abgebildet, unhörbare Informationen werden ignoriert. So wird also der Paukenschlag in unserem Beispiel besonders genau dargestellt, das Flöten-spiel hingegen eher ungenau. Diese flexible Darstel-lung hilft Daten zu sparen und führt gleichzeitig eine Abweichung (ein Rauschen) in das Musiksignal ein. Dieses sogenannte Codiergeräusch wird allerdings idealerweise maskiert, ähnlich wie das Flötenspiel in unserem Beispiel.

    Diese Vorgehensweise wird unter dem Begriff Irre-levanzreduktion zusammengefasst, da für das menschliche Ohr irrelevante Signalanteile weniger genau gespeichert werden. Dieser Schritt ist nicht rückgängig zu machen. Zusätzlich erfolgt bei der Audiocodierung eine »Redundanzreduktion«. Da-bei werden die zu übertragenden Informationen möglichst kompakt dargestellt. Ähnlich einer Kom-pression mit dem ZIP-Format, lassen sich diese Da-ten wieder fehlerfrei rekonstruieren.

    Audiocodierverfahren, die sowohl Irrelevanz- als auch Redundanzreduktion nutzen, werden als ver-lustbehaftete Verfahren bezeichnet. Je nach Audio-codierverfahren wird hier eine Kompression um den Faktor 10 bis 30 und mehr erreicht. Die verlust-freien Verfahren arbeiten nur mit der Redundanzre-duktion. Dadurch kann auf der Empfängerseite das Originalsignal Bit für Bit wieder hergestellt werden. Allerdings erreichen solche Verfahren nur eine Kompression um den Faktor 2 bis 2,5 und keine konstante Datenrate.

    Verdeckung im Frequenzbereich: Der Bereich über der Ruhehör-schwelle (grau) ist für den Menschen hörbar. Ein Schall ereignis (verdeckender Schall) hebt diese Ruhehörschwelle an (Mithör-schwelle, schwarz). Frequenzen, die unter der Mithörschwelle liegen, können nicht mehr wahrgenommen werden. Sie werden durch das Schallereignis verdeckt.

    Dies ist das Funktionsprinzip aller verlustbehafteten Audiocodierverfahren. Der folgende Text erklärt am Beispiel von MP3 (MPEG Audio Layer-3), wie dieses Prinzip technisch umgesetzt wird.

    Aufbau des MP3-EncodersDer MP3-Encoder übernimmt die Audiodatenkom-pression. Das Eingangssignal ist ein unkompri-miertes digitales Mono- oder Stereo-Audiosignal mit einer Abtastrate von 16 kHz, 22,05 kHz, 24 kHz, 32 kHz, 44,1 kHz oder 48 kHz; das entspricht einer Quell-Datenrate von 256 bis 1536 kbit/s. Zum Vergleich: Die CD speichert Musik mit einer Ab-tastrate von 44,1 kHz und 1440 kbit/s. Die Ziel- Datenrate kann im Bereich zwischen 8 und 320 kbit/s gewählt werden.

    Im MPEG-Standard ist nur der Decoder und das For-mat des Bitstroms (MP3-Files) spezifiziert; der Enco-der kann völlig frei gestaltet werden, wobei ein guter MP3-Encoder nur mit entsprechender Erfah-rung und Hintergrundwissen zu verwirklichen ist. Die ISO bietet eine offene Referenzimplementierung für MP3-Encoder und -Decoder an. Diese Referenz-software liefert einen korrekten MP3-Bitstrom, ist al-lerdings nicht auf Audioqualität optimiert.Aufbau eines Audio-/MP3-Encoders

    PCM

    EingangAnalyse-Filterbank

    Quantisierung und Codierung

    Bitstrom-Multiplex

    PsychoakustischesModell

    Bitstrom

    Schematischer Aufbau eines MP3-Encoders

    Der MP3-Encoder besteht im Wesentlichen aus den folgenden Elementen:– Filterbank: Eine Filterbank zerlegt das Frequenz-

    spektrum eines Audiosignals in unterschiedlich breite Abschnitte, die sogenannten Subbänder. Diese Zerlegung des Frequenzspektrums in un-

  • 10

    terschiedliche Bänder ist notwendig, da be-stimmte Teile des Spektrums besser hörbar sind als andere. Bei MP3 findet eine Hybridfilterbank Verwendung, bestehend aus einer Polyphasen-filterbank und einer modifizierten diskreten Cosinus-Transformation (MDCT). Die Polypha-senfilterbank zerlegt das Frequenzspektrum eines Blocks von 576 Abtastwerten in 32 gleich breite Polyphasenbänder (jeweils 750 Hz breit bei 48 kHz Abtastrate). Die darauf folgende MDCT unterteilt jedes Polyphasenband in weitere 18 Unterbänder. Insgesamt wird so der Block in 576 Subbänder oder Frequenzlinien aufgeteilt. Diese feine Frequenz auflösung ermöglicht eine sehr effiziente Kompression.

    – Psychoakustisches Modell: Die Güte des MP3-Encoders hängt auch von der Qualität des im-plementierten psychoakustischen Modells ab. Anhand des psychoakustischen Modells wird für jede Frequenzgruppe die Mithörschwelle be-rechnet. Frequenzgruppen sind aus der Psycho-akustik bekannte Frequenzbänder, innerhalb de-rer das menschliche Gehör Wahrnehmungen zusammenfasst und die für die Berechnung von Maskierungseffekten eine Rolle spielen. Der En-coder geht davon aus, dass Störsignale (zum Beispiel ein Quantisierungsgeräusch), die in ei-ner Frequenzgruppe unterhalb der berechneten Mithörschwelle bleiben, für den Menschen nicht wahrnehmbar sind.

    – Quantisierung: Die Spektralwerte, also die Am-plituden der Frequenzlinien, werden nicht exakt übertragen, sondern mit unterschiedlicher Ge-nauigkeit gerundet (»quantisiert«). Mittels die-ser Quantisierungsungenauigkeit wird der größ-te Teil der Einsparung an Informationsmenge erreicht: Je ungenauer quantisiert wird, desto weniger Bits werden benötigt, um die Frequenz-information zu übertragen. Andererseits erzeugt die Quantisierung, die fre-quenzbandweise (in »Skalenfaktorbändern«) gesteuert wird, ein rauschartiges Fehlersignal, das im Originalsignal nicht vorhanden ist. Die Breite der Skalen faktorbänder ist im MPEG-Standard definiert.

    – Quantisierungsschleifen: Die Quantisierung er-folgt oftmals in zwei ineinander geschachtelten Schleifen. Die innere Schleife wird als »Rate Loop« bezeichnet, da sie die Verteilung von Bits so lange modifiziert bis sie der vom Nutzer ein-gestellten Bitrate entspricht. Diese Schleife ist

    eingebettet in die äußere Schleife (»Noise Con-trol Loop«): Übersteigt das Quantisierungsrau-schen in einzelnen Skalenfaktorbändern die vom psychoakustischen Modell vorgegebene Maskierungsschwelle, so wird die Quantisie-rungsgenauigkeit in den kritischen Skalenfaktor-bändern verfeinert und auf diese Weise das Quantisierungsrauschen dort reduziert. Danach muss allerdings die innere Schleife, die »Rate Loop«, erneut ausgeführt werden, um den durch die Verfeinerung auftretenden Bitmehr-verbrauch zu kompensieren. Die äußere Schleife wird solange ausgeführt bis für jedes Skalenfak-torband das Rauschen möglichst gleich weit un-terhalb der Mithörschwelle ist. So kontrolliert die äußere Schleife die Qualität der MP3-co-dierten Musikdatei und sorgt dafür, dass mög-lichst nur die Signalanteile reduziert werden, die für das menschliche Gehör irrelevant sind.

    – Codierung: Die quantisierten Spektralwerte wer-den Huffman-codiert, wobei den häufiger auf-tretenden Quantisierungswerten kürzere Code-wörter zugewiesen werden als den seltener auftretenden. Die Huffman-Codierung dient der Redundanzreduktion und arbeitet verlustfrei.

    – Im letzten Schritt werden die codierten Spektral-linien zusammen mit der Seiteninformation in einen standardkonformen Bitstrom gepackt.

    Darüber hinaus beinhaltet MP3 zwei Verfahren zur gemeinsamen Codierung der beiden Tonkanäle eines Stereosignals (»joint stereo coding«) um Ge-meinsamkeiten zwischen ihnen ausnutzen zu kön-nen und so eine bessere Stereoqualität zu errei-chen.

    Aufbau des MP3-DecodersDer MP3-Decoder ist ungleich einfacher gebaut als der Encoder: Zunächst wird der MP3-Bitstrom in seine Bestandteile zerlegt. Dann werden die unterschiedlich quantisierten Spektralwerte wieder rekonstruiert und gegebenenfalls eine gemeinsame Stereodecodierung ausgeführt. Zum Schluss setzt die Synthesefilterbank das Signal wieder in den Zeitbereich um.Aufbau eines Audio-/MP3-Decoders

    PCM

    Output

    Bitstrom-Demultiplex

    InverseQuantisierung

    Synthese-Filterbank

    Bitstrom

    Schematischer Aufbau eines MP3-Decoders

  • 11

    Erst Mono, dann Stereo – und jetzt auch noch Multikanal?

    oliveR hellMuth

    »Holen Sie sich den Kinoklang nach Hause!« So oder so ähnlich werden Surround-Anlagen bewor-ben, die es inzwischen in allen Elektronikfachmärk-ten zu kaufen gibt. Ist eine solche Anlage im hei-mischen Wohnzimmer dann installiert, klingt es aus allen Ecken: Flugzeuge fliegen durch den Raum, Blätterrauschen von hinten, Stimmen von vorne. All dies ist möglich dank der speziellen Anordnung der Lautsprecher einer solchen Surround-Anlage. Denn diese besteht aus mindestens fünf Lautsprechern und einem Subwoofer. Drei der fünf Lautsprecher befinden sich vor dem Zuschauer, zwei dahinter. Der Subwoofer steht meist etwas abseits und er-zeugt die tiefen Töne.

    Bei Filmen sind zwei wesentliche Vorteile der Sur-round-Wiedergabe für den Zuschauer entschei-dend. Erstens ist die optimale Sitzposition nicht mehr auf die Mitte zwischen den beiden vorderen Lautspre-chern beschränkt. Durch die Integration eines mitt-leren vorderen Lautsprechers (»Center«) hören alle Personen vor dem Fernsehgerät die Dialoge genau von der Stelle, an der auch das passende Bild auf dem Fernseher zu sehen ist. Im Gegensatz dazu die reine Stereo-Wiedergabe: Befindet sich hier der Hö-rer außerhalb der Mittelachse zwischen beiden Frontlautsprechern, so hört der Zuschauer die Dia-loge auch hauptsächlich aus dem näheren Laut-sprecher. Der Hörer nimmt die Anteile des rechten und linken Kanals nicht mehr mit den vorgese-henen Lautstärke- und Zeitverhältnissen wahr – das der Stereo-Wiedergabe zugrunde liegende Prinzip wird verletzt. Eine korrekte Stereo-Wiedergabe, bei der alle Schallquellen an den vorgesehenen Positi-onen wahrgenommen werden, ist also nur in einem sehr engen Bereich möglich – nämlich genau auf der Mittelachse zwischen den beiden vorderen Lautsprechern.

    Stimme

    TV

    AMBIENCEund

    EFFEKTE

    OptimalerHörplatz

    TV

    AMBIENCEund

    EFFEKTE

    OptimalerHörplatz

    Stimme

    Vorteile der Surround-Wiedergabe für Film- beziehungsweise TV-Inhalte im Vergleich zur Stereo-Wiedergabe

    Der zweite wesentliche Vorteil der Surround-Wie-dergabe bei Film ist noch offensichtlicher: Steht ein Lautsprecher hinter dem Zuschauer, dann kann von hier auch eine Schallquelle wiedergegeben werden. So fliegt zum Beispiel ein Hubschrauber akustisch von vorne (Frontlautsprecher) über die Köpfe der Zuschauer nach hinten (Rücklautsprecher). Während sich der Hörer bei der Stereo-Wiedergabe im Wesentlichen nur am akustischen Rand befin-det, so wird er bei der Surround-Wiedergabe mit-ten in das Geschehen hineinversetzt.

    Diese Vorteile der Mehrkanal-Wiedergabe von Fil-men gelten in ganz ähnlicher Weise auch bei der Wiedergabe von Musik. Durch die Integration des Center-Lautsprechers wird das ursprüngliche Klang-bild der Musikaufnahme signifikant stabilisiert. Auch für den Zuhörer abseits der optimalen Hörachse, aber innerhalb des vergrößerten Sur-round-Bereichs sind so alle Klangquellen an der richtigen Stelle im Klangbild.Die hinteren Lautsprecher erfüllen bei der Sur-round-Wiedergabe von Musik einen ähnlichen Zweck wie beim Film, nämlich die Steigerung der Wahrnehmung, sich akustisch mitten in der musi-kalischen Darbietung zu befinden. Bei einer Live-Aufnahme oder einer nachempfundenen Studio-produktion kann genau dieser Eindruck erzielt werden, wenn zum Beispiel reflektierter Raum-schall, wie er am Ort der Aufnahme vorherrscht be-ziehungsweise vorherrschen soll, über die hinteren Lautsprecher wiedergegeben wird. Außer für eine realistischere Wiedergabe können die Surround-Lautsprecher natürlich auch als reine Effekt-Kanäle genutzt werden. Der kreative Freiraum bei der Mu-sik- oder Filmproduktion wird so um eine zusätz-liche Dimension erweitert.

    Wie können viele Kanäle (effizient) komprimiert werden?Zur Speicherung und Übertragung von digitalen Audiosignalen ist heute immer noch eine Kompri-mierung der Daten erforderlich um mit gegebenen (Speicher-) Platzressourcen auszukommen. In vielen Fällen ist nicht die maximale Audioqualität der Co-dierung entscheidend, sondern das Verhältnis der Audioqualität zur Kompressionsrate, also wie effizi-ent eine bestimmte Qualitätsstufe erreicht wird. Im Folgenden sollen zunächst die gängigen Grundkon-zepte der Komprimierung von Mehrkanalsignalen erläutert werden. Am Ende dieses Abschnitts werden schließlich die wichtigsten Eigenschaften der jewei-ligen Technologien gegenübergestellt.

  • 12

    Diskrete Codierung der KanäleEine nahe liegende Variante der Codierung von Mehrkanalsignalen mit n Kanälen ist die n-fache Anwendung eines Codierverfahrens für je einen Mono-Kanal, das heißt jeder Kanal wird einzeln co-diert. Die Vertreter dieses einfachen Prinzips, wie zum Beispiel Mehrkanal-AAC, Dolby Digital oder DTS, werden als diskrete Codierverfahren bezeich-net. Vorteilhaft bei diesen Verfahren sind sowohl die in der Regel sehr hohe Audioqualität als auch eine hervorragende Trennung der einzelnen Kanäle. Die Nachteile solcher Verfahren sind zum einen sehr hohe Datenraten (im Fall von DTS rund 1,2 Mbit/s), zum anderen sind sie nicht rückwärtskom-patibel zu bestehenden Mono- oder Stereogeräten.

    Matrix-Codierung der KanäleDie sogenannten Matrix-Verfahren stammen aus den 70er Jahren und sind ein Notbehelf der Filmin-dustrie. Sie nutzen zur Übertragung des Mehrkanal-signals einen speziellen Downmix. Dieser Downmix wird nach fest vorgegebener Rechenvorschrift aus dem Mehrkanalsignal erzeugt und enthält damit eine Grundinformation über die ursprüngliche Ver-teilung der Signalanteile. So werden die ursprüng-lich fünf Kanäle in ein Stereosignal überführt.Ein Matrix-Decoder rekonstruiert die Originalsignale aus dem speziellen Downmix durch Invertierung der Berechnungen des Encoders, das heißt die ur-sprüngliche Zahl an Kanälen wird wieder hergestellt. Oft gelingt dies nicht sonderlich gut und Signalan-teile tauchen in Kanälen auf, in denen sie ursprüng-lich nicht vorhanden waren. Deshalb versuchen neu-ere Varianten in einem zusätzlichen Schritt akustisch dominante Ereignisse zu erkennen und sie in dem relevanten Ausgabekanal zu betonen, um ein Über-sprechen in unbeteiligte Kanäle zu verhindern.Bekannte Vertreter der Matrix-Verfahren sind zum Beispiel Dolby ProLogic II oder Logic 7. Der er-wähnte Nachteil des Übersprechens in unbeteiligte Kanäle, teilweise instabile Signalenergie und eine ungenaue räumliche Abbildung der akustischen Szene führen insgesamt zu einer deutlich einge-schränkten Audioqualität des decodierten Sur-round-Signals. Der Vorteil der Matrix-Verfahren be-

    steht in der Möglichkeit, den Downmix mit beliebigen nicht-Surround-fähigen Geräten den-noch wiedergeben zu können. Dies geschieht aller-dings mit einer prinzipbedingten Einschränkung der Audioqualität, da zur Nutzung des Verfahrens kein beliebiger, sondern ein fest vorgegebener Downmix (siehe oben) verwendet werden muss. Die Matrix-Verfahren sind also nur ein Kompromiss für die Ste-reo- und Surround-Wiedergabe.

    Räumliche Codierung der KanäleDas zugrunde liegende Prinzip der neuen räum-lichen Codierverfahren (engl. »Spatial Audio Co-ding«) besteht darin, ein Multikanalsignal in Form eines Mono- oder Stereo-Downmixes und zusätz-lichen, sehr kompakten Surround-Parametern dar-zustellen. Diese Parameter beinhalten charakteris-tische Merkmale zur Beschreibung der räumlichen Klangwahrnehmung der ursprünglichen akus-tischen Szene. So erzeugt ein Encoder einen Down-mix und einen kontinuierlichen Datenstrom von Pa-rametern. Beides wird im Decoder zur Rekonstruktion des ursprünglichen räumlichen Klangeindrucks des Mehrkanalsignals verwendet. So arbeitet zum Beispiel die auf dem MP3-Format basierende MP3 Surround-Technologie. Andere räumliche Codierverfahren arbeiten meist unabhängig von einem bestimmten Codierverfah-ren für den Downmix und können daher mit jedem beliebigen Audiocodec kombiniert werden. Ein Ver-treter dieser Art der Mehrkanalcodierung ist MPEG Surround. Der Hauptvorteil dieser räumlichen Codierverfahren ist die effiziente Speicherung von Surround-Klang bei gleichzeitig hohem Qualitätsni-veau. Parameter von ca. 3 bis 16 kbit/s genügen zur Rekonstruktion der ursprünglichen Surround- Information bei gegebenem Downmix-Signal. Der Downmix wird in der Regel zusätzlich mit einem ef-fizienten Mono/Stereo-Codierverfahren kompri-miert, zum Beispiel MPEG-4 HE-AAC mit 64 kbit/s für Stereo. Grundsätzlich ist dieses Verfahren kom-patibel zu Mono- beziehungsweise Stereogeräten. Ist nämlich nur ein Mono- oder Stereodecoder vor-handen, so wird der Downmix wiedergegeben und die Surround-Parameter ignoriert.

    Prinzip der räumlichen Codierung am Beispiel von MPEG Surround (Zur Wiedergabe von Surround-klang über Stereokopfhörer vgl. S. 36)

  • 13

    Zusätzlich ist es möglich, einen vom Mehrkanal signal weitgehend unabhängigen Downmix (zum Beispiel ein vom Tonmeister abgemischter Stereomix) beim Encodiervorgang einzuspeisen. Im Unterschied zu den Matrixverfahren besteht so wesentlich mehr Freiheit bei der Gestaltung der rückwärtskompa-tiblen Stereoversion (= Downmix) des Musikstücks.

    Semantische Audiosignalverarbeitung – Audio technologie für die Zukunft

    Auf der CD sind Audiosignale als Folge von Abtast-werten gespeichert. Zwischen einer solchen Dar-stellung und der Art und Weise mit der wir Men-schen Informationen aufnehmen, verstehen und verarbeiten, besteht ein großer Unterschied. Men-schen nehmen Audiosignale in Form von audito-rischen Objekten (Schallquellen, zum Beispiel die Trompete in einem Orchester) mit bestimmten Ei-genschaften wahr – auch wenn sich diese in kom-plexen Schallgemischen befinden. Traditionelle Au-diosignalverarbeitung erlaubt jedoch keinen direkten Zugriff auf das Signal in einer der mensch-lichen Wahrnehmung entsprechenden Form. So führt zum Beispiel die Änderung eines Abtastwerts eines Signals vielleicht gerade zu einem hörbaren »Klick«, jedoch nicht zur Änderung einer Wahrneh-mungseigenschaft eines auditorischen Objekts.

    Diese Lücke zwischen traditioneller Signalverarbei-tung und der menschlichen auditorischen Wahrneh-mung soll in Zukunft die sogenannte semantische Audio-(Signal)verarbeitung schließen. Dabei ist das Ziel, dem Nutzer einen Zugriff auf Audiomaterial in einer der menschlichen Wahrnehmung entspre-chenden Form zur Verfügung zu stellen, also in Form

    von auditorischen Objekten mit entsprechend änder-baren Eigenschaften. Dieser semantisch motivierte Zugriff auf das Audiosignal stellt die Schnittstelle zum Nutzer dar. Um dies zu ermöglichen, ist eine Mischung aus traditioneller Audiosignalverarbeitung und neuen Forschungsideen beziehungsweise Kon-zepten aus anderen Forschungsbereichen notwendig (zum Beispiel Mustererkennung, Quellenseparation etc.).

    Was kann man mit semantischer Audiosignalverar-beitung machen beziehungsweise wird man in Zu-kunft machen können? – »Entmischen«, das heißt Trennen von Audio-

    quellen, zum Beispiel die Gesangsstimme aus einem Musikstück isolieren

    – Veränderungen der Eigenschaften von Quellen, zum Beispiel den Klang eines Schlagzeugs in einem Musikstück ändern

    – Austauschen von Audioquellen, zum Beispiel ein Instrument in einem Musik-stück durch ein anderes ersetzen

    – Änderung der ambienten Klanganteile, zum Beispiel Reduzierung des Hall-Anteils einer Aufnahme

    Welche Anwendungen gibt es?– Remix

    Wenn die auditorischen Objekte einer Mischung nicht oder nicht mehr getrennt zur Verfügung stehen, kann trotzdem eine neue Abmischung erstellt werden.

    – Upmix Musikstücke welche zum Beispiel nur als Stereo-Version vorliegen, können zu hochwertigen Mehrkanalversionen konvertiert werden, wenn man Zugriff auf einzelne Objekte hat.

    Tabelle 1: Vergleich wichtiger Eigenschaften aller Verfahren:

    Mehrkanal- codierung

    Diskret Matrix Räumlich

    Bitrateneffizenz (gesamt)

    Niedrig Mittel Sehr hoch

    Max. erzielbare Audioqualität

    Sehr hoch Mittel Hoch

    Kompatibel zu Mono/Stereo

    Nein Ja, aber problematisch

    Ja

    UnabhängigerDownmix

    Nein Nein Ja

    Einige Vertreter Dolby Digital, DTS, MPEG-4 AAC

    Dolby Pro Logic II, Neural, SRS

    MPEG Surround, MP3 Surround

  • 14

    – Karaoke Aus bestehenden Musikstücken kann nachträg-lich die Gesangstimme entfernt werden, um so eine für Karaoke geeignete Version zu erstellen.

    – Anwendungsbezogene Objektoptimierung (Ver-stärkung / Dämpfung) Um zum Beispiel nachträglich eine für Hörge-schädigte optimierte Tonspur eines Films zu er-stellen, ist es vorteilhaft, zunächst den Sprach-anteil zu verstärken und sämtliche Nicht-Sprachanteile zu dämpfen. Auf dieser Ba-sis können anschließend weitere Optimierungen erfolgen.

    Einige bekannte Audiocodierverfahren im ÜberblickMatthias Rose

    MP3MP3 ist der weltweit populärste Standard für die Kompression von Audiodaten. Die vollständige Be-zeichnung ist MPEG Audio Layer-3. Der Standardi-sierung im Jahr 1992 vorausgegangen waren lang-jährige Entwicklungsarbeiten, die Ende der 70er Jahre mit der Idee begannen, Musik über Telefon-leitungen zu übertragen. Heute unterstützen nahe-zu alle Geräte der Unterhaltungselektronik die MP3-Wiedergabe. Inzwischen verkaufen viele Online-Musikshops MP3-Dateien, wie zum Beispiel Amazon. Für die meisten Hörer sind MP3-Dateien bei einer Bitrate von 192 kbit / s nicht mehr vom Original zu unterscheiden. Diese Bitrate entspricht einer Kompression um den Faktor 8.

    MPEG AACMPEG Advanced Audio Coding (AAC, Dateiendung oft .mp4) erlangte einen breiten Bekanntheitsgrad durch den iPod und iTunes Musicstore der Firma Apple. Hier kommt AAC als Standardaudioformat zum Einsatz. AAC spielt eine immer wichtigere Rol-le in der Unterhaltungselektronik, zumal der japa-nische Rundfunk AAC als Standardaudioformat ein-setzt. An der Entwicklung war wiederum das Fraunhofer IIS maßgeblich beteiligt: Gemeinsam mit AT&T, Dolby, Nokia und Sony wurde AAC zwi-schen 1994 und 1997 entwickelt und standardi-siert. Ab einer Bitrate von 128 kbit / s für Stereoma-terial hören die meisten Nutzer bei AAC keinen Unterschied zum Original. AAC komprimiert aber nicht nur Stereo-Musik, sondern auch Multikanal-material, also zum Beispiel das 5.1-Format wie es auch auf DVD-Audio oder DVD-Video zu finden ist.

    MPEG-4 HE-AAC (v2)Besonders effiziente Varianten von MPEG AAC sind MPEG-4 High Efficiency AAC und MPEG-4 High Efficiency AAC v2. Mit diesen Verfahren sind Bitra-ten von 64 kbit / s und weniger für die Kompression

    von Stereomaterial in guter Qualität möglich. Ein-gesetzt werden die beiden Codecs vor allem bei neuen digitalen Rundfunksystemen (zum Beispiel DAB+, DVB-H) oder bei mobilen Multimediaanwen-dungen zum Beispiel für Handys.

    MPEG Layer-2MPEG Layer-2 wurde gemeinsam mit MP3 standar-disiert und bietet im Vergleich zu MP3 eine nied-rigere Komplexität (Rechenaufwand) bei geringerer Audioqualität beziehungsweise höheren Datenra-ten. Während MP3 vor allem im Internet und in der Unterhaltungselektronik dominiert, wird MPEG Layer-2 im Rundfunkbereich eingesetzt: So nutzen das Digital Radio DAB und der Digital-TV-Standard DVB MPEG Layer-2 als Audiocodierverfahren.

    WMA-CodecWindows Media Audio ist ein proprietärer Audio-codec von Microsoft. Inzwischen unterstützen eine ganze Reihe von Geräten WMA, wobei das Format nie die Popularität von MP3 erreicht hat.

    VorbisVorbis ist ein Audiocodec der Open-Source-Ge-meinde und wurde – wie WMA auch – als Alterna-tive zu MP3 entwickelt.

    RealAudioRealAudio ist ein proprietäres Format, das eine Rei-he von Audiocodierverfahren enthält, die an ver-schiedene Anwendungsbereiche angepasst sind. Bekannt ist RealAudio in Zusammenhang mit Inter-netradios.

    DTSDTS ist ein reines Multikanal-Tonsystem, bei dem alle Audiokanäle einzeln komprimiert werden. Da-bei wird mit einer sehr hohen Datenrate eine gute Qualität erzielt. DTS ist im Filmbereich weit verbrei-tet und kommt im Kino und bei DVDs zum Einsatz.

    Dolby Digital / Dolby AC-3Dolby Digital beziehungsweise Dolby AC-3 wird vornehmlich zur Kompression von Surround-Si-gnalen verwendet, unterstützt aber auch Stereo be-ziehungsweise Mono. Die Audiokanäle werden da-bei einzeln komprimiert. Hierdurch ist eine gute Qualität gewährleistet, allerdings bei einer sehr ho-hen Datenrate. Dolby Digital ist besonders im Film-bereich weit verbreitet und wird deshalb von vielen DVD-Playern und AV- Receivern unterstützt.

    Dolby Pro LogicZur Decodierung von Dolby Surround-Tonspuren wird Dolby Pro Logic genutzt. Dolby Surround und Dolby Pro Logic basieren auf der Matrix-Technolo-gie: Dabei werden die Kanäle eines Surround- Signals mit Dolby Surround auf ein Stereosignal

  • 15

    heruntergemischt und gespeichert. Auf der Emp-fängerseite rekonstruiert dann Dolby Pro Logic den ursprünglichen Surround-Klang. Der Vorteil hierbei ist, dass nur ein Stereosignal übertragen werden muss. Der Nachteil ist die eingeschränkte Audio-qualität im Stereosignal, aber vor allem auch für den rekonstruierten Surround-Klang.

    MP3 SurroundMP3 Surround ist eine rückwärtskompatible 5.1-Kanal-Erweiterung von MP3. MP3 Surround-Da-teien sind nur um rund 10 Prozent größer als MP3-Dateien im Stereoformat und bieten dennoch 5.1-Kanal-Ton in hoher Qualität. MP3 Surround wurde am Fraunhofer IIS in Zusammenarbeit mit Agere Systems entwickelt.

    MPEG SurroundMPEG Surround ist eine generische Surround-Er-weiterung, die mit verschiedenen Audiocodecs kombiniert werden kann. Dabei ist Kompatibilität mit den jeweiligen Stereo- und Mono-Playern si-chergestellt. Die Audioqualität kommt diskreter Multikanalcodierung sehr nahe, obwohl die Sur-round-Parameter mit sehr geringen Datenraten ab 3 kbit / s codiert sind. Kombiniert mit MPEG-4 High Efficiency AAC liefert MPEG Surround zum Beispiel guten 5.1-Kanal-Ton bei einer Gesamtdatenrate von 64 kbit / s und weniger.

  • 16

    Videocodierung und ihre Anwen-dungenhaRald Fuchs

    Videocodierung ist heute in vielen Bereichen der Unterhaltungsindustrie unverzichtbar – von DVDs, Camcordern, Handys und portablen Videoplayern bis zu Videokonferenzen, Internet-Video und digi-talem Fernsehen. All diese Anwendungen sind un-denkbar ohne Datenkompression, da die Datenrate von unkomprimiertem Video die vorhandenen Bandbreiten (zum Beispiel DSL) oder Speicherkapa-zitäten (etwa auf DVD) um ein Vielfaches über-schreitet. So ist das digitale terrestrische Fernsehen DVB-T nur durch Kompression der Video- und Au-diodaten möglich.

    Die Datenrate eines digitalen Videosignals wird im Wesentlichen durch drei Parameter bestimmt: Die zeitliche Auflösung (Bilder pro Sekunde), die ört-liche Auflösung (Bildpunkte pro Bild) und die Farb-tiefe (Bits pro Bildpunkt). Ein herkömmliches Fern-sehsignal wird in der üblichen Standardauflösung (SDTV) von 720 x 576 Bildpunkten mit 25 Vollbil-dern (Frames) pro Sekunde (beziehungsweise 50 Fernsehhalbbildern) gesendet. Bei drei Farben und je 8 Bit Farbauflösung werden 24 Bit pro Bildpunkt für eine korrekte Darstellung der Farbtiefe benötigt. Zusammengenommen erfordert allein der Videoan-teil eines Fernsehsignals also eine Gesamtdatenrate von etwa 250 Mbit/s. DVB-T bietet aber im Schnitt nur eine Übertragungsrate von 2 bis 3 Mbit/s an. Hier muss die Videocodierung also eine Kompressi-onsrate von etwa 1:100 leisten, ohne dabei durch die ungenauere Speicherung störende Fehler einzu-fügen.

    Grundlagen der Videocodierung

    Vor der eigentlichen Videocodierung werden zwei Schritte durchgeführt, die bereits zu einer spür-baren Verringerung der Datenrate führen: Die Re-duzierung der Farbauflösung und der Bildgröße. Beides ist durch die Wahrnehmungseigenschaften des menschlichen Auges möglich. Zum einen ist das Auge wesentlich empfindlicher für Helligkeits-änderungen als für Farbänderungen. Daher können Farbunterschiede weniger detailliert dargestellt werden als Helligkeitsunterschiede. So reicht bei Farbwerten in der Regel die halbe Auflösung im Vergleich zu Helligkeitswerten. Zum anderen hat das Auge des Menschen nur eine beschränkte ma-ximale Detailauflösung. Ist der Betrachtungsabstand vom Bildschirm relativ groß oder die Bildschirmdia-gonale klein, kann die Bildauflösung und damit die Anzahl der Bildpunkte pro Bild reduziert werden,

    ohne dass dies störend auffallen würde. Gängige Auflösungen bei Handydisplays liegen beispielswei-se zwischen 176 x 144 und 320 x 240 Bildpunkten, während bei aktuellen LCD-Fernsehern mit bis zu 100 cm Bildschirmdiagonale HDTV-Auflösung von 1920 x 080 (»Full HD«) üblich sind.

    Alle aktuellen Videocodierverfahren, angefangen bei MPEG-1 und MPEG-2 bis zu MPEG-4 AVC oder VC-1, basieren auf demselben Grundprinzip der so-genannten »blockbasierten, prädiktiven, hybriden Differenzbildcodierung«. Die Grundbausteine sind:– Aufteilung des Bilds in Blöcke von 16 x 16 Bild-

    punkten (oder weniger),– Differenzbildung mit Bewegungsschätzung und

    -prädiktion,– Transformation der Bilddaten in einen 2D-

    Frequenzbereich,– Quantisierung der Frequenzkoeffizienten und– Entropiecodierung der quantisierten Werte.

    Differenzbildung mit BewegungsschätzungAufeinanderfolgende Bilder in einer Videosequenz weichen meist nur wenig voneinander ab: So be-wegt sich der Sprecher bei Nachrichtensendungen beispielsweise kaum. Deshalb bietet es sich an, nicht jedes Einzelbild getrennt, sondern nur die Dif-ferenz zwischen mehreren Einzelbildern zu codie-ren. Bewegungserkennungs- und Bewegungskom-pensationsalgorithmen sorgen dafür, dass diese Differenz möglichst gering ist – und damit sehr sparsam gespeichert werden kann.

    Bei MPEG-2 kann nur das vorangegangene bezie-hungsweise das nachfolgende Bild zur Differenzbil-dung und Prädik tion verwendet werden. Der mo-dernste Videocodierstandard MPEG-4 AVC erlaubt es dagegen, bis zu 15 Referenzbilder zu verwenden. Nicht immer ist es sinnvoll Bewegungskompensation durchzuführen. So haben beispielsweise bei einem Szenenwechsel zwei aufeinanderfolgende Frames fast keine Gemeinsamkeiten. Diese Bilder werden ohne Bewegungsschätzung codiert. Es ist Aufgabe des Encoders zu erkennen, wann Bewegungskom-pensation verwendet werden sollte und wann nicht und welche Referenzbilder dazu herangezogen wer-den.

  • 17

    TransformationIn natürlichen Bildern gibt es eine starke Korrelation benachbarter Punkte. Die Helligkeiten beziehungs-weise Farben benachbarter Punkte sind normaler-weise ähnlich. Deutliche Unterschiede, wie zum Bei-spiel Kanten mit starkem Schwarz-Weiß-Kontrast treten seltener auf. Es ist also wahrscheinlich, dass neben einem »grauen« Bildpunkt ein Punkt mit ähnlichem Grauwert liegt. Eine Transformation der Bildblöcke in den Frequenzbereich erlaubt es nun, die Bildinformation in wenigen Werten zu konzen-trieren. Dieser Vorgang dient der Redundanzreduk-tion und ist durch eine Rücktransformation ohne Verluste umkehrbar. In der Videocodierung wird die diskrete Cosinus-Transformation (DCT) oder eine ähnliche Transformationen verwendet, um eine Ver-ringerung der Korrelation der einzelnen Komponen-ten (Frequenzkoeffizienten) sowie eine Verteilung des Großteils der Energie auf eine kleine Anzahl Ko-effizienten zu erreichen. Nach der Transformation haben also viele Koeffizienten nur kleine Werte oder sind Null (im rechten Bild schwarz dargestellt, siehe unten). Nur der als Durchschnittswert jedes Blocks gebildete sogenannte »Gleichanteil« (DC) hat einen deutlich höheren Wert (im rechten Bild der jeweils linke obere Punkt pro Block, weiß beziehungsweise hellgrau dargestellt).

    QuantisierungNach der Transformation werden die Koeffizienten des resultierenden Datenblocks quantisiert. Dies funk tioniert ähnlich wie das Runden in der Mathe-matik: Hier kann zum Beispiel der Wert 5 jede belie-bige Zahl zwischen 4,5 und 5,4 sein. Übertragen auf die Videocodierung wird jeweils einem Wertebe-reich auf der Eingangsseite (x-Achse der Grafik, siehe unten) nur ein einzelner Wert auf der Aus-gangsseite (y-Achse) der Quantisierung zugeordnet. Je nach Auflösung der Quantisierung (»QP« in der Abbildung unten) kann theoretisch eine beinahe be-liebig starke Kompression erfolgen. Erst die Quanti-sierung entfernt Informationen aus dem Bild, ist also eine »Irrelevanzreduktion«, da idealerweise nur die weniger wichtigen Details entfernt werden sollten. Eine hohe Kompression (Quantisierung mit geringer Auflösung) führt allerdings zu Bildartefakten bei der Decodierung, da der Fehler, der durch die Quantisie-rung entsteht, nicht mehr rückgängig gemacht werden kann.

    Quantization

    input

    output

    2 QP

    level = output/QP

    EntropiecodierungPer Definition ist die Entropie die Menge an Zufall in einem System. Im letzten Schritt der Videokom-pression wird demnach mit statistischen Werkzeu-gen gearbeitet. Man versucht vorherzusagen, wie

    Gesamtblockschaltbild eines »hybriden Codecs«Das folgende Blockschaltbild veranschaulicht das Zusammenspiel der beschriebenen Bausteine zu einem kompletten Codec, der aus einem digitalen Videosignal einen Videobitstrom erzeugt:

  • 18

    oft ein bestimmter Wert auftreten wird. In der deutschen Sprache ist zum Beispiel die Auftritts-wahrscheinlichkeit des Buchstabens »e« sehr hoch. Die Wahrscheinlichkeit, dass zwei »e« direkt nach-einander auftreten, ist wiederum eher gering. In der Videocodierung wird das Auftreten einzelner Koeffizienten und deren wiederholtes Auftreten be-trachtet, um das Signal möglichst effizient zu spei-chern (»Lauflängencodierung«). Die Möglichkeit zur Ausnutzung von Redundanzen in den quanti-sierten Koeffizienten variiert abhängig vom Video-codec – gängige Entropiecodierungsverfahren sind modifizierte Huffman-Codes, arithmetische Codes und kontextbasierte arithmetische Codes.So erreichen Videocodierverfahren Kompressionsra-ten von ca. 1:50 bis 1:100. Eine genaue, garantiert erzielbare Kompressionsrate lässt sich nicht ange-ben, da diese nicht nur vom Codieralgorithmus selbst abhängt, sondern auch sehr stark vom aktu-ellen Bildinhalt und dem Anspruch an die Bildquali-tät des codierten Videos.

    Skalierbare Videocodierung (SVC)Die neueste Entwicklung im Bereich der Videoco-dierung ist »SVC«, also die skalierbare Videocodie-rung. SVC wurde vor wenigen Monaten offiziell als eine Erweiterung des AVC-Standards verabschiedet. SVC ermöglicht es, einen einzigen Videostrom in verschiedenen Auflösungsstufen zu codieren. Die unterste Stufe (»Baselayer«) wird dabei kompatibel zu AVC codiert. Die darauf aufbauenden Stufen (»Enhancement Layer«) codieren nur die Diffe-renzen zwischen den einzelnen Layern und verwen-den dabei zur Verbesserung der Codiereffizienz die unteren Layer mit. So kann beispielsweise ein Endgerät oder auch ein Knotenpunkt in einem Video-Verteilernetzwerk entscheiden, ob es nur den Basis-Layer verwendet beziehungsweise weiterleitet oder den kompletten Videostrom. Damit wird vermieden, dass mehrere Videoströme unterschiedlicher Auflösung parallel übertragen werden müssen (»Simulcast«).

    Standards und Anwendungen der Videocodierung

    Der in der Unterhaltungselektronik zurzeit noch am häufigsten anzutreffende Standard zur Videocodie-rung ist MPEG-2 mit den Hauptanwendungsgebie-ten DVD und digitales Fernsehen (DVB S/ C/ T). MPEG-2 wurde vor über zehn Jahren entwickelt und dabei für Standardfernsehauflösungen opti-miert (SDTV, PAL 720 x 576 Bildpunkte). Wie auch bei anderen Videocodierungs-Standards werden »Profiles« und »Levels« verwendet, um die Kom-plexität des Gesamtstandards für bestimmte An-wendungen einzuschränken. Die einfachsten Profiles werden meist »Simple« oder »Baseline« genannt, die komplexeren »Main« oder »High«. Levels bestimmen die maximalen Bild-größen und Datenraten. Bei MPEG-2 wird überwiegend das »Main Profile @ Main Level« (MP@ML) eingesetzt. Übliche Datenra-ten dafür sind 5 bis 7 Mbit / s bei DVD und 3 bis 5 Mbit / s bei DVB-S. Für kleinere Auflösungen ist MPEG-2 nur bedingt geeignet. Im Mobilfunkbe-reich werden deswegen andere Standards, wie ITU-T H.263 für Auflösungen von 176 x 144 Punk-ten (»QCIF«) eingesetzt. H.263 wurde in den Neun-ziger Jahren hauptsächlich für Videokonferenzan-wendungen und Bildtelefonie entwickelt.

    Der zurzeit modernste Standard »MPEG-4 AVC« ist wesentlich jünger; die erste Version ist 2003 er-schienen. Er wurde gemeinsam von der ISO und der ITU entwickelt und ist deswegen unter zwei of-fiziellen Bezeichnungen bekannt: MPEG-4 Part 10 und ITU-T H.264. AVC ist für alle Auflösungen und Anwendungsbereiche geeignet – von QCIF über SDTV bis HDTV.

    Bei mobilem Fernsehen (DVB-H und DMB) wird das AVC »Baseline Profile« bei einer Auflösung von 320 x 240 Punkten (»QVGA«) und Datenraten von 200 bis 300 kbit/s eingesetzt. Begünstigt durch die

    Tabelle 2: Einige in der Unterhaltungselektronikindustrie gebräuchliche Videocodierverfahren

    Verfahren Einsatzgebiet Auflösung Typische Datenraten

    MPEG-2 Video DVD, digitales Fernsehen (DVB) Optimiert für Standard-fernsehauflösung SDTV

    Bei DVD 5 bis 7 Mbit / s, bei DVB 2 bis 5 Mbit / s

    MPEG-4 AVC / H.264

    Mobiles Fernsehen (DVB-H), Internet-Video, Internet-Fern-sehen IPTV, hochauflösendes Fernsehen HDTV (DVB-S2), HD-DVD, Blu-Ray

    Sehr flexibel: Von klei-nen Auflösungen für mobile Geräte bis hin zu voller HD-Auflösung

    Bei mobilen Fernsehen 200 bis 300 kbit / s, bei HDTV 8 bis 14 Mbit / s

  • 19

    frühzeitige Unterstützung in Apple Quicktime 7 (seit 2005) und seit kurzem auch in Adobe Flash findet AVC auch zunehmend für Internet-Video im PC-Bereich Verwendung, obwohl hier noch proprie-täre Verfahren wie Windows Media Video, RealVi-deo oder On2 genutzt werden.

    Bei IPTV wird meist mit Standardauflösung (SDTV) bei 1,5 bis 2 Mbit / s gearbeitet. Auch hierfür ist AVC sehr attraktiv (mit dem »Main Profile« bezie-hungsweise dem »High Profile«). Damit wird bei-spielsweise Live-TV über übliche DSL-Datenraten möglich.

    Am anderen Ende des Spektrums bei HD-Auflö-sungen führt ebenfalls kein Weg an AVC vorbei. Für HDTV bei DVB-S2 wird AVC High Profile mo-mentan bei einer Auflösung von 1920 x 1080 ver-wendet, bei Datenraten von 10 bis 14 Mbit / s. Au-ßerdem wird AVC High Profile bei der HD-DVD und Blu-Ray Disc eingesetzt.

    Exkurs: Digitales KinodR. siegFRied Fössel, angela Raguse

    Aufwändige Computer-Animationen, beeindru-ckender Surround-Ton – das Kino hat sich in den vergangenen Jahren rasant entwickelt. Digitale Pro-jektionen in den Lichtspielhäusern sind zwar noch nicht überall gang und gäbe, aber »Digital Cinema« ist auch in Europa angekommen.In den kommenden fünf Jahren sollen bis zu 10 000 Kinosäle digital ausgestattet werden und mit brillanten Bildern die Kinofreunde in die Film-theater locken. In Guildford bei London, UK, und in Chicago, USA, sind bereits die ersten Kinosäle mit »4K-Projektion« ausgestattet. Digital projiziert wird aber auch schon in vielen anderen Kinos. »4K« steht dabei für eine Auflösung von 4096 x 2160 Pi-xel oder 8 Mega pixel. Zum Vergleich: Das her-kömmliche Fernsehbild hat eine Auflösung von 720 x 576 Pixel (0,4 Mega pixel), hochauflösendes HDTV (»Full HD«) wird mit 1920 x 1080 Pixel dargestellt (2 Megapixel oder »2K«).

    Auch wenn die Zahl an digital produzierten und vor allem digital postproduzierten Filmen in den letzten fünf Jahren erheblich gestiegen ist, und immer mehr digitale Kameras in Kinoqualität Eingang in die Film-welt finden – vieles hat sich bis heute nicht verän-dert: Die bewegten Kinobilder werden wie vor hun-dert Jahren häufig noch auf Film gebannt. Doch der Abschied von der Filmrolle hat begonnen.

    Eine wichtige Voraussetzung für den Erfolg des digi-talen Kinos ist, dass die Filme auch überall uneinge-schränkt abspielbar sind. Dazu ist die Standardisie-rung von Formaten und die Interoperabilität von

    Systemen unbedingt notwendig. Im Jahr 2002 schlossen sich sechs der großen Filmstudios zur »Di-gital Cinema Initiative« (DCI) zusammen, um mit Hilfe von Richtlinien und Testplänen für die Umset-zung des digitalen Kinos eine standardisierte Basis für die Hersteller von Kinoequipment zu schaffen.

    JPEG2000 für Digitales KinoBei der Produktion von digitalen Kinofilmen fallen gigantische Datenmengen an – allein beim Dreh einzelner Szenen etwa 20 bis 50 Gigabyte, für ei-nen ganzen Film bis zu 20 Terabyte in unkompri-mierter Form. Um diese Informationen am Set spei-chern zu können, bedarf es einerseits eines handlichen und leistungsfähigen Recorders, ande-rerseits sind auch neue Codierverfahren notwendig. Als erste Maßnahme der DCI und der SMPTE wurde für die Distribution der Filme die JPEG2000-Codie-rung für das Digitale Kino standardisiert. Die JPEG2000-Codierung zeichnet sich für die Anwen-dung bei qualitativ hochwertigen Bilddaten durch zwei Vorteile aus: Zum einen bietet JPEG2000 die sogenannte Skalierbarkeit der Bilddaten, zum ande-ren intraframebasierte Kompression (Bild-für-Bild-Codierung) und eignet sich so auch für den Ar-beitsbereich des Videoschnitts. Zudem bietet JPEG2000 die Codierung von Bildern mit größerer Bittiefe wie 12 oder 16 Bit pro Farbkomponente. Im Gegensatz zur MPEG-Codierung, die nur 8 bis 10 Bit erlaubt.

    Vorteil von JPEG2000: Bild-für-Bild-Codierung für bildgenauen Schnitt auch nach der Codierung

    Im Anwendungsfall einer Filmproduktion bietet die JPEG2000-Codierung die Möglichkeit, verschiedene Auflösungs- beziehungsweise Qualitätsstufen aus den digitalen Originaldaten zu extrahieren, ohne das Original zu verändern. Dies gilt sowohl für den verlustlosen als auch für den verlustbehafteten Fall. Mit niedrig aufgelösten Dateien im sogenannten »Resolution Level« können die Schritte in der Post-produktion, wie zum Beispiel Farbkorrekturen, Roh-schnitte, Animationen, relativ schnell durchgeführt werden. Die in diesen technischen und kreativen Prozessen erarbeiteten und ausgewählten Parame-

  • 20

    ter werden in einem eigenen Metadatenset abge-speichert. Erst am Ende des kreativen Postprodukti-onsprozesses wird dieses Set auf die eigentlichen Originaldaten angewendet, um den digitalen Film zu erstellen. Die Vorteile dieses Verfahrens liegen auf der Hand – hier wird kostbare Rechen- und Ar-beitszeit gespart.Ein weiterer Vorteil der Skalierbarkeit von JPEG2000 im digitalen Kino besteht darin, dass je nach Leinwandgröße, Trägermedium oder Ausspiel-größe des Films unterschiedliche Zielformate ange-fertigt werden können ohne den Master zu verän-dern. Dies ist ein großer Vorteil für die Zweitvermarktung von Kinofilmen.

    Skalierbarkeit für andere Medien: Aus dem Original können durch die Skalierbarkeit von JPEG2000 verschiedene Auflösungs- und Qualitätsstufen extrahiert werden.

    JPEG2000 eignet sich darüber hinaus auch als Kompressionsformat in anderen »Hüllformaten«, die hochauflösende Bilder enthalten. Dies sind zum Beispiel MXF (Material Exchange Format) als Con-tainerformat für die Distribution ins Kino, Motion-JPEG2000 für Video oder DICOM in der medizi-nischen Anwendung. All diese Formate enthalten JPEG2000-Dateien oder bauen auf ihnen auf.

    JPEG2000-codiertes Bild: Die Codierung erfolgt über eine Wave-let-Transformation. Hierbei werden die niederfrequenten Anteile des Bildes geringer komprimiert und die hochfrequenten stärker. Im Gegensatz zu anderen Verfahren entstehen keine Störungen durch Blockartefakte.

    Digitale Filmpakete schnürenDer 35-mm-Film wird in Filmdosen transportiert der digitale Film im Digital Cinema Package (DCP). Das DCP beinhaltet alle Informationen angefangen von den Filmdaten über den Ton bis hin zu den Unterti-teln. Sämtliche Daten können verschlüsselt oder unverschlüsselt vorliegen. Das verschlüsselte DCP wird an die Theaterbetriebe über physikalische Me-dien, wie etwa Festplatten oder über Satellit, ver-teilt. JPEG2000 Plug-ins für die Erstellung von SMPTE-konformen JPEG2000 Dateien sowie DCP-Authoring- und Validierungssoftware erleichtern das Schnüren der digitalen Filmpakete. Mit diesen DCP-Werkzeugen soll sichergestellt werden, dass alle wichtigen Bestandteile der JPEG2000- und MXF-Files von den getesteten und zertifizierten Geräten im Kino problemlos abgespielt werden können.

    JPEG2000 für die Zukunft digitaler Film-ArchiveDerzeit laufen Projekte zusammen mit europä-ischen Filmarchiven, in denen die Verwendung von JPEG2000 für die Archivierung digitaler Filme analy-siert und konzipiert wird. Durch das Fortschreiten der Digitaltechnik bei der Filmerstellung werden zu-künftig viele Inhalte nicht mehr im Original auf Film zur Verfügung stehen. Daher müssen Konzepte er-arbeitet werden, um die digitale Archivierung über längere Zeit sicherzustellen. JPEG2000 als offener Standard besitzt gute Chancen, sich auch hier durchzusetzen. Wie das Trägermedium digitalen Ar-chivmaterials in Zukunft aussehen wird, ist aller-dings noch offen. Hier stehen die Diskussionen erst am Anfang.

  • 21

    Digitaler Rundfunk

  • 22

    Geschichte des Radios in DeutschlandMandy tRoMMleR

    Als Heinrich Hertz 1887 nachweisen konnte, dass sich elektromagnetische Schwingungen mit sehr hoher Geschwindigkeit in der Luft ausbreiten, legte er den Grundstein für unseren heutigen Rundfunk. Sicher war ihm damals noch nicht klar, wohin diese Entdeckung gut 120 Jahre später führen würde. Heute ist das Radio nicht länger ein Unterhaltungs- und Informationsmedium mit verrauschtem und knacksendem Empfang. Dank digitaler Technolo-gien sind Hörerlebnisse wie im Konzertsaal möglich – mit kristallklarem Mehrkanalton ohne die be-kannten typischen Empfangsstörungen des analo-gen Radios. Zudem bietet das digitale Radio die Möglichkeit, Zusatzinformationen, wie zum Beispiel thematisch aufbereitete Textinformationen, zu übertragen. Diese Entwicklung vollzog sich nicht von heute auf morgen. Am 29. Oktober 1923 strahlte die Sende-stelle Berlin Vox-Haus um 20 Uhr die erste offizielle Radiosendung in Deutschland aus. Damals gab es täglich eine Stunde Musik für eine sehr überschau-bare Anzahl von Zuhörern. 1924 wurden bereits 500 000 Rundfunkteilnehmer bei der Post regis-triert, und die Dauer der Rundfunkübertragung wurde auf zehn Stunden täglich erhöht. Der end-gültige Durchbruch zum Massenmedium erfolgte während der NS-Zeit, als das Radio zu Propaganda-zwecken missbraucht wurde und billige Geräte auf den Markt kamen.Nach dem zweiten Weltkrieg strukturierten die Be-satzungsmächte den Rundfunk in Deutschland neu. In der sowjetischen, französischen und englischen Besatzungszone herrschten zentralistische Struk-turen, während man im amerikanischen Sektor auf dezentral organisierten Rundfunk setzte. In den Jahren 1946 bis 1948 ging die Rundfunkverwal-tung und Programmgestaltung zum großen Teil in deutsche Hände zurück. Mit dem Artikel 5 des Grundgesetzes vom 23. Mai 1949 wurde die Frei-heit der Berichterstattung durch Rundfunk und Film als Garant der Demokratie unter besonderen Schutz gestellt.

    Neben der medienpolitischen Gestaltung des Rund-funks musste auch die technische Frage der Fre-quenzvergabe geklärt werden. Hierzu wurde 1948 die Kopenhagener Wellenkonferenz einberufen. Deutschland wurde nur ein Minimum an Lang- und Mittelwellen zugesprochen. Post, Industrie und Rundfunkanstalten beschlossen daher, verstärkt auf die Ultrakurzwelle (UKW) zu setzen. Nach und nach wurde in Deutschland eine nahezu lückenlose UKW-Abdeckung erzielt. Auch die Tech-nologie als solche verbesserte sich. So konnten ab 1967/68 alle Landesrundfunkanstalten prinzipiell

    Stereosendungen über UKW ausstrahlen, und es etablierten sich Zusatzdienste wie das Verkehrs-funksystem, das auf regionaler Ebene 1971 in Bayern Premiere hatte. Mit der heute weit verbreiteten und zunehmenden Digitalisierung – sei es im Heimkino mit der DVD und dem digitalen Fernsehen oder in der Musikwelt mit CD und MP3 – gewöhnen sich die Konsu-menten an störungsfreie hochqualitative Medienin-halte. Daher war das Ziel des digitalen Rundfunks von Beginn an eine erhebliche klangliche Verbesse-rung im Vergleich zum UKW-Radio. Zudem spielt der gleichbleibend gute Empfang auch bei hohen Fortbewegungsgeschwindigkeiten eine entschei-dende Rolle. Das Problem der zunehmenden Fre-quenzknappheit wird mit dem digitalen Radio durch Datenkomprimierung sowie der Verwendung von Gleichwellennetzen deutlich entschärft. Gleich-wellennetze bieten die Möglichkeit, mehrere Sen-destandorte mit denselben Programminhalten auf der gleichen Frequenz zu betreiben, ohne dass es in den Überlappungsbereichen wie im analogen Rundfunk zu Störungen kommt.

    Seit 1981 wurde am Digitalen Rundfunk DAB gear-beitet, seit 1987 als Forschungsprojekt der EU unter dem Namen Eureka 147. Vorreiter in Sachen DAB – Digital Audio Broadcasting – in Deutschland war und ist der Bayerische Rundfunk. 1998 brachte der BR den ersten voll digitalisierten Verkehrsender Deutschlands, Bayern Mobil, in die Luft. Insgesamt gibt es heute rund 160 Programme im digitalen Rundfunk in Deutschland. Darunter sind sowohl öf-fentlich-rechtliche als auch private Sendeanstalten. Die Programme sind zumeist eine Simultanübertra-gung des analogen Programms, wobei zunehmend auch exklusiv digital verfügbare Programme hinzu-kommen. Mittlerweile können rund 80 Prozent der deutschen Bevölkerung DAB empfangen. Doch nach wie vor kämpft das Digital Radio mit relativ hohen Endgerätepreisen, und es steht zunehmend in Konkurrenz mit anderen Medienangeboten wie beispielsweise dem Internet.

    Die Zukunft des Digitalen Rundfunks liegt neben der Vielfalt an Programmen und Zusatzdiensten si-cher in einer effizienteren Komprimierung. Die Tat-sache, dass in Deutschland erst eine vergleichswei-se geringe Anzahl an Empfangsgeräten verkauft wurde, kann als Chance genutzt werden, neue zu-sätzliche Standards mit einzubeziehen. Mit DAB+ wurde schon ein Schritt in diese Richtung getan: Moderne Kompressionsverfahren und die kosten-günstige Möglichkeit der Mehrkanalübertragung ermöglichen zusätzliche Programmangebote und damit einen echten Mehrwert für Sendeanstalten und Radiohörer. Man darf auf die künftige Entwick-lung gespannt sein.

  • 23

    Verbreitungswege des digitalen Radios

    Terrestrische digitale RadiosystemeolaF KoRte

    DAB, DAB+ und DMB

    EntwicklungDas DAB-System wurde im Rahmen des Projekts »Eureka 147 DAB« mit dem Ziel entwickelt, das analoge UKW-System abzulösen. »DAB« steht für »Digital Audio Broadcasting«.Das fertige System wurde der Öffentlichkeit im Rahmen der Internationalen Funkausstellung IFA 1995 in Berlin vorgestellt. Damals gab es erste Empfänger von Bosch Blaupunkt und Grundig, die interessierten Käufern im Rahmen der angelaufe-nen Pilotprojekte zur Verfügung standen. Bereits damals wurden auch erste Datendienst-Anwen-dungen gezeigt.Die nun erwartete rasche Einführung und Verbrei-tung von DAB geschah in Deutschland trotz zügiger Aufnahme des Regelbetriebs in einigen Bundeslän-dern jedoch nicht. Die Ursachen hierfür sind vielfäl-tig: In den ersten Jahren gab es kein attraktives An-gebot an Empfangsgeräten. Die neuen Geräte waren sehr teuer, im üblichen Fachhandel kaum er-hältlich und mit dem Begriff DAB verbanden nur wenige das neue digitale Radio.

    Das Hauptargument für DAB war damals die besse-re Audioqualität. Aufgrund der relativ guten UKW-Abdeckung in Deutschland war dies aber kein hin-reichendes Argument für die Käufer.Hinzu kam, dass sich die Programmangebote der ersten Jahre fast ausschließlich auf bereits per UKW verfügbare Inhalte beschränkten. Für private Veran-stalter war die Generierung zusätzlicher Programme speziell für die digitale Aussendung unattraktiv, weil es nur wenige Hörer gab. Die öffentlich-recht-lichen Rundfunkanstalten hatten ein vergleichbares Problem, da sie zwar einen Teil ihrer Rundfunkge-bühren für die Digitalisierung des Rundfunks er-hielten, diese jedoch nur für den Aufbau von tech-nischer Infrastruktur und nicht für die Generierung neuer Programmformate verwenden durften. Dem-entsprechend wurde in den UKW-Programmen nur wenig Werbung für DAB gemacht.

    Der Programmvielfalt abträglich war außerdem die Frequenzknappheit der ersten Jahre. So gab es in den Bundesländern meist nur wenige empfangbare Sender. Diese wurden oft in den Ballungszentren durch lokale, private Programmanbieter ergänzt.

    Dass die Programmvielfalt in Kombination mit dem Angebot neuer, exklusiver Formate für die erfolg-reiche Einführung sehr wichtig ist, hat der Erfolg von DAB in Großbritannien gezeigt. Hier wurde von

    Anfang an auf Vielfalt und neue Formate gesetzt. Heute sind im Großraum London mehr als 50 DAB-Programme empfangbar. Obwohl die Audioqualität aufgrund der hohen Programmanzahl und der dem-entsprechend niedrigen Bitrate für die einzelnen Programme teilweise eher niedrig ist, wird das An-gebot von der Bevölkerung gut angenommen. In Großbritannien wurden bis heute mehrere Millionen DAB-Empfänger verkauft, und ein Großteil der im Markt erhältlichen DAB-Empfänger und DAB-Emp-fangsmodule stammt von britischen Herstellern.

    In Deutschland hat DAB bis heute mit Empfangs-problemen in geschlossenen Räumen zu kämpfen, da die Sendeleistung oft nicht ausreichend ist. Eine Erhöhung der Sendeleistung war bisher nicht mög-lich, da man Störungen in benachbarten Funkbän-dern, insbesondere beim Flugfunk befürchtete. Erst in jüngster Zeit ist es dem Freistaat Bayern in di-rekter Zusammenarbeit mit dem Verteidigungsmini-sterium gelungen, Lösungen zur Leistungserhö-hung an wichtigen Sendestandorten zu finden.

    Da die einzelnen Audioprogramme deutlich weni-ger Datenrate benötigen, als ihnen das System pro Frequenz zur Verfügung stellt, werden mehrere Sender zu einem Ensemble zusammengefasst. Die-se Ensemble-Struktur des Systems entspricht weit-gehend den Anforderungen der öffentlich-recht-lichen Rundfunkanstalten, die mehrere Programme mit möglichst gleichem Verbreitungsgebiet aussen-den. Für private Anbieter ergibt sich hieraus – im Vergleich zu UKW – die neue und nicht immer er-wünschte Situation, dass sie gemeinsam mit ihren Konkurrenten im selben Ensemble ein identisches Ausbreitungsgebiet abdecken.

    Die ursprünglich von Bosch Blaupunkt bereits 1995 auf der IFA präsentierte Idee, auch Fernsehen über DAB zu übertragen und dies zum Beispiel in schnell fahrenden ICE-Zügen einzusetzen, war zunächst nicht erfolgreich. Erst nachdem in Korea der DAB-Standard mit der Videocodierung MPEG-4 AVC und dem Audiocodierverfahren BSAC erweitert wurde, kam diese Idee nach Europa zurück. Das mittlerweile für das DAB-System zuständige World-DAB-Konsortium nahm das koreanische Verfahren Digital Multimedia Broadcasting (DMB) in den Stan-dard auf, wobei für das Audiocodierverfahren zu-sätzlich zu BSAC auch MPEG-4 HE-AAC v2 (vgl. Audiocodierung S. 14) festgelegt wurde.

    Die jüngste Erweiterung des DAB Standards fand Ende 2006 statt. Das inzwischen in WorldDMB um-benannte DAB-Konsortium verabschiedete mit DAB+ eine Erweiterung, die für die Einführung von DAB in neuen Märkten zwingend erforderlich wur-de. Australien wird als einer der ersten Märkte aus-schließlich DAB+ einsetzen (vgl. DAB+ S. 24).

  • 24

    Technische HintergründeDAB hat eine Bandbreite von 1,5 MHz und wird im Band III (174 bis 230 MHz), das früher für das ana-loge Fernsehen verwendet wurde, und im L-Band (1452 bis 1492 MHz) übertragen.

    Als Modulationsverfahren kommt das »Orthogonal Frequency Division Multiplex Verfahren« (OFDM) zum Einsatz. Diese Fehler korrigierende Kanalcodie-rung ermöglicht auch bei teilweise gestörtem Si-gnal eine fehlerfreie Nutzung der übertragenen Dienste. DAB ist insbesondere für den mobilen Ein-satz konzipiert und ermöglicht so, im Gegensatz zu manch anderem Verfahren, auch in sehr schnell fahrenden Autos oder Zügen einen störungsfreien und stabilen Empfang.

    Um größere Flächen abzudecken, können soge-nannte Gleichwellennetze aufgebaut werden. Da-bei werden – im Gegensatz zum analogen UKW – alle Sendestationen die das gleiche Programmangebot aussenden auf einer gemein-samen Frequenz betrieben. Dadurch werden Fre-quenzen frei, die dann für zusätzliche Programman-gebote genutzt werden können. Außerdem muss ein mobiles Empfangsgerät die Frequenz nur noch dann wechseln, wenn der Nutzer andere Program-minhalte auswählt.

    Die Übertragungskapazität des Systems beträgt bis zu etwa 1,5 Mbit/s. Die Übertragung eines einzel-nen Audioprogramms erfordert deutlich weniger Datenrate. Deshalb werden stets mehrere Pro-gramme gemeinsam zu einem Ensemble zusam-mengefasst. Die Gesamtdatenrate wird dazu in so-genannte Subchannel unterteilt, die dann jeweils eines dieser Audioprogramme enthalten. Pro-grammbegleitend können Zusatzdienste (PAD – Programm Associated Data) zeitlich synchron zu den Audioprogrammen mit übertragen werden. Darüber hinaus gibt es Subchannels für reine Da-tendienst-Anwendungen (NPAD – Non-PAD). Die Art der Zusatzdienste und Datendienst-Anwen-dungen ist sehr vielfältig und umfasst unter ande-rem einfache Lauftexte (»Dynamic Label«), Bildfol-gen (»Slideshow«) oder auch moderne, strukturierte Informationsdienste (»Journaline«). (vgl. S. 32)

    DAB, DAB+ und DMB verwenden alle die gleiche Kanalcodierung und unterscheiden sich nur durch die darauf aufsetzenden Dienste und Anwen-dungen. Dadurch ist es möglich, dass alle drei Teil-standards gemeinsam, also gemischt, in einem En-semble zur Anwendung kommen.

    Beim klassischen DAB wird für die Audiocodierung das auch beim digitalen Fernsehen DVB eingesetzte Verfahren MPEG Layer-2 eingesetzt. Je nach Konfi-

    guration und Qualitätsanforderung werden so etwa sechs bis zwölf Audioprogramme in einem Ensemble untergebracht. Neuerdings kann unter Verwendung von MPEG Surround neben Mono- und Stereoton sogar 5.1 Mehrkanalton übertragen werden. (vgl. S. 15) Darüber hinaus kommen die schon oben erwähnten Zusatzdienste und reinen Datendienst-Anwendungen zum Einsatz.

    Das 2007 standardisierte DAB+ verwendet für die Audiocodierung anstelle von MPEG Layer-2 das we-sentlich effizientere Audiocodierverfahren MPEG-4 HE-AAC v2. Hierdurch können nun innerhalb eines Ensembles drei- bis viermal so viele Audiopro-gramme wie bisher übertragen werden. Bei DAB+ ist die Übertragung von 5.1 Mehrkanalton auf der Basis von MPEG Surround von Anfang an vorgese-hen.

    Digital Multimedia Broadcasting (DMB) stellt eine Erweiterung von DAB für das mobile Fernsehen dar. Für die Videocodierung wird MPEG-4 AVC (H.264) eingesetzt. Für die Audiocodierung kommt MPEG-4 HE-AAC v2 (beziehungsweise in Korea BSAC) zum Einsatz. Mit DMB können innerhalb eines Ensem-bles mehrere Fernsehprogramme gleichzeitig über-tragen werden, wobei die Videoqualität eher für kleine Displays geeignet ist, wie sie in Mobiltele-fonen oder batteriebetriebenen tragbaren Empfän-gern anzutreffen sind.

    Aktuelle Situation in DeutschlandWie in der Anfangszeit von DAB ist das Programm-angebot in Deutschland derzeit noch recht be-grenzt und besteht typischerweise aus einem En-semble pro Bundesland. Dieses wird meist durch die öffentlich-rechtlichen Angebote belegt. Verblei-bende Kapazitäten in diesem Ensemble werden dann von wenigen privaten Programmanbietern aufgefüllt. Zusätzlich gibt es in Ballungszentren lo-kale Ensembles, die lokale Programmanbieter ent-halten. Ein Großteil der Programmangebote in Deutschland ist immer noch identisch mit dem UKW-Angebot, aber die Zahl der exklusiv in DAB verfügbaren Programme nimmt stetig zu.

    Zusätzlich zu den Audioprogrammen werden auch Datendienste übertragen. Neben programmbeglei-tenden Diensten wie Dynamic Label und Slideshow werden auch programmunabhängige Dienste (Broadcast Website und Journaline) versendet.

    Das mobile Fernsehen auf Basis von DMB wurde in Deutschland 2006 anlässlich der Fußball-Weltmei-sterschaft im Rahmen des MiFriends-Projekts einge-führt. Der Betreiber Mobiles Fernsehen Deutschland (MFD) bietet in seinem DMB-Ensemble die vier Pro-gramme ZDF, N24, Pro7/SAT1 und MTV, wobei nur das ZDF frei empfangbar ist. Daneben werden in

  • 25

    MiFriends auch sogenannte Visual Radio-Pro-gramme betrieben. Hierbei wird der Videoteil mit einer sehr niedrigen Datenrate betrieben, um Standbilder oder langsame Bewegtbilder zu über-tragen.

    Das Angebot an preiswerten DAB-Empfängern hat deutlich zugenommen. Größtenteils stammen diese Empfänger von Herstellern aus Großbritannien und seit der Einführung von DMB zunehmend auch aus Korea.

    Digital Radio auf der Basis von DAB, DAB+ und DMB wird in Deutschland aller Voraussicht nach in den nächsten Jahren an Fahrt gewinnen, da sich die Rahmenbedingungen deutlich verbessert haben: Der Erfolg in Großbritannien und Korea sorgt für die nötige Vielfalt an Empfangsgeräten zu attraktiven Preisen. Dabei werden zukünftige Empfänger DAB und DAB+ ebenso unterstützen wie DMB – sofern sie über ein geeignetes Display verfügen.

    Seit der ITU-Planungskonferenz »Regional Radio-communcation Conference« (RRC) 2006 in Genf stehen in Deutschland ausreichend Frequenzen zur Verfügung, um alle Programmpläne realisieren zu können. Bis etwa 2009 ist eine bundesweite En-semble-Bedeckung realisierbar. Hinzu kommen noch für alle Bundesländer jeweils sechs landeswei-te Ensembles. Diese könnten in Ballungszentren zu-sätzlich noch mit einem weiteren lokalen Ensemble ergänzt werden, sodass dann insgesamt bis zu acht Ensembles empfangbar wären.

    Die Einführung von DAB+ erweitert diese Möglich-keiten der Programmvielfalt zwar nochmals, hat aber auch zu Irritationen geführt, da die bereits im Markt vorhandenen Empfänger den neuen Audio-standard nicht decodieren können. Dies betrifft ins-besondere die in Autos der Oberklasse vorhan-denen DAB-Empfänger. Diese bereits verbauten Empfänger sind nur schwer oder gar nicht durch neuere Modelle zu ersetzen. Darüber hinaus benö-tigt die Einführung einer neuen Empfängergenera-tion in der Automobilindustrie oft mehrere Jahre Vorlaufzeit. Daher ist es wichtig, in den nächsten Jahren eine ausgewogene Verteilung von DAB und DAB+ sicherzustellen. Dies ermöglicht neuen For-maten den Übergang auf das ökonomischere DAB+, ohne dabei vorhandene Empfänger un-brauchbar zu machen.

    Durch den Einsatz von DAB+ wird es auch möglich sein, attraktive Datendienste zu realisieren. Insbe-sondere die Automobilindustrie zeigt großes Inte-resse an solchen Diensten, die dann nicht nur reine Verkehrsinformationen enthalten, sondern die In-sassen auch mit umfassenden Informationsangebo-ten versorgen können. (vgl. S. 32)

    Es wird sich zeigen, ob das mobile Fernsehen DMB oder Visual Radio ein Erfolg werden. Ob dabei DVB-H und DMB in Konkurrenz zueinander stehen oder sich gegenseitig ergänzen ist eine der noch of-fenen Fragen, die der Markt beantworten wird. Da-rüber hinaus dürfte vor allem ein hinreichendes An-gebot an kostenlosen Programmen entscheidend sein.

    DRM und DRM+

    Entwicklung»Digital Radio Mondiale« (DRM) ist der digitale Hörfunk auf der Lang-, Mittel-, und Kurzwelle.. Analoge Radios hatten in diesen Frequenzbereichen stets Probleme mit schlechter Ton- und Empfangs-qualität. Da die digitalen Signale besser vor Fehlern geschützt werden können, ermöglicht DRM eine deutlich bessere Klangqualität als bisherige analoge Sender.

    Die Entwicklung von DRM begann 1997 unter dem Dach des internationalen DRM-Konsortiums und wurde 2005 abgeschlossen. Seitdem befindet sich DRM weltweit in der Einführungsphase. Mittlerwei-le arbeitet das DRM-Konsortium an der Standardi-sierung von DRM+. Es handelt sich hierbei um eine Erweiterung von DRM für den Frequenzbereich von 30 MHz bis 120 MHz. Die Arbeiten an DRM+ sollen 2009 abgeschlossen sein; die Markteinführung ist für 2011 geplant.

    Technische HintergründeDRM ist für die AM-Bänder (LW, MW, KW) unter-halb 30 MHz entwickelt worden. Die Bandbreite des Systems orientiert sich am Kanalraster der bis-her analog genutzten Frequenzbänder. Dieses be-trägt je nach Frequenzband 4,5 kHz, 5 kHz, 9 kHz oder 10 kHz. Um anspruchsvolleren Anwendungen höhere Übertragungskapazitäten bieten zu können, ist es möglich die Bandbreite durch Kanalbünde-lung zu verdoppeln. Damit sind Datenraten bis zu maximal 72 kbit/s möglich. Die üblicherweise in DRM verfügbaren Datenraten liegen jedoch bei etwa 16 bis 30 kbit/s. In jedem Fall ermöglicht die Beibehaltung des alten Kanalrasters eine schrittwei-se Umstellung auf digitalen Betrieb, indem einzelne Sender im DRM-Modus betrieben werden und be-nachbarte Frequenzen wie bisher analog weiterge-nutzt werden können. Ein sogenannter Simulcast-Betrieb, das heißt gleichzeitiger digitaler und analoger Betrieb in demselben Kanal, ist nur unter Qualitätseinbußen möglich. Trotz der geringen Übertragungskapazität von DRM ist die gleichzei-tige Aussendung von bis zu vier Programmen über einen DRM-Sender möglich. Darüber hinaus kön-nen die Sender auch noch schmalbandige Daten-dienste übertragen.

  • 26

    Für die Planung eines DRM-Programmangebots ist es wichtig die besonderen Ausbreitungsbedin-gungen insbesondere im Mittelwellen- und Kurz-wellenbereich zu berücksichtigen. Diese unterliegen vor allem starken Tag- und Nachtunterschieden. So kann es sein, dass man zu bestimmten Zeiten einen Sender aus Australien in Deutschland empfangen kann, während er zu einer anderen Zeit weit außer-halb des Empfangsbereichs liegt. Diese sogenann-ten Überreichweiten führen nicht nur dazu, dass sich die Reichweite eines Senders zu bestimmten Zeiten erhöht, sondern kann für leistungsschwache Sender auf derselben Frequenz genau den gegen-teiligen Effekt haben: Ferne leistungsstarke Sender überstrahlen zu diesen Zeiten den leistungs-schwachen lokalen Sender und machen ihn unhör-bar.

    Für die Audiocodierung kamen von Anfang an nur die leistungsfähigsten Verfahren in Frage, da DRM ein sehr schmalbandiges System ist. Für die Codie-rung von Musiksignalen kommt deshalb MPEG-4 HE-AAC v2 zum Einsatz. Für reine Sprachpro-gramme können zusätzlich auch die Sprachcodecs CELP und HVXC eingesetzt werden. Letzterer kann im Extremfall mit nur 2 kbit/s betrieben werden. So-mit ist es in DRM bei Verwendung von Sprach-codecs sogar möglich Nachrichten gleichzeitig in mehreren Sprachen auszusenden und anschließend durch Umschaltung auf HE-AAC v2 wieder ein für alle Hörer gemeinsames Musikprogramm auszusen-den. Als Zusatzdienste kommen ähnlich wie bei DAB Lauftexte, textbasierte Informationsdienste und Bilder in Frage.

    Mit DRM+ steht demnächst eine Erweiterung von DRM zur Verfügung, die für die Digitalisierung von UKW genutzt werden kann. Das OFDM-basierte Verfahren hat eine Bandbreite von 95 kHz und lässt sich so problemlos in das UKW-Kanalraster einbet-ten. Somit wird wie bei DRM ein stufenweiser Übergang vom analogen zum digitalen Betrieb möglich sein.

    Da DRM+ höhere Übertragungskapazitäten – bis zu 186 kbit/s – als DRM bieten wird, ist hier der Ein-satz von Sprachcodecs nicht vorgesehen. Dafür wird jedoch wie bei DAB+ durch die Verwendung von HE-AAC v2 in Verbindung mit MPEG Surround die Aussendung von 5.1 Mehrkanalton möglich sein. Zusatzdienste – programmbegleitend oder programmunabhängig – sind natürlich ebenfalls vorgesehen, wobei die höheren Bitraten anspruchs-vollere Anwendungen als bei DRM möglich ma-chen.

    Aktuelle Situation in DeutschlandDas aktuelle DRM-Programmangebot in Deutsch-land kann grob in zwei Kategorien aufgeteilt wer-den: Zum einen betreiben große internationale An-bieter wie Deutsche Welle, BBC Worldservice, Voice of Russia, Radio France Internationale und RTL Kurzwellenstationen, die aufgrund der Ausbrei-tungseigenschaften der Kurzwelle oft weltumspan-nenden Empfang ermöglichen. Darüber hinaus gibt es in Deutschland auch schon kleinere lokale Kurz-wellenstationen wie zum Beispiel das CampusRadio bit eXpress in Erlangen. Die Programme enthalten typischerweise ein Audioprogramm und begleiten-de Datendienste wie Dynamic Label und Journaline (vgl. S. 32).

    Für den Empfang von DRM stehen bisher nur weni-ge Empfängermodelle zur Verfügung. Am ein-fachsten haben es hier noch die PC-Nutzer die über eine vorgeschaltete Empfangsbox das DRM-Signal empfangen und mittels spezieller Decodersoftware im PC nutzen können. Darüber hinaus gibt es be-reits seit einigen Jahren spezielle DRM-Empfänger in geringen Stückzahlen zu relativ hohen Preisen. Doch in den Markt kommt Bewegung: Erste Anzei-chen deuten bereits auf die Bereitstellung preis-werter Empfänger hin. Hilfreich ist dabei, dass Flä-chenländer mit hoher Bevölkerungszahl auf DRM setzen, so zum Beispiel China und Russland.

    Parallel dazu sind interessante Programmangebote von Bedeutung. Neben dem Angebot der klas-sischen Kurzwellen-Stationen wie Deutsche Welle oder BBC World Service muss es auch neue Inhalte geben. Ein Beispiel ist das Truckradio, das ein euro-paweites Radioangebot für Lastwagenfahrer brin-gen soll. Es wird neben dem Audioprogramm auch Zusatzdatendienste in Form einer Frachtbörse ent-halten und so dieser speziellen Anwendergruppe einen bisher nicht verfügbaren Mehrwert bieten können.

    Die nächsten Jahre werden entscheidend für den Erfolg von DRM sein. Die ursprünglichen Vorteile der Kurzwelle bezüglich weltweiter Verfügbarkeit sind mit der Omnipräsenz des Internets relativiert worden.

    Mit der Bereitstellung der DRM+ Erweiterung für die UKW-Bänder könnte in Zukunft für kleinere Rundfunkanbieter eine sehr interessante Alternative zu DAB entstehen. Mit der bei DAB vorhandenen Ensemble-Struktur lassen sich solche Anbieter nur schwer unterbringen, während sie mit DRM+ wie bisher bei UKW als eigenständiger Sender mit indi-viduellem Ausbreitungsgebiet existieren könnten.

  • 27

    HD Radio

    EntwicklungDas ursprünglich unter dem Namen IBOC (In Band On Channel) entwickelte Verfahren wurde in den USA als Alternative zum europäischen DAB-System entwickelt. Es ist für den Einsatz im UKW-Band (FM) und MW-Band (AM) konzipiert. Als Besonder-heit ist für die Phase bis zur vollständigen Digitali-sierung dieser Bänder ein spezieller Simulcast-Mode möglich, der den gleichzeitigen analogen und digi-talen Betrieb auf demselben Kanal ermöglicht.

    HD Radio ist im Gegensatz zu den bisher vorgestell-ten Verfahren ein proprietärer Standard, der nicht offengelegt ist. Die gesamte Technologie muss da-her von der Firma iBiquity lizenziert werden.

    In den ersten Jahren führte iBiquity das System in den USA ein. Dies scheint inzwischen zumindest auf der Sendeseite im UKW-Band gelungen. Im MW-Band gibt es jedoch noch Probleme bezüglich der Störung von Nachbarkanälen; in den USA ist deshalb zunächst nur ein eingeschränkter Sendebetrieb er-laubt. Seit einigen Jahren vermarket iBiquity HD Ra-dio weltweit – so zum Beispiel in Südamerika und neuerdings auch in Europa. Hierzu wurde am Rande der IBC 2007 in Amsterdam eine europäische HD Radio-Interessensgruppe gegründet. In der Schweiz gibt es bereits seit längerer Zeit erfolgreiche Testaus-sendungen. In Frankreich gab es in 2006 einen Feld-test im Großraum Paris. In Deutschland wird in Kürze ein mehrmonatiger Testbetrieb aufgenommen. Da-rüber hinaus scheint insbesondere in Osteuropa das Interesse an HD Radio groß zu sein. Da in Europa bislang nur die Einführung von HD Radio im UKW-Band diskutiert wird, beschränkt sich die nachfol-gende Betrachtung auf diese Anwendungsart (FM-Modus).

    Technische HintergründeHD Radio unterscheidet grundsätzlich zwischen zwei Betriebsarten, dem Hybrid Mode und dem Full Digital Mode. Der Hybrid Mode ermöglicht den si-multanen Betrieb von analogem UKW und digi-talem HD Radio auf derselben Frequenz. Allerdings ist hierbei die Reichweite des digitalen Signals im Si-multanbetrieb stark eingeschränkt. Die digitale Übertragungskapazität beträgt dabei je nach Be-triebsart 96 beziehungsweise 124 kbit/s. Für die Au-diocodierung wird ein leistungsfähiger Codec mit ähnlichen Eigenschaften wie MPEG-4 HE-AACv2 eingesetzt. Der genaue Aufbau dieses Codecs ist je-doch nicht bekannt.

    Digital können mehrere Programme gleichzeitig ver-sendet werden, wobei das Hauptprogramm immer denselben Inhalt haben muss wie das analoge FM-Si-gnal. Der Empfänger kann dadurch an der Emp-

    fangsgrenze des digitalen Signals ohne Programmun-terbrechung auf ein analoges Signal umschalten.Der digitale Programmteil wird in sogenannten »Rucksäcken« an beiden Rändern des analogen UKW-Signals untergebracht. Das HD Radio Signal hat somit eine Gesamtbandbreite von 400 kHz, was dem in den USA üblichen Kanalraster entspricht. Problematisch erscheint dies jedoch für Europa, da hier ein engeres Kanalraster verwendet wird. Da-durch können die »Rucksäcke« in benachbarte Ka-näle rutschen und dort zu Störungen führen.

    Aktuelle Situation Empfänger und SenderHD Radio ist in USA sendeseitig schon stark verbrei-tet, wobei die Anzahl der Empfängerverkäufe bis-her noch eher bescheiden ist.In der Schweiz führt die Ruoss AG seit 2006 Tests durch, die nach eigenen Aussagen sehr erfolgreich verlaufen. Aufgrund der topologischen Unter-schiede ist die Schweizer Situation aber nur bedingt auf Deutschland anwendbar.In Deutschland werden Ende 2007 erste HD Radio-Tests durchgeführt. Aufgrund der 400 kHz Band-breite des Systems wird mit Schwierigkeiten ge-rechnet, die zu nicht akzeptablen Störungen der Nachbarkanäle führen können. Ob und in welchem Umfang dies jedoch tatsächlich der Fall ist, wird man erst durch die Tests erfahren. Ein nachhaltiger Einsatz in Deutschland erscheint momentan eher unwahrscheinlich, da die hohe Bandbreite von HD Radio voraussichtlich eine kom-plette Neuplanung der FM-Bänder erfordern würde. Dies scheint heute nicht realistisch, da das Ende der intensiven analogen Nutzung der UKW-Frequenzen noch in weiter Ferne liegt. Deshalb könnte das Er-scheinen von DRM+ in wenigen Jahren durchaus noch rechtzeitig kommen, um eine leistungsfä-higere Alternative zu HD Radio zu bieten, da sich DRM+ problemlos in das bestehende UKW-Kanal-raster einfügen lässt.Das in den USA übliche Lizenzmodell, wonach die Rundfunkstationen jährliche Lizenzzahlungen an iBiquity zu leisten haben, scheint in Europa – zu-mindest momentan – nicht durchsetzbar. Deshalb setzt iBiquity in Europa aktuell auf einmalige Zah-lungen beim Hardware-Einkauf des Kunden.

    HD Radio ist ein geschlossenes System und es gibt keine echte Konkurrenz bei den Geräteanbietern. Alle Hersteller müssen auf SW- und HW-Module zu-rückgreifen, die von iBiquity bereitg