105
Empfehlungen zur Vorbereitung einer Videokonferenz Oktober 2014 Kompetenzzentrum für Videokonferenzdienste Technische Universität Dresden Kompetenzzentrum für Videokonferenzdienste

Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

  • Upload
    others

  • View
    4

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Empfehlungen zur Vorbereitung einer

Videokonferenz

Oktober 2014

Kompetenzzentrum für Videokonferenzdienste

Technische Universität Dresden

Kompetenzzentrum für

Videokonferenzdienste

Page 2: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

1

Page 3: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

2

Inhaltsverzeichnis

1 Die Besonderheiten von Videokonferenzen 1-1

2 Szenario für Videokonferenzen 2-1

2.1 Komponenten 2-1

2.2 Beispielszenario für eine Mehrpunktvideokonferenz 2-2

3 Videokonferenzen über unterschiedliche Netzanbindungen 3-1

3.1 Videokonferenzen über IP 3-1

3.1.1 Der Standard H.323 3-1

3.1.2 Das Protokoll SIP 3-2

3.2 Videokonferenzen über ISDN entsprechend H.320 3-3

3.3 Gateway H.320 / H.323 im Dienst DFNVideoconference 3-4

4 Äußere Anforderungen 4-1

4.1 Raumgestaltung 4-1

4.1.1 Allgemeine Raumgestaltung 4-1

4.1.2 Akustik 4-1

4.1.3 Farben 4-4

4.1.4 Beleuchtung 4-4

4.1.5 Verkabelung 4-5

4.2 Sonstiges Zubehör 4-5

4.2.1 Mischpult 4-5

4.2.2 Projektionswände 4-6

5 Technische Anforderungen und Fehlersuche 5-1

5.1 Netzanforderungen 5-1

5.2 Netzcheck 5-2

5.3 Systemcheck Audio/Video 5-2

5.4 Fehlersuche 5-2

5.4.1 VC-System startet nicht 5-3

5.4.2 Rufe funktionieren nicht 5-3

5.5 Firewall 5-4

5.6 Sicherheit 5-4

6 Multipoint Control Unit (MCU) 6-1

6.1 Allgemein 6-1

6.2 Cisco TelePresence MCU 4500 Serie 6-2

6.3 Cisco Recorder IP VCR 2200 6-3

Page 4: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

3

7 Gatekeeper 7-1

7.1 Allgemeines 7-1

7.2 Global Dial Scheme 7-1

7.2.1 H.323 Name 7-1

7.2.2 E.164-Alias 7-2

7.2.3 Dial Plan Structure 7-2

7.3 Praktische Umsetzung 7-2

7.4 Empfehlung Gatekeeper 7-2

7.5 Konfiguration Gatekeeper 7-3

8 Videokonferenz-Geräte 8-1

8.1 Allgemeines 8-1

8.2 Klassifizierung Endgeräte 8-1

8.2.1 Desktop- bzw. Einzelplatzsysteme 8-1

8.2.2 Office-Systeme 8-2

8.2.3 Kompaktsysteme 8-3

8.2.4 Raumsysteme 8-3

8.2.5 Aktuelle Gruppen- und Raumsysteme, Office- und Einzelplatzsysteme 8-5

8.3 Konfiguration der Endgeräte 8-7

8.4 PC-Einstellungen 8-9

8.4.1 Bildschirmschoner, Energiesparfunktion 8-9

8.4.2 Systemmonitor 8-9

8.4.3 Windows SoundMixer 8-10

8.5 Datenanwendungen 8-10

8.5.1 H.239 – Medien-Kanal und Präsentationen in Videokonferenzen 8-10

8.5.2 Virtual Network Computing (VNC) 8-12

8.5.2.1 VNC mit CISCO-MCU 8-13

8.5.3 Datenanwendung über Adobe Connect 8-14

9 Vorbereitungen für eine Videokonferenz 9-1

9.1 Vorbereitung mit neuen Partnern 9-1

9.2 Technische und organisatorische Vorbereitungen 9-1

9.3 Der Moderator in einer Mehrpunktkonferenz 9-3

9.4 Gestaltung von visuellen Hilfsmitteln 9-3

Page 5: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

4

10 Durchführung einer Videokonferenz 10-1

10.1 Einwahlmöglichkeiten 10-1

10.1.1 Punkt-zu-Punkt-Verbindung 10-1

10.1.2 Mehrpunktkonferenzen 10-1

10.2 Verhalten in der Videokonferenz 10-3

Anhang A: Die wichtigsten Standards der Audiokodierung A-1

Anhang B: Videonormen B-1

Anhang C: Übersicht über Videoformate C-1

Anhang D: Einfluss von Paketverlusten auf die Videoqualität D-1

Anhang E: Questionnaire zur Vorbereitung einer Videokonferenz E-1

Anhang F: 10 Regeln für ein gelungenes Online-Meeting F-1

Glossar G-1

Page 6: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

5

Page 7: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

6

Vorwort

Das vorliegende Handbuch entstand im Rahmen des Projektes „Kompetenzzentrum für

Videokonferenzdienste“, ein vom DFN-Verein gefördertes Projekt. Es ist an der Technischen

Universität Dresden etabliert.

Das Handbuch wird in regelmäßigen Abständen aktualisiert. Es soll allen Anwendern von

Videokonferenzen und insbesondere allen Nutzern des Dienstes DFNVideoConference die

dafür notwendigen Informationen und Hinweise geben. Jedes Kapitel hat eine eigene

Versionsnummer, um einen separaten Austausch zu ermöglichen.

Die im Handbuch aufgeführten Firmennamen und Produktbezeichnungen sind eingetragene

Warenzeichen.

Wir möchten alle Leserinnen und Leser des vorliegenden Textes bitten, uns bei Fehlern,

Unkorrektheiten oder gar fehlenden Themen eine Rückmeldung auf einem der unten

aufgezeigten Wege zu geben.

Technische Universität Dresden

Zentrum für Informationsdienste und Hochleistungsrechnen

Kompetenzzentrum für Videokonferenzdienste (VCC)

01062 Dresden

Tel.: +49 (0)351 / 463 – 35653

Fax: +49 (0)351 / 463 – 37116

E-Mail: [email protected]

Video: (H.323 – IP): 141.30.67.240

(H.323 – GDS): 0049 351 4631 1240

(H.320 – ISDN): +49 (0)351 / 463 – 42111 bis 384 kbps

WWW: http://vcc.zih.tu-dresden.de/

Page 8: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

7

Page 9: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 1-1

1 Die Besonderheiten von Videokonferenzen

Eine Videokonferenz fordert im Gegensatz zum Telefon mehrere Sinne gleichzeitig, weil das

Gespräch mit Bild, Ton, Bewegung und Interaktion (Application Sharing) ablaufen kann.

Videokonferenzen verbreiten im Gegensatz zu E-Mail und den meisten anderen Internet -

Diensten das Gefühl, dass man direkten Kontakt mit den Gesprächspartnern hat. Die

Gesichter sind zu sehen, die Bewegungen und das Mienenspiel können verfolgt werden.

Einfach ausgedrückt, die Körpersprache ist auch im High - Tech - Zeitalter von entscheiden-

der Bedeutung für die Interaktion und Kommunikation zwischen Menschen. Bisher ist die

Videokonferenz die einzige Technik im Internet, die diese Möglichkeit bietet.

Im Gegensatz zu einem persönlichen Gespräch oder einer Tagung sind allerdings während

einer Videokonferenz die Eindrücke, die man vom Partner erhält, eingeschränkt. Typischer-

weise sind nur das Gesicht und ein kleiner Teil des Hintergrundes zu sehen.

Das Verhalten in Videokonferenzen bedarf einer gewissen Übung und sollte auf jeden Fall

vorher ausprobiert werden. Beim ersten Mal wirkt das Gespräch per Videokonferenz

zunächst etwas gewöhnungsbedürftig, da die Videokonferenz eine neue und ungewohnte

Form der Kommunikation darstellt. Die Natürlichkeit in der Kommunikation stellt sich erst

nach mehreren Konferenzen ein.

Wenn ein lokales Bild auf dem Bildschirm angezeigt wird, beobachten sich die Teilnehmer

der Konferenz selbst. Jeder versucht sich dann ganz normal zu benehmen, wodurch aber

das Gegenteil bewirkt wird. Außerdem lenkt das lokale Video oft die Gesprächsteilnehmer

vom eigentlichen Gesprächsinhalt ab.

Die Interaktion ist einer der wichtigsten Aspekte in einer Videokonferenz. Allerdings setzt die

Technik hier einige Grenzen und Anforderungen. Bei der Übertragung von Audio und Video

kommt es zu Verzögerungen. Darum sollten zusätzliche kleine Pausen eingeschoben

werden, bevor man mit dem Sprechen beginnt. Es empfiehlt sich als Richtwert, die normale

Reaktionszeit auf den Partner zu verdoppeln.

Page 10: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 2-1

2 Szenario für Videokonferenzen

2.1 Komponenten

Anhand der Grafik in Abbildung 1 wird ersichtlich, welche Komponenten zur Realisierung von

Mehrpunktvideokonferenzen eine Rolle spielen können. Nachfolgend werden die einzelnen

Komponenten definiert.

Abbildung 1: Videokonferenzen mit kommerziellen Systemen

H.323

H.323 ist eine sogenannte Regenschirmnorm der International Telecommunication Union

ITU und beschreibt alle Protokolle und Standards für die Sprach-, Daten – und Video-

kommunikation über paketorientierte Netze. Die spezifischen Fähigkeiten von Endgerä-

ten im IP-Umfeld werden ebenso festlegt. Der Standard ist abgeleitet aus dem H.320

Multimedia-Standard für ISDN. Er hat definierte Netzübergänge zu ISDN und soll die

Interoperabilität der Herstellerprodukte untereinander garantieren, wobei vier Hauptgrup-

pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der

H.323-Standard definiert die Multimedia-Kommunikation über LANs, die keine garantierte

Dienstgüte zur Verfügung stellen.

H.320

H.320 ist der internationale ITU-Standard für Videokonferenzen über ISDN. Festgelegt

sind mehrere Normen für die Video- und die Audioübertragung. Bei ISDN beträgt die

minimal benötigte Übertragungsrate 64 kbit/s, die maximale 1.920 kbit/s. (Quelle:

www.itwissen.info)

Page 11: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 2-2

H.323-Endgerät

Ein H.323-Endgerät, im Sprachgebrauch des Standards als H.323-Terminal bezeichnet,

wird als Oberbegriff für alle kommerziellen Videokonferenz-Endgeräte wie Desktop-,

Kompakt- und Raumsysteme benutzt.

H.320-Endgerät

Mit H.320-Endgerät sind in der Grafik kommerzielle Videokonferenz-Endgeräte wie Desk-

top-, Kompakt- und Raumsysteme gemeint, die über ISDN an einer Videokonferenz

teilnehmen.

MCU

MCUs sind Sternverteiler für Gruppenkonferenzen.

Eine MCU ist eine zentrale Steuereinheit, die eine oder mehrere Multipoint-

Videokonferenzen realisiert. Eine MCU arbeitet immer mit einem Gatekeeper zusammen.

GK

Ein Gatekeeper ist eine zentrale Steuereinheit für das Routen der Rufsignalisierung, die

Auflösung der Telefonnummern und der IP-Adressen beziehungsweise deren Umwand-

lung nach E.164. Er ist somit für die Zugangsberechtigung und die Sicherheit verantwort-

lich. (Quelle: www.networkworld.de)

GW

Ein Gateway stellt bei Videokonferenzen den Übergang bzw. die Verbindung vom IP-

Netz zum Telefonnetz her.

Die Komponenten MCU, Gatekeeper, H.323-Terminals und ein IP-Netz sind notwendig. Bei

Konferenzen zwischen verschiedenen Netzwerken wird ein Gateway benötigt.

2.2 Beispielszenario für eine Mehrpunktvideokonferenz

Vier örtlich voneinander getrennte Teilnehmer führen zusammen eine Videokonferenz durch

(Abbildung 2).

Teilnehmer A nutzt ein Kompaktsystem über ISDN.

Teilnehmer B nutzt ein Desktopsystem per IP.

Teilnehmer C nutzt ein Raumsystem über ISDN.

Teilnehmer D nutzt ein Kompaktsystem per IP.

Page 12: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 2-3

Abbildung 2: Beispielszenario einer DFNVC Mehrpunktvideokonferenz

Alle Teilnehmer befinden sich in einer Videokonferenz. In diesem Szenario müssen alle

Geräte am Gatekeeper der MCU angemeldet sein.

Teilnehmer A nutzt ein Kompaktsystem. Das ist meist modular aufgebaut und besteht aus

einem Codec mit einer separaten Kamera und einem Mikrofon. Für die Video- und Audio-

wiedergabe kann z. B. ein Monitor benutzt werden. Das Gerät wählt sich über ISDN in die

Konferenz ein.

Teilnehmer B nutzt auf einem PC ein Desktopsystem. Dieser Softwareclient kann mit einer

USB-Kamera und einem Headset über einen LAN-Anschluss (IP) genutzt werden.

Teilnehmer C verwendet für die Videokonferenz ein Office-System über ISDN. Videocodec

und Kamera sind meist in einem Gehäuse fest integriert. Über einen Bildschirm mit Laut-

sprecher erfolgt die Video- und Audiowiedergabe.

Dem Teilnehmer D steht ein Kompaktsystem zur Verfügung, dass über einen LAN-Anschluß

(IP) mit dem Internet verbunden ist.

Die Datenströme der beiden ISDN-Systeme werden über einen Gateway weitergeleitet, da

eine Protokollumsetzung von ISDN auf IP erfolgen muss. Die Video- und Audiodatenströme

aller VC-Systeme werden in der MCU verarbeitet. Aus den vier eingehenden Videodaten-

strömen wird ein neuer Videodatenstrom generiert und an alle Teilnehmer zurückgesendet.

Die Videokonferenzdarstellung erfolgt in unserem Beispiel im Continuous Presence Modus.

Hierbei sehen sich alle Konferenzteilnehmer gleichzeitig und können alle anderen hören. Die

Page 13: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 2-4

vier eingehenden Audioströme werden zu vier neuen Audioströmen verarbeitet, wobei jeder

aus den Audioströmen der drei anderen Teilnehmer gemischt wird.

Page 14: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 3-1

3 Videokonferenzen über unterschiedliche Netzanbindungen

Für den reibungslosen Ablauf von Videokonferenzen müssen die verschiedenen Videokonfe-

renzsysteme in verschiedenen Netzwerken in der Lage sein, problemlos miteinander

zusammenzuarbeiten. Hierfür wurden verschiedene Videokonferenzstandards entwickelt.

Davon werden nachfolgend die Standards H.320 und H.323 erläutert sowie der Standard

H.239, mit dem sich Daten als zweiter Videostrom übertragen lassen.

3.1 Videokonferenzen über IP

3.1.1 Der Standard H.323

Der im Juni 1996 von der International Telecommunications Union (ITU) verabschiedete

H.323-Standard bildet die Grundlage für die Videokommunikation im LAN. Er enthält die vier

Hauptkomponenten

H.323-Endgerät (H.323-Terminal)

H.323-Multipoint Control cyUnit

H.323-Gateway

H.323-Gatekeeper

Die H.323-Spezifikationen beschreiben Terminals, Geräte und Services, die Echtzeit-

Multimedia-Verbindungen (Audio, Video, Daten) in TCP/IP-Netzwerken (Intranet / Internet)

ermöglichen. Obwohl viele Hersteller ihre Produkte als H.323-konform bezeichnen, ist die

Kompatibilität der Produkte unterschiedlicher Hersteller nicht immer gesichert. Um im

praktischen Einsatz sicherzustellen, dass die für die Videokonferenzen geplanten Endsyste-

me auch zufriedenstellend miteinander zusammenarbeiten, sollten diese im Vorfeld, soweit

möglich, ausreichend getestet werden.

Das VCC hat unter http://vcc.zih.tu-dresden.de/index.php?linkid=1.3 die Testergebnisse der

Kompatibilitätstests verschiedenster VC-Systeme bereitgestellt (Abbildung 3).

Während man bei einer ISDN-Verbindung von einer festen Übertragungsrate ausgehen

kann, sind bei LAN-Verbindungen im Allgemeinen hohe Übertragungsraten nicht sicher zu

garantieren. Sowohl die Anzahl der zwischen den Konferenzpartnern befindlichen Router als

auch das Datenvolumen im Netz oder die Art der Anbindung an das Netz bestimmen die in

der Videokonferenz erzielbare Datenrate wesentlich.

Page 15: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 3-2

Abbildung 3: Kompatibilitätsmatrix (Auszug)

Mit der Inbetriebnahme des X-WiN wurden die technischen Voraussetzungen für die

Nutzung von Videoübertragungen zwischen den einzelnen Einrichtungen wesentlich

verbessert. Die im X-WiN zur Verfügung stehende Bandbreite ist für Videokonferenzen in

hoher Qualität mehr als ausreichend. Besondere Beachtung sollte bei der Planung von

Videokonferenzen daher auf den Datenverkehr im lokalen Netz gelegt werden. Erfahrungen,

insbesondere bei Mehrpunktkonferenzen, haben gezeigt, dass Konferenzpartner, die sich in

Netzsegmenten mit hohem Datenverkehr befinden, die Gesamtkonferenz erheblich stören

können. Problematisch ist dabei in der Regel nicht die benötigte Bandbreite (im Allgemeinen

zwischen 384 kbps und 6 Mbps), sondern die Tatsache, dass mit zunehmendem Datenauf-

kommen im Netz auch die Wahrscheinlichkeit von Datenverlusten steigt. Fallen im "norma-

len" Datenverkehr Verlustraten von fünf Prozent kaum ins Gewicht, so wirken sich bei

Videokonferenzen bereits Datenverluste von einem Prozent störend auf die Qualität der

Audio- und Videodarstellung aus. Im Anhang D: Einfluss von Paketverlusten auf die

Videoqualität finden Sie dazu Bildbeispiele.

3.1.2 Das Protokoll SIP

SIP steht für „Session Initiation Protocol“ und ist ein Netzprotokoll, das Aufbau, Steuerung

und Abbau einer Kommunikation zwischen zwei oder mehr Teilnehmern beschreibt. SIP ist

im Bereich der IP-Telefonie ein häufig genutztes Protokoll. 2004 wurde es durch RFC 3261

von der IETF (Internet Engineering Task Force) spezifiziert.

Jeder Client meldet sich an einem Server an, dem sogenannten Registrar. Vorteil von SIP ist

unter anderem das flexible Adressierungsschema im URI-Format, wobei die SIP-Adresse

einer E-Mail-Adresse ähnelt: user@domain. Die Domäne ergibt sich dabei durch den

Registrar. Nachteile sind unter anderem die unzureichende Implementierung von Daten- und

Page 16: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 3-3

Multimediaanwendungen und die problematische Einbindung in Firewall- oder NAT-

Umgebungen. SIP-Clients gibt es z.B. in Form von VoIP-Telefonen oder Videokonferenz-

endgeräten mit SIP-Unterstützung, aber auch als Softclients zur Installation auf dem

Rechner.

Um per SIP einer Mehrpunktvideokonferenz des DFNVC-Dienstes beizutreten, kann für SIP-

konforme Endgeräte eine Einwahl mit folgender Syntax geschehen:

[email protected] oder [email protected]

Bei SIP-Einwahl ist kein zweiter Videokanal nach H.239 möglich. Es ist jedoch möglich,

einen zweiten Videokanal zu übertragen, wenn das SIP-Endgerät das BFC-Protokoll

unterstützt (Binary Floor Control), so dass darüber eine Datenpräsentation übertragen

werden kann.

3.2 Videokonferenzen über ISDN entsprechend H.320

Als digitales Netzwerk kann ISDN (Integrated Services Digital Network) Daten mit spezifizier-

ten festen Bandbreiten übertragen. Ein digitaler Telefon-Anschluss wird üblicherweise mit

zwei 64 kbps (kbps) Sprachkanälen betrieben. Systemintern werden unterschiedliche

Kommunikations-Kanäle wie B, D, E oder H unterschieden.

In der klassischen Kommunikation wurden das analoge öffentliches Fernsprech-Wählnetz

(PSTN, Public Switched Telephone Network) für Sprach-Kommunikation, ISDN für Videokon-

ferenzen mit Bild und Ton und das Internet Protokoll (IP) für Daten-Kommunikation genutzt.

Seit 1990 gibt es von der ITU (International Telecommunication Union) eine Rahmenspezifi-

kation (Umbrella recommendation) H.320 für schmalbandige Videotelephonie-Endgeräte

(ISDN) „Narrow-band visual telephone systems and terminal equipment“. H.320 umfasst

entsprechende spezielle Spezifikationen für die Kommunikation von Audio, Video, Daten und

Signalisierung sowie Steuerung. Es ist ein verbindungsorientiertes Protokoll (circuit-

switched), im Gegensatz zu verbindungslosen paketierten Protokollen (packet-switched) wie

TCP/IP im Internet. Seit Einführung von H.320 gibt es zahlreiche Aktualisierungen und

Ergänzungen in der derzeit letzten gültigen Fassung von 2004-03 (Revised version,

approved, in force).

Die Audio/Sprach-Signale und die Video/Bild-Signale der Konferenzteilnehmer werden zum

Senden digitalisiert und auf die verfügbare Bandbreite (n*64 kbps) durch sogenannte Codecs

(Kompressor/Dekompressor und Kodierer/Dekodierer) verlustbehaftet komprimiert. H.320

definiert für die Übertragung von Audio die Protokolle G.711, G.722 sowie G.728 und für die

Übertragung von Video die Protokolle H.261, H.263 und H.264. Datenübertragung erfolgt

über die Standards T.120 und H.239.

Die beiden ISDN-Kanäle lassen sich heute getrennt für 2 verschiedene Übertragungen zum

Beispiel Telefon-Verbindung mit 64 kbps und gleichzeitig Internet-Verbindung mit 64 kbits/s

nutzen. Bündelt man die Kanäle für eine integrierte Anwendung sind theoretisch 2 * 64 kbps

und damit insgesamt maximal 128 kbps möglich. Bündelt man bis zu 30 ISDN Kanäle mit 30

* 64 kbps ergibt sich eine Bandbreite von maximal 1920 kbps. Damit können ISDN Verbin-

dungen zu S-DSL (Synchronous Digital Sybscriber Line, bis zu 2 Mbps) und Breitband LAN

(Local Area Network) aufschließen. Auch A-DSL (Asynchronous Digitial Subscriber Line)

Page 17: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 3-4

bietet bei Bandbreiten bis 25Mbit/s in Empfangsrichtung und 3,5Mbit/s in Senderichtung

ausreichend Potential zur Durchführung von Videokonferenzen.

Allerdings sind bei Mehrkanal ISDN entsprechende Mehrkosten zu berücksichtigen oder

spezielle Flatrates mit günstigen Pauschaltarifen einzurichten. Im internationalen Maßstab

können auch Rück-Ruf (Call-Back) Lösungen oder die Einwahl vom kostengünstigeren

Konferenz-Teilnehmer von Bedeutung sein. International gibt es auch Unterschiede in der

Kanal-Bündelung sowie der maximal möglichen Bandbreite, zum Beispiel sind im nordameri-

kanischen T1 Netz mit 23 Kanälen nur maximal 23 * 64 kbps und damit 1472 kbps möglich.

Bei international unterschiedlichen Netzen und/oder unterschiedlich leistungsfähigen ISDN-

Endgeräten kann dann nur die kleinste maximale Bandbreite der beteiligten Kommunikati-

ons-Partner genutzt werden.

Bei ISDN Videokonferenzen wird im einfachsten Fall ein Kanal und damit 64 kbps für die

Sprachkommunikation genutzt, während mit dem zweiten Kanal weitere 64 kbps für die

Videobild-Kommunikation verbleibt. Eine einfache Video-Kommunikation ist so zwar möglich,

erreicht aber nur geringe Qualität. Werden Daten oder Folienpräsentationen in solch einer

Verbindung mittels Video-Kamera übertragen, ist die effektive digitale Auflösung ebenfalls

auf eine Größe von 352*240 (NTSC) oder 352*288 (PAL) Bildpunkte begrenzt.

Die erreichbare Bildauflösung wird je nach System auch mit CIF (Common Intermediate

Format 352*288), Quarter-VGA (320*240) oder Quarter-PAL (360*288) bezeichnet. Die

Lesbarkeit von Beschriftungen oder Dokumenten-Texten, die Wiedergabe von Abbildungen,

Grafiken oder Details ist mit einem Viertel der Fläche eines vollen Video-Bildschirmes

begrenzt. Bei Einsatz von H.239 zur Übertragung von Daten werden parallel zum Videobild

hochauflösendere Bildformate zur Darstellung der Präsentation eingesetzt.

Durch den Einsatz verbesserter Kompressionsverfahren werden darüber hinaus auch

Videobilder mit Auflösungen bis hin zu 720p High Definition (1280*720) möglich. Ein Beispiel

mit den aktuellen Erweiterungen ist das Cisco ISDN Gateway 3200 Serie für Sprache und

Video bis zu 2 Mbps.

Wird nicht nur eine einfache Punkt-zu-Punkt Video-Konferenz durchgeführt, sondern mit

mehreren Teilnehmern gleichzeitig in einer Mehrpunkt-Kommunikation konferiert, wird die

einfache Struktur um eine zentrale Mehrpunkt-Steuereinheit MCU (Multipoint-Controller-Unit)

erweitert. Für weitergehende Ausführungen zu Gatekeeper und MCU wird auf die nachfol-

genden speziellen Kapitel in diesem Handbuch verwiesen.

Es sei noch darauf hingewiesen, dass im Umfeld von Hochschulen und Forschungseinrich-

tungen nur selten Videokonferenzen über ISDN stattfinden. Allerdings nutzen viele Projekt-

partner aus Industrie und Wirtschaft nach wie vor ISDN Videokonferenzen.

3.3 Gateway H.320 / H.323 im Dienst DFNVideoconference

Mit der Verbreitung des IP-basierten Internet (zur Übertragung von TCP und UDP Daten-

Paketen) und seinen hohen Bandbreiten sowie der stärkeren Nutzung digitaler Multimedia-

Anwendungen entstand die Herausforderung, das digitale ISDN-Telefonnetz mit dem

Internet zu verbinden. Von der ITU-T (International Telecommunication Union - Telecommu-

nication Standardization Sector) wurde 1996 der Standard H.323 zur Übertragung von Audio,

Video und Daten über IP-Netzwerke spezifiziert. Die Übergänge zwischen dem Telefonnetz

Page 18: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 3-5

und dem Internet werden durch Gateways GW (Protokollumsetzer, Netzübergang) realisiert.

Wenn eine Videokonferenz zwischen ISDN-Teilnehmern und Teilnehmern über das LAN

oder Internet erfolgen soll, so ist ein H.323 Gateway zur Protokoll-Umsetzung und Medien-

Transkodierung (Audio, Video und Daten) erforderlich.

Die Ruf-Nummern im ISDN-Bereich erfolgen entsprechend einer ITU-Empfehlung nach

E.164 Adressen (E.164 Alias). Diese E.164 Nummern können dann aus Telefon-Netzen in

IP-Adressen im Internet umgesetzt werden. Hierfür ist ein so genanntes Gateway (Adres-

sumsetzer) als weitere Komponente in der Verbindungsstruktur zuständig. Er sorgt für die

Weiterleitung der Ruf-Signalisierung, die Auflösung der Telefonnummern und IP-Adressen

beziehungsweise deren Umwandlung.

Der Videokonferenzdienst im Wissenschaftsnetz, DFNVideoConference – DFNVC ,

ermöglicht das Einbinden von ISDN-Teilnehmern in die Konferenz über zwei Cisco ISDN

Gateways. Als Voraussetzung zur Teilnahme an Konferenzen benötigt der Teilnehmer ein

Endgerät sowie einen oder mehrere ISDN-Anschlüsse. Dabei sind Bitraten bis zu 384 kbps

möglich, was 6 ISDN-B-Kanälen mit 64 kbps beziehungsweise 3 Leitungen mit insgesamt je

128 kbps entspricht. Ein DFNVC-Gateway kann fünf Anrufe mit dieser Bandbreite gleichzei-

tig schalten. Auch mit einem Telefon ist die Teilnahme möglich (audio only calls), es muss

jedoch Tonwahl beherrschen.

Folgende Wahlmöglichkeiten stehen zur Auswahl:

1. Wahl der E.164 Adresse über IVR (automatische Zwischenansage durch interactive

voice response)

Diese Methode funktioniert mit jedem Endgerät, das Tonwahl beherrscht. ISDN Videokonfe-

renzgeräte nutzen dies per Default, bei Telefonen bzw. TK-Anlagen muss dies bisweilen erst

aktiviert werden.

Vorgehen:

- Wählen Sie eine der folgenden Gatewaynummern.

- Warten Sie, bis eine automatische Ansage sie auffordert, die Konferenznummer

anzugeben.

- Geben Sie diese ein, gefolgt von einem #.

Berlin +49-30-2541080 Konferenznummer #

Stuttgart +49-711-6330190

Sie werden zur Konferenz durchgestellt und hören den Willkommensgruss der MCU. Zur

Vereinfachung der Eingabe kann der MCU Prefix 0049100 der Konferenznummer auch

weglassen werden.

Page 19: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 3-6

2. Direktwahl der E.164 Adresse

Unterstützt ihr Endgerät Blockwahl oder Wahlvorbereitung, so können Sie sich hiermit

ohne Umweg über den IVR direkt in eine Konferenz einwählen. Dies ist z.B. für Adressbuch-

einträge praktisch. ISDN Videokonferenzgeräte nutzen diese Technik per Default, bei

Telefonen bzw. TK-Anlagen muss diese meist gesondert aktiviert werden.

Vorgehen:

- Wählen Sie eine der folgenden Gatewaynummern unmittelbar gefolgt von der Konfe-

renznummer.

Berlin +49-30-2541089 Konferenznummer

Stuttgart +49-711-63301

Zur Vereinfachung der Eingabe kann der MCU Prefix 0049100 der Konferenznummer auch

weggelassen werden.

3. Wahl der E.164 Adresse über TCS4

Unterstützt ihr Endgerät TCS4 (ISDN Subadressierung), so können sie die Rufnummer und

die Konferenznummer ohne eine Wartepause durchwählen. Dies ist z.B. für Adressbuchein-

träge praktisch. Leider implementieren die Endgerätehersteller das notwendige TCS4-

Trennzeichen unterschiedlich.

Vorgehen:

- Wählen Sie eine der Gatewaynummern.

- Geben Sie das/die TCS4-Trennzeichen ihres Endgerätes ein.

- Geben Sie die Konferenznummer ein.

Berlin +49-30-2541080

Polycom ##

Konferenznummer Sony **

Tandberg *

VCON ^

Zum Verkürzen der Ziffernfolge kann der MCU Prefix 0049100 weggelassen werden.

Page 20: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 4-1

4 Äußere Anforderungen

4.1 Raumgestaltung

4.1.1 Allgemeine Raumgestaltung

Bei der Raumgestaltung sind verschiedene Punkte in Einklang zu bringen. Für die Teilneh-

mer müssen selbstverständlich geeignete Sitzgelegenheiten in ausreichender Zahl vorhan-

den sein. Es muss gewährleistet werden, dass alle Monitore für alle Beteiligten gut sichtbar

sind.

Das Arrangement der Sitzordnung ist so zu treffen, dass niemand seinen Nachbarn blockiert.

Das „theoretische“ Blickfeld des Gegenübers muss von den benutzten Kameras abgedeckt

sein. Der Eindruck nicht einzusehender Stellen sollte vermieden werden.

Das Mikrofon ist so zu platzieren, dass alle gehört werden können. Dieses wird am besten

erreicht, wenn alle den gleichen Abstand zum Mikrofon haben. Gegebenenfalls müssen

mehrere Mikrofone verwendet werden.

Bei der Verwendung von einem Mikrofon je Teilnehmer ist zu beachten, dass bei voller

Sensitivität aller Mikrofone der übertragene Geräuschpegel zu hoch werden kann. Deshalb

ist hier der Einsatz eines automatischen Audio-Mischers zu empfehlen, welcher das jeweilige

Mikrofon, das gerade zum Einsatz kommt, in den Vordergrund holt und die anderen in dieser

Zeit herunter regelt.

Alle diese Forderungen können mit einem parabolischen oder halbkreisförmigen Tisch erfüllt

werden, das offene Ende ist dabei in Richtung Kamera zu stellen.

4.1.2 Akustik

Der Raum sollte so liegen, dass äußere Lärmquellen so stark wie möglich abgeschirmt sind.

Hierbei ist besonders auf Verkehrsgeräusche, Büromaschinen, Klimaanlagen, Aufzugs-

schächte und angrenzende Gänge zu achten. Daneben ist eine gewisse akustische Isolation

des Raumes nach außen von Vorteil. Diese verhindert, dass außerhalb des Raumes zu

hören ist, was innen gesprochen wird.

Eine angemessene Anzahl von geräuschabsorbierenden Materialien (wie z.B. Vorhänge,

Teppiche oder akustische Deckenmaterialien) verringern das Echo innerhalb des Raumes.

Daneben sollten aber auch die Raumhöhe und die Einrichtung des Raumes den Schall

dämmen. Oberflächen, die den Schall gut reflektieren (z.B. Fenster, glatte Wände oder

gekachelte Böden), verursachen ein starkes Echo.

Zur Tonwiedergabe sind professionelle Aktivlautsprecher am besten geeignet. Sie besitzen

gegenüber den externen PC-Lautsprechern eine klarere Tonwiedergabe und sind mecha-

nisch robuster. Als externe PC-Lautsprecher sind aktive Lautsprecher zu bevorzugen, weil

diese einen eigenen Lautstärkeregler besitzen.

Bei fest installierten Beschallungsanlagen empfiehlt sich zur Vermeidung von Brummstörun-

gen eine galvanische Trennung mit einem Trennübertrager (Abbildung 4). Dieses ist ein

Transformator, der zwei Stromkreise voneinander trennt. Es besteht dann keine direkte

Verbindung über ein leitendes Material mehr.

Page 21: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 4-2

Abbildung 4: Trennübertrager

Der Lautsprecher sollte in Richtung der geringsten Empfindlichkeit des Mikrofons aufgestellt

werden (meist hinter dem Mikrofon). Der Abstand zwischen Lautsprecher und Mikrofon sollte

mindestens das Fünffache des Abstandes vom Sprecher zum Mikrofon betragen.

Für Einzelpersonen ist immer ein Headset (Abbildung 5) zu empfehlen. Damit wird ein

geringer und konstanter Mikrofonabstand gewährleistet. Rückkopplungen sind so nahezu

unmöglich.

Abbildung 5: Headset

Für Gruppen an einem Standort empfiehlt sich ein nahempfindliches Standmikrofon

(dynamisches Mikro), an das der Sprecher herantritt. Richtmikrofone sind in der Regel nicht

zu empfehlen, weil diese viele Hintergrundgeräusche aufnehmen.

Für Tischmikrofone ist meist eine aktive Echounterdrückung oder beim Einsatz mehrerer

Tischmikrofone ein automatischer Mischer notwendig.

Page 22: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 4-3

Beim Einsatz von Grenzflächenmikrofonen ist es erforderlich, dass alle Personen direkt am

Tisch sitzen und Stöße am Tisch durch Stühle, Füße, Stifte, usw. vermieden werden. Ein

Grenzflächenmikrofon ist ein Kondensatormikrofon, das mit seiner Membran bündig in eine

Platte eingebaut ist und zusammen mit dieser Platte auf eine möglichst große Fläche, z.B.

auf den Tisch, gestellt wird. Das Mikrofon erhält so den maximalen Schalldruck ohne

Überlagerungen von Hallanteilen und führt zu einem ausgewogenen Frequenzgang und

einem akustisch guten Raumeindruck.

An der Bauform des Gehäuses lässt sich die Richtcharakteristik des Mikrofons bestimmen.

Die Richtcharakteristik beschreibt die Empfindlichkeiten eines Mikrofons für Schallquellen,

die aus verschiedenen Richtungen einer Ebene auf das Mikrofon auftreffen. Das in Abbil-

dung 6 dargestellte Mikrofon besitzt eine sogenannte superkardioide Richtcharakteristik, bei

der der Schall vorzugsweise von vorne und weniger von der Seite aufgenommen wird.

Schall, der von hinten auf das Mikrofon auftrifft, wird weitgehend ausgeblendet.

Abbildung 6: Grenzflächenmikrofon

Eine geringe Rückkopplung des Audiosignals vom Lautsprecher zum Mikrofon kann dem

Gesprächspartner das Gefühl für die Zeitverzögerung der Übertragung geben: Die eigene

Sprache kommt beim Sprecher mit 0,5 bis 3 Sekunden Verzögerung an. Ist diese Rückkopp-

lung zu laut, wird der Sprecher im Redefluss behindert, da er sich selbst ständig ins Wort

fällt. Wird sogar die Stabilitätsgrenze überschritten, entsteht lautes rhythmisches Pfeifen.

Professionelle Videokonferenzsysteme bieten teilweise keine Möglichkeit der Aussteuerung

des eigenen Audiosignals am Gerät. Sie regeln dies intern selbst. Die Wiedergabelautstärke

der Gegenseite kann allerdings an allen Geräten eingestellt werden. Am PC kann nur durch

eine optimale Aussteuerung eine gute Tonqualität des Audiosignals erreicht werden, da bei

der Übertragung mit 8 Bit Auflösung kaum Reserven bestehen.

Mit Trennwänden für den Videokonferenzbereich kann in größeren Räumen mit mehreren

Arbeitsplätzen die gegenseitige akustische Störung verringert werden.

Page 23: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 4-4

4.1.3 Farben

Bestimmte Farben sind als Hintergrund bei der Benutzung einer Kamera gut geeignet. Der

Hintergrund sollte grau, blau, ein warmes beige, blaugrau oder rosa sein. Ein gemusterter

Hintergrund ist ebenso wenig zu empfehlen wie ein schwarzer oder weißer Hintergrund.

Auch stark reflektierende Oberflächen sollten vermieden werden. Das Kontrastverhältnis

zwischen Vorder- und Hintergrund sollte insgesamt niedrig sein.

Hinsichtlich der Kleidung der Teilnehmer sind gedeckte Farben am besten. Karos und

Streifen wirken sich auf die Übertragung störend aus. Diese verursachen bei jeder Bewe-

gung neben einer erhöhten Netzlast eventuell auch Interferenzen. Je kleiner die Karos sind,

desto größer ist die Gefahr von Interferenzen. Nadelstreifen sind an der Gegenstelle als

solche nicht sichtbar.

4.1.4 Beleuchtung

Der Raum sollte sehr gut ausgeleuchtet sein, weil dieses das Rauschen des Videosignals

verringert. Die Mindestbeleuchtung beträgt 600 - 650 Lux (gemessen auf dem Tisch).

Es wird empfohlen, dass alle Lichtquellen die gleiche Lichttemperatur ausstrahlen. Eine

Mischung verschiedener Quellen (z.B. Normlichtlampen mit Tageslicht-Leuchtstofflampen)

ist zu vermeiden. Da die Kamera hier Probleme mit dem Weißabgleich hat, könnte es z.B.

passieren, dass eine Gesichtshälfte deutlich dunkler als die andere auf dem Bild der

Gegenseite erscheint. Die Kombinationen Lampe in „tageslicht weiß“ und Tageslicht sowie

Lampe „warm weiß“ mit normalen Lampen sind dagegen möglich.

Die Platzierung des Lichtes sollte so geschehen, dass ungünstige Schatten im Gesicht

vermieden werden: Am besten von vorn. Wenn das Licht etwas seitlich und nach oben

versetzt ist, wird der plastische Eindruck verbessert. Prinzipiell ist verteiltes (diffuses) Licht

besser als einzelne Spots. Der Eindruck eines „reinen“ TV-Studios ist allerdings auch nicht

zu empfehlen, weil dies für die Teilnehmer sehr ungemütlich wirkt. Die Besprechungsat-

mosphäre sollte gewahrt bleiben.

Das Licht sollte nicht direkt auf die Kamera scheinen und sich nicht in den Monitoren

reflektieren.

Page 24: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 4-5

4.1.5 Verkabelung

Vor einer Videokonferenz muss sichergestellt werden, dass alle notwendigen Kabelzugänge

(z.B. IP, ISDN, Stromkabel) vorhanden sind und es Verbindungen von allen Zubehörgeräten

zum Hauptgerät gibt. Wenn es möglich ist, sollten die Kabel versteckt verlegt werden.

Da die Anschlussbereiche der Rechner erfahrungsgemäß schwierig zu erreichen sind,

empfiehlt es sich, die Kopfhörer- und Mikrofonanschlüsse mit einer Verlängerungsleitung auf

den Tisch zu legen. Eine Verschlechterung der Tonqualität ist dadurch nicht zu befürchten.

Abbildung 7: Verlängerungskabel

Dabei ist es hilfreich, die Headsetverlängerungen mit einem Drahtbinder unter dem Monitor-

fuß zu fixieren und das Mikrofonkabel an Stecker und Buchse mit einer Fahne zu markieren

(Abbildung 7).

4.2 Sonstiges Zubehör

4.2.1 Mischpult

Ein Mischpult ist ein Gerät zum Zusammenführen, Überblenden und Mischen mehrerer

Tonsignale (Abbildung 8). Professionelle Geräte besitzen bis zu 48 und mehr Eingangskanä-

le. Daneben bieten sie Beeinflussungsmöglichkeiten für Pegel, Klang, Hall und Dynamik des

Tones.

Wenn mehrere Mikrofone zum Einsatz kommen oder mehr als ein Rechner an einem Platz

verwendet wird, so wird ein Mischpult zur Verteilung der Audiosignale notwendig. Um sowohl

zum Rechner gehende als auch vom Rechner kommende Signale mit dem Mixer verteilen zu

können, wird ein professioneller Mixer mit regelbarem Monitorkanal benötigt. Damit können

alle Signale auf den Mixer gegeben werden. An diesem wird eingestellt, welche Signale zur

Aufnahme am Rechner und welche zur Wiedergabe durch den Lautsprecher gelangen.

Durch Absenken der Tiefen und leichtes Anheben der mittleren Frequenzen wird die

Verständlichkeit von Sprache verbessert. Durch den Einsatz des Mischpultes wird es

möglich, Aussteuerungskorrekturen direkt und ohne Software vorzunehmen. Im praktischen

Einsatz ist so eine schnelle und unabhängige Lautstärkeregelung möglich.

Page 25: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 4-6

Abbildung 8: Mischpult

4.2.2 Projektionswände

Die Darstellung von Bildern, Filmen oder Präsentationsfolien erfordert neben der richtigen

Wiedergabetechnik auch eine Fläche, welche zwei Aspekte gewährleisten soll: Zum einen

soll die visuelle Botschaft korrekt wiedergegeben werden, zum anderen darf die Projektion,

z.B. durch ihre Helligkeit, nicht die Sicht des Publikums behindern. Die Wahl der Projekti-

onswand hat darauf keinen unbedeutenden Einfluss.

Die wichtigsten Auswahlkriterien sind:

1.) Der Typ

Je nach Verwendungszweck sollten als erstes folgende Aspekte berücksichtigt werden:

mobile oder fest installierte Lösung

Aufbau- und/oder Rückprojektion

Eine fest installierte Lösung sollte dabei elektrisch oder per Hand einstellbar sein.

2.) Die Größe

Die zur Verfügung stehende Fläche muss groß genug sein, damit die Präsentation von

allen Zuschauern gleichermaßen gut zu sehen ist. Das gilt insbesondere für die Er-

kennbarkeit von Buchstaben und Zahlen. Die Größe lässt sich an Hand folgender Er-

fahrungswerte bestimmen:

Die Breite der Projektionswand sollte etwa 1/6 bis 1/4 der Entfernung der Fläche

zur letzten Sitzreihe betragen.

Der untere Rand sollte etwa in einer Höhe von 1m bis 1,25m angebracht werden.

Die erste Sitzreihe sollte etwa die doppelte Höhe der Projektionsfläche als Ab-

stand besitzen.

Page 26: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 4-7

3.) Das Verhältnis von Höhe und Breite

Die Projektionswand sollte dasselbe Verhältnis der Seitenmaße wie das projizierte Bild

besitzen:

Standardformat 1:1

Videoformat 4:3

Diaformat 3:2

Breitbildformat (HDTV) 16:9

4.) Die Lichtverhältnisse

Die Helligkeit der Projektion hängt von mehreren Faktoren ab:

Reflexionsgrad der Leinwand

Der Reflexionsgrad wird in Gain angegeben. Er ist ein Maß dafür, um wie viel sich

die Helligkeitsausbeute des Projektors verbessert.

Je höher der Gain einer Leinwand ist, umso kleiner wird der Betrachtungswinkel.

Eine gleichmäßige Streuung des Lichtes führt zu einem großen Sichtwinkel bei

geringerem Reflexionsgrad, eine stärkere Bündelung der Reflexion führt zu einem

höheren Reflexionswert bei einem kleineren Sichtwinkel. Ein Wert von 11 Gain

besitzt einen sichtbaren Winkel von ca. 120°.

Die Leistung des Projektors

Die Leistung eines Projektors wird in Lux (lx) und Lumen (lm) angegeben.

In Lux wird angegeben, wie viel Licht auf einer Fläche auftrifft (Beleuchtungsstär-

ke). Dieser Wert wird bei zunehmender Entfernung ab Projektor kleiner.

In Lumen wird der Lichtstrom gemessen, welchen der Projektor objektiv abgibt, er

wird unmittelbar am Objektiv gemessen. Eine Halogenlampe mit 250 Watt besitzt

etwa 2500 Lumen; eine Halogenlampe mit 400 Watt besitzt etwa 4000 Lumen und

eine Metalldampflampe mit 575 Watt ca. 8000 Lumen.

Die Messung dieser Verfahren wird nach standardisierten Methoden durchgeführt.

Die Maßeinheit Lumen wird in der USA als ANSI-Lumen bezeichnet.

Helligkeitsempfinden des menschlichen Auges

Daneben wird unser Helligkeitsempfinden von der Farbe des Lichtes beeinflußt,

z.B. wirkt weißes Licht auf uns heller als gelbes. Die Farbtemperatur wird in Kelvin

gemessen. Das Tageslicht hat etwa 5600 Kelvin. Dieser Wert wird von Metall-

dampflampen mit ca. 6000 Kelvin annähernd erreicht. Damit eignen sich diese gut

als Beleuchtung, welche eine natürliche Farbwiedergabe ermöglichen.

Demzufolge ist warmes Licht als Raumbeleuchtung zu bevorzugen.

Umgebungsverhältnisse

Der Kontrast in der Helligkeit zwischen dem Bild und der dahinter liegenden Um-

gebung sollte mindestens 5:1 betragen.

Page 27: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 4-8

Eine mit 500 ANSI Lumen in abgedunkelten Räumen erreichbare Bildbreite be-

trägt mit einem Gain um 1,2 rund 2,5m, bei 1000 ANSI Lumen sind etwa 3,5m

möglich. Bei schwachem Umgebungslicht benötigt man die doppelte, völlig ohne

Abdunkelung die vierfache Lichtstärke.

Für wechselnde Bedingungen in der Helligkeit der Umgebung sind Projektoren mit

Sparmodus geeignet. Diese lassen je nach Umgebungslicht eine Reglung ihrer

Leistung zu.

5.) Die richtige Tuchsorte

Im Wesentlichen existieren für Projektionswände drei verschiedene Tuchsorten:

Diffus reflektierende Tuchsorten

Diese Tuchsorten verteilen das Licht gleichmäßig über einen breiten horizontalen

und vertikalen Sichtwinkel. Sie sind vielfältig einsetzbar und immer geeignet,

wenn ein breiter Sichtwinkel notwendig ist oder ein Projektor mit hoher Lichtaus-

beute eingesetzt wird.

Specular reflektierende Tuchsorten

Die spezielle Deckschicht ermöglicht bei geringer Beeinträchtigung des Sehwin-

kels eine erhöhte Leuchtdichte. Das eintreffende Licht wird spiegelartig reflektiert.

Der Abstrahlwinkel ist etwa gleich groß dem Auftreffwinkel, aber diesem entge-

gengesetzt.

Diese Tuchsorte eignet sich für Fälle mit hoher Umgebungshelligkeit oder gerin-

ger Projektorleistung.

Auf Grund der reflexiven Eigenschaften sollte der Projektor an der Decke ange-

bracht sein.

Retro-reflexive Tuchsorten

Das Merkmal dieser Tuchsorte sind in die Projektionsfläche imprägnierte winzige

Glaskörner. Das Ergebnis ist eine sehr hohe Helligkeit mit einem eingeschränkten

Sichtwinkel. Der größte Teil des projizierten Lichtes wird in Richtung Projektor

wiedergegeben, weil der Abstrahlwinkel dem Auftreffwinkel etwa gleich ist.

Diese Tuchsorte eignet sich für Vorführungen mit begrenztem Sichtwinkel und viel

Umgebungslicht.

Der Projektor sollte etwa in gleicher Höhe wie das Publikum aufgestellt werden.

6.) Fazit

Durch die geeignete Wahl der Porjektionswand kann die Videodarstellung weiter

qualitativ aufgewertet werden. Besonders ein guter Kontrast ist für die Videodar-

stellung wichtig.

Page 28: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 5-1

5 Technische Anforderungen und Fehlersuche

5.1 Netzanforderungen

Für erfolgreiche Videokonferenzen werden Anforderungen an die Bandbreite (Übertragungs-

rate) im Netz gestellt, die für die Akzeptanz der Anwendung eine wesentliche Rolle spielen.

Netzwerke, in denen die Datendienste wie WWW, FTP und andere Formen von Filetransfer

ohne Störungen funktionieren, sind nicht automatisch auch für Echtzeitanwendungen wie

Videokonferenzen geeignet.

Videokonferenzen stellen die konstante und verlustfreie Datenübertragung als Hauptforde-

rung an die Netzwerkverbindung. Das bedeutet, dass in einem Netz oder Netzknoten mit

hoher Auslastung (bereits ab 30 Prozent) die Wahrscheinlichkeit von Engpässen stark

zunimmt. Mechanismen, welche der Videoanwendung die benötigte Bandbreite garantieren,

sind in IP-Netzwerken meist nicht verfügbar. Den Daten der Videoanwendung kann in

modernen Netzen höchstens ein Vorrang vor den normalen Filetransferdaten eingeräumt

werden.

Die für Videokonferenzen benötigte Bandbreite beginnt bei minimal 128 kbps für eine sehr

geringe Videoqualität und endet bei 6 Mbps. Üblich sind in der Praxis Bandbreiten zwischen

768 kbps und 4 Mbps. Die am häufigsten zur Übertragung benutzte Videokomprimierung

H.264 ist sehr effektiv für ruhende und Bewegtanteile im Videobild.

Bei einer Übertragungsrate unter 768 kbps sind Bildrate und Schärfe der bewegten Bereiche

schlecht. Bei steigender Datenrate wird der Einfluss von Bewegungen deutlich geringer, ab

768 kbps werden auch großflächige Bewegungen noch recht scharf übertragen.

Die übertragene Auflösung ist fast immer 720p oder 1080p. Dadurch wird eine hohe Schärfe

und Kantenglättung des Bildes erreicht.

Im LAN (und Internet) besteht zusätzlich das Problem, dass die zur Verfügung stehende

Bandbreite gleichzeitig von anderen Anwendungen genutzt wird. Falls der Videokonferenz

auch nur sehr kurzzeitig Bandbreite fehlt und dadurch Pakete verloren gehen, kommt es zu

Darstellungsfehlern im Video (Anhang D: Einfluss von Paketverlusten auf die Videoqualität)

oder Audiostörungen oder beidem.

Bei Teilnehmeranschlüssen an das X-WiN ab 34 Mbps kann von einer ausreichenden

Qualität auf der Zugangsleitung selbst ausgegangen werden. Die lokalen Netze sind

vermutlich geeignet, wenn es sich um moderne Netzkomponenten (Router und Switche,

welche neuere Technologien unterstützen) mit reichlich Reserven handelt. Zu Problemen

kann es kommen, wenn hochwertige Videokonferenzsysteme über wenig leistungsfähige

oder veraltete Netzkomponenten eingebunden werden.

Für ihre Funktionalität benötigen die Datenströme in vernetzten multimedialen Anwendungen

folgende Bandbreiten:

Minimum Ausreichend Gut Sehr gut

Audio-Daten 8 kbps 64 kbps 128 kbps

Video-Daten 64 kbps 748 kbps 2048 kbps 4096 kbps

Application-Sharing 30 kbps 300 kbps 2048 kbps 4096 kbps

Page 29: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 5-2

Die genaue Bandbreitenanforderung des Videobildes hängen vom Bildformat (die gewünsch-

te Auflösung auf der Senderseite), der Farbtiefe und der Übertragungsrate (Bilder pro

Sekunde) ab. Anhang B: Videonormen vermittelt einen Überblick der notwendigen Bandbrei-

ten.

5.2 Netzcheck

Für eine erste Bewertung der Netzverbindung sind folgende Werte hilfreich:

Kapazität des schmalbandigsten Netzabschnittes

Auslastung des am höchsten belasteten Netzabschnittes

Diese Werte lassen sich natürlich nur schwer genau ermitteln. Hier sind meist nur Abschät-

zungen möglich. Zur Auslastungsbewertung der Netzabschnitte lässt sich das Antwortverhal-

ten der an der Übertragung beteiligten Netzkomponenten heranziehen. Die an der Übertra-

gung beteiligten Netzkomponenten lassen sich mit 'traceroute ZIEL' (bzw. 'tracert ZIEL' unter

Windows) bestimmen.

Das Antwortverhalten kann mit 'ping ZIEL' ermittelt werden. Dabei wird an das angegebene

Ziel ein "ICMP Echo Request" geschickt und die Zeit bis zum Eintreffen der Antwort

gemessen. Der so ermittelte Wert muss nicht mit dem Verhalten bei Audio-/Videodaten

übereinstimmen, jedoch ist ein ähnliches Verhalten wahrscheinlich.

Besonders komfortabel ist der Einsatz des UNIX-Programmes 'mtr', welches eine Kombinati-

on aus 'traceroute' und 'ping' samt Statistik beinhaltet. Auch bieten einige Videokonferenz-

systeme Funktionalitäten, um Paketpfade und Antwortzeiten auszuwerten.

Antwortzeiten von über 200ms sind bereits als kritisch anzusehen und für Echtzeitmultime-

diaanwendungen wenig geeignet. Im X-WiN sollten Werte über 100ms selten sein.

Zur Kapazitätsbestimmung sind am besten die Aussagen der entsprechenden Netzadminis-

tratoren geeignet. Hier wird man bei längeren Strecken jedoch nicht immer alle Informationen

bekommen können. Das UNIX-Tool 'pathchar' versucht mit Hilfe diverser Tricks Kapazitäts-

abschätzungen der einzelnen Abschnitte vorzunehmen, die häufig verblüffend genau sind.

5.3 Systemcheck Audio/Video

Um das lokale Videobild zu testen, empfiehlt sich der Start des Systems und in diesem dann

das Anzeigen des lokalen Videos. Alle gängigen VC-Systeme bieten diese Möglichkeit.

Wenn das eigene Bild lokal gut sichtbar ist, sollte auch der Partner dieses sehen können.

Ein Audiocheck ist ohne Partner nicht möglich. Deshalb muss ein beidseitiger Test erfolgen.

Dabei kann erstens geprüft werden, ob überhaupt ein Audiokontakt zustande kommt und

zweitens, wenn nötig, die Qualität noch im Rahmen der Möglichkeiten des Systems

nachgeregelt werden muss. Manche VC-Systeme (Desktop- oder Raumsysteme) verfügen

über einen Audioassistenten oder andere Audiochecktools, womit die Funktionsfähigkeit

angeschlossener Mikrofone und Lautsprecher getestet werden kann.

5.4 Fehlersuche

Fehlerquellen bei Videokonferenzen sind sehr vielfältig, da in diesem Bereich sehr viele

unterschiedliche Techniken zusammenwirken müssen. Deshalb ist bei der Fehlersuche ein

möglichst systematisches Vorgehen nötig. Folgende Fehler können auftreten:

Page 30: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 5-3

5.4.1 VC-System startet nicht

Bei SetTop-Geräten sind die Anschlüsse, Stromzufuhr und die Verbindung zum TV-Gerät zu

prüfen.

Bei PC-basierten Systemen wird vorausgesetzt, dass der PC ordnungsgemäß funktioniert.

Für das VC-System ist die Softwareinstallation zu überprüfen.

5.4.2 Rufe funktionieren nicht

Zum Aufbau einer Videokonferenz nach H.323 müssen verschiedene Voraussetzungen

erfüllt sein:

1.) IP-Verbindung

Alle beteiligten Geräte müssen erreichbar sein (z.B. zu rufendes Gerät und Gatekee-

per). Dieses lässt sich mittels 'ping ZIEL' überprüfen.

Falls die Verbindung über einen Firewall führt, ist dieser wahrscheinlich die Fehlerur-

sache. Firewalls verhindern in der Regel H.323 Kommunikation (siehe Kap. 5.5: Fire-

wall).

Die IP-Adresse des eigenen Systems lässt sich in Eigenschaften von Netzwerk In-

ternetprotokoll (TCP/IP) finden. Alternativ kann auf der Kommandozeile der Befehl

'ipconfig' verwendet werden.

Die Ermittlung der den IP-Adressen zugeordneten DNS-Namen kann mittels 'nslookup

ZIEL' erfolgen.

2.) Gatekeeper (siehe auch Kap. 7)

Ist das zu rufende Gerät an einem Gatekeeper angemeldet, so muss sich auch das ru-

fende Gerät im Gatekeeperverbund befinden. Ist das zu rufende Gerät nicht an einem

Gatekeeper angemeldet, so darf auch das rufende nicht an einem Gatekeeper ange-

meldet sein. Abweichend vom Standard ermöglichen die meisten aktuellen Gatekeeper

auch Rufe zwischen registrierten und nicht registrierten Geräten.

Das zu rufende Gerät muss den Ruf akzeptieren. Hier muss entweder jemand den Ruf

manuell annehmen oder das Gerät muss für automatische Rufannahme konfiguriert

sein.

Das zu rufende Gerät darf sich nicht bereits in einem Ruf befinden.

Die Berechtigung zum Rufen muss bestehen. Für VC-Systeme werden in der Regel

keine speziellen Rufberechtigungen vergeben. Bei MCU- und Gatewaydiensten sind

meist spezielle Berechtigungen nötig.

3.) Systeminkompatibilitäten

Der Standard H.323 soll die Kommunikation zwischen den Geräten verschiedener Her-

steller sicherstellen. Das ist auch in der Regel gewährleistet. In Ausnahmefällen kann

es jedoch zu Problemen kommen. Die Grundfunktionalität wird jedoch fast immer er-

reicht.

Page 31: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 5-4

5.5 Firewall

Der Einsatz von Firewalls in Videokonferenzumgebungen ist prinzipiell problematisch. Bei

Konferenzen nach H.323 gibt es eine Vielzahl von festen Ports und für die dynamische

Vergabe kommen alle Ports oberhalb von 1024 in Frage. Dadurch sind nur speziell für H.323

vorgesehene Firewalls in der Lage, Funktion und Sicherheit in Einklang zu bringen. Eine

spezielle Unterstützung von H.323 wird nur von wenigen Firewalls realisiert. Aus diesem

Problemfeld ergeben sich fünf Lösungsansätze:

1.) Videokonferenzen werden außerhalb des geschützten Bereiches für die Kommunikati-

on nach außen genutzt. Vorteile sind die uneingeschränkte Funktion der Videokonfe-

renz-Geräte und der Schutz der Daten im gesicherten Bereich vor der Freigabe an Au-

ßenstehende. Soll die Kommunikation nur innerhalb des geschützten Bereiches erfol-

gen, können die VC-Geräte auch im geschützten Bereich aufgestellt werden.

2.) Proprietäre Optionen an VC-Geräten verschiedener Hersteller ermöglichen es, die

Bereiche für die dynamischen Ports stark einzuengen. Allerdings wird bei Nutzung die-

ser Funktion die Kommunikation zwischen Systemen unterschiedlicher Hersteller nicht

mehr erreicht.

3.) Bei Nutzung einer Firewall mit H.323-Unterstützung ist es auch über eine Firewall

hinweg möglich, Videokonferenzen nach H.323 zu führen. Dabei sollte man jedoch die

Funktion der Firewall kritisch hinterfragen, um eventuell zusätzliche Schwachstellen

aufzudecken. Lösungen mit H.323-Unterstützung werden von Cisco und Checkpoint

angeboten.

4.) Durch den Aufbau eines Virtuellen Privaten Netzwerkes (VPN) lassen sich Videokonfe-

renzdaten durch die Firewall tunneln.

5.) Mit H.323 Proxies lassen sich die Videokonferenzdaten entweder durch die Firewall

oder an ihr vorbei leiten. Den Proxy bildet hierbei ein Gateway, welches auf beiden Sei-

ten H.323 als Protokoll verwendet. Besonders bewährt hat sich der gleichzeitige Ein-

satz eines GNU-GK als Proxy. Ein Konfigurationsbeispiel findet sich im Videokonfe-

renzportal des DFN.

Für die Punkte 2.) bis 5.) gilt, dass Videokonferenzen zwischen geschützten und öffentlichen

Bereichen prinzipiell die Gefahr in sich bergen, dass über die Datendienste der Videokonfe-

renz vertrauliche Daten nach außen gelangen. Viele Systeme bieten deshalb die Möglichkeit,

die Videokonferenzdaten zu verschlüsseln.Sicherheit

Die Sicherheit von Videokonferenzen nach H.323 lässt sich am ehesten mit der Sicherheit

von E-Mail vergleichen. Es besteht die Gefahr, dass Dritte die Informationen mithören und

dass die Verbindung zu einem falschen Endpunkt aufgebaut wird. Zusätzlich besteht die

Möglichkeit, bei vergessenen Verbindungen oder unbemerkt hergestellten Verbindungen

abgehört zu werden. Obwohl nur sehr wenige Fälle in der Praxis bekannt wurden, wo ein

Abhören stattfand, sollten sich die Teilnehmer aber der prinzipiellen Gefahr bewusst sein.

Folgende Problemfelder ergeben sich:

1.) Mithören von Konferenzen ist möglich, sobald der Datenstrom zwischen den Endgerä-

ten abgehört werden kann. Das ist in ungeswitchten Netzen prinzipiell von allen im

Page 32: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 5-5

Netzwerk befindlichen Geräten möglich. In geswitchten Netzen liegen die Daten zwar

nur an den beteiligten Geräten an, jedoch ist nicht auszuschließen, dass durch Konfi-

guration oder Überlastung des Switches die Daten an andere Geräte im Netz gelangen

können. Die Konferenzdaten selbst lassen sich dann mit üblichen Streaming-Playern

(z.B. Real oder Quicktime) wiedergeben. Eine Verschlüsselung der Konferenzdaten für

den IP-Bereich ist im Standard H.235 geregelt. Im ISDN-Bereich können Verschlüss-

lungsboxen hinter bzw. vor dem Gerät eingesetzt werden, welche eine abhörsichere

Übertragung gewährleisten.

2.) Mithören bei Mehrpunktkonferenzen ist möglich, wenn ein Unbefugter Zugriff auf die

Konferenz der MCU bekommt. Allerdings kann per Webzugriff auf die MCU überprüft

werden wer Teilnehmer der Konferenz ist. Diese Möglichkeit sollte im Verlauf der Kon-

ferenz auch in regelmäßigen Abständen genutzt werden.

3.) Endgeräte müssen bei ihrer Anmeldung am Gatekeeper einen Alias-Namen und/oder

eine Alias-Nummer angeben. Diese Aliase werden während der Zeit der Anmeldung

über eine Tabelle im Gatekeeper der entsprechenden IP-Adresse zugeordnet. Andere

Teilnehmer können diese Endgeräte durch Ruf eines Alias erreichen. Die Umsetzung

des Alias in die IP-Adresse wird dabei vom Gatekeeper vorgenommen. Da die Endge-

räte theoretisch jedes Mal einen anderen Alias verwenden könnten, ist es nötig, im

Vorfeld einen Nummernplan aufzustellen. Hier sind Rufe zum falschen Endpunkt mög-

lich, indem ein System bei der Anmeldung am Gatekeeper durch die Angabe eines fin-

gierten Alias die Identität des ursprünglichen Gerätes vortäuscht. Dadurch würde ein

Alias-Ruf eines anderen Teilnehmers beim falschen Endpunkt ankommen. Diese Ver-

wechslung bei der Anmeldung muss nicht einmal absichtlich geschehen. Bei direkten

Rufen ohne die Nutzung eines Gatekeepers besteht die Möglichkeit, dass ein anderes

Gerät unter der IP-Adresse erreicht wird, falls im Routing oder im entfernten Netz eine

Manipulation erfolgte. Der Gatekeeper des DFN verwendet eine Struktur mit vordefi-

nierten Endgeräten. Bei diesem geschlossenen System können sich nur dem Ga-

tekeeper bekannte Videokonferenzterminals an der MCU einwählen.

Page 33: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 6-1

6 Multipoint Control Unit (MCU)

6.1 Allgemein

Für die Durchführung einer Videokonferenz mit mehr als zwei Standorten ist eine MCU

(Multipoint Control Unit) nötig. MCUs sind Sternverteiler für Gruppenkonferenzen und

werden innerhalb des Dienstes DFNVideoConference zur Verfügung gestellt.

Eine MCU ist in der Lage, mehr als eine Konferenz gleichzeitig zu verwalten und zu steuern.

Es handelt sich inzwischen fast immer um spezielle Hardware, da diese die hohen Anforde-

rungen an ein solches System besser als softwarebasierte Produkte erfüllt. Eine MCU kann

in ein Endgerät integriert sein, hat aber niemals die Leistungsfähigkeit einer Singlelösung wie

die Geräte des DFN.

Eine MCU empfängt die Datenströme (Video, Audio, Daten) jedes Konferenzstandortes und

sendet sie gebündelt wieder an die Teilnehmer zurück. Dabei nivelliert sie die qualitativen

Fähigkeiten der Endgeräte auf ein gemeinsames Niveau oder verbindet die einzelnen

Gegenstellen mit der jeweils besten Qualität, die bei diesen technisch möglich ist (sogenann-

tes Transcoding).

Gemäß dem Standard H.323 arbeitet eine MCU immer mit einem Gatekeeper (siehe Kap.7)

zusammen. Inzwischen gibt es aber auch Lösungen, welche auf den Einsatz eines Gatekee-

pers verzichten. Die Adressierung der MCUs im Dienst DFNVideoConference erfolgt über

einen Gatekeeper.

Die MCU ist während der Konferenz mit allen Teilnehmern verbunden. Sie verwaltet und

regelt die ein- und ausgehenden Video-, Audio- und Anwendungsdatenströme. Die einge-

henden Audiodatenströme werden in der MCU gemischt und im Full-Duplex-Mode zurück

gesendet. Die Verarbeitung der Videodatenströme kann auf verschiedene Arten geschehen:

Continuous Presence: Aus den eingehenden Videodatenströmen wird ein neuer Videoda-

tenstrom generiert und an alle Teilnehmer zurückgesendet. Für die ein- und ausgehenden

Videodatenströme werden dabei unterschiedliche Datenraten verwendet, da die MCU von

jedem Teilnehmer nur ein kleines Bild anfordert (z.B. im CIF- oder VGA-Format) und daraus

ein großes Bild (z.B. im VGA- oder HD-Format) zusammensetzt. Maximal können sich

sechzehn Konferenzteilnehmer gleichzeitig sehen. Es ist jedoch möglich, dass sich noch

weitere Teilnehmer in der Konferenz befinden, die auf dem Bild nicht dargestellt werden. Das

Audio ist jedoch immer von allen Beteiligten zu hören. Je nach ausgewähltem Format kann

z.B. der jeweilige Sprecher groß und die weiteren Teilnehmer klein dargestellt werden.

Voice Switching: Der Begriff Voice Switching beschreibt einen Modus, der jeweils nur den

momentan sprechenden Teilnehmer zeigt. Da aber ein permanentes Hin- und Herspringen

des Bildes zwischen verschiedenen Rednern meist als sehr störend empfunden wird, findet

diese Einstellung de facto kaum noch Anwendung.

Sinnvoll ist dagegen eine gezielte Layout-Einstellung durch den Konferenzadministrator,

wenn es sich z.B. um eine Vorlesung handelt und der Sprecher über eine längere Zeit

konstant bleiben soll. Auch eine manuelle Umschaltung von Bildern kann bei bestimmten

Veranstaltungen sinnvoll sein.

Page 34: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 6-2

Der Standard H.239 ermöglicht das Senden eines zweiten Videokanals für die Übertragung

von Präsentationen zusätzlich zur Übertragung des Audio- und Videodatenkanals. Eine

Nutzung von H.239 ist über die MCUs des DFNVC-Dienstes möglich. Datenanwendungen

wie Chat, Whiteboard, Shared Application (gemeinsames Bearbeiten einer Applikation auf

einem Rechner) und Application Sharing (gemeinsames Bearbeiten einer Applikation auf

mehreren Rechnern) lassen sich jedoch über dieses Protokoll nicht realisieren.

Im Dienst DFNVC ist als Kollaborationsanwendung mit zahlreichen Funktionen zur interakti-

ven Kooperation die Webconferencing-Plattform Adobe Connect im Einsatz, die in Verbin-

dung mit der Cisco MCU auch mehrpunktfähiges Application-Sharing, Desktop-Sharing

sowie weitere Datenanwendungen bietet (siehe auch Kap. 8.5.3)

6.2 Cisco TelePresence MCU 4500 Serie

Die Cisco TelePresence 4500 Serie ermöglichte als erste MCU auf dem Markt hochauflö-

sende Videokonferenzen in Full High Definition (FullHD) Qualität. FullHD bedeutet hier eine

Bildauflösung von 1920x1080p Bildpunkten mit 30 Bildern pro Sekunde (fps). Das Ganze

erfolgt mit dem Bandbreite sparenden Protokoll H.264 im Continuous Presence Mode. Im

DFN-Verein sind Cisco MCUs des Typs 4520 im Einsatz.

Die Cisco 4520 ist ein 19“-Gerät als Einschub in ein Rack. Es können insgesamt 40

Videocalls plus 40 Audiocalls gleichzeitig stattfinden (Obergrenze einer MCU bzw. Konfe-

renz). Den Nutzern des DFNVC-Dienstes stehen derzeit insgesamt 240 Video- und 240

Audio-Ports auf den Cisco MCUs zur Verfügung. Zusätzlich können bis zu 240 Teilnehmer

gleichzeitig unicast Videostreams mitsehen.

Wichtige Merkmale:

für große Gruppen geeignet

Transcoding

Bildverbesserung mittels ClearVision™ -Technologie (siehe unten)

jeder Teilnehmer kann sein eigenes Layout als Ansicht definieren

stabile Funktionalität

gut per WWW-Interface steuerbar

max. 80 externe Zuschauer per Streaming zuschaltbar

zusammen mit Recorder Cisco 2220 gleichzeitig 5 Aufnahmen von Videokonfe-

renzen möglich

Datenübertragung mittels H.239 in HD Dual Video Qualität, auch Einbindung ex-

terner VNC-Server möglich (vgl. Kapitel 8.5.2.1)

Integration von Adobe Connect für Datenanwendungen (Präsentationen, White-

boards,…) (vgl. 8.5.3)

Die MCU von Cisco beherrscht Transcoding, d.h. sie passt das zurückgesendete Bild der

jeweiligen Kapazität des Endgerätes an. Damit empfängt jeder Teilnehmer ein für seine

Bandbreite optimales Bild. Das heißt aber auch, dass jeder Teilnehmer eine unterschiedliche

Qualität empfängt.

Page 35: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 6-3

Cisco geht noch einen Schritt weiter, um alle Endsysteme nach ihren jeweiligen Fähigkeiten

an den Konferenzen zu beteiligen und sowohl für HD-Systeme als auch für SD- (Standard

Definition) Systeme die bestmögliche Qualität herauszuholen. Das entsprechende Feature

der Cisco MCU 4500 Serie nennt sich ClearVisionTM und erhöht die Auflösung und Qualität

älterer Videokonferenz-Systeme bis auf das 4-fache. Die Qualität der HD-Systeme wird nicht

reduziert, wenn sich qualitativ schlechtere Systeme in der Konferenz befinden. Bisher

konnten HD-Systeme in diesem Fall nur maximal 4CIF empfangen, jetzt können sie mit dem

Cisco Feature 1080p empfangen und werden somit optimal genutzt. Aber auch die SD-

Systeme erfahren durch die verbesserte Auflösung eine wesentliche Qualitätssteigerung.

Erstmalig kann die MCU viele SD Bilder zu einem großen HD Bild kombinieren.

6.3 Cisco Recorder IP VCR 2200

Der IP-Videorecorder und Streaming-Server Cisco IP VCR 2200 wurde speziell für Video-

konferenzen entwickelt. Damit können H.323 Videokonferenzen aufgezeichnet und wieder-

gegeben werden. Dem Nutzer werden die Dateien im MPEG1- oder im Cisco eigenen

Dateiformat zur Verfügung gestellt.

Der Cisco IP VCR 2200 kann gleichzeitig fünf Konferenzen aufzeichnen, wobei alle gängigen

Video- und Audiostandards und Videoformate bis 720p (HD-Qualität) möglich sind.

Die Aufzeichnung von Videokonferenzen durch den Konferenzadministrator erfolgt sehr

einfach über die Funktion Steuerung auf dem DFNVC-Portal

https://www.vc.dfn.de/konferenzen/steuerung/.

Auf der MCU-Oberfläche befindet sich ein Bedienungsfeld mit drei Schaltern, über die die

Aufzeichnung der Konferenz gestartet, mit einem Aufnahmetitel versehen und beendet

werden kann. (Abbildung 9 und Abbildung 10). Der Konferenzadministrator muss vor dem

Starten der Aufzeichnung den Nutzungsbedingungen zustimmen. Beim Start der Aufnahme

wird 30 Sekunden lang im Videobild der Teilnehmer ein Hinweis auf die Aufzeichnung

eingeblendet. Während der gesamten Aufnahme ist im Videobild links oben ein roter Punkt

eingeblendet.

Abbildung 9: Bedienungsfeld des Recorders vor der Aufzeichnung

Page 36: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 6-4

Abbildung 10: Bedienungsfeld des Recorders während der Aufzeichnung

Wird die Aufnahme beendet, erhält jeder Konferenzteilnehmer darüber eine Mitteilung auf

seinem Bildschirm. Unter dem Menüpunkt Recordings können Aufzeichnungen als mpg-

Datei (DVD Format 720x576 Bildpunkte) oder im Originalaufzeichnungsformat von Cisco

heruntergeladen und auch gelöscht werden. Mit den Cisco Converter Tools, zu finden unter

Recordings > Converter Tools, kann die Cisco-Datei in weitere Bildformate umgewandelt

werden.

Um den Konferenzteilnehmern Aufnahmen zur Verfügung stellen zu können, muss das

jeweilige Konferenzpasswort gesetzt sein und im Menüpunkt Recordings die entsprechende

freizugebende Datei als publish gekennzeichnet sein.

Über das DFNVC-Portal https://www.vc.dfn.de/konferenzen/aufnahmen/ können die

Aufnahmen heruntergeladen werden. Aufzeichnungen, die älter als 14 Tage sind, werden

automatisch vom IP VCR 2200 gelöscht.

Page 37: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 7-1

7 Gatekeeper

7.1 Allgemeines

Der Gatekeeper ist eine logische Komponente des H.323 Standards, welcher sowohl als

Windows- oder UNIX-Software, als Router-Option, als Teil einer MCU oder eines Gateways

implementiert sein kann. Alle Geräte, die einem Gatekeeper zugeordnet sind, befinden sich

in der gleichen Zone. Innerhalb einer Zone erhalten alle Geräte zur Kennzeichnung einen

Prefix. Nur die Prefixe innerhalb der DFN-Zone werden vom DFN vergeben. Zonen mit

eigenem Gatekeeper, die nicht in den Dienst DFNVideoConference eingebunden sind,

können die Prefixe für die Geräte in jener Zone selbst vergeben.

Normalerweise werden bei allen Gatekeepern alle benachbarten Gatekeeper in einer

Neighbour-Tabelle eingetragen. Zur Reduzierung der Tabelleneinträge kann ein Master-

Gatekeeper eingesetzt werden, der alle Gatekeeper in seiner Neighbour-Tabelle einträgt und

dann als einziger Gatekeeper allen anderen Gatekeepern bekannt ist. Die Struktur des DFN-

Dienstes setzt auf einem Master-Gatekeeper auf. Dieser sogenannte Country-Gatekeeper

beinhaltet die Einträge aller Gatekeeper des DFN-Dienstes. Andererseits ist er in einem

weltweiten Verbund vernetzt. Die Struktur dieses Verbundes ist unter www.vc.dfn.de zu

finden.

Der Einsatz von Gatekeepern ist in einem H.323 Netzwerk laut Standard optional. Ein

Gatekeeper bietet verschiedene Dienste, wie Adresstransformation, Zugangskontrolle oder

Bandbreitenmanagement für die H.323-Terminals an. Die Implementierung dieser Features

ist von Hersteller zu Hersteller sehr unterschiedlich realisiert.

Innerhalb des MCU-Dienstes im DFN wird ein Gatekeeper verwendet. Deshalb ist es

zwingend erforderlich, dass sich alle Teilnehmer mit ihren Geräten vor Nutzung des Dienstes

an einem Gatekeeper registrieren. Diese Registrierung kann entweder direkt am DFN-

Gatekeeper erfolgen oder über einen eigenen Gatekeeper, der dann seinerseits die

Anmeldung am Country-Gatekeeper vollzieht.

7.2 Global Dial Scheme

7.2.1 H.323 Name

Um eine Videokonferenz nach H.323 durchzuführen, muss die Gegenstelle eindeutig

erreichbar sein. Natürlich ist sie es immer über die IP-Adresse, aber bei Verwendung von

DHCP funktioniert diese Methode nicht mehr. Daher gibt es das Konzept des Dial Planes

(GDS – Global Dial Scheme), welches auf der weltweit eindeutigen Registrierung eines

Videokonferenz-Systems am Gatekeeper beruht. Dazu wird im Standard der H.323 Name

eingeführt.

Der Dial Plan verbindet in einer Tabelle den H.323 Namen mit dem zugehörigen System.

Diese Tabelle mit den Zuordnungen wird innerhalb des Gatekeepers geführt. Auch dynami-

sche Adressen sind so gut zu verwalten. Das System wird immer durch seinen H.323 Namen

eindeutig identifiziert und kann darüber gerufen werden.

Page 38: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 7-2

7.2.2 E.164-Alias

Der H.323 Name wird oft auch als E.164 Alias bezeichnet. Es resultiert daraus, dass die

ITU-T (International Telecommunications Union - Technical Section) einen Telefonnum-

mernplan mit einem ähnlichen Ziel verabschiedet hat. Dieser soll die eindeutige Erreichbar-

keit eines jeden Telefons weltweit garantieren.

Wegen dieser großen Ähnlichkeit in der Zielstellung und der Darstellung werden die beiden

Begriffe H.323 Name und E.164-Alias oft synonym verwendet.

Aber es gibt Unterschiede: Der entscheidende ist, dass der H.323 Name aus alphanumeri-

schen Zeichen bestehen darf, während der E.164-Alias immer nur Zahlen beinhaltet.

Das GDS basiert ausschließlich auf E-164-Aliassen.

7.2.3 Dial Plan Structure

Das GDS garantiert die eineindeutige Zuordnung eines Videokonferenz-Systems zu einer

Zahl. Er legt dafür in einem Verbund der einzelnen Länder Zonen fest, in denen der

Gatekeeper-Betreiber die E.164-Aliasse selber festlegen darf. Sie sollten eine Struktur

besitzen, die auch in der Zukunft eine Erweiterung zulässt. Da das Protokoll H.323 auch im

Bereich Voice over IP Verwendung findet und eine spätere Verschmelzung beider Anwen-

dungsszenarien nicht auszuschließen ist, sollten die E.164-Aliasse nicht mit dem Telefon-

nummernplan der Einrichtung kollidieren.

7.3 Praktische Umsetzung

Endgeräte müssen also bei ihrer Anmeldung am Gatekeeper einen H.323 Namen und einen

E.164-Alias angeben. Diese Aliase werden, solange das Gerät angemeldet ist, in einer

internen Gatekeeper-Tabelle der entsprechenden IP-Adresse zugeordnet. Andere Teilneh-

mer können diese Endgeräte durch Ruf des Alias erreichen. Die Umsetzung des Alias in die

IP-Adresse wird dabei vom Gatekeeper vorgenommen. Da die Endgeräte theoretisch jedes

Mal einen anderen Alias verwenden könnten, ist es nötig, im Vorfeld einen Nummernplan

aufzustellen. An diesen sollten sich dann alle Teilnehmer in der Zone halten, weil nur so zu

gewährleisten ist, dass dieselben Geräte immer denselben Alias bekommen.

Falls der Gatekeeper einen Ruf an einen Endpunkt erhält, der nicht in seiner Zone vorhan-

den ist, leitet er diesen Ruf an den Master-Gatekeeper weiter.

7.4 Empfehlung Gatekeeper

Für die Teilnahme am Dienst DFNVideoConference ist im Normalfall der Betrieb eines

eigenen Gatekeepers in der jeweiligen Einrichtung vorgesehen. Der Gatekeeper muss neben

den Grundfunktionen eines Gatekeepers auch die Kommunikation mit anderen Gatekeepern

(Neighbouring) beherrschen. Für kleine Einrichtungen mit wenigen Endgeräten (bis 10

Systeme) ist auch die Nutzung des DFN-Gatekeepers möglich.

Der Avaya Radvision ECS Gatekeeper wird auf einem Windows-Server betrieben. Die

Konfiguration und Administration erfolgt per Browser und mit Java über das WWW.

Der MCM von Cisco wird auf einem Cisco-Router (2500 - 7200) betrieben. Ab den Betriebs-

systemen 12.07T und 12.1(5)T wird von Cisco auf den Systemen 25xx, 26xx, 36xx, und

Page 39: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 7-3

3810 auch das Betreiben eines MCM bei gleichzeitigen Routingfunktionen unterstützt.

Konfiguration und Administration erfolgen hier per Kommandozeile (IOS 12.x).

Das VCC setzt die Gatekeeper MCM (Cisco), und den GNU Gatekeeper (http://gnugk.org/)

erfolgreich ein. Beide bieten die für eine Mehrpunktkonferenz benötigten Funktionen.

7.5 Konfiguration Gatekeeper

Die Konfiguration von Gatekeepern kann auf verschiedenen Wegen erfolgen. Aber auch

diese Möglichkeiten sind von Gerät zu Gerät noch unterschiedlich (Tabelle 1):

Gerät lokale Konfiguration per ... Konfiguration remote per ...

GNU Gatekeeper Textfile und Telnet auf Port 7000 Textfile und Telnet auf Port 7000

Cisco MCM serielle Schnittstelle Telnet

Avaya Radvision ECS

Gatekeeper

Internet Explorer und Java Internet Explorer und Java

Tabelle 1: Konfigurationsmöglichkeiten von Gatekeepern

In den einzelnen Kategorien der Konfiguration des Gatekeepers sollte folgendes beachtet

werden:

allgemein

o eventuell Bandbreitenbegrenzung vornehmen

Terminals

o eventuell nur bestimmte IP-Adressbereiche zulassen

o eventuell nur vordefinierte Terminals zulassen

o eventuell Nutzerverzeichnis per Radius oder LDAP steuern

Services

o eigenen Prefix vergeben

o eventuell eigenes Gateway / MCU definieren

Neighbours

o jeweils Name, Prefix, IP und eventuell Domain vergeben

Bei Fragen zur Konfiguration der Gatekeeper stehen das VCC und die Hotline des DFN zur

Verfügung.

Page 40: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 8-1

8 Videokonferenz-Geräte

8.1 Allgemeines

Der ITU-T Standard (englisch: Telecommunication Standardisation Sector) H.323 für IP

Übertragungen, der auf H.320 für ISDN basiert, definiert u. a. Audio- und Videostandards als

Empfehlungen für Videokonferenzsysteme.

Die am häufigsten implementierten Audiostandards in Videokonferenzsystemen führender

Hersteller sind: G.711, G.722, G.722.1 Annex C (Polycom Siren 14), G.723.1, G.728 und

G.729. Der Audiocodec MPEG-4 AAC-LD ist kein von der ITU-T empfohlener Standard, ist

aber von der ISO akzeptiert. Als Videostandards sind im allgemeinen H.261, H.263, H.263+,

H.263++ und H.264 implementiert. Die hier aufgeführten Standards sind im Handbuch im

Anhang A für Audiokodierung und im Anhang B für Videokodierung erläutert.

Die seit 2006 das erste Mal angebotenen so genannten HD-Geräte bieten High Definition

Video mit 720p an. Hierbei steht 720p für ein Videoformat von 1280 × 720 Bildpunkten (720

Zeilen) im Vollbildverfahren (p für progressive) bei 30 oder 60 Bildern pro Sekunde. Aus dem

Videoformat ist ersichtlich, dass das Video das Seitenverhältnis 16:9 hat.

Seit 2008 gibt es die ersten HD-Videokonferenzgeräte mit dem Videoformat 1080i und

1080p. Hier beträgt die Auflösung 1920×1080 Bildpunkte mit bis zu 60 Bildern pro Sekunde.

Das Kürzel „i“ steht für interlaced und bedeutet, dass Halbbilder bzw. 540 Zeilen pro Bild

übertragen werden, wohingegen bei 1080p (für progressive) in jedem Bild die volle Auflö-

sung übertragen wird.

8.2 Klassifizierung Endgeräte

Die zurzeit zum Einsatz kommenden Videokonferenzendgeräte werden in vier große

Systemklassen eingeteilt:

Desktop- bzw. Einzelplatzsysteme

Officesysteme

Kompaktsysteme

Raumsysteme

Die beschriebenen Geräte sind zum Teil vom VCC getestete Geräte. Sie stellen nur eine

Auswahl des gesamten Angebotes dar. Weitere Gerätetests sind in der Webpräsenz des

VCC, http://vcc.zih.tu-dresden.de/, ersichtlich.

Mit Videoeingang wird im Folgenden ein Anschluss bezeichnet, welcher es ermöglicht, z.B.

eine andere Kamera anzuschließen.

Mit Videoausgang ist die Anschlussmöglichkeit z.B. für einen Projektor oder einen Monitor

bezeichnet.

8.2.1 Desktop- bzw. Einzelplatzsysteme

Bei Desktop- bzw. Einzelplatzsystemen (Abbildung 11) handelt es sich um Videokonferenz-

systeme für PCs und Laptops. Diese softwarebasierten Lösungen werden am einfachsten

mit einer USB-Kamera und einem Headset (Kopfhörer-/Mikrofoneinheit) benutzt. Weiterhin

können auch Kameras über eine im PC integrierte Videokarte angeschlossen werden.

Page 41: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 8-2

Desktopsysteme sind für Einzelanwender konzipiert. Neben den geringen Kosten im

Vergleich zu allen anderen Klassen bieten diese den Vorteil, dass der Anwender während

der Videokonferenz vollen Zugriff auf seine Daten und die auf dem PC installierten Pro-

gramme hat. Desktopsysteme verfügen über die Funktionalität, den entfernten Konferenz-

partnern Datenpräsentationen zu zeigen bzw. zu empfangen. Das können verschiedenste

Dateien oder auch der gesamte Desktop sein.

Abbildung 11: Desktopsystem (hier Polycom RealPresence Desktop)

8.2.2 Officesysteme

Office-Systeme (Abbildung 12) sind kompakte, eigenständige, repräsentative Videokonfe-

renzlösungen mit integriertem TFT- oder LCD-Bildschirm, integrierter Kamera, Mikrofon und

Lautsprechern. Sie sind als Arbeitsplatzsystem konzipiert und wesentlich leistungsstärker als

Desktopsysteme. Office-Systeme gibt es in Abhängigkeit ihrer Leistungsfähigkeit als

Einzelplatzlösungen und auch als Kompaktsysteme für kleine Gruppenkonferenzen.

Office-Systeme sind schnell betriebsbereit, verfügen dafür aber über wesentlich weniger

Anschlussmöglichkeiten für externes Zubehör als Gruppensysteme.

Abbildung 12: Cisco

TANDBERG EX90

Page 42: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 8-3

8.2.3 Kompaktsysteme

Kompaktsysteme (Abbildung 13) stellen voll integrierte Videokommunikationslösungen dar,

zu deren Betrieb in der Regel lediglich noch ein Monitor und die entsprechenden Netzan-

schlüsse (ISDN und/oder LAN) benötigt werden. Konferenzsystem und Kamera bilden eine

geschlossene Einheit. Aufgrund des geringen Gewichtes und der einfachen Installation

eignen sich diese Geräte für den mobilen Einsatz. Steuerung und Konfiguration erfolgt über

eine zum System gehörende Fernbedienung. Die optimale Darstellungsqualität wird für das

Video auf einem Monitor und für Datenanwendungen auf einem Monitor oder mit einer

Projektion erreicht. Ein zusätzliches Gerät für Datenanwendungen beeinträchtigt dabei nicht

die Stabilität der Audio-Video-Verbindung des Kompaktsystems.

Kompaktsysteme sind für Videokonferenzen in kleinen bis mittleren Anwendergruppen

geeignet.

8.2.4 Raumsysteme

Raumsysteme sind modular aufgebaute, leistungsstarke Videokommunikationslösungen für

höchste Ansprüche (vgl. Abbildung 14). Durch variable Ausstattungsmerkmale sind flexible

Systemkonfigurationen für fast jede Anwendung möglich. Leistungsstarke Kameras,

Raummikrofone und große Monitore erlauben auch in großen Konferenzräumen die

Integration dieser Systeme, die selbstverständlich auch die Einbindung diverser Peripherie-

einrichtungen wie z.B. Dokumentenkameras ermöglichen.

Raumsysteme ermöglichen es mittleren bis großen Personengruppen, an Videokonferenzen

mit höchster Qualität teilzunehmen. Entsprechend hoch sind auch die Kosten für komplette

Raumsysteme.

Abbildung 13:

Cisco TANDBERG C20

Page 43: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 8-4

Abbildung 14: Raumsystem Polycom HDX 9004

Die Unterscheidung in Kompakt- und Raumsysteme geschieht oftmals ziemlich willkürlich

von den Herstellern unter Marketingaspekten. Raumsysteme können sowohl auf Settop- als

auch auf PC-Systemen aufbauen. Sie beinhalten aber Zusatzkomponenten, welche

besonders für die Nutzung durch größere Gruppen konzipiert sind.

Page 44: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 8-5

8.2.5 Aktuelle Kompakt- und Raumsysteme, Office- und Einzelplatzsysteme

Page 45: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 8-6

Page 46: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 8-7

8.3 Konfiguration der Endgeräte

Die Konfiguration der Endgeräte umfasst im Allgemeinen die Eingabe

des H.323 Namens

einer Aliasnummer in E.164 Schreibweise

der Gatekeeper IP-Adresse

Folgende Einträge müssen noch bei Kompakt-/SetTop-Systemen vorgenommen bzw. bei

Desktopsystemen geprüft werden:

IP-Adresse des VC-Endgerätes

IP-Adresse des Standard Gateways

IP-Adresse der Netzmaske

DNS-Name (optional)

IP-Adresse des DNS-Servers (optional)

Fehlt bei Desktopsystemen einer der nicht optionalen Einträge des zweiten Abschnittes,

kann das im Windows Betriebsystem unter: StartEinstellungenSystemsteuerung

Netzwerk vorgenommen werden.

Die fünf letztgenannten Einträge können auch per DHCP erfolgen. Dann werden beim

Konfigurieren des VC-Gerätes mit dem Aktivieren von DHCP diese fünf Einträge grau

unterlegt. Voraussetzung dafür ist, dass das VC-Gerät DHCP beherrscht und im LAN der

DHCP-Service verfügbar ist.

Die Konfiguration der VC- Endgeräte ist von Hersteller zu Hersteller im Sprachgebrauch

verschieden. Deshalb finden Sie in der nachfolgenden Tabelle die Bezeichnungen zur

Konfiguration verschiedener VC-Systeme „auf einen Blick“ zusammengefasst.

Page 47: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 8-8

Sprachgebrauch VK-Handbuch

Polycom

RealPresence Desktop, m100 (engl.)

LifeSize Softphone

Polycom

HDX Serie (engl.)

Cisco (Tandbrg)

C-Serie, EX 90 (engl.)

LifeSize 220 Serie (engl.)

Sony (engl.)

Beispiel

H.323 Name H.323 Alias1

(H.323 Alias) H.323 Name

H.323-Name (H.323)

H.323 ID 2 ;

3

(H.323 ID)

H.323 Name (H.323)

User Alias

(User Alias)

mm03

E.164-Alias H.323 Nebenstelle (E.164)

(H.323 Extension (E.164))

Telefonnummer

H.323 Nebenstelle (E.164)4

(H.323 Extension (E.164))

H.323 Nummer

(E.164 Alias)

H.323 Nebenstelle (H.323 Extension)

User Nummer

(User Number)

1223

Gatekeeper IP-Adresse

Gatekeeper-IP-Adresse (Gatekeeper IP Adress)

Gatekeeper

Gatekeeper-IP-Adresse (Gatekeeper IP Adress)

Gatekeeper IP Adresse

(Gatekeeper Adress)

Gatekeeper IP Adresse (Gatekeeper IP Adress)

Gatekeeper-Adresse

(Gatekeeper Address)

141.30.67.251

IP-Adresse VC-Endgerät

-- -- IP-Adresse (IP Adress)

IP-Adresse

(IP Adress)

IP-Adresse (IP Adress)

IP-Adresse

(IP Address)

141.30.67.240

Standard Gateway -- -- Standard Gateway

(Default Gateway)

Gateway

(Gateway)

Standard-Gateway

(Default Gateway)

Gateway-Adresse

(Gateway Address)

141.30.66.254

Netzmaske -- -- Subnetzmaske (Subnet Mask)

Subnetzmaske

(IP Subnet Mask)

Subnet-Mask (Subnet Mask)

Netzwerkmaske

(Network mask)

255.255.255.128

Hostname -- -- Host-Name (Host Name)

Host-Name

(Host Name)

Hostname (Hostname)

Host Name

(Host Name)

rncmm03

DNS-Server -- -- DNS-Server (Domain Name Servers)

DNS Server x

(DNS Server x)

DNS-Server DNS Servers

DNS-Adresse

(DNS Address)

141.30.66.135

Tabelle 2: VC-Systemkonfigurationen

1 Wird von Allgemeines Benutzername übernommen

2 H.323 ID, nicht der Standortname, wird beim rufenden bzw. gerufenen System angezeigt

3 VC-System Tandberg 990 zeigt unter Systeminformation Meine IP-Nummer: den E.164-Alias!

in Eigenbildansicht Meine IP-Nummer: den E.164-Alias ;

in Eigenbildansicht Standortname: den E.164-Alias !

unter Systeminformation Verbindungsstatus Standortname: die IP-Adresse der Gegenstelle

4 Bei Systeminformationen auch als „Videonummer“ bezeichnet

Page 48: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 8-9

Die Angaben

IP-Adresse VC-Endgerät

Standard Gateway

Netzmaske

Hostname

DNS-Server

werden bei Einzelplatzsystemen vom zugrunde liegenden Betriebssystem (Windows)

übernommen. Dort werden diese auch konfiguriert.

Um den Dienst DFNVideoConference (DFNVC) nutzen zu können, muss das Videokonfe-

renzsystem an einem Gatekeeper angemeldet sein. Hat Ihre Einrichtung keinen eigenen

Gatekeeper, dann können Sie einen Gatekeeper des DFN nutzen. Informationen zu den

Gatekeepern des DFN erhalten Sie über die DFN-Hotline [email protected].

8.4 PC-Einstellungen

Bevor eine Videokonferenz mit Hilfe eines Desktop-Systems gestartet wird, sollten einige

Einstellungen des PCs überprüft werden. Diese können bei Nichtbeachtung unter Umstän-

den zu Fehlfunktionen des Videokonferenz-Systems führen.

8.4.1 Bildschirmschoner, Energiesparfunktion

Falls das Videokonferenz-System auf einem PC läuft, sollten der Bildschirmschoner und die

Energiesparfunktion des PC ausgeschaltet werden. Wenn sich diese aktivieren, kann dies zu

Abstürzen des Videokonferenz-Systems oder sogar zum Totalausfall des PC führen.

Überhaupt ist es ratsam, alle anderen Anwendungen zu schließen, welche nicht für die

Konferenz benötigt werden.

8.4.2 Systemmonitor

Videokonferenzsysteme auf dem PC benötigen ständig genügend Rechnerressourcen für

eine zuverlässige Funktion. Bei hoher Belastung des PC steigt auch die Wahrscheinlichkeit

von Engpässen für das Videokonferenzsystem. Dadurch können Aussetzer im Ton oder

Videostörungen hervorgerufen werden.

Um Engpässe erkennen zu können, empfiehlt es sich, die CPU-Belastung zu kontrollieren.

Dazu kann der Systemmonitor von Windows benutzt werden.

Windows 7:

Mit dem Affengriff Strg+Alt+Entf (Ctrl-Alt+Del) kann man den Windows Task-

Manager einblenden und über den Reiter Leistung die CPU-Nutzung und Spei-

cherauslastung des PCs angezeigt bekommen. Hier kann ganz unten auch der

Ressourcenmonitor geöffnet werden.

Oder der Ressourcenmonitor wird im Startbildschirm unter Programme Zube-

hör Systemprogramme gestartet. Hier kann genau verfolgt werden, welche

CPU- und Speicherressourcen das Videokonferenzsystem beansprucht.

Page 49: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 8-10

Windows 8:

Hier wird der Task-Manager mit der Tastenkombination Strg+Shift+Esc geöffnet.

Über den Reiter Leistung findet man die CPU- und Speicherauslastung und den

Ressourcenmonitor.

8.4.3 Windows SoundMixer

Falls Audiosignale über die Soundkarte des PC geführt werden sollen, muss der Mixer

entsprechend eingestellt werden. Hier ist wichtig, dass nur das Audio der entfernten Seite

und nicht auch noch das eigene Mikrofon zur Ausgabe (z.B. Lautsprecher) gelangt.

Zur Aufnahme darf nur das eigene Mikrofon zugeschaltet sein (keine weiteren Quellen).

Diese Einstellungen sind recht fehleranfällig, da erstens der Windowsmixer nicht sehr

übersichtlich ist und zweitens andere Software die Einstellungen verändert. Es wird daher

empfohlen, VC-Systeme mit eigenem Audioausgang lieber direkt und nicht über die

Soundkarte mit dem Lautsprecher zu verbinden.

Weitere Informationen zum Windows SoundMixer finden sich im Kapitel 8.4.3.

8.5 Datenanwendungen

Neben Audio und Video bieten die meisten Systeme noch die Möglichkeit, Datenanwendun-

gen zu benutzen. Aktuelle Systeme bieten dazu die Möglichkeit einer parallelen Übertragung

von Bildschirminhalten. Die verschiedenen Versionen unterscheiden sich allerdings kaum in

der grundlegenden Bedienung, Funktionalität und dem Aussehen.

8.5.1 H.239 – Medien-Kanal und Präsentationen in Videokonferenzen

Die ITU-T Recommendation H.239 ist ein internationaler Standard zur Nutzung, Steuerung

und Kennzeichnung (Labeling) von zwei gleichzeitigen Videokanälen innerhalb einer

einzigen Videokonferenz. Verabschiedet im Juli 2003 durch die ITU-T in Genf ermöglicht

H.239 interoperable Konferenzen zwischen verschiedenen Herstellern sowohl über ISDN

(H.320) als auch IP (H.323) Netzwerke.

Unterschiedliche Hersteller haben zuvor seit 2000 eigene Lösungen patentiert und in die

Anwendung gebracht, wie beispielsweise „People & Content“ von Polycom. Andere Firmen

entwickelten inkompatible Zwei-Kanal Video Technologien (Dual Channel Video). Bereits

Ende 2001 waren wenigstens drei verschiedene inkompatible Systeme unterschiedlicher

Hersteller auf dem Markt. Zwischen diesen unterschiedlichen Lösungen mussten vereinfach-

te Ansätze gefunden werden, die die Interoperabilität zwischen allen Herstellern im Bereich

Video-Konferenzen ermöglichen.

H.239 unterscheidet sogenannte „role label“ beziehungsweise Funktions-Kennzeichnungen

in Live-Video und Präsentations-Video. Der zweite zusätzliche Video-Kanal wird mitunter

auch als sekundärer Medien-Kanal für Daten beziehungsweise als Additional Media Channel

(AMD) bezeichnet. Es gab bereits zuvor einige Standards wie H.323, die schon immer

mehrere Kanäle von Video unterstützten, im Unterschied dazu ergänzt H.239 die Funktionali-

tät des Labels oder Kennzeichnens jedes einzelnen Kanals in einer Konferenz. Diese Rollen-

Label identifizieren die Art der Präsentation für den Betrachter. Damit wird der Konferenz-

Page 50: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 8-11

Technik auch die Möglichkeit eingeräumt, die Bitrate (flow Release Request message) zu

verwalten.

Der Anhang Annex A von H.239 liefert einen standardisierten und generischen Mechanis-

mus, um die Steuer-Nachrichten zwischen H.320 Systemen über ISDN und H.323 über IP zu

übersetzen, so dass Video-Systeme diverser Netzwerke in einer einzigen Konferenz

zusammen fungieren können. Schließlich erweitert Anhang Annex B von H.239 den H.320

Standard um die Unterstützung des zweiten Videokanals (Second oder Additional Media

Channel, AMD).

Soll nun ein H.239-Datenstrom in eine Videokonferenz eingebunden werden, muss jedes

Endgerät, das H.239 unterstützt, während des Verbindungsaufbaus den anderen Geräten

die eigenen Fähigkeiten zur Handhabung der Signalisierung in H.239 mitteilen. Dadurch ist

bekannt, welche Kanalfunktion es unterstützt und im Fall von H.320 Systemen über ISDN,

welche Bitraten für den zweiten Videokanal unterstützt werden.

Während der Konferenz werden die Mitteilungen zu offenen und geschlossenen Videokanä-

len ausgetauscht, die Bitraten zu jedem Kanal verwaltet und gekennzeichnet, welche Rolle

oder Funktion jeder Kanal in einer Konferenz spielt. Diese Rollen-Label ermöglichen dem

Empfänger, jeden Kanal zur besten Anzeige für jeden Typ des Video-Inhaltes zu schicken.

Dabei werden Merkmale oder Kennzeichnungen (Tokens) benutzt, welche Station im

Moment gerade präsentiert. Wenn es eine Mischung aus IP- und ISDN-Stationen gibt,

nutzen Gateways und Bridges die Prozeduren aus Annex A von H.239, um die Mitteilungen

zwischen den Netzwerk-Typen zu übersetzen.

Vorzugsweise wird der Live-Videokanal für Personen in einer Konferenz genutzt. Dabei hat

die Bildwiederholrate (frame rate) für stufenlose weiche Bewegungen Priorität gegenüber

erhöhter Detailauflösung. Dieser Live-Videokanal wird entsprechend vorzugsweise auf

Fernseh- oder Videomonitoren dargestellt.

Der zweite zusätzliche Präsentations-Kanal wird dagegen vorzugsweise für Präsentationsvi-

deos wie Dias, Folien, Tabellen-Kalkulation, Dokumente und andere Daten-Inhalte genutzt.

Die Kennzeichnung erfolgt so, dass eine einzige Präsentation an alle Beteiligten in einer

Konferenz verteilt wird. Hierbei erhält eine hohe Auflösung für feine Details Priorität gegen-

über der diesmal untergeordneten Bildwiederholrate. Gewöhnlich erfolgt die Wiedergabe auf

Computer-Monitoren oder Projektoren.

Was vom Standard her recht einfach und klar aussieht, scheint in der Praxis jedoch nicht so

einfach und funktionssicher implementiert zu werden. Zunächst wird die maximal bei der

Video-Konferenz verfügbare Bandbreite auf die beiden Video-Kanäle aufgeteilt. Die Art und

Weise der Aufteilung ist sowohl nach Hersteller als auch nach Geräten unterschiedlich. So

müssen für gemischte Umgebungen stets Kompromisse gefunden werden. Dann können die

beiden Video-Kanäle je nach Möglichkeit und unter Berücksichtigung von verbliebener

Bandbreite, Auflösung und bevorzugter Bildwiederhol-Rate auch unterschiedlich komprimiert

werden. Als Video-Codecs werden derzeit H.263 und H.264 in unterschiedlicher Qualität und

Leistungsfähigkeit genutzt.

Bisher waren PC-Präsentationen vorzugsweise im Standard-XGA Format mit 1024x768

Bildpunkten und Live-Video in Standard Definition (SD) PAL-Auflösung mit 768x576 (oder

Page 51: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 8-12

720x576) gleichermaßen im Seitenverhältnis 4:3. Mit Einzug von High Definition (HD)

Auflösungen und der Tendenz zum Breitbild (Wide Screen) hat sich das geändert. PC-

Präsentationen tendieren zum 16:10 Breitbild-Format während für HD-Videos das 16:9 HD-

Format spezifiziert ist. Damit erhöhen sich die Unterschiede dieser drei Formate und

Seitenverhältnisse, was erhebliche Auswirkungen auf die Bandbreite, die Bildauflösung und

die Bildwiederholrate hat. In homogenen Videokonferenzen mit gleichartigen Systemen fallen

diese Unterschiede weniger ins Gewicht. In gemischten Umgebungen kann es durchaus zu

erheblichen Störungen in der Live-Kommunikation oder Grafik-Präsentation kommen.

Viele Hersteller erweitern derzeit die Einstell-Möglichkeit und Fähigkeiten zur Anpassung an

andere Systeme. Dabei kann die automatische Entscheidungsfindung von der jeweiligen

Wahrnehmung oder Absicht durch die Nutzer abweichen.

8.5.2 Virtual Network Computing (VNC)

VNC wurde 1998 als Forschungsprojekt in den Labors von AT&T Labs in Cambridge

entwickelt und entwickelte sich als original Open-Source Cross-Platform Remote Control

Lösung zu einem weltweiten de-facto Standard. Nach Schließung der AT&T Labore

gründeten die VNC-Entwickler 2002 eine neue Firma RealVNC in Großbritannien (UK). Ziel

ist die kommerzielle Weiterentwicklung und Vermarktung des VNC Virtual Network Compu-

ting als innovative Fern-Zugriffsmethode (Remote Access).

VNC steht für Virtual Network Computing. Diese Fern-Steuer Software erlaubt dem Nutzer,

einen entfernten Computer (Server oder Back End) zu sehen und mit ihm zu interagieren.

Das erfolgt durch ein einfaches Programm (Client, Front End oder Viewer) von einem

anderen Computer oder mobilen Gerät im LAN oder Internet. Man greift also virtuell über das

Netzwerk auf entfernte andere Computer zu. Durch den IP/Internet Zugang arbeitet man

plattformunabhängig in einer typischen Umgebung mit Keyboard (Tastatur), Videografik-

Bildschirm und Maus (KVM-Umgebung).

VNC überträgt die graphischen Daten sowie die Informationen zwischen dem Steuerrechner

und dem zu steuernden entfernten Rechner. Auf einen Rechner mit VNC-Server kann von

jedem Endgerät, von jedem Ort aus und über jede Verbindung zugegriffen und die volle

Steuerung übernommen werden. Die Art des Netzwerks ist in diesem Fall nicht relevant,

denn VNC spricht einen PC über dessen IP-Adresse oder dessen Hostnamen (entsprechend

DNS) an. Jeder teilnehmende Rechner kann wahlweise die Rolle von Server oder Cli-

ent/Viewer übernehmen.

VNC deckt mittlerweile einen weiten Bereich von Anwendungen einschließlich System

Administration, IT-Support, Help-Desk-Anwendungen oder Daten- und Grafikpräsentationen

parallel zu Videokonferenzen ab. Dabei kann auch die Einbeziehung mobiler Nutzer von

Unternehmens-, Außendienst- bis zum Heimbereich erfolgen.

Mittels VNC können Videokonferenzen insbesondere bei H.323-Mehrpunktkonferenzen

durch die Übertragung von Bildschirminhalten oder Präsentationen ergänzt werden. Es stellt

damit eine Alternative zu qualitativ nicht ausreichenden oder fehlenden H.239 Video-

Präsentationen dar. Auf dem Rechner, auf dem die Präsentation liegt, wird der VNC-Server

als Back-End gestartet. Ein entfernter Rechner startet den VNC Viewer und wird dann zur

Eingabe der Verbindungs-Details (Connection details) aufgefordert. Hier erfolgt die Eingabe

Page 52: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 8-13

des DNS-Namens oder der IP-Adresse des VNC Servers, auf dem die Präsentation liegt.

Nach erfolgreicher Verbindungsaufnahme vom VNC Viewer zum VNC Server wird auf dem

lokalen Desktop der entfernte Desktop sichtbar und man kann eine Präsentation durch

Empfang einer Bildschirmkopie verfolgen.

8.5.2.1 VNC mit CISCO-MCU

Eine Präsentation auf einem Rechner mit gestartetem VNC-Server kann während einer

Mehrpunktkonferenz auf der CISCO-MCU des DFN auch als H.239-Datenstrom eingebun-

den werden. Dazu wählt man die Option "Add VNC":

Im folgenden Menü gibt man die Adresse des Rechners an, auf dem der VNC-Server

gestartet wurde. Erfordert der Server eine Authentifizierung, so kann diese auch hier

eingeben werden. Zur erfolgreichen Verbindungsaufnahme muss auch der Port angegeben

werden, unter dem der VNC-Server erreichbar ist.

War der Verbindungsaufbau erfolgreich, kann der Präsentationsrechner mit gestartetem

VNC-Server wie gewohnt bedient werden. Alle Teilnehmer der Konferenz empfangen das

aktuelle Bild des Rechners als H.239-Datenstrom.

Page 53: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 8-14

8.5.3 Datenanwendung über Adobe Connect

Mit Hilfe des Webfrontends zur Konferenzsteuerung auf der MCU kann parallel auch ein

Collaboration Tool gestartet werden. Es basiert auf Adobe Connect.

Der Start und Stop der Datenanwendung wird an der oben gekennzeichneten Stelle in der

Weboberfläche durchgeführt. Nach dem Start wird eine Verbindung mit dem Adobe Connect-

Server hergestellt.

Zum vollständigen Abschluss des Vorganges sind noch die Eingabe der Konferenznummer,

des Konferenzpasswortes und eines Namens nötig. Der hier eingegebene Name wird später

allen Teilnehmern der Datenanwendung als Nickname angezeigt.

Die Oberfläche ist jener des Webconferencing sehr ähnlich. Aber es ist nur der Teil der

Collaboration, welcher verwendet wird. Die Audio- und Videoverbindung wird weiterhin über

die MCU gesteuert.

Page 54: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 8-15

Page 55: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 9-1

9 Vorbereitungen für eine Videokonferenz

9.1 Vorbereitung mit neuen Partnern

Die Vorbereitung auf eine Videokonferenz mit einem neuen Partner ist von großer Bedeu-

tung, weil es entscheidenden Einfluss auf die Qualität der weiteren Zusammenarbeit haben

wird. Aus technischer Sicht ist es wichtig zu wissen, welche Endgeräte an der Konferenz

beteiligt sind.

Vor dem ersten Kontakt per Videokonferenz sollte eine kurze Vorstellung mit Hilfe eines

anderen Kommunikationsmediums erfolgen. Sehr hilfreich ist bei komplexen Themen auch

eine kurze Zusammenfassung, welche vorher den anderen Teilnehmern per E-Mail zuge-

sendet wird. Besonders bei internationalen Kontakten ist dies wichtig, weil hier schon in

Ruhe (oftmals sind die Dokumente in einer Fremdsprache) die Konferenz vorbereitet werden

kann.

9.2 Technische und organisatorische Vorbereitungen

In größeren Konferenzen sollten die Rollen „Teilnehmer“ und „Administrator“ nach Möglich-

keit getrennt werden.

Es hat sich nicht bewährt, wenn ein Konferenzteilnehmer die Technik mit bedient - auch

dann nicht, wenn die Bedienung nicht schwer ist und er sich damit auskennt. Wird das

Gespräch interessant, vergisst er doch die Kamera nachzuführen oder ist zeitweise überfor-

dert, weil Zuhören, Bedienen, Umschalten und Wortmeldung zugleich einfach zu viele

Aufgaben sind.

Etwa 24 Stunden vor Beginn der Videokonferenz sollten noch einmal alle Verbindungen

zwischen den Teilnehmern überprüft werden. Bei internationalen Konferenzen sollte dies,

wenn möglich, noch früher geschehen. Empfehlenswert sind hier im Vorfeld auch Tests zu

verschiedenen Tageszeiten, um einen optimalen Zeitpunkt zu ermitteln. Innerhalb der Tests

sollte die Verfügbarkeit der Teilnehmer und eventuell des Videokonferenzraumes geprüft

werden. Es sollten unbedingt alle Beteiligten gleichzeitig in der Videokonferenz anwesend

sein. Die unterschiedlichen Laufzeiten der Datenpakete bewirken unter Umständen unter-

schiedliche Reaktionszeiten, auf die sich alle Teilnehmer einstellen müssen.

Selbstverständlich sollte der Test am Vortag mit den gleichen Geräten durchgeführt werden,

welche dann auch in der Konferenz benutzt werden. Auch sollte der Aufbau nicht unnötig

komplex gewählt werden. Solche Ideen wie "dann schließen wir über den Umschalter noch

den Ton vom PC an und schalten dann beim Folienwechsel noch auf ein Bild von der

anderen Kamera um" usw. gehen ohne Proben meist schief und stören mehr als sie nutzen.

Falls eine Konferenz mit Hilfe einer MCU (Multipoint Control Unit) geplant ist, sollten die

Einwahlnummern zur MCU vorher getestet werden. In diesem Fall ist die Festlegung eines

Konferenzleiters empfehlenswert, der im Umgang mit der MCU geübt ist. Zumindest sollte

aber ein Ansprechpartner für eventuelle Probleme bekannt sein.

Es sollte auch geklärt werden, wer wen anruft oder bei einer MCU einlädt. Für Probleme

sollten die Telefonnummern der Partner sowohl im Konferenzraum selbst als auch am

Arbeitsplatz bekannt sein.

Page 56: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 9-2

Bei einer sprachgesteuerten MCU sollte dem Tontest erhöhte Aufmerksamkeit gewidmet

werden. Die Probleme mit dem Ton (Störgeräusche, Echos, falscher Pegel/Impedanz, etc.)

werden oft unterschätzt. Durch den problembehafteten Ton eines Teilnehmers kann eine

Mehrpunkt-Konferenz bis zur Unbrauchbarkeit gestört werden.

Eine Videokonferenz sollte nicht länger als ein bis zwei Stunden dauern. Längere Konferen-

zen sollten in zwei oder mehr Sitzungen aufgeteilt werden. Um den Zeitplan einhalten zu

können, sollte eine übersichtliche Agenda mit angestrebten Zielen des Treffens aufgestellt

werden, auf welcher gleichzeitig die Tagesordnungspunkte nach ihrer Wichtigkeit geordnet

sind, um die Zeit effizient zu nutzen. Die Tagesordnung, Skripte, Präsentationen und Folien

sollten rechtzeitig vorher allen Teilnehmern zugestellt werden, damit diese sich mit den

Themen der Konferenz vertraut machen können, was eine aktive Teilnahme fördert.

Überraschende Änderungen der Themen und des Ablaufes sind weitestgehend zu vermei-

den.

Bei Nutzung einer MCU werden zu Beginn der Konferenz kurzzeitig die H.323 Namen der

beteiligten Videokonferenzstandorte bzw -geräte eingeblendet. Vorteilhaft ist es, wenn die

Teilnehmer vor sich ein Schild platzieren (Abbildung 15), auf welchem der eigene Name

steht. Zumindest sollte aber ein Schild mit dem Namen des Standortes vor jeder Gruppe

stehen und für die anderen zu sehen sein.

Abbildung 15: Konferenz mit Namensschild des Standortes

Die Rückseite kann gleich für die Speicherung wichtiger Informationen, z.B. die eigene

Rufnummer und IP-Adresse (Abbildung 16), verwendet werden.

Abbildung 16: Beispiel der Rückseite eines Standortschildes

Page 57: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 9-3

Die Verbindung sollte dann nach Möglichkeit 10 – 15 Minuten vor dem vereinbarten

Starttermin aufgebaut werden.

In der Arbeitsumgebung sollte man alle Personen informieren, dass man eine Videokonfe-

renz abhält und nicht gestört werden will. Alle Teilnehmer sollten ihre Handys ausschalten

und sich auf die Konferenz konzentrieren.

9.3 Der Moderator in einer Mehrpunktkonferenz

Eine MCU-Konferenz wird durch einen Moderator geleitet, der die Regeln für eine erfolgrei-

che Sitzung vorgibt. Es muss schon im Vorfeld geklärt werden, wer diese Rolle übernimmt.

Falls sich die Teilnehmer nicht kennen, sollte allen die Gelegenheit gegeben werden, sich

kurz vorzustellen. Dadurch wird jeder Teilnehmer mit der Stimme der anderen vertraut, was

vor allem bei internationalen Konferenzen wichtig ist. Danach sollte noch einmal die

Tagesordnung besprochen werden, damit jeder Teilnehmer weiß, was von ihm erwartet wird.

Die Tatsache, dass in einer sprachgesteuerten MCU-Konferenz möglicherweise nur der

Teilnehmer zu sehen ist, welcher gerade spricht, kann bei ungeübten Teilnehmern zu

Verwirrung führen. Hier ist der Moderator gefordert, der sowohl sehr genau über das Thema

Bescheid wissen muss, als auch viel Erfahrung mit Videokonferenzen haben sollte.

9.4 Gestaltung von visuellen Hilfsmitteln

Für eine optimale Qualität der Folien oder Präsentationen sollten einige Punkte beachtet

werden:

ein dunkler Hintergrund mit großen hellen Buchstaben ist gut lesbar (z.B. Weiß

auf Blau)

die Schriftgröße mindestens 24

klare Schriften, z.B. Helvetica oder Arial verwenden

Großbuchstaben sind schlechter als Kleinbuchstaben zu lesen

Querformat ist besser als Hochformat (auf Grund der Abmessungen der Ausga-

begeräte)

eine Seite sollte nicht zu viele Informationen beinhalten

ein Bild sagt mehr als 1000 Worte

Um nach einem Vortrag eine Diskussion zu beginnen, kann dieser noch einmal mit wenigen

Worten zusammengefasst werden.

Die Übertragung von Folien mittels einer Videokamera ist nicht zu empfehlen. Hier bietet sich

der Einsatz von speziellen Dokumentenkameras mit entsprechend hoher Bildauflösung an.

Für die Übertragung von Dokumenten und Folien steht der Standard H.239 zur Verfügung

(siehe auch Kapitel 6.1).

Page 58: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 10-1

10 Durchführung einer Videokonferenz

10.1 Einwahlmöglichkeiten

Beim Aufbau einer Videokonferenz unterscheidet man zwischen einer Punkt-zu-Punkt-

Verbindung und der Teilnahme an Mehrpunktkonferenzen. Für letzteres steht der Dienst

DFNVideoConference zur Verfügung.

Die einzelnen Einwahlmöglichkeiten werden am Beispiel des Software-Clients Polycom

RealPresence Desktop gezeigt. Für andere Videokonferenz-Systeme sind die entsprechen-

den Eingabemöglichkeiten gegebenenfalls nachzuschlagen.

10.1.1 Punkt-zu-Punkt-Verbindung

Eine Punkt-zu-Punkt-Verbindung ist eine Videokonferenz zwischen zwei VC-Geräten. Diese

Systeme müssen beidseitig dasselbe Protokoll beherrschen. Diese Voraussetzung erfüllen

die ITU-Standards H.323 oder auch H.320. Das sind im Allgemeinen VC-Geräte der Firmen

Cisco, Polycom, Avaya Scopia, LifeSize und Sony.

Der Aufbau der Videokonferenz erfolgt durch Eingabe und Anwahl der IP-Adresse des zu

rufenden VC-Gerätes (Abbildung 17). die vorab in Erfahrung gebracht werden muss.

Abbildung 17: Anruf über IP-Adresse

10.1.2 Mehrpunktkonferenzen

Eine Mehrpunktkonferenz startet automatisch, sobald sich das erste VC-Gerät mit der MCU

(Multipoint Control Unit) verbindet. Der Verbindungsaufbau geschieht über die sogenannte

Konferenznummer. Hierzu muss das VC-Gerät an einem Gatekeeper angemeldet sein, der

mit dem internationalen Gatekeeperverbund GDS verbunden ist. Alternativ kann sich ein

ISDN-fähiges VC-Gerät über ein ISDN-H.323-Gateway einwählen (vgl. Kapitel 3.3: Gateway

H.320 / H.323 im Dienst DFNVideoconference).

MCU-Rufe erfolgen durch die Verwendung von E.164-Aliasen. Beim Anruf werden sowohl

die entsprechende MCU als auch die gewünschte Konferenz-ID gerufen. Die Konferenz-ID

ist die Konferenz-Identifikation als eindeutige numerische Bezeichnung der Konferenz. Im

Falle der MCU des DFN ist das z.B. 004910097918168; Abbildung 18 und Abbildung 19.

Page 59: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 10-2

Abbildung 18: Einwahl in eine Mehrpunktkonferenz

Der erste Teil der Nummer (0049100) stellt dabei die Rufzone im Gatekeeperbereich dar.

Danach folgt die KonferenzID (97918168). Jeder Konferenzteilnehmer kann sich über diese

Wählfolge in die Konferenz einwählen, solange er in der Gatekeeperstruktur angemeldet ist.

Abbildung 19: Mehrpunktkonferenz mit 6 Teilnehmern

Teilnehmer mit einem ISDN-fähigen VC-Gerät können durch Nutzung eines ISDN-H.323-

Gateways ebenfalls an der Mehrpunktkonferenz teilnehmen, indem Sie die Gatewaynummer

gefolgt von der Konferenznummer wählen.

Für Teilnehmer, die keinen Gatekeeper zur Verfügung haben, gibt es die Einwahlmöglichkeit

über das sogenannte URI-Dialing. Die dafür verwendete Syntax ist geräteherstellerabhängig.

Page 60: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 10-3

Oftmals wird die Syntax [email protected] oder vc.dfn.de##KonferenzID verwendet.

Optional ist auch noch die Syntax [email protected] oder

mcu.vc.dfn.de##KonferenzID möglich. Gerätespezifische Hinweise finden Sie unter

http://vcc.zih.tu-dresden.de/index.php?linkid=1.1.3.4.

Eine weitere Möglichkeit, an einer Mehrpunktkonferenz teilzunehmen, stellt die Einwahl

mittels eines SIP fähigen VC-Gerätes dar oder mobile Clients unter Android/iOS. Hierfür

erfolgt die Einwahl in die Konferenz mit: [email protected] oder Konferen-

[email protected]. Eine Registrierung an einem SIP Proxy ist nicht notwendig (vgl. Kapitel

3.1.2).

Weiterhin gibt es noch die Möglichkeit, über die Weboberfläche der MCU weitere Teilnehmer

einzuladen. Dabei werden entweder die IP-Adressen oder die E.164-Nummern der VC-

Geräte angewählt und somit der Konferenz hinzugefügt. Mit der E.164-Nummer ist ein VC-

Gerät eindeutig einem Gatekeeper zugeordnet (siehe auch Kapitel 7.2).

10.2 Verhalten in der Videokonferenz

Ein echter Blickkontakt ist während einer Videokonferenz leider nicht möglich. Wenn man auf

den Monitor schaut, um den Partner zu sehen, hat dieser den Eindruck, dass man an ihm

vorbeischaut. Nur ein direkter Blick in die Kamera vermittelt das Gefühl, direkt in die Augen

des Gesprächspartners zu sehen, allerdings sieht man so den Partner selbst nicht mehr.

Dieses Dilemma lässt sich ein wenig beheben, indem die Kamera direkt über dem Video des

Partners auf dem Monitor platziert wird. Beim Sprechen sollte man in die Kamera schauen,

beim Zuhören auf das Videobild des Gegenübers. Dies ist zwar nur ein Kompromiss, jedoch

die beste Methode, um einen Blickkontakt zu simulieren.

Bei längeren Sprechpausen sollte das Mikrofon bei lauten Umgebungsgeräuschen abge-

schaltet werden, um nicht ständig alle Hintergrundgeräusche zu übertragen. Bei einer

sprachgesteuerten MCU kämen so Teilnehmer ins Bild, welche zwar nicht sprechen, aber

andere Geräusche verursachen (z.B. durch Verrücken des Stuhles). Durch das Ausschalten

des Mikrofons werden auch Echos vermieden, die bei Mehrpunktkonferenzen bisweilen

auftreten können. Das Ausschalten des Mikrofons sollte den Gegenseiten mitgeteilt werden,

weil diese sonst mit hoher Wahrscheinlichkeit eine technische Störung vermuten, wenn sich

die Gegenseite unterhält, aber nichts zu hören ist. Es ist günstig, etwas lauter als gewöhnlich

zu sprechen, aber keinesfalls muss man für eine ordnungsgemäße Kommunikation schreien.

Für mehr Beteiligung kann man sorgen, indem Fragen gestellt und andere mit in die

Diskussion eingebunden werden. Je mehr Leute teilnehmen, desto schneller gewöhnen sie

sich an diese Kommunikationsform.

Häufige und schnelle Bewegungen sind bei Verbindungen mit geringer Bandbreite zu

vermeiden. Auf Grund der eingeschränkten Video-Übertragungsrate dauert der Bildaufbau

beim Gesprächspartner sonst zu lange und beeinträchtigt den Verlauf der Videokonferenz

übermäßig.

Page 61: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 10-4

Wenn auf Dokumentenkamera oder Präsentationsmodus umgeschaltet wird, um Anschau-

ungsmaterial zu zeigen, darf nicht vergessen werden, dieses zurückzuschalten, wenn die

Diskussion fortgesetzt wird.

Die Sendung eines Standbildes sollte vorher angekündigt werden, da es sonst bei den

Gegenstellen zu Unklarheiten kommen kann.

Nach dem Ende der Konferenz sollte man sich vergewissern, dass die Verbindung auch

wirklich getrennt wurde.

Page 62: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 A-1

Anhang A: Die wichtigsten Standards der Audiokodierung

Standard Bandbreiten-

bedarf in kbps

Audioband-

breite in kHz Basis - Algorithmus

G.711 64 3,1 PCM (Pulse Code Modulation)

G.721 32 3.1 ADPCM (Adaptive PCM)

G.722 48, 56 oder 64 bis 7 SB-ADPCM (Sub Band ADPCM)

G.722.1 24 oder 32 bis 7 -

G.722.1C

(Siren 14) 24, 32 oder 48 bis 14 -

G.723 5,3 oder 6,3 5,3 MP-MLQ (Multipulse Maximum

Likelyhood Quantization)

G.726 16 oder 24 3 ADPCM (Adaptive PCM)

G.727 32 oder 40 3 ADPCM (Adaptive PCM)

G.728 16 2.4 - 3 LD-CELP (Low Delay Code Excited

Linear Prediction)

G.729 8 3 CS-ACELP (Conjugate Structure

Algebraic Code Excited Linear

Predictive)

AAC-LD 24, 48, 96 oder 128 11 MPEG4-AAC (MPEG4 Advanced

Audio Coding)

G.711

G.711 basiert auf dem Verfahren Audio PCM (Pulse Code Modulation). Es transformiert

ein analoges Audiosignal bei einer Abtastrate von 8 kHz kompressionsfrei in digitales

Signal mit einer Auflösung von 8 bit und einer Bandbreite von 64 kbps.

G.711 ist einfach zu implementieren und liefert Signale mit einer ausreichenden Qualität.

Allerdings eignet es sich aufgrund seiner hohen Bitrate von 64 kbit/s nicht für den Einsatz

über Verbindungen mit geringer Bandbreite sowie wegen des Mangels an Fehlererken-

nungs- oder Fehlerkorrekturmechanismen auch nicht für den Einsatz über störanfällige

Netze.

G.721

Eine Empfehlung der ITU-T, die definiert, wie eine 8 kHz Samplingrate mit Hilfe der

Adaptive Differential Pulse Code Modulation (ADPCM) in einen 32kbps-Datenstrom

gewandelt wird. Dabei wird der Unterschied zwischen benachbarten Signalen ausgewer-

tet und daraus eine Vorhersage für das nächste Signal generiert.

G.722

G.722 ist ein Audiocodec, welcher 1988 von der ITU verabschiedet wurde.

Page 63: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 A-2

Mittels einer Abtastrate von 16 kHz werden die Signale mit 14 bit quantisiert. Der Codec

umfaßt eine Bandbreite von 7 kHz und keinen Mechanismus zur Fehlerkorrektur.

Die Datenübertragungsrate kann in drei Modi geschehen:

- 48 kbps

- 56 kbps

- 64 kbps

Für diese Komprimierung wird ein Kodierer verwendet, welcher auf ADPCM aufbaut.

G.722.1

G.722.1 ist ein Audiocodec, welcher auf dem Verfahren der Firma Polycom Siren7 ba-

siert. Die Abtastrate beträgt 16 kHz bei einem Frequenzband von 7 kHz, welche mittels

24 oder 32 kbps übertragen werden.

Eine Übertragung mit 16 kpbs ist nicht implementiert.

Die Algorithmen bei G.722.1 und Siren7 sind identisch, aber das Datenformat ist unter-

schiedlich.

G.722.1C beschreibt die Variante mit 14 kHz Frequenzband, welche die monophone

Version von Siren14 darstellt.

G.722.2

G.722.2 ist ein komprimierendes Verfahren zur Audioübertragung, welches technisch von

G.722 grundsätzlich verschieden ist. Die Sprachkompression wird mittels des Verfahrens

AMR-WB (Adaptive Multirate Wideband) realisiert.

Das Verfahren hat eine Bandbreite von 7 kHz, neun wählbare Bitraten und Sprachpau-

senerkennung. Es wird von allen Mobilfunksystemen unterstützt und wird für VoIP und

Webkonferenzen eingesetzt.

G.723

Eine Empfehlung der ITU-T mit dem Titel 'Dual Rate Speech Coder for Multimedia Com-

munication Transmitting at 5.3 and 6.4 kbps'. Die Verzögerungszeit ist mit 67-97 ms

allerdings sehr hoch.

G.726/G.727

Zwei Empfehlungen der ITU-T auf Grundlage des ADPCM-Verfahrens für unterschiedli-

che Bandbreiten. Die Sprachqualität ist zwar besser als jene von G.711, aber schlechter

als bei allen anderen G.72x-Standards.

G.728

G.728 ist ein ITU-Standard, welcher zur Komprimierung von Sprache eingesetzt wird.

Sein Haupteinsatzgebiet liegt im Bereich von VoIP.

Page 64: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 A-3

Er zeichnet sich durch eine geringe Latenz aus. Sie wird durch eine Schätzfunktion er-

reicht, welche immer aktuell aus den letzten fünf Abtastwerten gebildet wird.

Er ist besonders bei geringen Bandbreiten sehr leistungsstark, was durch eine hohe

Komplexität erkauft wird. Die Qualität wird ebenbürtig zu G.726 und G.727 angesehen.

G.728 besitzt Strategien zum Verbergen von Rahmen- und Paketverlusten und ist sehr

stabil gegenüber Bitfehlern.

G.729

G.729 ist ein ITU-Standard, welcher in seiner Qualität mit G.723 vergleichbar ist. Er ist

ein sogenannter Regenbogenstandard, welcher in 12 verschiedenen Varianten (Stand:

26.03.2014) verfügbar ist. Für eine ordnungsgemäße Übertragung müssen beide Seiten

dieselbe Variante (Anhang, Annex) beherrschen.

Der Codec ist für die Übertragung der menschlichen Sprache optimiert, andere Geräu-

sche werden nur unzureichend verarbeitet. Da auch Sprachpausen unterdrückt werden,

muß im praktischen Einsatz zur Vermeidung von irrtümlich angenommenen Verbin-

dungsbeendigungen, ein sogenanntes Komfortrauschen erzeugt werden.

Der Standard kommt vorwiegend im Bereich VoIP zum Einsatz.

Page 65: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 B-1

Anhang B: Videonormen

Die Darstellung von Bildern als Video erfordert mehr als 15 Bilder pro Sekunde. Dann kann

das Auge es als Film wahrnehmen. Für die Farbinformationen sind für jeden Bildpunkt 24 Bit

notwendig. Kompressionsalgorithmen nutzen die Zusammenhänge der Pixel sowohl

innerhalb eines Bildes als auch zwischen den aufeinander folgenden Bildern. Dadurch

können mit der Komprimierung räumliche und zeitliche Redundanzen ausgenutzt werden.

H.261

H.261 war der erste digitale Standard für die Kodierung von bewegten Bildern. Er wurde

1988 von der ITU verabschiedet.

Der Standard bildet die Grundlage, um über ISDN-Leitungen Videokonferenzen betreiben zu

können. Die notwendige Reduktion der Bilddaten für die geringe Bandbreite wird mittels des

DPCM-Verfahrens durchgeführt.

Die maximale Verzögerungszeit für Kompression und Dekompression wird im Standard mit

150 ms definiert. Neben einigen anderen Mechanismen wird ein Vorhersagemodell für die

nachfolgende Bildsequenz durch Intra- und Predicted-Frames verwendet.

H.262

H.262 ist eine andere Bezeichnung für MPEG-2 Part 3. Er definiert einen Videocodec,

welcher vorrangig für die Kodierung von DVDs verwendet wird. Bei Videokonferenzen findet

er keine Anwendung.

H.263

H.263 ist ein ITU-Standard, welcher zur Videokodierung eingesetzt wird. Er ist eine Weiter-

entwicklung von H.261, wobei aber seine Kompressionsrate deutlich verbessert wurde.

H.263 ist für niedrige Datenübertragungsraten und Sequenzen mit relativ wenig Bewegung

optimiert.

Er fand Eingang in MPEG-4 Part 2.

H.264

H.264 ist die ITU-Bezeichnung für einen Videokompressionsalgorithmus, welcher zusammen

mit der MPEG entwickelt wurde. Der wortgleiche Standard heißt dort MPEG-4/AVC und ist

Part 10 von MPEG-4.

H.264 baut sowohl auf den Vorgängern der ITU (H.261,H.263) als auch der MPEG (MPEG-

1, MPEG-2) auf. Die deutliche Weiterentwicklung führt bei Videokonferenzen mit gleicher

Bildqualität zu einer Datenreduktion auf die Hälfte gegenüber H.263.

H.265

H.265 ist eine andere Bezeichnung für den Standard High Efficiency Video Coding (HEVC).

Er wurde gemeinsam durch die Moving Picture Experts Group (MPEG) und die International

Telecommunication Union (ITU) entwickelt.

Er besitzt eine im Vergleich zu H.264 doppelt so starke Kompression ohne Qualitätsverlust

und kann Bildgrößen zwischen 320x240 bis 8192x4320 darstellen.

Page 66: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 C-1

Anhang C: Übersicht über Videoformate

Mit dem Begriff Videoformat wird zusammenfassend die Spezifikation eines Videos hinsicht-

lich

seiner Bildauflösung

des Seitenverhältnisses

der Bildwiederholfrequenz

der Farbtiefe

beschrieben.

Bildauflösung

Die Bildauflösung gibt die Anzahl der Bildpunkte an. Sie wird in Höhe x Breite angege-

ben. Im Bereich der Videokonferenz gibt es Auflösungen mit eigenem Namen, welche

sich aus den ITU-Standards ableiten.

Bildformat Auflösung

(x,y) Übertragungs-

protokoll

Bitrate (Mbit/s) (unkomprimiert)

10 Bilder/s 30 Bilder/s

s/w Farbe s/w Farbe

8 Bit 24 Bit 8 Bit 24 Bit

SQCIF 128 96 - H.263 H.264 1,0 2,8 2,9 8,6

QCIF 176 144 H.261 H.263 H.264 2,0 6,0 5,9 17,8

1/4 NTSC 320 240 - - - 6,0 18,0 18,0 54,0

CIF 352 288 H.261 H.263 H.264 7,9 23,8 23,8 71,2

1/4 PAL 384 288 - - - 8,6 26,0 25,9 77,8

VGA / NTSC 640 480 - - - 24,0 72,0 72,0 216,0

4 CIF 704 576 - H.263 H.264 31,7 85,0 95,0 285,2

PAL 768 576 - - - 34,6 103,6 103,7 311,0

SVGA 800 600 - - H.264 38,4 115,2 115,2 345,6

XGA 1024 768 - - H.264 62,9 188,7 188,7 566,2

SXGA 1280 1024 - - H.264 104,9 314,6 314,6 943,7

WXGA (16:9) 1024 576 - - H.264 47,2 141,6 141,6 424,7

WXGA (8:5) 1280 800 - - H.264 81,9 245,8 245,8 737,3

UXGA 1600 1200 - - H.264 153,6 460,8 460,8 1382,4

QXGA 2048 1536 - - H.264 251,7 755,0 755,0 2264,9

720p 1280 720 - - H.264 73,7 221,2 221,2 663,6

16 CIF 1408 1152 - H.263 H.264 129,8 389,3 389,3 1167,9

1080p 1920 1080 - - H.264 165,9 497,7 497,7 1493,0

Tabelle 3: Videostandards

Im Übertragungsprotokoll H.264 sind nur maximale Obergrenzen für die Bildformate

definiert.

Page 67: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 C-2

Seitenverhältnis

Das Seitenverhältnis definiert die Anzahl der Bildpunkte in der Höhe zur Anzahl der Bild-

punkte in der Breite.Im praktischen Gebrauch haben sich in der IT-Technik die Varianten

4:3, 5:4, 16:9 und 16:10 durchgesetzt.

Eine Wiedergabe von abweichenden Formaten wird mittels Streckung oder Stauchung

des empfangenen Bildes realisiert. Das kann zu Informationsverlusten oder Bildverfäl-

schungen führen.

Die Standards wurden inzwischen durch weitere (nicht standardisierte) Varianten durch

die Industrie erweitert:

- Q - Quarter (ein Viertel)

- Q - Quad (das Vierfache)

- W- Wide (für Anzeigen im 16:9- und 16:10-Bereich)

- U - Ultra (für Anzeigen im 4:3-Bereich)

- H - Hex (das Sechzehnfache)

Alle Varianten, welche kleiner als VGA sind, werden momentan nur noch im Bereich von

Smartphones eingesetzt.

Bildwiederholfrequenz

Die Bildwiederholfrequenz gibt die Anzahl der Einzelbilder pro Sekunde an, die in dieser

Zeiteinheit wiedergegeben oder aufgenommen werden.

Sie wird in Hertz (Hz) oder auch Frames per Second (fps) angegeben. Bei mehr als 30

Bildern pro Sekunde nimmt das menschliche Auge diese als flüssige Abfolge wahr.

Farbtiefe

Die Farbtiefe kennzeichnet die Helligkeits- und Farbwerte eines Bildes. Die Angaben

werden zusammen mit dem Bild gespeichert.

Die Angabe der Farbtiefe wird in Bit vorgenommen. Am häufigsten wird der RGB-

Farbraum verwendet, wo die Farben Rot, Grün und Blau für die Mischung der resultie-

renden Anzeige verwendet werden. Bei 24 Bit Farbtiefe werden für jeden Kanal 8 Bit

verwendet, wodurch theoretisch 16.777.216 verschiedene Farben möglich sind.

Page 68: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 D-1

Anhang D: Einfluss von Paketverlusten auf die Videoqualität

Die folgenden Bilder wurden uns freundlicherweise von David Gutierrez und Tyrus Valascho

zur Verfügung gestellt. Beide sind Mitarbeiter der Stanford University im Electrical Enginee-

ring Department.

Sie untersuchten im Frühjahr 2001 den Einfluss von Paketverlusten auf die Qualität einer

Videokonferenz. Das Experiment wurde mittels des NISTNet-Emulators durchgeführt. Dieser

kann verschiedene Netzwerkparameter simulieren, z.B. Paketverluste, Verzögerungen,

Bildschwankungen und andere. Für diese Untersuchung wurde nur die Verlustrate verändert.

Die verwendete Videokonferenz-Software war Microsoft NetMeeting. Bei jedem Versuch

wurden Bewegungen simuliert, um die Qualität auch bei Bewegtbildern abschätzen zu

können.

1 % Paketverlust

2 % Paketverlust

Page 69: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 D-2

3 % Paketverlust

4 % Paketverlust

5 % Paketverlust

Page 70: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 D-3

6 % Paketverlust

7 % Paketverlust

8 % Paketverlust

Page 71: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 D-4

9 % Paketverlust

10 % Paketver-

lust

20 % Paketver-

lust

Page 72: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 D-5

50 % Paketver-

lust

Page 73: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 E-1

Anhang E: Questionnaire zur Vorbereitung einer Videokonferenz

Bei Videokonferenzen mit neuen Partnern müssen vorher (z.B. per E-Mail) einige Daten

ausgetauscht werden, die für die Durchführung aus technischer und organisatorischer Sicht

notwendig sind.

Das hier vorgestellte Formular soll Ihnen dabei helfen, keinen Punkt zu vergessen. Die in

kursiver Schrift gehaltenen Teile sind an die Gegebenheiten Ihrer Einrichtung anzupassen.

Allgemeine Angaben

Datum / Zeit in UTC-Notation (GMT) der geplanten Videokonferenz:

………………………………………………………………………………………............................

Ungefähre Dauer:

………………………………………………………………………………………............................

Die Einwahl in die Konferenz sollte etwa 15 Minuten vorher geschehen. Falls Fragen auftauchen, hilft Ihnen das VCC gern weiter.

Geplante Teilnehmer:

1) TU Dresden, Germany

2) .......................................................................................................................................................

3) .......................................................................................................................................................

4) .......................................................................................................................................................

etc.

Die Konferenz wird einen zweiten Kanal benötigen, um

(bitte das entsprechende Kästchen ankreuzen)

[ ] den Bildschirm eines Computers oder Laptops darzustellen

[ ] Bilder / Folien eines Vortrags / PowerPoint darzustellen

[ ] Video / bewegte Bilder darzustellen

[ ] Es wird nur Audio und Video benötigt.

Page 74: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 E-2

Ortspezifische Angaben

(Diesen Teil bitte an alle teilnehmenden Standorte verteilen und ausfüllen lassen.)

Ort: Videokonferenzraum an der TU Dresden

Name des Teilnehmers (falls mehr als eine Person an diesem Ort, bitte die leitende Person nennen):

………………………………………………………………………………………............................

E-Mail (der Person oberhalb):

………………………………………………………………………………………............................

Telefon (Büro):

………………………………………………………………………………………............................

Lokale Zeit zu der Konferenz geplant ist:

………………………………………………………………………………………............................

Technische Daten

Telefon im Konferenzraum:

………………………………………………………………………………………............................

Technische Koordination:

………………………………………………………………………………………............................

E-Mail (der Person oberhalb):

………………………………………………………………………………………............................

Telefon (Büro):

………………………………………………………………………………………............................

Das lokale Videokonferenzsystem kann Verbindungen einrichten:

[ ] über Telefon / ISDN / H.320

[ ] über Internet / IP / H.323

Das lokale Videokonferenzsystem nimmt eingehende Anrufe an:

[ ] ja

[ ] nein

Das lokale Videokonferenzsystem ist über IP-Adresse erreichbar

[ ] ja, die IP ist: ………………………………………………………………………

[ ] nein

Page 75: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 E-3

Das lokale Videokonferenzsystem kann E.164-Nummern nutzen (über GDS-konformen Gatekee-per):

[ ] ja, die zu wählende Folge ist ……………………………………………............................

[ ] nein

Die bevorzugte und maximale Bandbreite sind:

bevorzugt: ………………………………………………………………............................

maximal: ……………………………………...……………………............................

Falls ein zweiter Kanal gebraucht wird, ist die folgende Technik verfügbar:

[ ] VNC

[ ] H.239

[ ] es gibt keine Technik, um einen zweiten Bildkanal zu empfangen

Page 76: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 F-1

Anhang F: 10 Regeln für ein gelungenes Online-Meeting

1. Pünktlichkeit

Es sollte eigentlich selbstverständlich sein, zu einer Besprechung, pünktlich zu erscheinen.

Bei Online-Veranstaltungen ist es aber noch störender als sonst, wenn eine nicht sichtbare

äußere Lärmquelle bei den Gegenstellen zu hören und nicht zu sehen ist.

2. Anordnung der Teilnehmer

Die technisch vermittelte Kommunikation bringt es mit sich, dass die Gegenstellen nur das

sehen können, was der Sender zeigen will. Jedoch sollte der Eindruck nicht einsehbarer

Stellen vermieden werden, wenn dort aktive Teilnehmer des Online-Meetings sitzen. Für die

Gegenstellen ist es sehr irritierend und unter Umständen verringert sich zusätzlich auch die

Verständlichkeit des gesprochenen Wortes, wenn manche Stimmen aus dem Raum nur zu

hören sind.

3. Wahl der Kleidung

Bei Videokonferenzen wird die Qualität des übermittelten Bildes von der Leistungsfähigkeit

der Systeme festgelegt. Das gilt natürlich auch für die Kleidung der Teilnehmer. Nadelstrei-

fen kommen als solche nicht auf der Gegenstelle an, Farben können verfälscht werden und

Karos neigen zu Moiré-Mustern im Bild der Gegenstelle.

4. Vermeidung von Nebengeräuschen

Die für Videokonferenzen eingesetzten Mikrofone nehmen unbestechlich jeden Ton auf. Was

unser Gehirn als unwichtig wegfiltert, wird von der Technik präzise übertragen. Hier klappert

ein Löffel in der Tasse, da wird der Stuhl gerückt und dort wird mit Papier geraschelt. Alle

diese Geräusche kommen gut hörbar auf der Gegenseite an. Sie beeinträchtigen die

Konzentration genauso wie andere externe Störungen, die man prinzipiell so gut es geht

vermeiden sollte.

5. Klare Aussprache

Bei Videokonferenzen sind die Rückmeldungen technisch bedingt zeitversetzt. Es ist

erwiesen, dass die Qualität des Audiokanals über den Erfolg eines virtuellen Meetings

entscheidet. Eine undeutliche oder genuschelte Botschaft führt zu einer Reihe von Rückfra-

gen und Unterbrechungen, denen man von vornherein durch eine klare und deutliche

Aussprache begegnen kann.

6. Moderator festlegen

Virtuelle Treffen neigen ohne Moderator leicht dazu, in einzelne, örtlich getrennte Diskussi-

onsrunden abzugleiten. Deshalb sollte jemand die Leitung der Sitzung übernehmen, der

aktiv das Handeln aller führt.

7. Die eigenen Reaktionen

In einem Gespräch vor Ort können wir sehr schnell entscheiden, ob der Partner nur eine

Sprechpause macht oder ob er seine Rede beendet hat. Bei einem Online-Meeting kann

Page 77: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 F-2

man diesen Unterschied nicht sofort erkennen, weil die Unterbrechung des Audios auch eine

Übertragungsverzögerung sein kann. Es muss also bewusst darauf geachtet werden, dass

die spontane Antwort auf eine Rede nicht unmittelbar erfolgt. Die Konzentration auf das

Gegenüber beim Antworten ist letztlich auch einer der Gründe dafür, warum Videokonferen-

zen anstrengender als normale Unterhaltungen sind.

8. Keine plötzlichen Änderungen vornehmen

Eine ruhig ablaufende Videokonferenz ist eine gelungene Videokonferenz! Sowohl hektische

Bewegungen als auch plötzliche Änderungen der Tagesordnung führen auf der Gegenseite

zu Irritationen.

9. Sachliche Atmosphäre wahren

Witze funktionieren in einer Videokonferenz nur sehr eingeschränkt. Erstens kann es zu

Übertragungsfehlern kommen, zweitens könnte Bild und Ton nicht völlig synchron sein und

drittens kann der zum Verständnis notwendige Kontext an der Gegenstelle fehlen.

10. Stummtaste nutzen

Bei längeren Online-Treffen rückt die virtuelle Präsenz der anderen Stellen im eigenen

Bewusstsein manchmal in den Hintergrund. Die Konzentration lässt nach, die physische

Anwesenheit aller Teilnehmer ist nicht gegeben, also kann man seinen Äußerungen freien

Lauf lassen. Man sollte sich jedoch vorher vergewissern, dass die Stummschaltung des

eigenen Mikrofons tatsächlich benutzt wurde.

Page 78: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 G-1

Glossar

0-9

1080 Zeilen in progressiver Vollbildabtastung

Wird auch als Full-HD bezeichnet. Es handelt sich um 1080 vertikale Linien mit 1920

horizontalen Bildpunkten. Das 'p' bei 1080p steht für progressive scan. Im Unterschied zur

klassischen Fernseh-Abtastung mit Zeilensprung und Zwischenzeilen (i - Interlacing) wird

hier wie bei Computerdisplays mit Vollbilddarstellung gearbeitet. In der Computertechnik

wird aber eine Bildwiederholfrequenz von mindestens 60 Hz eingesetzt. In der Videotech-

nik wird die Vollbildfrequenz derzeit noch halbiert bei 23,9 / 24 Hz für Film, 25 Hz für PAL

und 29,9 / 30 Hz für NTSC und kompatible Systeme. Auch enthält 1080p keine Aussage

über quadratische oder nicht-quadratische Pixel oder das Bild-Seitenverhältnis von stan-

dardmäßig (SD) 4:3 bis zu High Definition HD 16:9. Mit der Angabe von 1080p alleine ist

deshalb keine wirkliche Aussage über die Videoqualität möglich. Eine Spezifikation von

1920 x 1080p mit quadratischen Pixeln und 60 Hz Vollbildfrequenz ist schon eindeutiger.

A

A-Law-Verfahren (Pulse Code Modulation)

A-Law ist ein Kodierungsverfahren für Audiosignale, welches in der Empfehlung G.711

der ITU-T standardisiert wurde. Es wird hauptsächlich in Europa verwendet und entspricht

im Ansatz dem µ-Law-Verfahren. Die Unterschiede sind dabei in geringfügig anderen

Quantisierungsstufen zu finden. Bei geringen Eingangspegeln weist diese Kompression

eine hohe Dynamik auf und dementsprechend bei hohen Eingangspegeln eine geringe

Dynamik. Im Ergebnis wird bei niedriger Lautstärke das Rauschen reduziert.

AAC-LD

AAC-LD ist ein speziell mit geringer Verzögerung von 20 ms aus MPEG-4 AAC (Advan-

ced Audio Coding) abgeleitetes Verfahren für die Übertragung von Sprache. Die Qualität

der Übertragung steigt im Gegensatz zu G.7xx-Standards mit dem Einsatz einer höheren

Bandbreite.

ADPCM - Adaptive Differential Pulse Code Modulation

ADPCM ist ein Verfahren für Audiosignale, welches in einer Reihe von Audio-

Empfehlungen der ITU-T standardisiert wurde (G.721, G.722, G.725, G.726, G.727). Im

Standard G.721 wird für die Übertragung ein Bereich bis zu 4kHz, in den Standards G.722

und G.725 werden bis zu 7 kHz verwendet.

ADPCM ist eine Sonderform der Pulse Code Modulation (PCM), welche versucht, den

Signalverlauf im nächsten Abschnitt vorherzusagen. Bei der Quantisierung wird nur die

Differenz zwischen dem vorhergesagten und dem realen Signal berechnet. Die Differenz

Page 79: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 G-2

kann mit 2-5 Bits übertragen werden, wodurch eine schmale Bandbreite zur Übertragung

ausreichend ist. Die Ausgangsdatenrate kann bei ADPCM dynamisch zwischen 16 kbps

und 64 kbps angepasst werden.

ARP - Address resolution protocol

Das ARP (address resolution protocol) ist Teil der TCP/IP-Protokollsuite, welches IP-

Adressen in Netzwerkkarten-Adressen (MAC-Adressen) umsetzt.

Aspect ratio - Seitenverhältnis

Aspect ratio ist das Seitenverhältnis der Breite zur Höhe, in dem ein Video wiedergegeben

wird. Der Standard bei Fernsehgeräten (egal ob PAL, SECAM oder NTSC) und Monitoren

ist 4:3, wobei sich das Format 16:9 immer weiter durchsetzt. Im Kino ist 16:9 der Standard

und auch HDTV setzt auf 16:9.

Auflösung - Anzahl der Bildpunkte in einem Raster

Als Auflösung versteht man die Anzahl von Bildpunkten, sogenannten Pixel, in einem

Raster. Die Angabe der Bildpunkte erfolgt in Breite x Höhe. Die Qualität eines Bildes wird

durch die Auflösung bestimmt. Je höher die Anzahl der Bildpunkte, desto höher der De-

tailgrad eines Bildes.

Die Auflösung wird in eine relative und in eine absolute Auflösung unterteilt. Die relative

Auflösung beschreibt die Anzahl der Bildpunkte im Verhältnis zu einer physikalischen

Längeneinheit, z.B. dpi (dots per inch). Die absolute Auflösung wird nochmals in zwei

Varianten geteilt: a) Die absolute Anzahl der Bildpunkte (z.B. die Einheit Megapixel bei

Digitalkameras) b) Die Anzahl von Pixel pro Spalte und Zeile (z.B. bei Monitoren).

Auto Attendant - Automatisches Dialogsystem

Ein Auto Attendant - System hilft dem Anrufer vorzugsweise im Bereich der Telefonie

mittels halb- oder vollautomatischer Dialogsysteme sich an die richtige Stelle verbinden zu

lassen.

Autofokus

Autofokus ist die Fähigkeit eines optischen Gerätes, automatisch die Bildschärfe des

ausgewählten Motivs einzustellen. Es wird zwischen einem aktiven und einem passiven

Autofokus unterschieden. Der passive Autofokus benötigt genügend Kontraste und das

reflektierte Licht des Motivs. Der aktive Autofokus funktioniert demgegenüber auch bei

absoluter Dunkelheit durch den Einsatz von Ultraschallwellen oder direkter Objektbe-

leuchtung.

B

BFCP

BFCP (Binary Floor Control Protocol) ist ein Protokoll, welches den Zugriff auf geteilte

Ressourcen erlaubt. Innerhalb von SIP-gestützten Konferenzen wird es für die Übertra-

gung von Datenpräsentationen im zweiten Kanal genutzt.

Page 80: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 G-3

BLC - Back Light Compensation, Gegen-Licht-Kompensation

Bei Gegenlicht innerhalb einer Videoaufnahme kann es bei den darin befindlichen Objek-

ten zu starken Überstrahlungen oder Schattenbildungen kommen. Beispielsweise sind

Gesichter vor Fenstern oder Lichtquellen im abgeblendeten Bereich zu dunkel und

dadurch nicht optimal zu erkennen. Bei guten Aufnahmesystemen können deshalb Funk-

tionen zur Unterdrückung von Gegenlicht zugeschaltet werden. Sie erhellen abgeschatte-

te Bereiche im begrenzten Umfang, so dass diese wieder besser erkennbar sind.

Bluetooth

Bluetooth ist eine Funkverbindung zwischen Geräten über eine kurze Distanz, welche das

Kabel ersetzt. Geräte, die über diese Schnittstelle miteinander kommunizieren können,

sind Handys, Laptops, PDAs oder andere Peripheriegeräte mit einer entsprechenden

Schnittstelle. Die Datenübertragungsrate liegt zwischen 732,2 kbps und 2,1 Mbps.

C

CCD - Charge Coupled Device (ladungsgekoppeltes Bauteil)

CCD sind sogenannte Bildwandler, welche Licht in Elektronen umwandeln. Die Elektronen

werden dabei an den Rand des Chips transportiert und dort in elektrische Spannung

umgewandelt. CCD-Sensoren finden sich hauptsächlich als Bildsensor in digitalen Foto-

apparaten, Scannern und Videokameras. Die Anordnung wird in ein- oder zweidimensio-

nalen Arrays vorgenommen. Die Vorteile dieser Technologie liegen u.a. in der guten

Helligkeitsmessung. CCD erlauben aber auch die direkte Implementation von aufwändi-

gen Bildbearbeitungsmethoden.

Sie ersetzen immer mehr die frühere CMOS-Technologie.

CELP - Code Excited Linear Prediction

CELP ist ein Verfahren, welches auf LPC aufbaut. Es benutzt eine feste Datenrate von

4,8 kbps.

Der CELP-Coder arbeitet wie ein LPC-Coder. Zusätzlich berechnet er aber die Fehler

zwischen dem Original und dem synthetischen Modell. Die Fehler werden mittels eines

Codeaustauschs zwischen Coder und Encoder übermittelt. Alle Fehlercodes sind in einem

sogenannten „Codebuch“ auf beiden Seiten gleichermaßen definiert. Durch diesen etwa

eine Größenordnung höheren Aufwand als im LPC-Verfahren wird eine wesentlich besse-

re Sprachqualität erreicht.

CELP ging in Teil 3 des MPEG-4-Standards der ISO ein. Eine Variante mit sehr geringer

Signalverzögerung von unter 2 ms („low-delay CELP“) ist Grundlage des ITU-T Audio-

standards G.728.

Chromasignal - Farbanteil eines Videobildes

Das Chromasignal wird umgangssprachlich oft Chrominanz genannt. Es bestimmt den

kompletten Farbanteil des Videosignals durch Angabe des Farbtons, der Farbhelligkeit

und der Farbsättigung.

Page 81: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 G-4

Chrominanz - Farbeindruck eines Videobildes

Das Chrominanzsignal bestimmt den Farbeindruck eines Videobildes. Sie wird immer

zusammen mit der Helligkeitsinformation Luminanz übertragen. Beide Signale zusammen

liefern damit alle nötigen Informationen für ein farbiges Videobild. Ein Chrominanzsignal

besteht aus zwei Farbkomponenten, dem Farbton und der Farbsättigung. Das Chromi-

nanzsignal wird auch Farbartsignal genannt.

CIF - Common Intermediate Format

Einfaches Zwischenformat oder allgemeines Austauschformat für Videoanwendungen im

Seitenverhältnis von 4:3 mit nicht-quadratischen Pixeln. Es wurde im Standard H.261 der

ITU-T zur Lösung der Kompatibilitätsprobleme zwischen NTSC und PAL eingeführt. Es

kommen vorzugsweise 352x288 Bildpunkte mit einer Farbunterabtastung von 4:1:1 und

30 Bildern pro Sekunde zum Einsatz. Davon abgeleitet sind Formate wie 4CIF mit je

doppelter Breite und Höhe bis hin zu 16CIF mit je vierfacher Breite und Höhe vom ur-

sprünglichen CIF.

Cinch - Steckverbindung zur Übertragung elektrischer Signale

Cinch (in den USA 'RCA jack' genannt) bezeichnet eine ungenormte Steckverbindung, mit

welcher elektrische Signale übertragen werden können. Diese Stecker werden im Video-

und Audiobereich genutzt. Cinchstecker haben den Nachteil einer hohen Störanfälligkeit.

Codec

Ein Codec (Kodierer/Dekodierer) kann sowohl als Hardware- als auch als Softwarelösung

realisiert sein.

Viele Desktopvideokonferenzsysteme verwenden Hardware-Codecs, die auf den entspre-

chenden Einsteckkarten als eigene Chips realisiert sind. Für diese wird immer zumindest

eine Steckkarte (ISA, PCI oder PCIe) benötigt, an welche die Videokamera, die Audioein-

heit und auch das ISDN S0-Kabel angesteckt werden. Die Steckkarte übernimmt die

Aufgabe des Kodierens und Dekodierens der ein- und ausgehenden Medienströme.

Bei Desktopsystemen, welche per USB an den PC angeschlossen werden, wird die

Kodierung im Gerät selbst durchgeführt, die Dekodierung findet mittels des Prozessors im

PC statt.

Im Gegensatz zu Software-Codecs, bei denen der Prozessor des Computers die kom-

plette Arbeit der Bild- und Audiokompression und –dekompression (bis Faktor 1:1000)

sowie die Kodierung des Signals in den entsprechenden Standard (H.320/H.323) über-

nehmen muss, wird durch einen solchen Lösungsansatz die Leistung des Rechners nicht

in Anspruch genommen (von der normalen Ansteuerung der Grafikkarte durch den Com-

puter abgesehen), und die Minimal-Hardwareanforderungen an den Computer halten sich

in Grenzen.

Gewöhnlich können bestehende Rechnerinstallationen ohne weitere Aufrüstung weiter-

verwendet werden. Durch den Hardware-Codec ist garantiert, dass auch während einer

Videokonferenz ohne Leistungseinbußen am System (auch gemeinsam mit dem Ge-

sprächspartner) weitergearbeitet werden kann.

Page 82: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 G-5

CoS - Class of Service

Mit Hilfe der 'Class of Service'-Technologie kann der Datenverkehr in Netzwerken mittels

Priorisierung geregelt werden. CoS regelt im Gegensatz zu 'Quality of Service' nicht die

Dienstgüte sondern nur die Priorität des Datentransfers. Dies geschieht mittels einer

Gruppe von Verfahren, welche im Standard IEEE 802.1p geregelt sind.

D

Datenübertragungsrate

Die Datenübertragungsrate gibt die digitale Datenmenge an, welche innerhalb einer

bestimmten Zeiteinheit über ein Übertragungsmedium transportiert wird.

Desktop - System

Desktop-Systeme sind Videokonferenzlösungen, welche die Durchführung einer Video-

konferenz direkt vom Arbeitsplatz aus ermöglichen. Im Gegensatz zu Office-Systemen

sind sie keine integrierte Lösung aller notwendigen Bestandteile, sondern werden als

zusätzliche Software auf dem zugrundeliegenden System installiert. Sie sind ohne Com-

puter nicht allein lauffähig.

DHCP

DHCP (dynamic host configuration protocol) ist ein Anwendungsprotokoll der TCP/IP-

Protokollfamilie, welches in der RFC 1541 die automatische Konfiguration (z.B. IP-

Adresse und Netzmaske) von Endsystemen erlaubt.

Dienstgüte

Siehe QoS - Quality of Service

DNS - Domain Name System

Das Domain Name System stellt die Verbindung zwischen der IP-Adresse und dem

Hostnamen des Gerätes her. Es ist damit einer der wichtigsten Dienste des Internets, weil

mittels des DNS der komplette Namensraum verwaltet wird. Bei diesem Dienst handelt es

sich um einen hierarchisch aufgebauten Dienst.

DPCM - Differential Pulse Code Modulation

DPCM ist ein Verfahren zur Umwandlung von zeitlich diskreten Signalen in digitale Signa-

le. Es ist eine Erweiterung von PCM und die Vorstufe von ADPCM.

Es ist besonders geeignet für aufeinanderfolgende Signale, die eine hohe Korrelation

beinhalten. Das ist bei digitalen Audiosignalen der Fall, die dadurch mit hoher Datenkom-

primierung gewandelt werden können.

Duplex - Vollduplex/ Halbduplex

Vollduplex ist eine Kommunikationsmethode, bei die Partner gleichzeitig Daten senden

und empfangen können. Demgegenüber steht Halbduplex, bei welcher die Partner immer

nur abwechselnd Daten senden können. Der Ethernet-Standard IEEE 802.3 mit Koaxial-

Page 83: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 G-6

kabel als physikalischem Übertragungsmedium sah nur Halbduplex vor. Mit Einführung

der Twisted Pair-Kabel und dem Einsatz aktiver Netzkomponenten setzt sich aber überall

Vollduplex durch.

DVI - Digital Visual Interface

DVI ist eine Schnittstelle zur Übertragung digitaler Videoströme mit einer maximalen

Übertragungsrate von 1,65 Gbit/s.

Es existieren 3 DVI-Varianten, welche sich jeweils noch zusätzlich in der maximalen

Auflösung mit 1600 x 1200 (Single-Link) und 2048 x 1536 (Dual-Link) unterscheiden.

DVI-I (dabei steht das I für 'integrated' - also sowohl analog und digital), gibt es als Single-

Link mit 18 + 5 Pins und Dual-Link mit 24 + 5 Pins.

DVI-D (das D steht für nur digital) gibt es auch als Single-Link mit 18 + 1 Pins und Dual-

Link mit 24 + 1 Pins. Es gibt auch noch DVI-D mit 12 + 1 Pins, welches aber keine DDC-

Daten überträgt und auch nur sehr selten zur Anwendung kommt.

DVI-A (das A steht für nur analog) kommt fast gar nicht zum Einsatz.

E

E.164

Die Richtlinie E.164 der ITU-T beschreibt die Reglen für die internationale Verbindung der

nationalen Telefonnetze (numbering plan for the isdn era). In E.164 ist festgelegt, aus

welchen Bestandteilen eine Telefonnummer besteht und wie viele Stellen sie enthalten

darf. Sie definiert gleichzeitig die internationalen Vorwahlen (wie z.B. 43 für Österreich, 49

für Deutschland und 41 für die Schweiz). Mittels E.164 können Telefonnummern weltweit

eindeutig vergeben werden. Dieser Standard wurde inzwischen für zahlreiche andere

Bereiche übernommen.

EC - Echo Cancelling, Nachhall-Unterdrückung

Bei Videokonferenzen befinden sich Lautsprecher und Mikrofone in einem Raum.

Dadurch kann eine Rückkopplung und ein daraus resultierendes Echo auftreten. Im

ungünstigsten Fall kommt noch eine Verstärker-Rückkopplung hinzu, so dass die Audio-

signale und Frequenzen immer lauter werden und auch zur Zerstörung der Technik führen

können. Eine wahlweise aktivierbare oder automatische Echo-Unterdrückung dämpft

Echo-Rückkopplungen über Lautsprecher sowie Mikro und schont Gehör und Technik.

ePTZ - Electronic Pan-Tilt-Zoom

Bei elektronischen PTZ-Kameras wird weitestgehend auf mechanisch bewegliche Teile

innerhalb der Kamera verzichtet. Dadurch entsteht kein Verschleiß. Außerdem bieten

elektronische PTZ-Kameras den Vorteil, dass sie die volle HD-Auflösung als Ausgangs-

signal anbieten und dadurch die Qualität der Bilder deutlich besser ist.

Page 84: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 G-7

F

Firewall

Firewalls sind Systeme, die als Soft- oder Hardware realisiert werden und Rechner oder

ganze Teilnetze vor unerwünschten Zugriffen von außen schützen sollen.

Firewalls verursachen in H.323-Umgebungen immer Probleme. Sie sind oftmals mit NAT

gekoppelt, dürfen aber nicht mit diesem Problemfeld verwechselt werden.

H.323 beschreibt die Art und Weise, wie Systeme miteinander kommunizieren können.

Dazu werden in Echtzeit während der Verbindungsaufnahme TCP- und UDP-Ports im

Bereich 1024-65535 ausgehandelt. Die TCP-Ports sind für die Verbindungsaufnahme, die

UDP-Ports für die Medienströme vorgesehen.

Diese Ports sind bei einer Verbindung zwischen zwei Systemen zu unterschiedlichen

Zeiten immer verschieden. Firewalls können aus diesem Grund nicht statisch auf be-

stimmte Ports eingestellt werden. Sie müssen auf dynamische Verfahren ('stateful inspec-

tion') zurückgreifen.

Typisches Anzeichen einer gut arbeitenden Firewall ist der teilweise Ausfall von Medien-

strömen in einer H.323-Verbindung. Die Verbindung (TCP) kann aufgebaut werden, aber

die ankommenden Medienströme (UDP) werden geblockt.

FireWire oder auch IEEE 1394

FireWire ist eine von Apple entwickelte digitale Schnittstelle zum Austausch von Daten.

Bis 2008 gab es zwei Varianten von FireWire: IEEE 1394a mit einer Übertragungsrate von

100, 200, oder 400 MBit/s und IEEE 1394b mit einer Übertragungsrate von 800 MBit/s. Im

Oktober 2008 wurde eine vollständige Überarbeitung des Standards unter der Bezeich-

nung IEEE 1394-2008 veröffentlicht, welche die bisherigen Standards zusammenführt und

Übertragungsraten von bis zu 3,2 Gbit/s ermöglicht. Der Hauptverwendungszweck von

FireWire ist die Übertragung von Mediendaten wie digitale Videos (DV-Camcorder) oder

Bildern. Durch die schnelle Datenübertragung und die Möglichkeit externe Geräte mit 1,5

A zu versorgen, wird FireWire aber auch zum Datenaustausch mit Massenspeichern

genutzt. Sony nennt diese Technologie i.LINK.

fps - Frames per Second, Bildwiederholfrequenz in Hz

Die Angabe der Bildwiederholfrequenz bezeichnet die Anzahl der gesendeten oder auf-

genommenen Einzelbilder pro Sekunde. Die Bildrate kann sich auf Halbbilder (interlaced -

i) oder Vollbilder (progressive - p) pro Sekunde beziehen. Bei Videoaufnahmen kommen

derzeit 23,9 bis 60 fps oder Hz zum Einsatz, während im PC Bereich oder bei modernen

großformatigen Displays mindestens 60 Hz bis 120 Hz in der Bildwiedergabe genutzt

werden. Für den Menschen reichen 25 fps um eine flüssige und natürlich wirkende Bewe-

gung darzustellen.

Page 85: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 G-8

G

G.711

G.711 basiert auf dem Verfahren Audio PCM (Pulse Code Modulation). Es transformiert

ein analoges Audiosignal bei einer Abtastrate von 8 kHz kompressionsfrei in ein digitales

Signal mit einer Auflösung von 8 bit und einer Bandbreite von 64 kbps.

G.711 ist einfach zu implementieren und liefert Signale mit einer ausreichenden Qualität.

Allerdings eignet es sich aufgrund seiner hohen Bitrate von 64 kbps nicht für den Einsatz

über Verbindungen mit geringer Bandbreite sowie wegen des Mangels an Fehlererken-

nungs- oder Fehlerkorrekturmechanismen auch nicht für den Einsatz über störanfällige

Netze.

G.721

Eine Empfehlung der ITU-T, die definiert, wie eine 8 kHz Samplingrate mit Hilfe der Adap-

tive Differential Pulse Code Modulation (ADPCM) in einen 32kbps-Datenstrom gewandelt

wird. Dabei wird der Unterschied zwischen benachbarten Signalen ausgewertet und

daraus eine Vorhersage für das nächste Signal generiert.

G.722

G.722 ist ein Audiocodec, welcher 1988 von der ITU verabschiedet wurde.

Mittels einer Abtastrate von 16 kHz werden die Signale mit 14 bit quantisiert. Der Codec

umfasst eine Bandbreite von 7 kHz und keinen Mechanismus zur Fehlerkorrektur.

Die Datenübertragungsrate kann in drei Modi geschehen:

- 48 kbps

- 56 kbps

- 64 kbps

Für diese Komprimierung wird ein Kodierer verwendet, welcher auf ADPCM aufbaut.

G.722.1

G.722.1 ist ein Audiocodec, welcher auf dem Verfahren Siren7 der Firma Polycom basiert.

Die Abtastrate beträgt 16 kHz bei einem Frequenzband von 7 kHz, welche mittels 24 oder

32 kbps übertragen werden. Eine Übertragung mit 16 kpbs ist nicht implementiert.

Die Algorithmen bei G.722.1 und Siren7 sind identisch, aber das Datenformat ist unter-

schiedlich.

G.722.1C beschreibt die Variante mit 14 kHz Frequenzband, welche die monophone

Version von Siren14 darstellt.

G.722.2

G.722.2 ist ein komprimierendes Verfahren zur Audioübertragung, welches technisch von

G.722 grundsätzlich verschieden ist. Die Sprachkompression wird mittels des Verfahrens

AMR-WB (Adaptive Multirate Wideband) realisiert.

Das Verfahren hat eine Bandbreite von 7 kHz, neun wählbare Bitraten und Sprachpau-

Page 86: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 G-9

senerkennung. Es wird von allen Mobilfunksystemen unterstützt und wird für VoIP und

Webkonferenzen eingesetzt.

G.723

Eine Empfehlung der ITU-T mit dem Titel 'Dual Rate Speech Coder for Multimedia Com-

munication Transmitting at 5.3 and 6.4 kbps'. Die Verzögerungszeit ist mit 67-97 ms

allerdings sehr hoch.

G.726/G.727

Zwei Empfehlungen der ITU-T auf Grundlage des ADPCM-Verfahrens für unterschiedli-

che Bandbreiten. Die Sprachqualität ist zwar besser als jene von G.711, aber schlechter

als bei allen anderen G.72x-Standards.

G.728

G.728 ist ein ITU-Standard, welcher zur Komprimierung von Sprache eingesetzt wird.

Sein Haupteinsatzgebiet liegt im Bereich von VoIP.

Er zeichnet sich durch eine geringe Latenz aus. Sie wird durch eine Schätzfunktion er-

reicht, welche immer aktuell aus den letzten fünf Abtastwerten gebildet wird.

Er ist besonders bei geringen Bandbreiten sehr leistungsstark, was durch eine hohe

Komplexität erkauft wird. Die Qualität wird ebenbürtig zu G.726 und G.727 angesehen.

G.728 besitzt Strategien zum Verbergen von Rahmen- und Paketverlusten und ist sehr

stabil gegenüber Bitfehlern.

G.729

G.729 ist ein ITU-Standard, welcher in seiner Qualität mit G.723 vergleichbar ist. Er ist ein

sogenannter Regenbogenstandard, welcher in 11 verschiedenen Varianten (Stand:

13.08.2013) verfügbar ist. Für eine ordnungsgemäße Übertragung müssen beide Seiten

dieselbe Variante (Anhang, Annex) beherrschen.

Der Codec ist für die Übertragung der menschlichen Sprache optimiert, andere Geräu-

sche werden nur unzureichend verarbeitet. Da auch Sprachpausen unterdrückt werden,

muss im praktischen Einsatz zur Vermeidung von irrtümlich angenommenen Verbin-

dungsbeendigungen ein sogenanntes Komfortrauschen erzeugt werden.

Der Standard kommt vorwiegend im Bereich VoIP zum Einsatz.

Gatekeeper

Ein Gatekeeper ist eine logische Komponente des H.323-Standards, die sowohl als

Windows-oder UNIX-Software, als Router-Option, als Teil einer MCU oder eines Gate-

ways implementiert sein kann. Ohne einen Gatekeeper findet die Kommunikation zwi-

schen den Videokonferenzendgeräten direkt statt (stand-alone). Bei Vorhandensein eines

Gatekeepers müssen sich die anderen logischen Komponenten des H.323-Standards

(Terminals/Endgeräte, MCU) bei ihm registrieren. Er bildet dann mit diesen eine gemein-

same Zone und ist die zentrale Komponente für die Vermittlung des Verbindungsaufbaus,

der Authentifizierung und die Adressauflösung von E.164-Aliassen.

Page 87: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 G-10

Gateway

Ein Gateway verbindet unterschiedliche Netze miteinander und ist über die OSI-Schichten

4-7 realisiert. Bei Videokonferenzen dienen Gateways zur Konvertierung der Medienströ-

me nach H.320 in Medienströme nach H.323 und umgekehrt. Sie übernehmen die Ad-

resseninterpretation, Routenwahl, Fehlerbehandlung und Flusssteuerung. Wenn unter-

schiedliche Framegrößen in den beteiligten Netzen vorliegen, fragmentieren und reas-

semblieren sie zusätzlich die Nachrichten- oder Paketlängen.

GDS - Global Dial Scheme

Das Global Dial Scheme ist ein Nummernplan, welcher im Bereich H.323 und VoIP jedem

System eine weltweit eindeutige Nummer zuordnet. Sie besteht immer aus vier Teilen:

IAC: International Access Code

Er ist 00.

CC: Country Code

Die ITU hat jedem Land einen Country Code zugeordnet. Für Deutschland ist dieser 49.

OP: Organisational Prefix

Die nationalen Organisationen können hier für ihre Systeme eindeutige Nummernpläne

erstellen. Der DFN-Gatekeeper hat z.B. die 100.

EN: Endpoint Number

Hier wird die Nummer des Systems definiert. Die MCU im Dienst DFNVideoConference

besitzt die 979.

So ergibt sich in Aneinanderreihung der Teile für die MCU die weltweit eindeutige GDS-

Nummer:

00 49 100 979

Beim Wählen müssen die Leerzeichen weggelassen werden.

(Stand: 17.06.2013)

GOP - Group of Pictures

Bei einer Group of Pictures handelt es sich um eine Gruppe von aufeinanderfolgenden

Bildern (Frames) in einem Video. Ein MPEG-codiertes Video besteht aus aufeinanderfol-

genden GOPs. Diese lassen sich weiter in MPEG-Bilder aufschlüsseln, welche die sicht-

baren Einzelbilder darstellen.

GSM - Global System for Mobile Communications

Bei GSM handelt es sich um einen volldigitalen Standard für Mobilfunknetze, in welchem

sowohl Telefonie, Kurznachrichtendienst (SMS) als auch paketvermittelnde Datenübertra-

gung zur Verfügung steht. Der Nutzer von GSM bewegt sich in sogenannten Funkzellen.

Durch diese Zellen wird die Mobilität für Mobiltelefone gewährleistet. Wenn man eine

Page 88: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 G-11

Funkzelle verlässt, wird man zur nächsten übergeben. Ziel von GSM ist es, europaweit

ein Mobilfunknetz zur Verfügung zu stellen, welches mit ISDN und auch mit analogen

Telefonnetzen kompatibel ist.

H

H.239

Der Standard beschreibt im Bereich H.323. einen zweiten Medienstrom (Video, Audio

oder Daten), der von den Herstellern unter verschiedenen Namen (z.B. Polycom: Peop-

le+Content, Cisco/Tandberg: DuoVideo, Sony: Dual Video) in erster Linie für die Übertra-

gung von Präsentationen genutzt wird. Es ist nur Application Showing und kein Applicati-

on Sharing, da kein beiderseitiger Zugriff auf die Daten möglich ist.

H.261

H.261 war der erste digitale Standard für die Kodierung von bewegten Bildern. Er wurde

1988 von der ITU verabschiedet.

Der Standard bildet die Grundlage, um über ISDN-Leitungen Videokonferenzen betreiben

zu können. Die notwendige Reduktion der Bilddaten für die geringe Bandbreite wird

mittels des DPCM-Verfahrens durchgeführt.

Die maximale Verzögerungszeit für Kompression und Dekompression wird im Standard

mit 150 ms definiert. Neben einigen anderen Mechanismen wird ein Vorhersagemodell für

die nachfolgende Bildsequenz durch Intra- und Predicted-Frames verwendet.

H.262

H.262 ist eine andere Bezeichnung für MPEG-2 Part 3. Er definiert einen Videocodec,

welcher vorrangig für die Kodierung von DVDs verwendet wird. Bei Videokonferenzen

findet er keine Anwendung.

H.263

H.263 ist ein ITU-Standard, welcher zur Videokodierung eingesetzt wird. Er ist eine Wei-

terentwicklung von H.261, wobei aber seine Kompressionsrate deutlich verbessert wurde.

H.263 ist für niedrige Datenübertragungsraten und Sequenzen mit relativ wenig Bewe-

gung optimiert.

Er fand Eingang in MPEG-4 Part 2.

H.264

H.264 ist die ITU-Bezeichnung für einen Videokompressionsalgorithmus, welcher zu-

sammen mit der MPEG entwickelt wurde. Der wortgleiche Standard heißt dort MPEG-

4/AVC und ist Part 10 von MPEG-4.

H.264 baut sowohl auf den Vorgängern der ITU (H.261,H.263) als auch der MPEG

(MPEG-1, MPEG-2) auf. Die deutliche Weiterentwicklung führt bei Videokonferenzen mit

gleicher Bildqualität zu einer Datenreduktion auf die Hälfte gegenüber H.263.

Page 89: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 G-12

H.265

H.265 ist eine andere Bezeichnung für den Standard High Efficiency Video Coding

(HEVC). Er wurde gemeinsam durch die Moving Picture Experts Group (MPEG) und die

International Telecommunication Union (ITU) entwickelt.

Er besitzt eine im Vergleich zu H.264 doppelt so starke Kompression ohne Qualitätsver-

lust und kann Bildgrößen zwischen 320x240 bis 8192x4320 darstellen.

H.320

H.320 ist eine Rahmenspezifikation, welche H.261, H.221 (Multiplexen von Audio und

Video), H.242 (End-to-End Signalisierung), G.728, G.722, G.711, T.120 (Dokumentenaus-

tausch) und vieles mehr enthält. H.320 ist die Norm für schmalbandige Videotelephonie-

Endgeräte (ISDN). Es ist ein verbindungsorientiertes Protokoll.

H.321

Empfehlung der ITU, welche die Adaption von H.320-Videotelefonie auf ATM-basierte

Breitbandnetze spezifiziert. Es ist ein verbindungsorientiertes Protokoll.

H.322

Empfehlung der ITU, welcher Videotelefon-Systeme und Terminals für ein Ethernet spezi-

fiziert, in dem neben dem 10-Mbps-Kanal ein isochroner (Sonderform der asynchronen

Übertragung mit Zeitkennzeichnung) 6-Mbps-Kanal für Multimedia mit garantierter Band-

breite (QoS, Quality of Service) bereitgestellt wird. Es ist ein paketorientiertes Protokoll.

H.323

H.323 ist eine Spezifikation der ITU unter dem Titel „Packet-based Multimedia Communi-

cations Systems“, welche die spezifischen Fähigkeiten von Endgeräten im IP-Umfeld

beschreibt. Er ist aus dem H.320 Multimediastandard für ISDN abgeleitet.

H.323 definiert Netzübergänge zu ISDN und anderen Netzen und soll die Interoperabilität

der Herstellerprodukte untereinander garantieren, wobei vier Hauptgruppen definiert sind:

Terminals, Gateways, Gatekeeper und MCUs.

H.323 setzt RTP zum Einfügen der Zeit- und Synchronisationsinfos in die IP-Pakete,

RTCP zum Umsetzen dieser Informationen an der Empfängerstelle und UDP für den

Datentransfer ein. Die Steuerung der Verbindung und damit auch die Umsetzung von IP-

Adressen und Telefonnummern wird innerhalb der Spezifikation von H.225 übernommen.

Mittels H.245 einigen sich die Endgeräte darauf, welche Dienste sie unterstützen - im

einfachsten Fall Sprachübertragung über G.711 bis G.729 (siehe dazu auch Anhang A).

Weiterhin sind in dieser Spezifikation die Video- und parallele Datenübertragung festge-

legt. (nach http://www.gateway.de/)

H.323-Terminal

Mit diesem Begriff werden sowohl alle Endgeräte in Voice-over-IP-Netzen bzw. alle Gerä-

te bezeichnet, die Sprachübertragung über ein Datennetz ermöglichen wie z.B.

Telefone mit Ethernet-Anschluss

PCs mit entsprechender Software

Page 90: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 G-13

H.324

Empfehlung der ITU, welche Multimediaübertragungen über schmalbandige Netze (z.B.

analoge Telefonleitungen) spezifiziert.

HD720p - High Definition 720 Zeilen progressive

Hochzeilen-Auflösung für Video und Fernsehen mit progressiver Vollbildabtastung und

720 aktiven Zeilen. Dominierendes Bildseitenverhältnis ist Breite zu Höhe von 16:9. Das

Bildpunktraster ist 1280x720 Pixel. Die Vollbildabtastung mit quadratischen Pixeln ent-

spricht der üblichen Arbeitsweise von PC LCD-TFT sowie von LCD-TV Bildschirmen. Die

Breitbildauflösung bei 720p ist allerdings nur etwa halb so groß wie die volle HDTV-

Auflösung bei 1080p (Full-HD oder FHD).

HDCP - High-bandwidth Digital Content Protection

HDCP ist ein eigens von Intel entwickeltes Verschlüsselungssystem, das für die Schnitt-

stellen DVI und HDMI (beide übertragen digitale Daten) eine geschützte Übertragung von

Audio- und Videosignalen gewährleisten soll. Auch für HDTV, Blu-ray und HD-DVD soll

HDCP der Standard in Europa werden. Das System soll ein 'Abfangen' der Datenströme

zwischen Sender und Empfänger unterbinden. Voraussetzung ist aber, dass sowohl

Sender als auch Empfänger HDCP unterstützen.

HDMI - High Definition Multimedia Interface

HDMI ist eine volldigitale Schnittstelle zur Übertragung von Audio- und Videodaten. Es ist

der Standard für HD-Medien wie z.B. Blu-ray, HDTV und HD-DVD. Für HDMI 1.1 & 1.2

existieren zwei Steckernormen: Typ A und Typ B (ca. 4,5 x 13/21 mm). Für HDMI 1.3 gibt

es zusätzlich einen kleineren Stecker vom Typ C mit den Maßen von ca. 2,5 x 10,5 mm.

HDMI 1.2 erlaubt einen Datentransfer von 5 Gbit/s (Typ A) bis zu 10 Gbit/s (Typ B). Versi-

on 1.3 erlaubt sogar einen Datentransfer von 10.2 Gbit/s (Typ A & Typ C). Die Übertra-

gung von Audio kann bis zu einer Frequenz von 192 kHz erfolgen und Video bis zu 165

MHz. Es ist möglich HDTV bis zur heute maximal möglichen Auflösung von 1080p darzu-

stellen. HDMI ist abwärtskompatibel zu DVI. Zusätzlich wurde der Kopierschutzstandard

HDCP integriert.

HDTV - High definition television

HDTV ist ein Überbegriff für digitales TV, welches im Gegensatz zum herkömmlichen

analogen TV mit mehr Zeilen übertragen wird und somit eine deutlich bessere Bildqualität

erzielt. Ursprünglich sollte die analoge Auflösung verdoppelt werden, allerdings wurde

dieses Ziel deutlich übertroffen. Die Bildwiederholrate liegt zwischen 60 und 25 fps und

das Bildseitenverhältnis ist 16:9. HDTV bietet sowohl das Zeilensprungverfahren an, als

auch den Progressive scan.

Hosidenstecker

Werden auch mit Mini-Din bezeichnet. Hosidenstecker werden benutzt um Videodaten zu

transferieren. Die Helligkeits- und Farbinformationen werden dabei getrennt übertragen,

wodurch die Bildqualität im Vergleich zu Composite Video steigt. Dennoch kommt die

Qualität von S-Video, welches über Hosidenstecker übertragen wird, nicht an RGB oder

Page 91: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 G-14

Component-Video heran. Da keine Audiosignale übertragen werden können, muss zu-

sätzlich ein separates Kabel benutzt werden.

I

ILS - Internet Location Server

Der Internet Location Server, eine Erfindung von Microsoft für NetMeeting, kann mit

einem dynamischen Telefonbuch verglichen werden, das alle angemeldeten, konferenz-

fähigen Teilnehmer anzeigt und die Verbindung herstellt. Der IL-Server wandelt die beim

Anruf verwendete E-Mail-Adresse oder den Rechnernamen in die entsprechende IP-

Adresse um.

Interlacing - Zeilensprungverfahren

Ist der Standard bei der Darstellung von Fernsehsignalen auf Röhrenmonitoren. Wobei

diese Technik auch noch bei HDTV teilweise genutzt wird, und zwar bei der Auflösung

1080i. Das Zeilensprungverfahren wurde erfunden, um Bandbreite zu sparen. Bei dieser

Technik geht man von 2 Halbbildern aus. Für das erste Halbbild werden die ungeraden

Zeilen dargestellt und von dem zweiten Halbbild nur die geraden. Das hat als Effekt, dass

man die Hälfte der Bandbreite spart. Das menschliche Auge fügt beide Halbbilder dann zu

einem Gesamtbild zusammen.

IP - Internet Protocol

IP ist ein sehr weitverbreitetes Netzwerkprotokoll und ist zuständig für die Arbeit der

Vermittlungsschicht des TCP/IP-Modells. Mit Hilfe von IP-Adressen und Subnetzmasken

können Computer zu logischen Einheiten zusammengefasst werden und bilden so Sub-

netze. Dadurch ist es möglich Computer in Netzwerken zu adressieren und untereinander

zu kommunizieren. Ohne IP wäre das Internet nicht möglich, da es existentiell wichtig für

das Routing ist auf eine logische Adressierung zurückgreifen zu können.

IR - Infra-Red, Infra-Rot

In Videokonferenzen werden häufig Fernbedienungen eingesetzt, die mit IR arbeiten.

Damit man mit einer Fernbedienung nicht gleichzeitig und unerwünscht mehrere Geräte

bedient, ist eine Auswahl von verschiedenen Kanälen oder Geräten zur Fernsteuerung

wünschenswert.

IRC - Internet Relay Chat

IRC ist ein komplett textbasiertes Chat-System. Es stellt die Möglichkeit bereit Gesprächs-

runden mit beliebig vielen Teilnehmern in einem Channel (Gesprächskanal) abzuhalten.

Um sich solch einem Channel anzuschließen benötigt man einen IRC-Client, welche

sowohl als eigenständige Software verfügbar sind, aber manchmal auch schon in Brow-

sern implementiert sind. Um ein IRC zu realisieren wird ein Netzwerk aus IRC-Servern

bereit gestellt und somit die Rechenlast auf viele Rechner verteilt, wodurch dieses Chat-

Page 92: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 G-15

System sehr leistungsfähig wird und tausenden von Chatnutzern gleichzeitig die Möglich-

keit gibt untereinander zu kommunizieren.

ISDN - Integrated Services Digital Network

ISDN ist ein digitales Telefon- und Datennetz, welches eingeführt wurde, um das analoge

Telefon abzulösen. Mit ISDN war es möglich an einem Anschluss mehrere Telefonnum-

mern anzubieten und damit mehrere Telefone betreiben. Überdies bietet ISDN höhere

Datenraten und damit eine bessere Übertragungsqualität. Da digitale Daten verwendet

werden, ist es einfacher geworden Übergänge zu digitalen Geräten wie Computern zu

ermöglichen. Eine ISDN Leitung bietet 64 kbit/s und eine analoge Telefonleitung arbeitet

mit 56 kbit/s. Also bringt ISDN mit einer Leitung keinen großen Übertragungszuwachs. Da

es aber möglich ist Nutzkanäle zu bündeln, kann man bis zu 1920 kbit/s erreichen. Da

aber moderne Technologien wie UMTS oder DSL deutlich höhere Datenraten bieten, wird

ISDN langsam auch verdrängt.

ITU - International Telecommunication Union

Die ITU ist die International Telecommunication Union (Internationale Fernmeldeunion).

Sie ist eine Sonderorganisation der Vereinten Nationen mit 191 Mitgliedsstaaten (Stand

03/2014), die seit 1865 existiert.

Sie beschäftigt sich weltweit mit der Vereinheitlichung und Standardisierung von Telefon-

netzen.

Innerhalb der ITU ist der Bereich ITU-T (Telecommunication Standardization Sector) u.a.

für die Ausarbeitung und Verabschiedung der Normen im Bereich von Videokonferenzen

zuständig.

IVR - Interactive Voice Response

Mit einem IVR, auch Sprachdialogsystem genannt, können Anrufer teil- oder vollautomati-

sierte natürlichsprachliche Dialoge führen.

J

JPEG - Joint Photographic Experts Group, Standardisierungsgremium und Bildkom-

pressions-Format jpg

Ursprünglich war dieses Gremium mit gleichnamigem Format zuständig für die Kompres-

sion von fotorealistischen Standbildern seit Anfang 1990. Inzwischen ist daraus eine

ganze Format-Familie geworden, über Motion-JPEG und Einsatz in DV-Camcordern bis

hin zu JPEG 2000 in der Anwendung des digitalen Kinos (Digital Cinema). Entsprechend

der Einzelbild-Kompression sind auch die Schlüsselbilder beziehungsweise Intra-Frames

(I-Frames) in allen Bewegtbild-Kompressionen MPEG-1 bis MPEG-4 sowie MPEG-AVC /

H.264 aufgebaut.

Page 93: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 G-16

K

kbps - kilo bit per second, 1024 bit pro Sekunde

Bandbreiten, Datenübertragungsraten oder der Durchsatz von Verarbeitungsleistung

digitaler Signale werden in bps oder bit pro Sekunde angegeben. In der heutigen Kom-

munikation werden Bandbreiten von kbps (kilo) über Mbps (Mega) bis Gbps (Giga bit pro

Sekunde) genutzt.

L

LAN - Local Area Network

Bezeichnet ein Rechnernetzwerk von 2 oder mehreren Computern. Diese Art der Vernet-

zung nennt sich lokales Netzwerk und dient zur Verknüpfung von festinstallierten Compu-

tern an einem bestimmten Ort. LANs werden aber auch für kurzzeitige Einsätze, wie z.B.

LAN-Partys, aufgebaut. Man kann LAN-Strukturen aber auch mit Hilfe von Routern oder

Switches miteinander verbinden.

LDAP - Lightweight directory access protocol

Das LDAP (lightweight directory access protocol) ist ein TCP/IP basiertes Directory-

Zugangsprotokoll. Es definiert dabei nicht den Directory-Inhalt und auch nicht, wie der

Directory Service erbracht werden soll. LDAP hat ein weltweit eindeutiges Format, in dem

alle Namen darstellbar sind, es bietet unterschiedliche Layouts und eine eindeutige Zu-

ordnung zwischen Namen und ihrer internen Repräsentation.

LPC - Linear Predictive Coding

LPC ist eine Kodierungsart zur effizienten Übertragung von Sprachsignalen. Die Datenre-

duktion wird durch den Einsatz eines Prädiktionsverfahrens erreicht, welches Signale

linear vorhersagt. Dadurch muss nur die Differenz von zwei direkt aufeinanderfolgenden

Kurzzeitsegmenten übermittelt werden.

LPC nutzt ein einfaches synthetisches Modell der Sprache, das auf Lautstärke, Sprach-

grundfrequenz und Stimmhaftigkeit des Ausgangssignales aufbaut. Auf der Empfänger-

seite ist mittels eines LPC-Vocoders eine natürlich klingende Sprachwiedergabe möglich,

wogegen mit einem Phonem-Synthesizer nur eine sehr mechanisch klingende Sprach-

wiedergabe zu realisieren ist.

LPC wird oft fälschlicherweise mit dem Algorithmus CELP gleichgesetzt.

LPC - Vocoder

Der Begriff Vocoder entsteht aus der Mischung der Wörter 'voice' und 'coder'. Ein Vocoder

ist ein elektronisches Gerät um Sprache in codierter Form zu übermitteln und es beim

Empfänger wieder in die ursprüngliche Form zu transformieren. Ein LPC-Vocoder nutzt

nun die Technik von LPC zur Übertragung der Signale.

Page 94: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 G-17

Luminanz - Helligkeit (Luma), farbneutraler Intensitätswert

Jedem Farbwert oder Farbpunkt kann messtechnisch und subjektiv eine Helligkeit Y

zugeordnet werden. Die sich ergebende Helligkeit ist monochrom und farbneutral

(R=G=B). In der Kompression von Film-, Fernseh- und Video-Signalen dient die resultie-

rende Helligkeit Y zur Bildung der Farbdifferenzen oder Chrominanz-Signalen Cb und Cr

(Chroma).

M

MAC - Media Access Control

Mittels Media Access Control wird der Zugang zum eigentlichen Medium eines Netzes

(Kabel) realisiert. Es ist im Netzwerk-Controller implementiert, also in der Netzwerkkarte

eines Rechners. Diese Karte benötigt dann eine sogenannte MAC-Adresse, durch die

eine angeschlossene Station eindeutig im Netz identifiziert werden kann. Sie ist für jede

Netzwerkkarte weltweit eindeutig und auf der Karte festgehalten. Netzwerkadressen (etwa

IP-Adressen bei TCP/IP) werden durch bestimmte Mechanismen immer auf diese MAC-

Adresse abgebildet.

Mbps - Mega bit per second, Millionen bit pro Sekunde

Bandbreiten, Datenübertragungsraten oder der Durchsatz von Verarbeitungsleistung

digitaler Signale werden in bps oder bit pro Sekunde angegeben. In der heutigen Kom-

munikation werden Bandbreiten von kbps (kilo) über Mbps (Mega) bis Gbps (Giga bit pro

Sekunde) genutzt.

MCU - Multipoint Control Unit

MCUs sind Sternverteiler für Gruppenkonferenzen, welche in der ITU H.231-Richtlinie

spezifiziert sind. Sie werden bei Konferenzschaltungen zwischen drei oder mehreren

H.323-Terminals bzw. Gateways benötigt. Die MCU besteht aus einem Multipoint Control-

ler (MC) und einer beliebigen Anzahl von Multipoint Processors (MP). Der MC handelt

hierbei mit Hilfe des H.245-Protokolls die gemeinsamen Eigenschaften bezüglich Audio

und Video der Teilnehmer einer Konferenz aus. Er behandelt jedoch nicht den Daten-

strom von Audio, Video und Daten. Dieses ist Aufgabe des MP, der die Datenströme

mischt und verarbeitet.

Megapixel - 1 Megapixel = 1 Mio. Pixel

Der Begriff Megapixel ist ein Richtwert und wird benutzt um die Auflösung bei Digitalka-

meras zu bestimmen. Der Bildwandler, also der CCD- oder CMOS-Chip, der Digitalkame-

ra verfügt pro Megapixel etwas über 1 Millionen Pixel. Aber es gilt zu beachten, dass die

Anzahl der Megapixel keine Aussage über die Qualität der Bilder macht. Das Problem ist,

dass bei Chips mit einer hohen Auflösung jeder Bildpunkt auf der Kamera weniger Licht

bekommt und damit das Rauschen auf Bildern zunimmt und damit die Qualität arg in

Mitleidenschaft gezogen wird. Einen vernünftigen Kompromiss zwischen Auflösung und

Page 95: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 G-18

Bildstörungen bilden 6 Megapixel. Auch reichen 4 bis 6 Megapixel für einen großflächigen

DIN A4 Ausdruck aus.

MPEG

MPEG ist die Abkürzung für Moving Picture Experts Group. Sie erarbeitet die Standards

für Video- und Audiodatenkompression und dazugehörige Datenformate.

MPEG ist eine Unterorganisation der ISO/IEC (International Organization for Standardiza-

tion/International Electrotechnical Commission), welche eng mit der ITU zusammenarbei-

tet.

Umgangssprachlich wird mit MPEG oft einer der von der Expertengruppe entwickelten

ISO-Standards bezeichnet.

Multicast - Nachrichtenübertragung von einem Punkt zu einer Gruppe

Multicast ist die Bezeichnung für eine Gruppenadressierung. Dieses wird normalerweise

für Videokonferenzen mit H.323-Terminals nicht benötigt. Eine Ausnahme bildet hier

einerseits SunForum, welches Multicast nutzt, um Mehrpunktkonferenzen ohne MCU

durchzuführen. Die Firma VCON nutzt andererseits diese Technik, um ein Mehrpunkt-

streaming ohne Rückkanal innerhalb ihrer Software MeetingPoint zu realisieren. Ansons-

ten wird dieses Prinzip vorwiegend von den sogenannten MBone-Tools genutzt. Neben

dieser Adressierungsmöglichkeit, bei der ein Paket an einen logischen Verband von

Teilnehmern verschickt wird, existieren noch die Einzeladressierung Unicast und der

Broadcast (alle Teilnehmer adressieren). Um welche dieser Adressierungsarten es sich

handelt, wird im jeweiligen Telegramm durch spezielle Bits in der Zieladresse unterschie-

den (Class C- und Class D-Adressen). Durch diese Definition von speziellen Adressen

und Adressräumen unterstützt IP neben der Punkt-zu-Punkt-Kommunikation auch Punkt-

zu-Mehrpunkt (Broadcast) und Mehrpunkt-zu-Mehrpunkt-Kommunikation (Multicast).

µ-Law-Verfahren (Pulse Code Modulation)

µ-Law ist ein Kodierungsverfahren für Audiosignale, welches in der Empfehlung G.711 der

ITU-T standardisiert wurde. Es wird hauptsächlich in den USA und Japan verwendet und

entspricht im Ansatz dem A-Law-Verfahren. Die Unterschiede sind dabei in geringfügig

anderen Quantisierungsstufen zu finden. Bei geringen Eingangspegeln weist diese Kom-

pression eine hohe Dynamik auf und dementsprechend bei hohen Eingangspegeln eine

geringe Dynamik. Im Ergebnis wird bei niedriger Lautstärke das Rauschen reduziert.

N

NAT - Network Address Translation

NAT ist ein Verfahren, welches eingesetzt wird, um dem Mangel von IPv4-Adressen zu

begegnen. Dazu werden private Adressräume gebildet, die an einer definierten Schnitt-

stelle in eine weltweit bekannte Adresse umgesetzt werden.

NAT verursacht im Zusammenhang mit H.323 immer Probleme. Oftmals werden noch

weitere, zusätzliche Schwierigkeiten durch den Einsatz von Firewalls geschaffen. Die

Page 96: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 G-19

beiden Problemfelder dürfen nicht verwechselt werden, auch wenn sie meist parallel

auftreten.

Als Lösungsmöglichkeiten für NAT und H.323 bieten sich an:

- Vollständiges Öffnen der Firewall

- Einsatz eines Proxys

- Verwenden von Produkten, die den Standard H.460 unterstützen

nativ - natürlich, unverändert, ursprünglich, physikalisch, systemeigen, original

Bei der Erfassung, Aufnahme, Verarbeitung, Archivierung, Übertragung bis zur Wiederga-

be kommt es zu zahlreichen Formen der digitalen Verarbeitung. Diese Anpassungen

führen nicht nur zur Qualitätsverbesserung sondern häufig auch zur deutlichen Signalver-

schlechterung. Skalierungen, Verzerrungen, Zoomen, Frequenzänderungen, Resampling,

Transcodierungen, Interpolationen und dergleichen hinterlassen wahrnehmbare Störun-

gen im Audio, Video und bei Präsentationen in Konferenzen. Die möglichst durchgängige

Beibehaltung nativer Formate und Auflösungen garantiert meistens optimale Ergebnisse.

non-square Pixel - nicht quadratisches Seitenverhältnis

Mit non-square Pixel wird eine Auflösung beschrieben, in welcher die Pixelseitenverhält-

nisse auf der vertikalen und horizontalen Achse nicht identisch sind. Im Gegenteil dazu

gibt es square Pixel.

NTSC - National Television Standards Committee

NTSC ist die Fernsehnorm in den USA und Japan. Die Abkürzung steht für National

Television Standards Committee. Sie besitzt eine Bildgröße von 640 x 480 Bildpunkten

bei einer Framerate von 30 fps bzw. 60 Halbbildern in der Sekunde.

O

Optoelektronik - Kombination von Optik und Mikroelektronik

Dieser Überbegriff umfasst alle Produkte und Verfahren, in der elektronisch erzeugte

Daten und Energien in Lichtemission umgewandelt werden, oder umgekehrt. Die Opto-

elektronik schließt z.B. Laser, Rechner, optische Speicher und Bildschirme ein.

Overscan - Überabtastung, nur Ausschnitt des vergrößerten Videobildes wird sichtbar

Frühere Monitore hatten unterschiedlich dicke Glaskolben, verschiedene Alterungser-

scheinungen und in den Fernsehnormen sind in den Randbereichen zusätzliche Informa-

tionen kodiert. Zur Vermeidung von Reklamationen und Serviceaufwendungen wurde also

sicherheitshalber das Fernsehbild um 10 % und sogar mehr über die Ränder hinaus

vergrößert, damit nur der kleinste gemeinsame Nenner unterschiedlichster Fabrikate und

Technologien sichtbar bleibt. Der Overscan und damit die Randabschneidung des Video-

bildes betrug auch im Jahr 2007 immer noch standardisierte rund 3 % auch bei den

flachen LCD-TV Bildschirmen an jeder Seite. Erst mit Einführung des vollen HD Formates

mit 1920x1080 Bildpunkten wurde ab dem Jahr 2008 wahlweise auch die native vollstän-

Page 97: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 G-20

dige Videobilddarstellung ohne Overscan gefordert, um eine unverfälschte digitale Bild-

qualität wie bereits lange in der Computergrafik zu gewährleisten.

P

PAL - Phase Alternation Line

PAL ist die Abkürzung für 'Phase Alternation Line' (zeilenweise Phasenänderung). Es ist

eine mögliche Norm für Farbfernseher, in Deutschland der Standard. Sie besitzt eine

Bildgröße von 768 x 576 Bildpunkten und eine Framerate von 25 fps bzw. 50 Halbbildern

pro Sekunde.

PCM - Pulse Code Modulation

PCM ist ein Verfahren zur kompressionsfreien Umwandlung analoger Audiosignale in

digitale Daten. Es bildet die Grundlage des Audio-Standards G.711.

Dazu wird ein analoges Ton-Signal mit einem Impuls multipliziert (moduliert) und das

Ergebnis durch einen binären Code mit der sogenannten Abtasttiefe / Sampling-Tiefe

(z.B. 16 Bit) dargestellt. Der Vorgang wird periodisch mit der Abtast- oder Sampling-Rate

(z.B. bei G.711 8 Bit und 8 kHz Samplingrate) wiederholt. Der erreichte Kompressionsfak-

tor liegt bei 1,75:1.

Das Verfahren wird in Nordamerika und Japan als µ-Law und in Europa auch als A-Law

bezeichnet.

Preset - Voreinstellung von Parametern

Presets sind Voreinstellungen, welche elektronisch oder mechanisch gespeichert werden

und jederzeit vom Benutzer aufgerufen werden können. So kann man Zeit und Mühe

sparen, da man auf oft verwendete Einstellungen, z.B. bei Kameras, jederzeit schnell

zurückgreifen kann.

progressive scan - Vollbildabtastung - schrittweise durchgeführte Abtastung

Progressive scan bedeutet Vollbildabtastung. Dieses Verfahren beschreibt den Bildaufbau

bei Anzeigegeräten wie Monitoren, Beamern oder TV-Geräten, welche mit echten Vollbil-

dern gespeist werden und nicht wie beim Zeilensprungverfahren mit zeilenverschränkten

Halbbildern. Das entstehende Bild wirkt dadurch schärfer und ruhiger. Außerdem wird das

Zeilenflimmern des Bildes komplett getilgt.

Proprietär - im Eigentum stehend; jemandem zugehörig; urheberrechtlich geschützt

Proprietär bedeutet im IT-Bereich, das entsprechende Dateiformate, Protokolle etc. oder

auch Hardware nicht dem Standard entsprechen und nicht frei zur Verfügung stehen. Als

proprietär werden Eigenentwicklungen von Herstellern bezeichnet. Zum Beispiel darf das

Dateiformat WMA nicht 'frei' benutzt werden. Als Gegenstück ist zum Beispiel das Format

Ogg Vorbis zu nennen. Proprietäre Daten dürfen nicht ohne Zustimmung vom Hersteller

modifiziert oder benutzt werden.

Page 98: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 G-21

Proxy - Stellvertreterdienst

Proxy bedeutet soviel wie Stellvertreterdienst. Es ist ein Prinzip der lokalen Informations-

zwischenspeicherung. Dabei werden Objektdaten verschiedener Dienste, wie HTTP, FTP,

GOPHER und WAIS zwischengespeichert und entsprechende Anfragen aus dem lokalen

Datenbestand sehr schnell bedient (caching) oder weitergereicht (proxying).

PTZ - Pan, Tilt, Zoom

Pan / Panorama steht für horizontales Schwenken oder Rundumblick nach links und

rechts, Tilt für neigen beziehungsweise die Kamera nach oben oder unter ausrichten.

Unter Zoomen wird hinein blicken durch Vergrößerung bei kleinerem Bildausschnitt und

alternativ heraus Zoomen durch Verkleinerung der Personen bei größerem Bildausschnitt

verstanden.

Q

QoS - Quality of Service

Die garantierte Dienstgüte ist eine Parametrisierung von Protokollen zur Bestimmung des

Übertragungsverhaltens. Das OSI-Referenzmodell definiert bestimmte Dienste, die von

der Vermittlungsschicht der übergeordneten Transportschicht angeboten werden. Bei den

OSI-Protokollen der Transportschicht werden gleichzeitig mit dem Verbindungsaufbau

Dienstgüteparameter vereinbart. Dabei wird von der initialisierenden Transportinstanz

eine Liste vorgeschlagen, die entweder von der gerufenen Transportinstanz akzeptiert

oder verändert wird.

Mögliche Dienstgütemerkmale sind: Verbindungsaufbauverzug, Störungswahrscheinlich-

keit des Aufbaus, Durchsatz, Transitverzug, Restfehlerrate, Störungswahrscheinlichkeit

des Transfers, Abbauverzug, Störungswahrscheinlichkeit des Abbaus, Schutz der Trans-

portverbindung, Priorität von Transportverbindungen und Rücksprung aus einer Trans-

portverbindung.

Die Dienstgüte kann für verschiedene Dienste und Netze unterschiedlich definiert sein.

Bei ATM werden z.B. mit der Dienstgüte die Service-Parameter einer ATM-Verbindung

spezifiziert. Dazu gehören u.a. die Zellenverlustrate und die Zellenverzögerung. Bei IP-

Verbindungen gibt es keine garantierte Güte des Dienstes. Eine Möglichkeit der Steue-

rung ist das Einsetzen der 'Class of Service' - Technologie.

Quad-HD - Quad- High Definition, Vierfache HD-Auflösung

Von allen bisherigen Auflösungen gibt es in der Weiterentwicklung natürlich auch die

jeweils doppelte Breite und doppelte Höhe. Wenn nun 4 HD-Systeme in einer typischen

Mehrpunkt-Videokonferenz ohne Auflösungsverlust dargestellt werden sollen, benötigt

man natürlich vier derartige HD-Displays in einem Display-Mosaik oder die vierfache

Auflösung in einem Display. Für das halbe HD-Format 1280x720 ergeben sich 2560x1440

Bildpunkte und für das volle HD-Format mit 1920x1080 Bildpunkten wird eine Auflösung

von 3840x2160 erforderlich. Derartige Displays und Technologien sind inzwischen bereits

von allen namhaften Herstellern verfügbar. Auch in den Standard-Gremien wurden ent-

Page 99: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 G-22

sprechende Spezifikationen bereits verabschiedet. Mit HDMI 1.3 von 2006 werden nicht

nur 720p oder 1080p sondern 1440p im Seitenverhältnis 16:9 mit bis zu 120 Hz und 10

Gbps nutzbar.

R

RC - Remote Control, Fernsteuerung

Fernsteuerungen von Geräten und Systemen können drahtgebunden oder drahtlos erfol-

gen. Es gibt zahlreiche standardisierte sowie proprietäre Lösungen und Signal-Protokolle.

RGB - rot, grün, blau

RGB ist ein analoges Videosignal, bei welchem pro Farbwert (rot, grün, blau) die Hellig-

keit auf je einer Leitung übertragen wird. Das grüne Farbsignal enthält zusätzlich das

Synchronisationssignal.

Am Scart-Stecker normaler TV-Geräte sind die Pins für RGB oft nicht belegt.

RTP - Real time protocol

RTP (real time protocol) ist Bestandteil der TCP/IP-Protokoll-Suite und das Internetstan-

dard-Protokoll für den Transport von Echtzeitdaten, welche Audio- und Videoströme

einschließen. Es wird über UDP übertragen. RTP teilt sich in einen Teil für die Daten und

einen Kontrollteil, welcher RTCP (real time control protocol) genannt wird. Dieser Teil

sichert in Verbindung mit einem Zeitstempel, dass die Audio- und Videopakete beim

Empfänger richtig zusammengesetzt werden können.

S

S-Video - Separate Video

Es wird auf zwei getrennten Leitungen die Luminanzinformation (Y) und die Chrominanz-

information (C) pro Bildpunkt übertragen. Die Qualität ist deshalb besser als bei Composi-

te-Signalen. Dieses Verfahren wird auch mit Y/C bezeichnet. Für die Erzeu-

gung/Aufzeichnung dieser Signale sind S-VHS oder Hi8 Geräte nötig. Der Anschluss

erfolgt über Hosidenstecker.

Scart (frz.) - Vereinigung der Hersteller von Rundfunkempfängern und Fernsehappara-

ten

Scart ist eine Schnittstelle und überträgt sowohl Bild- als auch Audiosignale, und ist eine

europäische Standardschnittstelle für Audio- und Videogeräte (z.B. Fernseher oder Video-

rekorder). Es werden alle notwendigen Signale in einem mehrpoligen Stecker zusam-

mengefasst und weitergeleitet. Scart kann die analogen Signale RGB, Composite Video

sowie S-Video übertragen.

Bei hochwertigen Kabeln ist die Qualität deutlich besser als bei schlechten Kabeln. Das

liegt an den unterschiedlichen Abschirmungen der Leitungen innerhalb der Kabel.

Page 100: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 G-23

SECAM (frz.) - Séquentiel couleur à mémoire (Sequenzielle Farbe mit Speicher)

SECAM ist eine analoge Fernsehnorm, wie auch NTSC und PAL, welche besonders in

Osteuropa und Frankreich zum Einsatz kommt. Diese Norm soll eine bessere Farbwie-

dergabe als NTSC erzeugen, wenn die Empfangsbedingungen nicht optimal sind. SECAM

sendet zusätzlich zum Helligkeitswert auch noch zwei Farbdifferenzsignale. Das genutzte

Farbmodell nennt sich Y/Db/Dr-Farbmodell und funktioniert vom Prinzip genau wie

Y/Cb/Cr.

Sensor - Signalaufnehmer, Messfühler, Messabtaster

Für Audio und Video werden verschiedene Sensoren zur Signalaufnahme eingesetzt. Bei

Bildaufnehmern kommen heute häufig CCD- oder CMOS- Sensoren in den Kameras zur

optoelektronischen Wandlung zum Einsatz.

Settopbox - Beistellgerät

Eine Settopbox ist ein Gerät, welches meist an einen Fernseher angeschlossen wird und

so dem Anwender neue Nutzungsmöglichkeiten bereitstellt. Eine typische Anwendung für

Settopboxen ist zum Beispiel die Bereitstellung von Digitalem TV oder Spielkonsolen. Es

gibt 2 grundsätzlich unterschiedliche Arten von Settopboxen. Zum einen die aktiven

Geräte, sie geben dem Empfangsgerät Daten oder Funktionen ohne das sie eine Rück-

meldung vom Empfänger erwarten. Zum anderen passive Geräte, sie sind auf Funktionen

oder Daten vom Empfangsgerät angewiesen, ohne aber selbst neue Funktionen anzubie-

ten.

SIP - Session Initiation Protocol

SIP ist ein von der IETF (Internet Engineering Task Force) entwickeltes Netzprotokoll und

ist im RFC 3261 spezifiziert. Auch wenn der Name etwas irreführend ist, kann SIP inzwi-

schen sowohl zum Aufbau als auch zur Steuerung und zum Beenden einer Kommunikati-

onssitzung benutzt werden. Haupteinsatzgebiet ist die Übertragung von Audio- und Vi-

deoinhalten.

Siren

Siren ist eine Sammelbezeichnung für Audiocodecs, welche von der Firma PictureTel

entwickelt worden ist (später von Polycom übernommen).

Es existieren drei Varianten:

- Siren7 (auch Siren 7): Die Abtastrate beträgt 16 kHz, welche in ein 7 kHz Frequenzband

mit Bitraten von 16, 24 oder 32 kbps transformiert wird.

Es besteht ein enger Zusammenhang zu G.722.1.

- Siren14 (auch Siren 14): Die Abtastrate beträgt 32 kHz, welche in ein 14 kHz Frequenz-

band transformiert wird. Siren14 überträgt monophones Audio mit 24, 32 oder 48 kbps,

Stereo mit 48, 64 oder 96 kbps.

Die monophone Version ist in die ITU-Richtlinie G.722.1C eingeflossen.

Page 101: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 G-24

- Siren22 (auch Siren 22): Die Abtastrate beträgt 48 kHz, welche in ein 22 kHz Frequenz-

band transformiert wird. Siren14 überträgt monophones Audio mit 32, 48 oder 64 kbps,

Stereo mit 64, 96 oder 128 kbps.

Siren22 ist in die ITU-Richtlinie G.719 eingeflossen.

Siren LPR

Siren LPR (Lost Packet Recovery) ist ein proprietäres Verfahren der Fa. Polycom, um

Audiofehler in Netzen mit hohen Paketverlusten auszugleichen. Es kann zusammen mit

allen Codecs der Siren-Gruppe angewendet werden.

square Pixel - quadratisches Seitenverhältnis

Mit square Pixel werden Auflösungen beschrieben, in welchen das Pixelseitenverhältnis

auf der horizontalen Achse und auf der vertikalen Achse identisch ist. Das Gegenteil von

square Pixel sind non-square Pixel.

Subsampling - untere Abtastung

Mit Subsampling bezeichnet man die Abtastung mit einer niedrigen Rate um Bandbreite

zu sparen. Dieses Verfahren wird z.B. beim Chroma Subsampling verwendet, hierbei

werden also Farbinformationen abgetastet.

T

TCP - Transmission control protocol

TCP (transmission control protocol) ist Teil der TCP/IP-Protokollfamilie und für die gesi-

cherte Datenübertragung zuständig. Bei TCP wird die Zuverlässigkeit der einzelnen

Pakete kontrolliert und verlorengegangene Pakete werden gegebenenfalls noch einmal

gesendet.

TCS4 - ISDN Subadressierung

TCS4 ist eine Methode um bei ISDN-Nummern zusätzliche, durch ein Sonderzeichen

getrennte, Verbindungsinformationen zu übermitteln.

Telepresence - Telepräsenz

Beschreibt bei Videokonferenzen Systeme, die mit großem technischen Aufwand Szena-

rien simulieren wollen, bei denen sich die Konferenzteilnehmer fühlen sollen als wären sie

alle im selben Raum. Firmen die an dieser Technologie arbeiten sind z.B. Cisco und

Polycom. Bei Telepresence-Lösungen sind normalerweise Kameras, große Bildschirme,

Mikrofone und Lampen enthalten um allen Teilnehmern dieselben Vorrausetzungen zu

bieten. Durch diese Ausstattung sind solche Systeme allerdings auch sehr teuer und sind

daher nur eine Lösung für große Firmen, die oft Meetings mit Geschäftspartnern in großer

Entfernung abhalten.

Page 102: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 G-25

TMDS - Transition Minimized Differential Signaling

TMDS ist ein Übertragungsprotokoll, mit welchem digitale Signale zwischen Computern

und Displays ausgetauscht werden. Mit diesem Protokoll werden unkomprimierte Multi-

mediadaten digital transportiert. Dieser Standard ermöglicht es elektromagnetische Stö-

rungen, wie sie bei analogen Übertragungen auftreten, komplett zu unterbinden. Bei DVI

und HDMI wird diese Technik benutzt um hochauflösende Displays anzusteuern.

TVL - TV-Lines, Fernseh-Zeilen

Die erreichbare Auflösung von Film, Fernsehen und Video wird zum besseren Vergleich

und zur Qualitätssicherung oft in TVL angegeben. Man unterscheidet die Auflösung je

nach Raster und Abtastung in horizontal H und vertikal V sowie auch diagonal D. Da die

Bildformate heute zum Breitbild übergehen, ist das horizontale Auflösungsvermögen

tendenziell größer als das vertikale. Einige Sensoren werden um 45 Grad in der Kamera

gedreht, um in den Vorzugsrichtungen ohne mehr Bildpunkte subjektiv höhere Werte zu

erreichen. Qualitativ anspruchsvolle Lösungen erreichen oberhalb der bisherigen Stan-

dardauflösung 640H bis 960H TVL sowie 540V bis 720V TVL. Zur Messung gibt es inter-

national standardisierte Testbilder.

U

UDP - Users datagram protocol

UDP (users datagram protocol) ist Teil der TCP/IP-Protokoll-Suite und beschreibt die

ungesicherte Datenübertragung über ein sogenanntes verbindungsloses Protokoll, d.h. es

gibt keine Bestätigung für korrekt übertragene Pakete.

USB - Universal Serial Bus, Universeller Serieller Bus

Ursprünglich für Steuergeräte am PC wie Tastatur und Maus entwickelt, hat sich diese

Datenverbindung in den Versionen von 1.0, 1.1 über 2.0 bis 3.0 mit wachsenden Übertra-

gungsgeschwindigkeiten zur bestimmenden externen Schnittstelle im PC durchgesetzt

und ist nunmehr auch für MP3 Audio-Player, Head-Sets, Web-Kameras oder externe

USB-Sticks von derzeit bis zu 512 GByte und bei Festplatten im TeraByte-Bereich nutz-

bar.

V

VGA - Video Graphics Array

VGA ist ein Standard von Grafikkarten und Bildschirmen mit vorzugsweise 60 Vollbildern

pro Sekunde, in Anlehnung an das Videoformat NTSC. Web-Kameras verwenden über

den USB Anschluss das VGA Format mit nur 30 Videobildern pro Sekunde in der Video-

kommunikation. Im Grafikmodus beträgt die Auflösung 640 x 480 Bildpunkte bei 16 Far-

ben bzw. 320 x 300 Bildpunkte bei 256 Farben. Die Weiterentwicklung SVGA besitzt 800

x 600 Pixel und XGA 1024 x 768 Bildpunkte.

Page 103: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 G-26

W

WAN - Wide Area Network (Weitverkehrsnetz)

WAN bezeichnet ein Rechnernetz welches, ähnlich dem LAN, Rechner oder andere

WANs zum Austausch von Daten miteinander verbindet. Es erstreckt sich über einen

großen geografischen Bereich. Es gibt keine Beschränkung der Rechneranzahl oder der

Entfernung, so können WANs Rechner weltweit miteinander verbinden.

WB – Weißabgleich

Der Weißabgleich soll Farbneutralität in Grauwertbildern und in der Bildhelligkeit sowie die

Farbreproduktion entsprechend der natürlichen Wahrnehmung sichern. Als Maß gilt die

Farbtemperatur, typischerweise im Bereich von 1.000 K bis 10.000 K. Belichtung, Be-

leuchtung, Farbtemperatur und Weiß-Punkt sind für die verschiedenen Systeme mess-

technisch standardisiert. Dadurch erscheinen der Himmel blau, das Gras grün, Weiß ohne

Farbstich und Hauttöne können natürlich aussehend wiedergegeben werden.

Webcam - Kameras für das Internet

Webcams sind eine günstige Variante, um Videokonferenzen im privaten Bereich durch-

zuführen. Normalerweise werden sie via USB an den PC angeschlossen, wobei es auch

wenige Varianten mit FireWire gibt. Es ist darauf zu achten, dass die Webcam möglichst

viele Bilder pro Sekunde leisten kann. Dabei wird man oft auf eine hohe Auflösung ver-

zichten müssen, zu der die Webcam theoretisch in der Lage wäre.

WXGA - Wide eXtended (Video) Graphics Array

Breitbild-Format vorzugsweise in Europa und Gebieten mit bisheriger PAL oder Wide-PAL

Fernsehnorm aber mit 60 Vollbildern (Kompatibilität zu PC, NTSC, LCD-TV) oder optional

50 Vollbildern (Kompatibilität zu PAL, 50 Hz Stromversorgung) pro Sekunde in Weiterent-

wicklung des früheren VGA Formates. WXGA hat weit verbreitet 1366x768 quadratische

Bildpunkte im exakten Seitenverhältnis Breite zu Höhe von 16:9. Heute verwenden auch

Videokonferenzen dieses PC Bildformat zur Übertragung von Präsentationen mit Text und

Grafik, um eine ausreichende Lesbarkeit der einzelnen Präsentationsfolien oder Standbil-

der mit erhöhter Schärfe in der Videokommunikation zu ermöglichen.

X

XGA - eXtended (Video) Graphics Array

PC Bildformat von Grafikkarten und Bildschirmen mit heute vorzugsweise 60 Vollbildern

pro Sekunde, in Weiterentwicklung des früheren VGA Formates. XGA hat weit verbreitet

1024x768 quadratische Bildpunkte im exakten Seitenverhältnis Breite zu Höhe von 4:3.

Heute verwenden auch Videokonferenzen dieses PC Bildformat zur Übertragung von

Präsentationen mit Text und Grafik, um eine ausreichende Lesbarkeit der einzelnen

Page 104: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 G-27

Präsentationsfolien oder Standbilder mit erhöhter Schärfe in der Videokommunikation zu

ermöglichen.

XLR - ein Industriestandard für elektrische Steckverbindung

XLR ist ein qualitativ sehr hochwertiger Stecker zur Übertragung analoger und digitaler

Audiosignale. Er wird bei professionellen Mischpulten und Mikrofonen genutzt. XLR nutzt

eine symmetrische Signalführung, das hat als Konsequenz, dass sich Störsignale auf den

Leitungen gegenseitig aufheben. Von Vorteil sind auch die metallische Abschirmung und

die mechanische Verriegelung des Steckers. Am häufigsten trifft man auf die 3-polige

Variante, aber es gibt auch noch 5- und 7-polige Varianten.

Y

Y/C - Y für die Helligkeitsinformation und C für Farbinformation

Bei dem analogen Signal werden auf zwei getrennten Leitungen die Luminanzinformation

(Y) und die Chrominanzinformation (C) pro Bildpunkt übertragen. Die Qualität ist deshalb

besser als bei Composite-Signalen. Dieses Verfahren wird auch mit S-Video bezeichnet.

Für die Erzeugung/Aufzeichnung dieser Signale sind S-VHS oder Hi8 Geräte nötig. Der

Anschluss erfolgt über Hosidenstecker.

Y/Cb/Cr - Y Helligkeits-Signal und Cb, Cr Farbdifferenz-Signale

Grundlage der Fernsehtechnik und Videosysteme ist die Farbraum-Transformation von

additiven RGB Farbkanälen in Helligkeit Y und Farbdifferenzen CbCr. Dadurch wird eine

bessere Anpassung an die psychovisuelle Wahrnehmung des Menschen erreicht bei

zugleich erhöhter Komprimierbarkeit. Nach der Übertragung werden die Y/Cb/Cr Signale

zur Dekompression und Darstellung wieder in den RGB Farbraum zurückgewandelt.

Y/Pb/Pr - Y Helligkeits-Signal und Pb, Pr Farbdifferenz-Signale

Das analoge Videosignal sendet auf 3 physikalisch getrennten Leitungen 3 unterschiedli-

che Signale. Y steht für die Helligkeit, Pr für die Farbdifferenz Y-R und Pb für die Farbdif-

ferenz Y-B. Die Signale werden im Vollbildformat (Progressive) ausgegeben. Y/Pb/Pr wird

meistens bei der Component-Video erfolgenden analogen Übertragung von Videosignalen

aus digitalen Y/Cb/Cr farbcodierten Quellen genutzt.

Z

Zone

Zonen sind ein Administrationskonzept auf einem Gatekeeper. Innerhalb einer Zone

werden alle für eine Videokonferenz nötigen Geräte unter einem Namen zusammenge-

fasst.

Page 105: Kompetenzzentrum für Videokonferenzdienste · pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der H.323-Standard definiert die Multimedia-Kommunikation

Version 3.2 G-28

Zoom - Bildausschnitt anpassen durch vergrößern oder verkleinern

Unter Zoomen wird hinein blicken durch Vergrößerung bei kleinerem Bildausschnitt und

alternativ heraus Zoomen durch Verkleinerung der Personen oder Bildobjekte bei größe-

rem Bildausschnitt verstanden. Die Mehrzahl heutiger Foto- und Videokameras verfügt

über entsprechende Zoom-Objektive. Das Zoomen ist außerdem Bestandteil der so

genannten PTZ-Kameras mit Pan-/Tilt- und Zoom- Funktionen, die beispielsweise bei

Überwachungskameras sowie in Videokonferenzen zum Einsatz kommen.