Upload
others
View
7
Download
0
Embed Size (px)
Citation preview
Informationstheorie und Codierung - 4. Übertragungskanal56
Informationstheorie und Codierung
4. Übertragungskanal
Informationstheoretische Beschreibung
Kanalkapazität
Signal-Rausch-Verhältnis
Leitungscodierung
(AMI, HDB3, PST, 4B3T, 5B6B, CMI)
Informationstheorie und Codierung - 4. Übertragungskanal57
Darstellung des Übertragungskanals
Störungen e(t), E(f)
QuelleSignale
u1(t), U1(f)
SenkeSignale
u2(t), U2(f)Übertragungskanal G(f)
Systemtheoretische Beschreibung
Übertragungskanal
H(Y|X), H(X|Y), T(X,Y)
(Irrelevanz, Äquivokation, Transinformation)
QuelleSymbole xi
Entropie H(X)
SenkeSymbole yj
Entropie H(Y)
Informationstheoretische Beschreibung
Störungen p(Y|X)
Informationstheorie und Codierung - 4. Übertragungskanal58
Bergersches Entropiemodell
QuelleX
SenkeY
H(X) H(Y)
H(X|Y)
H(Y|X)
T(X,Y)
fehlerfreie Übertragung: H(X) = T(X,Y) = H(Y)
Äquivokation (Rückschlussentropie)
Irrelevanz (Störentropie)
Transinformation
(Nutzentropie, Synentropie)
Informationstheorie und Codierung - 4. Übertragungskanal59
Kanalarten und Störungen
Kanal
diskret analog
• diskrete Informationsübertragung
• Anzahl der Signalzustände (Zeichenvorrat) endlich
• z.B. PCM, PSK
• Kontinuierliche bzw. analoge Informationsübertragung
• Anzahl der Signalzustände unendlich
• z.B. AM, FM
Beschreibung von Störungen
systemtheoretisch informationstheoretisch
Signal-Rausch-Verhältnis Fehlerwahrscheinlichkeit
Beispiele für Störungen:
Nebensprechen, Verzerrungen, Echos, thermisches Rauschen, Fremdstörungen, …
Informationstheorie und Codierung - 4. Übertragungskanal60
Kanalmodell
Modell beschreibt:
Sichtweise:
Wirkung
(Wirkungswahrscheinlichkeit)
Sender
Ursache
(Ursachenwahrscheinlichkeit)
Empfänger
Verbund
(Verbundwahrscheinlichkeit)
global
Betrachtung der Wirkung:
x1
x2
x3
xN-1
xN
y1
y2
y3
yMyM-1
p(xi) p(yj)
Quelle Übergänge Senke(Wirkung)
p(yj|xi)
p(yj|xi):
Wahrscheinlichkeit, dass unter der Bedingung des gesendeten Symbols xi ein Empfangssymbol yj
die Wirkung ist
(Berücksichtigung der Irrelevanz bzw. Störung)
Informationstheorie und Codierung - 4. Übertragungskanal61
Mathematische Beschreibung I(Betrachtung der Wirkung)
Vektor der Zustandswahrscheinlichkeiten
(p(X)) =
p(x1)p(x2)...
p(xN)
am Sender: am Empfänger:
(p(Y)) =
p(y1)p(y2)...
p(yM)
Matrix der Übergangswahrscheinlichkeiten:
(p(Y|X)) = p(y1|x1) ⋯ p(yM|x1)
⋮ ⋱ ⋮p(y1|xN) ⋯ p(yM|xN)
Ankunft eines Symbols beim Empfänger
Zeile
= 1
j
i
Informationstheorie und Codierung - 4. Übertragungskanal62
Mathematische Beschreibung II(Betrachtung der Wirkung)
Kanaleingang: H X = −
i
p xi ld p xi
Verbundentropie (Sendersicht): H X, Y = −
i
p xi
j
p yj xi ld(p xi p yj|xi )
Störentropie (Irrelevanz):
fehlerfreie Übertragung: p(yj|xi) = 1 für i = j und p(yj|xi) = 0 für i ≠ j
Einzelanteil Gesamtstörung
H Y|xi = −
j
p yj|xi ld p yj|xi
H Y|X = −
i
p xi
j
p yj|xi ld p yj|xi
H Y|X =
i
p xi H(Y|xi)
Transinformation: T(X,Y) = H(Y) – H(Y|X)
Kanalausgang: H Y = −
j
p yj ld p yj
Informationstheorie und Codierung - 4. Übertragungskanal63
Betrachtung der Ursache
x1
x2
x3
xN-1
xN
y1
y2
y3
yMyM-1
p(xi) p(yj)
Quelle Übergänge Senke(Ursachen)
p(xi|yj)
p(xi|yj):
Wahrscheinlichkeit dafür, dass das Versenden von xi
Ursache für ein bestimmtes yj war
(Berücksichtigung der Äquivokation)
Matrix der Übergangswahrscheinlichkeiten:
(p(X|Y)) = p(x1|y1) ⋯ p(x1|yM)
⋮ ⋱ ⋮p(xN|y1) ⋯ p(xN|yM)
alle Ursachen für ein yj
Spalte
= 1
Informationstheorie und Codierung - 4. Übertragungskanal64
Mathematische Beschreibung(Betrachtung der Ursache)
Kanalausgang: H Y = −
j
p yj ld p yjKanaleingang:
H X, Y = −
j
p yj
i
p xi yj ld(p yj p xi|yj )
Rückschlussentropie (Äquivokation):
verlustfreie Übertragung: p(xi|yj) = 1 für i = j und p(xi|yj) = 0 für i ≠ j
Einzelanteil Summe
H X|yj = −
i
p xi|yj ld p xi|yj
H X|Y = −
j
p yj
i
p xi|yj ld p xi|yj
H X|Y =
j
p yj H(X|yj)
Transinformation: T(X,Y) = H(X) – H(X|Y)
H X = −
i
p xi ld p xi
Verbundentropie (Empfängersicht):
Informationstheorie und Codierung - 4. Übertragungskanal65
Kanalmodell(Betrachtung des Verbundes)
x1
x2
x3
xN-1
xN
y1
y2
y3
yMyM-1
p(xi) p(yj)
Quelle Übergänge Senke(Verbunde)
p(xi,yj)
p(xi,yj):
Wahrscheinlichkeit dafür, dass das Symbol yj auf das ursprünglich gesendete Symbol xi folgt
(Berücksichtigung von Irrelevanz und Äquivokation)
Matrix der Übergangswahrscheinlichkeiten:
(p(X,Y)) = p(x1, y1) ⋯ p(x1, yM)
⋮ ⋱ ⋮p(xN, y1) ⋯ p(xN, yM)
H X, Y = −
i
p xi ld p(xi) −
i
p xi
j
p yj|xi ld p yj|xi
i
Informationstheorie und Codierung - 4. Übertragungskanal66
Mathematische Beschreibung(Betrachtung des Verbundes)
Matrix der Verbundwahrscheinlichkeiten:
(p(X,Y)) = p(x1, y1) ⋯ p(x1, yM)
⋮ ⋱ ⋮p(xN, y1) ⋯ p(xN, yM)
j
p xi, yj = 1
= −
i
p xi
j
p yj|xi ld p xi p yj|xi
Verbundentropie: H(X)
H(X|Y)H(Y)
H(Y|X)
= −
j
p yj ld p(yj) −
j
p yj
i
p xi|yj ld p xi|yj
= −
j
p yj
i
p xi|yj ld p yj p xi|yj
Informationstheorie und Codierung - 4. Übertragungskanal67
Verbund und Transinformation
Transinformation:
H(X) H(Y)
H(X|Y)
H(Y|X)
T(X,Y)H(X,Y)
T(X,Y) = H(X) + H(Y) – H(X,Y)
Transinformationsfluss: ΦT [bit
s]= T(X,Y) [
bit
S(ymbol)] ∙ fx [
S(ymbole)
s] mit fx =
1
Tx
Informationstheorie und Codierung - 4. Übertragungskanal68
Transinformationsfluss und Kanalkapazität
Kanalkapazität: C [bit/s] = max{ΦT} = max{T(X,Y) ∙ fx }
Symbolrate
(Baudrate)
Symbolabstand
S(ymbole)
s=
Baud
s
Satz von der Kanalkapazität (Shannon): C ≥ H(X) ∙ fx
Nyquistrate (siehe Systemtheorie): ϑN = 1
TN
= 2fg [S(ymbole)
s]
Grenzfrequenz
max{fx } = ϑN= 2fg
max{T(X,Y)} = ???
Eigenschaft des Kanals
für Übertragung nötige C
Binäre Übertragung
PY= PX + PS
Informationstheorie und Codierung - 4. Übertragungskanal69
Analoge Kanäle
(mittlere Leistung am Kanalausgang)
PS (mittlere Störleistung)
PX (mittlere Signalleistung)
Annahme: Nutz- und Störsignal normalverteilt
mit Tmax = T(X,Y) und fmax = 2fg folgt:
Entropie der Quelle: H(X) = 0,5 ld(2π ∙ 𝑒 ∙ PX)
Störentropie: H(Y|X) = 0,5 ld(2π ∙ 𝑒 ∙ PS)
Entropie am Kanalausgang: H(Y) = 0,5 ld(2π ∙ 𝑒 ∙ (PX + PS))
PY
Transinformation: T(X,Y) = H(Y) – H(Y|X) = 0,5 ld(1 +PX
PS
)
C = fmax ∙ Tmax = fg ∙ ld(1 +PX
PS
)
PX
PS
= Signal-Rausch-Verhältnis
Informationstheorie und Codierung - 4. Übertragungskanal70
Leitungscodierung
Ziel:
• Anpassung an die Übertragungswege (spektrale Formung)
• ggf. Erkennung/Korrektur verfälschter Zeichen (Hinzufügen von Redundanz)
• wichtige Eigenschaften:
➢ Gleichstromfreiheit
➢ Synchronisierbarkeit (selbsttaktend)
➢ Fehlererkennung
Beispiele:
NRZ (Non-Return-to-Zero) und RZ (Return-to-Zero)
• nicht gleichstromfrei
• NRZ, RZ (unipolar): nicht selbsttaktend; RZ (bipolar): selbsttaktend
• keine Fehlererkennung
Informationstheorie und Codierung - 4. Übertragungskanal71
Bsp. Regenerierende Übertragung
PCM-Übertragungsstrecke
Regenerierender Verstärker (Repeater) für ternäre Signale
Informationstheorie und Codierung - 4. Übertragungskanal72
Signalverläufe und Störeinflüsse bei digitaler Basisbandübertragung
Signal der Quelle
leitungscodiertes Signal (hier AMI)
Signal am Kanalausgang
Signalregenerierung
Resultat (codiert)
Resultat (decodiert)
Schw
ellw
erte
Informationstheorie und Codierung - 4. Übertragungskanal73
AMI- und HDB3-Code
AMI (Alternate Mark Inversion)
Eigenschaften:
• pseudoternär
• gleichstromfrei
• nicht selbsttaktend
• Fehler bedingt erkennbar
binär AMI
0 0
1 +/- (alternierend)
HDB3 (High Density Bipolar of order 3)
Eigenschaften:
• basierend auf AMI-Code
aber:
• max. drei aufeinander folgende Nullen
• selbsttaktend
letzterImpuls
Anzahl von Impulsen nach letzter Ersetzung
ungerade gerade
negativ 000- +00+
positiv 000+ -00-
Informationstheorie und Codierung - 4. Übertragungskanal74
PST und 4B3T-Code
PST (Paired Selected Ternary)
Eigenschaften:
• paarweise Codierung
• gleichstromfrei
• selbsttaktend
• Fehler nicht erkennbar
binär PST
00 -+
01 0+/0- (alternierend)
10 +0/-0 (alternierend)
11 +-
4B3T (4 Binär 3 Ternär)
Eigenschaften:
• ternärer Code
• gleichstromfrei
• selbsttaktend
• Fehler bedingt erkennbar
• verschiedene Codetabellen (z.B. MMS43, FOMOT, JESSOP/WATERS)
Informationstheorie und Codierung - 4. Übertragungskanal75
MMS43-CodeBinarwert S1 Sn S2 Sn S3 Sn S4 Sn
0001
0111
0100
0010
1001
1110
1011
0011
1101
1000
0110
1010
1111
0000
0101
1100
0 - +
- 0 +
- + 0
+ - 0
+ 0 -
0 + -
+ - +
0 0 +
0 + 0
+ 0 0
- + +
+ + -
+ + 0
+ 0 +
0 + +
+ + +
1
1
1
1
1
1
2
2
2
2
2
2
3
3
4
4
0 - +
- 0 +
- + 0
+ - 0
+ 0 -
0 + -
+ - +
0 0 +
0 + 0
+ 0 0
- + +
+ + -
0 0 -
0 - 0
- 0 0
- + -
2
2
2
2
2
2
3
3
3
3
3
3
1
1
1
1
0 - +
- 0 +
- + 0
+ - 0
+ 0 -
0 + -
+ - +
0 0 +
0 + 0
+ 0 0
- - +
+ - -
0 0 -
0 - 0
- 0 0
- + -
3
3
3
3
3
3
4
4
4
4
2
2
2
2
2
2
0 - +
- 0 +
- + 0
+ - 0
+ 0 -
0 + -
- - -
- - 0
- 0 -
0 - -
- - +
+ - -
0 0 -
0 - 0
- 0 0
- + -
4
4
4
4
4
4
1
2
2
2
3
3
3
3
3
3
Sn:
Angabe der für den nächsten Ternärblockrelevanten Spalte
Informationstheorie und Codierung - 4. Übertragungskanal76
CMI- und 5B6B-Code
CMI (Code Mark Inversion)
Eigenschaften:
• zwei Pegel pro Binärzeichen
• gleichstromfrei
• selbsttaktend
• Fehler bedingt erkennbar
binär CMI CMI für LWL
0 -+ 0+
1 ++/--(alternierend)
++/00(alternierend)
5B6B (5 Binär 6 Binär)
Eigenschaften:
• auch LWL-geeignet
• alternierende Verwendung von unsymmetrischen (unbalanced) Codewörtern
• gleichstromfrei
• selbsttaktend
• Fehler bedingt erkennbar
• verschiedene Codetabellen (z.B. Cattermole, Morgenstern)
Informationstheorie und Codierung - 4. Übertragungskanal77
5B6B nach Cattermole
00000 111000 00001 110100 00010 110010 00011 110001 00100 101100 00101 101010 00110 101001 00111 100110 01000 100101 01001 100011 01010 011100 01011 011010 01100 011001 01101 010110 01110 010101 01111 010011 10000 001110 10001 001101 10010 001011 10011 000111 10100 101000 01011110101 100100 01101110110 100010 01110110111 100001 01111011000 011000 10011111001 010100 10101111010 010010 10110111011 010001 10111011100 001100 11001111101 001010 11010111110 001001 11011011111 000101 111010
5B 6B - Mode + Mode
(2x1; 4x0) (3x1;3x0) (4x1;2x0)
Codeworte
symmetrisch
(balanced)
Codeworte
unsymmetrisch
(unbalanced)
Informationstheorie und Codierung - 4. Übertragungskanal78
Weitere bekannte Leitungscodes
• MLT-3-Code (Multilevel Transmission Encoding - 3 levels)
• Manchester-Code, differentieller Manchester-Code
• 4B5B, 8B10B
• B8ZS (Bipolar with 8 Zeros Substitution)
• 2B1Q (2 Binär 1 Quarternär)
• …