23
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 4.5.

Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 4.5

Embed Size (px)

Citation preview

Page 1: Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 4.5

Information und Kommunikation

Hartmut KlauckUniversität Frankfurt

SS 074.5.

Page 2: Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 4.5

Information & Kommunikation 6

2

Beispiele

• 5) Erasure Kanal– Symbole werden mit Wahrscheinlichkeit

gelöscht. Dies wird bemerkt.– Matrix:

– C=maxp(x) H(Y)-H()

– Was ist H(Y)?

Page 3: Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 4.5

Information & Kommunikation 6

3

Beispiele

• E sei die Indikatorzufallsvariable von „Y=e“• H(Y)=H(Y,E)=H(E)+H(Y|E)

• Wir setzen Prob(X=1)=p(1)= und erhaltenH(Y)

= H( (1-)(1-), (1-) ), ) = H()+¢0+(1-)H()

• C=maxp H(Y)-H()=max (1-) H()=1-(wenn =1/2)

Page 4: Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 4.5

Information & Kommunikation 6

4

Beispiele

• Intuitiv: ein -Anteil der Bits geht verloren, 1- Bits werden übertragen

• Wenn der Sender „feedback“ erhält, ist es leicht, die verlorenen Bits neu zu senden

• Aber es geht auch ohne Feedback!

Page 5: Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 4.5

Information & Kommunikation 6

5

Eigenschaften der Kanalkapazität

• Theorem 6.1– Für alle Kanäle gilt:– Die Kapazität C¸0, da I(X:Y)¸0– C· log |X|; C· log |Y|,

da I(X:Y)· H(X),H(Y)– I(X:Y) ist eine stetige Funktion von p(x)– I(X:Y) ist eine konkave Funktion von p(x)

Page 6: Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 4.5

Information & Kommunikation 6

6

Eigenschaften der Kanalkapazität

• I(X:Y) ist eine konkave Funktion auf einer geschlossenen konvexen Menge (der Menge der Verteilungen p(x))

• Ein lokales Maximum ist damit auch ein globales Maximum

• Das Maximum der I(X:Y) ist endlich (und tatsächlich ein Maximum, anstelle eines Supremums)

• Die Kapazität eines gegebenen Kanals kann daher mit Standard Optimierungsmethoden bestimmt werden.

Page 7: Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 4.5

Information & Kommunikation 6

7

Kodierung

• Wir wollen nun Shannons Theorem zur Kodierung auf Kanälen zeigen.

• Das Theorem besagt, dass wir mit einer „Rate“ entsprechend der Kapazität Information über den Kanal schicken können, ohne wesentlich Daten zu verlieren

• Dazu müssen Daten kodiert werden– Fehlerkorrigierende Codes

Page 8: Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 4.5

Information & Kommunikation 6

8

Kodierung

• Wir betrachten Kommunikationssysteme wie folgendes:

• Nachrichten W aus einer Menge {1,…,M} werden kodiert über Xn, als strings der Länge n über dem Eingabealphabet des Kanal

• Der Kanal wird n mal benutzt• Empfangen wird ein Element von Yn

• Der Empfänger dekodiert zu W‘

Page 9: Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 4.5

Information & Kommunikation 6

9

Kodierung

• Definition 6.2– Das n-fache Produkt eines Kanals (mit

Matrix p(y|x)) ist gegeben durch

• Definition 6.3– Ein (M,n)-Code für einen Kanal besteht aus

• Einer Kodierungsfunktion C:{1,…,M}! Xn

• Einer Dekodierungsfunktion D:Yn !{1,…,M}

Page 10: Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 4.5

Information & Kommunikation 6

10

Kodierung

• Definition 6.4– Die Fehlerwahrscheinlichkeit eines

Code/Kanal-Paars auf Eingabe i2{1,…,M} ist

– Die maximale Fehlerwahrscheinlichkeit ist

– Die durchschnittliche Fehlerwahrscheinlichkeit ist

Page 11: Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 4.5

Information & Kommunikation 6

11

Kodierung

• Definition 6.5– Die Rate eines Codes ist durch

R=log M/n gegeben

• Die Rate misst also, wie viel Information pro Zeichen übertragen wird

• Definition 6.6– Eine Rate R heißt erreichbar für einen Kanal,

wenn es eine Folge von (d 2nRe, n)-Codes für alle n gibt, so dass die maximale Fehlerwahrscheinlichkeit der Codes mit n gegen 0 geht

Page 12: Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 4.5

Information & Kommunikation 6

12

Ausblick

• Wir werden zeigen, dass alle Raten unterhalb der Kanalkapazität erreichbar sind

• Dazu müssen wir zu jedem gegebenen Kanal einen Code konstruieren

• Für praktisch relevante Kanäle spielt außerdem die Effizienz von Kodierung und Dekodierung eine Rolle

• Wir werden hingegen Codes zufällig konstruieren

Page 13: Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 4.5

Information & Kommunikation 6

13

Typische Sequenzen

• Wir betrachten nun ein Hilfsmittel, um zufällige Codes zu dekodieren

• Intuitiv gesehen wollen wir, gegeben eine Produkt-Verteilung auf Xn, die strings aufteilen in typische Sequenzen, und den (unwahrscheinlichen) Rest

• Definition 6.7– p sei eine Verteilung auf X– p(x1,…,xn)=i p(xi) auf Xn

– Die typische Menge A enthält alle x1,…,xn mit

Page 14: Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 4.5

Information & Kommunikation 6

14

Typische Sequenzen

• Theorem 6.81. Wenn x1,…,xn 2 A, dann gilt

H(X)-· –log( p(x1,…,xn))/n · H(X)+

2. Prob(A)¸ 1- für genügend großes n

3. |A|· 2n(H(X)+)

4. |A|¸ (1-)2n(H(X)-) für genügend großes n

• Das bedeutet: A ist eine „kleine“ Menge, „ähnlich“ wahrscheinlicher Sequenzen, die zusammen „fast alle“ Wahrscheinlichkeit ausmachen

Page 15: Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 4.5

Information & Kommunikation 6

15

Beweis• Zu 1): Klar aus der Definition• Zu 2):• Wenn die Xi zufällig sind gilt:

E[-log(p(X1,…,Xn))/n]=E[-i log(p(Xi))/n]=H[X]• D.h. A enthält diejenigen Sequenzen, für welche -

log(p(x1,…,xn))/n nur wenig vom Erwartungswert abweicht

• Fakt: [Chebyshev]– Sei Y eine Zufallsvariable mit Erwartungswert und

Varianz 2.– Dann gilt Prob(|Y-|¸) · 2/2

• Wenn Y=i=1…n Zi/n für unabhängige Zufallsvariablen Zi, dann gilt 2(Y)= i=1…n 2(Zi)/n2=E[2(Zi)]/n

Page 16: Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 4.5

Information & Kommunikation 6

16

Beweis

• Damit gilt: Prob(|-1/n¢ log p(x1,…,xn)-H(X)|¸) geht nach 0 mit großem n

• Oder: Für alle >0 giltProb(|-1/n¢ log p(x1,…,xn)-H(X)|<)>1- für alle genügend großen n

• Wir können = setzen.

Page 17: Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 4.5

Information & Kommunikation 6

17

Beweis

• 3) |A|· 2n(H(X)+)

Page 18: Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 4.5

Information & Kommunikation 6

18

Beweis

• 4): |A|¸ (1-)2n(H(X)-) für genügend großes n

• Für genügend gr. n ist Prob(A)> 1-

Page 19: Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 4.5

Information & Kommunikation 6

19

Exkurs: Datenkompression

• Wir wollen das Konzept der typischen Sequenzen anwenden, um Daten zu komprimieren

• Seien X1,…,Xn unabhängige Zufallsvariablen auf {1,…,m}, die jeweils eine Verteilung p haben

• Idee: wir teilen alle Sequenzen auf in typische und restliche, und kodieren diese getrennt

Page 20: Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 4.5

Information & Kommunikation 6

20

Exkurs: Datenkompression

• Dazu nummerieren wir die typischen Sequenzen beliebig, ebenso die übrigen

• Um eine typische Sequenz zu kodieren reichen log (|A|)+1= n(H(X)+)+1 Bits

• Die restlichen Sequenzen brauchen höchstens n log m+1 Bits.

• Wir brauchen noch 1 Bit, um anzuzeigen, ob wir eine typische Sequenz kodieren

Page 21: Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 4.5

Information & Kommunikation 6

21

Exkurs: Datenkompression

• Damit ist die erwartete Codelänge

Page 22: Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 4.5

Information & Kommunikation 6

22

Exkurs: Datenkompression

• Bemerkungen:– ‘= + log m + 2/n kann beliebig klein

gemacht werden durch Wahl von , n– Der Code kann „leicht“ kodiert und dekodiert

werden– Es gibt zwei Codewortlängen

• Typische Sequenzen: n(H(X)+)+2• Andere n log m +2

– Es gibt keinen Fehler bei der Dekodierung– Kleineres bewirkt, dass n größer gewählt

werden muss

Page 23: Information und Kommunikation Hartmut Klauck Universität Frankfurt SS 07 4.5

Information & Kommunikation 6

23

Exkurs: Datenkompression

• Theorem 6.9– Wenn X1,…,Xn unabhängig, und jeweils

mit p verteilt sind, können Sequenzen ihrer Werte mit erwarteter Codelänge n(H(X)+) für beliebig kleines (und genügend großes n) kodiert werden