16

Signale Wichtig Energie Signal

  • Upload
    abuo

  • View
    46

  • Download
    0

Embed Size (px)

DESCRIPTION

ok

Citation preview

Page 1: Signale Wichtig Energie Signal

Universität KoblenzInstitut für integrierte Naturwissenschaften

Abteilung Physik

�Signale�

Seminar �Digitale Signalverarbeitung�Dr. Merten Joost

vonRalf Töppner

Matrikelnr.: 201210387Koblenz, den 10. Juni 2005

Page 2: Signale Wichtig Energie Signal

Inhaltsverzeichnis

1 Vorwort 2

2 Signale und Systeme 2

3 Elementarsignale 3

4 Dirac-Impuls 4

5 Einteilung von Signalen 6

5.1 Diskrete und kontinuierliche Signale . . . . . . . . . . . . . . . . . . . . . . . 65.2 Deterministische und stochastische Signale . . . . . . . . . . . . . . . . . . . . 75.3 Periodische, kausale, gerade und ungerade Signale . . . . . . . . . . . . . . . . 85.4 Reelle und komplexe Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85.5 Energie- und Leistungssignale . . . . . . . . . . . . . . . . . . . . . . . . . . . 95.6 Orthogonale Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

6 LTI-Systeme 12

6.1 Besondere Eigenschaften linearer Systeme . . . . . . . . . . . . . . . . . . . . 126.2 Weitere Eigenschaften von Systemen . . . . . . . . . . . . . . . . . . . . . . . 14

7 Zusammenfassung 14

1

Page 3: Signale Wichtig Energie Signal

1 Vorwort

Im Studium der Informatik ist das Thema Signale kaum mehr vertreten. Wir gehen in der In-formatik von den Bits als atomare Einheiten aus. Alles ist aus Nullen und Einsen aufgebaut.Wenn Daten übertragen werden, werden auch nur eben diese Einsen und Nullen übertragen.Was sich physikalisch auf der Leitung bzw. in den Geräten abspielt wird weitestgehend auÿerAcht gelassen, dabei könnte die Informatik ohne die digitale Signalverarbeitung gar nichtexistieren. Schlieÿlich müssen bei der Datenübertragung die Bits immer wieder in Signaleumgewandelt werden. Diese Signale können sich je nach verwendetem Medium stark von-einander unterscheiden. Am anderen Ende müssen diese Signale abgetastet und analysiertwerden. Für das Verständnis dieser Vorgänge ist es nötig eine allgemeine Vorstellung vonSignalen zu bekommen. Diese soll hier gescha�en werden.

2 Signale und Systeme

Das Wort Signal ist vom lateinischen Begri� �signalis� abgeleitet. Es bedeutet soviel wie�dazu bestimmt, ein Zeichen zu geben�1. Unter diesem Begri� werden die in einem phy-sikalischen System auftretenden Variablen, wie etwa Spannungen, Ströme, Temperaturen,Kräfte usw., zusammengefasst. In den meisten Fällen ändern sich diese Signale mit der Zeitund können daher, mathematisch betrachtet, als Funktionen der Zeit dargestellt werden.Diese wird meist mit dem Buchstaben t abgekürzt. Betrachten wir etwa den Strom i, derdurch einen Leiter �ieÿt, so kann die Tatsache, dass i von der Zeit t abhängt durch die Glei-chung i = f(t) oder durch i = i(t) ausgedrückt werden. Die zweite Schreibweise ist allerdingsinkonsequent, da mit dem gleichen Symbol sowohl die Funktion, als auch der Funktionswertzum Zeitpunkt t bezeichnet wird. Allerdings stellt das kein Problem dar, da zu jeder Zeiterkennbar ist, ob Funktion, oder Funktionswert gemeint ist. Bei der Festlegung der Formel-zeichen wird dabei meist keine Rücksicht auf die physikalische Natur der Signale genommen.Stattdessen verwendet man meist Bezeichnungen wie x(t), y(t) oder z(t).

Die Verarbeitung bzw. Umwandlung (Transformation) eines Eingangssignals zu einemAusgangssignal wird formal durch die Formel x(t) → y(t) oder umgekehrt y(t) = T{x(t)}ausgedrückt.

Abbildung 1: Zeitdarstellung Abbildung 2: Darstellung als Spektrum

Signale lassen sich jedoch nicht nur im Zeitbereich, sondern auch im Frequenzbereich,im sogenannten Spektrum, des Signals beschreiben. Die Kenntnis des Spektrums ist dieentscheidende Voraussetzung um Probleme in der Digitalen Signalverarbeitung zu lösen.So kann z.B. eine ausreichende Abtastfrequenz nur mit Kenntnis des Spektrums ermitteltwerden. In Abbildung 1 ist eine zeitliche Darstellung eines Signals, in Abbildung 2 eineDarstellung als Spektrum gezeigt. In der zeitlichen Darstellung ist zu sehen, wie sich dieAmplitude des Signals mit der Zeit ändert. In der Gra�k eines Spektrums lässt sich ablesen,aus welchen Frequenzen ein Signal zusammengesetzt ist, und zu welchem Anteil diese amSignal beteiligt sind.

Ein weiterer Begri�, der oft im Zusammenhang mit Signalen verwendet wird, ist derBegri� �System�. Ein System ist ein technisches oder physikalisches Gebilde, das ein Signal,das Eingangssignal x(t), in ein anderes Signal, das Ausgangssignal y(t), umformt. StattEingangs- und Ausgangssignal spricht man auch von �Erregung� und �Reaktion�. Gra�sch

1http://www.wikipedia.org

2

Page 4: Signale Wichtig Energie Signal

Abbildung 3: System

wird ein System durch einen Block dargestellt, in welchem die Signale gekennzeichnet wer-den. Die Signalrichtung wird dabei durch Pfeile ausgedrückt (siehe Abbildung 3). Kapitel 6auf Seite 12 befasst sich noch einmal ausführlicher mit Systemen, vor allem mit sog. LTI-Systemen.

3 Elementarsignale

Unter Elementarsignalen versteht man eine Klasse von Zeitfunktionen, aus denen jeder be-liebige Signalverlauf zusammensetzbar ist. Elementarsignale lassen sich eindeutig durch eineFunktion x(t) beschreiben. Im Folgenden sollen einige typische Elementarsignale vorgestelltwerden.

• Sprungfunktion (auch Einheitssprung oder Schrittfunktion)

σ(t) ={

0 : t < 01 : t ≥ 0

Abbildung 4: Sprungfunktion

• Rampenfunktion

r(t) = t · σ(t) ={

0 : t < 0t : t ≥ 0

Abbildung 5: Rampenfunktion

• Rechteckfunktion

3

Page 5: Signale Wichtig Energie Signal

rect

(t

T0

)=

{0 : |t| > T0

2

1 : |t| ≤ T02

Abbildung 6: Rechteckfunktion

• sinc- oder Spalt-Funktion

sinc

(t

T0

)=

sin(

πtT0

)πtT0

Abbildung 7: sinc-Funktion

Die in der Signalverarbeitung wohl wichtigste Funktion ist die Cosinusfunktion oderCosinusschwingung:

x(t) = X̂ cos(2πf0t) (1)

X̂ gibt dabei die Amplitude oder den Scheitelwert und f0 die Frequenz an. Verschiebtman die Cosinusfunktion um 2π nach rechts, so erhält man die Sinusfunktion. Multipli-ziert man nun die Sinusfunktion mit der imaginären Einheit j und addiert das Ergebniszur Cosinusfunktion (1) so erhalten wir mithilfe der Eulerschen Formel (2) die komplexeSinusschwingung oder komplexe Exponentialfunktion (3).

ejx = cos(x) + j sin(x) (2)

x(t) = X̂ cos(2πf0t) + jX̂ sin(2πf0t) = X̂ej2πf0t (3)

x(t) kann man sich dabei als Drehzeiger mit der Länge X̂ und dem Winkel 2πf0t(= ωt)vorstellen, welcher mit der Winkelgeschwindigkeit 2πf0(= ω) in der komplexen Ebene ro-tiert. Die Frequenz f0 ist dabei gleich der Anzahl der Umdrehungen pro Zeiteinheit (siehe

Abbildung 8: Die komplexe Exponentialfunktion als Drehzeiger

Abbildung 8).

4 Dirac-Impuls

Die δ-Funktion, die zu Ehren des Mathematikers Paul A. M. Dirac (* 8. August 1902 in Bris-tol; † 20. Oktober 1984 in Tallahassee)2 auch Diracfunktion genannt wird, ist im mathema-

2http://www.calsky.com/lexikon/de

4

Page 6: Signale Wichtig Energie Signal

tischen Sinne eigentlich keine Funktion, sondern eine Distribution, d.h. eine verallgemeinerteFunktion. Das bedeutet, dass ein Funktionswert sich nicht durch Einsetzen eines Argumentsergibt, sondern durch Ausführen einer Rechenvorschrift. Es gibt mehrere Möglichkeiten, dieDeltafunktion zu de�nieren, eine Variante lautet:

δ(t) = 0 für t 6= 0∮∞−∞ δ(t)dt = 1Für t = 0 ist der Funktionswert unbestimmt!

(4)

Die Diracfunktion kann man sich als Rechteckfunktion mit der Fläche 1 vorstellen. DieRechteckfunktion hat die Höhe 1 und die Breite T0. Multipliziert man die Funktion mit 1

T0und lässt anschlieÿend T0 gegen Null gehen, so entsteht ein Rechteckimpuls δ(t) welcherunendlich hoch und unendlich dünn ist.

Die De�nition der Diracfunktion (4) kann so interpretiert werden, dass die Diracfunkti-on nur dort �existiert�, wo ihr Argument t verschwindet. Die Deltafunktion an der Stelle t0kann also auch durch Gleichung (5) beschrieben werden.

δ(t− t0) = δ(t0 − t) (5)

Betrachten wir nun das Integral∫ ∞

−∞x(t) · δ(t− t0)dt =

∫ ∞

−∞x(t) · δ(t0 − t)dt =?

Der Integrand ist ein Produkt, wobei einer der Faktoren (nämlich der Dirac-Impuls) auÿerbei t = t0 stets verschwindet. Der andere Faktor (nämlich x(t)) hat darum nur bei t = t0einen Ein�uss auf das Produkt. Das Produkt und damit auch obiges Integral kann deshalbanders geschrieben werden:∫ ∞

−∞x(t) · δ(t0 − t)dt =

∫ ∞

−∞x(t) · δ(t0 − t)dt = x(t0) ·

∫ ∞

−∞δ(t0 − t)dt︸ ︷︷ ︸

1

= x(t0)

Damit haben wir nun die wichtigste Eigenschaft des Dirac-Impulses (Gleichung (6)).∫ ∞

−∞x(t) · δ(t− t0)dt =

∫ ∞

−∞x(t) · δ(t0 − t)dt = x(t0) (6)

Man sagt, dass der Dirac-Impuls δ(t− t0) das Signal x(t) an der Stelle t = t0 abtastet. Manspricht daher von der �Abtasteigenschaft�[1] des Dirac-Impulses. Diese Eigenschaft wird auchAusblendeigenschaft[2] genannt. Mithilfe der Fouriertransformation3 erhalten wir:

δ(t) ◦−−•∫ ∞

−∞δ(t) · e−jωtdt =

∫ ∞

−∞δ(t) · e−jω0︸ ︷︷ ︸

=1

dt =∫ ∞

−∞δ(t)dt = 1

δ(t) ◦−−•1 (7)

Das bedeutet also, dass der Dirac-Impuls alle Frequenzen enthält.

Abbildung 9: Der Dirac-Impuls3Siehe Vortrag �Fouriertrnsformation� des Seminars �Digitale Signalverarbeitung�

5

Page 7: Signale Wichtig Energie Signal

Dargestellt wird der Dirac-Impuls, wie Abbildung 9 zeigt, mit einem Pfeil. Die nebendem Pfeil stehende Zahl gibt das Gewicht, d.h. die Fläche des Dirac-Impulses an. Mithilfedes Dirac-Impulses sind wir nun in der Lage die sogenannte Abtastfunktion oder Dirac-Impulsreihe zu bilden. Zu diesem Zweck addiert man zum Dirac-Impuls seine um das Viel-fache von T verschobenen Duplikate (siehe Gleichung (8)).

δT (t) =∞∑−∞

δ(t− nT ) (8)

Die so de�nierte Funktion ist in Abbildung 10 zu sehen. Neben Dirac-Impulsreihe und Ab-

Abbildung 10: Abtastfunktion

tastfunktion wird sie auch Dirac-Kamm genannt.

5 Einteilung von Signalen

Signale lassen sich aufgrund verschiedener Eigenschaften in verschiedene Klassen einteilen.In diesem Kapitel sollen verschiedene solche, zum Teil unabhängige Einteilungen vorgenom-men werden. Zunächst werden Signale in Bezug auf ihren Werte- und De�nitionsbereichuntersucht.

5.1 Diskrete und kontinuierliche Signale

Ein Signal s(t), dessen Funktionswerte s nur für diskrete - meist äquidistante - Zeitpunktetv; v = 0,±1,±2,±3, ... de�niert ist, nennt man zeitdiskret. Ist der Funktionswert s hingegenfür jeden Punkt t eines kontinuierlichen Zeitbereichs de�niert, dann nennt man das Signalzeitkontinuierlich. Entsprechend nennt man das Signal wertdiskret bzw. wertkontinuierlich,in Abhängigkeit davon, ob der Wertebereich diskret oder kontinuierlich ist.

Man kann also bezüglich des Werte- und De�nitionsbereiches zwischen vier verschiedenenSignaltypen unterscheiden:

a) zeitkontinuierliche wertkontinuierliche Signale

b) zeitdiskrete wertkontinuierliche Signale

c) zeitkontinuierliche wertdiskrete Signale

d) zeitdiskrete und wertdiskrete Signale

Signalart (a) wird auch kurz als analoge Signale bezeichnet und Signalart (d) als digitaleSignale, für den Fall, dass der Wertebereich von s(t) endlich ist. Diese Signale sind für dieDSV (Digitale Signalverarbeitung) natürlich die bedeutendsten. In Abbildung 11[4] ist zujeder Signalart ein Beispielgraph abgebildet. Zu beachten ist, dass bei zeitdiskreten Funk-tionen der Funktionswert zwischen den diskreten Zeitpunkten dv nicht Null ist, sondernunde�niert (Fälle (b) und (d)). Ein reelles zeitdiskretes Signal s(t) kann man sich auchals Folge reeller Zahlen vorstellen. Erzeugt wird solch ein Signal, indem man ein analo-ges Signal mit äquidistanten Abständen abtastet. Der entsprechend umgekehrte Vorgangwird Interpolation genannt. Ein zeitkontinuierliches wertdiskretes Signal erhält man durch

6

Page 8: Signale Wichtig Energie Signal

Abbildung 11: Signale in Bezug auf Wert- und De�nitionsbereich

Quantisierung eines analogen Signals. In diesem Fall nennt man den umgekehrten VorgangGlättung. Während eine Interpolation unter bestimmten Bedingungen das Originalsignalfehlerfrei wiederherstellen kann, ist eine Glättung stets mit Fehlern behaftet. Dieser Fehlerwird auch �Quantisierungsrauschen� genannt. Die Entstehung eines digitalen Signals kannman sich vorstellen, als Abtastung und Quantisierung eines analogen Signals, wobei die Rei-henfolge dabei keine Rolle spielt.

In der nachfolgenden Tabelle sind nocheinmal die Beziehungen zwischen den verschiede-nen Signalarten dargestellt:

(a) → (b) : Abtastung(a) → (c) : Quantisierung(a) → (d) : analog-digitale-Umsetzung (ADU)(d) → (a) : digital-analog-Umsetzung (DAU)(c) → (a) : Glättung(b) → (a) : Interpolation

5.2 Deterministische und stochastische Signale

Deterministische Signale sind Funktionen, deren Funktionswerte durch einen mathemati-schen Ausdruck oder eine bekannte Regel bestimmt (determiniert) sind. Eines der bekann-testen deterministischen Signale ist die schon erwähnte Cosinusfunktion (Gleichung (1)).

Abbildung 12: Beispiel für ein deterministisches und ein stochastisches Signal

Ein stochastisches Signal wird durch den Zufall bestimmt und lässt sich daher nur mitstatistischen Mitteln beschreiben. D.h. die Amplitude eines stochastischen Signals lässt sichzu keiner Zeit exakt vorherbestimmen. Das bedeutet aber nicht, dass sich nichts über derar-tige Signale sagen lässt. So sind oft z.B. Mittelwert, Varianz und Autokorrelationsfunktioneines solchen Signals bestimmbar. Abbildung 12 zeigt für beide Signalarten jeweils ein Bei-spiel.

7

Page 9: Signale Wichtig Energie Signal

Allein stochastische Signale, wie z.B. Sprach- oder Bildsignale, sind Träger von Informa-tionen. Vielfach sind stochastische Signale aber auch unerwünschte Signale, bzw. Störsignale.Solche Signale sind der Grund für die Tatsache, dass jedes reale Signal streng genommen einstochastisches Signal ist, denn jedes Signal wird von Störsignalen überlagert. In der Theoriewerden diese Signale allerdings durch idealisierte, determinierte Signale ersetzt, da sich diesemathematisch leichter handhaben lassen.

5.3 Periodische, kausale, gerade und ungerade Signale

Ein Signal xP (t) heiÿt periodisch mit der Periode T0, wenn es die Bedingungen aus Gleichung(9) erfüllt.

xP (t) = xP (t + T0) (9)

Die sog. fundamentale Periode ist der kleinste positive Wert T0 welcher Gleichung (9) erfüllt.Im Allgemeinen nennt man dies kurz Periode. Bei periodischen Signalen genügt die Kenntnisder Signal-Funktion während einer einzigen Periode, um das komplette Signal zu kennen.Ein Beispiel hierfür ist die Cosinusfunktion aus Abbildung 5.2.

Eine weitere wichtige Klasse von Signalen sind die kausalen Signale. Ein Signal xcs(t)nennt man kausal, wenn es auf der negativen Zeitachse Null ist. Es wird de�niert durchGleichung (10).

xcs(t) ={

x(t) : t ≥ 00 : t < 0 (10)

Dabei beschreibt x(t) ein beliebiges Signal. Das bekannteste kausale Signal ist die Schritt-funktion (oder Sprungfunktion aus Kapitel 3 auf Seite 3) u(t), die durch Gleichung (11)de�niert ist (siehe Abbildung 13).

u(t) ={

1 : t ≥ 00 : t < 0 (11)

Abbildung 13: Beispiel für ein kausales Signal

Gerade und ungerade Signale sind in Gleichung (13) de�niert.

xe(t) = xe(−t), xo(t) = −xo(−t) (12)

Ein gerades Signal ist spiegelsymmetrisch zur y-Achse, wie beispielsweise die Cosinusfunk-tion oder die Rechteckfunktion. Ein ungerades Signal hingegen ist punktsymmetrisch zumUrsprung. Beispiele hierfür sind die Sinusfunktion und die Sägezahnfunktion in Abbildung14. Jedes beliebige Signal lässt sich in ein gerades und ein ungerades Teilsignal zerlegen.Dies geschieht einfach mit Gleichung (13).

x(t) =x(t)2

+x(−t)

2︸ ︷︷ ︸xe(t)

+x(t)2

− x(−t)2︸ ︷︷ ︸

xo(t)

(13)

5.4 Reelle und komplexe Signale

Die meisten Signale, sowohl in der Theorie als auch in der Praxis, sind reelle Signale und esgilt Gleichung (14).

xr(t) = x(t), mit x(t) reell (14)

8

Page 10: Signale Wichtig Energie Signal

Abbildung 14: Ungerade Sägezahnfunktion

Ein reelles Signal ist eine Funktion, die der unabhängigen reellen Zeitvariablen t einen reel-len Funktionswert xr(t) zuordnet. Mathematisch ausgedrückt: xr : R→ R.

Die Signalverarbeitung arbeitet jedoch auch mit komplexen Signalen, die durch Gleichung(15) de�niert werden.

xc(t) = x(t), mit x(t) komplex (15)

Mathematisch ausgedrückt: xc : R → C. Das klassische Beispiel hierfür ist die komplexeSinusschwingung (Gleichung ( 3 auf Seite 4)). Jedes komplexe Signal kann man sich auszwei reellen Signalen zusammengesetzt vorstellen, nämlich dem Realteil xr(t) und dem Ima-ginärteil xi(t) (siehe Gleichung (16)),

xc(t) = xr(t) + jxi(t) (16)

wobei j die imaginäre Einheit ist.

5.5 Energie- und Leistungssignale

Eine weitere Möglichkeit der Einteilung von Signalen orientiert sich an den Begri�en Energieund Leistung.

Abbildung 15: Einfache Schaltung mit Widerstand

R =U

I(17)

Abbildung 15 zeigt eine einfache Schaltung mit Widerstand R. Den Zusammenhangzwischen Spannung, Strom und Widerstand, der aus dem Ohm'schen Gesetz gefolgert ist,beschreibt Gleichung (17). Die im Zeitintervall t1 ≤ t ≤ t2 gelieferte elektrische Energie Eel

berechnet sich allgemein nach Gleichung (18).

Eel =∫ t2

t1

u(t) · i(t)dt (18)

Aus (17) und (18) folgt Gleichung (19).

Eel =1R

∫ t2

t1

u2(t)dt = R

∫ t2

t1

i2(t)dt (19)

Die (mathematische) Energie ist also proportional zum Integral über die quadrierte Zeit-funktion. Die Energie eines zeitkontinuierlichen Signals s(t) nicht festgelegter physikalischerDimension ist also bestimmt durch De�nition 20.

E =∫ ∞

−∞s2(t)dt (20)

9

Page 11: Signale Wichtig Energie Signal

Ein Signal heiÿt nun Energiesignal, wenn es der Gleichung (21) genügt.

0 < E =∫ ∞

−∞s2(t)dt < ∞ (21)

Ein Energiesignal besitzt also ein Signal mit endlicher und nicht verschwindender EnergieE. Die Energie E = 0 wird oftmals auch zugelassen. Ein Beispiel für Energiesignale ist dieRechteckfunktion aus Kapitel 2 auf Seite 2 (siehe Abbildung 16). Die Energie dieses Signals

Abbildung 16: Rechtecksignal mit Amplitude A

berechnet sich nun so:

E =∫ T0/2

−T0/2

A2dt = A2 · T0

Die im Intervall −θ ≤ t ≤ +θ umgesetzte mittlere elektrische Leistung berechnet sichallgemein:

Pel =12θ

∫ θ

−θ

u(t) · i(t)dt (22)

Daraus folgt nach Gleichung (17):

Pel =1R

12θ

∫ θ

−θ

u2(t)dt = R12θ

∫ θ

−θ

i2(t)dt (23)

Überträgt man Beziehung (24) nun auf ein unendlich langes Zeitintervall, so erhalten wir diemittlere Leistung eines zeitkontinuierlichen Signals s(t) nicht festgelegter Dimension durch:

P = limθ→∞

12θ

∫ θ

−θ

s2(t)dt (24)

Mithilfe Gleichung (24) können wir Leistungssignale jetzt wie folgt de�nieren:

0 < P = limθ→∞

12θ

∫ θ

−θ

s2(t)dt < ∞ (25)

Man kann also sagen, dass ein Leistungssignal s(t) in einem unendlich langen Zeitintervalleine nichtverschwindende endliche mittlere Leistung P umsetzt. Das für die DSV bedeu-tendste Leistungssignal ist die Cosinusschwingung.

Allgemein lässt sich sagen, dass ein Leistungssignal kein Energiesignal ist, da für einsolches gilt: E → ∞. Ebenso ist ein Energiesignal kein Leistungssignal, da in diesem Fallgilt: P = 0.

5.6 Orthogonale Signale

Zur De�nition orthogonaler Signale braucht es den Begri� des Skalarprodukts. Dieses ist fürzwei Energiesignale (siehe Kapitel 5.5) x(t) und y(t) wie folgt de�niert:

< x, y >=∫ ∞

−∞x(t)y∗(t)dt (26)

10

Page 12: Signale Wichtig Energie Signal

Wobei y∗(t) das konjugiert komplexe Signal zu y(t) ist. Analog dazu de�niert man dasSkalarprodukt zweier T0-periodischer Leistungssignale (siehe Kapitel 5.5) xp(t) und yp(t):

< xp, yp >T0=∫ T0/2

−T0/2

xp(t)y∗p(t)dt (27)

Anhand des Skalarproduktes können wir nun die Orthogonalität zweier Energiesignale x(t)und y(t) respektive zweier T0-periodischer Leistungssignale xp(t) und yp(t) de�nieren. Undzwar herrscht Orthogonalität genau dann, wenn ihre Skalarprodukte Null sind:

< x, y >= 0, respektive < xp, yp >T0= 0 (28)

Anhand dieser De�nition lässt sich nun zeigen, dass komplexe Sinusschwingungen mit ver-schiedenen Frequenzen orthogonal zueinander stehen[1].

Gegeben sind zwei komplexe Sinusschwingungen ϕk(t) = ej2πkf0t und ϕl(t) = ej2πkf0t mitden Frequenzen kf0 und lf0, wobei k und l ganze Zahlen sind. Für das Skalarprodukt zweierkomplexer Sinusschwingungen ϕk(t) und ϕl(t) gilt:

〈ϕk, ϕl〉T0 =∫ T0/2

−T0/2

ej2π(k−l)f0tdt =

∫ T0/2

−T0/2ej0dt = T0 für k = l

ej2π(k−l)f0t

j2π(k−l)f0

∣∣∣T0/2

−T0/2für k 6= l

ej2π(k−l)f0t

j2π(k−l)f0

∣∣∣T0/2

−T0/2=

= cos(2π(k−l)f0T02 )+j sin(2π(k−l)f0

T02 )−cos(2π(k−l)f0

−T02 )−j sin(2π(k−l)f0

−T02 )

j2π(k−l)f0

= cos(2π(k−l)f0T02 )−cos(2π(k−l)f0

T02 )+j sin(2π(k−l)f0

T02 )+j sin(2π(k−l)f0

T02 )

j2π(k−l)f0

= 2 sin(π(k−l)f0T0)2π(k−l)f0

= 2 sin((k−l)π)2π(k−l)f0

mit |k − l| ∈ N

= 0

Diese Eigenschaft ist von entscheidender Bedeutung bei der Herleitung der Fourier-Reihe.

Mit dem Skalarprodukt lässt sich allerdings nicht nur die Orthogonalität zweier Funktio-nen de�nieren, sondern auch die Norm ‖x‖ eines Energiesignals, bzw die Norm ‖xp‖ einesperiodischen Signals:

‖x‖ =√

< x, x >, respektive ‖xp‖ =√

< xp, xp >T0 (29)

In Anlehnung an die Vektorrechnung kann man unter der Norm auch die Länge eines Signalsverstehen. So können wir mithilfe Gleichung (20) für die Energie E eines Energiesignalsschreiben:

E = ‖x‖2 =< x, x > (30)

Für die Energie E eines T0-periodischen Signals während der Periode T0 können wir analogschreiben:

E = ‖xp‖2 =< xp, xp >T0 (31)

Woraus sich für die mittlere Leistung P des T0-periodischen Signals ergibt:

P =1T0‖xp‖2 =

1T0

< xp, xp >T0 (32)

Wie schon in Kapitel 5.5 auf Seite 9 gesehen, muss das Ergebnis noch mit R oder 1R multi-

pliziert werden (je nachdem, ob das Signal einen Strom oder eine Spannung darstellt), wobeiR den Widerstand darstellt, um physikalisch sinnvolle Ergebnisse zu erhalten.

11

Page 13: Signale Wichtig Energie Signal

6 LTI-Systeme

Eine besondere Klasse von Systemen bilden diejenigen, deren Verhalten von den Eingangs-signalen unabhängig ist. Solche Signale heiÿen linear. Es gilt:

c1x1(t) + c2x2(t) linearesSystem−−−−−−−−−−−→

c1y1(t) + c2y2(t) (33)

für beliebige Konstanten c1, c2. Darin enthalten sind zwei unabhängige Eigenschaften:

• Die Homogenitätc · x(t) → c · y(t) (34)

Ein System heiÿt also homogen, wenn eine Änderung der Amplitude des Eingangssi-gnals, eine identische Änderung der Amplitude im Ausgangssignal bewirkt. Für dis-krete Signale schreibt man auch: c · x[n] → c · y[n].Ein Widerstand ist ein einfaches Beispiel, sowohl für ein homogenes als auch für einnichthomogenes System. Nehmen wir an, das Eingangssignal des Systems sei die Span-nung v(t), die am Widerstand abfällt, und die Ausgabe des Systems sei der Strom i(t)durch den Widerstand. Nach dem Ohm'schen Gesetz in der Elektrotechnik, welchessagt, dass der Spannungsabfall U über einem metallischen Leiter bei konstanter Tem-peratur proportional zu dem hindurch�ieÿenden elekrischen Strom mit der StromstärkeI ist (U ∼ I), gilt, dass eine Erhöhung oder Senkung der Spannung eine vom Faktoräquivalente Erhöhung oder Senkung der Stromstärke bewirkt. Dieses System ist alsohomogen.Nehmen wir nun an, das Eingangssignal sei wieder die Spannung v(t) am Widerstand,das Ausgangsignal sei nicht mehr der Strom i(t) durch den Widerstand, sondern dieam Widerstand abfallende Leistung p(t). Da Leistung proportional zum Quadrat derSpannung ist, steigt bei einer Verdopplung der Spannung die Leistung am Transistorum den Faktor vier. Dieses System ist also nicht homogen und damit auch nicht linear.

• Die Additivitätx1(t) + x2(t) → y1(t) + y2(t) (35)

Ein System heiÿt also Additiv, wenn es von addierten Signalen durchquert wird, oh-ne dass diese interagieren. Handelt es sich wieder um diskrete Signale, so können wirschreiben: Wenn gilt y1[n] → x1[n] und y2[n] → x2[n] dann gilt auch y1[n] + y2[n] →x1[n] + x2[n].Als Beispiel kann man sich ein Telefon vorstellen: Wenn man mit einer Person telefo-niert und im Hintergrund spricht noch eine andere Person, so kann man am anderenEnde die beiden Personen klar voneinander unterscheiden. Die Daten interagieren alsonicht. Dieses Beispielsystem ist also additiv.

Ein System, welches sowohl die Homogenität, als auch die Additivität erfüllt heiÿt linear.Angenommen, ein System y(t) = V · x(t) mit einer beliebigen Verstärkung V sei linear. DieLinearität gilt auch noch dann, wenn sich die Verstärkung zeitlich ändert.

y(t) = V (t) · x(t) mit z.B. V (t) = sin(t)

So ein System nennt man zeitvariant. Ändert sich die Systemeigenschaft zeitlich nicht, soheiÿt das System zeitinvariant:

x(t− τ) linearesSystem−−−−−−−−−−−→

y(t− τ) (36)

Linearität und Zeitinvarianz sind völlig unabhängige Eigenschaften. Erfüllt ein System diesebeiden Eigenschaften, nennt man es ein LTI-System (Linear TimeInvariant). Solche Systemesind besonders einfach zu handhaben.

6.1 Besondere Eigenschaften linearer Systeme

Eine besondere Eigenschaft linearer Systeme ist die Kommutativität. Dies betri�t das Zu-sammenspiel zweier oder mehrerer Systeme. Nehmen wir an, zwei Systeme sind in Reihe

12

Page 14: Signale Wichtig Energie Signal

Abbildung 17: Reihenschaltung zweier Systeme

geschaltet (Siehe Abbildung 17). Das Ausgangssignal des einen Systems (A) ist dann dasEingangssignal des anderen Systems (B). Ist jedes dieser Signale linear, so ist auch die Kom-bination dieser beiden Systeme linear. Die Kommutativität bedeutet, dass die Reihenfolgeder Systeme im Gesamtsystem keine Rolle für das Gesamtsystem spielt. Im Beispiel könntealso auch System B vor Signal A stehen. Angenommen ein System besteht aus zwei Teilen,einer für die Verstärkung eines Signales, der andere für Filterung. Sind beide Einzelsystemelinear, so muss man sich nicht überlegen in welcher Reihenfolge die beiden Teile geschaltetwerden sollen. Da es in der Elektrik aber nichtlineare E�ekte wie Interferenz oder interneStörsignale gibt, lässt sich das nicht für die Realität verallgemeinern.

Abbildung 18: System mit mehreren Ein- und Ausgängen

Gehen wir nun einen Schritt weiter und betrachten Systeme mit mehreren Ein- undAusgängen (Siehe Abbildung 18). Solch ein System ist genau dann linear, wenn es eineKomposition aus linearen Subsystemen ist. Die Addition von Signalen ändert dabei nichtsan der Linearität. Die Komplexität des Systems spielt keine Rolle. Wichtig ist nur, dass eskeine nichtlinearen Ein�üsse im System gibt.

Um die Linearität eines Systems mit mehreren Ein- bzw Ausgängen zu verstehen betrachtenwir nun ein solches System. Wir legen auf einen der Eingänge ein Signal, während die ande-ren Eingänge auf Masse gezogen werden. Nun erhalten wir auf den Ausgängen verschiedeneMuster von Signalen. Als nächstes wiederholen wir den Vorgang mit einem anderen Signalund einem anderen Eingang. D.h. wir legen diesmal ein Signal an einen anderen Eingang an,während alle anderen wieder auf Masse gezogen werden. Das hat nun andere Ausgangssi-gnale zur Folge. Als letztes legen wir beide Signale gleichzeitig an den jeweiligen Eingängenan. Die Signale, die nun an den Ausgängen erscheinen sind einfach jeweils die Summe derbeiden vorigen Ausgangssignale.

Eine weitere wichtige Frage bei linearen Systemen ist, ob die Multiplikation in linearenSystemen erlaubt ist. Tatsächlich hängt dies davon ab, mit was ein Signal multipliziert wird.Wird es mit einer Konstanten multipliziert, so ist das System linear. Dies kommt einerVerstärkung oder einer Dämpfung gleich. Die Multiplikation mit nichtkonstanten Signalen

13

Page 15: Signale Wichtig Energie Signal

hingegen ist nichtlinear.

6.2 Weitere Eigenschaften von Systemen

Im Folgenden sollen noch drei allgemeine Typen von Systemen erklärt werden:

• Kausale und deterministische SignaleEin kausales System reagiert erst dann mit einem Ausgangssignal, wenn ein Eingangssi-gnal anliegt. Die Stoÿantwort eines kausalen Systems verschwindet für t < 0. Technischrealisierbare Systeme sind stets kausal. Die Kausalität ist eine Eigenschaft von zeitab-hängigen Signalen.Ein deterministisches System reagiert bei gleicher Anfangsbedingung und gleicher An-regung stets mit demselben Ausgangssignal. Im Gegensatz dazu stehen die stochasti-schen Systeme. Wir haben festgestellt, dass stochastische Signale häu�ger vorkommenals deterministische. Bei Systemen ist dies genau umgekehrt. Ein Beispiel für ein sto-chastisches Signal sind Zufallsgeneratoren.

• Dynamische SystemeEin System heiÿt dynamisch, wenn sein Ausgangssignal auch von vergangenen Wertendes Eingangssignales abhängt. Das System muss somit mindestens ein Speicherelemententhalten. Bei gedächtnislosen (statischen) Systemen hängt das Ausgangssignal nurvom momentanen Wert des Eingangssignales ab.

• StabilitätBeschränkte Eingangssignale ergeben bei stabilen Systemen stets auch beschränkteAusgangssignale (�BIBO-stabil� = �bounded input - bounded output�):

| x(t) |≤ A < ∞⇒| y(t) |≤ B < ∞;A,B ≥ 0 (37)

7 Zusammenfassung

In diesem Dokument sollte ein kurzer Überblick über den Grundbegri� Signale gegebenwerden. Es sollte ein Grundverständnis des Themas gescha�en werden, mit dem der Einstiegin die Digitale Signalverarbeitung erleichtert werden sollte. Zu diesem Zweck wurden erstdie Begri�e Signal und System erklärt, dann wurden einige Elementarsignale vorgestellt unddann mithilfe des Rechtecksignals der Dirac-Impuls (oder Diracstoÿ) eingeführt und mit ihmdie Abtastfunktion bzw. der Dirackamm. Im folgenden Kapitel wurden einige Einteilungenvon Signalen vorgenommen, z.B. in Energie- und Leistungssignale. Das letzte Kapitel handeltvon Systemen und da speziell von linearen Systemen, welche eine entscheidende Rolle inder digitalen Signalverarbeitung spielen. Mit diesem Wissen sollte nun der Einstieg in dieDSV gescha�t sein und weiterführende Themen wie die Fourier-Transformation angegangenwerden können.

14

Page 16: Signale Wichtig Energie Signal

Literatur

[1] Daniel Ch. von Grüningen, Digitale Signalverarbeitung, 2. Au�age, FachbuchverlagLeipzig

[2] Martin Meyer: Grundlagen der Informationstechnik - Signale Systeme und Filter, 1.Au�age, Vieweg-Verlag

[3] M. Huemer: Vorlesung Signal- und Biosignalverarbeitung, Uni-versity of Applied Sciences of Upper Austria http://webster.fh-hagenberg.at/sta�/wbackfri/Teaching/BSV/

[4] Prof. Dr.-Ing. R. Urbansky: Vorlesung Grundlagen der Informationsübertragung, Tech-nische Universität Kaiserslautern http://nt.eit.uni-kl.de/lehre/guet/

[5] Steven W. Smith: The Scientist and Engineer's Guide to Digital Signal Pro-cessing Second Edition, California Technical Publishing, San Diego, Californiahttp://www.dspguide.com

15