You are on page 1of 79

DISTRIBUTIONEN

Inhaltsverzeichnis
1 Axiome der Distributionentheorie 2
1.1 Notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2

Aquivalenzklassen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Axiome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Ein die Axiome erf ullendes Modell . . . . . . . . . . . . . . . . . . . . . . . 6
1.5 Die Eindeutigkeit des Modells . . . . . . . . . . . . . . . . . . . . . . . . . 9
2 Beispiele von Distributionen 11
2.1 Integrierbare Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Dirac - Distributionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3 Die Distributionen s

+
, s

, s

, ln
+
, ln

, ln

. . . . . . . . . . . . . . . . . . . 13
3 Ableitung st uckweise glatter Funktionen 16
3.1 Polynome mit Sprungstellen . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.2 St uckweise glatte Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . 17
4 Operationen auf Distributionen 22
4.1 Verschiebung und Einschrankung . . . . . . . . . . . . . . . . . . . . . . . 22
4.2 Recollement des morceaux . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.3 Multiplikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.4 Division . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.5 Hintereinanderausf uhrung . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
5 Distributionen auf oenen Intervallen 38
5.1 Denition und Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . 38
5.2 Der Trager einer Distribution . . . . . . . . . . . . . . . . . . . . . . . . . 39
5.3 Homogene Distributionengln. . . . . . . . . . . . . . . . . . . . . . . . . . 41
6 Grenzwerte und Stetigkeit 42
6.1 Grenzwerte der Form s . . . . . . . . . . . . . . . . . . . . . . . . . 43
6.2 Grenzwerte der Form s a . . . . . . . . . . . . . . . . . . . . . . . . . . 44
6.3 Stetigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
7 Integralrechnug f ur Distributionen 46
7.1 Stammdistributionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
7.2 Bestimmte Integrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
7.3 Siebeigenschaft der Deltafunktion . . . . . . . . . . . . . . . . . . . . . . . 48
7.4 Wachstumsordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
7.5 Distributionen als Funktionale . . . . . . . . . . . . . . . . . . . . . . . . . 52
i
Inhaltsverzeichnis Inhaltsverzeichnis
8 Folgen und Reihen von Distributionen 54
8.1 Konvergenz von Distributionenfolgen . . . . . . . . . . . . . . . . . . . . . 54
8.2 Die Deltafunktion als Grenzwert . . . . . . . . . . . . . . . . . . . . . . . . 55
8.3 Beispiel zu Distributionenfolgen . . . . . . . . . . . . . . . . . . . . . . . . 56
8.4 Fourierreihen von Distributionen . . . . . . . . . . . . . . . . . . . . . . . 57
9 Mehrdimensionale Distributionen 63
9.1 Distributionen in mehreren Variablen . . . . . . . . . . . . . . . . . . . . . 63
9.2 Vektorwertige Distributionen . . . . . . . . . . . . . . . . . . . . . . . . . . 65
9.3 Parametrisierte Integrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
10 Die Fourier - Transformation 70
10.1 L
1
Theorie der Fourier-Transformation . . . . . . . . . . . . . . . . . . . . 70
10.2 Fourier-Transf. f ur Distributionen . . . . . . . . . . . . . . . . . . . . . . . 72
11 Anwendungen 73
11.1 Idealisierte Darstellung physikalischer Groen . . . . . . . . . . . . . . . . 73
11.2 Aspekte zu Distributionen - Dierentialgleichungen . . . . . . . . . . . . . 74
11.3 Anwendungen in der Wahrscheinlichkeitstheorie . . . . . . . . . . . . . . . 75
ii
Vorwort
Distributionen, mit deren Hilfe eine Legalisierung idealisierter Begrie wie Punktla-
dung, Punktmasse, Einzelkraft, Linienkraft, Impulsfunktionen,... sowie damit in Verbin-
dung stehender Rechenoperationen erreicht wurde, kann man heute zum mathematischen
Allgemeingut rechnen. Trotzdem wird heute noch vielfach empirisch mit den oben ge-
nannten physikalischen Groen und Distributionen im allgemeinen gearbeitet, und die
Kenntnis der exakten mathematischen Theorien ist auf einen relativ kleinen Kreis von
Anwendern beschrankt. Es gibt verschiedene Zugange zur Theorie der Distributionen.
Der bekannteste Zugang ist jener von Schwartz, der jedoch auf der Theorie der Funktio-
nalanalysis aufbaut, die wieder nur den reinen Mathematikern vorbehalten ist. Hier wird
der weitgehend unbekannte Zugang von Silva gewahlt, der im groen und ganzen mit den
Begrien der Analysis 1 und etwas linearer Algebra auskommt. Der Text ist so aufgebaut,
da sich der Leser mit der eindimensionalen Theorie ausf uhrlich vertraut machen kann.
Die mehrdimensionale Theorie ist zur Information nur kurz dargeboten. Der Text endet
mit einer Formulierung der Theorie der Fourierreihen und der Fourier - Transformation
von Distributionen, sowie mit einigen Anwendungen aus Physik und Technik.
Kapitel 1
Axiome der Distributionentheorie
1.1 Notation
Im folgenden sei I ein kompaktes Intervall in R. Es werden folgende Bezeichnungen ver-
wendet:
C(I)...Vektorraum der stetigen Funktionen auf I. (Wird oft auch als C
0
(I) bezeich-
net).
C
n
(I)...Vektorraum der n mal stetig dierenzierbaren Funktionen auf I.
C

(I)...Vektorraum der beliebig oft dierenzierbaren Funktionen auf I.


P
n
(I)...Menge der Polynome auf I mit Rang kleiner oder gleich n.
Bei einigen Denitionen wird die Schreibweise mit den Quantoren
_
(es gibt) und
_
(f ur alle) bevorzugt.

_
x
A(x)...Es existiert (zumindest) ein x, so da A(x) wahr ist.

_
x
A(x)...A(x) ist f ur alle x wahr.
Folgende Operatoren werden des ofteren benotigt:
Dierentiationsoperator: Der klassische (stetige, lineare) Dierentiationsoperator D
ordnet jeder Funktion x C
1
(I) bzw. x C
n+1
(I) ihre Ableitung x

C(I) bzw.
x

C
n
(I) zu. Allgemeiner kann D auch als Operator von C

(I) in sich selbst betrachtet


werden.
Integrationsoperator: Es sei a ein beliebiger aber fester Punkt aus dem Intervall I und
x eine auf I stetige Funktion. Die Funktion
X(t) =
_
t
a
x()d (1.1)
ist nach dem Hauptsatz der Dierential- und Integralrechnung eine Stammfunktion von
x. Mit dem Integraloperator
2
1.2.

Aquivalenzklassen Kapitel 1. Axiome der Distributionentheorie
J
a
: x
_
t
_
t
a
x()d
_
, (1.2)
der der stetigen Funktion x die in a verschwindende Stammfunktion zuordnet kann man
auch X = J
a
x schreiben. X ist stetig dierenzierbar und es gilt DX = x. Der auftretende
Integraloperator J
a
beschreibt somit eine Abbildung von C(I) nach C
1
(I). J
a
kann allge-
meiner als ein Operator von C
n
(I) nach C
n+1
(I) bzw. von C

(I) in sich selbst betrachtet


werden. Der Integraloperator ist eine rechte Inverse von D, es gilt
DJ
a
x = x bzw. D J
a
= Id. (1.3)
Andererseits ist J
a
D nicht die identische Abbildung, es gilt
J
a
Dx = x x(a). (1.4)
Kommt es nicht auf die spezielle Wahl des dem Integraloperator zugrundeliegenden Punk-
tes a an, so schreibt man oft nur J anstatt J
a.
Einschrankung: Sind I und J kompakte Intervalle mit J I, so ist die Einschrankung
einer auf I stetigen Funktion auf das Intervall J eine lineare, stetige Abbildung von C(I)
nach C(J). Diese Abbildung wird mit
I,J
bezeichnet und kann auch als Operator von
C
n
(I) nach C
n
(J) bzw. von C

(I) nach C

(J) betrachtet werden.


Verschiebung: Ist x eine stetige Funktion auf I und h eine reelle Zahl, dann ist die
Abbildung

h
: x (t x(t h)) (1.5)
ein linearer, stetiger Operator von C(I) nach C(I + h).
h
kann auch als Operator von
C
n
(I) nach C
n
(I +h) bzw. von C

(I) nach C

(I +h) betrachtet werden.


1.2

Aquivalenzklassen
Bei der Einf uhrung des Distributionenraumes C

(I) in den nachsten Abschnitten wer-


den die Begrie

Aquivalenzklassen und

Aquivalenzrelationen eine entscheidende Rolle
spielen. Es wird daher hier eine Denition dieser Begrie angegeben.
Um eine

Ubersicht uber eine groe und vielleicht komplizierte Gesamtheit mathematischer
Objekte zu erhalten, ist es oft notwendig, gewisse in dem Zusammenhang unwesentliche
Eigenschaften dieser Objekte zu ignorieren und sich dann um eine

Ubersicht (Klassika-
tion) dar uber zu bem uhen, wie viele und welche wesentlich verschiedenen Objekte vor-
kommen. Welche Eigenschaften man dabei als wesentlich und welche als unwesentlich
betrachtet, hangt davon ab, welche Art von

Ubersicht man gewinnen mochte.
Die Vorgangsweise in der folgenden mathematischen Formulierung dieser Gedanken sei
kurz zusammengefat: Man geht davon aus, da die zu klassizierenden Objekte eine
Menge M bilden. Diese Menge M wird in der Folge in disjunkte Teilmengen zerlegt, de-
ren Vereinigung wieder M ergibt. Alle Elemente aus M, die man als wesentlich gleich
betrachten mochte, werden dann ein und derselben Teilmenge von M zugeordnet. F ur
weitere

Uberlegungen betrachtet man dann nicht mehr die einzelnen Elemente von M,
3
1.2.

Aquivalenzklassen Kapitel 1. Axiome der Distributionentheorie
sondern die entsprechenden Teilmengen, die jede eine Menge wesentlich gleicher Elemen-
te beinhaltet.
Begrisbildungen
Es sei M eine Menge. Eine Eigenschaft R von Paaren (x, y) MM = M
2
wird Relation
in M genannt. Durch die Relation R wird eine Untermenge von M
2
deniert, namlich
die Menge aller Paare (x, y), denen die Eigenschaft R zukommt.

Ahnlich wie bei einer
Funktion und ihrem Graphen sind eine Relation und die durch sie denierte Menge zwei
aquivalente Begrie, und man kann eine Relation R auch denieren als eine Teilmenge
von M
2
. Beispiele f ur Relationen in R sind (i) die Kleiner - Relation x < y oder (ii) die
Gleichheitsrelation x = y.
Denition 1.1 Unter einer

Aquivalenzrelation auf M versteht man eine Relation (al-
so formal eine Teilmenge R M
2
, aber statt (x, y) R schreibt man x y und spricht
von der

Aquivalenzrelation ), welche f ur alle x, y, z M folgende Bedingungen erf ullt:


(1) Reexivitat: x x
(2) Symmetrie: x y y x
(3) Transitivitat: x y und y z x z
Von den angegebenen Beispielen ist (ii) eine

Aquivalenzrelation.
Denition 1.2 Sei eine

Aquivalenzrelation auf M. F ur x M heit die Teilmenge
[x] := y [ x y M (1.6)
die

Aquivalenzklasse von x bez uglich . Die Menge
M := [x] [ x M (1.7)
der

Aquivalenzklassen nennt man den Quotienten von M nach .
Es gilt nun der folgende wichtige
Satz 1.1 Die Menge M der

Aquivalenzklassen bildet ein System von Teilmengen von
M, deren je zwei disjunkt sind und deren Vereinigung ganz M ist.
Jede in einer Menge M erklarte

Aquivalenzrelation deniert somit eine eindeutig be-
stimmte Einteilung von M in paarweise elementfremde, nicht leere Teilmengen (

Aquivalenz-
klassen) derart, da alle Elemente ein und derselben Klasse untereinander aquivalent sind
und jeweils Elemente aus verschiedenen Teilmengen nicht aquivalent sind. Es gilt auch
die Umkehrung, dazu der
Satz 1.2 Zu jeder Einteilung einer Menge M in zueinander disjunkte, nicht leere Teil-
mengen lat sich eine

Aquivalenzrelation denieren, bez uglich der die vorgegebene Eintei-
lung von M die Einteilung in

Aquivalenzklassen ist.
4
1.3. Axiome Kapitel 1. Axiome der Distributionentheorie
Obwohl nat urlich haug M unendlich viele Elemente hat und die Menge in unendlich
viele

Aquivalenzklassen zerlegt, kann man sich ruhig vorstellen, da es i. a. viel weniger

Aquivalenzklassen als Elemente in M gibt.


Die Wahl einer

Aquivalenzrelation auf M ist nun die Formalisierung der Wahl des Gesichts-
punktes, unter dem man eine

Ubersicht (Klassikation) uber M gewinnen mochte: x y
ist die Formalisierung von x und y sind im wesentlichen gleich. Nur wenn x und y aus zwei
verschiedenen

Aquivalenzklassen kommen, werden sie also als verschieden betrachtet.
1.3 Formulierung der gew unschten Axiome
Gesucht ist nun eine Erweiterung der ublichen punktweisen Funktions- und Dierentia-
tionsbegrie, soda etwa auch Ableitungen von unstetigen Funktionen betrachtet werden
konnen. Es wird vorerst mit der Denition von Distributionen bzw. Distributionenraum-
en auf einem kompakten Intervall I begonnen. Dazu folgt eine abstrakte Denition eines
Distributionenraumes mit den Eigenschaften, die man sich von so einem Raum erwartet
bzw. w unscht.
Denition 1.3 Ein Distributionenraum auf einem kompakten Intervall I = [a, b] ist
ein Vektorraum E C(I) zusammen mit einer linearen Abbildung

D : E E, die in der
Folge als distributionelle Ableitung bezeichnet wird, soda die Axiome
(A1) falls x C
1
(I) dann gilt

Dx = Dx
(A2) falls x E, dann existiert ein n N und ein X C(I), soda x =

D
n
X
(A3) falls x E und

D
p
x = 0, dann ist x P
p1
(I)
gelten.
Die Menge der stetigen Funktionen C(I) ist also eine Teilmenge der Menge der Dis-
tributionen (oder in anderen Worten: Distributionen sind verallgemeinerte Funktionen).
Anders als f ur eine beliebige Funktion aus C
1
(I) ist die distributionelle Ableitung einer
Distribution wieder distributionell dierenzierbar. Nach Axiom 1 stimmen f ur Funktionen
aus C
1
(I) die klassische und die distributionelle Ableitung uberein. Axiom 2 besagt, da
jede Distribution durch distributionelle Ableitungen einer stetigen Funktion hervorgeht.
F ur glatte Funktionen gilt die Aussage: f
(n)
(t) = 0 f(t) P
n1
(I). Diese Aussage wird
in der hier vorgestellten Distributionentheorie als Axiom ubernommen (Axiom 3). Eine
Folgerung dieses Axioms ist die Tatsache, da wenn eine Dierentialgleichung klassische
Losungen besitzt, keine zusatzlichen distributionellen Losungen auftreten.
An dieser Stelle ist jedoch keineswegs klar, ob es uberhaupt ein Modell gibt, das diese
Axiome erf ullt, und falls ein Modell existiert, ob es eindeutig bestimmt ist. Es sei vorerst
vorweggenommen, da in der Tat ein solches Modell existiert und da es bis auf Isomorphie
eindeutig bestimmt ist.
5
1.4. Ein die Axiome erf ullendes Modell Kapitel 1. Axiome der Distributionentheorie
1.4 Ein die Axiome erf ullendes Modell
Es sei an die Folge
C

... C
n+1
C
n
... C
von Funktionenraumen erinnert, in der D f ur jedes n N ein stetiger, linearer Operator
von C
n+1
nach C
n
ist. Dieses Schema wird jetzt rechts in der Form
C

... C
n
... C ... C
n
C
(n+1)
... C

erweitert. Dabei wird C


n
aus jenen Distributionen bestehen, die sich aus der n.ten Ab-
leitung stetiger Funktionen ergeben.
Vorbereitende Bemerkungen:
Um den ersten Raum C
1
zu konstruieren wird von der Menge C(I)C(I) der geordneten
Paare (x
0
, x
1
) mit x
0
, x
1
C(I) ausgegangen. Dabei soll eine Funktion (hier x
0
) als
Reprasentation ihrer selbst betrachtet werden, wenn sie an der ersten Position des Paares
steht. Andererseits soll die Funktion an der zweiten Stelle (hier x
1
) eine Distribution
- und zwar die Ableitung der Funktion x
1
(was immer das an dieser Stelle sein mag) -
reprasentieren. So eine Darstellung wird jedoch nicht eindeutig sein. Auf dem Intervall I =
[0, 1] reprasentieren etwa die Paare (t, 0), (0, t
2
/2) und (t/2, t
2
/4) die gleiche Distribution.
Dies ergibt sich aus der Forderung D =

D f ur stetig dierenzierbare Funktionen und der
saloppen Formulierung der Bedeutung der Funktionen x
0
und x
1
in dem zu denierenden
Distributionenmodell. Um diese Schwierigkeit zu beseitigen konnte man zwei geordnete
Paare (x
0
, x
1
) und (y
0,
y
1
) mit der Eigenschaft
(y
0
x
0
) +D(y
1
x
1
) = 0 (1.8)
als aquivalent betrachten und mit dieser

Aquivalenzrelation die Menge aller geordneten
Paare stetiger Funktionen in Klassen einteilen. Eine Klasse ware dann mit einer Distri-
bution zu identizieren. Der Operator D ist jedoch auf C(I) nicht uberall deniert. Aus
diesem Grund ist es besser Gl. 1.8 zu integrieren. Man erhalt dann die Bedingung
(x
0
, x
1
) (y
0,
y
1
) J(y
0
x
0
) + (y
1
x
1
) = const (1.9)
mit dem Integrationsoperator J. Das f uhrt zur Denition
C
1
(I) := C(I) C(I) , (1.10)
die unabhangig von der speziellen Wahl des Punktes a im Integrationsoperator ist.
Diese Denition kann leicht erweitert werden um den Raum C
2
(I) zu erhalten. Man
deniert in Anlehnung an Gl. 1.9 die

Aquivalenzrelation
(x
0
, x
1
, x
2
) (y
0,
y
1
, y
2
) J
2
(y
0
x
0
) +J(y
1
x
1
) + (y
3
x
3
) P
1
(I) (1.11)
und den Raum C
2
(I) durch (vgl. Gl. 1.10)
C
2
(I) := C(I) C(I) C(I) . (1.12)
6
1.4. Ein die Axiome erf ullendes Modell Kapitel 1. Axiome der Distributionentheorie
Denition des allgemeinen Falls
Im allgemeinen Fall dienen als Ausgangspunkt (n+1) - Tupel stetiger Funktionen. Es sei
H
n
die Menge aller (n + 1) - Tupel, also
H
n
:= (x
0
, ..., x
n
) [ x
0
, ..., x
n
C(I) = (C(I))
n+1
. (1.13)
In dieser Menge wird nun eine

Aquivalenzrelation derart erklart, da
(x
0
, ..., x
n
) (y
0
, ..., y
n
) (1.14)
genau dann gelten soll, wenn
J
n
(x
0
y
0
) +J
n1
(x
1
y
1
) +... + (x
n
y
n
) P
n1
(I). (1.15)
Dabei ist J:x
_
t
_
t
a
x()d
_
wiederum der Operator, der der stetigen Funktion x
die in a verschwindende Stammfunktion zuordnet. Der Raum C
n
(I) wird dann deniert
durch
C
n
(I) := H
n
. (1.16)
Diese Denition ist unabhangig von der Wahl des Integrationsoperators. F ur eine Klasse
x aus C
n
(I) schreibt man ublicherweise [(x
0
, ..., x
n
)], wobei (x
0
, ..., x
n
) ein typischer
Reprasentant dergleichen ist. Es gilt nun (x
0
, ..., x
n
) (y
0
, ..., y
n
) genau dann, wenn
(x
0
, ..., x
n
, 0) (y
0
, ..., y
n
, 0). (Die erste Bedingung ist gleichwertig mit J
n
(x
0
y
0
) +
J
n1
(x
1
y
1
) +... +(x
n
y
n
) P
n1
(I), die zweite mit J
n+1
(x
0
y
0
) +J
n
(x
1
y
1
) +... +
J(x
n
y
n
) P
n
(I). Es ist klar, da diese Bedingungen aquivalent sind). Die Abbildung
(x
0
, ..., x
n
) (x
0
, ..., x
n
, 0) (1.17)
von C
n
(I) nach C
(n+1)
(I) ist daher injektiv und linear. Man sagt, da C
n
(I) in
C
(n+1)
(I) eingebettet ist. C
n
(I) kann somit als Untervektorraum von C
(n+1)
(I) be-
trachtet werden und es gilt die angek undigte Kette
C C
1
... C
n
C
(n+1)
... .
Es wird nun C

(I) als Vereinigung all dieser Raume deniert, also


C

(I) :=

_
n=0
C
n
(I). (1.18)
C

(I) wird als der Raum der Distributionen auf I bezeichnet. C


n
(I) ist der Raum
der Distributionen der Ordnung n. Jeder Klasse aus C
n
(I) entspricht dabei eine
Distribution und umgekehrt. (Eigentlich sind diese Bezeichnungen an dieser Stelle noch
zu fr uh eingef uhrt, da noch gar nicht feststeht, ob dieser Raum tatsachlich die geforderten
Axiome erf ullt, die Beweise folgen allerdings in K urze). Auf dem Raum C

(I) wird nun


die distributionelle Ableitung eingef uhrt. Dazu die
Denition 1.4 Es sei (x
0
, ..., x
n
) ein (beliebiger) Reprasentant der Klasse x = [(x
0
, ..., x
n
)]
C
n
(I). Man erklart die distributionelle Ableitung

Dx von x dann durch die Ab-
bildung

D : C
n
(I) C
(n+1)
(I) mit
7
1.4. Ein die Axiome erf ullendes Modell Kapitel 1. Axiome der Distributionentheorie

Dx := [(0, x
0
, ..., x
n
)]. (1.19)
Da diese Denition f ur beliebiges n gilt kann diese Abbildung auch als Operator von
C

(I) nach C

(I) betrachtet werden.


Das Bild des Operators mu nat urlich unabhangig von der Wahl des Reprasentanten
sein. Man zeigt leicht, da aus (x
0
, ..., x
n
) (y
0
, ..., y
n
) die

Aquivalenz (0, x
0
, ..., x
n
)
(0, y
0
, ..., y
n
) folgt, womit das Gew unschte erf ullt ist.
Die Summe zweier Distributionen (bzw. Klassen) und das Produkt einer Distribu-
tion (bzw. Klasse) mit einem Skalar wird komponentenweise durch beliebige Reprasen-
tanten erklart. Es kann wieder gezeigt werden, da das Resultat einer solchen Operation
unabhangig von der speziellen Wahl der Reprasentanten ist.
Die Behauptung ist nun, da der so konstruierte Raum C

(I) zusammen mit der Abbil-


dung

D der gesuchte Distributionenraum ist. Dazu mu die G ultigkeit der Axiome (A1)
bis (A3) f ur dieses Modell gezeigt werden.
Axiom 1: Es mu gezeigt werden, da f ur stetig dierenzierbare Funktionen die distribu-
tionelle mit der klassischen Ableitung vertauscht werden kann, da also die

Aquivalenz
(Dx, 0) (0, x) (1.20)
gilt. Die G ultigkeit folgt aus J(Dx 0) + (0 x) = const P
0
(I).
Der folgende Satz bildet die Grundlage zum Beweis der G ultigkeit der Axiome (A2) und
(A3):
Satz 1.3 Eine Distribution x = [(x
0
, ..., x
n
)] aus C
n
(I) bleibt unverandert, wenn man
eine Komponente integriert und gleichzeitig nach rechts verschiebt, es gilt also
x = [(0, Jx
0
+x
1
, x
2,
..., x
n
)]. (1.21)
Allgemeiner gilt
x = [(0, 0, ..., 0, J
n
x
0
+J
n1
x
1
+... +Jx
1
+x
0
)]. (1.22)
Eine Distribution bleibt unverandert, wenn man eine glatte Komponente dierenziert und
gleichzeitig nach links verschiebt.
Beweis: Wegen J
n
x
0
+(J
n1
Jx
0
) = J
n
x
0
J
n
x
0
= 0 P
n1
gilt (x
0
, ..., x
n
) (0, Jx
0
+
x
1
, x
2,
..., x
n
) und damit Gleichung 1.21. Setzt man diese Vorgangsweise fort, so erhalt man
auch Gl.(1.22).
Axiom 2: Es sei x = [(x
0
, ..., x
n
)]. Wahlt man
X = J
n
x
0
+J
n1
x
1
+... +Jx
1
+x
0
C(I), (1.23)
so gilt

D
n
X = [(0, 0, ..., 0, J
n
x
0
+J
n1
x
1
+... +Jx
1
+x
0
)].
8
1.5. Die Eindeutigkeit des Modells Kapitel 1. Axiome der Distributionentheorie
Mit Gl.(1.22) hat man also x =

D
n
X. Somit kann man zu jeder Distribution x eine stetige
Funktion X angeben, soda x durch n maliges distributionelles Dierenzieren aus X
entsteht.
Axiom 3: Es sei wieder x = [(x
0
, ..., x
n
)] und es gelte zusatzlich

D
p
x = 0. Die Aussage

D
p
x = [(0, ..., 0, x
0
, ..., x
n
)] = 0
(wobei x
0
an der p.ten Komponente auftritt) ist aquivalent mit
(0, ..., 0, x
0
, ..., x
n
) (0, ..., 0)
was wiederum gleichwertig mit
J
n+p
0 +... +J
n+1
0 +J
n
x
0
+... +x
n
P
n+p1
ist. Bei der Funktion X = J
n
x
0
+J
n1
x
1
+... +Jx
1
+x
0
handelt es sich jetzt also um ein
Polynom. Mit den

Uberlegungen von oben gilt wieder x =

D
n
X. Da X ein Polynom, also
eine stetige Funktion ist, kann man wegen Axiom 1 die distributionelle mit der klassischen
Ableitung vertauschen und es folgt x = D
n
X. Aus X P
n+p1
(I) folgt damit x P
p1
(I),
womit Axiom 3 gezeigt ist.
Mit diesem Modell ist somit der Beweis der Existenz eines Distributionenraumes nach
Denition 1.3 gebracht.
1.5 Die Eindeutigkeit des Modells
Es wurde angek undigt, da der Distributionenraum mit den Axiomen 1) bis 3) bis auf
einen Isomorphismus eindeutig ist. Dazu vorerst die
Denition 1.5 Es seien E und F lineare, normierte Vektorraume. Eine lineare, stetige
und bijektive Abbildung T : E F , deren Inverse T
1
: F E ebenfalls stetig ist, wird
als Isomorphismus bezeichnet.
Bei dem Distributionenraum C

(I) handelt es sich um keinen normierten Raum. Trotz-


dem kann der Begri einer stetigen Abbildung von C

(I) in sich selbst oder in einen


anderen Raum ahnlicher Struktur in nat urlicher Form erweitert werden. Wie diese Er-
weiterung zu verstehen ist, wird in Kapitel 8.1 formuliert. Ansonsten kann obige De-
nition eines Isomorphismus direkt f ur Abbildungen zwischen Raumen mit Strukturen wie
C

(I) ubernommen werden.


Satz 1.4 Eindeutigkeit: Es sei E = C

(I), also der im letzten Kapitel eingef uhr-


te Distributionenraum. Man nehme nun an, da ein zweiter Distributionenraum E

mit
einem Dierentiationsoperator

D

existiert, der ebenfalls die Axiome (1) bis (3) erf ullt.
Dann existiert ein Isomorphismus U : E E

mit den Eigenschaften:


1. f ur jedes x C(I) gilt Ux = x
2. f ur alle x E gilt U(

Dx) =

D

(Ux).
9
1.5. Die Eindeutigkeit des Modells Kapitel 1. Axiome der Distributionentheorie
Beweis: Es wird nun der Isomorphismus U mit den erwahnten Eigenschaften konstruiert.
Es sei x E. Dann existiert eine Darstellung x =

D
n
X mit einer stetigen Funktion X
aufx
Kapitel 2
Beispiele von Distributionen
In der Denition des Distributionenraumes wurde verlangt, da alle auf I stetigen (und
somit alle glatten Funktionen) Distributionen seien. In der Tat enthalt der Distributionen-
raum fast alle Funktionen von praktischer Bedeutung. Insbesondere kann man wie sofort
gezeigt wird alle Lebesgue - integrierbaren Funktionen als Distributionen betrachten.
2.1 Integrierbare Funktionen
Die Eigenschaften des Integraloperators J im Falle stetiger Funktionen und der Haupt-
satz der Dierential- und Integralrechnung der Riemannschen Theorie wurden bereits
diskutiert. Es gelten nun ahnliche Aussagen in der Lebesgueschen Integrationstheorie: Es
sei x eine Lebesgue - integrierbare Funktion, genauer gesagt eine

Aquivalenzklasse einer
solchen, man schreibt daf ur x L
1
(I). Nach dem Hauptsatz der Dierential- und Integral-
rechnung der Lebesgueschen Theorie (Walter 2 - Seite 342) besitzt x eine absolutstetige
Stammfunktion X soda gilt DX = x fast uberall (Der Begri der absoluten Stetig-
keit ist starker als jener der gleichmaigen Stetigkeit). Die Funktion
_
t
a
x()d ist eine
Stammfunktion und jede andere Stammfunktion unterscheidet sich nur um eine additive
Konstante von dieser speziellen.
Mit diesen Aussagen im Nacken geht man nun folgendermaen vor um Lebesgue - inte-
grierbare Funktionen als Distributionen betrachten zu konnen:
Denition 2.1 Es sei x L(I) und X = Jx. Man deniert nun die Distribution T
x
als
die distributionelle Ableitung von X, also
T
x
:=

DX =

DJx. (2.1)
Es gilt T
x
C
1
(I). Mit Mitteln der Lebesgueschen Theorie kann man zeigen, da die
Abbildung
L
1
(I) C
1
(I)
x T
x
stetig, linear und injektiv ist. Wenn kein besonderer Grund zur Vorsicht vorliegt, un-
terscheidet man nicht zwischen x und T
x
. Eine Aussage der Art Die Distribution z ist
11
2.2. Dirac - Distributionen Kapitel 2. Beispiele von Distributionen
eine integrierbare Funktion bedeutet also, da eine Funktion x L
1
(I) existiert, so da
z = T
x
.
Als wichtigstes Beispiel dieser Kategorie wird nun die Heaviside Funktion H
0
eingef uhrt.
Denition 2.2 Es sei x : I R mit
x(t) =
_
0 f ur t < 0
1 f ur t 0
und I
0
= Jx, also
I
0
(t) =
_
0 f ur t < 0
t f ur t 0
.
Die Heaviside Funktion H
0
wird nun deniert durch H
0
:=

DI
0
. Man identiziert H
0
i.a. mit x. Allgemeiner deniert man H
a
durch H
a
:=

DI
a
mit
I
a
(t) =
_
0 f ur t < a
t a f ur t a
.
2.2 Dirac - Distributionen
Die Delta Funktion und ihre Ableitungen werden jetzt als Ableitungen der Heaviside
Funktion eingef uhrt.
Denition 2.3 Die Dirac Distribution (Delta Funktion)
a
mit der Singularitat in
a I ist deniert durch

a
:=

DH
a
. (2.2)
Ihre n.te Ableitung
(n)
a
ist deniert durch

(n)
a
=

D
(n+1)
H
a
. (2.3)
In den meisten Anwendungen der Delta - Distribution
0
ist jedoch nicht ihre Denition als
Ableitung der Heaviside Funktion, sondern ihre Wirkung als Impuls mit unendlicher Hohe
und unendlich kurzer Dauer im Zeitnullpunkt von Bedeutung. In vielen Anwendungen
ndet man die mathematisch nicht einwandfreie Denition

0
(t) =
_
f ur t = 0
0 sonst
mit
_
2.3. Die Distributionen s

+
, s

, s

, ln
+
, ln

, ln

Kapitel 2. Beispiele von Distributionen


Die Grenzfunktion ist jedoch wieder keine Funktion im eigentlichen Sinn. Im Kapitel 8.2
wird gezeigt, da die Delta - Distribution
0
(im Sinne der erst zu denierenden distri-
butionellen Konvergenz) tatsachlich als Grenzwert gewisser Funktionenfolgen betrachtet
werden kann. Es mu daf ur allerdings erst die Theorie der Distributionenfolgen erzeugt
werden. Es wird dies ein schwacherer Konvergenzbegri als jener der punktweisen bzw.
gleichmaigen Konvergenz von Funktionenfolgen sein. Man kann jedoch bereits jetzt von
der Vorstellung der Delta - Distribution als Impuls im Zeitnullpunkt ausgehen.
Anwendungen der Delta - Distribution in der Physik zur Beschreibung idealisierter Be-
grie wie Punktladung, Einzelkraft,... folgen in Kapitel 11
2.3 Die Distributionen s

+
, s

, s

, ln
+
, ln

, ln

Es sei nun I ein Intervall, das 0 als inneren Punkt enthalt. Auf diesem Intervall betrachte
man die Funktionen (mit dem reellen oder komplexen Exponenten )
s

+
: s
_
0 f ur s < 0
s

f ur s 0,
(2.6)
s

: s
_
(s)

f ur s < 0
0 f ur s 0,
(2.7)
s

: s
_
[s[

f ur s ,= 0
0 f ur s = 0.
(2.8)
Klarerweise gilt s

= s

+
+ s

. Diese Funktionen sind f ur Re > 1 stetig dierenzierbar,


f ur 0 < Re 1 stetig und f ur Re > 1 zumindest noch integrierbar und reprasentieren
daher in diesen Fallen Distributionen. F ur Re 1 sind diese Funktionen zwar wohl
deniert, jedoch nicht integrierbar. Aus diesem Grund handelt es sich nicht um Distri-
butionen im Sinne von Kapitel 2.1 Es wird nun gezeigt, wie man die Funktionen s

+
, s

und s

trotzdem als Distributionen betrachten kann. Es sei vorerst Re 1 jedoch keine


ganze Zahl. Man wahle eine positive ganze Zahl m so, da Re( + m) > 0 und deniere
die Distributionen
s

+
: =

D
m
s
+m
+
( +m)...( + 1)
, (2.9)
s

: =
(1)
m

D
m
s
+m

( +m)...( + 1)
, (2.10)
s

: = s

+
+s

. (2.11)
Diese Denititionen sind unabhangig von der Wahl von m. Dazu folgendes
Beispiel 2.1 Es wird die Distribution s
1.5
+
einmal mit m = 2 und einmal mit m = 3
eingef uhrt und die Gleichheit gezeigt. Es sei also
s
1.5
+
=

D
2
s
0.5
+
(0.5) (0.5)
= 4

D
2
s
0.5
+
13
2.3. Die Distributionen s

+
, s

, s

, ln
+
, ln

, ln

Kapitel 2. Beispiele von Distributionen


sowie
s
1.5
+
=

D
3
s
1.5
+
(1.5) (0.5) (0.5)
=
4
1.5

D
3
s
1.5
+
.
Da s
1.5
+
auf I stetig dierenzierbar ist, gilt
s
1.5
+
=
4
1.5

D
3
s
1.5
+
=
4
1.5

D
2
Ds
1.5
+
=
4
1.5

D
2
(1.5s
0.5
+
) = 4

D
2
s
0.5
+
= s
1.5
+
.
Diese Vorgangsweise kann einfach verallgemeinert werden, womit die Unabhangigkeit von
m gezeigt ist.
Um den Fall zu behandeln, wo eine negative ganze Zahl ist, benotigt man die Logarith-
musfunktionen. Man deniere die Funktionen
ln
+
: s
_
0 f ur s 0
ln s f ur s > 0,
(2.12)
ln

: s
_
ln(s) f ur s < 0
0 f ur s 0,
(2.13)
ln

: s
_
ln [s[ f ur s ,= 0
0 f ur s = 0.
(2.14)
Diese Funktionen sind integrierbar und denieren daher Distributionen auf I. Man de-
niert nun die Distributionen s
m
+
, s
m

und s
m

f ur positive ganze Zahlen m durch


s
m
+
: =
(1)
m
(m1)!

D
m
ln
+
, (2.15)
s
m

: =
(1)
m
(m1)!

D
m
ln

, (2.16)
s
m

: = s
m
+
+s
m

. (2.17)
Nun sind die obigen Distributionen f ur alle (reellen oder komplexen) Werte des Parameters
eingef uhrt. Man zeigt einfach, da f ur die distributionelle Ableitung in allen Fallen die
Regeln

Ds

+
= s
1
+
(2.18)

Ds

= s
1

(2.19)

Ds

= s
1

(2.20)
gelten. Dazu zwei Beispiele:
Beispiel 2.2 Man zeige obige Dierentiationsregel f ur den Fall = 1.5. Es ist
s
1.5
+
=

D
2
s
0.5
+
(0.5)(0.5)
= 4

D
2
s
0.5
+
= (0, 0, 4s
0.5
+
).
Damit folgt
14
2.3. Die Distributionen s

+
, s

, s

, ln
+
, ln

, ln

Kapitel 2. Beispiele von Distributionen

Ds
1.5
+
= (0, 0, 0, 4s
0.5
+
).
F ur die Distribution s
2.5
+
kann man
s
2.5
+
=

D
3
s
0.5
+
(0.5)(0.5)(1.5)
= (0, 0, 0,
4
1.5
s
0.5
+
)
schreiben. Damit gilt insgesamt

Ds
1.5
+
= 1.5s
2.5
+
.
Diese Vorgangsweise ist wieder einfach zu verallgemeinern.
Beispiel 2.3 Man zeige obige Dierentiationsregel f ur den Fall = 2. Es gilt
s
2
+
=

D
2
ln
+
= (0, 0, ln
+
),
s
3
+
=
1
2

D
3
ln
+
= (0, 0, 0,
1
2
ln
+
)
sowie

Ds
2
+
= (0, 0, 0, ln
+
).
Damit hat man

Ds
2
+
= 2s
3
+
.
Aufbauend auf diese

Uberlegungen wird im Kapitel 4.3 gezeigt, da alle rationalen und
sogar alle meromorphen Funktionen als Distributionen betrachtet werden konnen.
15
Kapitel 3
Ableitung st

uckweise glatter
Funktionen
3.1 Polynome mit Sprungstellen
Man betrachte die Funktion s
n
+
mit positivem, ganzem Exponenten n. F ur die Ableitungen
dieser Funktion gilt

Ds
n
+
= ns
n1
+
,

D
2
s
n
+
= n(n 1)s
n2
+
,
.
.
.

D
n1
s
n
+
= n!s
+
,

D
n
s
n
+
= n!H
0
,

D
n+1
s
n
+
= n!
0
.
Damit folgt f ur hohere Ableitungen (m > n) der Funktion s
n
+
die Gleichung

D
m
s
n
+
= n!
(mn1)
0
.
Es sei nun p ein Polynom mit dem Grad n 1, etwa
p : s a
0
+a
1
s +... +a
n1
s
n1
und p
+
= pH
0
, also
p
+
= a
0
H
0
+a
1
s
+
+... +a
n1
s
n1
+
.
Ber ucksichtigt man die f ur Polynome allgemein g ultige Beziehung p
(i)
(0) = i!a
i
(i 0),
so erhalt man f ur die n.te Ableitung von p
+
die Gleichung

D
n
p
+
= a
0

(n1)
0
+a
1

(n2)
0
+... + (n 1)!a
n1

0
= p(0)
(n1)
0
+p

(0)
(n2)
0
+... +p
(n1)
(0)
0
=
n1

j=0
p
(j)
(0)
(n1j)
0
. (3.1)
16
3.2. St uckweise glatte Funktionen Kapitel 3. Ableitung st uckweise glatter Funktionen
Tritt der Sprung an der Stelle a auf, gilt also p
+
= pH
a
, so erhalt man etwas allgemeiner

D
n
p
+
=
n1

j=0
p
(j)
(a)
(n1j)
a
. (3.2)
Man erkennt, da Spr unge in glatten Funktionen in deren Ableitungen Distributionen
zur Folge haben.
Beispiel 3.1 Es sei p = 2 + 3s + 4s
2
und p
+
= pH
0
, also p
+
= 2H
0
+ 3s
+
+ 4s
2
+
. Damit
folgt f ur die Ableitungen von p
+

Dp
+
= 2
0
+ 3H
0
+ 8s
+
,

D
2
p
+
= 2
(1)
0
+ 3
0
+ 8H
0
,

D
3
p
+
= 2
(2)
0
+ 3
(1)
0
+ 8
0
.
3.2 St uckweise glatte Funktionen
Ausgehend von Gl.3.2 wird nun eine Formel f ur die distributionellen Ableitungen st uck-
weise nmal stetig dierenzierbarer Funktionen entwickelt.
Stetige, nicht klassisch dierenzierbare Funktionen
Vor dem allgemeinen Fall st uckweise glatter Funktionen werden zuerst Funktionen be-
trachtet, die zwar stetig, jedoch in einem Punkt a
0
des Intervalls I nicht dierenzierbar
sind. Ein Beispiel ware etwa die Funktion x : I R mit x(t) = [t[ , die in a
0
= 0 nicht
dierenzierbar ist.
Satz 3.1 Es sei x eine auf I stetige Funktion, die nur in einem inneren Punkt a
0
I nicht
klassisch dierenzierbar ist. Es gilt dann f ur die distributionelle Ableitung die Beziehung

Dx = T
x
. (3.3)
Dabei bezeichnet x

die klassische Ableitung der Funktion x auf Ia


0
und T den Ope-
rator, der der Funktion x

die entsprechende Distribution nach Gl. 2.1 zuordnet. Man


schreibt meist einfacher

Dx = x

. (3.4)
Beweis: Die distributionelle Ableitung von x kann aufgrund der Stetigkeit sofort in der
Form

Dx = (0, x) als Distribution erster Stufe geschrieben werden. Man kann jedoch auch
wie folgt vorgehen: Man bilde auf Ia
0
die klassische Ableitung Dx von x und schreibt
daf ur x

. Diese Funktion x

ist nun auf ganz I integrierbar und die Funktion X = Jx

auf I stetig. Es gilt X = x + c mit c R. Man deniere (nach Gl. 2.1) die Distribution
T
x
=

DX = (0, X) = (0, Jx

). Wegen X = x+c gilt (0, x) (0, Jx

) und somit

Dx = T
x
.
F ur obiges Beispiel erhalt man etwa

Dx = x

(t) =
_
1 f ur t < 0
1 f ur t > 0
= 2H
0
1.
17
3.2. St uckweise glatte Funktionen Kapitel 3. Ableitung st uckweise glatter Funktionen
Ableitung von Funktionen mit einer Sprungstelle
Die Funktion x, von der man die distributionelle Ableitung sucht, habe nun in a
0
eine
Sprungstelle. Als Beispiel nehme man etwa die Funktion x : I R mit
x(t) =
_
0 f ur t < 0
1 +t f ur t 0
.
Satz 3.2 Es sei x eine auf Ia
0
stetig dierenzierbare Funktion, so da die Grenzwerte
lim
sa
0
+
x(s) und lim
sa
0

x(s) existieren. Es gilt dann f ur die distributionelle Ableitung von x


die Beziehung

Dx = x

+
a
0
.
a
0
. (3.5)
x

bezeichnet wieder die klassische Ableitung der Funktion x auf Ia


0
.
Beweis: Aufgrund der Unstetigkeit von x kann man hier nicht mehr

Dx = (0, x) schrei-
ben, es handelt sich um eine Singularitat hoherer Ordnung. Ist x

wieder die klassische


Ableitung Dx von x auf Ia
0
, so ist diese Funktion wie vorher auf ganz I integrierbar
und kann somit wie oben beschrieben als Distribution erster Ordnung betrachtet werden
(x

= T
x
=

DX mit X = Jx

, X stetig). Die Beziehung X = x+c ist aufgrund der Unste-


tigkeit von x jedoch nicht mehr g ultig. Um auch in diesem Fall

Dx berechnen zu konnen,
kann man folgendermaen vorgehen: Man konstruiert aus x eine stetige Funktion, indem
man f ur t > a
0
die Konstante
a
0
= lim
ta
0
+
x(t) lim
ta
0

x(t) (= Sprunghohe der Funktion in


a
0
) von x subtrahiert. Die Funktion x p
+
mit p
+
=
a
0
.H
a
0
ist die angek undigte stetige
Funktion. Mit der Linearitat des Operators

D gilt

Dx =

D(x p
+
) +

Dp
+
.
Aufgrund der Stetigkeit von x p
+
gilt mit Gl.3.4:

D(x p
+
) = (x p
+
)

. Man meint
mit (xp
+
)

wie oben einerseits die klassische Ableitung der Funktion xp


+
auf Ia
0

und andererseits die mit ihr identizierte Distribution erster Ordnung auf I. Da (xp
+
)

auf Ia
0
mit x

ubereinstimmt erhalt man nun gemeinsam mit



Dp
+
=
a
0
.
a
0
die
behauptete Beziehung.
F ur das obige Beispiel gilt etwa

Dx = H
0
+
0
.
Mit dieser Vorgangsweise hat man also die Singularitat hoherer Ordnung in p
+
verlagert,
wof ur die distributionelle Ableitung bereits bekannt war.
Allgemeiner Fall
Es werden nun auch mehrere Sprungstellen und hohere Ableitungen betrachtet. Die Vor-
gangsweise des letzten Abschnitts wird verallgemeinert, es kommen im Beweis des fol-
genden Satzes aber keine wesentlich neuen

Uberlegungen dazu. Ausgangspunkt ist eine
Funktion x auf I und eine endliche Folge (a
0
, ..., a
k
) im Inneren von I, soda gilt
x ist auf Ia
0
, ..., a
k
n-mal stetig dierenzierbar,
18
3.2. St uckweise glatte Funktionen Kapitel 3. Ableitung st uckweise glatter Funktionen
f ur alle i = 0, ..., k und j = 0, ..., n existieren die links- und rechtsseitigen Grenzwerte
x
(j)

(a
i
) = lim
sa
i

x
(j)
(s) und x
(j)
+
(a
i
) = lim
sa
i
+
x
(j)
(s).
Funktionen dieser Art sind integrierbar auf I und daher Distributionen. Es sei

j
a
i
= x
(j)
+
(a
i
) x
(j)

(a
i
),
dies ist die Sprunghohe der j.ten klassischen Ableitung im Punkt a
i
.
0
a
0
ist beispielsweise
die Sprunghohe der Funktion selbst im Punkt 0. Es gilt nun folgender
Satz 3.3 Die n.te Ableitung einer wie oben beschriebenen Funktion ergibt sich zu

D
n
x = x
(n)
+

i,j

j
a
i

(n1j)
a
i
. (3.6)
Dabei entspricht x
(n)
der klassischen Ableitung der Funktion x auf Ia
0
, ..., a
k
.
Beweis: Zur Vereinfachung der Schreibweise wird angenommen, da die Funktion x nur in
einem Punkt (a
0
) Sprungstellen des Funktionswertes und der Ableitungen besitzt. x
(i)
sei
die Funktion auf Ia
0
, die durch imaliges klassisches Ableiten der Funktion x ent-
steht. Es ist dies eine integrierbare Funktion (x
(i)
L
1
(I)), sie kann daher als Distribution
betrachtet werden. Es spielt keine Rolle, da diese Funktion in a
0
nicht deniert ist. Es
sei nun p das (eindeutig bestimmte) Polynom mit Grad n 1, f ur dessen Funktionswert
bwz. Ableitungen in a
0
die Beziehungen
p(a
0
) =
0
a
0
p

(a
0
) =
1
a
0
(3.7)
.
.
.
p
(n1)
(a
0
) =
n1
a
0
gelten. Weiters sei p
+
die Funktion p.H
a
0
. F ur p
+
gilt nun nach Gl. 3.2

D
n
p
+
=
n1

j=0

j
a
0

(n1j)
z
3.2. St uckweise glatte Funktionen Kapitel 3. Ableitung st uckweise glatter Funktionen

D
n
x =

D
n
(x p
+
+p
+
)
=

D
n
(x p
+
) +

D
n
p
+
= x
(n)
+
n1

j=0

i
a
0

(n1j)
a
0
.
Es sind also die Singularitaten hoherer als erster Ordnung wieder in p
+
verlagert worden,
wof ur die distributionelle Ableitung durch Gl. 3.2 gegeben war.
Beispiel 3.2 Gegeben ist die Funktion x : [1, 1] R mit
x(s) =
_
1 +s f ur s < 0
2s +s
2
f ur s 0
.
Gesucht ist

D
2
x. F ur die klassischen Ableitungen der Funktion x auf [1, 1] 0 erhalt
man
x

(s) =
_
1 f ur s < 0
2 + 2s f ur s 0
sowie
x

(s) =
_
0 f ur s < 0
2 f ur s 0
.
Man erkennt daraus
0
0
= 1 und
1
0
= 1. Mit der Gleichung 3.6 folgt somit

D
2
x = 2H
0

(1)
0
+
0
.
Um die Beweisidee noch einmal zu wiederholen wird auch noch das Polynom mit den
Eigenschaften der Gleichungen 3.7 bestimmt. Aus p(0) = 1 und p

(0) = 1 folgt p(s) =


1 + s sowie p
+
= H
0
+ s
+
. Damit folgt f ur die Funktion x p
+
und ihre klassischen
Ableitungen auf [1, 1]
(x p
+
)(s) =
_
1 +s f ur s < 0
1 +s +s
2
f ur s 0
und
(x p
+
)

(s) =
_
1 f ur s < 0
1 + 2s f ur s 0
.
Man erkennt, da diese Funktion (1 mal) stetig dierenzierbar ist. Auf [1, 1] 0 gilt
weiters
(x p
+
)

(s) =
_
0 f ur s < 0
2 f ur s > 0
,
woraus die Gleichheit von (x p
+
)

und x

ersichtlich ist.
20
3.2. St uckweise glatte Funktionen Kapitel 3. Ableitung st uckweise glatter Funktionen
Beispiel 3.3 Man betrachte die Funktion
x(t) = H
0
sin(t).
F ur die distributionellen Ableitungen erhalt man

Dx = H
0
cos(t),

D
2
x = H
0
sin(t) +
0
.
Somit ist x eine Losung der distributionellen Dierentialgleichung

D
2
x +x =
0
.
Weitere Aspekte zu Distributionen - Dierentialgleichungen ndet man in Kapitel 11.2.
21
Kapitel 4
Operationen auf Distributionen
Es wird nun gezeigt wie man einige Standardoperationen auf Funktionen auf Distributio-
nen erweitern kann. Das Hauptproblem dabei ist, da solche Operationen (wie etwa die
Multiplikation) nicht mehr punktweise deniert werden konnen. Man ist gezwungen, nach
weniger direkten Methoden zu suchen.
4.1 Verschiebung und Einschrankung
Satz 4.1 Es sei S : C(I) C(J) ein linearer Operator (mit kompakten Intervallen I
und J), der mit D kommutiert,
C
1
(I)
S
C
1
(J)
D D
C(I)S,,T[T[T[T,[T,,[T,,,[T[T,T[T,[TT[TT[T,,,[T,,T[TT[T,T[TT[TT[TT[T[T,[T,T[T,T[T[T,T[TT
4.1. Verschiebung und Einschrankung Kapitel 4. Operationen auf Distributionen
Beweis: Es werden in einem ersten Schritt einige Folgerungen der Eigenschaft 4.1 betrach-
tet.
Es sei x vorerst eine konstante Funktion auf I (x C
1
(I)). Es gilt Dx = 0 und da
S linear ist (S(0) = 0) gilt S(Dx) = 0. S kommutiert mit D, daher gilt D(Sx) = 0,
also mu Sx eine konstante Funktion auf J sein.


Ahnlich zeigt man: Ist x P
n1
(I), so ist Sx P
n1
(J). (Als Konsequenz der
Kommutativitat erhalt man mit x C
n
(I) die Gleichung D
n
(Sx) = S(D
n
x), daraus
erhalt man das behauptete).
Es wird gezeigt, wie sich die Kommutativeigenschaft auf den Integraloperator J
auswirkt. Mit x C(I) erhalt man die Gleichungskette
JSx = JS(DJx) =
..
(4.1)
JD(SJx) = SJx +x
0
mit einer Konstanten x
0
.


Ahnlich zeigt man da f ur jedes n N und jedes x C(I) die Beziehung
J
n
Sx SJ
n
x P
n1
(J) (4.3)
gilt.
In einem zweiten Schritt wird nun der Operator
S
n
: (x
0
, ..., x
n
) (Sx
0
, ..., Sx
n
)
von H
n
(I) nach H
n
(J) eingef uhrt. Es wird also der Operator S komponentenweise ange-
wendet. Die Frage ist, ob dieser Operator zu einem Operator

S
n
von C
n
(I) nach C
n
(J)
erhoben werden kann. Dazu mu man zeigen, da dieser wohldeniert ist, das heit, da
f ur zwei beliebige Darstellungen (x
0
, ..., x
n
) (x
0
, ..., x
n
) einer Distribution x die

Aqui-
valenz

S
n
(x
0
, ..., x
n
)

S
n
(x
0
, ..., x
n
) gilt. Das Ergebnis soll ja sinnvollerweise unabhangig
vom Reprasentanten sein. Zu zeigen ist somit, da gilt
J
n
(Sx
0
Sx
0
) +... + (Sx
n
Sx
n
) P
n1
(J). (4.4)
Wegen (x
0
, ..., x
n
) (x
0
, ..., x
n
) gilt
J
n
(x
0
x
0
) +... + (x
n
x
n
) P
n1
(I)
und somit mit Gl. 4.3 und einem Polynom p P
n1
(J)
J
n
(Sx
0
Sx
0
) +... + (Sx
n
Sx
n
) = SJ
n
(x
0
x
0
) +... +S(x
n
x
n
) +p
= S(J
n
(x
0
x
0
) +... + (x
n
x
n
)) +p
P
n1
(J).
Der Operator

S
n
: (x
0
, ..., x
n
) (Sx
0
, ..., Sx
n
)
23
4.2. Recollement des morceaux Kapitel 4. Operationen auf Distributionen
von C
n
(I) nach C
n
(J) ist somit wohldeniert. Er ist uberdies stetig, wenn S stetig ist.
Wegen

S
n
x = (0, Sx
0
, ..., Sx
n
) =

S
n

Dx
kommutiert er mit

D und er beschreibt somit die gew unschte Erweiterung von S auf einen
Operator von C

(I) nach C

(J).
Man zeigt leicht, da

S surjektiv (bzw. injektiv bzw. bijektiv) ist, falls S die entsprechende
Eigenschaft hat. Aus dem Beweis ist ersichtlich, da

S
n
in der Betrachtungsweise von
Distributionen als n + 1Tuppel stetiger Funktionen komponentenweise wirkt.
Als Beispiele von Operatoren, die die Voraussetzungen des Satzes erf ullen, werden die
Verschiebung und die Einschrankung betrachtet.
Verschiebung: Es ist bekannt, da der Operator
h
: C(I) C(I +h) mit
x (s x(s h))
stetig und linear ist und mit D kommutiert. Nach obigem Satz existiert somit ein eindeutig
bestimmter stetiger, linearer Operator
h
: C

(I) C

(I +h) der mit



D kommutiert
und der im Fall stetiger Funktionen mit der ublichen Verschiebung ubereinstimmt.
Einschrankung: Sind I und J kompakte Intervalle mit J I, so erf ullt der Restriktion-
soperator
I,J
: C(I) C(J) die Bedingungen des Satzes. Es existiert daher ein eindeutig
bestimmter stetiger, linearer Operator
I,J
auf den entsprechenden Distributionenraumen
der mit

D kommutiert und der im Fall stetiger Funktionen mit der ublichen Restriktion
ubereinstimmt.Anstatt
I,J
x wird oft auch x [
J
geschrieben.
Man nennt die korrespondierenden Distributionen
h
x und
I,J
x die h - Verschiebung
von x bzw. die Einschrankung von x auf J.
4.2 Recollement des morceaux
Satz 4.2 Es seien I und J kompakte Intervalle mit J I. Weiters sei (y
0
, ..., y
n
) eine
Darstellung einer Distribution y auf J und x eine Distribution auf C
n
(I), die auf J mit
y ubereinstimmt, es gilt also y =
I,J
x. Dann existiert eine Darstellung (x
0
, ..., x
n
) von x,
soda gilt: x
i
= y
i
auf J f ur jedes i.
Beweis: x habe auf I eine Darstellung der Form ( x
0
, ..., x
n
). Die Darstellung der Ein-
schrankung
I,J
x besteht aus den entsprechenden Einschrankungen der Komponenten-
funktionen. Zur Vereinfachung der Schreibweise schreibt man f ur
I,J
x ebenfalls ( x
0
, ..., x
n
).
Da x und y auf J ubereinstimmen, existiert ein Polynom p mit Grad kleiner oder gleich
n 1, soda
J
n
( x
0
y
0
) +... + ( x
n
y
n
) = p (4.5)
auf J. Man erweitert nun die Funktionen y
0
, ..., y
n1
auf ein willk urliche Art zu stetigen
Funktionen auf I und schreibt daf ur (x
0
, ..., x
n1
). Wahlt man nun
24
4.2. Recollement des morceaux Kapitel 4. Operationen auf Distributionen
x
n
= p +J
n
( x
0
x
0
) +... +J( x
n1
x
n1
) + x
n
, (4.6)
so folgt durch Umstellen der Gleichung
J
n
( x
0
x
0
) +... +J( x
n1
x
n1
) + ( x
n
x
n
) = p (4.7)
auf ganz I. Daraus erkennt man [(x
0
, ..., x
n
)] = [( x
0
, ..., x
n
)] = x, (x
0
, ..., x
n
) ist also nur
eine andere Darstellung von x. Auerdem folgt durch Vergleich der Gleichungen 4.5 und
4.7 da x
n
= y
n
auf J. (x
0
, ..., x
n
) ist somit die gesuchte Darstellung.
An einem Beispiel wird diese konstruktive Beweisidee noch einmal vorgef uhrt.
Beispiel 4.1 Es sei y = (y
0
, y
1
) = (t/2, t
2
/4) eine Distribution auf J = [1, 2] und x =
( x
0
, x
1
) = (0, t
2
/2) eine Distribution auf I = [1, 3]. Schrankt man x auf J ein, so gilt
J( x
0
y
0
) + ( x
1
y
1
) =
_
t
1
(

2
)d +
t
2
2

t
2
4
=
1
4
= p,
damit stimmt x auf J mit y uberein. Es wird nun y
0
stetig, sonst aber willk urlich auf I
erweitert. Das Resultat wird mit x
0
bezeichnet und lautet etwa
x
0
=
_
t/2 f ur t [1, 2]
1 f ur t [2, 3]
.
F ur x
1
ergibt sich nach Gleichung 4.6 x
1
= p +
_
t
1
( x
0
x
0
)d + x
1
. Man erhalt
x
1
=
1
4
+
_ _
t
1
(/2)d f ur t [1, 2]
_
2
1
(/2)d +
_
t
2
(1)d f ur t [2, 3]
_
+
t
2
2
=
1
4
+
_
t
2
/4 + 1/4 f ur t [1, 2]
1 + 1/4 t + 2 f ur t [2, 3]
_
+
t
2
2
=
_
t
2
/4 f ur t [1, 2]
1 t +t
2
/2 f ur t [2, 3]
_
Man uberzeugt sich leicht von der Stetigkeit von x
1
. (x
0
, x
1
) ist die gew unschte Darstellung
von x.
Es wird nun Recollement des morceaux f ur den Fall von zwei Teilintervallen betrachtet.
Satz 4.3 Es sei K = I J mit kompakten Intervallen I und J wobei I J ein nicht-
entartetes Intervall ist. Ist nun x eine Distribution auf I, y eine Distribution auf J, soda

I,IJ
x =
J,IJ
y,
dann existiert genau eine Distribution z auf K, die auf I mit x und auf J mit y uberein-
stimmt, das heit

K,I
z = x und
K,J
z = y.
25
4.2. Recollement des morceaux Kapitel 4. Operationen auf Distributionen
Beweis: Es sei (z
0
, ..., z
n
) eine Darstellung von x (und somit von y) auf I J. Wendet
man obigen Satz zweimal an, so ndet man eine Darstellungen (x
0
, ..., x
n
) von x auf I mit
z
i
= x
i
auf I J und eine Darstellung (y
0
, ..., y
n
) von y auf J mit z
i
= y
i
auf I J. Es sei
nun (f ur 0 i n) z
i
jene stetige Funktion auf K, f ur die z
i
= x
i
auf I und z
i
= y
i
auf
J gilt. Dann ist z = [(z
0
, ..., z
n
)] die gesuchte Distribution.
Die angegebene Distribution ist uberdies eindeutig bestimmt. Dazu sei z eine weitere
Distribution, die auf I mit x und auf J mit y ubereinstimmt, es ist also z = z auf I und
z = z auf J. Zu zeigen ist, da dann z und z auf ganz K ubereinstimmen. Es sei (z
0
, ..., z
n
)
eine gemeinsame Darstellung der beiden Distributionen auf I. Nach Satz 4.2 ndet man
Darstellungen
(x
0
, ..., x
n
) und (x
0
, ..., x
n
)
f ur z und z auf K wobei die x
i
und x
i
Erweiterungen der z
i
sind. Da diese Distributionen
auf J ubereinstimmen, ist die Funktion
J
n
(x
0
x
0
) +... + (x
n
x
n
)
ein Polynom auf J. Dieses Polynom verschwindet auf dem nichtentarteten Intervall I J
und daher auf ganz J. Damit gilt z = z auf K.
Beispiel 4.2 Es sei wie oben y = (y
0
, y
1
) = (t/2, t
2
/4) eine Distribution auf J = [0, 2]
und x = ( x
0
, x
1
) = (0, t
2
/2) eine Distribution auf I = [1, 3]. Es wurde bereits gezeigt, da
gilt:
I,IJ
x =
J,IJ
y. Die Distribution z = [(z
0
, z
1
)] auf K = [0, 3] mit
z
0
=
_
t/2 f ur t [0, 2]
1 f ur t [2, 3]
und
z
1
=
_
t
2
/4 f ur t [0, 2]
1 t +t
2
/2 f ur t [2, 3]
erf ullt die Bedingungen des Satzes.
Der allgemeine Fall von Recollement des morceaux folgt mit einem Induktionsargument.
Es gilt der
Satz 4.4 Es sei (I
1
, ..., I
m
) (mit kompakten Intervallen I
i
) eine

Uberdeckung des kompak-
ten Intervalls I, soda jedes Paar I
j
und I
k
entweder disjunkt ist oder eine nichtentartete
Schnittmenge besitzt. Weiters sei (x
i
)
m
i=1
eine Folge von Distributionen, wobei x
i
auf I
i
deniert ist, soda

I
j
,I
j
I
k
x
j
=
I
k
,I
j
I
k
x
k
f ur jedes Paar j, k. Dann existiert eine eindeutige Distribution x auf I, deren Einschrankun-
gen mit jedem x
i
auf I
i
ubereinstimmen.
26
4.3. Multiplikation Kapitel 4. Operationen auf Distributionen
4.3 Multiplikation
Es wird nun das Problem der Erweiterung der Multiplikation auf Distributionen be-
trachtet. Obwohl man Beispiele nden kann, in denen sich sogar singulare Distribu-
tionen miteinander multiplizieren lassen, kann i. a. keine nat urliche Multiplikation von
C

(I) C

(I) nach C

(I) deniert werden, die assoziativ und kommutativ ist. Ein


Beispiel am Ende dieses Abschnitts wird dieses Argument bestatigen. Es kann jedoch eine
sinnvolle Multiplikation gewisser glatter Funktionen mit Distributionen deniert werden.
Ausgangspunkt f ur eine sinnvolle Erweiterung der Multiplikation ist die Forderung, da
die Produktregel ihre G ultigkeit beibehalten soll. F ur glatte Funktionen X und gilt
nach der Produktregel
DX = D( X) (D) X.
Durch Iteration folgt
D
n
X =
n

k=0
(1)
k
_
n
k
_
D
nk
(D
k
X). (4.8)
Es wird sich zeigen, da f ur das Produkt einer Funktion C
n
(I) mit einer Distribution
x C
n
(I) (mit x =

D
n
X) diese Beziehung quasi als Denition benutzt wird. Diese
Tatsache wird in Satz 4.6 zum Vorschein kommen. Es gilt der folgende
Satz 4.5 F ur jedes n N
0
existiert eine eindeutig bestimmte Bilinearabbildung (, x)
a x von C
n
(I) C
n
(I) nach C
n
(I), soda
1. f ur n = 0 erhalt man die ubliche Multiplikation stetiger Funktionen
2. f ur C
n+1
(I), x C
n
(I) gilt die (Leibnizsche) Regel

D( x) = (D) x + (

Dx) (4.9)
Induktionsbeweis:
n = 0 : In diesem Fall C
0
(I) C
0
(I) C
0
(I) mit stetigem und x nehme man einfach
die ubliche Multiplikation stetiger Funktionen.
n n + 1 : Es sei C
n+1
(I) und x C
(n+1)
(I), etwa x =

D
n+1
X =

Dx
1
mit
einer stetigen Funktion X und x
1
=

D
n
X. Die Induktionshypothese ist, da bereits eine
Multiplikation (, x
1
) ax
1
von C
n
(I)C
n
(I) nach C
n
(I) mit den im Satz erwahnten
Eigenschaften existiert. Es soll dann die Gleichung

D( x
1
) = (D) x
1
+ (

Dx
1
)
= (D) x
1
+ x
gelten. Das Produkt x ist jedoch an dieser Stelle noch gar nicht deniert. Es liegt daher
die Denition
x : =

D( x
1
) (D) x
1
(4.10)
=

D(

D
n
X) (D)

D
n
X
27
4.3. Multiplikation Kapitel 4. Operationen auf Distributionen
nahe. Man beachte, da die beiden Summanden auf der rechten Seite der Gleichung auf-
grund der Induktionsannahme bereits deniert sind. Die Frage ist, ob dieses so erklarte
Produkt wohldeniert ist, das heit, ob f ur zwei verschiedene stetige Funktionen X und
X
1
mit x =

D
n+1
X =

D
n+1
X
1
obige Denition das gleiche Ergebnis liefert. Ist dies
der Fall, so erkennt man leicht, da die anderen geforderten Eigenschaften (Bilineraritat,
Leibnizsche Regel) von dieser Multiplikation erf ullt werden. Es sei also jetzt
x =

D
n+1
X =

D
n+1
X
1
mit X, X
1
C(I), X ,= X
1
.
Damit gilt X X
1
= p mit p P
n
(I). Folgende Gleichung soll gelten:

D(

D
n
X) (D)

D
n
X =

D(

D
n
X
1
) (D)

D
n
X
1.
(4.11)
Sie ist aquivalent zu

D
_
(

D
n
X) (

D
n
X
1
)
_
= (D)
_

D
n
X

D
n
X
1
_
bzw. zu

D
n
(X X
1
)
. .
const
= (D)

D
n
(X X
1
)
. .
const
,
da XX
1
P
n
(I) und daher

D
n
mit D
n
vertauscht werden kann. Gl. 4.11 ist also ferner
aquivalent zu

D( c) = (D) c,
mit einer Konstanten c, was aufgrund der Vertauschbarkeit von

D und D eine wahre Aus-
sage ist. Die G ultigkeit von Gl. 4.11 und somit die Wohldeniertheit dieser Multiplikation
ist damit gezeigt.
Es existiert somit eine Muliplikation mit den Eigenschaften des Satzes, man kennt jedoch
an dieser Stell noch keine explizite Formel zur Berechnung. Dazu der
Satz 4.6 Es sei C
n
(I) und x C
n
(I), etwa x =

D
n
X mit X C(I). Die Multipli-
kation (, x) ax von C
n
(I)C
n
(I) nach C
n
(I) mit den beschriebenen Eigenschaften
berechnet sich nach der Formel
x =
n

k=0
(1)
k
_
n
k
_

D
nk
(D
k
X) (4.12)
(Man vergleiche diese Formel mit Gl. 4.8.)
Beweis: Es sei vorerst n = 1. Mit Gl. 4.10 erhalt man
x =

D(x
1
) (D) x
1
.
mit x =

Dx
1
und stetigem x
1
. F ur n > 1 folgt Gl. 4.12 durch Iteration.
28
4.3. Multiplikation Kapitel 4. Operationen auf Distributionen
Beispiel 4.3 Man berechne (2 +s
2
)
0
durch direkte Anwendung der Formel 4.12:
Losung: Aus fr uheren Kapiteln ist bekannt, da gilt:
0
=

D
2
s
+
. Somit gilt mit Gl. 4.12
(2 +s
2
)
0
=
2

k=0
(1)
k
_
2
k
_

D
2k
_
D
k
(2 +s
2
) s
+
_
=

D
2
_
(2 +s
2
) s
+
_
2

D
_
D(2 +s
2
) s
+
_
+D
2
(2 +s
2
) s
+
=

D
2
_
2s
+
+s
3
+
_
2

D
_
2s
2
+
_
+ 2s
+
= 2
0
+ 6s
+
8s
+
+ 2s
+
= 2
0
.
Beispiel 4.4 Es sei s = s
+
s

und s
1
= s
1
+
s
1

. Man zeige die G ultigkeit der


Beziehungen
s
0
= 0, (4.13)
s s
1
= 1. (4.14)
Losung: Es wird Gl. 4.13 gezeigt. Es gilt
H
0
=

Ds
+
=

D(s H
0
).
Mit der Leibnitzschen Regel folgt weiter
H
0
= Ds H
0
+s

DH
0
= H
0
+s
0
,
und somit s
0
= 0.
Die Siebeigenschaft der Delta - Distribution
Folgende Eigenschaft der Delta - Distribution ist vor allem f ur die Integrationstheorie von
Distributionen und ihre Anwendungen von groer Bedeutung.
Satz 4.7 Es sei I ein kompaktes Intervall mit 0 als inneren Punkt und x C(I). Dann
gilt
x
0
= x(0)
0
. (4.15)
Ebenso erhalt man f ur a I
o
x
a
= x(a)
a
. (4.16)
Allgemeiner gilt
x
(n)
0
=
n

k=0
(1)
k
_
n
k
_
x
(k)
(0)
(nk)
0
(4.17)
f ur entsprechend glattes x.
29
4.3. Multiplikation Kapitel 4. Operationen auf Distributionen
Beweis: Es wird Gl. 4.15 f ur x C
2
(I) gezeigt. Mit der Leibnitzschen Regel erhalt man
dann einerseits

D(x H
0
) = Dx H
0
+x
0
und mit der Ableitungsformel Gl. 3.6 f ur st uckweise glatte Funktionen andererseits

D(x H
0
) = Dx H
0
+x(0)
0
.
Der Vergleich der beiden Darstellungen liefert das Behauptete. Die Behauptung kann mit
etwas mehr Theorie auch f ur nur in 0 stetiges x gezeigt werden.
Beispiel 4.5 Es sei r

N. Man zeige die G ultigkeit der Beziehung
s
r

(n)
0
=
_
_
_
0 f ur r n + 1
(1)
r
_
n
r
_
r!
(nr)
0
sonst
. (4.18)
Losung: Die Behauptung folgt sofort durch Einsetzen der Funktion s
r
in Gl. 4.17.
Erweiterungsmoglichkeiten der Multiplikation
An einem Beispiel soll demonstriert werden, da in der Tat keine allgemeine Multiplikation
von Distributionen formuliert werden kann. Dazu wird das Produkt
s
1
s
0
zuerst als (s
1
s)
0
berechnet. Mit den bisherigen Resultaten gilt (s
1
s)
0
=
0
.
Berechnet man das Produkt andererseits als s
1
(s
0
) , so folgt mit Gl.4.13 die Beziehung
s
1
(s
0
) = 0. Das zeigt, das in diesem Fall etwa die Assoziativitat nicht halten w urde.
Es wird kurz eine mogliche vern unftige Erweiterung des hier eingef uhrten Produkts (, x)
a x von C
n
(I) C
n
(I) nach C
n
(I) erwahnt. Mit dem Prinzip von Recollement
des morceaux kann etwa das Produkt zweier Delta - Distributionen
a

b
mit a ,= b
eingef uhrt werden. Praziser formuliert: Es seien x und y zwei Distributionen auf dem
kompakten Intervall I und (I
1
, ..., I
m
) eine (wie ubliche)

Uberdeckung von I mit den
zusatzlichen Eigenschaften:
F ur jedes I
i
gilt: x hat in I
i
genau eine isolierte Singularitat und es gilt x C
n
i
(I
i
)
und y C
n
i
(I
i
) mit einem n
i
N oder umgekehrt.
Die Singularitaten liegen nicht in den

Uberlappungen I
i
I
j
.
Dann kann man das Produkt x y auf I erklaren, indem man es auf jedem I
i
deniert und
dann das Prinzip von Recollement des morceaux anwendet.
30
4.4. Division Kapitel 4. Operationen auf Distributionen
Rationale Funktionen als Distributionen
Als Anwendung der eben eingef uhrten Multiplikation und des Prinzips von Recollement
des morceaux kann gezeigt werden, da jede rationale Funktion als Distribution betrach-
tet werden kann. Es sei x(t) = p(t)/q(t) eine rationale Funktion auf I. Man wahlt nun
eine

Uberdeckung (I
1
, ..., I
m
) von I (mit den ublichen Eigenschaften) so, da in jedem I
i
nur eine Polstelle auftritt. Die

Uberdeckung mu so gewahlt werden, da die Polstellen
jedoch nicht in einer der

Uberlappungen I
i
I
j
zu liegen kommen. Zur Vereinfachung der
Schreibweise wird hier nur der Fall mit zwei Polstellen a und b betrachtet. Es sei (I
1
, I
2
)
die

Uberdeckung des Intervalls I mit a I
1
, b I
2
und a, b / I
1
I
2
. Weiters sei
x(t) =
p(t)
q(t)
mit q(a) = q(b) = 0.
Dann gilt
q(t) = (t a)
k
q
1
(t) mit q
1
(a) ,= 0
bzw.
q(t) = (t b)
l
q
2
(t) mit q
2
(b) ,= 0
mit den Polynomen q
1
und q
2
und k + l = grad(q). F ur die rationale Funktion x ergibt
sich dann
x(t) =
p(t)
(t a)
k
q
1
(t)
=
p(t)
q
1
(t)
(t a)
k
(4.19)
bzw.
x(t) =
p(t)
(t b)
l
q
2
(t)
=
p(t)
q
2
(t)
(t b)
l
, (4.20)
also jeweils ein Produkt einer glatten Funktion mit einer Distribution. Verwendet man
nun f ur x auf I
1
die Darstellung nach Gl. 4.19 und auf I
2
jene nach Gl. 4.20, so lassen
sich nach Recollement des morceaux die beiden Darstellungen von x zu einer eindeutig
bestimmten Distribution auf I zusammenst uckeln.
Mit der gleichen Vorgangsweise zeigt man, da auch alle meromorphen Funktionen als
Distributionen betrachtet werden konnen.
4.4 Division
Im folgenden Abschnitt wird das Problem der Division von Distributionen bzw. die
Losbarkeit von Gleichungen der Form
y = x (4.21)
mit gegebenem, glattem und gegebener Distribution x betrachtet. Es stellt sich also
die Frage, ob x/ als Distribution aufgefat werden kann. Es wird sich herausstellen, da
diese Aufgabe f ur eine groe Klasse von Funktionen losbar ist. Es wird an dieser Stelle
aber vorerst der einfachste Fall (s) = s betrachtet.
31
4.4. Division Kapitel 4. Operationen auf Distributionen
Satz 4.8 Es sei I ein kompaktes Intervall mit 0 als inneren Punkt. Ist x C

(I), dann
existiert eine Distribution y C

(I), so da die Gleichung


s y = x (4.22)
erf ullt ist. Die Losung y ist bis auf einen Term c
0
(mit einer Konstanten c) eindeutig
bestimmt.
Beweis: In diesem Beweis wird eine Funktion y angegeben, die Gleichung 4.22 erf ullt.
Die Distribution x habe eine Darstellung x =

D
n
X mit einem n N und einer stetigen
Funktion X. Weiters seien a und b die Endpunkte des Intervalls I. Man f uhrt nun die
Funktion
Y =
_
s
n
J
a
_
X
t
n+1
_
= s
n
_
s
a
X
t
n+1
dt f ur s < 0
s
n
J
b
_
X
t
n+1
_
= s
n
_
s
b
X
t
n+1
dt f ur s > 0
(4.23)
ein. F ur diese (unstetige) Funktion gelten die Abschatzungen
[Y (s)[ C
_
s
a

1
t
dt = C (ln(a) ln(s)) f ur s < 0
bzw.
[Y (s)[ C (ln b ln s) f ur s > 0
mit C = sup [X(t)[. Damit ist Y Lebesgue- (bzw. im uneigentlichen Sinn Riemann- )
integrierbar und daher eine Distribution. Es wird sich nun zeigen, da die Distribution
y =

D
n+1
Y eine Losung der Gleichung 4.22 ist. In der Tat folgt aus der Leibnitzschen
Regel

D
n+1
(s Y ) =

D
n

D(s Y )
=

D
n
_
s

DY +Y
_
=

D
n1

D
_
s

DY +Y
_
=

D
n1
_
s

D
2
Y + 2

DY
_
=
.
.
.
= s

D
n+1
Y + (n + 1)

DY
= s y + (n + 1)

D
n
Y
Andererseits ist die Funktion s Y st uckweise glatt und man erhalt mit der Ableitungs-
formel st uckweise glatter Funktionen

D(s Y ) = (n + 1)Y +X.


Nach mehrmaliger Anwendung der Formel fogt

D
n+1
(s Y ) = (n + 1)

D
n
Y +x.
Durch Vergleich der beiden Gleichungen erhalt man daher das gew unschte Ergebnis sy =
x. Die Distribution y ist wie im Satz formuliert nicht die einzige Losung von Gl. 4.22.
32
4.4. Division Kapitel 4. Operationen auf Distributionen
Nach Gl. 4.13 gilt s (c
0
) = 0 mit einer beliebigen Konstanten c. Vielfache der Delta -
Distribution erf ullen somit die homogene Gleichung
s y = 0. (4.24)
Da dies die einzigen Losungen der homogenen Gleichung sind wird erst in Kapitel 5.3
gezeigt. Addiert man zur oben konstruierten speziellen Losung y der inhomogenen Glei-
chung 4.22 Vielfache von
0
, so erhalt man somit wieder eine Losung.
Satz 4.9 Es sei I ein kompaktes Intervall mit 0 als inneren Punkt und r N. Ist x
C

(I), dann existiert eine Distribution y C

(I), so da die Gleichung


s
r
y = x (4.25)
erf ullt ist. Die Losung y ist bis auf einen Term
r1

j=0
c
j

(j)
0
(4.26)
mit Konstanten c
j
eindeutig bestimmt.
Beweis: Durch Induktion ndet man, da eine Distribution y auf I existiert, die die
Gleichung 4.25 erf ullt. In der Tat ist die Distribution y =

D
n+r
Y mit
Y =
_
s
n
(r1)!
_
s
a
(s t)
r1 X
t
n+r
dt f ur s < 0
s
n
(r1)!
_
s
b
(s t)
r1 X
t
n+r
dt f ur s > 0
eine Losung dieser Gleichung. Mit Gl. 4.18 gilt s
r

(j)
0
= 0 f ur 0 j r 1, somit erf ullt
jede Distribution der Form

r1
j=0
c
j

(j)
0
die (homogene) Gleichung
s
r
y = 0. (4.27)
Addiert man also eine Linearkombination der Delta - Distribution und ihrer ersten r 1
Ableitungen zu einer Losung y der inhomogenen Gleichung, so erhalt man dadurch wieder
eine Losung. Wie allerdings in Kapitel 5.3 gezeigt wird sind Distributionen nach Gl.
4.26 die einzigen Losungen der homogenen Gleichung 4.27, somit ist die Losung y der
inhomogenen Gleichung 4.25 bis auf Linearkombinationen der Delta - Distribution und
deren Ableitungen eindeutig bestimmt.
Mit diesem Ergebnis und mit dem Prinzip von Recollement des morceaux kann nun f ur
beliebige Polynome = p (und mit dem selben Beweisprinzip sogar f ur beliebige Funk-
tionen auf der komplexen Ebene, die nicht mehr als endlich viele singulare Nullstellen
besitzen) die Gleichung y = x gelost werden. Es gilt also der
Satz 4.10 Es sei I ein kompaktes Intervall, x C

(I) und ein Polynom (jedoch


nicht das Nullpolynom). Dann existiert eine Distribution y, so da die Gleichung
y = x (4.28)
erf ullt ist.
33
4.5. Hintereinanderausf uhrung Kapitel 4. Operationen auf Distributionen
Beweis: Es sei p ein Polynom. Man wahle eine

Uberdeckung (I
1
, ..., I
m
) von I (mit den
ublichen Eigenschaften) so, da in jedem I
i
nur eine Nullstelle von p auftritt. Die

Uberde-
ckung mu so gewahlt werden, da die Nullstellen jedoch nicht in einer der

Uberlappungen
I
i
I
j
zu liegen kommen. Zur Vereinfachung der Schreibweise wird hier nur der Fall mit
zwei Nullstellen a und b betrachtet. Es sei also (I
1
, I
2
) die

Uberdeckung des Intervalls I
mit a I
1
, b I
2
und a, b / I
1
I
2
. Dann gilt
p(s) = (s a)
k
p
1
(s) mit p
1
(a) ,= 0
bzw.
p(s) = (s b)
l
p
2
(s) mit p
2
(b) ,= 0
mit den Polynomen p
1
und p
2
und k +l = grad(p). In I
1
gilt somit
(s a)
k
y =
x
p
1
(s)
=: x
1
,
mit x
1
C

(I), in I
2
gilt
(s b)
l
y =
x
p
2
(s)
=: x
2
,
mit x
2
C

(I). Nach einer Verschiebung um a bzw. b ist in beiden Fallen das Problem
auf den Fall s
r
y = x reduziert, welcher bereits gelost ist. F ur die entsprechenden Losungen
y
1
und y
2
gilt y
1
= y
2
= y in I
1
I
2
. Nach recollement des morceaux lassen sich die beiden
Darstellungen von y zu einer eindeutig bestimmten Distribution auf I zusammenst uckeln.
4.5 Hintereinanderausf uhrung
Es wird hier kurz die Erweiterung der Komposition (bzw. Hintereinanderausf uhrung oder
Variablentransformation) f ur Distributionen betrachtet. Die Erweiterung der Multiplika-
tion wurde so durchgef uhrt, da die G ultigkeit der Produktregel gesichert war. Die Rolle
der Produktregel nimmt in diesem Erweiterungsproze die Kettenregel ein. Die f ur glatte
Funktionen X und g ultige Regel
D(X ) = (DX )

(4.29)
soll also ihre G ultigkeit beibehalten. Stellt man diese Gleichung um, so folgt
DX =
_
1

D
_
(X ).
Durch Iteration erhalt man
D
n
X =
_
1

D
_
n
(X ), (4.30)
wobei
_
1

D
_
n
den Operator
_
1

D
__
1

D
_

_
1

D
_
. .
n Mal
(4.31)
34
4.5. Hintereinanderausf uhrung Kapitel 4. Operationen auf Distributionen
bezeichnet. Es wird sich zeigen, da f ur die Hintereinanderausf uhrung x (x C

(I)
mit x =

D
n
X, C

(I)) die Beziehung 4.30 quasi als Denition benutzt wird. Diese
Aussage wird in Satz 4.12 zum Vorschein kommen. Es gilt der
Satz 4.11 Es seien I und J kompakte Intervalle und : I J eine glatte Abbildung
(etwa C
n+1
(I)) von I nach J mit

,= 0. Dann existiert zu jedem n ein eindeutig


bestimmter, linearer, stetiger Operator x x von C
n
(J) nach C
n
(I) mit den
Eigenschaften:
1. F ur x C(J) hat (x ) C(I) die ubliche Bedeutung.
2. Die Kettenregel behalt in der Form

D(x ) =
_

Dx
_

(4.32)
bzw.

D(x((t))) =
_

Dx((t))
_

(t) (4.33)
ihre G ultigkeit.
Induktionsbeweis:
n = 0: In diesem Fall nehme man die ubliche Hintereinanderausf uhrung von Funktionen:
: C(J) C(I)
x x
.
n n + 1 : Es sei C
n+1
(I) und x C
(n+1)
(J), etwa x =

D
n+1
X =

Dx
1
mit einer
auf J stetigen Funktion X und x
1
=

D
n
X. Die Induktionshypothese ist, da bereits eine
Hintereinanderausf uhrung
: C
n
(J) C
n
(I)
x
1
x
1

existiert. Es soll dann die Gleichung

D(x
1
) =
_

Dx
1

_

= (x )

gelten. Der Ausdruck (x ) auf der rechten Seite ist jedoch an dieser Stelle noch gar
nicht deniert. Es liegt daher die Denition
(x ) : =
1

D(x
1
) (4.34)
=
1

D(

D
n
X )
nahe. Man beachte, da die rechte Seite aufgrund der Induktionshypothese bereits de-
niert ist. Man mu jetzt nur noch zeigen, da diese Hintereinanderausf uhrung wohl-
deniert ist, das heit, da f ur zwei verschiedene stetige Funktionen X und X
1
mit
35
4.5. Hintereinanderausf uhrung Kapitel 4. Operationen auf Distributionen
x =

D
n+1
X =

D
n+1
X
1
obige Denition das gleiche Ergebnis liefert. Es gilt X X
1
= p
mit p P
n
(J). Folgende Gleichung soll gelten:
1

D(

D
n
X ) =
1

D(

D
n
X
1
). (4.35)
Sie ist aquivalent zu

D
__

D
n
X
_

D
n
X
1

__
= 0
bzw.

D
__

D
n
X

D
n
X
1
_

_
= 0
bzw.

D
__

D
n
(X X
1
)
_

_
= 0.
Es gilt

D
n
(XX
1
) = c mit einer Konstanten c, daher ist die Gleichung weiters aquivalent
zu

Dc = 0. (4.36)
Ist c eine konstante Funktion (mit Wert c) auf J, so ist c eine konstante Funktion
(ebenfalls mit Wert c) auf I. Gl. 4.36 und somit wegen der

Aquivalenz auch Gl. 4.35 sind
daher wahre Aussagen. Somit ist die Wohldeniertheit der so eingef uhrten Hintereinan-
derausf uhrung gezeigt.
Es existiert somit eine Hintereinanderausf uhrung mit den Eigenschaften des Satzes, man
kennt jedoch an dieser Stelle noch keine explizite Formel zur Berechnung. Dazu der
Satz 4.12 Es seien I, J, x und wie oben und x =

D
n
X mit auf J stetigem X. Dann
gilt die f ur die Hintereinanderausf uhrung
: C
n
(J) C
n
(I)
x x
die Formel
x =
_
1

D
_
n
(X ). (4.37)
Beweis: Es sei vorerst n = 1. Mit Gl. 4.34 erhalt man
(x ) :=
1

D(x
1
)
mit x =

Dx
1
und stetigem x
1
. F ur n > 1 folgt Gl. 4.37 durch Iteration.
Bemerkung: Die Operatoren
h
und
I,J
konnen als Hintereinanderausf uhrungen (Kom-
positionen) in diesem Sinn betrachtet werden. ist im Fall der Verschiebung die Ab-
bildung t t hund im Fall der Einschrankung die nat urliche Einbettung von I in
J.
36
4.5. Hintereinanderausf uhrung Kapitel 4. Operationen auf Distributionen
Beispiel 4.6 Man zeige die G ultigkeit der Beziehungen

0
(kt) =
1
[k[

0
(t) (4.38)

(n)
0
(kt) =
1
[k[
n

0
(t) (4.39)
f ur k ,= 0.
Losung: Aus

0
=

D
2
t
+
=
_
0 t < 0
t t > 0
folgt mit Gl. 4.37
0
=
_
1
k

D
_
2
(t
+
). F ur k > 0 gilt nun
t
+
=
_
0 kt < 0
kt kt > 0
=
_
0 t < 0
kt t > 0
= kt
+
und somit

0
=
_
1
k

D
_
2
(t
+
)
=
_
1
k

D
__
1
k

D
_
(t
+
)
=
_
1
k

D
__
1
k

D
_
(kt
+
)
=
_
1
k

D
_
H
0
=
1
k

0
.

Ahnlich erhalt man f ur k < 0 die Beziehung


0
=
1
k

0
.
Wie schon im Fall der Multiplikation kann auch die Denition der Hintereinanderausf uhrung
mit Recollement des morceaux erweitert werden. Es sei dazu (I
1
, ..., I
n
) mit kompakten
Intervallen I
i
wieder eine passende

Uberdeckung von I, so da

I,I
i
erf ullt die oben geforderten Bedingungen
oder

I,I
i
x ist stetig (dann gen ugt auch, da
I,I
i
stetig ist)
Unter diesen Voraussetzungen kann x auf jedem I
i
und mit Recollement des morceaux
daher auf ganz I deniert werden. Mit dieser Methode konnen dann etwa Ausdr ucke wie

0
(t
2
a
2
) (mit a ,= 0) eingef uhrt werden.
37
Kapitel 5
Distributionen auf oenen
Intervallen
5.1 Denition und Eigenschaften
In diesem Kapitel werden Distributionen auf Rbeziehungsweise Distributionen auf oenen
Intervallen eingef uhrt. Dazu folgende
Denition 5.1 Es sei U ein oenes Intervall und 1(U) die Familie aller nicht degene-
rierten, abgeschlossenen Teilintervalle von U. Man erklart nun eine Distribution auf U
durch die Familie x
I
[ I 1(U), wobei x
I
eine Distribution auf I ist, f ur die

I,IJ
x
I
=
J,IJ
x
J
,
falls I und J 1(U) Intervalle mit nicht degeneriertem Durchschnitt sind.
Ohne Beweis sei bemerkt, da man zur Denition einer Distribution auf U nicht alle
kompakten Teilintervalle von U heranziehen mu. Als Beispiel wird hier eine Denition
f ur Distributionen auf R angef uhrt, die im Fall U = R zur vorangegangenen aquivalent
ist:
Denition 5.2 Eine Distribution auf R ist eine Folge (x
n
) von Distributionen mit
den Eigenschaften
a)
_
nN
x
n
C

[n, n], also f ur jedes n N ist x


n
ist eine Distribution auf dem
kompakten Intervall [n, n].
b)
_
nN

[(n+1),n+1],[n,n]
x
n+1
= x
n
, f ur jedes n N stimmt also die Einschrankung von
x
n+1
auf das Intervall [n, n] mit x
n
uberein.
Ein Beispiel einer Distribution auf R ist etwa
T
1
=

k=

k
. (5.1)
Die Folge (x
n
) kann hier durch x
n
=

k[n,n]

k
angegeben werden. Ein weiteres Beispiel
38
5.2. Der Trager einer Distribution Kapitel 5. Distributionen auf oenen Intervallen
ist
T
2
=

k=

(k)
k
(5.2)
mit x
n
=

k[n,n]

(k)
k
. Als Beispiel aus C

([0, [) kann man etwa


T
3
=

k=0

k
(5.3)
angeben.
Es folgen einige Eigenschaften bzw. Denitionen f ur Distributionen auf R bzw. auf oenen
Intervallen U, die aus obiger Denition bzw. aus den entsprechenden Eigenschaften von
Distributionen auf kompakten Intervallen folgen.
I) Jede auf R (bzw. U) integrierbare Funktion kann als Distribution auf der entspre-
chenden Menge betrachtet werden.
II) Die Denition der distributionellen Ableitung wird folgendermaen erweitert: Es
sei x C

(R) (bzw. x C

(U)). Die Distribution x ist dabei deniert durch


die Familie (x
n
). Man deniert nun die distributionelle Ableitung von x durch die
Familie (

Dx
n
), die nat urlich wieder mit

Dx bezeichnet wird.
III) Der Raum der Distributionen auf R erf ullt die zu beginn formulierten Axiome mit
Ausnahme der Tatsache, da Distributionen existieren, die keine Darstellung der
Form x =

D
n
X mit X C

(R) besitzen (Man betrachte etwa die Distribution

n=

(n)
n
). Darstellungen der Form x =

D
n
X mit stetigem X existieren dann
nur f ur Einschrankungen solcher Distributionen (etwa auf beschrankte Intervalle).
Eine Distribution, die f ur ein n N die n.te Ableitung einer stetigen Funktion auf
R ist, wird als Distribution endlicher Ordnung bezeichnet.
IV)

Ahnlich wie bei Distributionen auf kompakten Intervallen konnen die Operatoren

U,U
1
: C

(U) C

(U
1
) mit U
1
U (Einschrankung) und
h
: C

(U)
C

(U +h) (Verschiebung) eingef uhrt werden.


Es gilt folgende Version des Prinzips von recollement des morceaux:
Satz 5.1 Es sei U eine oene Teilmenge von R und es gelte U =

A
U

mit oenen
Mengen U

. Weiters sei (x

)
A
eine Familie von Distributionen mit der Eigenschaft
x

= x

auf U

f ur jedes Paar , A. Dann existiert eine eindeutig bestimmte


Distribution x auf U mit
U,U

x = x

und
U,U

x = x

.
5.2 Der Trager einer Distribution
Man kann dieses gerade formulierte Prinzip von recollement des morceaux verwenden um
den Trager einer Distribution zu denieren. Zuvor wird an die Denition
Tr(f) := x R [ f(x) ,= 0
39
5.2. Der Trager einer Distribution Kapitel 5. Distributionen auf oenen Intervallen
des Tragers einer stetigen Funktion f : R Rerinnert. Es wird die abgeschlossene Menge
aller Punkte herangezogen, in denen f nicht verschwindet. W urde man die oene Menge
x R [ f(x) ,= 0 verwenden, so waren die einpunktigen Mengen der Nullstellen im
Wirkungsbereich der Funktion vom Trager ausgeschlossen, was jedoch nicht zweckmaig
ware. Man kann f ur den Trager der Funktion auch schreiben:
Tr(f) = R V [ V oen,
R,V
f = 0 .
Motiviert von diesen

Uberlegungen folgt nun die
Denition 5.3 Es sei x eine Distribution auf R. Die (abgeschlossene) Menge
Tr(x) := R V [ V oen,
R,V
x = 0 (5.4)
wird als Trager der Distribution x bezeichnet.

Ahnlich deniert man den Trager einer
Distribution x C

(U) mit einer oenen Menge U. Man sagt, die Distribution x hat
einen kompakten Trager, wenn Tr(x) eine kompakte (und somit beschrankte) Teilmen-
ge von R bzw. U ist.
Es gilt
Tr(
(j)
0
) = 0 f ur j 0. (5.5)
In der Tat sind die Delta - Distribution und ihre Ableitungen die einzigen Distributionen
mit dieser Eigenschaft. Praziser formuliert gilt der
Satz 5.2 Es sei x eine Distribution auf R mit Tr(x) = 0. Dann ist x eine endliche
Linearkombination der Delta - Distribution und ihrer Ableitungen. x ist also von der Form
p

j=0
c
j

(j)
0
(5.6)
mit einem p N.
Beweis: Man betrachte die Einschrankung
R,[1,1]
x von x auf das Intervall [1, 1]. Sie
besitzt eine Darstellung
R,[1,1]
x =

D
r
X mit einem r N und einem X C[1, 1].
Wegen
R,[1,0[
x = 0 und
R,]0,1]
x = 0 und Axiom 3) existieren daher Polynome p
1

P
r1
([1, 0[), p
2
P
r1
(]0, 1]), so da gilt :
X = p
1
auf [1, 0[,
X = p
2
auf ]0, 1].
Damit ist X eine st uckweise glatte Funktion mit der einzigen Singularitat in 0. Das
Ergebnis folgt somit aus der Formel f ur die distributionelle Ableitung st uckweise glatter
Funktionen.
40
5.3. Homogene Distributionengln. Kapitel 5. Distributionen auf oenen Intervallen
5.3 Homogene Distributionengleichungen
Es kann nun der bereits zitierte Satz uber die Losungsverhaltnisse einer homogenen Glei-
chung der Art
s
r
y = 0 (5.7)
mit der unbekannten Distribution y bewiesen werden.
Satz 5.3 Falls s
r
y = 0, dann ist y von der Form
y =
r1

j=0
c
j

(j)
0
, (5.8)
also eine Linearkombination der Delta - Distribution und ihrer Ableitungen. Umgekehrt
folgt aus y =

r1
j=0
c
j

(j)
0
die Gleichung s
r
y = 0.
Beweis:
: Es gelte vorerst y =

r1
j=0
c
j

(j)
0
. Mit Gl. 4.18 folgt
s
r
y =
r1

j=0
c
j
s
r

(j)
0
= c
0
s
r

0
+... +c
r1
s
r

(r1)
0
= 0.
: Nun sei s
r
y = 0. Ist I ein beliebiges oenes Intervall mit 0 / I, so gilt
y =
1
s
r
0 = 0. Somit ist der Trager von y die Nullmenge, es gilt also Tr(y) = 0.
Aufgrund des vorangegangenen Satzes ist daher y =

p
j=0
c
j

(j)
0
mit einem endlichen
p. Man nehme nun an, da die hochste auftretende Ableitung der Delta - Distribution
von der Ordnung p mit p r sei. Setzt man in die Gleichung s
r
y = 0 ein, so folgt
aus der Beziehung
s
r
y =
p

j=0
c
j
s
r

(j)
0
= c
0
s
r

0
+... +c
r1
s
r

(r1)
0
. .
=0
+c
r
s
r

(r)
0
+... +c
p
s
r

(p)
0
= 0,
da die Koezienten c
r
, ..., c
p
verschwinden m ussen. Damit ist y wie behauptet von
der Form y =

r1
j=0
c
j

(j)
0
.
Man vergleiche die

Ahnlichkeit dieser Aussage mit den Losungverhaltnissen linearer, ho-
mogener Gleichungssysteme
Ax = 0 (5.9)
bzw. linearer, homogener Dierentialgleichungssysteme
x

Ax = 0. (5.10)
Auch in diesen beiden Fallen ergeben sich die Losungen durch Linearkombination gewisser
Basisvektoren bzw. Basisfunktionen. Die Rolle dieser Basisvektoren ubernehmen hier die
Delta - Distribution und ihre Ableitungen.
41
Kapitel 6
Grenzwerte und Stetigkeit
Es werden nun in der Folge Grenzwerte einer Distribution f ur s bzw. f ur s a
mit a R eingef uhrt. Es sei an dieser Stelle an die Regel von Del Hospital f ur Grenzwerte
von Funktionen erinnert:
Satz 6.1 Sind X und Y auf I = [a, b] dierenzierbare Funktionen, Y (t) ,= 0, mit den
folgenden Eigenschaften
1. lim
tb
X(t) = 0, lim
tb
Y (t) = 0 oder lim
tb
X(t) = , lim
tb
Y (t) =
2. lim
tb
X

(t)
Y

(t)
= L mit L R , ,
dann gilt
lim
tb
X(t)
Y (t)
= lim
tb
X

(t)
Y

(t)
= L. (6.1)
Entsprechendes gilt f ur die Grenzprozesse t .
Treten bei lim
tb
X

(t)/Y

(t), lim
tb
X

(t)/Y

(t), ... immer noch Grenzwerte der Form


0
0
bzw.

auf und existiert der Grenzwert lim


tb
X
(n)
(t)/Y
(n)
(t) = L, so gilt
lim
tb
X(t)
Y (t)
= ... = lim
tb
X
(n)
(t)
Y
(n)
(t)
= L, (6.2)
und entsprechendes f ur Grenzprozesse der Form t . Gilt speziell Y (t) = t
n
, so folgt
daraus etwa
lim
t
X(t)
t
n
= lim
t
DX(t)
nt
n1
= ... = lim
t
D
n
X(t)
n!
, (6.3)
bzw.
lim
t
D
n
X(t) = n! lim
t
X(t)
t
n
. (6.4)
42
6.1. Grenzwerte der Form s Kapitel 6. Grenzwerte und Stetigkeit
6.1 Grenzwerte der Form s
F ur die Denition eines Grenzwertbegries f ur Distributionen wird die Beziehung 6.4 als
Ausgangspunkt gewahlt. Dazu folgende
Denition 6.1 Es sei vorerst I ein Intervall der Form [a, [ und x eine Distribution
auf I. Man sagt lim
s
x(s) existiert und ist gleich mit R, falls

nN

b>a

XC[b,[
x [
[b,[
=

D
n
X und n! lim
s
X(s)
s
n
= , (6.5)
wobei der in Gl. 6.5 auftretende Limes klassisch zu betrachten ist. Man schreibt dann
lim
s
x(s) = . (6.6)
F ur links unbeschrankte Intervalle wird der Grenzwert analog eingef uhrt.
Man kann zeigen, da diese Denition wieder unabhangig von der Darstellung x =

D
n
X
ist. Gilt also x =

D
n
X =

D
n
X
1
mit X ,= X
1
so erhalt man in beiden Fallen das gleiche
Ergebnis.
Gilt insbesondere = 0, so folgt
lim
s
x(s) = 0 lim
s
X(s)
s
n
= 0, (6.7)
wobei der rechte Grenzwert klassisch zu betrachten ist.
Man zeigt leicht die G ultigkeit der ublichen Rechenregeln f ur Grenzwerte. So gilt etwa
lim
s
(x(s) y(s)) = lim
s
x(s) lim
s
y(s), (6.8)
lim
s
ax(s) = a lim
s
x(s) (6.9)
falls die Grenzwerte auf den rechten Seite der Gleichungen existieren.
Beispiel 6.1 Der Grenzwert lim
t
cos(t) existiert im klassischen Sinn nicht, da cos(t) os-
zilliert. Es gilt jedoch cos(t) =

Dsin(t) und lim
t
sin(t)
t
= 0 im klassischen Sinn. Damit
gilt
lim
t
cos(t) = 0 (6.10)
im distributionellen Sinn. Dies ist kein Widerspruch zur klassischen Theorie, da lim
t
sin(t)
t
kein Grenzwert der Form
0
0
bzw.

ist, und daher die Regel von Del Hospital klassisch


nicht angewendet werden darf. Im distributionellen Sinn wurde Del Hospital in der De-
nition verwendet, man braucht sich daher um keine G ultigkeitsbedingung k ummern.
Beispiel 6.2 Der Grenzwert lim
s

nZ

n
(s) existiert weder im klassischen noch im distri-
butionellen Sinn.
43
6.2. Grenzwerte der Form s a Kapitel 6. Grenzwerte und Stetigkeit
6.2 Grenzwerte der Form s a
Der Grenzwert einer Funktion x(t) f ur t a mit a I wurde so deniert, da sein Wert
unabhangig vom Funktionswert x(a) ist. Die Funktion mu in a nicht einmal deniert sein,
trotzdem konnen der Grenzwert - oder zumindest die links- und rechtsseitigen Grenzwerte
- existieren. Man wird nun auch bei Distributionen eine Grenzwertdenition formulieren,
die eine ahnliche Argumentation zulat.
Denition 6.2 Es sei x eine Distribution auf I = [a, b] und c I.
1. Man sagt der rechtsseitige Grenzwert lim
sc
+
x(s) existiert und ist gleich mit
R, falls

>0

nN

XC]c,c+[
x [
]c,c+[
=

D
n
X und n! lim
sc
+
X(s)
(s c)
n
= , (6.11)
wobei der in Gl. 6.11 auftretende Limes klassisch zu betrachten ist. Man schreibt
dann
lim
sc
+
x(s) = . (6.12)
Linkswertige Grenzwerte lim
sc

x(s) werden analog eingef uhrt.


2. Man sagt der Grenzwert lim
sc
x(s) existiert und ist gleich mit R, falls
lim
sc
+
x(s) = lim
sc

x(s) = . (6.13)
Man beachte, da die Darstellung x =

D
n
X jeweils nur in der Umgebung von c und nicht
in c selbst gelten mu. Die Unabhangigkeit vom Verhalten der Distribution in c ist somit
wie beim Grenzwert von Funktionen gegeben.
Beispiel 6.3 Die Delta -Distribution
0
hat wie schon gezeigt wurde den Trager Tr(
0
) =
0. F ur die Einschrankung von
0
auf ]0, [ bzw. auf ], 0[ mit einem beliebigen > 0 gilt
daher
R,]0,[

0
= 0 bzw.
R,],0[

0
= 0. Klarerweise gilt daher lim
s0
+

0
(s) = lim
s0

0
(s) = 0
und damit
lim
s0

0
(s) = 0. (6.14)
Auch f ur die Ableitungen der Delta -Distribution gilt
lim
s0

(k)
0
(s) = 0. (6.15)
Die Delta -Distribution und ihre Ableitungen haben zwar in 0 ihre Singularitat, jedoch
der Grenzwert verschwindet in 0.
44
6.3. Stetigkeit Kapitel 6. Grenzwerte und Stetigkeit
6.3 Stetigkeit
I. a. kann man nicht vom Wert einer Distribution an einem festen Punkt sprechen, da das
Verhalten von Distributionen fest mit ganzen Intervallen verbunden ist. Trotzdem sollen
Aussagen wie der Wert der Delta - Distribution im Punkt 1 ist 0 g ultig sein. Diese und
ahnliche Feinheiten werden von der folgenden Denition erfat.
Denition 6.3 Es sei x eine Distribution auf dem Intervall I, das den Punkt c als in-
neren Punkt enthalt. Man sagt x ist stetig in c und hat dort den Wert R, falls

>0

nN

XC]c,c+[
x [
]c,c+[
=

D
n
X und n! lim
sc
X(s)
(s c)
n
= , (6.16)
wobei der in Gl. 6.16 auftretende Limes klassisch zu betrachten ist.
Man beachte, da hier die Darstellung x =

D
n
X auf einer den Punkt c enthaltenden
Umgebung desgleichen gelten mu. Wie bei der Stetigkeitsdenition von Funktionen geht
das Verhalten der Distribution im betrachteten Punkt c - im Gegensatz zur Grenzwert-
denition - in die Denition ein. Die Stetigkeit ist somit eine starkere Bedingung als jene
der Existenz des Grenzwertes in einem Punkt.
Beispiel 6.4 Die Delta - Distribution hat auf ] , [ die Darstellung
0
(s) =

D
2
s
+
. Es
gilt daher
lim
s0

0
(s) = 2 lim
s0

0
s
2
= 0
lim
s0+

0
(s) = 2 lim
s0

s
s
2
=
somit ist
0
in 0 nicht stetig (obwohl der Grenzwert in 0 existiert).
Beispiel 6.5 Die Distribution cos(
1
s
) ist in 0 stetig mit Wert 0. Dies folgt aus der Dar-
stellung
cos(
1
s
) = 2s sin(
1
s
)

D(s
2
sin(
1
s
). (6.17)
45
Kapitel 7
Integralrechnug f

ur Distributionen
7.1 Stammdistributionen
Denition 7.1 Es sei x eine Distribution auf dem kompakten Intervall I. Eine Distri-
bution X auf I mit der Eigenschaft
x =

DX (7.1)
heit Stammdistribution von x.
Satz 7.1 Jede Distribution x auf einem kompakten Intervall besitzt eine Stammdistribu-
tion. Je zwei verschiedene Stammdistributionen von x unterscheiden sich nur um eine
additive Konstante.
Beweis: Falls x stetig ist, so wahle man eine klassische Stammfunktion. Aus Analysis 1 ist
bekannt, da sich zwei verschiedene Stammfunktionen um eine Konstante unterscheiden.
Ist x nicht stetig, so existiert ein n N und ein Y C(I), so da x =

D
n
Y . Wahlt man
X =

D
n1
Y, so gilt x =

DX, X ist daher eine Stammdistribution von x. Die Darstellung
x =

D
n
Y (und somit die Stammdistribution X) ist jedoch nicht eindeutig. Gilt jedoch
x =

D
n
Y =

D
n
Y
1
mit Y ,= Y
1
, so unterscheiden sich Y und Y
1
nur um ein Polynom
p P
n1
(I). F ur die entsprechende Dierenz der Stammdistributionen X und X
1
folgt
dann
X X
1
=

D
n1
Y

D
n1
Y
1
=

D
n1
(Y Y
1
. .
P
n1
(I)
) = const.
Entsprechend deniert man Stammdistributionen von Distributionen auf oenen Inter-
vallen U bzw. auf R. Obiger Satz behalt auch in diesen Fallen seine G ultigkeit.
Beweis: U kann von einer steigenden Folge (I
n
) von kompakten Intervallen uberdeckt
werden. In dieser Folge gilt also I
1
I
2
... . Ist x eine Distribution auf U, so existiert
eine Distribution X
1
auf I
1
, so da

DX
1
= x auf I
1
. Genauso existiert eine Distribution
X
2
auf I
2
, so da

DX
2
= x auf I
2
. Dann unterscheiden sich X
1
und X
2
auf I
1
maximal
durch eine Konstante. Subtrahiert man diese Konstante von X
2
, so stimmen X
1
und X
2
auf I
1
uberein und uberdies ist X
2
immer noch eine Stammdistribution auf I
2
. Setzt man
diese Vorgangsweise fort, so kann man eine Folge (X
n
) konstruieren, so da auf I
n
gilt:

DX
n
= x. Die X
n
sind uberdies kompatibel und denieren somit eine Distribution auf U.
Diese Distribution hat die Eigenschaften einer Stammfunktion.
46
7.2. Bestimmte Integrale Kapitel 7. Integralrechnug f ur Distributionen
Beispiel 7.1 Die Heaviside Funktion H
0
ist auf jedem beliebigen Intervall, das 0 als inne-
ren Punkt enthalt eine Stammdistribution der Deltadistribution. Genauso ist f ur beliebiges
n 0 die Distribution
(n+1)
0
eine Stammdistribution von
(n)
0
.
7.2 Bestimmte Integrale
Mit der Theorie der Grenzwerte und der Stammdistributionen kann nun die nat urliche Er-
weiterung des bestimmten Integrals auf Distributionen durchgef uhrt werden. Es sei gleich
vorweggenommen, da beim bestimmten Integral einer Distribution an den Randpunkten
des Integrationsintervalls Vorsicht angebracht ist.
Denition 7.2 Es sei I ein Intervall mit den Endpunkten a und b, welche nicht notwendig-
erweise dem Intervall angehoren m ussen, und x eine Distribution auf I. Man sagt, da x
auf I integrierbar ist, bzw. da das Integral
_
b

a
+
x(s)ds (7.2)
existiert, falls eine Stammfunktion X von x auf I existiert, so da die Grenzwerte lim
sa
+
X(s)
bzw. lim
sb

X(s) existieren. Man deniert dann in nat urlicher Weise


_
b

a
+
x(s)ds = lim
sb

X(s) lim
sa
+
X(s). (7.3)

Ahnlich deniert man Intgrale der Form


_
b

_
b
+
a

_

a

_
b

etc. Nat urlich konnen in all den Fallen die Integrationsgrenzen auch beliebige innere Punk-
te des Intervalls sein. Im Fall
_
b
+
a

x(s)ds m ussen a und b sogar notwendigerweise innere


Punkte von I sein.
Beispiel 7.2 Es sei I =] , [. Auf I ist H
0
eine Stammdistribution von
0
. Es folgt
unmittelbar die wichtige Formeln
_

0
(s)ds = lim
s0
+
H
0
lim
s0

H
0
= 1. (7.4)
Beispiel 7.3 Es gelten oensichtlich die Formeln
_

(n)
0
(s)ds =
_

(n)
0
(s)ds = 0 n 1 (7.5)
Beispiel 7.4 Man zeige die G ultigkeit der Beziehung
1
2
_

e
jt
d = 0 f ur t ,= 0. (7.6)
Losung: Es gilt e
jt
= D

(
1
jt
e
jt
). Die Funktion
1
jt
e
jt
ist somit eine Stammfunktion von
e
jt
bez uglich . Auerdem gilt im distributionellen Sinn lim

e
jt
= 0. Damit hat
man
47
7.3. Siebeigenschaft der Deltafunktion Kapitel 7. Integralrechnug f ur Distributionen
1
2
_

e
jt
d =
1
2jt
( lim

e
jt
lim

e
jt
) = 0.
Spater wird gezeigt, da die Beziehung (inverse Fourier - Transformation der Funktion
T() = 1)
1
2
_

e
jt
d =
0
(t) (7.7)
gilt. Man beachte, da dieses Integral im klassischen Sinn an keiner Stelle konvergiert.
Es gilt der folgende
Satz 7.2 Es sei x ein Distribution auf R mit kompakten Trager, etwa mit Tr(x) = [a, b].
Dann ist x integrierbar auf R und es gilt
_

x(s)ds =
_
b
+
a

x(s)ds. (7.8)
Der Trager kann auch ein entartetes Intervall der Form Tr(x) = a sein. Es gilt dann
_

x(s)ds =
_
a
+
a

x(s)ds. (7.9)
Beweis: Es sei X eine Stammdistribution von x auf R. Auf ] , a[ bzw. ]b, [ verschwin-
det x, daher mu gelten X = c
1
auf ] , a[ bzw. X = c
2
auf ]b, [ mit Konstanten c
1
und c
2
. Damit verschwinden die beiden Integrale
_
a

x(s)ds und
_

b
+
x(s)ds und es folgt
_
b
+
a

x(s)ds = c
2
c
1
.
Beispiel 7.5 Aus dem Satz folgen die Beziehungen
_

0
(s)ds =
_
0
+
0

0
(s)ds = 1 (7.10)
und
_

a
(s)ds =
_
a
+
a

a
(s)ds = 1. (7.11)
7.3 Die Siebeigenschaft der Deltafunktion
In der Theorie der Fourier - Transformation und daher in den Gebieten der Systemtheo-
rie und Nachrichtentechnik spielt die sogenannte Siebeigenschaft der Deltafunktion eine
entscheidende Rolle.
Satz 7.3 Es sei f eine in a stetige Funktion. Dann gilt
_

f(s)
a
(s)ds =
_
a
+
a

f(s)
a
(s)ds = f(a). (7.12)
Diese Beziehung wird als Siebeigenschaft der Deltafunktion bezeichnet.
48
7.4. Wachstumsordnung Kapitel 7. Integralrechnug f ur Distributionen
Beweis: In Satz 4.7 Gl. 4.16 wurde gezeigt, da f ur in a stetiges f die Beziehung f(s)
a
(s) =
f(a)
a
(s) gilt. Dieses Produkt hat kompakten Trager und es gilt
_

f(s)
a
(s)ds =
_
a
+
a

f(a)
a
(s)ds = f(a)
_
a
+
a

a
(s)ds = f(a).
Man schreibt Gl. 7.12 auch oft in der Form
_

f(s)
0
(s a)ds = f(a). (7.13)
Man erhalt unmittelbar die Beziehungen
_

f(s a)
0
(s)ds = f(a) (7.14)
_

f(s +a)
0
(s)ds = f(a) (7.15)
bzw. das Faltungsprodukt der stetigen Funktion f mit der Delta - Distribution
f(t)
0
(t) =
_

f()
0
(t )d =
_

f(t )
0
()d = f(t). (7.16)
Aus dieser Gleichung folgt die wichtige Aussge, da die Faltung einer stetigen Funktion
mit der Delta - Distribution die urspr ungliche Funktion selbst als Ergebnis liefert. In
anderen Worten:
0
ist das Einselement der Faltungsalgebra.
Beispiel 7.6 Eine Verallgemeinerung der Siebeigenschaft ist die Beziehung
_

f(s)
(n)
0
(s)ds =
_
d
n
dt
n
f
_
(0). (7.17)
Dies folgt aus Gl. 4.17.
7.4 Wachstumsordnung von Distributionen
Es sei an folgende Denitionen f ur klassische Funktionen erinnert:
Denition 7.3 Es sei eine positive, stetige Funktion auf einer Umgebung I = [a, [
von Unendlich und x eine stetige Funktion auf I.
1. Man sagt x ist von der Ordnung f ur t und schreibt daf ur
x O() f ur t , (7.18)
falls

M>0

b>a

tb
[x(t)[ M(t). (7.19)
Das bedeutet, da der Quotient x(t)/(t) auf [b, [ beschrankt ist.
49
7.4. Wachstumsordnung Kapitel 7. Integralrechnug f ur Distributionen
2. Man sagt x ist klein von der Ordnung f ur t und schreibt daf ur
x o() f ur t , (7.20)
falls

>0

b>a

tb
[x(t)[ (t). (7.21)
Dies ist gleichwertig mit lim
t
x(t)
(t)
= 0.

Ahnlich deniert man x O() bzw. x o() f ur t und f ur t .


Interessant sind in den Anwendungen hauptsachlich die Falle (t) = t

mit einem R.
Beispiel 7.7 Es sei x(t) = t
2
sin t und
1
(t) = t
2
auf I = [0, [. Es gilt die Abschatzung
[x(t)[
1
(t) auf I, somit ist x O(
1
) f ur t . Man beachte, da daraus nicht die
Existenz des Grenzwertes lim
t
x(t)

1
(t)
folgt. Mit
2
(t) = t
3
auf I gilt lim
t
x(t)

2
(t)
= 0
bzw. x o() f ur t .
Obige Denitionen werden nun f ur Distributionen wie folgt erweitert:
Denition 7.4 Es seien I und wie oben und x C

(I).
1. Man sagt x ist beschrankt in der Umgebung von Unendlich und schreibt daf ur
x O(1) f ur t , (7.22)
falls

b>a

X[b,[

nN
x [
[b,[
=

D
n
X und X O(t
n
). (7.23)
X O(t
n
) ist dabei im klassischen Sinn zu verstehen.
2. Man sagt x o(1) f ur t , falls

b>a

X[b,[

nN
x [
[b,[
=

D
n
X und X o(t
n
). (7.24)
Dies ist gleichwertig mit lim
s
x(s) = 0 im distributionellen Sinn.
3. Man sagt x O() f ur t , falls x = y mit y O(1) (bzw. x/ O(1)).
4. Man sagt x o() f ur t , falls x = y mit y o(1) (bzw. x/ o(1)).
In ahnlicher Weise kann man obige Denitionen f ur t , t bzw. t a

oder t b
+
erweitern. Im Fall x O(1) f ur t mu etwa auf Umgebungen von
eine Darstellung der Art x =

D
n
X mit X O([t[
n
) existieren. Es gilt nun folgender
Zusammenhang zwischen distributioneller Ableitung und Wachstum von Distributionen:
Satz 7.4 Es sei R und x O(t

) f ur t . Dann gilt

Dx O(t
1
) f ur t .
Die entsprechende Aussage gilt f ur t .
50
7.4. Wachstumsordnung Kapitel 7. Integralrechnug f ur Distributionen
Beweis: Es sei vorerst = 0, also x O(1). Es existiert daher eine Darstellung x =

D
n
X
mit X O(t
n
) f ur t . Es gilt die Gleichung

Dx =

D
n+1
X = t
1
(t

D
n+1
X) = t
1
(

D
n+1
(tX) (n + 1)

D
n
X
. .
()
).
Der Ausdruck () ist aus O(1) und daher beschrankt, damit gilt

Dx O(t
1
) f ur t .
Im allgemeinen Fall mit x O(t

) gilt x = t

y mit y O(1). Es folgt daher

Dx = t
1
y
..
O(1)
+t


Dy
..
O(t
1
)
O(t
1
) f ur t .
Bei uneigentlichen Integralen von Funktionen treten Konvergenzprobleme bei Singulari-
taten des Integranden bzw. bei unendlichen Integrationsgrenzen auf. Ersteres ist f ur Kon-
vergenz im distributionellen Sinn kein Problem, man mu sich nur um den Fall unendli-
cher Interationsgrenzen k ummern. Eine interessante Konsequenz obiger Denitionen ist,
da Integrierbarkeit ( uber R) f ur eine Distribution in viel engerem Zusammenhang zum
Wachstumsverhalten derselben steht, als dies bei Funktionen der Fall ist. Der fogende
Satz ist ahnlich dem Vergleichskriterium f ur uneigentliche Integrale von Funktionen:
Satz 7.5 Es sei < 1 und x O([t[

) f ur t . Dann ist x integrierbar uber R.


Beweis: Um den Satz zu beweisen mu die Existenz einer Stammdistribution X nachge-
wiesen werden, f ur die die Grenzwerte lim
t
X(t) existieren. Es wird der Fall t
gezeigt: Aufgrund der Voraussetzung des Satzes gilt x = t

y mit y O(1) f ur t .
Es existiert daher auf einer Umgebung von Unendlich eine Darstellung y =

D
n
Y mit
stetigem Y und (etwa durch M) beschranktem
Y (t)
t
n
. Mit Hilfe der Produktformel Gl. 4.12
kann man schreiben
x(t) =
n

k=0
c
k

D
nk
(t
k
Y (t))
=
n1

k=0
c
k

D
nk
(t
k
Y (t)) +c
n
t
n
Y (t),
wobei f ur die Koezienten c
k
= (1)
k
( 1)...( k + 1)
_
n
k
_
gilt. Damit ist
X(t) =
n1

k=0
c
k

D
nk1
(t
k
Y (t)) +c
n
_
t
0
s
n
Y (s)ds
eine Stammdistribution von x. Der Grenzwert lim
t
c
n
_
t
0
s
n
Y (s)ds existiert im klassi-
schen Sinn, da der Integrand f ur < 1 durch

s
n
Y (s)

s
n
Ms
n
= Ms

abgeschatzt werden kann. Die Aussage folgt dann aus dem klassischen Vergleichskriterium.
Auerdem gilt
t
k
Y (t)
t
nk1
=
t
+1
Y (t)
t
n
0
51
7.5. Distributionen als Funktionale Kapitel 7. Integralrechnug f ur Distributionen
f ur t . Damit gilt

D
nk1
(t
k
Y (t))
d
0
f ur t . Somit existiert der Grenzwert lim
t
X(t).
Anders als f ur Funktionen gilt nun f ur diesen Satz fast die Umkehrung:
Satz 7.6 Ist x integrierbar uber R dann gilt x O(t
1
).
Beweis: Wegen der Integrierbarkeit von x existiert eine Stammdistribution X C

(R),
soda die Grenzwerte lim
t
X existieren. X hat daher auf Umgebungen von eine
Darstellung der Form X =

D
n
mit stetigem , so da die Grenzwerte lim
t
(t)
|t|
n
(klassisch) existieren. Damit ist
(t)
|t|
n auf diesen Umgebungen beschrankt bzw. es gilt X
O(1) f ur t . Wegen x =

DX und Satz 7.4 folgt daher x O(t
1
).
7.5 Distributionen als Funktionale
In der von Schwartz eingef uhrten Distributionentheorie wird eine Distribution als Funk-
tional auf Raumen von Testfunktionen betrachtet. Dem Element y eines linearen Vektor-
raumes (dem Raum der Testfunktionen) wird also eine reelle Zahl zugeordnet. Im Fall der
Delta - Distribution lautet diese Abbildung
y(t) y(0). (7.25)
Im Fall der n.ten Ableitung der Delta - Distribution lautet die Zuordnung
y(t)
_
d
n
y
dt
n
_
(0). (7.26)
Die Schwartzsche Theorie ist mit der hier betrachteten Theorie aquivalent. Dies folgt
daraus, da die Distributionen im Schwartzschen Sinn die Axiome erf ullen, die hier als
Denition benutzt wurden. Es wird nun mit Hilfe der Integrationstheorie eine direktere
Verbindung zwischen den beiden Theorien angegeben und damit gezeigt, wie Elemente
von C

- Raumen als Funktionale betrachtet werden konnen.


Denition 7.5 Es seien x, y C

(I) f ur ein beliebiges Intervall I. Man sagt, x wirkt


auf y, falls das Produkt xy deniert ist und das bestimmte Integral
_
I
x(s)y(s)ds existiert.
Man schreibt dann T
x
(y) f ur das Integral.
Beispiel 7.8 Ist I kompakt, so wirkt jede Distribution x auf I auf jede Funktion y
C

(I). Mit x =

D
n
X gilt
T
x
(y) = (1)
n
_
I
X(s) y
(n)
(s)ds.
Beweis: Es gilt
x y =
n

k=0
(1)
k
_
n
k
_

D
nk
(X y
(k)
).
52
7.5. Distributionen als Funktionale Kapitel 7. Integralrechnug f ur Distributionen
Alle Summanden der rechten Seite mit Ausnahme des letzten Terms X y
(n)
haben
Stammdistributionen, die samtlich an den Intervallrandern verschwinden. Damit ist x y
integrierbar und es gilt T
x
(y) = (1)
n
_
I
X(s) y
(n)
(s)ds.
Beispiel 7.9 Da jede Distribution mit kompaktem Trager auf R integrierbar ist, folgt,
da T
x
(y) existiert, sobald das Produkt x y kompakten Trager hat, im speziellen falls
1. y C

(I) mit kompakten I und x eine beliebige Distribution auf R ist


2. y C

(R) und x eine Distribution mit kompaktem Trager ist.


Diese

Uberlegungen stellen eine direkte Verbindung zwischen C

(R) und dem Schwartz-


schen Distributionenraum T

(R) dar. Nach der hier entwickelten Integrationstheorie gilt


etwa
_

0
(s)y(s)ds = y(0) f ur stetiges y. Schreibt man wie in der Denition eingef uhrt
T

0
(y) f ur das Integral, so gilt
T

0
(y) = y(0), (7.27)
also ordnet
0
wie bei Schwartz der glatten Funktion y die reelle Zahl y(0) zu. Nach Gl.
7.17 gilt des weiteren
T

(n)
0
(y) =
_
d
n
y
dt
n
_
(0). (7.28)
53
Kapitel 8
Folgen und Reihen von
Distributionen
8.1 Konvergenz von Distributionenfolgen
Man w unscht sich einen Konvergenzbegri f ur Distributionen mit den folgenden Eigen-
schaften:
K1) Falls die Funktionenfolge (x
n
) mit x
n
C(I) in I gleichmaig gegen die Grenzfunk-
tion x C(I) konvergiert, so konvergiert (x
n
) auch im distributionellen Sinn gegen
x. F ur die distributionelle Konvergenz schreibt man
x
n
d
x. (8.1)
K2) Mit x
n
d
x gilt auch

Dx
n
d


Dx. Konvergiert die Folge (x
n
) distributionell, so
konvergiert auch die Folge der Ableitungen im distributionellen Sinn, und zwar
gegen die Ableitung der urspr unglichen Grenzdistribution.
Die Eigenschaft K2) gilt i. a. nicht im klassischen Sinn. Aufgrund dieser Forderung kann
es sich daher nur um einen schwachen Konvergenzbegri handeln. In der Tat existiert ein
solcher gew unschter Konvergenzbegri. Dazu nun folgende
Denition 8.1 Es sei (x
n
) eine Folge von Distributionen aus C

(I) und x C

(I).
Die Folge konvergiert distributionell gegen die Grenzdistribution x, falls

kN

(X
n
)
X
n
C(I)

XC(I)
_
_
_
1.) x
n
=

D
(k)
X
n
2.) x =

D
(k)
X
3.) X
n
X gleichmaig
. (8.2)
Diese Denition erf ullt - wie man unmittelbar einsieht - die gew unschten Eigenschaf-
ten. Obwohl es sich bei Distributionenraumen um keine normierten Raume handelt - der
Abstand eines Folgenelements zur Grenzdistribution kann somit nicht mit einer Norm
gemessen werden - steht nun ein vern unftiger Konvergenzbegri f ur Distributionen zur
Verf ugung. Neben den wichtigen Eigenschaften K1) und K2) gelten erwartungsgema die
ublichen Eigenschaften eines vern unftigen Konvergenzbegries:
54
8.2. Die Deltafunktion als Grenzwert Kapitel 8. Folgen und Reihen von Distributionen
K3) Jede im Distributionensinn konvergente Folge besitzt einen eindeutig bestimmten
Grenzwert im Raum der Distributionen.
K4) Konvergieren die Distributionenfolgen (x
n
) und (y
n
) gegen die Distributionen x und
y, so konvergiert auch die Folge (
8.3. Beispiel zu Distributionenfolgen Kapitel 8. Folgen und Reihen von Distributionen
Damit ist die Vorstellung der Delta - Distribution als Impuls im Zeitnullpunkt mit der
Impulsstarke
_

0
(t)dt = 1 gerechtfertigt. Es sei bemerkt, da auch mit anderen Funktio-
nenfolgen das gleiche Ergebnis wie hier erzielt werden kann. So konvergiert etwa auch die
Funktionenfolge
x
n
(t) =
1

n
1 +n
2
t
2
(8.5)
im distributionellen Sinn gegen
0
(t). Es gilt also
1

n
1 +n
2
t
2
d

0
(t). (8.6)
Dierenziert man diese Gleichung distributionell, so erhalt man

2n
3

t
(1 +n
2
t
2
)
2
d

(1)
0
(t). (8.7)
(Man beachte, da auf der linken Seite klassisch abgeleitet werden darf). Ein Bild einiger
Folgenglieder dieser Beziehung zeigt, da sich die Ableitung der Delta - Distribution als
Doppelimpuls deuten lat.
8.3 Beispiel zu Distributionenfolgen
Es sei an dieser Stelle an die komplexe Exponentialfunktion w = e
s
mit s C erinnert.
Es gilt
w = e
s
= e
x+jy
= e
x
e
jy
= e
x
(cos y +j sin y) (8.8)
sowie
e
s
= e
s+2kj
, k Z, (8.9)
damit ist komplexe Exponentialfunktion 2i - periodisch. Der Fundamentalstreifen
F := s C [ < Ims (8.10)
wird durch die komplexe Exponentialfunktion bijektiv auf die gesamte komplexe w
Ebene ohne den Nullpunkt abgebildet. Die Umkehrfunktion
ln : C 0 F (8.11)
wird als Hauptwert des komplexen Logarithmus bezeichnet. Man pr uft leicht nach, da
ln(s) = ln [s[ +jArg(s) mit < Arg(s) (8.12)
gilt. Das Argument ist dabei auf R
0

unstetig. Man betrachte nun die Funktion


s ln(s +j) = ln [s +j[ +jArg(s +j). (8.13)
Mit elementaren Mitteln kann man zeigen, da die punktweise Grenzwertbeziehung
lim
0
ln(s +j) = ln [s[ +j(1 H
0
) (8.14)
56
8.4. Fourierreihen von Distributionen Kapitel 8. Folgen und Reihen von Distributionen
gilt. Man deniert daher die Distribution
ln(s +j0) := ln [s[ +j(1 H
0
). (8.15)
Es gilt somit punktweise
lim
0
ln(s +j) = ln(s +j0). (8.16)
Mit Mitteln aus der Lebesgueschen Theorie kann man zeigen, da Konvergenz im distri-
butionellen Sinn gegeben ist. In ahnlicher Weise deniert man
ln(s j0) := ln [s[ j(1 H
0
) (8.17)
bzw.
(s +j0)
1
: =

Dln(s +j0) = s
1
j
0
(8.18)
(s j0)
1
: =

Dln(s j0) = s
1
+j
0
(8.19)
Dabei ist s
1
die Distribution

Dln [s[ =

Dln
+
s+

Dln

s = s
1
+
s
1

. Da die Konvergenz
in Gl. 8.16 distributionell gilt, darf man dierenzieren. Es folgt
lim
0
(s +j)
1
= (s +j0)
1
. (8.20)
Ebenso erhalt man
lim
0
(s j)
1
= (s j0)
1
. (8.21)
F uhrt man nun die Notation

+
0
:=
1
2j
(s j0)
1
,

0
:=
1
2j
(s +j0)
1
(8.22)
ein, so erhalt man die Gleichung

0
=
+
0

0
. (8.23)
Die Delta - Distribution kann somit als Dierenz zweier Distributionen
+
0
und

0
darge-
stellt werden, wobei
+
0
der Randwert einer holomorphen Funktion auf s + jt [ t > 0
bzw.

0
der Randwert einer holomorphen Funktion auf s +it [ t < 0 ist.
8.4 Fourierreihen von Distributionen
Denition 8.3 Man sagt eine Distribution x C

(R) ist periodisch mit Periode h,


falls x =
h
x. Der Raum der Distributionen mit Periode 1, also mit x =
1
x wird mit
C

p
(R) bezeichnet.
Beispiele f ur Distributionen aus C

p
(R) sind die Funktionen cos(2nt), sin(2nt) und
e
2jnt
mit n Z. Allgemeiner handelt es sich bei den trigonometrischen Polynomen
57
8.4. Fourierreihen von Distributionen Kapitel 8. Folgen und Reihen von Distributionen
n

k=0
a
k
cos(2kt) (8.24)
n

k=0
b
k
sin(2kt) (8.25)
n

k=n
c
k
e
2jkt
(8.26)
um Distributionen aus C

p
(R). Noch allgemeiner, falls die Folge (c
n
) absolut summierbar
ist, also

nZ
[c
n
[ < , so konvergiert die Reihe

nZ
c
n
e
2jnt
(8.27)
gleichmaig (im Sinne der klassischen Konvergenz) und deniert daher eine periodische
Distribution. Insbesondere gilt diese Aussage falls (c
n
) O([n[
2
). Es gilt sogar der
Satz 8.1 Falls (c
n
) O([n[
k
) mit einem k Z, dann konvergiert die Reihe

nZ
c
n
e
2jnt
(8.28)
im distributionellen Sinn gegen eine periodische Distribution x C

p
(R).
Beweis: Man betrachte die Reihe

nZ\{0}
c
n
(2jn)
k2
. .
O(|n|
2
)
e
2jnt
.
Nach dem vorher Gesagtem konvergiert diese Reihe gleichmaig gegen eine stetige, perio-
dische Funktion X. Dierenziert man die Reihe k + 2 mal distributionell, so folgt daraus
die distributionelle Konvergenz der Reihe 8.28.
Es gilt auch die Umkehrung dieser Aussage. Dazu der
Satz 8.2 Ist x C

p
(R), dann existiert eine Folge (c
n
) mit (c
n
) O([n[
k
) und k Z,
so da
x(t) =

nZ
c
n
e
2jnt
. (8.29)
Beweis: Es sei x C

p
(R). Die Einschrankung von x auf [0, 2] hat die Gestalt x =

D
l
X
mit einem l N und einer stetigen Funktion X [0, 2]. Mit einer Stammfunktion Y von
X gilt dann x =

D
k
Y mit k = l + 1 und Y C
1
[0, 2]. Wegen der Periodizitat von x gilt
auf [1, 2] x =
1
x was aquivalent mit Y
1
Y = p mit p P
k1
[1, 2] ist. Es gilt also
Y [
[1,2]
=
1
(Y [
[0,1]
) +H
1
p.
Schreibt man

Y f ur die periodische Erweiterung der Funktion Y auf R - was eine st uck-
weise glatte Funktion ergibt - so folgt
58
8.4. Fourierreihen von Distributionen Kapitel 8. Folgen und Reihen von Distributionen
x =

D
k

Y +y,
wobei y eine Linearkombination der Form

nZ
_
k1

r=0

(r)
n
_
ist. (Dies folgt aus der Formel f ur die Ableitung st uckweise glatter Funktionen). Man mu
jetzt noch zeigen, da f ur Distributionen vom Typ

D
k

Y und vom Typ y eine Fourierrei-


hendarstellung existiert. Ersteres folgt durch k - maliges distributionelles Dierenzieren
der Fouriereihe von

Y , welche gleichmaig konvergiert, zweiteres folgt unmittelbar aus
dem folgenden Beispiel (Gl. 8.30 und Gl. 8.31).
Beispiel 8.1 Die Fourierreihe der periodischen Deltafunktion: Gesucht ist die
Fourierreihe der Distribution

nZ

n
, also der mit der Periode p = 1 fortgesetzten Delta
- Distribution. Man betrachte dazu vorerst die Funktion f : t t
2
t auf [0, 1] und ihre
periodische Fortsetzung

f auf R. Es handelt sich dabei um eine Funktion aus C(I). Ihre
Fourierreihe lautet

1
6

n=0
1
4
2
n
2
e
2jnt
.
Mit dem M - Test von Weierstra zeigt man, da diese Reihe absolut und gleichmaig auf
R konvergiert. Dierenziert man nun die Gleichung

f =
1
6

n=0
1
4
2
n
2
e
2jnt
zweimal distributionell, so erhalt man mit Gl. 3.6 das Ergebnis

nZ

n
=

nZ
e
2jnt
. (8.30)
Dierenziert man weiter, so folgt f ur ein beliebiges k N

nZ

(k)
n
=

nZ
(2jn)
k
e
2jnt
. (8.31)
Ohne Beweis folgen nun einige Bemerkungen uber Fourierreihen von Distributionen:
I) F ur eine periodische Distribution x gelten die bekannten Formeln f ur die Fourier-
koezienten , man hat also das Gleichungspaar
x(t) =

n=
c
n
e
2f
0
jnt
(8.32)
mit
c
n
=
1
T
0
_
T
0+
0
+
x(t)e
2f
0
jnt
dt (8.33)
59
8.4. Fourierreihen von Distributionen Kapitel 8. Folgen und Reihen von Distributionen
mit der Periodendauer T
0
= f
1
0
. Zu beachten ist, da bei beiden Integralgrenzen
der Grenzwert von der gleichen Richtung zu verwenden ist. F ur die Fourierreihe der
Delta - Distribution gilt etwa
c
n
=
_
1

(t)e
2jnt
dt = 1,
womit das gleiche Ergebnis wie in Gl. 8.30 folgt.
II) Auch im Fall periodischer Distributionen kann anstelle der komplexen die reelle
Darstellung
x(t) =
a
0
2
+

n=1
a
n
cos(2f
0
nt) +

n=1
b
n
sin(2f
0
nt) (8.34)
gewahlt werden. Die komplexen Koezienten (c
n
) konnen wieder wie gewohnt in die
reellen Koezienten (a
n
) und (b
n
) umgerechnet werden. Es gelten die Beziehungen
c
n
=
_
_
_
a
0
2
n ,= 0
1
2
(a
n
jb
n
) n > 0
1
2
(a
n
+jb
n
) n < 0
, (8.35)
sowie
a
n
= c
n
..
n>0
+ c
n
..
n<0
, (8.36)
b
n
= j( c
n
..
n>0
c
n
..
n<0
). (8.37)
III) Symmetrieeigenschaften: Ist x eine ungerade Distribution, gilt also x(t) = x(t)
f ur alle t R, dann erf ullen die Fourier - Koezienten die Bedingung a
n
= 0 bzw.
c
n
..
n>0
= c
n
..
n<0
und es folgt eine Darstellung der Form
x(t) =

n=1
b
n
sin(2f
0
nt). (8.38)
Im Fall gerader Distributionen hat man eine Darstellung der Art
x(t) =
a
0
2
+

n=1
a
n
cos(2f
0
nt). (8.39)
Die Fourierreihe der periodischen Delta - Distribution nach Gl. 8.30 kann etwa auf
die Form

nZ

n
= 1 + 2

n=1
cos(2nt) (8.40)
gebracht werden.
60
8.4. Fourierreihen von Distributionen Kapitel 8. Folgen und Reihen von Distributionen
IV) Ist eine glatte, periodische Funktion ( C

p
(R)) und x eine periodische Distri-
bution (x C

p
(R)), dann ist x ebenfalls periodisch und die Fourierreihe erhalt
man durch formale Multiplikation der entsprechenden Reihen f ur und x.
Die direkte Berechnung der Fourierreihe einer Funktion bzw. Distribution uber die For-
meln 8.32 und 8.33 ist nicht immer die einfachste Moglichkeit. Folgendes Beispiel (welches
die vorhergehende Bemerkung verwendet) zeigt einen in manchen Fallen g unstigeren Weg
zur Bestimmung einer Fourierreihe.
Beispiel 8.2 Man berechne die Fourierreihe von
cosec(2t) :=
1
sin(2t)
. (8.41)
Da es sich oensichtlich um eine meromorphe Funktion mit isolierten Polen bei t = 2n
(n Z) handelt, kann diese Funktion als periodische Distribution auf R betrachtet werden.
(Man hatte diese Distribution auch als
cosec(2t) =
1
2

D(ln [tan(t)[) (8.42)


denieren konnen, wobei die Funktion t ln [tan(t)[ lokal integrierbar und periodisch
mit Periode 1 ist.) Man bestimmt nun die Koezienten der Fourierreihe
cosec(2t) =

n=
c
n
e
2jnt
(8.43)
aus der Beziehung
(sin(2t)) (cosec(2t)) = 1. (8.44)
Gl. 8.44 gilt klarerweise punktweise mit Ausnahme an den Singularitaten. Mit etwas M uhe
(etwa durch Einsetzen von Gl. 8.42 in die Produktformel einer glatten Funktion mit einer
Distribution) kann man zeigen, da Gl. 8.44 im distributionellen Sinn tatsachlich auf ganz
R die konstante Funktion t 1 ergibt. Setzt man die Fouriereihendarstellung der sin -
Funktion
sin(2t) =
1
2j
(e
2jt
e
2jt
) (8.45)
und Gl. 8.43 in Gl. 8.44 ein, so erhalt man
_
e
2jt
e
2jt
_

n=
c
n
e
2jnt
_
= 2j,
bzw.

n=
c
n
_
e
2j(n+1)t
e
2j(n1)t
_
= 2j,
bzw.
61
8.4. Fourierreihen von Distributionen Kapitel 8. Folgen und Reihen von Distributionen

n=
(c
n1
c
n+1
)e
2jnt
= 2j.
Ein Koezientenvergleich liefert
c
1
c
1
= 2j und c
n1
c
n+1
= 0 (n ,= 0).
Da es sich um eine ungerade Distribution handelt gilt auerdem c
n
..
n>0
= c
n
..
n<0
, also
zusammen mit der Bedingung aus dem Koezientenvergleich
c
1
= c
3
= c
5
= ... = j,
c
1
= c
3
= c
5
= ... = j.
Die zusatzlichen Symmetrieverhaltnisse liefern desweiteren
c
0
= c
2
= c
2
= ... = 0.
Damit erhalt man f ur alle ungeraden n die Beziehung b
n
= j( c
n
..
n>0
c
n
..
n<0
) = 2 und somit
die Reihendarstellung
2

k=1
sin(2(2k 1)t). (8.46)
f ur die Funktion t cosec(2t).
Der Abschnitt wird mit einem interessanten Beispiel, das einen Zusammenhang zwischen
den Abtastwerten einer Zeitfunktion und den Abtastwerten ihrer Fourier - Transformier-
ten liefert, abgeschlossen:
Beispiel 8.3 Die Poison - Summenformel: Multipliziert man die Gl. 8.30 mit ei-
ner Testfunktion x(t) und integriert dann uber R, so erhalt man nach Vertauschung von
Summation und Integration

nZ
_

n
(t)x(t)dt =

nZ
_

e
2jnt
x(t)dt.
Mit der Formel f ur die Fourier - Transformation
X() =
_

x(t)e
jt
dt (8.47)
und der Siebeigenschaft der Delta - Distribution erhalt man f ur obige Gleichung

nZ
x(n) = 2

nZ
X(n). (8.48)
Diese Beziehung wird als Poison - Summenformel bezeichnet.
62
Kapitel 9
Mehrdimensionale Distributionen
9.1 Distributionen in mehreren Variablen
Es sei I = [a
1
, b
1
] [a
2
, b
2
] ... [a
n
, b
n
]. F ur eine glatte Funktion X auf I bezeichnet
D
i
den Operator der partiellen Dierentiation nach der i.ten Variablen (i = 1, ..., n). Mit
dem Multi - Index r = (r
1
, ..., r
n
) N
n
0
konnen dann Operatoren der Form
D
r
: C
r
(I) C(I)
mit
C
r
(I) = X C(I) [ D
r
X existiert und ist stetig
betrachtet werden.
Beispiel 9.1 Es sei X eine Funktion in drei Variablen. F ur die Abbildung X D
r
X
mit r = (1, 0, 2) gilt
D
r
X =

x

2
z
2
X.
Distributionen auf I = [a
1
, b
1
] [a
2
, b
2
] ... [a
n
, b
n
] konnen nun wieder axiomatisch
eingef uhrt werden. Dazu die
Denition 9.1 Ein Distributionenraum auf einem kompakten Intervall der Form I =
[a
1
, b
1
] [a
2
, b
2
] ... [a
n
, b
n
] ist ein Vektorraum E C(I) zusammen mit den linearen
Abbildungen

D
1
, ...,

D
n
(und damit

D
r
) von E in sich selbst mit den Axiomen:
(A1) die genannten Operatoren sind geeignete Erweiterungen der entsprechenden Opera-
toren f ur glatte Funktionen
(A2) falls x E, dann existiert ein Multi - Index r N
n
0
und ein X C(I), soda x =

D
r
X
(A3) falls x E und

D
i
x = 0, dann hat x die Gestalt
x = f(s
1
, ..., s
i1
, s
i+1
, ..., s
n
),
wobei f eine stetige Funktion in n 1 Variablen ist.
63
9.1. Distributionen in mehreren Variablen Kapitel 9. Mehrdimensionale Distributionen
Satz 9.1 Es existiert ein Modell das die obigen Axiome erf ullt. Dieses Modell ist bis auf
einen Isomorphismus eindeutig bestimmt.
Obige Denition kann auch wieder auf oene Intervalle erweitert werden. Beispiele f ur
Distributionen in mehreren Variablen sind wie im eindimensionalen Fall integrierbare
Funktionen. Ist etwa (im Fall von zwei Variablen) x(u, v) eine integriebare Funktion und
X(s, t) =
_
s
1
_
t
1
x(u, v)dudv,
so deniert man die Distribution
T
x
:=

D
s

D
t
X
und identiziert sie i. a. wieder mit x.
Beispiel 9.2 Heaviside- und Dirac - Distribution im zweidimensionalen Fall:
Es sei
x(u, v) =
_
1 u 0 und v 0
0 sonst
und
I
0,0
(s, t) =
_
s
1
_
t
1
x(u, v)dudv.
Man deniert nun die zweidimensionale Heaviside Funktion durch H
0,0
(s, t) :=

D
s

D
t
I
0,0
und identiziert diese i. a. mit obiger Funktion x. Die zweidimensionale Delta - Distri-
bution ist durch
0,0
:=

D
s

D
t
H
0,0
deniert.

0,0
kann als Impuls im Nullpunkt der s, t - Ebene betrachtet werden. Dies wird wieder
durch die Konvergenz gewisser Distributionenfolgen gerechtfertigt. Die Delta - Distribu-
tion ist auch in hoheren Dimensionen das geeignete Mittel, die idealisiert in einem Punkt
konzentrierten Impulse, Krafte, Massen, Ladungen, Warmequellen,... darzustellen. In Ka-
pitel 11 wird etwas spezieller auf einige Anwendungen eingegangen.
Auch im mehrdimensionalen Fall gelten (mit den entsprechenden Erweiterungen der In-
tegrationstheorie) die Beziehungen
_

0,0
(x, y)dxdy = 1
_

0,0,0
(x, y, z)dxdydz = 1
.
.
.
(9.1)
bzw.
_

x
0
,y
0
(x, y)f(x, y)dxdy = f(x
0
, y
0
)
_

x
0
,y
0
,z
0
(x, y, z)f(x, y, z)dxdy = f(x
0
, y
0
, z
0
)
.
.
.
(9.2)
f ur jede stetige Funktion f. In Vektorschreibweise kann man mit dV = dx
1
...dx
n
allgemein
_
R
n

x
0
(x)f(x)dV = f(x
0
) (9.3)
schreiben.
64
9.2. Vektorwertige Distributionen Kapitel 9. Mehrdimensionale Distributionen
9.2 Vektorwertige Distributionen
Aufgrund der Siebeigenschaft der Delta - Distribution gilt f ur jedes R die Beziehung
_

0
(t)e
jt
dt = 1 (9.4)
Ziel des Abschnitts 9.3 ist es, die G ultigkeit der Formel

0
(t) =
1
2
_

e
jt
d (9.5)
zu zeigen. Aufgrund dieser Beziehungen gelten also im distributionellen Sinn die ublichen
Formeln der Fourier - Transformation f ur die Deltafunktion. Im Kapitel 10. wird ein Satz
formuliert, der angibt, f ur welche Klasse von Distributionen die Theorie der Fourier -
Transformation erweitert werden kann.
Das Integral Gl. 9.5 konvergiert im klassischen Sinn f ur kein t R. Um Aussagen im
distributionellen Sinn machen zu konnen, mu daf ur eine sinnvolle Erweiterung f ur den
Begri eines Parameterintegrals deniert werden. Dazu mu zuvor noch eine Erweiterung
der bisher betrachteten Distributionenraume durchgef uhrt werden.
Die Raume C(I J) und C(I, C(J))
Es seien I und J kompakte Intervalle und C(I J) der Raum der auf I J stetigen
Funktionen f(s, t). Ein Element aus C(I J) ist eine Abbildung der Form
f : I J R
(s, t) f(s, t)
. (9.6)
Es soll nun eine neue Betrachtungsweise f ur diesen Raum dargestellt werden. Dazu be-
trachte man eine spezielle Funktion aus C(I J) und halte s vorerst fest. Man erhalt
dann f ur diesen Wert von s eine stetige Funktion f
s
(t) C(J) in t. Betrachtet man diese
Situation f ur einen anderen Wert von s aus I, so erhalt man auch eine andere Funktion
f
s
(t). Jedem s I wird sozusagen eine Funktion f
s
(t) C(J) zugeordnet. Man bezeichnet
nun C(I, C(J)) als die Menge aller stetigen Abbildungen von I nach C(J). Ein Element
aus C(I, C(J)) ist also eine Abbildung der Form
f
s
: I C(J)
s f
s
(t)
(9.7)
mit f
s
(t) C(J). Der Wert der Funktion f
s
an der Stelle t stimmt nat urlich mit dem
Wert der Funktion f an der Stelle (s, t) uberein. Der Raum C(I, C(J)) kann somit mit
C(I J) identiziert werden. Man schreibt dazu
C(I J)

= C(I, C(J)). (9.8)
Die Raume C(I J) und C(I, C(J))
Man betrachte nun den Raum C
1
(I J) - die Menge der auf I J stetig partiell die-
renzierbaren Funktionen - und eine beliebige Abbildung f aus C
1
(I J). Die Funktion
f
s
ist dann ein Element aus C(I J). Der Operator

s
ist somit von der Form
65
9.2. Vektorwertige Distributionen Kapitel 9. Mehrdimensionale Distributionen

s
: C
1
(I J) C(I J). (9.9)
Betrachtet man s wieder als Parameter und schreibt f
s
(t) f ur ein festes s, so kann man
in Anlehnung an die obige Betrachtungsweise f
s
auch als Element aus C
1
(I, C
1
(J)) und
D
s
f
s
als Element aus C(I, C(J)) ansehen. Der Dierentialoperator D
s
, f ur den man in
dieser Betrachtungsweise meist nur D schreibt, ist dann von der Form
D : C
1
(I, C
1
(J)) C(I, C(J)). (9.10)
Die Raume C

(I, E) und C

(I, E)
Diese Betrachtungsweise wird nun folgendermaen erweitert: Es sei E ein beliebiger Vek-
torraum mit einem vern unftigen Konvergenzbegri (wie etwa ein Banachraum, Hilber-
traum oder der Raum der Distributionen C

(J)) und I ein kompaktes Intervall. Man


deniert dann den Raum C(I, E) als die Menge aller stetigen Abbildungen der Form
f
s
: I E
s f
s
(t)
(9.11)
mit f
s
(t) E. Man deniert des weiteren den Raum C
1
(I, E)- die Menge aller Abbildun-
gen der Form
f
s
: I E
s f
s
(t)
(9.12)
mit f
s
(t) E - in dem ein Dierentialoperator D der Form
D : C
1
(I, E) C(I, E) (9.13)
bez uglich des Parameters s wohldeniert ist.

Ahnlicherweise kann man nat urlich die
Raume C
n
(I, E) mit n N und C

(I, E) betrachten. Wie schon im eindimensionalen


Fall wird nun die Kette
C

(I, E) ... C
1
(I, E) C(I, E) (9.14)
rechts f ur distributionelle Betrachtungen erweitert. Dazu der
Satz 9.2 Es existiert ein Vektorraum C

(I, E) und ein Operator

D : C

(I, E) C

(I, E), (9.15)


soda die ublichen Axiome (in entsprechend modizierter Form) gelten. Da es nicht un-
mittelbar einsichtig ist, wird Axiom 3 im speziellen f ur diesen Fall angef uhrt:
(A3) Falls

D
p
x = 0 x(s) = a
0
+a
1
s +... +a
n1
s
n1
mit a
0
, ...a
n
E.
Dieser Vektorraum ist wieder bis auf einen Isomorphismus eindeutig.
Es soll nun angedeutet werden, da es eine nat urliche Identikation zwischen C

(I J)
und C

(I, C

(J)) gibt. Es sei dazu x C

(I J).
66
9.3. Parametrisierte Integrale Kapitel 9. Mehrdimensionale Distributionen
Dann existiert eine Darstellung x(s, t) =

D
m
s

D
n
t
X(s, t) mit X C(I J). Man
kann nun X auch als Element aus C(I, C(J)), sprich als Abbildung der Form
s (t X
s
(t))
ansehen (wobei f ur X(s, t) wieder X
s
(t) geschrieben wird). Es ist dann
x(s, t) =

D
m
s

D
n
t
X
s
(t).
Betrachtet man noch einmal die Distribution x, xiert man jetzt aber s, so existiert
eine Darstellung x
s
(t) =

D
n
t
X
s
(t). x
s
ist in dieser Betrachtungsweise die n.te Ab-
leitung (nach t) einer stetigen Funktion und daher eine Distribution aus C

(J).
Betrachtet man diese Situation f ur einen anderen Wert von s aus I, so erhalt man
auch eine andere Distribution x
s
(t). Jedem s I wird sozusagen eine Distribution
x
s
(t) C

(J) zugeordnet, man hat also eine Abbildung der Form


x
s
: I C

(J)
s

D
n
t
X
s
(T)
.
Dierenziert man diese Abbildung m - Mal (nach s), so erhalt man

D
m
s

D
n
t
X
s
(T),
eine Distribution aus C

(I, C

(J)). Man kann nun zeigen, da dies wieder die


urspr unglich betrachtetet Distribution x ist.
Beispiel 9.3 Es sei x(s) eine Distribution. Dann ist
x(s) e
jst
..
glatt
(9.16)
eine Distribution von zwei Variablen und daher eine Distribution in s mit Werten einer
Distribution in t.
Zusammenfassung
Es sei an dieser Stelle noch einmal der Weg von der Denition des Distributionenraumes
C

(I) bis zu den hier betrachteten vektorwertigen Distributionen schematisch zusam-


mengefat.:
C

(I)

(R)

(I
n
) bzw. C

(R
n
) C

(I, E) bzw. C

(R, E)

(I J)

= C

(I, C

(J))
9.3 Parametrisierte Integrale
Mit den Bemerkungen aus dem letzten Kapitel kann nun die Denition eines parametri-
sierten Integrals im distributionellen Sinn gebracht werden:
67
9.3. Parametrisierte Integrale Kapitel 9. Mehrdimensionale Distributionen
Denition 9.2 Es sei x C

(IR) mit einem kompakten Intervall I. Man betrachte x


in diesem Zusammenhang als Element des Raumes C

(R, C

(I)), also als Distribution


auf R mit Werten in C

(I). Man verwendet nun die Denition f ur


_

in C

(R, E)
mit E = C

(I). Man deniert also


_

x(s, t)dt := y(s) (9.17)


auf I, falls

m,nN
0

XC(IR),
Y C(I)
1) x =

D
m
s

D
n
t
X(s, t)
2) y = D
m
s
Y (s)
3) lim
t
X(s,t)
t
n
=
Y (s)
n!
gleichmaig in s I
.
Eine wichtige Konsequenz dieser Denition ist die Tatsache, da aus der klassischen,
gleichmaigen Konvergenz des Integrals
_

x(s, t)dt die distributionelle Konvergenz folgt.


Denition 9.3 Ist x C

(RR), y C

(R), dann schreibt man


_

x(s, t)dt := y(s),


falls f ur jedes kompakte Intervall I gilt:
_


s
R,I
x(s, t)dt =
R,I
y(s).
Der Hochindex im Einschrankungsoperator soll andeuten, da die Einschrankung nur f ur
die Variable s zu betrachten ist.
Es gilt nun der wichtige
Satz 9.3 Es sei x C

(I, E) mit einem beliebigen Intervall I und einem geeigneten


Vektorraum E (Banachraum, Distributionenraum,...) und T ein stetiger, linearer Opera-
tor der Form T : E F. Dann gilt: Existiert
_
R
x(s, t)dt, so existiert
_
R
Tx(s, t)dt in
C

(I, F) und es gilt


_
R
Tx(s, t)dt = T
_
R
x(s, t)dt. (9.18)
Wichtige Spezialfalle des Satzes erhalt man, wenn man f ur T den Dierentiations- bzw,
den Multiplikationsoperator verwendet. Die Ergebnisse werden wegen ihrer Wichtigkeit
in einem Satz zusammengefat:
Satz 9.4 Das Integral
_
R
x(s, t)dt existiere im distributionellen Sinn.
68
9.3. Parametrisierte Integrale Kapitel 9. Mehrdimensionale Distributionen
1. Es sei T : C

(I) C

(I) der Multiplikationsoperator, der der Distribution


x(s, t) (mit dem Parameter s und der Variablen t) die Distribution (s) x(s, t)
(mit C

(I)) zuordnet. Dann gilt


_
R
(s)x(s, t)dt = (s)
_
R
x(s, t)dt. (9.19)
2. Mit dem Dierentiationsoperator

D : C

(I) C

(I) gilt die Beziehung

D
_
R
x(s, t)dt =
_
R

D
s
x(s, t)dt. (9.20)
Mit dieser wichtigen Erkenntnis kann nun tatsachlich Gl. 9.5 gezeigt werden.
Beispiel 9.4 Mit dem Residuensatz kann man zeigen, da die Beziehung
_

e
jt
1 +
2
d = e
|t|
(9.21)
gilt. Die Konvergenz dabei ist gleichmaig bez uglich s, daher liegt auch Konvergenz im
distributionellen Sinn vor. Es gilt nun
(I

D
2
)
_

e
jt
1 +
2
d =
_

(I

D
2
t
)e
jt
1 +
2
d =
_

e
jt
d
bzw. nach der Formel f ur die Ableitung st uckweise glatter Funktionen
(I

D
2
)
_

e
jt
1 +
2
d = (I

D
2
)e
|t|
= 2
0
(t).
Damit ist die G ultigkeit der Beziehung

0
(t) =
1
2
_

e
jt
d
im distributionellen Sinn mathematisch sauber gezeigt.
69
Kapitel 10
Die Fourier - Transformation
Es wurde bereits gezeigt, da die Beziehungen
_

0
(t)e
jt
dt = 1
sowie
1
2
_

1 e
jt
d =
0
(t)
gelten. Dies lat vermuten, da auch im distributionellen Sinn die ublichen Formeln f ur
die Fourier - Transformation sowie deren Inverser gelten. Hier soll nun klar deniert
werden, was man unter der Fourier - Transformation von Distributionen versteht, welche
Distributionen transformiert werden konnen und wie es mit der Umkehrung aussieht.
Zuvor werden zur Wiederholung noch einmal die wesentlichen Inhalte der L
1
- Theorie
der Fourier - Transformation wiederholt.
10.1 L
1
Theorie der Fourier-Transformation
Eine Funktion ist aus L
1
(R), falls sie im Lebesgueschen Sinn absolut uber R integrierbar
ist.
Denition 10.1 Sei f L
1
(R). Die Funktion
F() :=
_

f(t)e
it
dt (10.1)
wird als Fourier - Transformierte von f bezeichnet.
Satz 10.1 Sei f L
1
(R), dann ist die Funktion F wie in (10.1) deniert f ur alle
], [ beschrankt und gleichmaig stetig.
Der folgende Satz gibt Auskunft uber das Abklingverhalten der Funktion F:
70
10.1. L
1
Theorie der Fourier-Transformation Kapitel 10. Die Fourier - Transformation
Eigenschaft Zeitbereich Frequenzbereich
1) Linearitat f
1
(t) +f
2
(t) F
1
() +F
2
()
2)

Ahnlichkeitssatz f(at), a C
1
[a[
F(

a
)
3) Verschiebungssatz f(t T) e
jT
F()
4) Modulation e
j
0
t
f(t) F(
0
)
5) Dierentiation

f (t) jF()
6) Integration
_
t

f()d
1
j
F()
7) Umkehrung zu 5) jtx(t)
d
d
F()
8) Faltung
_

f
1
()f
2
(t )d F
1
()F
2
()
_

f
1
(t )f
2
()d
9) Fenster f
1
(t)f
2
(t)
1
2
_

F
1
()F
2
( )d
1
2
_

F
1
( )F
2
()d
10) Glatten
1
2T
_
t+T
tT
f()d F()
sin(T)
T
Satz 10.2 (Riemann - Lebesgue): Sei f L
1
(R) und F ihre Fourier - Transformierte,
dann gilt
lim

F() = 0. (10.2)
Aus f L
1
(R) folgt allerdings nicht notwendigerweise F L
1
(R). Aus den beiden letzten
Satzen folgt, da f ur f L
1
(R) die Funktion F stetig ist und f ur verschwindet.
Es gilt jedoch nicht die Umkehrung: nicht jede f ur verschwindende, stetige
Funktion ist die Fourier - Transformierte einer Funktion f L
1
(R).
F ur die Umkehrtransformation gilt:
Satz 10.3 Sei f L
1
(R) und F() die Fourier - Transformierte von f(t). Ist f auf dem
Intervall t ]t , t +[ von beschrankter Variation f BV (t , t +), dann gilt
1
2
(f(t
+
) +x(t

)) =
1
2
_

F()e
it
d. (10.3)
Die inverse Fourier - Transformation liefert also die Funktion f(t) als

Uberlagerung von
Exponentialfunktionen unterschiedlicher Frequenzen mit F() als Koezientenfunktion.
Obiger Tabelle beinhaltet die wichtigsten Rechenregeln f ur die Fourier - Transformation.
71
10.2. Fourier-Transf. f ur Distributionen Kapitel 10. Die Fourier - Transformation
10.2 Fourier-Transformation f ur Distributionen
Denition 10.2 Man nennt die Menge
S

:= x C

(R) [

n N
x O([t[
n
) f ur t (10.4)
die Menge der temperierten Distributionen.
Der folgende Satz garantiert nun, da jede temperierte Distribution eine Fourier - Trans-
formierte besitzt.
Satz 10.4 Die Abbildung T : S

mit
Tf(t) := F() =
_

f(t)e
jt
dt (10.5)
ist stetig und bijektiv. Die Umkehrabbildung T
1
: S

lautet
T
1
F() = f(t) =
1
2
_

F()e
jt
d. (10.6)
Es gelten im wesentlichen die gleichen Rechenregeln wie im Fall der L
1
- Theorie. Lediglich
die Regel 6) f die IT tgraBtionDisnim F vionDDisribTBgTBtioeondTBgTmic hf
__
_
( )E 1
F(+= L
0
( (
Kapitel 11
Anwendungen
11.1 Idealisierte Darstellung physikalischer Groen
Lassen sich praktische Groen durch Funktionen (es kann sich dabei um Zeitfunktionen,
ortsabhangige Funktionen oder Funktionen in anderen unabhangigen Groen handeln)
beschreiben und wirken diese Funktionen nur in extrem kleinen Umgebungen gewisser
Stellen, so kann man - wenn der genaue Funktionsverlauf ohnehin nicht interessiert bzw.
nicht genau feststellbar ist - durch

Ubergang zu den Distributionen
a
,

a
oft ubersicht-
lichere Aufgaben schaen, die sich i. a. einfacher und schneller losen lassen. Meist mu
man beim

Ubergang einer pysikalischen Groe in die distributionelle Darstellung auf die
entsprechende Verteilungsdichte der betrachteten Groe wechseln.
Ladungsdichte von Punktladungen
Die Ladungsdichte einer im Punkt x = a der x Achse konzentrierten Punktladung der
Groe Q
a
kann in der Form
Q
a

a
(x) = Q
a

0
(x a) (11.1)
geschrieben werden. Mehrere auf der xAchse verteilte Punktladungen kann man durch
eine Reihendarstellung der Art

k
Q
k

0
(x x
k
) (11.2)
beschreiben. Handelt es sich um Flachen- oder Raumladungen, so m ussen die entsprechen-
den zwei- bzw. dreidimensionalen Delta - Distributionen zur Beschreibung herangezogen
werden.
Einzelkrafte
Einzelkrafte konnen ebenfalls als Grenzfall von in extrem kleinen Intervallen wirkenden
Linienkraften beschrieben werden. Wirkt etwa in einem Punkt a der x Achse eine
Einzelkraft F
a
, so kann deren Dichte durch
F
a

0
(x a) (11.3)
ausgedr uckt werden. Nat urlich gelten auch hier die entsprechenden Verallgemeinerungen.
73
11.2. Aspekte zu Distributionen - Dierentialgleichungen Kapitel 11. Anwendungen
11.2 Aspekte zu Distributionen - Dierentialgleichun-
gen
Viele Probleme in Technik und Naturwissenschaft lassen sich durch lineare Dierential-
gleichungen mit konstanten Koezienten der Form
a
n
x
(n)
(t) +... +a
1
x

(t) +a
0
x(t) = f(t) (11.4)
beschreiben. Die Erregungsfunktion f(t) ist dabei vorgegeben, die Funktion x(t) wird
gesucht. In Anwendungen treten aber nicht nur Erregungsfunktionen, sondern auch Dis-
tributionen f(t) auf, wie etwa Stoe f(t) =
0
(t), falls die im vorigen Abschnitt erlauterten
Verhaltnisse zutreen. Auch kommt es haug vor, da f(t) zwar eine Funktion ist, aber
die Ableitungen im Sinne der Distributionen verstanden werden m ussen, wie etwa im
Fall f(t) = h(t). In all diesen Fallen mu die Dierentialgleichung als Distributionen -
Dierentialgleichungen aufgefat werden.
Bekanntlich lat sich die allgemeine Losung einer Dierentialgleichung nach Gl. 11.4 als
Summe der allgemeinen Losung der zugehorigen homogenen Gleichung
a
n
x
(n)
(t) +... +a
1
x

(t) +a
0
x(t) = 0 (11.5)
und einer speziellen Losung der inhomogenen Gleichung 11.4 darstellen. Analog kann
man bei der Losung von entsprechenden Distributionen - Dierentialgleichungen vorgehen.
Eine Folgerung aus Axiom 3 der Distributionentheorie ist, da bei Dierentialgleichungen,
die klassische Losungen besitzen, keine zusatzlichen distributionellen Losungen auftreten.
Dies trit nat urlich auf die homogene Gleichung 11.5 zu. Man mu daher lediglich noch
auf eine geeignete Art und Weise eine zugehorige spezielle distributionelle Losung der
inhomogenen Gleichung nden.
Beispiel 11.1 Man betrachte noch einmal (siehe Bsp. 3.3) die Dierentialgleichung
x

(t) +x(t) =
0
(t). (11.6)
Die allgemeine Losung der homogenen Gleichung
x

(t) +x(t) = 0 (11.7)


lautet
x
h
(t) = c
1
sin(t) +c
2
cos(t). (11.8)
Eine spezielle Losung der inhomogenen Gleichung 11.6 wurde bereits in Beispiel 3.3 mit
x
p
(t) = H
0
sin(t) (11.9)
angegeben. Die allgemeine Losung der Dierentialgleichung 11.6 lautet somit
x(t) = x
h
(t) +x
p
(t) = c
1
sin(t) +c
2
cos(t) +H
0
sin(t). (11.10)
74
11.3. Anwendungen in der Wahrscheinlichkeitstheorie Kapitel 11. Anwendungen
11.3 Anwendungen in der Wahrscheinlichkeitstheo-
rie
Man betrachte eine Zufallsvariable X eines entsprechenden Zufallsexperiments. Jeder Zu-
fallsvariablen kann eine Verteilungsfunktion F
Z
(z) durch die Beziehung
F
Z
(z) = P(Z < z) (11.11)
zugeordnet werden.
Diskrete Zufallsvariablen
Eine Zufallsvariable Z heit diskret, falls sie nur endlich viele oder hochstens abzahlbar
unendlich viele verschiedene Werte annehmen kann. F
Z
ist in diesem Fall eine Stufenfunk-
tion. In diesem Fall heit die Abbildung
f
Z
(z) = P(Z = z) (11.12)
die Verteilungsdichte von Z.
Stetige Zufallsvariablen
Eine Zufallsvariable Z heit stetig, falls eine nichtnegative Funktion f
Z
(z) (die Vertei-
lungsdichte) existiert, soda f ur die Verteilungsfunktion
F
Z
(z) =
_
z

f
Z
()d (11.13)
gilt. F
Z
(z) ist dann eine stetige Funktion. Umgekehrt gilt die Beziehung
f
Z
() = F

Z
(z). (11.14)
Neben diesen Grundtypen gibt es auch noch gemischte Verteilungen.
Distributionelle Betrachtungen
Betrachtet man unabhangig davon, ob es sich um diskrete oder stetige Zufallsgroen
handelt, die Verteilungsfunktion F
Z
(z) als Distribution, so kann man in beiden und auch
in gemischten Fallen eine Verteilungsdichte durch die Beziehung
f
Z
(z) =

DF
Z
(z) (11.15)
denieren. Im rein stetigen Fall stimmt diese Denition mit der in Gl. 11.13 angef uhrten
Denition uberein, in diskreten oder gemischten Fallen hat diese Verteilungsdichte eine
andere Bedeutung als jene in Gl. 11.12. Treten in Anwendungen gemische Typen von
Zufallsvariablen auf, so vereinfachen sich mit dieser Darstellung oft die

Uberlegungen.
Beispiel 11.2 Es sei X eine diskrete Zufallsvariable mit zwei moglichen Werten x
1
und
x
2
und den entsprechenden Wahrscheinlichkeiten P(Z = x
1
) = a und P(Z = x
2
) = b.
Die Zufallsvariable Y sei stetig mit der Verteilungsdichte f
Y
(y). Gesucht ist die Vertei-
lungsdichte der Zufallsvariablen Z = X +Y .
75
11.3. Anwendungen in der Wahrscheinlichkeitstheorie Kapitel 11. Anwendungen
Losung: Bekanntlich ergibt sich die Verteilungsdichte der Summe zweier stetiger Zufalls-
variablen durch Faltung der Einzelverteilungsdichten. Handelt es sich um zwei diskrete
Zufallsvariablen, so kann zur Berechnung der Verteilungsdichte der Summe die diskrete
Faltung verwendet werden. Sind X und Y nicht vom gleichen Typ, oder treten gemischte
Typen auf, so kann unter Verwendung der distributionellen Verteilungsdichten wieder die
Faltung der Form
f
X+Y
(z) =
_

f
X
()f
Y
(z )d (11.16)
angewandt werden. Verwendet man nun also f ur die Verteilungsfunktion der diskreten
Zufallsvariablen X die Darstellung
f
X
(x) = a
0
(x x
1
) +b
0
(x x
2
), (11.17)
so erhalt man
f
Z
(z) =
_

f
X
()f
Z
(z )d
=
_

(a
0
( x
1
) +b
0
( x
2
)) f
Z
(z )d
= af
Z
(z x
1
) +bf
Z
(z x
2
). (11.18)
Hatte man mit den Verteilungsdichten nach Gl. 11.12 gerechnet, so ware eine so einfache
Berechnung nicht moglich gewesen.
76