Академический Документы
Профессиональный Документы
Культура Документы
P. Szmolyan
Wien, 2013
“Data aequatione quotcunque fluentes quantitae involvente fluxions invenire et vice versa.”
(Isaac Newton)
Frei übersetzt: “Man soll Differentialgleichungen lösen.”
4. Gesamtmasse einer Population (als Maß für die Größe der Population),
1
-2- Kap. 1: Einleitung und Grundlagen
die als ∂u
∂x oder du geschrieben wird.
Stetigkeit aller partiellen Ableitungen erster Ordnung in einer Umgebung eines Punktes
x ∈ D impliziert die Differenzierbarkeit von u an der Stelle x, d.h.
Differentialgleichungen
Die abhängigen und die unabhängigen Variablen, der Typ, die Ordnung und die Linea-
rität einer DG sind meistens einfach zu erkennen.
Beispiel 1.4
3
x2 dx
d y
3 − 5x dx + 7y = 0
dy
lineare gewöhnliche Differentialgleichung 3. Ordnung für y(x)
ẏ + t3 y = e−t lineare gewöhnliche Differentialgleichung 1. Ordnung für y(t)
ẏ + ty 3 = e−t nichtlineare gewöhnliche Differentialgleichung 1. Ordnung für y(t)
y + 9y = 0 lineare gewöhnliche Differentialgleichung 2. Ordnung für y(x)
ẍ + sin x = 0 nichtlineare gewöhnliche Differentialgleichung 2. Ordnung für x(t)
ẋ = f (x, y), ẏ = g(x, y) System gewöhnlicher DG 1. Ordnung für (x(t), y(t))
ut + 2ux = 0 lineare partielle Differentialgleichung 1. Ordnung für u(t, x)
2 2 2
∂ u ∂ u ∂ u
∂x2 + ∂y 2 + ∂z 2 =0 lineare partielle Differentialgleichung 2. Ordnung für u(x, y, z)
ut + uux = 0 nichtlineare partielle DG 1. Ordnung für u(t, x)
ut + uux = uxxx nichtlineare partielle DG 3. Ordnung für u(t, x)
Jede der Funktionen sin(x − 2t), 2 cos 3x + 5 sin 3x, √ 2 1 2 2 und xt löst eine der obigen
x +y +z
DG. Welche? 3
Anmerkung: Die Theorie gewöhnlicher DG ist einfacher als die Theorie partieller DG.
Lineare DG sind einfacher als nichtlineare. DG niederer Ordnung sind einfacher als DG
hoher Ordnung. Skalare DG sind einfacher als Systeme von DG.
Im folgenden werden zunächst nur gewöhnliche DG behandelt, die ab jetzt kurz als DG
bezeichnet werden. Dabei wird die unabhängige Variable in der Regel mit t ∈ R und die
gesuchte Lösung mit x(t) ∈ Rn bezeichnet.
Beispiel 1.5
a) x = t2 + x2 , x ∈ R, t ∈ R, explizite skalare DG 1. Ordnung.
b) zweidimensionales lineares System 1. Ordnung:
x1 = x1 + tx2
x2 = −tx1 + 3x2
oder in Matrixschreibweise
1 t
x (t) = A(t)x mit A(t) := .
−t 3
3
Große Teile der Theorie gewöhnlicher DG werden für explizite Systeme 1. Ordnung ent-
wickelt. Dies ist dadurch begründet, dass - wie im folgenden ausgeführt wird - die mei-
sten anderen Typen von gewöhnlichen DG auf diesen Standardtyp zurückgeführt werden
können.
Resultate für DG höherer Ordnung lassen sich daher meist einfach aus den entsprechen-
den Resultaten für Systeme 1. Ordnung ableiten.
Beispiel 1.7 Die skalare DG 3. Ordnung
y + cy + y(1 − y) = 0
mit c ∈ R kann unter Verwendung von x1 := y, x2 := y und x3 := y als dreidimensio-
nales System erster Ordnung
x1 = x2
x2 = x3
x3 = −cx2 + (x1 − 1)x1
Beweis:
xτ (t) = x (t + τ ) = f (x(t + τ )) = f (xτ (t)).
Wie bei algebraischen Gleichungen sind auch bei DG lineare Probleme einfacher als
nichtlineare. Lineare DG werden oft bei einfachen Modellierungen benützt und sind auch
ein wichtiges Hilfsmittel bei der Untersuchung nichtlinearer DG.
Anmerkung: Diese Bezeichnungen sind analog zur Sprechweise bei linearen Gleichungs-
systemen Ax = b. Die rechte Seite b ist die Inhomogenität. Im Fall b = 0 ist die Gleichung
homogen.
Definition 1.5 Eine skalare lineare DG n-ter Ordnung ist eine DG der
Form
an (t)y (n) + an−1 (t)y (n−1) + · · · + a1 (t)y + a0 (t)y = b(t)
mit y(t) ∈ R, Koeffizientenfunktionen ai (t) ∈ R, i = 0, . . . , n und einer
Inhomogenität b(t), t ∈ I ⊆ R. Falls die Koeffizienten nicht von t abhängen
handelt es sich um eine DG mit konstanten Koeffizienten. Im Fall b(t) ≡ 0
nennt man die DG homogen.
Typischerweise hat eine DG nicht nur eine Lösung sondern viele Lösungen. Lösungen
treten meist als Scharen von Lösungen auf, die von Integrationskonstanten oder anderen
Parametern abhängen. Daher stellt sich die Frage, durch welche Bedingungen eine Lösung
eindeutig festgelegt wird? Dazu einige einfache Beispiele.
Beispiel 1.8 Die DG
x = f (t)
hat die Familie von Lösungen
x(t) = F (t) + c, c∈R
wobei F (t) eine Stammfunktion von f (t) ist, d.h. F (t) = f (t). Die Konstante c wird
durch die Forderung x(t0 ) = x0 mit t0 ∈ R, x0 ∈ R als c = x0 − F (t0 ) eindeutig
bestimmt. Konkret erhält man auch
t
x(t) = x0 + f (s)ds.
t0
3
Beispiel 1.9 Die DG
x = ax
hat genau die Familie von Exponentialfunktionen
x(t) = ceat , c∈R
Diese Beispiele legen nahe, dass bei einer skalaren DG 1. Ordnung durch Vorgabe des
Wertes der Lösung an einer Stelle t0 eine eindeutige Lösung der DG festgelegt wird. Später
wird bewiesen, dass diese Vormutung auch für Systeme von DG 1. Ordnung richtig ist.
Fragestellungen
Durch die Theorie von DG ziehen sich verschiedene allgemeine Fragen, die sowohl vom
mathematischen Standpunkt als auch aus Sicht der Anwendungen von DG von zentraler
Bedeutung sind.
1. Existieren Lösungen?
2. Ist die Lösung eindeutig oder gibt es mehrere Lösungen?
3. Existiert die Lösung eines Anfangswertproblems lokal oder global? Darunter versteht
man die folgende Frage. Sei I ⊆ R das Intervall in dem die unabhängige Variable
variiert. Unter einer lokalen Lösung versteht man eine Lösung, die nur auf einem -
möglicherweise kleinen - Intervall J ⊂ I mit t0 ∈ J definiert ist. Eine globale Lösung
ist hingegen auf ganz I definiert, dies ist vor allem im Fall I = R interessant.
4. Wie hängt die Lösung von den Daten ab? Unter den Daten versteht man z.B. im
Fall eines AWP x = f (t, x) den Anfangswert x0 und den Anfangszeitpunkt t0 . Falls
die DG von zusätzlichen Parametern abhängt werden auch diese zu den Daten des
Problems gezählt. Etwas allgemeiner betrachtet sind die Funktion f (t, x) und die
Anfangsdaten die Daten des Problems.
Im Fall von DG, die bei der Modellierungen realer Prozesse auftreten, ist die stetige
Abhängigkeit der Lösungen von Daten eine natürliche Forderung. Dies bedeutet
5. Wie berechnet man Lösungen? In einfachen Fällen können Lösungen analytisch, d.h.
formelmäßig, gefunden werden. Dies ist aber eher die Ausnahme, meistens können
Lösungen nur näherungsweise berechnet werden. Dabei werden numerischen Metho-
den bzw. Störungsmethoden verwendet.
6. Wie verhalten sich die Lösungen qualitativ? Dabei wird das Verhalten der Lösungen
untersucht, ohne die Lösungen explizit zu kennen. Typische Fragen sind: Sind die
Lösungen beschränkt? Sind die Lösungen positiv? Werden Lösungen unbeschränkt?
Sind die Lösungen periodisch? Wie verhalten sich die Lösungen für t → ∞? Kon-
vergieren die Lösungen für t → ∞? Wie ändert sich das Verhalten der Lösungen
bei Variation von Parametern?
Richtungsfeld
eine skalare explizite DG 1. Ordnung. Für eine Lösung x : J → R ist der Graph
{(t, x(t)), t ∈ J} ⊂ R2
eine Kurve im R2 . Da x(t) differenzierbar ist der Anstieg der Tangente an den Graph im
Punkt (t, x(t)) gleich x (t) und daher aufgrund der DG gleich f (t, x(t)).
Anders ausgedrückt gilt: {(t, x(t)), t ∈ J} ist eine differenzierbare Kurve im R2 , die im
Punkt (t, x(t)) den Tangentialvektor (1, x (t)) bzw. (1, f (t, x(t)) hat. In jedem Punkt
(t, x) ∈ I × B ist der Tangentialvektor an eine durch diesen Punkt verlaufende Lösung
gleich (1, f (x)), siehe Abb. 1.1. Lösen der DG bedeutet Kurven zu finden, die in jedem
auf der Kurve liegenden Punkt (t, x) den Tangentialvektor (1, f (x)) haben.
Abbildung 1.1: Lösung des AWP x = (1 − x2 )/(1 + t2 ), x(1) = 0 mit Tangente im Punkt (1, 0)
Definition 1.7 Ein Zahlentripel (t, x, k) ∈ R3 , bei dem man die Zahl k als
den Anstieg einer Geraden durch den Punkt (t, x) interpretiert, nennt man Li-
nienelement. Für eine skalare DG x = f (t, x), t ∈ I, x ∈ B nennt man die
Gesamtheit aller Linienelemente (t, x, f (t, x)), (t, x) ∈ I × B das Richtungsfeld
der DG .
Ein Richtungsfeld kann veranschaulicht werden, indem man durch hinreichend viele
Punkte der (t, x)-Ebene ein kleines Geradenstück mit Anstieg f (t, x) zeichnet, siehe
Abb. 1.2. Dadurch bekommt man meist eine gute Vorstellung vom Verlauf der Lösungskurven
Abbildung 1.2: Richtungsfeld der DG x = (1 − x2 )/(1 + t2 ) und Lösung des AWP x(1) = 0
der DG. Das Zeichnen eines Richtungsfeldes erfolgt am Einfachsten unter Verwendung
von mathematischer Software wie Mathematica und Maple. Beim Anfertigen von Hand-
zeichnungen ist es manchmal nützlich einige der durch die Gleichung
f (t, x) = c, c∈R
definierten Isoklinen zu zeichnen. Isoklinen sind Kurven in der (t, x)-Ebene entlang
denen das Richtungsfeld einen konstanten Anstieg hat.
Auch bei Systemen von DG 1. Ordnung werden Lösungen geometrisch als Kurven inter-
pretiert. Die wichtigsten dafür relevanten Begriffsbildungen werden im folgenden zusam-
mengefasst.
Beispiel 1.13 Die Abbildung c : R → R2 , t → (eat cos bt, eat sin bt), a, b ∈ R
parametrisiert für a, b
= 0 eine logarithmische Spirale, siehe Abb. 1.3. Wie hängt die
Orientierung dieser Kurve von a und b ab? Welche Kurven erhält man im Fall a = 0
oder b = 0? 3
Definition 1.9 Eine Kurve heißt regulär, wenn sie eine stetig differenzierbare
Parameterdarstellung c : I → Rn mit c (t)
= 0, t ∈ I besitzt. Der Vektor c (t) ist
der Tangentialvektor an die Kurve im Punkt c(t). Eine Parameterdarstellung
der Tangente an die Kurve im Punkt c(t) ist x(s) = c(t) + c (t)s, s ∈ R.
Anmerkung: Falls x(t) ∈ Rn als die Position eines sich bewegenden Punktes zum Zeit-
punkt t ∈ R aufgefasst wird, ist v(t) := x (t) dessen Geschwindigkeit zum Zeitpunkt
t. Falls x(t) zweimal differenzierbar ist, ist a(t) := v (t) = x (t) die Beschleunigung
zum Zeitpunkt t.
wobei jede der Funktionen x± (y) und y± (x) einen Halbkreis beschreibt. Alternativ dazu
kann der Kreis durch
(x, y) = (r cos t, r sin t), t ∈ R
parametrisiert werden. 3
In der Regel ist zu erwarten, dass eine skalare Gleichung
f (x, y) = 0
eine Kurve von Lösungen besitzt. Der Satz über implizite Funktionen gibt Bedingun-
gen an, die dies zumindest lokal sicherstellen: 1) f sei einmal stetig partiell differenzierbar,
2) f (x0 , y0 ) = 0 und 3) fy (x0 , y0 )
= 0. Dann kann die Gleichung f (x, y) = 0 lokal, d.h.
in einer Umgebung von (x0 , y0 ), nach y = h(x) aufgelöst werden. Im Fall fx (x0 , y0 )
= 0
kann lokal nach x = g(y) aufgelöst werden. An - sogenannten singulären - Punkten
(x0 , y0 ) mit
f (x0 , y0 ) = 0, fx (x0 , y0 ) = 0, fy (x0 , y0 ) = 0
kann die Lösungsmenge der Gleichung f (x, y) = 0 eine kompliziertere Struktur haben.
An solchen Punkten können z.B. Spitzen und Doppelpunkte auftreten.
Beispiel 1.15 Die Gleichung
y 2 − a2 x3 = 0
definiert die Neil’sche Parabel, die bei (0, 0) einen singulären Punkt hat, siehe Abb. 1.4.
Man kann die Gleichung nach y auflösen
√
y± (x) = ±a x3 , x ≥ 0
Bei (0, 0) hat die Neil’sche Parabel eine Spitze, da limx→0+ y± (x) = 0 gilt.
x = t2 , y = at3 , t ∈ R.
An der Spitze ist diese nicht regulär, da (x (t), y (t)) = (2t, 3at2 ) bei t = 0 verschwindet.
3
Beispiel 1.16 Die kubische Gleichung
x2 (x + 1) − y 2 = 0
beschreibt eine Kurve mit einem Doppelpunkt bei (0, 0), siehe Abb. 1.5. Dies folgt aus
der expliziten Auflösung
√
y± (x) = ±x x + 1, x ≥ −1.
Die Funktionen y+ (x) und y− (x) sind bei x = 0 differenzierbar und es gilt y± (0) = ±1,
was den Anstiegen der beiden Zweige im Doppelpunkt entspricht.
Diese Kurve hat die reguläre Parameterdarstellung
x = t2 − 1, y = t(t2 − 1), t ∈ R.
Für c ≈ f (p) sind die Niveaumengen Nc (f ) im Fall eines Minimums für c > f (p) und im
Fall eines Maximums für c < f (p) in einer Umgebung von p geschlossene Flächen. Im Fall
n = 2 sind diese Niveaulinien näherungsweise Ellipsen, für n = 3 sind die Niveauflächen
näherungsweise Ellipsoide.
Falls H(p) an einem kritischen Punkt regulär und indefinit ist handelt es sich um einen
Sattelpunkt. In diesem Fall sind die Niveaumengen Nc (f ) für c ≈ f (p) in einer Umgebung
von f nicht geschlossen. Im Fall n = 2 sind diese Niveaulinien lokal näherungsweise
Hyperbeln, für n = 3 sind die Niveauflächen näherungsweise Hyperboloide.
Beispiel 1.17 In Abb. 1.6 sind der Graph und die Niveaulinien einer Funktion
f : R2 → R
mit zwei lokalen Maxima, einem lokalem Minimum und zwei Sattelpunkten dargestellt.
Versuchen Sie so eine Funktion f (x, y) explizit anzugeben. 3
Ein Vektorfeld kann veranschaulicht werden, indem man sich in jedem Punkt x ∈ B den
zugehörigen Vektor f (x) angeheftet denkt, siehe Abb. 1.7.
Einer Lösung x(t), t ∈ I der DG x = f (x) entspricht eine Kurve, die in jedem auf der
Kurve liegenden Punkt x den Tangentialvektor f (x) hat. Man sagt, die Lösungen der
DG sind die Integralkurven des Vektorfeldes.
Für eine Lösung x(t), t ∈ I der zeitabhängigen DG x = f (t, x) ist die Lösungskurve
der Graph {(t, x(t)), t ∈ I} der Lösung. Der Tangentialvektor im Punkt (t, x) einer
Lösungskurve ist (1, f (t, x)).
Natürlich kann man auch im autonomen Fall Lösungskurven im Rn+1 betrachten. Unter
der Projektion Rn+1 → Rn , (t, x) → x werden Lösungskurven einer autonomen DG auf
Integralkurven abgebildet.
Beispiel 1.18 Das AWP u = v, v = −u, u(0) = 1, v(0) = 0 hat die Lösung
u(t) = cos t, v(t) = − sin t. In Abbildung 1.8 sind in (b) die Lösungskurve und in (c) die
Integralkurve u2 + v 2 = 1 dargestellt. 3
Anmerkung: Bei der Untersuchung von DG sind geeignete durch Gleichungen defi-
nierte ebene Kurven oft ein nützliches Hilfsmittel. So sind im Fall einer expliziten DG
1. Ordnung x = f (t, x) die Isoklinen die Lösungskurven der Gleichung f (t, x) = k,
k ∈ R in der (t, x)-Ebene.
Im Fall zweidimensionaler autonomer Systeme
x = f (x, y)
y = g(x, y)
spielen die durch f (x, y) = 0 bzw. g(x, y) = 0 definierten Nulllinien bei der qualitativen
Untersuchung der Lösungen oft eine wichtige Rolle. Auf der Nulllinie f (x, y) = 0 ist
das Vektorfeld vertikal, auf der Nullline g(x, y) = 0 ist das Vektorfeld horizontal. Die
Vorzeichenverteilung von f und g legt fest, wo x bzw. y wächst oder fällt.
Erhaltungsgrößen
∇h(x) · f (x) = 0, ∀x ∈ B
Sei h eine Erhaltungsgröße für die DG x = f (x). Die Lösung des AWP x(0) = a ∈ B
liegt in diesem Fall zur Gänze in der Niveaumeng Nc (h) mit c = h(a). Im Fall n = 2 sind
die Integralkurven der DG daher Teilmengen der Niveaulinien der Funktion h. Somit
ist in diesem Fall das Bestimmen der Integralkurven der DG im wesentlichen auf die
Untersuchung der Niveaulinien der Erhaltungsgröße h zurückgeführt.
Beispiel 1.19 Für k ∈ R hat die DG
x = y
y = kx
Elementar integrierbare
Differentialgleichungen
In diesem Kapitel werden Methoden zum expliziten Lösen einiger Klassen von DG be-
handelt. Bei diesen Methoden wird das Lösen einer DG auf die Berechnung von Stamm-
funktionen bzw. von bestimmten Integralen zurückgeführt. Man sagt, die DG ist bis
auf Integration gelöst. Die Gesamtheit aller Lösungen einer DG nennt die allgemei-
ne Lösung der DG. Diese hängt meist von freien Integrationskonstanten ab, die an
Anfangsbedingungen oder Randbedingungen angepasst werden können.
mit c ∈ R.
Beweis: Die Funktion xh (t) := eA(t) löst die homogene DG x = a(t)x. Die im Satz
angegeben Funktion x(t) löst die inhomogene DG x = a(t)x + b(t).
Es bleibt zu zeigen, dass alle Lösungen diese Form haben. Sei x(t) eine Lösung der
DG (2.1). Für die Funktion y(t) := e−A(t) x(t) gilt
y (t) = −a(t)e−A(t) x(t) + e−A(t) x (t) = −a(t)e−A(t) x(t) + e−A(t) (a(t)x(t) + b(t)).
20
Kap. 2: Elementar integrierbare Differentialgleichungen - 21 -
Somit gilt
y (t) = e−A(t) b(t)
woraus
y(t) = e−A(t) b(t)dt + c
mit c ∈ R folgt. Damit ist die Behauptung bewiesen. Die auftretenden Integrale existieren
wegen der Stetigkeit der Funktionen a(t), b(t).
Anmerkung: Die Funktion ceA(t), c ∈ R ist die allgemeine Lösung der homogenen
DG x = a(t)x. Die Funktion eA(t) e−A(t) b(t)dt ist eine Lösung (Partikulärlösung) der
inhomogenen DG x = a(t)x + b(t).
x = −tx + t, x(0) = 3
Mit a(t) = −t ist A(t) := a(t)dt = −t2 /2. Daher ist die allgemeine Lösung
2
2 t2
− t2 t
x(t) = e c + e 2 tdt = ce− 2 + 1.
Bernoulli-Differentialgleichung
y := x1−α
y = (1 − α)p(t)y + (1 − α)q(t)
für y(t).
Beispiel 2.2 Es gelte β
= 0, −1. Die Bernoulli-Differentialgleichung
x = −x + x1+β
woraus − 1
x(t) = 1 + ceβt β
folgt. Für c < 0 existiert diese Lösung nur solange 1 + ceβt > 0 gilt. 3
Riccati-Differentialgleichung
bzw.
u + [g(t) + 2h(t)ϕ(t)]u + h(t)u2 = 0.
Diese Bernoulli-Differentialgleichung wird mittels der Transformation u = z −1 in die
lineare DG
z = [g(t) + 2h(t)ϕ(t)]z + h(t)
übergeführt. Falls eine Lösung ϕ(t) der Riccati-Differentialgleichung bekannt ist, erhält
man alle Lösungen in der Form
1
x(t) = ϕ(t) + .
z(t)
x = t 2 − x2 + 1
hat die Lösung x(t) = t, t ∈ R. Man setzt x(t) = t + 1/z(t) und erhält
z = 2tz + 1.
Diese lineare DG hat die allgemeine Lösung
t
t2 2
z(t) = e (c + e−s ds), t∈R
0
mit c ∈ R. Daher ist 2
e−t
x(t) = t + t
c + 0 e−s2 ds
die allgemeine Lösung der DG.
Zusatzaufgabe: Zeichnen Sie das Richtungsfeld und die Lösungskurven. Welche Bedeu-
tung hat die Konstante c? Welche Lösungen existieren für t ∈ R? Welche Lösungen
haben Polstellen als Singularitäten? Wie verhalten sich die Lösungen für t → ±∞? 3
x = f (x)g(t)
Im Fall f (x0 )
= 0 kann diese Gleichung lokal um (t0 , x0 ) nach x aufgelöst werden. Daher
gilt
Sei x0 die einzige Nullstelle von f in einem Intervall (a, b). Dann hängt die Eindeutigkeit
der Lösung x(t) = x0 von der Divergenz der uneigentlichen Integrale
x0 b
dx dx
bzw.
a f (x) x0 f (x)
ab. Man kann zeigen, dass die konstante Lösung x(t) = x0 eindeutig ist, falls diese
Integrale divergieren (siehe [Walter]). Falls f stetig differenzierbar ist, gilt dies an allen
Nullstellen von f . Vergleiche auch die folgenden Beispiele.
Im Fall x0 = 0 ist die Lösung des AWP nicht eindeutig, denn x(t) = 0 und x(t) = t2 /4
sind beides Lösungen des AWP. Zusätzlich sind für τ > 0 auch die Funktionen
0 t≤τ
x(t) = (t−τ ) 2
4 t≥τ
Lösungen des AWP x(0) = 0. 3
Anmerkung: Das letzte Beispiel zeigt, dass eindeutige Lösbarkeit von AWP für DG der
Form x = f (t, x) nur unter Zusatzbedingungen an das Vektorfeld f zu erwarten ist. In
der Praxis spielen Phänomene wie in Bsp. 2.2 allerdings kaum eine Rolle, da wir zeigen
werden, dass z.B. für stetig differenzierbares f das AWP immer eindeutig lösbar ist.
Durch die Substitution x(t) = ty(t) wird eine Differentialgleichung mit homogenen Va-
riablen in eine separable DG transformiert. Aus
ty
x = y + ty = f ( ) = f (y)
t
folgt
f (y) − y
y = .
t
Insbesondere entspricht einer Nullstelle y0 von f (y) − y die Lösung y(t) = y0 bzw.
x(t) = ty0 .
3. Falls die gesuchte Kurve durch (x(t), y(t)), t ∈ I parametrisiert wird, muss gelten
Eine Möglichkeit diese Gleichung zu erfüllen besteht darin, dass x und y Lösungen
der DG
x = b(x, y)
y = −a(x, y)
sind.
x = f (x, y)
y = g(x, y)
Satz 2.3 Für eine exakte DG a(x, y)dx + b(x, y)dy = 0, (x, y) ∈ B ⊆ R2 mit
Stammfunktion F (x, y) gilt:
1. Die Funktion F ist längs der Lösungen der DG konstant.
2. Im Fall (a(x, y), b(x, y))
= (0, 0) in B geht durch jeden Punkt (x0 , y0 ) ∈ B
genau eine Lösung der DG, die man durch Lösen der Gleichung F (x, y) =
F (x0 , y0 ) erhält.
Fx (x, y(x)) + Fy (x, y(x))y (x) = a(x, y(x)) + b(x, y(x))y (x) = 0.
x = x
y = −2x − y.
3
Falls ein stetig differenzierbares Vektorfeld (a(x, y), b(x, y)), (x, y) ∈ B ein Gradienten-
feld ist, muss die Integrabilitätsbedingung
gelten, d.h. die Integrabilitätsbedingung ist notwendig für die Existenz einer Stammfunk-
tion. Unter weiteren Voraussetzungen an den Bereich B ist die Integrabilitätsbedingung
auch hinreichend für die Existenz einer Stammfunktion. Es gilt (siehe Analysis 2):
Satz 2.4 Sei B ⊆ R2 ein einfach zusammenhängendes Gebiet. Für ein auf
B definiertes stetig differenzierbares Vektorfeld (a(x, y), b(x, y)) ist die Integrabi-
litätsbedingung (2.6) notwendig und hinreichend für die Existenz einer Stamm-
funktion.
Anmerkung: Ein Gebiet ist eine zusammenhängende offene Teilmenge des Rn . Ein
Gebiet ist einfach zusammenhängend, wenn zwei beliebige stetige Kurven mit gleichem
Anfang- und Endpunkt homotop sind, d.h. wenn die Kurven stetig ineinander übergeführt
werden können. Anschaulich bedeutet dies im R2 , dass das Gebiet keine “Löcher” hat
(siehe Analysis 2).
Unter den Voraussetzungen von Satz 2.3 kann die Stammfunktion F als Kurvenintegral
F (x, y) = a(x, y)dx + b(x, y)dy
C
berechnet werden, wobei C eine (beliebige) in B verlaufende Kurve ist, die einen festen
Punkt (x0 , y0 ) ∈ B mit dem Punkt (x, y) ∈ B verbindet. Die Integrabilitätsbedingung
und die Voraussetzungen an B garantieren die Wegunabhängigkeit dieses Kurveninte-
grals.
Beispiel 2.10 Die DG
Integrierender Faktor
Falls eine DG a(x, y)dx + b(x, y)dy = 0 nicht exakt ist, kann man versuchen einen in-
tegrierenden Faktor zu finden. Darunter versteht man eine nirgends verschwindende
stetig differenzierbare Funktion m(x, y) mit der Eigenschaft, dass die mit m multiplizier-
te, äquivalente DG
m(x, y)a(x, y)dx + m(x, y)b(x, y)dy = 0
exakt ist. Die Integrabilitätsbedingung für die modifizierte DG lautet
(ma)y = (mb)x
1.
m = m(x),
2.
m = m(y),
3.
m = xα y β
mit geeigneten Konstanten α und β.
F (x, y) = ex (x + y 2 ).
ex (x + y 2 ) = c, c∈R
Eine homogene skalare lineare DG n-ter Ordnung mit konstanten Koeffizienten hat die
Form
an y (n) + an−1 y (n−1) + · · · + a1 y + a0 y = 0 (2.7)
mit ak ∈ R oder ak ∈ C, k = 0, . . . , n. Der Exponentialansatz
Somit gilt
Satz 2.5 Die Funktion y(t) = eλt ist genau dann eine Lösung der DG (2.7),
wenn λ eine Nullstelle des charakteristischen Polynoms der DG ist.
Satz 2.6 Falls eine Nullstelle λ des charakteristischen Polynoms die Vielfachheit
m > 1 hat, sind die Funktionen
eine komplexwertige Lösung. Falls die Koeffizienten der DG reell sind, ist man an re-
ellen Lösungen interessiert. Aufspalten der DG in ihren Real- und Imaginärteil unter
Verwendung der Linearität zeigt, dass in diesem Fall
zwei verschiedene reelle Lösungen der DG sind, die dem Paar α±iβ konjugiert komplexer
Nullstellen entsprechen. Falls die komplexe Nullstelle die Vielfachheit m hat, sind die
Funktionen
tj eαt cos βt und tj eαt sin βt, j = 0, 1, . . . , m − 1
2m verschiedene reelle Lösungen der DG.
Da das Polynom p(λ) - nach Vielfachheiten gezählt - genau n Nullstellen hat, erhält man
auch im Fall mehrfacher Nullstellen n verschiedene Lösungen y1 , . . . , yn der DG. Später
wird gezeigt, dass die allgemeine Lösung der DG die Form
Ein lineares System von DG 1. Ordnung mit konstanten Koeffizienten hat die Form
x = Ax (2.9)
Satz 2.7 Die Funktion x(t) = eλt v ist genau dann eine Lösung der DG (2.9),
wenn gilt
Av = λv,
d.h. λ ist Eigenwert der Matrix A mit Eigenvektor v.
Anmerkung: Aufgrund dieses Resultats ist das Eigenwertproblem der linearen Algebra
von großer Bedeutung für DG.
Eine typische n × n Matrix A hat n verschiedene Eigenwerte und ist daher diagonali-
sierbar. Daher beschränken wir uns vorerst auf den Fall diagonalisierbarer Matrizen A
mit n - nicht notwendig verschiedenen - Eigenwerten λ1 , . . . , λn und dazugehörigen Ei-
genvektoren v1 , . . . , vn . Aufgrund der obigen Überlegungen hat die DG (2.9) in diesem
Fall n verschiedene - genauer gesagt linear unabhängige - Lösungen
x1 (t) = eλ1 t v1 , x2 (t) = eλ2 t v2 , . . . , xn (t) = eλn t vn .
Wegen der Linearität der DG (2.9) ist jede Linearkombination dieser Lösungen ebenfalls
eine Lösung. Daher kann man versuchen die Lösung eines Anfangswertproblems x(0) =
a als Linearkombination dieser Lösungen darzustellen. Um Eindeutigkeitsaussagen zu
erhalten benützen wir im folgenden die Diagonalisierbarkeit der Matrix A.
Sei V die reguläre n × n Matrix mit Spalten v1 , . . . , vn und D die Diagonalmatrix mit
dkk = λk , k = 1, . . . , n. Dann gilt
AV = V D
bzw.
V −1 AV = D.
Die Koordinatentransformation
x = Vy
ergibt
V y = x = Ax = AV y.
Daher gilt
y = V −1 AV y = Dy.
y1 = λ1 y1
y2 = λ2 y2
.. .. ..
. . .
yn = λn yn
yk (t) = ck eλk t , ck ∈ C, k = 1, . . . , n.
x = Ax.
sind λ1 = −1, v1 = (1, −1)T und λ2 = −3, v2 = (1, −3)T . Die allgemeine Lösung der
DG ist
−t 1 −3t 1
x(t) = c1 e + c2 e .
−1 −3
mit c1 , c2 ∈ C. Das AWP führt auf das lineare Gleichungssytem
1 1 c1 2
=
−1 −3 c2 2
mit der Lösung c1 = 4 und c2 = −2. Die Lösung des AWP ist
−t 1 −3t 1
x(t) = 4e − 2e .
−1 −3
Die Integralkurven dieser DG sind in Abbildung 2.1 dargestellt. Alle Lösungen konver-
gieren für t → ∞ gegen die Ruhelage im Ursprung. Man spricht von einem stabilen
Knoten.
3
Im folgenden sei A eine reelle n × n Matrix. Ein reeller Eigenwert λ hat in diesem
Fall reelle Eigenvektoren v ∈ Rn . Daher gilt in diesem Fall eλt v ∈ Rn . Im Fall eines
komplexen Eigenwertes λ = α + iβ, β
= 0 ist der Eigenvektor v = a + ib auch komplex
mit a, b ∈ Rn . In diesem Fall ist λ̄ = α − iβ ebenfalls Eigenwert mit Eigenvektor
v̄ = a − ib. Die Funktionen z(t) = eλt v und z̄ = eλ̄t v̄ sind Lösungen der DG mit Werten
in Cn . Zwei reelle Lösungen erhält man durch Zerlegen von z in Real- und Imaginärteil.
Lemma 2.1 Sei A eine reelle n × n Matrix und z(t) = x(t) + iy(t) ∈ Cn
eine Lösung der DG z = Az. Dann sind x(t) und y(t) reelle Lösungen der DG
x = Ax.
Beweis: Aus
x + iy = z = Az = A(x + iy) = Ax + iAy
folgt
x = Ax und y = Ay.
Der komplexen Lösung
z(t) = eλt v = eαt (cos βt + i sin βt)(a + ib)
entsprechen daher die beiden reellen Lösungen
x(t) = eαt (cos βt a − sin βt b) und y(t) = eαt (sin βt a + cos βt b).
Satz 3.1 Sei I ⊂ R ein offenes Intervall mit t0 ∈ I. Dann gilt, eine Funktion
x : I → Rn ist genau dann eine Lösung des AWP (3.1), wenn x(t) eine stetige
Lösung der Integralgleichung
t
x(t) = x0 + f (s, x(s))ds, t ∈ I (3.2)
t0
ist.
Beweis: Durch Integration der DG (3.1) über das Intervall (t0 , t) folgt, dass jede Lösung
der DG die Integralgleichung (3.2) erfüllt.
41
- 42 - Kap. 3: Existenz und Eindeutigkeit
Sei umgekehrt x(t) eine stetige Lösung der Integralgleichung (3.2). Dann erfüllt x(t)
die Anfangsbedingung x(t0 ) = x0 . Da x(t) und f (t, x(t)) stetig sind, folgt aus der In-
tegralgleichung (3.2), dass x(t) stetig differenzierbar ist. Differenzieren der Integralglei-
chung (3.2) nach t zeigt, dass x(t) Lösung der DG ist.
Notation: Im folgenden bedeutet | · | sowohl den Betrag einer reellen oder komplexen
Zahl, als auch eine nicht näher spezifizierte Norm auf Rn bzw. Cn . Für 1 ≤ p < ∞ ist
|x|p = ( nj=1 |xj |p )1/p die lp -Norm auf Rn und Cn , und |x|∞ = max{|xj |, j = 1, . . . , n}
die l∞ -Norm.
Mit Br (a) bzw. B̄r (a) werden die offene bzw. abgeschlossene Kugel mit Radius r > 0
und Mittelpunkt a bezüglich einer Norm im Rn und Cn bezeichnet.
Für eine Matrix A bedeutet |A| die der Norm | · | entsprechende Abbildungsnorm, für
die gilt |Ax| ≤ |A||x| für alle x ∈ Rn bzw. Cn .
Definition 3.1
Sei G ⊆ Rn+1 Eine stetige Funktion f : G → Rn heißt Lipschitz bezüglich x,
wenn eine Konstante L > 0 existiert, so dass gilt
|f (t, x) − f (t, y)| ≤ L|x − y|, für alle (t, x), (t, y) ∈ G.
|f (t, x) − f (t, y)| ≤ L|x − y|, für alle (t, x), (t, y) ∈ B̄r (a) ∩ G.
Anmerkung: 1) Auf unbeschränkten Bereichen sind selbst sehr reguläre, d.h. ein-
oder mehrmals stetig differenzierbare, Funktionen oftmals nicht global Lipschitz aber
lokal Lipschitz. Dies sieht man z.B. an der auf R definierten Funktion f (x) = x2 . Die
Abschätzung
|x2 − y 2 | = |y + x||y − x| ≤ 2 max{|x|, |y|}|y − x|
zeigt, dass f auf jeder kompakten Menge Lipschitz ist.
2) Die Lipschitz-Eigenschaft bezüglich x impliziert Beschränktheit der ersten Ableitungen
der Funktion f nach x.
Als Umkehrung der obigen Bemerkung 2) liefert der folgende Satz ein hinreichendes
Kriterium für die Lipschitz-Eigenschaft bezüglich x, das bei den meisten DG anwendbar
ist.
Satz 3.2 Sei G ⊆ Rn+1 offen und f : G → Rn stetig und bezüglich x stetig
differenzierbar. Dann ist f lokal Lipschitz bezüglich x.
Beweis: Da G offen ist, existiert für a ∈ G ein r > 0 mit B̄r (a) ⊂ G. Auf der kompakten
Menge B̄r (a) sind die partiellen Ableitungen von f nach x beschränkt. Daher existiert
L = L(a) > 0 mit
∂f
| (t, x)| ≤ L, für (t, x) ∈ B̄r (a).
∂x
Die Kugel B̄r (a) ist konvex, daher liegt für (t, x) ,(t, y) ∈ B̄r (a) die Verbindungsstrecke
zwischen den Punkten (t, x) und (t, y) in B̄r (a). Sei
Daher gilt 1
∂f
|f (t, y) − f (t, x)| ≤ | (t, ϕ(s))||y − x|ds ≤ L|y − x|.
0 ∂x
Aus dem Beweis folgt unmittelbar
Satz 3.3 Sei G ⊆ Rn+1 bei festem t konvex bezüglich x. Die Funktion f : G →
Rn sei stetig und bezüglich x stetig differenzierbar auf G. Falls gilt | ∂f
∂x (t, x)| ≤ L
für (t, x) ∈ G, so ist f Lipschitz bezüglich x mit Lipschitz-Konstante L.
Die Beschränktheitsvoraussetzung in diesem Satz ist immer erfüllt, wenn f auf einer
kompakten Menge K mit G ⊂ K bezüglich x stetig differenzierbar ist.
Beispiel 3.1 1) Die Funktion f (x) = sin x ist Lipschitz auf R mit Lipschitzkonstante
L = 1 = maxx∈R | cos x| = maxx∈R |f (x)|.
2) Die Funktion f (t, x) = t sin x ist lokal Lipschitz bezüglich x auf R2 und Lipschitz
bezüglich x auf I × R falls I ⊂ R beschränkt ist.
3) Die Funktion f (t, x) = x sin(xt) ist lokal Lipschitz bezüglich x auf R2 und Lipschitz
bezüglich x auf G ⊂ R2 , falls G beschränkt ist.
3
Weiters gilt
Beweis: Übungsaufgabe
Im weiteren benötigen wir mehrmals die folgende Ungleichung, um Abschätzungen für
Lösungen von DG zu erhalten.
Beweis: Es sei t
y(t) := K + a(s)x(s)ds.
t0
Dann ist y(t) stetig differenzierbar. Nach Voraussetzung gilt x(t) ≤ y(t). Daraus folgt
Durch Integration von z (t) ≤ 0 folgt z(t) ≤ z(t0 ) = K woraus y(t) ≤ KeA(t) folgt,
womit das Lemma bewiesen ist.
Anmerkung: Hier wurde das Lemma von Gronwall in seiner einfachsten Form formu-
liert. Es gibt allgemeinere Versionen dieses Lemmas, die in der Theorie von DG eine
wichtige Rolle spielen. So kann z.B. in den Voraussetzungen die Konstante K durch eine
stetige Funktion k(t) ersetzt werden. Welche Abschätzung für x(t) erhält man in diesem
Fall?
Unter Verwendung des Lemmas von Gronwall, ist es einfach zu zeigen, dass aus der
Lipschitz-Eigenschaft von f bezüglich x die Eindeutigkeit der Lösung des Anfangswert-
problems folgt.
Beweis: Der Beweis wird indirekt geführt. Angenommen es existieren zwei verschiedene
Lösungen x(t) und y(t) des AWP (3.1), die beide auf einem Intervall I = [t0 , t1 ] existieren.
Aus Satz 3.1 folgt t
x(t) = x0 + f (s, x(s))ds, t∈I
t0
t
y(t) = x0 + f (s, y(s))ds, t ∈ I.
t0
Subtraktion der beiden Gleichungen ergibt
t t
|y(t) − x(t)| ≤ |f (s, y(s)) − f (s, x(s))|ds ≤ L|y(s) − x(s)|ds,
t0 t0
wobei L > 0 die Lipschitzkonstante von f ist. Daher gilt für die stetige Funktion z(t) :=
|(y(t) − x(t)| t
z(t) ≤ L z(s)ds, t ∈ I.
t0
Aus dem Lemma von Gronwall mit K = 0 und a(t) = L folgt z(t) ≤ 0eLt = 0, t ∈ I.
Dies steht im Widerspruch zur Annahme, dass x(t) und y(t) zwei verschiedene Lösungen
des AWP sind.
Vorbemerkungen
kann auf verschiedene Arten gezeigt werden. Dabei kann die Unbekannte x ein Punkt im
Rn sein. Falls es sich um eine DG handelt, ist die Unbekannte x eine Funktion, die dann
oft abstrakt als Punkt in einem geeigneten Funktionenraum aufgefasst wird.
Eine Möglichkeit, um Existenzaussagen zu gewinnen, ist die Konstruktion einer Folge
xn , n ∈ N von Näherungslösungen, d.h. für rn := F (xn ), n ∈ N gilt limn→∞ |rn | = 0.
Darauf aufbauend muss gezeigt werden, dass die Folge (oder zumindest eine Teilfolge)
konvergiert, d.h. limn→∞ xn = x und dass der Grenzwert eine Lösung ist, d.h. F (x ) = 0.
Bei nichtlinearen Problemen ist es oft vorteilhaft, die Nullstellenaufgabe F (x) = 0 als ein
äquivalentes Fixpunktproblem zu schreiben. Im Fall F : V → V mit einem geeigneten
normierten Raum V ist das Lösen der Gleichung F (x) = 0 äquivalent zum Finden von
Fixpunkten der Abbildung T (x) := x+F (x) oder T (x) := x+LF (x) mit einer geeigneten
linearen Abbildung L. Ein Fixpunkt von T ist dabei ein Punkt x mit T (x ) = x . Die
Existenz von Fixpunkten kann mit topologischen und funktionalanalytischen Methoden
untersucht werden. Exemplarisch seien die Fixpunktsätze von Brouwer und Schauder
erwähnt.
Ein sehr wichtiges und oft einsetzbares einfaches Resultat ist der Fixpunktsatz (Kon-
traktionssatz) von Banach, der insbesondere bei DG sehr oft verwendet wird.
Dann gilt:
1. T besitzt genau einen Fixpunkt x ∈ M .
2. Für jeden Startwert x0 ∈ M gilt für die durch xn+1 = T (xn ), n ∈ N
definierte Folge
lim xn = x .
n→∞
Anmerkung: Eine Abbildung T : M → M ist genau dann eine Kontraktion, wenn sie
Lipschitz mit Lipschitz-Konstante K ∈ (0, 1) ist.
Notation: Ist I ⊂ R ein Intervall, k ∈ N0 ∪ {∞}, so bedeutet C k (I, Rn ) den Raum der
k-mal stetig differenzierbaren Funktionen x : I → Rn . Wir setzen C(I, Rn ) := C 0 (I, Rn ).
Picard-Iteration
Der Ausgangspunkt des Existenz- und Eindeutigkeitssatzes für das AWP (3.1) ist die
Äquivalenz des AWP zur Integralgleichung (3.2)
t
x(t) = x0 + f (s, x(s))ds, t ∈ I.
t0
Die rechte Seite der Integralgleichung kann als Abbildung P : C(I, Rn ) → C(I, Rn )
aufgefasst werden, wobei gilt
t
P (x)(t) := x0 + f (s, x(s))ds, t ∈ I.
t0
Die Fixpunkte der Abbildung P entsprechen genau den Lösungen des AWP. Falls man zei-
gen kann, dass die Abbildung P genau einen Fixpunkt hat, ist die eindeutige Lösbarkeit
des AWP bewiesen.
Diese Idee ist der Ausgangspunkt der sogenannten Picard-Iteration. Ausgehend von der
Funktion x0 (t) := x0 definiert die Iteration xn+1 = P (xn ) eine Funktionenfolge xn ∈
C(I). Falls diese gegen einen Fixpunkt x ∈ C(I) konvergiert, ist x Lösung des AWP.
Beispiel 3.2 Für das AWP x = x, x(0) = 1 ergibt die Picard-Iteration
x0 (t) = 1,
t
x1 (t) = 1 + 1ds = 1 + t,
0
t
t2
x2 (t) = 1 + (1 + s)ds = 1 + t + ,
0 2
..
. t
sk−1 t2 tk
xk (t) = 1 + (1 + s + · · · + )ds = 1 + t + + · · · + .
0 (k − 1)! 2 k!
Daher ist xk (t) das Taylorpolynom vom Grad k der exakten Lösung et = ∞ tk
k=0 k! und
die Picard-Iteration konvergiert gegen die Lösung. 3
Anmerkung: Die Picard-Iteration ist ein konstruktives Verfahren, d.h. im Fall der
Konvergenz können die Näherungslösungen xn - im Prinzip - berechnet werden.
Beweis: Wir konstruieren einen vollständigen metrischen Raum M , auf dem die Picard-
Iteration eine Kontraktion ist.
Da G offen ist, existiert α > 0, r > 0 und L > 0, sodass f auf dem Bereich R :=
[t0 − α, t0 + α] × B̄r (x0 ) ⊂ G Lipschitz bezüglich x mit Lipschitz-Konstante L ist. Sei
1. P : M → M ,
2. P ist eine Kontraktion.
ad 1) Aus der Stetigkeit von x folgt die Stetigkeit von P (x). Sei x ∈ M . Aus der
Abschätzung
t
|P (x)(t) − x0 | = f (s, x(s))ds ≤ |t − t0 |m ≤ δm ≤ r
t0
folgt P (x) ∈ M .
ad 2) Für x, y ∈ M und t ∈ J gilt
t t
|P (x)(t) − P (y)(t)| = f (s, x(s)) − f (s, y(s))ds ≤ |f (s, x(s)) − f (s, y(s))|ds
t0 t0
t t
≤ L|x(s) − y(s)|ds ≤ Ld(x, y)ds ≤ δLd(x, y).
t0 t0
Daraus folgt
d(P (x), P (y)) ≤ δLd(x, y).
Aufgrund der Definition von δ gilt δL < 1, daher ist P : M → M eine Kontraktion.
Aus dem Fixpunktsatz von Banach folgt die Existenz eines eindeutigen Fixpunktes in
M , der die gesuchte Lösung ist.
Anmerkung: 1) Die Konstante δ, welche die Größe des Intervalls Jδ festlegt, auf dem
Satz 3.7 die Existenz einer Lösung garantiert, hängt von den Konstanten r, m und L,
genauer von r/m und 1/L ab.
2) Man kann unter Verwendung der durch
˜ y) := max e−β|t−t0 | |x(t) − y(t)|
d(x,
t∈J
auf M definierten gewichteten Metrik d˜ zeigen, dass für geeignetes β > 0 die Bedingung
δ < 1/L nicht notwendig ist, damit P : M → M eine Kontraktion ist.
Folgerung: Aus Satz 3.7 folgt unmittelbar, dass für stetiges und nach x stetig differen-
zierbares f (t, x) das AWP (3.1) lokal eindeutig lösbar ist. Dieses Resultat garantiert die
eindeutige Lösbarkeit der meisten in Anwendungen auftretenden AWP für gewöhnliche
DG.
Als Spezialfall betrachten wir im folgenden das AWP für lineare Systeme 1. Ordnung.
mit A ∈ C(I, Rn×n ) und b ∈ C(I, Rn ) hat eine eindeutige lokale Lösung.
Beweis: Die Funktion f (t, x) := A(t)x + b(t) ist stetig auf G := I × Rn . Aus
|f (t, x) − f (t, y)| = |A(t)x − A(t)y| = |A(t)(x − y)| ≤ |A(t)||x − y|
folgt die Lipschitz-Eigenschaft von f bezüglich x mit L := maxt∈I |A(t)|. Damit folgt die
Existenz einer lokalen Lösung des AWP aus Satz 3.7.
Im folgenden wird gezeigt, dass lokale Lösungen von AWP auf größere bzw. maximale
Zeitintervalle fortgesetzt werden können. Man spricht von globaler Existenz in vorwärts
(rückwärts) Zeit, falls die Lösung eines AWP für alle t ≥ t0 (t ≤ t0 ) existiert. Unter
globaler Existenz versteht man die Existenz der Lösung eines AWP für t ∈ R. Diese
Fragen sind vor allem für AWP auf Bereichen der Form G = R × B mit einer offenen
Menge B ⊆ Rn und insbesondere im autonomen Fall
x = f (x), x ∈ B ⊆ Rn
von Interesse.
Die Beispiele in Kapitel 2 belegen, dass Lösungen von AWP im allgemeinen nicht nur lokal
existieren. Einfache Beispiele zeigen aber auch, dass man nicht immer globale Existenz
erwarten kann. So hat das AWP x = x2 , x(0) = x0 > 0 die Lösung
x0
x(t) = ,
1 − x0 t
die nur auf [−∞, 1/x0 ) existiert.
Sei G ⊂ Rn+1 offen. Die Funktion f : G → Rn sei stetig und lokal Lipschitz bezüglich
x. Für (t0 , x0 ) ∈ G garantiert Satz 3.7 die Existenz einer Lösung x0 (t) des AWP (3.1)
auf einem - möglicherweise kleinen - Intervall J0 = [t0 − δ0 , t0 + δ0 ]. Es sei t1 := t0 + δ0
und x1 := x(t1 ). Wegen Satz 3.7 gilt (t1 , x1 ) ∈ G und das AWP x(t1 ) = x1 besitzt eine
eindeutige Lösung x1 (t) in einem Intervall J1 := [t1 − δ1 , t1 + δ1 ] mit einem δ1 > 0. Auf
J0 ∩ J1 gilt wegen der Eindeutigkeit der Lösungen x0 (t) = x1 (t). Daher ist
⎧
⎨ x0 (t), t ∈ [t0 , t1 ]
x+ (t) :=
⎩
x1 (t), t ∈ [t1 , t1 + δ1 ]
eine auf [t0 , t1 + δ1 ] = [t0 , t0 + δ0 + δ1 ] definierte Lösung des AWP x(t0 ) = x0 . Man nennt
x+ (t) eine Fortsetzung der lokalen Lösung x(t) nach rechts, eine Fortsetzung x− (t) nach
links wird analog definiert.
Diese Konstruktion kann beliebig fortgesetzt werden. Falls die Fortsetzung x+ nach rechts
auf [t0 , τ ] definiert ist, stimmen alle Fortsetzungen, die auch für t > τ definiert, sind auf
[t0 , τ ] mit x+ überein. Daher existiert eine eindeutige
∞ Lösung des AWP auf einem Inter-
vall [t0 , t0 + δ0 + δ1 + δ2 + · · · ). Falls die Reihe k=0 δk divergiert, existiert die Lösung
global in Vorwärtszeit.
Die beim Fortsetzen von Lösungen auftretenden Konstanten δk können allerdings belie-
big klein werden, wenn sich die Punkte (tk , x+ (tk )) dem Rand von G nähern bzw. wenn
|f (tk , x+ (tk ))| oder die in einer Umgebung von (tk , x+ (tk )) gültige lokale Lipschitzkon-
stante Lk unbeschränkt werden. Dies kann dazu führen, dass die Fortsetzung nur auf
einem endlichen Intervall existiert. Dieses Intervall muss natürlich offen sein, da man
sonst weiter fortsetzen könnte.
Aus diesen Überlegungen folgt, dass die folgende Definition sinnvoll ist.
t+ (t0 , x0 ) := sup{τ > t0 : es existiert eine Fortsetzung x+ von (3.1) auf [t0 , τ ]},
t− (t0 , x0 ) := inf{τ < t0 : es existiert eine Fortsetzung x− von (3.1) auf [τ, t0 ]}
definiert. Das Intervall (t− , t+ ) heißt das maximale Existenzintervall der
Lösung des AWP x(t0 ) = x0 .
Die maximale Lösung x(t) des AWP ist für t ∈ [t0 , t+ ) durch x(t) = x+ (t)
definiert, wobei x+ die Fortsetzung der Lösung auf das Intervall [t0 , t] ist, und für
t ∈ (t− , t0 ] durch x(t) = x− (t) definiert, wobei x− die Fortsetzung der Lösung auf
das Intervall [t, t0 ] ist.
Im Fall t+ = ∞ existiert die maximale Lösung x(t) in vorwärts Zeit global, für t− = −∞
existiert die maximale Lösung in rückwärts Zeit global. Ein maximalen Existenzintervall
(−∞, ∞) bedeutet globale Existenz.
Für das Verhalten der Lösung des AWP im Fall t+ < ∞ gilt das folgende Resultat.
Satz 3.9 Sei G ⊆ Rn+1 offen, f : G → Rn stetig und lokal Lipschitz bezüglich
x und (t0 , x0 ) ∈ G. Sei (t− , t+ ) das maximale Existenzintervall und t+ < ∞ .
Dann verläßt die maximale Lösung in Vorwärtszeit jede kompakte Menge K ⊂ G,
d.h. es existiert t ∈ [t0 , t+ ) mit (t , x(t ))
∈ K.
mit (t+ , x+ ) ∈ K. Somit kann die Lösung x(t) stetig auf das Intervall [t0 , t+ ] fortgesetzt
werden. Aus der Integraldarstellung
t
x(t) = x0 + f (s, x(s))ds,
t0
die für t ∈ [t0 , t+ ] gilt, folgt, dass x(t) an der Stelle t = t+ einseitig differenzierbar ist und
dort die DG x = f (t, x) erfüllt. Im Punkt (t+ , x+ ) ∈ K ⊂ G sind die Voraussetzungen
des Satzes 3.7 erfüllt, daher kann die Lösung x(t) über den Zeitpunkt t+ hinaus fortgesetzt
werden. Dies steht im Widerspruch zur Definition von t+ .
Anmerkung:
1) Die Aussage von Satz 3.9 bedeutet, dass im Fall t+ < ∞ die maximale Lösung für
t → t+ dem Rand von G beliebig nahe kommt oder dass |x(t)| für t → t+ unbeschränkt
wird.
2) Im Fall G = (α, β) × Rn , wobei α = −∞ und β = ∞ erlaubt sind, kann der Fall
t+ < β nur eintreten, wenn blow-up eintritt, d.h. wenn |x(t)| für t → t+ unbeschränkt
wird.
3) Globale Existenz in vorwärts bzw. rückwärts Zeit für die Lösungen einer autonomen
DG x = f (x), x ∈ Rn kann nachgewiesen werden, indem man zeigt, dass gilt |x(t)| < ∞
für alle t ∈ [0, ∞) bzw. t ∈ (−∞, 0]).
Beispiel 3.3 Gegeben sei ein Räuber-Beute System mit Sättigung der Form
x = x − ax2 − xy
y = −by + xy
mit a, b > 0.
Es erscheint plausibel, dass die Lösung des Anfangswertproblems x(0) = x0 ≥ 0, y(0) =
y0 ≥ 0 global in vorwärts Zeit existiert. Warum ist dies plausibel? Im folgenden wird die
Richtigkeit dieser Vermutung bewiesen.
Das polynomiale Vektorfeld erfüllt die Voraussetzungen des lokalen Existenzsatzes auf
R2 , daher existiert ein maximales Existenzintervall (t− , t+ ). Wir müssen zeigen t+ = ∞.
Die x-Achse und die y-Achse sind invariant, da aus x(0) = 0 folgt x(t) = 0 und aus
y(0) = 0 folgt y(t) = 0. Aus der Voraussetzung x0 ≥ 0, y0 ≥ 0 folgt x(t) ≥ 0 und
y(t) ≥ 0 für t ∈ (t− , t+ ).
Angenommen es gilt t+ < ∞. Dann gilt für t ∈ [0, t+ )
x ≤ x
woraus
x(t) ≤ x0 et+ =: C ≤ ∞
Beweis: Aus Satz 3.8 folgt die Existenz einer lokalen Lösung. Die Funktion f (t, x) :=
A(t)x+b(t) ist lokal Lipschitz bezüglich x. Daher existiert ein maximales Existenzintervall
(t− , t+ ). Angenommen, es gilt t+ < β. Für die Lösung x(t) gilt
t t
x(t) = x0 + A(s)x(s) + b(s)ds = x0 + B(t) + A(s)x(s)ds
t0 t0
t
mit B(t) := t0 b(s)ds. Auf [t0 , t+ ] gilt wegen der Stetigkeit der Funktionen A(t) und b(t)
|A(t)| ≤ L, |B(t)| ≤ K
für t ∈ [t0 , t+ ). Aus dem Lemma von Gronwall folgt die Abschätzung
Daher ist x(t) für t → t+ beschränkt und t+ kann nicht der Randpunkt des maximalen
Existenzintervalls sein.
Unter den Voraussetzungen von Satz 3.7 hat das AWP (3.1) eine eindeutige Lösung, die
auf einem maximalen Existenzintervall existiert. Die Lösung hängt natürlich vom An-
fangswert x0 , vom Anfangszeitpunkt t0 und allgemeiner vom Vektorfeld f (t, x) ab. Es
stellt sich die Frage, wie sich die Lösung bei Änderung dieser Größen verhält? Insbe-
sondere stellt sich die praktisch wichtige Frage, ob die Lösung von diesen Größen stetig
abhängt.
K := {(t, y) : t ∈ I, |x(t) − y| ≤ α} ⊂ G.
Auf der kompakten Menge K ist f Lipschitz bezüglich x mit Lipschitz-Konstante L > 0.
Sei δ < α und |x0 − y0 | < δ. Dann gilt
t
|x(t) − y(t)| ≤ δ + L |x(s) − y(s)|ds,
t0
für alle t ∈ I, für die |x(t) − y(t)| ≤ α gilt. Aus dem Lemma von Gronwall folgt für diese
t, dass gilt
|x(t) − y(t)| ≤ δeL(t−t0 ) . (3.3)
Falls man daher
δ ≤ αeL(t0 −t1 )
wählt, folgt |x(t) − y(t)| ≤ α für t ∈ I. Daher gilt (t, y(t)) ∈ K für t ∈ I, womit auch
die Behauptung 1) bewiesen ist. Die Behauptung 2) folgt unmittelbar, indem man
wählt.
Anmerkung:
1) Sei x(t, x0 ) die Lösung des AWP x(t0 ) = x0 . Dann besagt der obige Satz, dass x(t, x0 )
stetig vom Anfangswert x0 abhängt.
2) Die dem Beweis zugrundeliegende Abschätzung (3.3) ist für große Werte von L bzw.
t − t0 sehr schlecht und in vielen Fällen zu pessimistisch. An der skalaren DG x = ax,
a ∈ R mit der globalen Lischitz-Konstante L = |a| sieht man aber, dass die Abschätzung
- ohne weitere Voraussetzungen - nicht verbessert werden kann. Bei diesem Beispiele gilt
für t0 = 0
|x(t) − y(t)| = eat |x0 − y0 |,
d.h. im Fall a > 0 gilt die Abschätzung (3.3) mit dem Gleichheitszeichen, während im
Fall a < 0 das exponentielle Abklingen von |x(t) − y(t)| durch die in t exponentiell
wachsende Abschätzung (3.3) nicht richtig wiedergegeben wird.
Wenn die Abhängigkeit der Lösung eines AWP x(t) = x0 von Anfangswert, Anfangs-
zeitpunkt und Vektorfeld betont werden soll, wird die Lösung als Funktion x(t, t0 , x0 , f )
aufgefasst. Bezüglich der Stetigkeit dieser Funktion gilt folgendes.
Es sei x(t) Lösung des AWP x = f (t, x), x(t0 ) = x0 mit maximalen Existenzintervall
(t− , t+ ) und y(t) Lösung des AWP y = g(t, y), y(τ0 ) = y0 . Dabei seien f, g stetig und
lokal Lipschitz bezüglich x bzw. y. Für ein beliebiges Intervall I = [a, b] ⊂ (t− , t+ ) mit
t0 ∈ (a, b) kann man zeigen, dass für hinreichend kleine δ > 0 aus den Bedingungen
|x0 − y0 | ≤ δ, |t0 − τ0 | ≤ δ, |f − g| ≤ δ
folgt, dass die Lösung des AWP y = g(t, y), y(τ0 ) = y0 zumindest für t ∈ I existiert
und dass gilt
|x(t) − y(t)| ≤ δCeL|t−t0 | , t ∈ I
mit einer Konstante C > 0. Dabei ist
mit einer geeigneten kompakten Umgebung K der Lösungskurve {(t, x(t)), t ∈ I} und L
eine Lipschitzkonstante für f bezüglich x auf K. Daraus folgt wie zuvor, dass die Lösung
von Anfangswert, Anfangszeitpunkt und Vektorfeld stetig abhängt. Für mehr Details
wird auf die Literatur verwiesen.
Differenzierbare Abhängigkeit
Als Ausblick wird noch ein weiterführendes Resultat ohne Beweis erwähnt. Falls das
Vektorfeld differenzierbar von t, x und μ abhängt, hängt auch die Lösung des AWP
differenzierbar von Anfangszeitpunkt, Anfangswert und Parametern ab. Genauer gilt
Durch das Umformulieren von AWP für explizites DG höherer Ordnung in AWP für
Systeme 1. Ordnung erhält man Existenz- und Eindeutigkeitsaussagen für solche DG.
Genauer gilt
Satz 3.13 Sei G ⊂ Rn+1 offen und g : G → R stetig. Die Funktion g(t, x) sei
lokal Lipschitz bezüglich x. Sei (t0 , a) ∈ G. Dann hat das AWP
Beweis: Mit
x1 := y, x2 := y , x3 := y , . . . , xn := y (n−1)
ist das AWP für y äquivalent zum AWP x(t0 ) = a für das folgende System von DG 1.
Ordnung
x1 = x2
x2 = x3
.. .. ..
. . .
xn−1 = xn
xn = g(t, x1 , x2 , . . . , xn ).
Aufgrund der Voraussetzungen an g folgt die Behauptung des Satzes aus den entspre-
chenden Resultaten für Systeme 1. Ordnung.
Für explizite lineare DG höherer Ordnung gilt
Beweis: Die Aussage des Satzes folgt nach Umschreiben der DG in ein lineares System
1. Ordnung aus Satz 3.10.
auf dem Intervall t ∈ [t0 , t1 ]. Die Funktion f sei stetig und lokal Lipschitz
bezüglich x.
Eine C 1 Funktion u : [t0 , t1 ] → R heißt strikte Unterlösung bezüglich der
Lösung x(t) falls gilt
Satz 3.15 Sei u(t) eine strikte Unterlösung bezüglich der Lösung x(t). Dann
gilt
u(t) < x(t), t ∈ [t0 , t1 ].
Sei o(t) eine strikte Oberlösung bezüglich der Lösung x(t). Dann gilt
Satz 3.16 Sei u(t) eine Unterlösung bezüglich der Lösung x(t). Dann gilt
Sei o(t) eine Oberlösung bezüglich der Lösung x(t). Dann gilt
Praktisch werden Unter- bzw. Oberlösungen oft konstruiert, indem man statt der DG
x = f (t, x) geeignete Funktionen g(t, x) < f (t, x) bzw. f (t, x) < h(t, x) einführt und
dann x(t) mit Lösungen von u = g(t, u) bzw. o = h(t, o) vergleicht. Dazu sollten
natürlich die DG für u bzw. o lösbar oder zumindest “einfacher” als die ursprüngliche
DG für x sein.
Lineare Systeme
In diesem Kapitel werden lineare Systeme
Lösungen werden im folgenden auch als Elemente des Vektorraumes C 1 (I, Rn ) aufgefasst.
Wenn die Vektoren y 1 (t), . . . , y m (t) ∈ Rn für t = t0 ∈ I linear unabhängig sind, so sind
die Funktionen y 1 , . . . , y m linear unabhängig. Daraus folgt allerdings nicht die lineare
Unabhängigkeit der Vektoren y 1 (t), . . . , y m (t) für t
= t0 .
60
Kap. 4: Lineare Systeme - 61 -
L := {x ∈ C 1 (I, Rn ) : x = A(t)x}
Es stellt sich die Frage nach der Dimension von L. Zur Beantwortung dieser Frage führen
wir die folgende Notation ein. Für festes t0 ∈ I und a ∈ Rn sei x(t, a) die Lösung des
AWP x(t0 ) = a. Als Element von L wird diese Lösung mit x(., a) bezeichnet.
Beweis: 1) Es ist zu zeigen, dass die Abbildung i) ϕ linear und ii) bijektiv ist.
i) Die Funktion ϕ(αa + βb) ist die eindeutige Lösung des AWP x(t0 ) = αa + βb. Wegen
der Linearität der DG ist die Funktion αϕ(a) + βϕ(b) eine Lösung dieses AWP. Aus der
Eindeutigkeit der Lösung des AWP folgt
Anmerkung: Die Isomorphie der Vektorräume L und Rn hat viele Konsequenzen. Insbe-
sondere folgt daraus, dass ϕ linear unabhängige Vektoren des Rn auf linear unabhängige
Lösungen der DG (4.2) abbildet. Umgekehrt werden linear unabhängige Lösungen der
DG (4.2) durch ϕ−1 mit beliebigem t0 ∈ I auf linear unabhängige Vektoren des Rn
abgebildet.
Folgerungen: Aus Satz 4.2 und der obigen Bemerkung folgt, dass gilt:
1. Funktionen y 1 , . . . , y n ∈ L sind genau dann eine Basis von L, wenn sie linear un-
abhängig in C 1 (I, Rn ) sind. Dies gilt genau dann, wenn die Vektoren y 1 (t), . . . , y n (t)
an einer Stelle t0 ∈ I linear unabhängig sind. In diesem Fall sind die Vektoren
y 1 (t), . . . , y n (t) an jeder Stelle t ∈ I linear unabhängig.
Zum besseren Verständnis wird die letzte Aussage nochmals (indirekt) bewiesen:
Angenommen die Vektoren y 1 (τ ), . . . , y n (τ ) seien für ein τ ∈ I linear abhängig.
Dann existiert (s1 , . . . , sn )
= (0, . . . , 0) mit
s1 y 1 (τ ) + · · · sn y n (τ ) = 0.
Die Funktion
x(t) := s1 y 1 (t) + · · · sn y n (t) = 0
ist Lösung des AWP x(τ ) = 0. Die eindeutige Lösung dieses AWP ist aber x(t) = 0,
t ∈ I. Daher sind die Funktionen y 1 , . . . , y n linear abhängig, daher sind auch die
Vektoren y 1 (τ ), . . . , y n (τ ) linear abhängig. Widerspruch!
2. Sei {b1 , . . . , bn } eine Basis des Rn . Dann sind die Funktionen
y 1 := ϕ(b1 ), . . . , y n := ϕ(bn )
eine Basis von L. Daher existieren (viele) Basen von L.
In Matrixschreibweise lassen sich viele Resultate über lineare Systeme von DG übersichtlich
ausdrücken.
2. Sei Y (t) Lösungsmatrix und c ∈ Rn . Dann ist x(t) := Y (t)c eine Lösung der
DG (4.2).
3. Sei Y (t) eine Fundamentalmatrix. Dann ist die allgemeine Lösung der DG (4.2)
gegeben durch x(t) = Y (t)c, c ∈ Rn .
4. Eine Fundamentalmatrix Y (t) ist für t ∈ I regulär, daher existiert die inverse Matrix
Y −1 (t).
5. Sei Y (t) eine Fundamentalmatrix. Dann gilt: eine Matrixfunktion X ∈ C 1 (I, Rn×n )
ist dann und nur dann Fundamentalmatrix, wenn eine reguläre Matrix B ∈ Rn×n
existiert mit X(t) = Y (t)B für alle t ∈ I.
6. Sei Y (t) eine Fundamentalmatrix. Dann ist die Lösung des AWP x(t0 ) = x0 gegeben
durch x(t) = Y (t)Y −1 (t0 )x0 . Beim praktischen Rechnen setzt man x(t) = Y (t)c und
bestimmt c als die eindeutige Lösung des linearen Gleichungsystems Y (t0 )c = x0 .
7. Sei Y (t) ein Hauptfundamentalmatrix bezüglich t0 . Dann ist die Lösung des AWP
x(t0 ) = x0 gegeben durch x(t) = Y (t)x0 .
8. Sei Y (t) eine Fundamentalmatrix und t0 ∈ I. Dann ist X(t) := Y (t)Y −1 (t0 ) Haupt-
fundamentalmatrix bezüglich t0 .
Dabei ist spurA := a11 + · · · + ann die Spur der Matrix A. Die Wronski-Determinante
ist daher entweder identisch gleich Null oder im gesamten Intervall I von Null verschie-
den. Aus diesem Resultat folgt (nochmals), dass eine Lösungsmatrix genau dann eine
Fundamentalmatrix ist, wenn ihre Spalten an einer Stelle t0 ∈ I linear unabhängig ist.
Beweis: Sei Y (t) eine Lösungsmatrix und W (t) := det Y (t) die Wronski-Determinante.
Sei τ ∈ I und Z(t) die HFM bez. τ . Die Matrix Ỹ (t) := Z(t)Y (τ ) ist eine Lösungsmatrix
mit Ỹ (τ ) = Y (τ ). Daher gilt Ỹ (t) = Y (t) für t ∈ I, d.h.
Y (t) = Z(t)Y (τ ), t ∈ I.
Daraus folgt
W (t) = det Y (t) = det Z(t) det Y (τ ) = det Z(t)W (τ )
und
d d
W (t) = W (τ ) (det Z(t)) .
dt dt
Da det Z = det(z1 , . . . , zn ) bezüglich jeder der Spalten z1 , . . . , zn linear ist, gilt
d d n
∂ det(z1 (t), . . . , zn (t)) d
(det Z(t)) = (det(z1 (t), . . . , zn (t))) = zj (t)
dt dt j=1
∂z j dt
n
d n
= det(z1 , . . . , zj (t), . . . , zn ) = det(z1 , . . . , A(t)zj (t), . . . , zn ).
j=1
dt j=1
d n n
Z(τ ) = det(e1 , . . . , A(τ )ej (τ ), . . . , en ) = ajj (τ ) = spurA(τ ).
dt j=1 j=1
Daher gilt
dW
(τ ) = spurA(τ )W (τ ).
dt
Differentialgleichungen 1 Ed. 2013
Kap. 4: Lineare Systeme - 65 -
Die explizite Berechnung von FM ist nur in Spezialfällen möglich. Vor allem im Fall
n = 2 ist gelegentlich die folgende Methode nützlich.
Falls eine Lösung der DG (4.2) bekannt ist, kann die Berechnung weiterer l.u. Lösungen
auf das Lösen eines (n − 1)-dimensionalen Systems zurückgeführt werden.
Sei u(t) = (u1 (t), . . . , un (t))T eine Lösung der DG x = A(t)x. Es gelte u1 (t)
= 0, t ∈ I.
Setze
x(t) = Φ(t)u(t) + z(t)
mit z(t) = (0, z2 (t), . . . , zn (t))T und Φ ∈ C 1 (I, R). Einsetzen in die DG ergibt
x = Φ u + Φu + z = ΦAu + Az
Daraus folgt
n
a1j zj
Φ = .
j=2
u1
Für die DG
x = Ax (4.4)
mit einer n × n Matrix A kann ein Fundamentalsystem immer mit Hilfe der Matrixex-
ponentialfunktion angegeben werden, deren Definition und grundlegende Eigenschaften
im folgenden zusammengefasst werden.
Matrixexponentialfunktion
Sei A eine reelle (oder komplexe) n × n Matrix. Dann ist für t ∈ R die Matrixexponen-
tialfunktion durch ∞
Ak t k
At
e :=
k!
k=0
definiert. Diese Reihe konvergiert für alle t ∈ R, die Konvergenz ist gleichmäßig für
|t| ≤ r.
Es seien A, B kommutierende n × n Matrizen, d.h. AB = BA, dann gilt
eA+B = eA eB .
Daraus folgt
Die explizite Berechnung von eAt erfolgt unter Verwendung der Jordanschen Normalform
der Matrix A. Es gelte
A = T JT −1 ,
wobei die Matrix J die Jordanscher Normalform der Matrix A ist. Dann gilt
∞
∞
∞
(T JT −1 )k tk T J k T −1 tk J k tk
e At
= = =T T −1 = T eJt T −1 .
k! k! k!
k=0 k=0 k=0
Daher genügt es, eJt zu berechnen. Mit T eJt T −1 ist auch T eJt eine Fundamentalmatrix.
Daher ist die Berechnung von T −1 nicht unbedingt notwendig.
Im Fall einer diagonalisierbaren Matrix mit Eigenwerten λ1 , . . . , λn und einer Eigenbasis
v1 , . . . , vn gilt
eJt = diag(eλ1 t , . . . , eλn t )
und die Funktionen eλ1 t v1 , . . . , eλn t vn bilden ein Fundamentalsystem, was bereits in Ab-
schnitt 2.4 gezeigt wurde.
Falls A nicht diagonalisierbar ist, hat J die Form
⎛ ⎞
J1 0 0 ··· 0
⎜ 0 J2 0 · · · 0 ⎟
⎜ ⎟
⎜ 0 J3 . . . 0 ⎟
J =⎜ 0 ⎟
⎜ .. .. . . . . . . . . . ⎟
⎝ . . ⎠
0 0 0 . . . Jm
mit Jordanblöcken Ji , i = 1, . . . , m der Dimension ri × ri zum Eigenwert λi . Dabei gilt
r1 + · · · + rm = n. In der Matrix T stehen in den Spalten, die dem Block Ji entsprechen,
ein Eigenvektor vi und Hauptvektoren hi1 , . . . , hiri −1 zum Eigenwert λi .
Ein Jordanblock Ji hat die Form
⎛ ⎞
λi 1 0 · · · 0 0
⎜ ... 0 0 ⎟
⎜ 0 λi 1 ⎟
⎜ . ⎟
⎜ 0 0 λi . . 0 0 ⎟
Ji = ⎜ ⎟
⎜ ... ... . . . . . . . . . . . . ⎟ .
⎜ ⎟
⎜ . . . λi 1 ⎟
⎝ 0 0 0 ⎠
0 0 0 · · · 0 λi
Wegen ⎛ ⎞
eJ1 t 0 0 ··· 0
⎜ 0 e J2 t
0 ··· 0 ⎟
⎜ ⎟
⎜ 0 e J3 t ... 0 ⎟
eJt =⎜ 0 ⎟
⎜ .. .. . . . ... ... ⎟
⎝ . . ⎠
0 0 0 . . . eJm t
zu berechnen.
Beweis: Es gilt
J = λI + N
mit ⎛ ⎞
0 1 0 ··· 0 0
⎜ ... 0 0 ⎟
⎜ 0 0 1 ⎟
⎜ ... 0 0 ⎟
⎜ 0 0 0 ⎟
N =⎜ .. .. .. ... ... ... ⎟
⎜ . . . ⎟
⎜ ⎟
⎝ 0 0 0 ··· 0 1 ⎠
0 0 0 ··· 0 0
1 λt 2 λt 3 λtt2
x (t) := e v, x (t) := e (tv + h1 ), x (t) := e ( v + th1 + h2 )
2
ein Fundamentalsystem.
Im Fall λ ∈ R, λ < 0 konvergieren alle Lösungen gegen den Ursprung. Die Annäherung
an den Ursprung erfolgt dabei tangential zu dem von v aufgespannten Unterraum, da in
jeder Lösung diese Richtung für große Werte von t dominiert. 3
xp + L,
Sei Y (t) eine Fundamentalmatrix Y (t). Dann ist die allgemeine Lösung durch
x(t) = Y (t)c + xp (t), c ∈ Rn
gegeben.
Beweis: Sei xp Partikulärlösung und y ∈ L. Dann ist xp + y eine Lösung der DG (4.1),
da gilt
x = xp + y = Axp + b + Ay = A(xp + y) + b = Ax + b.
Seien umgekehrt x und xp Lösungen der inhomogen DG (4.1). Setze y := x − xp . Dann
gilt
y = x − xp = Ax + b − Axp − b = A(x − xp ) = Ay.
Daher gilt y ∈ L und x = y + xp .
Zur Berechnung der allgemeinen Lösung benötigt man daher eine Partikulärlösung. Falls
eine Fundamentalmatrix bekannt ist, kann eine Partikulärlösung mittels Variation der
Konstanten berechnet werden.
Sei Y (t) eine Fundamentalmatrix. Zur Berechnung einer Partikulärlösung macht man
den Ansatz
xp (t) = Y (t)c(t)
mit einer unbekannten Funktion c ∈ C 1 (I, Rn ). Einsetzen in die DG (4.1) ergibt
xp = Y c + Y c = AY c + Y c = AY c + b.
Daher ist xp Lösung der inhomogenen DG, falls gilt
c (t) = Y −1 (t)b(t).
Anmerkung: Für ein System mit konstanten Koeffizienten und einer konstanten Inho-
mogenität b ∈ Rn
x = Ax + b
ist jede Lösung des linearen Gleichungsystems Ax+b = 0 eine Partikulärlösung – genauer
eine Ruhelage – der DG. Falls A regulär ist, erhält man
xp = −A−1 b.
Die Substitution x = xp + y transformiert die DG in die homogene DG
y = Ay.
L : C n (I, R) → C(I, R)
liefert der Exponentialansatz y(t) = eλt bzw. y(t) = tm eλt immer ein Fundamentalsy-
stem, siehe Abschnitt 2.4. Das charakteristische Polynom der skalaren DG ist
p(λ) = an λn + · · · + a1 λ + a0 .
ym1 +m2 = tm2 −1 eλ2 t , . . . . . . ym1 +···+mk−1 +1 = eλk t , . . . ym1 +···+mk = tmk −1 eλk t
ein Fundamentalsystem. Die lineare Unabhängigkeit dieser Funktionen kann durch Be-
rechnung ihrer Wronski-Determinante nachgewiesen werden.
Anmerkung: Das charakteristische Polynom p(λ) = an λn + · · · + a1 λ + a0 der skalaren
DG ist genau das charakteristische Polynom der Matrix A, die man erhält, wenn die
skalare DG in eine System 1. Ordnung x = Ax transformiert.
Sei y1 (t), y2 (t) ein Fundamentalsystem. Als System in der Variable x := (y, y )T hat die
DG die Form
0 1 0
x = x+ .
−a0 /a2 −a1 /a2 b/a2
Dem Ansatz
yp (t) = c1 (t)y1 (t) + c2 (t)y2 (t).
entspricht in der Systemschreibweise der Ansatz
y1 y2 c1
xp = ,
y1 y2 c2
wobei alle Größen Funktionen von t sind. Variation der Konstanten für Systeme 1. Ord-
nung ergibt das lineare Gleichungssystem
y1 y2 c1 0
=
y1 y2 c2 b/a2
für c1 , c2 . Dieses Gleichungssystem ist eindeutig lösbar, weil die Koeffizientenmatrix die-
ses linearen Gleichungssystems regulär ist, da y1 , y2 ein Fundamentalsystem ist. Durch In-
tegration erhält man die gesuchten Funktionen c1 , c2 und somit eine Partikulärlösung yp .
Für skalare DG der Ordnung n > 2 geht man analog vor.
Beispiel 4.3 Gesucht ist die allgemeine Lösung der Differentialgleichung
1
y + y = 1, t > −1 .
1+t
Zunächst bestimmen wir die allgemeine Lösung der homogenen Gleichung. Eine Lösung
ist y1 (t) = 1. Da x in der Differentialgleichung nicht auftritt, setzen wir zur Konstruktion
einer weiteren Lösung
z = y .
Dieser Trick, der immer funktioniert, wenn y in der Differentialgleichung nicht auftritt,
führt auf eine lineare Differentialgleichung 1. Ordnung für z:
1
z + z = 0,
1+t
mit der Lösung
1
z = e− ln(1+t) = .
1+t
Durch Integration erhält man die Lösung
y2 (t) = ln(1 + t)
der homogenen Differentialgleichung. Durch Berechnen der Wronski-Determinante kann
man leicht nachweisen, dass y1 und y2 linear unabhängig sind und somit ein Fundamen-
talsystem bilden. Die allgemeine Lösung der homogenen Gleichung ist
y(t) = c1 + c2 ln(1 + t), c1 , c 2 ∈ R .
Eine Partikulärlösung bestimmen wir mittels Variation der Konstanten.
yp (t) = c1 (t) + c2 (t) ln(1 + t) .
Dies führt auf
1 ln(1 + t) c1 (t) 0
1 =
0 1+t c2 (t) 1
t2 y − 2ty + 2y = t3 , t > 0.
Zunächst bestimmen wir die allgemeine Lösung des homogenen Problems. In diesem Fall
führt der naheliegende“ Ansatz
”
y(t) = tα
ans Ziel. Durch Einsetzen in die Gleichung erhält man
Die Funktion tα is genau dann eine Lösung der homogenen DG, wenn gilt
α2 − 3α + 2 = 0.
Die Lösungen dieser Gleichung sind α1 = 1 und α2 = 2. Damit erhalten wir das Funda-
mentalsystem
y1 (t) = t, y2 (t) = t2
und die allgemeine Lösung der homogenen Gleichung
yh (t) = c1 t + c2 t2 .
und
t2
c2 = t, c1 = − .
2
Damit erhalten wir die Partikulärlösung
t3 t3
yp (t) = − + t3 = .
2 2
Die allgemeine Lösung der inhomogenen Differentialgleichung ist
2 t3
y(t) = c1 t + c2 t + , c1 , c2 ∈ R .
2
Bemerkung: In diesem Beispiel hätte man die Partikulärlösung auch mit dem nahelie-
genden polynomialen Ansatz
bestimmen können. 3
kann für spezielle Inhomogenitäten eine Partikulärlösung effizient mit der Ansatzmethode
berechnet werden. Wie üblich bezeichnet p(λ) das charakteristische Polynom der DG.
Sei μ ∈ C und r(t) ein Polynom. Sei y(t) := r(t)eμt . Dann gilt
Ly = q(t)eμt
mit einem Polynom q, dessen Grad kleiner gleich dem Grad von r ist. Umgekehrt kann
man bei gegebenem q versuchen, ein Polynom r so zu bestimmen, dass die obige Gleichung
gilt.
Funktionen der Form r(t)eμt mit einem Polynom r nennt man auch Quasipolynome. Für
μ = 0 erhält man Polynome. Für μ = α + iβ erhält man durch Zerlegung in Real- und
Imaginärteil Funktionen der Form r(t)eαt cos βt und r(t)eαt sin βt. Die Ansatzmethode
funktioniert genau bei Inhomogenitäten dieser Form.
Falls μ eine Nullstelle des charakteristischen Polynoms der DG ist, muss der Grad von r
größer als der Grad von q gewählt werden. Genauer gilt
Satz 4.8 Es sei q(t) ein Polynom vom Grad l und μ ∈ C. Dann hat die DG mit
konstanten Koeffizienten Ly = q(t)eμt im Fall p(μ)
= 0 eine Partikulärlösung
yp (t) = r(t)eμt mit einem Polynom r vom Grad l.
Falls μ eine Nullstelle von p der Ordnung m ist hat die DG eine Partikulärlösung
yp (t) = tm r(t)eμt mit einem Polynom r vom Grad l .
Beweis: Wir beweisen den Satz nur in zwei einfachen Spezialfällen. Wir betrachten nur
den Fall q(t) = q ∈ C.
Es gelte p(μ)
= 0. Der Ansatz yp = ceμt führt auf
Daher gibt
q
c=
p(μ)
die gesuchte Lösung.
Es gelte p(μ) = 0 und p (μ)
= 0. Der Ansatz yp = cteμt führt auf
yp = (at2 + bt + c)e−3t
in die DG und Koeffizientenvergleich nach Potenzen von t ergibt ein eindeutig lösbares
lineares Gleichungssystem für a, b, c. 3
Beispiel 4.6 Gegeben ist die DG
y − 4y + 3y = sin 2t.
z − 4z + 3z = e2it
yp = A cos 2t + B sin 2t
Stabilität
Eine intuitive Vorstellung vom Konzept der Stabilität vermitteln die in Abb. 5.1 darge-
stellten Situationen. Eine Kugel rollt unter dem Einfluss von Gravitation und Reibung
auf einer Bahn vorgegebener Geometrie. Die dargestellten Positionen sind Ruhelagen des
Systems, die auf unterschiedliche Art stabil bzw. instabil sind. Unter Stabilität versteht
man die Frage, welchen Effekt eine Störung der Position bzw. Geschwindigkeit der Kugel
auf das Verhalten der Kugel hat? Dabei stellt sich vor allem auch die Frage nach dem
asymptotischen Verhalten für t → ∞. Macht es einen Unterschied, ob die Störung klein
oder groß ist? Was ändert sich, wenn man den Einfluss der Reibung nicht berücksichtigt?
Beispiel 5.1 Ein einfaches mathematisches Modell dieser (und vieler anderer) Situati-
on(en) ist die DG
ẍ = −V (x) − rẋ,
82
Kap. 5: Stabilität - 83 -
welche die eindimensionale Bewegung eines Teilchens mit Position x(t) unter dem Ein-
fluss eines Potentials V (x) und eines Reibungsterms rẋ beschreibt. Dabei ist r > 0 der
Reibungskoeffizient, r = 0 entspricht dem reibungslosen Fall. Als System geschrieben
hat die DG die Form
ẋ = p
ṗ = −V (x) − rp
Die durch p = 0 und V (x) = 0 definierten Ruhelagen des Systems entsprechen den
kritischen Punkten - insbesondere den Minima und Maxima - von V . Es stellt sich die
Frage, wie die Stabilität dieser Ruhelagen mathematisch definiert und untersucht werden
kann? 3
untersucht. Dabei interessiert man sich für das Verhalten von Lösungen für t ∈ [t0 , ∞),
daher sei f : R × G → Rn stetig und lokal Lipschitz bezüglich x, und G ⊆ Rn offen.
Für festes t0 ∈ R und x0 ∈ G wird die Lösung des AWP mit x(t, x0 ) bezeichnet. Sei
x(t, x0 ) eine Lösung, die für alle t ≥ t0 existiert. Bei der Frage der Stabilität geht es um
das Verhalten von Lösungen, deren Anfangswerte kleinen Abstand von x0 haben, für alle
t ≥ 0. Die Frage ist, ob aus |x0 − a| klein folgt:
Auf endlichen Intervallen [t0 , t1 ] gilt die Eigenschaft 1) wegen der stetigen Abhängigkeit
von Anfangswerten, siehe Satz 3.11. Die diesem Satz zugrundeliegende Abschätzung (3.3)
wird aber für t1 → ∞ beliebig schlecht. Daher sind auf unbeschränkten Zeitintervallen
weitere Untersuchungen notwendig.
Wichtige Typen von Lösungen, deren Stabilität untersucht werden kann, sind Ruhelagen
und periodische Lösungen. Dies gilt insbesondere im Fall autonomer DG x = f (x).
Anmerkung: Vom Standpunkt der Anwendungen aus werden oft nur stabile Lösungen
als relevant betrachtet, da aufgrund von unvermeidbaren Störungen des Systems nur
stabile Lösungen “beobachtbar” bzw. “realisierbar” sind.
5.1 Stabilitätskonzepte
Definition 5.1 Sei x(t, x0 ) eine Lösung des AWP (5.1), die für alle t ≥ t0
existiert. Die Lösung x(t, x0 ) heißt:
1. stabil (Ljapunov stabil), wenn für jedes ε > 0 ein δ > 0 existiert, so dass
aus |x0 − a| ≤ δ folgt: x(t, a) existiert für t ≥ t0 und |x(t, x0 ) − x(t, a)| ≤ ε
für alle t ≥ t0 .
2. instabil, wenn x(t, x0 ) nicht stabil ist.
3. anziehend (attraktiv), wenn ein δ > 0 existiert, so dass aus |x0 − a| ≤ δ
folgt: x(t, a) existiert für t ≥ t0 und limt→∞ |x(t, x0 ) − x(t, a)| = 0.
4. asymptotisch stabil, wenn x(t, x0 ) stabil und anziehend ist.
x = ax
ist für a < 0 asymptotisch stabil, für a = 0 stabil und für a > 0 instabil. Dies folgt
unmittelbar aus den Definitionen und der Lösungsformel x(t, x0 ) = x0 eat . Tatsächlich ist
jede Lösung dieser DG für a < 0 asymptotisch stabil, für a = 0 stabil und für a > 0
instabil. 3
Beispiel 5.3 Die Stabilität der Ruhelagen einer skalaren autonomen DG
x = f (x)
1. die Ruhelage x0 ist asymptotisch stabil, wenn in einem Intervall (x0 − δ, x0 + δ) gilt
f (x) > 0 für x < x0 und f (x) < 0 für x > x0 .
2. die Ruhelage x0 ist instabil, wenn in einem Intervall (x0 − δ, x0 + δ) gilt f (x) < 0
für x < x0 oder f (x) > 0 für x > x0 .
Dies folgt unmittelbar aus dem Monotonieverhalten der Lösungen x(t) in den angegeben
Intervallen.
a) Die Ruhelage x = 0 der DG x = x2 ist instabil, da für beliebig kleine Anfangswerte
x0 > 0 die Lösung x(t, x0 ) jedes Intervall (−ε, ε) verläßt.
x = Ax
hat die triviale Ruhelage x = 0. Aufgrund der Resultate in Abschnitt 4.2 wird die
Stabilität der Ruhelage und das Verhalten aller Lösungen durch die Eigenwertstruktur
von A bestimmt. Für das charakteristische Polynom gilt
1. Fall: λ1
= λ2 , λ1 , λ2 ∈ R, s2 − 4d > 0
1a) λ1 < λ2 < 0, für s < 0 und d > 0, x = 0 ist asymptotisch stabil,
Bezeichnung: stabiler Knoten
1b) λ1 < λ2 = 0, für s < 0 und d = 0, x = 0 ist stabil,
eindimensionaler Unterraum von Ruhelagen in Richtung v2 , anziehend in Richtung v1 .
1c) λ1 < 0 < λ2 , für d < 0, x = 0 ist instabil,
Bezeichnung: Sattelpunkt
1d) 0 = λ1 < λ2 , für s > 0 und d = 0, x = 0 ist instabil,
eindimensionaler Unterraum von Ruhelagen in Richtung v1 , abstoßend in Richtung v2 .
2. Fall: λ1 = λ2 = λ ∈ R, s2 − 4d = 0
Hier wird zwischen zwei unterschiedliche Jordanstrukturen
λ 0 λ 1
i) J = ii) J =
0 λ 0 λ
unterschieden, wobei die Unterscheidung zwischen diesen Fällen nicht mittels spurA und
det A möglich ist. Es tritt “typischerweise” der Fall ii) auf, da im Fall eines doppelten
Eigenwerts “typischerweise” ein 2 × 2 Jordanblock existiert.
Zusammenfassend gilt:
1. Die Ruhelage x = 0 ist genau dann stabil, wenn gilt 1) s ≤ 0, d ≥ 0 und (s, d)
=
(0, 0) oder 2) (s, d) = (0, 0) im Fall i), d.h. A = 0.
2. Die Ruhelage x = 0 ist asymptotisch stabil genau dann, wenn gilt s < 0, d < 0.
Die entsprechenden Fälle 1a), 2a), 3a) werden alle als Senken bezeichnet.
3. Die Ruhelage x = 0 ist abstoßend genau dann, wenn gilt s > 0, d > 0. Die
entsprechenden Fälle 1e), 2c), 3c) werden alle als Quellen bezeichnet.
4. Beim Überschreiten der Achse d = 0 wechselt ein reeller Eigenwert sein Vorzeichen,
was einem Übergang von Sattel zu Knoten entspricht.
5. Beim Überschreiten der Achse s = 0 bei d > 0 wechselt der Realteil der Eigenwerte
sein Vorzeichen, was einem Übergang von einem stabilen Strudel zu einem instabilen
Strudel entspricht.
Anmerkung: 1) Sattelpunkte, Quellen und Senken sind strukturell stabil, d.h. sie
ändern ihren Typ bei einer kleinen Störung der Matrix A nicht.
2) Die Fälle 1b), 1d), 2b) und 3b) sind nicht strukturell stabil, da sich bei Störung
der Matrix A die Stabilität der Ruhelage x = 0 ändern kann.
3) Die Punkte in Abbildung 5.2, die den nicht strukturell stabilen Fälle entsprechen,
nennt man Verzweigungspunkte. Verzweigungspunkte sind die s-Achse und der Teil
der d-Achse mit d > 0. Die gesamte Abbildung 5.2 ist das entsprechende Verzwei-
gungsdiagramm.
Satz 5.1 Alle Lösungen der DG (5.2) sind genau dann stabil bzw. asymptotisch
stabil, wenn die Nulllösung der homogenen DG x = A(t)x stabil bzw. asympto-
tisch stabil ist.
Daher sagt man, die DG (5.2) ist stabil, asymptotisch stabil oder instabil.
lim |Y (t)| = 0.
t→∞
Beweis: ad 1) Angenommen die DG ist stabil, aber eine Spalte yi (t) von Y (t) ist unbe-
schränkt auf [t0 , ∞). Für δ klein ist |δyi (t0 )| beliebig klein, aber |δyi (t)| ist unbeschränkt
auf [t0 , ∞), was in Widerspruch zur Stabilität der DG steht.
Umgekehrt folgt aus |Y (t)| ≤ K, dass für jede Lösung x(t) = Y (t)c, c ∈ Rn gilt
|x(t)| ≤ K|c|, t ≥ t0 . Daraus folgt unmittelbar die Stabilität der Nulllösung und somit
die Stabilität der DG.
ad 2) Angenommen die DG ist asymptotisch stabil. Dann gilt für jede Lösung x(t) der
DG limt→∞ x(t) = 0. Daher gilt dies insbesondere für jede Spalte von Y (t). Daraus folgt
limt→∞ |Y (t)| = 0.
Umgekehrt folgt aus limt→∞ |Y (t)| = 0 die Beschränktheit von |Y (t)| auf [t0 , ∞), woraus
die Stabilität folgt. Alle Lösungen der DG sind durch x(t) = Y (t)c, c ∈ Rn gegeben.
Aus |x(t)| ≤ |Y (t)||c| folgt limt→∞ x(t) = 0. Daher ist die DG asymptotisch stabil.
Für Systeme mit konstanten Koeffizienten
x = Ax
wird Stabilität durch die Eigenwerte der Matrix A bestimmt.
Beweis: Ein Fundamentalsystem der DG ist eAt . Der Satz folgt daher aus Satz 5.2
und den Resultaten über die Matrixexponentialfunktion in Abschnitt 4.2. Eigenwerte
mit Re λ = 0 müssen halbeinfach sein, da im Fall eines nichttrivialen Jordanblocks der
Dimension r > 1 Lösungen existieren, die wie tr−1 wachsen (siehe Satz 4.5).
Falls alle Eigenwerte der Matrix A negativen Realteil haben, klingen alle Lösungen der
DG x = Ax exponentiell ab.
Satz 5.4 Für alle Eigenwerte der Matrix A gelte Re λ < −α < 0. Dann
existiert eine Konstante K > 0, sodass gilt
|eAt | ≤ Ke−αt , t ≥ 0.
Beweis: Es sei J die Jordansche Normalform von A und T die entsprechende Transfor-
mationsmatrix mit A = T JT −1 . Wegen
|eAt | = |T eJt T −1 | ≤ |T ||eJt ||T −1 |
genügt es die Abschätzung für eJt zu beweisen. Für alle Eigenwerte von A gilt Re λ + α <
0. Aus Satz 4.5 folgt
lim |eαt eJt | = 0.
t→∞
Daher existiert eine Konstante K̃ > 0 mit |eαt eJt | ≤ K̃ für alle t ≥ 0, d.h.
|eJt | ≤ K̃e−αt .
Die Behauptung des Satzes folgt mit K := |T ||T −1 |K̃.
Differentialgleichungen 1 Ed. 2013
Kap. 5: Stabilität - 91 -
Anmerkung: Die Notation folgt hier den englischen Begriffen stable space, center-space
und unstable space.
Aus den Eigenschaften der Matrixexponentialfunktion eAt und Satz 5.4 folgt
Rn = E s ⊕ E c ⊕ E u
x = x s + xc + xu .
Linearisieren ist ein wichtiges Hilfsmittel bei der Untersuchung des Verhaltens der Lösung-
en nichtlinearer DG. In diesem Abschnitt wird gezeigt, wie diese Methode zur Untersu-
chung der Stabilität von Ruhelagen verwendet wird.
Definition 5.3 Die DG (5.5) ist die Linearisierung der DG (5.3) an der
Ruhelage x0 .
Das Verhalten der Lösungen der Linearisierung ist durch die Eigenwertstruktur der Ma-
trix df (x0 ) bestimmt.
Anmerkung: Es erscheint plausibel, dass sich für y klein die Lösungen der DG (5.4) und
(5.5) nur wenig unterscheiden bzw. sich qualitativ ähnlich verhalten. In vielen Situationen
kann man beweisen, dass dies tatsächlich der Fall ist.
hat die Ruhelagen p1 = (0, 0), p2 = (1, 0) und p3 = (−1, 0). Es gilt
0 1
df (x) = .
1 − 3x21 −1
Daher ist
0 1
df (p1 ) = .
1 −1
Wegen det df (p1 ) = −1 entspricht der Linearisierung an p1 ein Sattelpunkt. Die Lineari-
sierung an p1 ist instabil.
Die Matrix
0 1
df (p2 ) = df (p3 ) =
−2 −1
hat Determinante 2 und Spur −1, daher entspricht der Linearisierung an p2 und p3 eine
stabile Spirale. Die Linearisierung an p2 und p3 ist asymptotisch stabil. 3
Es stellt sich die Frage, ob sich das Stabilitätsverhalten der Linearisierung auf die Sta-
bilität der Ruhelage des nichtlinearen Problems überträgt?
Da alle Eigenwerte von A negativen Realteil haben, existieren nach Satz 5.4 Konstante
K > 0, α > 0, sodass gilt
|eAt | ≤ Ke−αt , t ≥ 0.
Zu zeigen ist, dass für ε > 0 ein δ > 0 existiert mit |y(t)| ≤ ε für t ≥ 0 falls |y0 | ≤ δ
und dass weiters limt→∞ y(t) = 0 gilt.
Um aus der Darstellung (5.6) Abschätzungen für y(t) herzuleiten, benötigen wir eine
quantitative Beschreibung des Kleinwerdens von r(y) für y → 0. Da f einmal stetig
differenzierbar ist, folgt: für jedes ρ > 0 existiert η > 0 mit
|r(y)| ≤ ρ|y| für |y| ≤ η. (5.7)
Zunächst nehmen wir an, dass gilt
|y(t)| ≤ η, t ∈ [0, T ]. (5.8)
Später wird gezeigt, dass diese Abschätzung – für |y0 | hinreichend klein – tatsächlich für
alle T ≥ 0 gilt. Aus der Darstellung (5.6) folgt unter Verwendung der Abschätzung (5.7)
t
|y(t)| ≤ Ke−αt |y0 | + Kρ e−α(t−s) |y(s)|ds.
0
Aus dem Lemma von Gronwall angewandt auf die Funktion eαt |y(t)| folgt
eαt |y(t)| ≤ K|y0 |eKρt , t ∈ [0, T ],
d.h.
|y(t)| ≤ K|y0 |e(Kρ−α)t , t ∈ [0, T ]. (5.9)
Wähle ρ > 0, sodass gilt Kρ − α < 0. Dann gilt
|y(t)| ≤ K|y0 | ≤ min(η, ε), t ∈ [0, T ]
für |y0 | ≤ δ, falls
η ε
δ ≤ min(
, )
K K
gewählt wird. Da ρ und δ unabhängig von T sind, gilt diese Abschätzung für alle
T > 0. Daher existiert die Lösung y(t) für t ≥ 0 und erfüllt |y(t)| ≤ ε für t ≥ 0.
Damit ist die Stabilität der Ruhelage bewiesen. Asymptotische Stabilität folgt aus der
Abschätzung (5.9) und Kρ − α < 0.
ad 2) Der Beweis der Instabilität ist ähnlich aber etwas komplizierter. Es sei E u der
instabile Raum, E c der Zentrums-Raum und E s der stabile Raum von A. Dies ergibt
eine Zerlegung
y = yu + yc + ys.
Mittels einer entsprechenden Zerlegung der Darstellung (5.6) kann unter Verwendung
der Abschätzungen aus Satz 5.5 die Aussage 2) (und viel mehr) bewiesen werden. Für
Details wird auf die Literatur bzw. die Vorlesung Differentialgleichungen 2 verwiesen.
Beispiel 5.8 Sei x0 Ruhelage einer skalaren DG x = f (x) mit einer C 1 Funktion f .
Dann ist die Ruhelage asymptotisch stabil, falls f (x0 ) < 0 gilt. Aus f (x0 ) > 0 folgt die
Instabilität der Ruhelage. 3
Beispiel 5.9 Fortsetzung von Bsp. 5.7: Die Ruhelage p1 ist instabil. Die Ruhelagen p2 ,
p3 sind asymptotisch stabil. 3
h:U →V
mit
h(x(t, a)) = eAt h(a)
für alle a ∈ U solange x(t, a) ∈ U gilt.
Im Beweis wird die Existenz der Transformation h als Fixpunkt einer geeigneten Kon-
traktion nachgewiesen, siehe z.B. Arnold (1988), Teschl (2012). Der Beweis zeigt auch,
dass gilt h(x) = x + o(|x|), d.h. h ist eine kleine Störung der Identität. Dies bestätigt
nochmals die intuitive Vorstellung, dass die Linearisierung in einer (kleinen) Umgebung
der Ruhelage das Verhalten der Lösungen gut approximiert. Unter bestimmten Bedin-
gungen an die Eigenwerte von A, die gewisse Resonanzen ausschließen, kann man zeigen,
dass h sogar ein Diffeomorphismus ist. Explizite Berechenbarkeit von h(x) kann man
natürlich nicht erwarten, da dies äquivalent zum expliziten Lösen der DG wäre.
s
mit geeignetem δ > 0. In diesem Beispiel ist Wloc (p0 ) eine glatte Kurve tangential zu E s
u
und Wloc (p0 ) eine glatte Kurve tangential zu E u . 3
An allgemeinen hyperbolischen Ruhelagen ist die Situation ähnlich. Es gilt der folgende
in der Theorie dynamischer Systeme wichtige Satz.
Für den Beweis wird auf die Literatur, siehe z.B. Teschl (2012), und die Vorlesung Dif-
ferentialgleichungen 2 verwiesen. Dabei werden die im Satz auftretenden Funktionen hs
und hu als Fixpunkte von passend konstruierten Kontraktionsabbildungen bestimmt.
s u
Anmerkung: Wloc (x0 ) und Wloc (x0 ) sind Beispiele von invarianten Mannigfaltigkeiten,
die in der Theorie dynamischer Systeme eine wichtige Rolle spielen.
Randwertprobleme
Bisher wurden Lösungen von DG durch die Angabe von Anfangswerten bestimmt. Eine
andere Möglichkeit, eine Lösung einer gewöhnlichen DG zu spezifizieren, besteht dar-
in, an zwei Stellen Bedingungen an die Lösung der DG zu stellen. Dabei wird meist
t ∈ [t1 , t2 ] betrachtet und es werden Bedingungen an x(t0 ) und x(t1 ) gestellt. Aufgaben
dieser Art heißen Randwertprobleme (RWP). Randwertprobleme können auch auf un-
beschränkten Intervallen [t1 , ∞), (−∞, t2 ] oder (−∞, ∞) gestellt werden.
In diesem Kapitel werden RWP auf endlichen Intervallen für lineare Differentialgleichun-
gen untersucht, wobei der Schwerpunkt auf linearen skalaren DG zweiter Ordnung liegt.
Ein wesentlicher Unterschied zu Anfangswertproblemen besteht darin, dass die Existenz
von Lösungen von RWP nicht in der Allgemeinheit wie bei Anfangswertproblemen gesi-
chert ist.
Unter Verwendung der Fundamentalmatrix kann die Lösbarkeit und die Lösungsstruktur
dieses linearen RWP vollständig charakterisiert werden.
98
Kap. 6: Randwertprobleme - 99 -
Satz 6.1 Sei Y (t) die Hauptfundamentalmatrix t2 −1 der DG x = A(t)x bezüglich
t1 , B := R1 + R2 Y (t2 ) und d := R2 Y (t2 ) t1 Y (s)b(s)ds. Dann gilt:
1. Das RWP (6.1) ist genau dann lösbar, wenn gilt
2. Die Menge der Lösungen des RWP bilden in diesem Fall einen affinen Vek-
torraum, dessen Dimension gleich der Dimension des Kerns von B ist.
Beweis: Die Lösung x(t) des RWP ist natürlich auch die Lösung des AWP mit dem
Anfangswert x(t1 ). Nach Satz 4.7 gilt daher
t
x(t) = Y (t)x(t1 ) + Y (t) Y −1 (s)b(s)ds.
t1
Die Funktion x(t) erfüllt daher die Randbedingung R1 x(t1 ) + R2 x(t2 ) = c genau dann,
wenn gilt t2
(R1 + R2 Y (t2 ))x(t1 ) + R2 Y (t2 ) Y −1 (s)b(s) = c.
t1
Mit den Bezeichnungen des Satzes lautet diese Gleichung
Bx(t1 ) = c − d. (6.2)
Dieses lineare Gleichungssystem für x(t1 ) ist genau dann lösbar, wenn gilt
Rang(B) = Rang(B|c − d).
Wegen der Linearität entspricht jeder Lösung des RWP umkehrbar eindeutig eine Lösung
des Gleichungsystems (6.2), daher folgt auch die zweite Aussage des Satzes.
Anmerkung: Falls für die Matrix B := R1 + R2 Y (t2 ) gilt Rang(B) < n, existieren
c ∈ Rn , so dass das RWP (6.1) keine Lösung hat.
RWP für lineare DG 2. Ordnung treten in vielen Anwendungen auf und haben eine re-
lativ einfache mathematische Struktur. Durch Umschreiben in ein System 1. Ordnung
kann man die Resultate des vorangehenden Abschnitts anwenden. Meistens ist aber das
Arbeiten mit skalaren DG vorteilhafter.
Bei Randwertproblemen hat die unabhängige Variable sehr oft die Bedeutung einer
räumlichen Variable, daher wird sie im folgenden mit x ∈ [a, b] bezeichnet.
Ed. 2013 Differentialgleichungen 1
- 100 - Kap. 6: Randwertprobleme
R1 u = ρ 1 , R 2 u = ρ2
abgekürzt.
2) Periodische Randbedingungen sind dann sinnvoll, wenn die Funktionen a0 , a1 , a2 und
f periodisch mit Periode b − a sind und die Lösung ebenfalls periodisch mit Periode b − a
sein soll.
Beispiel 6.1 Auf einen horizontalen Stab, dessen Enden sich bei x = a und x = b be-
finden, wirke an der Stelle x ∈ [a, b] das Biegemoment f (x). Die Auslenkung des Balkens
aus der Horizontalen sei u(x). Für kleine Auslenkungen gilt die Differentialgleichung
1) Wird der Stab an seinem linken Ende fest horizontal eingespannt, so erhält man die
Randbedingungen
u(a) = u (a) = 0,
die einem Anfangswertproblem entsprechen. Dieses ist eindeutig lösbar.
2) Falls der Stab an beiden Enden auf gleicher Höhe unterstützt wird, gelten die Dirichlet
Randbedingungen
u(a) = 0, u(b) = 0.
Dieses RWP ist eindeutig lösbar (siehe unten).
3) Wenn sich die Enden des Balken vertikal bewegen können dabei aber waagrecht ein-
gespannt sind, erhält man Neumann Randbedingungen
u (a) = 0, u (b) = 0.
Das RWP mit homogenen Neumann Randbedingungen ist nie eindeutig lösbar, da mit
u(x) auch u(x) + c, c ∈ R eine Lösung ist. Weiters ist die Bedingung
b b
0 = u (b) − u (a) = u (x)dx = f (x)dx
a a
Satz 6.2 Mit den Bezeichnungen und unter den Voraussetzungen von Defini-
tion 6.2 sei u1 , u2 ein Fundamentalsystem für die DG Lu = 0. Dann gilt: das
inhomogene RWP
Lu = f, R1 u = ρ1 , R2 u = ρ2
ist genau dann für alle f ∈ C(I, R) und ρ1 , ρ2 ∈ R lösbar, wenn gilt
R1 u 1 R 1 u 2
det
= 0. (6.4)
R2 u 1 R2 u 2
Falls die Bedingung (6.4) erfüllt ist, so ist die Lösung des inhomogenen RWPs
eindeutig bestimmt. Die Bedingung (6.4) ist unabhängig von der Wahl des Fun-
damentalsystems. Das inhomogene RWP ist
Beweis: Sei up eine Lösung der DG Lu = f . So eine Lösung kann z.B. mittels Variation
der Konstanten bestimmt werden. Dann ist
u(x) = c1 u1 (x) + c2 u2 (x) + up (x), c1 , c2 ∈ R
die allgemeine Lösung der DG Lu = f . Die Randbedingungen Ri u = ρi , i = 1, 2 sind
erfüllt, wenn gilt
c1 Ri u1 + c2 Ri u2 + Ri up = ρi , i = 1, 2.
Dies ergibt ein lineares Gleichungssystem für c1 , c2 .
R1 u1 R1 u2 c1 ρ1 − R1 up
= .
R2 u1 R2 u2 c2 ρ2 − R2 up
Dieses Gleichungssystem ist genau dann für jedes f ∈ C(I, R) und alle ρ1 , ρ2 ∈ R
eindeutig lösbar, wenn die Bedingung (6.4) gilt.
Für zwei beliebige Fundamentalsysteme u1 , u2 und v1 , v2 existiert eine reguläre 2 × 2
Matrix B mit
u1 v1
=B .
u2 v2
Daraus folgt
R1 u1 R1 u2 R 1 v 1 R1 v 2
det = det B det .
R2 u1 R2 u2 R2 v 1 R2 v 2
Daher ist die Bedingung (6.4) unabhängig von der Wahl des Fundamentalsystems.
Daher ist das RWP für alle f ∈ C(I, R) und ρ1 , ρ2 ∈ R eindeutig lösbar.
Für Neumann Randbedingungen R1 u = u (a) und R2 u = u (b) gilt
R1 u 1 R1 u 2 0 1
det = det = 0.
R2 u 1 R2 u 2 0 1
Wegen
b
R2 up − R1 up = f (x)dx
a
ist das das Neumann RWP genau dann lösbar, falls die Kompatibilitätsbedingung
b
ρ2 − ρ1 = f (x)dx
a
erfüllt ist. Die Lösung ist nie eindeutig, da sie nur bis auf eine additive Konstante be-
stimmt ist. 3
Die Bedingung (6.4) in Satz 6.2 bezieht sich nur auf Fundamentalsysteme der homogenen
DG. Daher erhält man als unmittelbare Folgerung den folgenden Satz.
Satz 6.3 Mit den Bezeichnungen und unter den Voraussetzungen von Defini-
tion 6.2 gilt: das inhomogene RWP
Lu = f, R1 u = ρ1 , R2 u = ρ2
ist genau dann für alle f ∈ C(I, R) und ρ1 , ρ2 ∈ R lösbar, wenn das homogene
Randwertproblem
Lu = 0, R1 u = 0, R2 u = 0
nur die triviale Lösung u = 0 hat. Die Lösung des inhomogenen RWPs ist in
diesem Fall eindeutig bestimmt.
Um die Gleichung
Lu = f
als lineare Gleichung auf Funktionenräumen studieren zu können, müssen der Definitions-
und Bildbereich von L angegeben werden. Naheliegend ist die Definition
D(L) := {u ∈ C 2 (I, R) : R1 u = 0, R2 u = 0}.
Dann ist L : D(L) → C(I, R) ein linearer Differentialoperator, der allerdings einen
Funktionenraum in einen anderen Funktionenraum abbildet. Es ist meist zweckmäßiger
L als einen unbeschränkten Operator
L : L2 (a, b) → L2 (a, b)
mit dem in L2 (a, b) dichten Definitionsbereich D(L) zu definieren.
Nach Satz 6.3 sind die folgenden Bedingungen äquivalent:
Satz 6.4 In einem n-dimensionalen Vektorraum V gilt für eine lineare Abbil-
dung L : V → V genau eine der beiden Aussagen
1. Zu jedem Vektor v ∈ V gibt es einen Vektor u ∈ V , sodass Au = v, d.h. L
ist surjektiv.
2. dim(Kern L) > 0, d.h. L hat nichtrivialen Kern und ist nicht injektiv.
Die Sätze 6.3 und 6.4 sind Spezialfälle der Fredholmschen Alternative (siehe Funktional-
analysis).
Anmerkung: Ein inhomogenes RWP Lu = f , R1 u = ρ1 , R2 u = ρ2 kann auf ein
halbhomogenes RWP Lũ = f˜, R1 u = 0, R2 u = 0 reduziert werden. Sei v ∈ C 2 (I, R)
mit R1 v = ρ1 und R2 v = ρ2 . So eine Funktion v kann meist einfach gefunden werden.
Man setzt u = v + ũ. Dann löst u genau dann das inhomogene RWP, wenn ũ das
halbhomogene RWP mit f˜ := f − Lv löst. Daher genügt es den halbhomogenen Fall zu
untersuchen.
mit b > 0 ist u1 = ex , u2 = e−x ein Fundamentalsystem. Die Bedingung (6.4) hat daher
die Form
0 0
R1 u1 R1 u2 e e
det = det = e−b − eb = eb (e−2b − 1)
= 0
R2 u1 R2 u2 eb e−b
für alle b > 0. Das entsprechende inhomogene RWP ist daher immer eindeutig lösbar. 3
Die Lösbarkeit von RWP kann auch von der Länge des Intervalls, auf dem die DG gestellt
ist, abhängen.
Beispiel 6.4 Für das RWP
mit b > 0 ist u1 = cos x, u2 = sin x ein Fundamentalsystem. Die Bedingung (6.4) hat
daher die Form
R1 u 1 R1 u 2 cos 0 sin 0
det = det = sin b
= 0,
R2 u 1 R2 u 2 cos b sin b
was für b
= kπ, k ∈ N erfüllt ist. In diesem Fall ist das RWP Lu = f , u(0) = ρ1 ,
u(b) = ρ2 immer eindeutig lösbar.
Im Fall b = kπ, k ∈ N ist u(x) = sin x eine nichttriviale Lösung des homogenen RWP.
Das halbhomogene RWP Lu = 0, u(0) = 0, u(b) = 1 hat in diesem Fall keine Lösung,
da für
u(x) = c1 cos x + c2 sin x
aus der ersten Randbedingung folgt c1 = 0 und die zweite Randbedingung dann für kein
c2 ∈ R erfüllt werden kann. 3
Seien U , V Vektorräume, auf denen ein Skalarprodukt definiert ist. Für lineare Abbil-
dungen
L:U →V
kann dann die Lösbarkeit einer linearen Gleichung
Lx = b
mit x ∈ U und b ∈ V unter Verwendung von Begriffen, die auf dem Skalarprodukt
aufbauen, charakterisiert werden. Im Fall U = Rn , V = Rm mit dem kanonischen
Skalarprodukt gilt folgendes.
Satz 6.5 Sei A eine m × n Matrix, der eine lineare Abbildung Rn → Rm ent-
spricht. Der transponierten Matrix AT entspricht die adjungierte Abbildung
Rm → Rn , d.h. es gilt
Ax · y = x · AT y, x ∈ R n , y ∈ Rm .
Weiters gilt
Kern A ⊥ Bild AT , Bild A ⊥ Kern AT
und
Rn = Kern A ⊕ Bild AT , Rm = Bild A ⊕ Kern AT .
Als unmittelbare Folgerung erhält man folgende Charakterisierung der Lösbarkeit von
linearen Gleichungssystemen.
Weiters sei
D(L) := {u ∈ C2 (I, R) : u(a) = 0, u(b) = 0}.
der Definitionsbereich von L.
Satz 6.7 Für das RWP (6.5) gilt. Der Operator L ist symmetrisch, d.h.
In Analogie zum Matrixfall erhalten wir das folgende Resultat.
Satz 6.8 Das RWP (6.5) ist genau dann lösbar, wenn gilt
f, v = 0
Anmerkung: Aufgrund von Satz 6.2 ist dieses Resultat nur im Fall Kern L
= {0}
interessant. Der folgende Beweis zeigt auch, dass dann gilt dim(Kern L) = 1.
Da u1 den Kern L aufspannt, ist der Satz bewiesen. Die Konstante s1 bleibt unbestimmt,
da Kern L nichttrivial ist.
Lu = f
zu lösen, genügt es aber eine Rechts-Inverse R von L zu finden, für die gilt
LR = id,
da dann
u := Rf
eine Lösung von Lu = f ist. Eindeutigkeit folgt, falls KernL = {0} gilt.
Wir werden zeigen, dass die Rechts-Inverse von L als Integraloperator
b
Rf (x) := G(x, s)f (s)ds
a
beschrieben werden kann. Der Kern G(x, s) ist die Greensche Funktion des RWPs. Falls
eine Greensche Funktion existiert, ist die Lösung des RWP Lu = f durch
b
u(x) = G(x, s)f (s)ds
a
gegeben. Die Funktion G(x, s) muss als Funktion von x die Randbedingungen erfüllen.
Weiters benötigt man Bedingungen an die Funktion G und ihre Ableitungen bezüglich
x, die sicherstellen, dass G eine Rechts-Inverse ist.
Anmerkung: Greensche Funktionen spielen auch in der Theorie von RWP für partielle
Differentialgleichungen eine wichtige Rolle.
Wir werden zeigen, dass diese Bedingungen die Greensche Funktion eindeutig festlegen.
Satz 6.9 Sei G(x, s) die Greensche Funktion für das RWP (6.6). Dann ist für
stetiges f b
u(x) := G(x, s)f (s)ds
a
eine zweimal stetig differenzierbare Lösung des RWP.
Beweis: Es ist günstig das Integrationsintervall [a, b] in [a, x] und [x, b] zu teilen. Es gilt
x b
u(x) := G(x, s)f (s)ds + G(x, s)f (s)ds.
a x
Aus Eigenschaft 2 der Greenschen Funktion folgt, dass u differenzierbar ist. Differenzieren
nach x ergibt
x b
u (x) := G (x, s)f (s)ds + G(x, x)f (x) + G (x, s)f (s)ds − G(x, x)f (x)
a x
und weiter
x b b
u (x) := G (x, s)f (s)ds + G (x, s)f (s)ds = G (x, s)f (s)ds.
a x a
Aus Eigenschaft 2 der Greenschen Funktion folgt, dass u differenzierbar ist. Nochmaliges
Differenzieren nach x ergibt
x b
u (x) := G (x, s)f (s)ds + G2 (x, x)f (x) + G (x, s)f (s)ds − G1 (x, x)f (x).
a x
Dabei wurde berücksichtigt, dass beim ersten Integral (x, s) ∈ D2 gilt, was auf den
Randterm G2 (x, x)f (x) führt. Beim zweiten Integral gilt (x, s) ∈ D1 und man erhält den
Randterm −G1 (x, x)f (x). Aus Eigenschaft 4 der Greenschen Funktion folgt
b
f (x)
u (x) := G (x, s)f (s)ds + .
a a2 (x)
Aus Eigenschaft 2 der Greenschen Funktion und der Stetigkeit von a2 und f folgt die
Stetigkeit von u . Einsetzen von u, u und u in die DG ergibt unter Verwendung von
LG(x, s) = 0
b
Lu = LG(x, s)f (s)ds + f (x) = f (x).
a
Daher ist u Lösung der inhomogenen DG. Aus Eigenschaft 3 der Greenschen Funktion
folgt b
Ri u = Ri G(x, s)f (s)ds = 0, i = 1, 2.
a
Daher löst u das RWP.
Beispiel 6.5 Gesucht ist die Greensche Funktion des RWP
Satz 6.10 Das RWP (6.6) habe für f = 0 nur die triviale Lösung. Dann
existiert genau eine Greensche Funktion G(x, s) des RWPs. Explizit ist G(x, s)
durch die Formel (6.7) gegeben.
mit unbekannten Funktionen c1 (s), c2 (s), s ∈ [a, b]. Stetigkeit von G an der Diagonalen
ergibt die Gleichung
c1 (x)u1 (x) = c2 (x)u2 (x).
Die Sprungbedingung ergibt
1
G1 (x, x) − G2 (x, x) = c1 (x)u1 (x) − c2 (x)u2 (x) = − .
a2 (x)
Das lineare Gleichungssystem
u1 −u2 c1 0
=
u1 −u2 c2 − a12
hat eine eindeutige Lösung c1 (x), c2 (x). Die Funktionen c1 , c2 sind stetig auf [a, b]. Da-
durch ist G eindeutig bestimmt und es gilt
⎧ u2 (s)u1 (x)
⎨ a2 (s)W (s) , a ≤ x ≤ s ≤ b
G(x, s) = (s)u2 (x) (6.7)
⎩ ua1 (s)W (s) , a ≤ s ≤ x ≤ b.
2
geschrieben, wobei diese Beziehung für keine echte Funktion δ gelten kann, daher der Na-
me verallgemeinerte Funktion. Die im Beweis von Satz 6.10 durchgeführten Rechnungen
zeigen, dass unter Verwendung eines auf Distributionen verallgemeinerten Ableitungsbe-
griffs gilt
LG(x, s) = δ(x − s).
Daher gilt
b b b
Lu(x) = L G(x, s)f (s)ds = LG(x, s)f (s)ds = δ(x − s)f (s)ds = f (x).
a a a
Man kann daher G(x, s) als die Lösung des RWP interpretieren, die einer im Punkt
x = s konzentrierten Inhomogenität f der Stärke eins entspricht. Dies entspricht in
Anwendungen z.B. einer nur im Punkt x = s wirkenden Punktkraft oder Punktladung
der Stärke eins. So kann die Greensche Funktion G(x, s) in Bsp.6.5 als die Auslenkung
einer eingespannten Saite unter einer im Punkt x = s wirkenden Punktkraft der Stärke
eins interpretiert werden kann. In der Darstellung der Lösung des RWP Lu = f
b
u(x) = G(x, s)f (s)ds
a
werden die Beiträge der Inhomogenität f and den Stellen x = s zur Lösung u(x) gemäß
dem Superpositionsprinzip “aufsummiert” bzw. integriert.
Solche Ideen und Methoden spielen in der Theorie der partiellen Differentialgleichungen
eine wichtige Rolle.
ϕ : R n → Rn , x → A
Definition 6.4 Sei x ∈ I = [a, b] und a0 , a1 , a2 ∈ C(I, R). Für einen linearen
Differentialoperator
Lu := a2 u + a1 u + a0 u
mit homogenen Randbedingungen R1 u = 0, R2 u = 0 versteht man unter dem
Eigenwertproblem (EWP) die Aufgabe λ ∈ C und eine Funktion u ∈ C 2 (I, C),
u
= 0 zu finden, sodass gilt
Lu = λu, R1 u = 0, R2 u = 0. (6.8)
Die Zahl λ nennt man Eigenwert von L, die Funktion u nennt man Eigen-
funktion zum Eigenwert λ.
Die Eigenwerte sind genau die Werte λ ∈ C, für die das RWP eine nichttriviale Lösung
hat. Mit u ist auch cu, c ∈ C, c
= 0 Eigenfunktion. Daher ist der Eigenraum
ein Unterraum von C 2 (I, C). Aus den Sätzen 6.2 und 6.3 erhält man unmittelbar die
folgende Charakterisierung von Eigenwerten.
Die Zahl λ ∈ C ist genau dann ein Eigenwert des EWP (6.8), wenn gilt
R1 u1 (., λ) R1 u2 (., λ)
det = 0. (6.9)
R2 u1 (., λ) R2 u2 (., λ)
Da u1 (x, λ), u2 (x, λ) analytisch von λ abhängen, sind die Eigenwerte die Nullstellen einer
analytischen Funktion. Die Gleichung 6.9 kann als Verallgemeinerung des charakteristi-
schen Polynoms für die Eigenwerte von Matrizen angesehen werden.
Die Eigenwerte und Eigenfunktionen enthalten nicht nur Information über den linearen
Differentialoperator L, sie liefern auch spezielle Lösungen von zeitabhängigen linearen
partiellen DG der Form
ut = Lu (6.10)
oder
utt = Lu. (6.11)
Eine Lösung ist eine Funktion u(x, t), t ∈ R und x ∈ I, für die alle in der DG auftretenden
Ableitungen existieren und die beim Einsetzen in die DG diese identisch erfüllt. Zusätzlich
sollen die Randbedingungen R1 u(., t) = 0 und R2 u(., t) = 0 erfüllt sein.
Um eindeutige Lösungen zu erhalten, die für t ≥ 0 definiert sein sollen, muss man
Anfangswerte vorgeben. Im Fall der Gleichung (6.10), die bezüglich t erster Ordnung
ist, kann man
u(x, 0) = f (x), x ∈ I (6.12)
vorgeben.
Für die Gleichung (6.11), die bezüglich t zweiter Ordnung ist, kann man
vorgeben.
Beispiel 6.6
Für Lu = uxx ist
ut = uxx (6.14)
die Wärmeleitungsgleichung , die die Diffusion der Temperatur in einem eindimen-
sionalen Medium beschreibt.
Für Lu = Δu := uxx + uyy ist
ut = Δu (6.15)
die Wärmeleitungsgleichung in zwei Raumdimensionen.
3
Beispiel 6.7
Für Lu = uxx ist
utt = uxx . (6.16)
die Wellengleichung. Die Wellengleichung mit Dirichlet Randbedingungen u(a, t) = 0
und u(b, t) = 0 beschreibt die Schwingungen einer bei x = a und x = b eingespannten
Saite.
auf
λeλt v(x) = eλt Lv(x)
und somit auf das EWP
Lv = λv.
Im zweiten Fall führt der Exponentialansatz
Separationsansatz
Für viele lineare partielle Differentialgleichungen erhält man EWP der Form (6.8) durch
einen sogenannten Separationsansatz. Für lineare partielle DG der Form (6.10) oder
(6.11) sucht man dabei Lösungen der Form
u(x, t) = w(t)v(x).
ẇv = wLv.
Die linke Seite dieser Gleichung ist eine Funktion von t während die rechte Seite der
Gleichung nur von x abhängt. Da x und t voneinander unabhängig variieren können,
kann diese Gleichung nur dann erfült sein, wenn eine Konstante λ ∈ C existiert mit
ẇ Lv
= λ, = λ.
w v
Daraus folgt
ẇ = λw, Lv = λv.
Daher gilt w(t) = eλt und v(x) ist Eigenfunktion von L zum Eigenwert λ, wobei w und
v jeweils noch mit einer Konstante multipliziert werden können.
ẅv = wLv.
d.h. die Lösungen beschreiben zeitliche Schwingungen eines festen Profiles v(x).
Superpositionsprinzip
Für die linearen partiellen DG (6.10) und (6.11) mit homogenen Randbedingungen gilt:
u = c1 u1 + · · · + cn un , ci ∈ R (C), i = 1, . . . , n
eine Lösung.
3. Seien u1 , u2 , u3 , . . . abzählbar unendlich viele Lösungen. Dann ist
∞
u(x, t) := ck uk (x, t) (6.20)
k=1
Daher kann man versuchen, allgemeinere Lösungen solcher partieller DG durch Rei-
henentwicklungen der Form (6.20) zu erhalten. Insbesondere kann man versuchen, die
Konstanten ck , k ∈ N so zu bestimmen, dass die Funktion (6.20) die Anfangsbedingun-
gen (6.12) bzw. (6.13) erfüllt.
Beispiel 6.8 Wir betrachten die Wärmeleitungsgleichung
mit mit den Randbedingungen u(0) = 0 und u(π) = 0. Der Anfangswert von u ist
vorgegeben, d.h. es soll gelten u(x, 0) = f (x) mit einer gegeben Funktion f : [0, π] → R.
Zunächst untersuchen wir das EWP
p(μ) = μ2 − λ.
3. Fall: λ < 0, d.h. λ = −ω 2 mit ω > 0. Die Nullstellen des charakteristischen Polynoms
sind μ1 = ωi, μ2 = −ωi. Daher ist u1 = cos(ωx), u2 = sin(ωx) ein Fundamentalsystem.
Wegen
R 1 u 1 R1 u 2 1 0
det = det = sin(πω)
R2 u 1 R2 u 2 cos(πω) sin(πω)
existiert eine nichttriviale Lösung des RWP genau für ω = k, k ∈ N.
Daher existieren abzählbar unendlich viele Eigenwerte λk = −k 2 , k ∈ N, die entspre-
chenden Eigenfunktionen sind uk = sin kx.
Aus der Theorie der Fourierreihen ist bekannt:
2. Eine Funktion f ∈ L2 [0, π] - genauer ihre ungerade Fortsetzung auf [−π, π] - kann
in eine Sinus-Fourierreihe ∞
f (x) = ck sin kx
k=1
entwickelt werden, wobei die Fourierkoeffizienten ck durch
π
2
ck = f (x) sin kxdx
π 0
gegeben sind. Die Fourierreihe konvergiert in L2 gegen f .
3. Für f ∈ C([0, π], R) mit f (0) = 0, f (π) = 0 und stückweise stetiger Ableitung f
konvergiert die Fourierreihe punktweise gegen f (x). Die Reihe konvergiert absolut
und gleichmäßig auf [0, π].
Für die allgemeine Lösung der Wärmeleitungsgleichung erhält man daher die Reihenent-
wicklung
∞
2
u(x, t) = ck e−k t sin kx. (6.21)
k=1
Die Anfangsbedingung u(x, 0) = f ist genau dann erfüllt, wenn die Koeffizienten ck die
Fourierkoeffizienten von f sind. Die Lösung (6.21) ist zunächst nur eine formale Lösung,
d.h. sie löst die DG, wenn man die Summation mit den Ableitungen vertauscht. Für t > 0
2
klingen die Terme ck e−k t für k → ∞ sehr schnell ab. Daher kann man zeigen, dass gilt i)
u ∈ C ∞ ([0, π] × (0, ∞), R) für f ∈ L2 [0, π], ii) u ist die Lösung des Anfangswertproblems
für die Wärmeleitungsgleichung.
Aus der Darstellung (6.21) folgt auch, dass gilt limt→∞ u(x, t) = 0. Dabei klingen die ein-
2
zelnen Fourieranteile der Lösung wie e−k t ab. Daher klingen die hochfrequenten Anteile
der Lösung extrem schnell ab. 3
Beispiel 6.9 In zwei Raumdimensionen ist der Laplaceoperator durch
Lu := uxx + uyy
Lu = λu
nichttriviale Lösungen u(x, y) hat. Die Funktion u(x, y) heißt dann Eigenfunktion zum
Eigenwert λ.
Der Separationsansatz
u(x, y) = v(x)w(y)
führt auf
vxx w + vwyy = λvw.
Division durch vw ergibt
vxx wyy
+ = λ.
v w
Diese Gleichung kann nur erfüllt sein, wenn gilt
mit s, t ∈ R.
Falls die Gleichung auf einem Quadrat B := [0, π] × [0, π] mit homogenen Dirichlet
Randbedingungen
λk,l := −(k 2 + l2 ), k, l ∈ N
Separationsansätze bei Randwertproblemen für partielle DG führen meist auf EWP mit
zusätzlicher Struktur, nämlich auf die im folgenden beschriebenen Sturm-Liouville Ei-
genwertprobleme.
Definition 6.5 Sei I = [a, b], p ∈ C 1 (I, R) und q, r ∈ C(I, R). Unter einem
Sturm-Liouville Eigenwertproblem (SLEWP) versteht man das Eigenwert-
problem
Lu := −(pu ) + qu = λru. (6.22)
Im Fall p(x) > 0, r(x) > 0 für x ∈ I ist das SLEWP regulär und man stellt die
Randbedingungen
R1 u := α1 u(a) + β1 p(a)u (a) = 0, α12 + β12 = 1
R2 u := α2 u(b) + β1 p(b)u (b) = 0, α22 + β22 = 1.
Falls das Intervall unbeschränkt ist oder eine der Funktionen p, r Nullstellen hat
spricht man von einem singulären SLEWP.
−Δu = λu
−wϕϕ = cw.
−r(rvr )r + cv = λr2 v.
Wegen der der geforderten 2π-Periodizität von w hat diese DG für w genau die Lösungen
mit p(r) = r, q(r) = k 2 /r und der Gewichtsfunktion r̃(r) = r. Bei r = 0 ist dieses
SLEWP singulär, da p(0) = 0 gilt und q einen Pol bei r = 0 hat. 3
Ausführen der Ableitung in Gleichung (6.23) und Multiplikation mit r ergibt die DG
r2 v + rv + (λr2 − k 2 )v = 0
x2 y + xy + (x2 − k 2 )y = 0, k ∈ N. (6.24)
Ihre Lösungen sind die Besselfunktionen, ein wichtiges Beispiel für die sogenannten
speziellen Funktionen der mathematischen Physik. Weitere durch Separations-
ansätze gewonnene DG, die wichtige spezielle Funktionen definieren, sind:
1. Legendresche Differentialgleichung
2. Laguerresche Differentialgleichung
xy + (1 − x)y + ny = 0, n ∈ N0 , (6.26)
3. Hermitesche Differentialgleichung
y − 2xy + ny = 0, n ∈ N0 . (6.27)
arbeiten, da die Eigenwerte und Eigenfunktionen zunächst auch komplex sein könnten.
Erst aus der Symmetrie wird folgen, dass die Eigenwerte und Eigenfunktionen reell sind.
Da p, q reell sind, gilt
Für Dirichlet oder Neumann RB ist dies offensichtlich. Für gemischte RB gilt bei x = a
mit (α1 , β1 )
= (0, 0). Aus
α1 α1
p(a)u (a) = − u(a), p(a)v (a) = − v(a)
β1 β1
folgt durch Einsetzen das Verschwinden des Randterms bei x = a (und analog bei x = b).
Damit ist der Satz bewiesen.
Die Wronski Determinante von zwei Lösungen einer Sturm-Liouville DG hat folgende
spezielle Eigenschaft.
Wegen ru, u
= 0 folgt λ = λ̄, d.h. λ ∈ R.
Angenommen der EW λ ist nicht einfach. Dann gibt es zwei l.u. Eigenfunktionen u, v
mit
Lu = λru, Lv = λrv,
d.h. u, v sind l.u. Lösungen der homogenen linearen DG zweiter Ordnung.
p(x)w(x) = const.
und (α1 , β1 )
= (0, 0) folgt p(a)w(a) = 0. Wegen p(a)
= 0 folgt w(a) = 0. Aus w(a) = 0
folgt w(x) = 0 für x ∈ I und auch, dass u und v linear abhängig sind. Widerspruch.
ad 2) Sei u eine komplexwertige Eigenfunktion zum EW λ ∈ R. Da p, q, r reell sind
sind dann u1 := Re u und u2 := Im u zwei reelle Eigenfunktionen. Aus 1) folgt, dass
diese beiden Eigenfunktionen linear abhängig sein müssen, d.h. es existiert s ∈ R mit
u2 = su1 . Daraus folgt
u = u1 + isu1 = (1 + is)u1 ,
d.h. u ist ein konstantes Vielfaches der reellen Eigenfunktion u1 . Daher sind Eigenfunk-
tionen - bis auf Multiplikation mit einer komplexen Zahl - reell.
Beweis: Die Voraussetzung, dass λ = 0 kein Eigenwert von L ist, ist äquivalent zu
der Bedingung, dass das homogene RWP Lu = 0 nur die triviale Lösung hat. Daher
sind die Voraussetzungen von Satz 6.10 erfüllt. Die Darstellung (6.7) mit a2 = −p und
Lemma 6.1 ergibt die behauptete Formel für G(x, s), aus der auch die Symmetrie folgt.
Anmerkung: Die Symmetrie von G folgt allgemeiner aus der Symmetrie von L, da
G(x, s) der Integralkern der Inversen von L ist. Dies sieht man folgendermaßen. Es seien
u und v Lösungen der RWP
Lu = f und Lv = g
Die Gleichheit der iterierten Integrale mit den zweidimensionalen Integralen gilt wegen
der Stetigkeit alle auftretenden Funktionen. Aus
folgt b b
b b
G(x, s)f (x)g(s)d(x, s) = G(s, x)f (x)g(s)d(x, s).
a a a a
Da die Funktionen f und g beliebig waren, muss gelten
Die folgenden zwei Sätze enthalten die wichtigsten Aussagen über SLEWP.
lim λn = ∞
n→∞
und Eigenfunktionen un , n ∈ N0 .
2. Die Eigenwerte sind einfach.
3. Die Eigenfunktion un , n ∈ N0 hat n Nullstellen in (a, b). Zwischen zwei
aufeinanderfolgenden Nullstellen von un liegt eine Nullstelle von un+1 .
Aus dem Satz folgt auch, dass i) die Eigenwerte nach unten beschränkt sind und ii) nur
endlich viele Eigenwerte negativ sein können. Falls alle Eigenwerte positiv sind, sagt man
der Operator L ist positiv (definit), was äquivalent zu Lu, u > 0 ist.
Die Eigenfunktionen un , n ∈ N0 können bezüglich des mit der Funktion r(x) gewichteten
L2 -Skalarprodukts normiert werden, sodass gilt
b
r(x)u2n (x)dx = 1.
a
Ganz analog zu den Sinus-Fourierreihen in Beispiel 6.8 bilden die Eigenfunktionen eines
SLEWP ein vollständiges Orthogonalsystem.
Anmerkung: 1) Für singuläre SLWEP gelten ganz ähnliche Resultate. Das Spektrum
von L kann dann aber auch kontinuierliche Anteile besitzen. Die Entwicklung nach Ei-
genfunktionen enthält dann Integralanteile.
2) Die mit r(x) > 0 gewichtete L2 -Norm ist äquivalent zur üblichen (ungewichteten)
L2 -Norm. Daher bilden die Eigenfunktionen auch bezüglich der üblichen L2 -Norm eine
Basis des L2 .
Für diese beiden Sätze gibt es verschiedene Beweismethoden. Hier wird der Beweis von
Satz 6.15 unter Verwendung von Methoden der gewöhnlichen DG, die in der Vorlesung
entwickelt wurden, geführt. Der Beweis von Satz 6.16 stützt sich auf den Spektralsatz
für kompakte selbstadjungierte Operatoren. Dabei wird der Spektralsatz allerdings nicht
auf L sondern auf L−1 angewandt. Dabei wird L−1 unter Verwendung der Greenschen
Funktion von L als Integraloperator auf L2 [a, b] dargestellt. Dieser Zugang hat den Vorteil
der größeren Allgemeinheit und der Erweiterbarkeit auf Eigenwertprobleme für partielle
DG. Andererseits liefert der hier geführte Beweis von Satz 6.15 mehr Details, z.B. über
die Nullstellen der Eigenfunktionen und das asymptotische Verhalten der Eigenwerte und
Eigenfunktionen für λ → ∞.
Beweis: (von Satz 6.15) Untersucht wird das reguläre SLEWP
Lu := −(pu ) + qu = λru. (6.29)
mit den Randbedingungen
R1 u = α1 u(a) + β1 p(a)u (a) = 0, α12 + β12 = 1
R2 u = α2 u(b) + β1 p(b)u (b) = 0, α22 + β22 = 1.
Diese skalare DG 2. Ordnung wird als lineares System 1. Ordnung in den Variablen (u, v)
mit v := pu geschrieben. Dies ergibt
1
u = p(x) v
(6.30)
v = (q(x) − λr(x))u.
Die Randbedingungen lauten
u(a) α1 u(b) α2
= 0, = 0.
v(a) β1 v(b) β2
Im weiteren wird (u, v) in Polarkoordinaten (ρ, φ) dargestellt. Man setzt
u = ρ sin φ, v = ρ cos φ.
Diese (etwas unübliche) Form der Polarkoordinaten hat den (kleinen) Vorteil, dass φ sich
als eine wachsende Funktion von x erweisen wird.
Das folgende Argument zeigt, dass die Variable φ die wesentliche Information enthält.
Mit (u(x), v(x)) ist jedes Vielfache (su(x), sv(x)), s ∈ R Lösung der linearen DG (6.30).
Daher entspricht jeder Lösung (u, v) an jeder Stelle x ∈ [a, b] ein eindimensionaler Un-
terraum U (x) ⊂ R2 , der durch seine “Richtung”, d.h. durch φ eindeutig bestimmt ist.
Der Randbedingung R1 = 0 entspricht dabei der Raum U (a) orthogonal zu (α1 , β1 ),
U (b) ist orthogonal zu (α2 , β2 ). Für den Winkel φ ergibt dies die Randbedingung
φ(a) = ϕ1 , φ(b) = ϕ2 mod(π), (6.31)
Lemma 6.2 Eine Zahl λ ist Eigenwert genau dann, wenn gilt
φ(b, λ) = ϕ2 + kπ, k ∈ Z.