Klausurvorbereitung - Bitte um Hilfe

Hallo,

ich bereite mich gerade auf eine Analysis- Klausur vor. Die erste Frage lautet:
Hat die Folge a_k = (exp(-k), 1/k, 1)^T, wobei T = Transponiert meint, einen
Grenzwert für k -> unendlich? Wenn Ja, welchen?

Meine Vermutung: Man betrachtet das Komponentenweiße und entscheidet dann:
exp(-k) -> 0 für k -> unendlich, 1/k -> 0 für k gegen unendlich, 1 bleibt
invariant für k -> unendlich. SOmit sollte der Grenzwert wie folgt lauten:
(0, 0, 1)^T. Richtig? Es gibt doch bestimmt einen Satz, der einer mehr-
komponentigen Folge einen komponentenweisen Grenzwert zuordnet, oder?

Gruß.

Meine Vermutung: Man betrachtet das komponentenweise [Schreibung korrigiert] und
entscheidet dann:
exp(-k) -> 0 für k -> unendlich, 1/k -> 0 für k gegen
unendlich, 1 bleibt
invariant für k -> unendlich. SOmit sollte der Grenzwert wie
folgt lauten:
(0, 0, 1)^T. Richtig?

Ja, das stimmt so.

Es gibt doch bestimmt einen Satz, der
einer mehr-
komponentigen Folge einen komponentenweisen Grenzwert
zuordnet, oder?

Ja, das auch.
Einen bestimmten Namen hat er allerdings nicht, zumindest ist mir keiner bekannt. Der Satz dürfte aber auch bei euch im Skript stehen.

mfg,
Che Netzer

Merci! Nächste Aufgabe:

Bestimmen Sie die partiellen Ableitungen von
f(x) = f(x_1, x_2) = (sin(cos(x_1)) / (x_1 * x_2),
x Element R², x_1 und x_2 ungleich 0,
in den Punkten, in denen sie exisitieren.

(d / dx_1) f(x_1, x_2) = [(- cos(cos(x_1))sin(x_1)) - ((sin(cos(x_1)) / x_1)] / (x_1 * x_2)

(d / dx_2) f(x_1, x_2) = [(-sin(cos(x_1))) * x_1] / (x_1 * x_2)²

Richtig? Angewendet wurde die Quotientenregel und der Fakt, dass (d /dx_i)
nur auf x_i wirkt und x_j wie eine Konstante zu behandeln ist.

(d / dx_1) f(x_1, x_2) = [(- cos(cos(x_1))sin(x_1)) -
((sin(cos(x_1)) / x_1)] / (x_1 * x_2)

(d / dx_2) f(x_1, x_2) = [(-sin(cos(x_1))) * x_1] / (x_1 *
x_2)²

Richtig? Angewendet wurde die Quotientenregel und der Fakt,
dass (d /dx_i)
nur auf x_i wirkt und x_j wie eine Konstante zu behandeln ist.

Das stimmt so weit, aber
\frac{\partial f}{\partial_{x_2}}(x)=-\frac{\sin(\cos(x_1))}{x_1x_2^2}
, da x_1 im Nenner nicht mitquadriert wird.
f(x)=\frac{\sin(\cos(x_1))}{x_1}\frac1{x_2}

mfg,
Che Netzer

Danke, aber wieso wird x_1 im Nenner nicht mitquadriert? In der
Quotientenregel heißt es doch v(x)² im Nenner, und hier ist v(x) =
v(x_2) = c*x_2, wobei c hier = x_1 ist. v(x_2)² = (c * x_2)² = (x_1 *
x_2)² = x_1² * x_2². OK, ich habe übersehen, dass ich das Quadrat an
x_1² im Nenner mit x_1 ausm Zähler kürzen kann, meinst Du das damit?

OK, ich habe übersehen, dass ich das
Quadrat an
x_1² im Nenner mit x_1 ausm Zähler kürzen kann, meinst Du das
damit?

Das x_1 im Zähler habe ich wiederum übersehen :smile:
Alles wieder in Ordnung

Aber zur Quotientenregel würde ich bei der zweiten partiellen Ableitung nicht raten.
sin(cos(x_2))/x_2 ist ja ein konstanter Faktor, den lässt man einfach stehen und leitet dann noch 1/x_1 ab.

mfg,
Che Netzer

Wir kommen ja beide auf das selbe Ergebnis :wink: Aber Du hast natürlich Recht,
ich werde es nachher noch einmal mit Deiner Methode rechnen. Was ist mit dem
Passus "in den Punkten, in denen sie existieren gemeint? Was gilt da zu beachten?

Nächste Aufgabe: Bestimmen Sie das Taylor- Polynom zu f(x) = f(x_1, x_2) = x_1*sin(x_2),
x Element von R², bei x = 0 bis zur Ordnung 2 (d.h., das Restglied besteht aus dritten Ableitungen).

Da brauche ich wirklich Hilfe bzw. Ansätze! Ich weiß, dass ich zuerst einmal ein paar
Ableitungen aufstellen muss (aber welche?) und dann noch die Werte dieser für x = 0 berechnen muss.

Wir kommen ja beide auf das selbe Ergebnis :wink: Aber Du hast
natürlich Recht,
ich werde es nachher noch einmal mit Deiner Methode rechnen.
Was ist mit dem
Passus "in den Punkten, in denen sie existieren gemeint? Was
gilt da zu beachten?

Das ist nichts weiter als ein Standardanhängsel.
Man sagt „Berechnen Sie die Ableitung in allen möglichen Punkten“, um „Berechnen Sie die Ableitung“ zu vermeiden. Formalitäts- bzw. Definitionssache…
Aufpassen muss man da nur, wenn es tatsächlich irgendwo Probleme gibt (Meistens ist nur am Nullpunkt (oder auch auf den Achsen) etwas interessantes los…).

Nächste Aufgabe: Bestimmen Sie das Taylor- Polynom zu f(x) =
f(x_1, x_2) = x_1*sin(x_2),
x Element von R², bei x = 0 bis zur Ordnung 2 (d.h., das
Restglied besteht aus dritten Ableitungen).

Da brauche ich wirklich Hilfe bzw. Ansätze! Ich weiß, dass ich
zuerst einmal ein paar
Ableitungen aufstellen muss (aber welche?) und dann noch die
Werte dieser für x = 0 berechnen muss.

Du brauchst natürlich die erste und die zweite Ableitung, wie im reellen Fall. (die erste ist ein Zeilenvektor, die zweite eine quadratische Matrix.
Für das Taylorpolynom zweiter Ordnung hast du dann die Formel
f(x) = f(0) + f’(0)x + 1/2 f’’(0)(x,x) + R(x)
Und f(0) ist hier auch noch 0.

Ich rechne das mal an f(x)=sin(x_1)e^(x_2) vor…
f(0)=0
f’(x) = (e^(x_2), sin(x_1))
f’’(x) = \begin{pmatrix}0&e^{x_2}\\cos(x_1)&0\end{pmatrix}

In der Formel:
f(x) = 0 + x_1e^{x_2}+x_2\sin(x_1)+\frac12\begin{pmatrix}x_2e^{x_2}&x_1\sin(x_1)\end{pmatrix}x
f(x) = x_1e^{x_2}+x_2\sin(x_1)+\frac12x_1x_2(e^{x_2}+\sin(x_1)
Ggf. weiter vereinfacht und natürlich mit Restglied.
Ob die Rechnung so stimmt, kann ich aber nicht garantieren :smile:

Wenn du dazu eine einfache Übungsaufgabe möchtest, nimm dir eine Funktion zweiten Grades (x²+y²+xy+x+y mit Konstanten). Dabei müsste das Taylorpolynom zweiter Ordnung der Funktion entsprechen.

mfg,
Che Netzer

Vorab vielen Dank für Deine Hilfe!

Das ist nichts weiter als ein Standardanhängsel.
Man sagt „Berechnen Sie die Ableitung in allen möglichen
Punkten“, um „Berechnen Sie die Ableitung“ zu vermeiden.
Formalitäts- bzw. Definitionssache…
Aufpassen muss man da nur, wenn es tatsächlich irgendwo
Probleme gibt (Meistens ist nur am Nullpunkt (oder auch auf
den Achsen) etwas interessantes los…).

Das dachte ich mir bereits, vielen Dank!

Du brauchst natürlich die erste und die zweite Ableitung, wie
im reellen Fall. (die erste ist ein Zeilenvektor, die zweite
eine quadratische Matrix.
Für das Taylorpolynom zweiter Ordnung hast du dann die Formel
f(x) = f(0) + f’(0)x + 1/2 f’’(0)(x,x) + R(x)
Und f(0) ist hier auch noch 0.

Ich rechne das mal an f(x)=sin(x_1)e^(x_2) vor…
f(0)=0
f’(x) = (e^(x_2), sin(x_1))
f’’(x) = \begin{pmatrix}0&e^{x_2}\\cos(x_1)&0\end{pmatrix}

In der Formel:
f(x) = 0 +
x_1e^{x_2}+x_2\sin(x_1)+\frac12\begin{pmatrix}x_2e^{x_2}&x_1\si
n(x_1)\end{pmatrix}x
f(x) = x_1e^{x_2}+x_2\sin(x_1)+\frac12x_1x_2(e^{x_2}+\sin(x_1)
Ggf. weiter vereinfacht und natürlich mit Restglied.
Ob die Rechnung so stimmt, kann ich aber nicht garantieren :smile:

Wenn du dazu eine einfache Übungsaufgabe möchtest, nimm dir
eine Funktion zweiten Grades (x²+y²+xy+x+y mit Konstanten).
Dabei müsste das Taylorpolynom zweiter Ordnung der Funktion
entsprechen.

Es ist mir nicht wichtig, ob das jetzt richtig gerechnet wurde.
Ich muss den Ablauf verstehen. Aber leider tue ich das immer noch
nicht: dass f(x = 0) = f(x_1 = 0, x_2 = 0) = 0 ist, ist klar.
Wie berechnest Du dann f’? Der erste Eintrag ist nach d/dx_1,
der zweite nach d/dx_2? Nicht wirklich, oder? Denn dabei würde
ich auf (fur d/dx_1) cos(x_1)*exp(x_2), (für d/dx_2) auf
sin(x_1)*exp(x_2) kommen. Wenn ich das nicht verstehe, brauche ich
nach dem Rest gar nicht erst fragen :frowning:

dass f(x = 0) = f(x_1 = 0, x_2 = 0) = 0 ist, ist klar.
Wie berechnest Du dann f’?

Die Jacobi-Matrix müsstest du eigentlich schon kennen, oder? Die Hesse-Matrix für f’’ vermutlich auch, wenn ihr schon Taylor-Polynome habt.

Der erste Eintrag ist nach d/dx_1,
der zweite nach d/dx_2? Nicht wirklich, oder?

Doch :smile:

Denn dabei würde
ich auf (fur d/dx_1) cos(x_1)*exp(x_2), (für d/dx_2) auf
sin(x_1)*exp(x_2) kommen.

Ich sagte doch, ich kann für nichts garantieren :wink: Peinlicher Fehler…
Aber wenigstens beim zweiten Ableiten gab es keine neuen Fehler…

mfg,
Che Netzer

Die Jacobi-Matrix müsstest du eigentlich schon kennen, oder?
Die Hesse-Matrix für f’’ vermutlich auch, wenn ihr schon
Taylor-Polynome habt.

SOLLTE mir ein Begriff sein, ja.

Ich sagte doch, ich kann für nichts garantieren :wink: Peinlicher
Fehler…

Passt schon. Die Hauptsache ist, dass ichs verstanen habe.

Aber wenigstens beim zweiten Ableiten gab es keine neuen
Fehler…

Gilt hier: d²/dx_1dx_2 = d²/dx_2dx_1? Dann komme ich auf:

d²/d_x1²: -sin(x_1)*exp(x_2)
d²/dx_1dx_2: cos(x_1)*exp(x_2)
d²/dx_2dx_1: cos(x_1)*exp(x_2)
d²/dx_2²: cos(x_1)*exp(x_2)

???

Jetzt alles noch bei (0,0) auswerten??? Und dann? Da verliere
ich den Überblick …

Die Jacobi-Matrix müsstest du eigentlich schon kennen, oder?
Die Hesse-Matrix für f’’ vermutlich auch, wenn ihr schon
Taylor-Polynome habt.

SOLLTE mir ein Begriff sein, ja.

Ist es aber nicht?

Aber wenigstens beim zweiten Ableiten gab es keine neuen
Fehler…

Gilt hier: d²/dx_1dx_2 = d²/dx_2dx_1?

In der Regel schon. Dürfte auch bei fast allen Funktionen der Fall sein, die dir unterkommen, außer sie ist für das Gegenteil erdacht.

Dann komme ich auf:

d²/d_x1²: -sin(x_1)*exp(x_2)
d²/dx_1dx_2: cos(x_1)*exp(x_2)
d²/dx_2dx_1: cos(x_1)*exp(x_2)
d²/dx_2²: cos(x_1)*exp(x_2)

Ganz unten müsste der Sinus statt Cosinus stehen, sonst stimmt das alles.

Jetzt alles noch bei (0,0) auswerten??? Und dann? Da verliere
ich den Überblick …

Ja, das brauchst du jetzt an der Stelle 0.
01
10
(klappt hier mit Latex anscheinend nicht) ist dann die Hesse-Matrix im Nullpunkt (habe ich bei meiner Rechnung auch wunderbar ignoriert…). Dazu multiplizierst du dann zweimal x bzw. (x-0).
Das ist dann f’’(0)(x,x)
Was übrigens das gleiche ist wie \left

Naja, du musst eigentlich nur wissen, wie man f’(x) und f’’(x) berechnet und das dann in die Formel einsetzen:
f(x) = f§+f’§(x-p)+\left+R(x)

(Meine Rechnung vorhin war absoluter Unsinn…)

mfg,
Che Netzer

Ist es aber nicht?

Doch, eigentlich schon. Das sind einfach Matrizen
mit den Ableitungen in den Elementen.

In der Regel schon. Dürfte auch bei fast allen Funktionen der
Fall sein, die dir unterkommen, außer sie ist für das
Gegenteil erdacht.

Wie erkenne ich das? Wenn Zeit ist, kann ich ja
eigentlich auch einfach beide Ableitungen berechnen.

Dann komme ich auf:

Ganz unten müsste der Sinus statt Cosinus stehen, sonst stimmt
das alles.

Stimmt. Noch einmal zur Vollständigkeit:

d²/d_x1²: -sin(x_1)*exp(x_2)
d²/dx_1dx_2: cos(x_1)*exp(x_2)
d²/dx_2dx_1: cos(x_1)*exp(x_2)
d²/dx_2²: sin(x_1)*exp(x_2)

Ich muss mir jetzt nur noch anschauen, welcher
Eintrag an welcher Stelle von H stehen muss.

Ja, das brauchst du jetzt an der Stelle 0.
01
10
(klappt hier mit Latex anscheinend nicht) ist dann die
Hesse-Matrix im Nullpunkt.

H im Nullpunkt (x_1 = 0, x_2 = 0) ist also die Matrix:
01
10
Warum??? Sry, wahrscheinlich ist es sehr einfach, ich
stelle mich nur etwas dämlich an :frowning:

Dazu multiplizierst du dann zweimal x
bzw. (x-0).
Das ist dann f’’(0)(x,x)

???

Was übrigens das gleiche ist wie \left

Ein Skalarprodukt?!

Naja, du musst eigentlich nur wissen, wie man f’(x) und f’’(x)
berechnet

Ja, eben, das bereitet mir notationstechnisch Schwierig-
keiten im mehrdimensionalen Fall :frowning:

… und das dann in die Formel einsetzen:
f(x) = f§+f’§(x-p)+\left+R(x)

p stellt hier den Entwicklungspunkt dar, oder?

Ist es aber nicht?

Doch, eigentlich schon. Das sind einfach Matrizen
mit den Ableitungen in den Elementen.

Wieso dann das „SOLLTE“?

In der Regel schon. Dürfte auch bei fast allen Funktionen der
Fall sein, die dir unterkommen, außer sie ist für das
Gegenteil erdacht.

Wie erkenne ich das? Wenn Zeit ist, kann ich ja
eigentlich auch einfach beide Ableitungen berechnen.

Dazu brauchst du nur die Stetigkeit: http://de.wikipedia.org/wiki/Satz_von_Schwarz
(und die hat man fast immer)

d²/d_x1²: -sin(x_1)*exp(x_2)
d²/dx_1dx_2: cos(x_1)*exp(x_2)
d²/dx_2dx_1: cos(x_1)*exp(x_2)
d²/dx_2²: sin(x_1)*exp(x_2)

Ich muss mir jetzt nur noch anschauen, welcher
Eintrag an welcher Stelle von H stehen muss.

Das kann man sich selbst erschließen. Man leitet einfach den Gradienten (transponierte Jacobi-Matrix) normal ab.

Ja, das brauchst du jetzt an der Stelle 0.
01
10
(klappt hier mit Latex anscheinend nicht) ist dann die
Hesse-Matrix im Nullpunkt.

H im Nullpunkt (x_1 = 0, x_2 = 0) ist also die Matrix:
01
10
Warum??? Sry, wahrscheinlich ist es sehr einfach, ich
stelle mich nur etwas dämlich an :frowning:

Einfach einsetzen :wink:
sin(0)e^0 = 0*1 = 0
cos(0)e^0 = 1*1 = 1
-sin(0)e^0 = -0*1 = 0

Dazu multiplizierst du dann zweimal x
bzw. (x-0).
Das ist dann f’’(0)(x,x)

???

f’’(0)(x,x) = x^T f’’(0) x

Was übrigens das gleiche ist wie \left

Ein Skalarprodukt?!

Ja. = **= a^Tb = b^Ta (klappt mit Vektoren zumindest)

Naja, du musst eigentlich nur wissen, wie man f’(x) und f’’(x)
berechnet

Ja, eben, das bereitet mir notationstechnisch Schwierig-
keiten im mehrdimensionalen Fall :frowning:

Für Funktionen von R^n nach R ist die Jacobi-Matrix eine 1xn-Matrix, der Gradient also in R^n enthalten. Den kann man dann ableiten und hat eine Hesse-Matrix der Größe nxn. Vielleicht solltest du zur Übung noch ein paar Funktionen ein- bis zweimal ableiten.

… und das dann in die Formel einsetzen:
f(x) = f§+f’§(x-p)+\left+R(x)

p stellt hier den Entwicklungspunkt dar, oder?

Ja, genau.

mfg,
Che Netzer**

Wieso dann das „SOLLTE“?

Weil ich, wie man sieht, praktisch nichts damit anfangen kann ^^

Dazu brauchst du nur die Stetigkeit:
http://de.wikipedia.org/wiki/Satz_von_Schwarz
(und die hat man fast immer)

Stimmt, den Satz müssten wir soweit auch bei der Diff.R. im R^n gehabt haben.

Einfach einsetzen :wink:

d²/d_x1²: -sin(x_1)*exp(x_2) ausgewertet an (0,0): 0*1 = 0
d²/dx_1dx_2: cos(x_1)*exp(x_2) ausgewertet an (0,0): 1*1 = 1
d²/dx_1dx_2: cos(x_1)*exp(x_2) ausgewertet an (0,0): 1*1 = 1
d²/dx_2²: sin(x_1)*exp(x_2) ausgewertet an (0,0): 0*1 = 0

Dazu multiplizierst du dann zweimal x bzw. (x-0).

Boah, jetzt hat es erst Klick gemacht. Wir hätten vielleicht vin anfang an den
Entwicklungspunkt p = (p_1, p_2) nennen sollen. Jetzt verstehe ich, wieso Du
auch „zweimal mit x bzw. (x-0)“ geschrieben hast ^^

f’’(x_1 = p_1 = 0, x_2 = p_2 = 0)*(x_1 - p_1 = 0, x_2 - p_2 = 0) ???

Und da f’’(x_1 = p_1 = 0, x_2 = p_2 = 0) H ausgewertet an p_1 = 0, p_2 = 0 ist
das eine Matrixmultiplikation.

Für Funktionen von R^n nach R ist die Jacobi-Matrix eine
1xn-Matrix, der Gradient also in R^n enthalten. Den kann man
dann ableiten und hat eine Hesse-Matrix der Größe nxn.
Vielleicht solltest du zur Übung noch ein paar Funktionen ein-
bis zweimal ableiten.

Das sind mir wieder zuviele Infos. Ich schau, dass ich nachher die Aufgabe der Probeklausur
rechne, und poste dann die Ergebnisse bzw. die Schritte, die ich alleine packe. Tut mir
Leid, ich brauche das so „kleinkarriert“. Vielen Dank für Deine Geduld!!

Dazu multiplizierst du dann zweimal x bzw. (x-0).

Boah, jetzt hat es erst Klick gemacht. Wir hätten vielleicht
vin anfang an den
Entwicklungspunkt p = (p_1, p_2) nennen sollen. Jetzt verstehe
ich, wieso Du
auch „zweimal mit x bzw. (x-0)“ geschrieben hast ^^

f’’(x_1 = p_1 = 0, x_2 = p_2 = 0)*(x_1 - p_1 = 0, x_2 - p_2 =
0) ???

Nicht ganz:
f’’§(x-p,x-p) soll es sein. Das entspricht (x-p)^Tf’’§(x-p). Den Teil f’’§(x-p) hast du oben aufzuschreiben versucht.
Allerdings ist x nicht gleich p; x ist variabel, p der Entwicklungspunkt. Daher ist nur gegeben, dass p=(p_1,p_2)^T = (0,0)^T und x = (x_1,x_2)^T.
Daher also:
f’’(p_1=0,p_2=0)*(x_1-p_1=x_1,x_2-p_2=x_2)
Wenn x=p wäre, dann wäre dein zweiter Faktor 0, und das Taylorpolynom etwas sinnfrei :smile:

Und da f’’(x_1 = p_1 = 0, x_2 = p_2 = 0) H ausgewertet an p_1
= 0, p_2 = 0 ist
das eine Matrixmultiplikation.

Genau, nur dass wieder nicht x=p gesetzt wird.
f’’§ ist eine 2x2-Matrix (bzw. nxn), (x-p) eine nx1-Matrix, (x-p)^T also eine 1xn-Matrix.
Daher ist f’’(x-p,x-p) = (x-p)^T * f’’§ * (x-p) skalar und passt (von der Dimension her) zu f(x).

Das sind mir wieder zuviele Infos. Ich schau, dass ich nachher
die Aufgabe der Probeklausur
rechne, und poste dann die Ergebnisse bzw. die Schritte, die
ich alleine packe. Tut mir
Leid, ich brauche das so „kleinkarriert“. Vielen Dank für
Deine Geduld!!

Ich schätze, die Taylor-Formel ist hier nicht das Problem, eher der Umgang mit den Ableitungen und deren Darstellungen.

mfg,
Che Netzer

Nicht ganz:
f’’§(x-p,x-p) soll es sein. Das entspricht
(x-p)^Tf’’§(x-p). Den Teil f’’§(x-p) hast du oben
aufzuschreiben versucht.
Allerdings ist x nicht gleich p; x ist variabel, p der
Entwicklungspunkt. Daher ist nur gegeben, dass p=(p_1,p_2)^T =
(0,0)^T und x = (x_1,x_2)^T.
Daher also:
f’’(p_1=0,p_2=0)*(x_1-p_1=x_1,x_2-p_2=x_2)
Wenn x=p wäre, dann wäre dein zweiter Faktor 0, und das
Taylorpolynom etwas sinnfrei :smile:

Im Prinzip habe ich genau das gemeint, nur mich eben wieder
an der Notation verschickt! In unserer Aufgabe heißt der
Entwicklungspunkt aber x = (x_1, x_2) = (0,0). Daher sollte
man entweder diesen oder die Variable umbenennen, m.M.n.

Ich schätze, die Taylor-Formel ist hier nicht das Problem,
eher der Umgang mit den Ableitungen und deren Darstellungen.

Exakt. Daher, sobald ich vom Schaffen gekommen bin, werde ich
mich an die Aufgabe setzen und schauen, wie weit ich nun alleine
komme. Im Prinzip kann ich ja die 1- dimensionale Taylor- Formel
nehmen, ich muss nur wissen, dass die Variablen bzw. Punkte hier
nicht Element K, sondern Element K² sind. Dann kommen eben Vektoren
und Matrizen ins Spiel. Ich habe echt Probleme mit der Nomenklatur.

Im Prinzip habe ich genau das gemeint, nur mich eben wieder
an der Notation verschickt! In unserer Aufgabe heißt der
Entwicklungspunkt aber x = (x_1, x_2) = (0,0). Daher sollte
man entweder diesen oder die Variable umbenennen, m.M.n.

Dann vielleicht so:
f(t) = f(x) + f’(x)(t-x) + f’’(t)(t-x,t-x) + R(t)
Obwohl das auch nicht sehr schön aussieht.
x_0 als Entwicklungspunkt wäre da schon praktischer

Im Prinzip kann ich ja die 1- dimensionale Taylor-
Formel
nehmen, ich muss nur wissen, dass die Variablen bzw. Punkte
hier
nicht Element K, sondern Element K² sind. Dann kommen eben
Vektoren
und Matrizen ins Spiel.

Und du musst wissen, wie du f’’(x)(x-p,x-p) berechnest.

Taylor-Polynome höherer Ordnung werdet ihr aber vermutlich nicht zu bestimmen brauchen. (Zumindest im Mehrdimensionalen)

mfg,
Che Netzer

Bei Wikipedia ist eigentlich sehr schön dargestellt, in der letzten Zeile vor dem Beispiel:
http://de.wikipedia.org/wiki/Taylor-Formel#Taylor-Fo…

Ich habe nun kurz mal die Aufgabe angefangen; wir haben die Funktion f(x) = f(x_1,x_2) = x_1*sin(x_2),
x € R², und sollen sie bei x = a = (a_1, a_2) = (0,0) nach Taylor entwickeln. Die Ableitungen lauten:

f(a) = f(a_1 = 0, a_2 = 0) = (0,0)

d/dx_1 f(x_1,x_2) = sin(x_2) ausgewertet bei a: = 0
d/dx_2 " = x_1*cos(x_2) " = 0
d²/dx_1² " = 0 " = 0
d²/dx_2² " = -x_1*sin(x_2) " = 0
d²/dx_idx_j = cos(x_2) = 1

Damit haben wir f’(a_1,a_2) = J(a_1,a_2) = (0,0), was einer (1 x n)- Matrix entspricht.
Desweiteren haben wir f’’(a_1,a_2) = H_f(a_1,a_2) = 0 cos(x_2), was einer (2 x 2)- Matrix entspricht.
cos(x_2) 0

Nun haben wir die Taylor- Formel:

f(x_1,x_2) = f(a_1,a_2) + f’(a_1,a_2)*((x_1,x_2)-(a_1,a_2)) + 1/2*((x_1,x_2)-(a_1,a_2))^T*H_f(a_1,a_2)*((x_1,x_2)-(a_1,a_2))

Jetzt muss man ja eigentlich nur noch alles einsetzen und ausrechnen. Werd’ ich nachher noch machen,
wenn ich Zeit finde. Ich schreibe aber schon einmal die nächste Aufgabe, die wie folgt lautet:

Sei Q = [0,1] x [0,1]. Berechnen Sie das Integral I_Q ((x_1)² / (1 + x_2²)) dx (wobei I_Q Integral über Q bezeichnet).
Naja, hm, eigentlich sollte ich das im Schlaf lösen können … aber … wie würde ich hier vorgehen? Erst einmal
würde ich das umformen: I von 0 bis 1 I von 0 bis 1 (x_1)² * (1 + x_2²)^-1 dx_1 dx_2. Ich weiß nicht, ob das mathematisch-
didaktisch richtig ist, aber ich würde das (physikalisch) nun in zwei Integrale zerlegen: (I von 0 bis 1 (x_1)² dx_1) +
I von 0 bis 1 (1 + x_2²)^-1 dx_2 und dann separat berechnen.

Bei Wikipedia ist eigentlich sehr schön dargestellt, in der
letzten Zeile vor dem Beispiel:
http://de.wikipedia.org/wiki/Taylor-Formel#Taylor-Fo…

Habe ich doch auch schon geschrieben :smile:

f(a) = f(a_1 = 0, a_2 = 0) = (0,0)

d/dx_1 f(x_1,x_2) = sin(x_2) ausgewertet bei a: = 0
d/dx_2 " = x_1*cos(x_2) " = 0
d²/dx_1² " = 0 " = 0
d²/dx_2² " = -x_1*sin(x_2) " = 0
d²/dx_idx_j = cos(x_2) = 1

Die Formatierung ist etwas durcheinander gekommen (sehe beim Zitieren gerade die eigentlich gedachte), aber das stimmt alles.

Damit haben wir f’(a_1,a_2) = J(a_1,a_2) = (0,0), was einer (1
x n)- Matrix entspricht.
Desweiteren haben wir f’’(a_1,a_2) = H_f(a_1,a_2) = 0
cos(x_2), was einer (2 x 2)- Matrix entspricht.
cos(x_2) 0

Da wäre wieder die Formatierung verrutscht, aber ansonsten ist/wäre das auch richtig.

Nun haben wir die Taylor- Formel:

f(x_1,x_2) = f(a_1,a_2) + f’(a_1,a_2)*((x_1,x_2)-(a_1,a_2)) +
1/2*((x_1,x_2)-(a_1,a_2))^T*H_f(a_1,a_2)*((x_1,x_2)-(a_1,a_2))

Das schreibe ich dann mal etwas schöner :smile:
f(x) = f(0) + f’(0)x + 1/2 x^T * f’’(0)x

Sei Q = [0,1] x [0,1]. Berechnen Sie das Integral I_Q ((x_1)²
/ (1 + x_2²)) dx (wobei I_Q Integral über Q bezeichnet).

Tut mir leid, mehrdimensionale Integration behandeln wir erst in Analysis 3 :smile: Ich bin mit Ana2 auch erst in diesem Sommer durch, Ana3 kommt (voraussichtlich) erst im Winter an die Reihe.
Wenn du möchtest, könnte ich mir die entsprechenden Stellen aber auch auf Wikipedia durchlesen und dann die Lösung präsentieren.

mfg,
Che Netzer