Hallo
Ich blicke den beweis zum Satz von Taylor im Mehrdimensionalen nicht so ganz.
Hier nochmal der satz:
f(x) = \sum (D^\alpha f(a))/(\alpha !) (x-a)^\alpha + Langranges restglied
(ja ich weiß, sehr salop geschrieben).
Der Beweis in meinem Skript geht nun folgendermaßen vor, man betrachtet die Funktion g(t) = f(y(t)) = f(a+t(x-a)) und t läuft von 0 bis 1.
Dann wird g(t) diferenziert und man bekomment nach einigem rechnen heraus, dass g^(k) (t) = d^k f(a+t(x-a), x-a) ist.
Soweit so gut.
Jetzt wird aber behauptet, g(1) (was ja f(x) ist!) sei die Summe von k=0 bis N-1 über g^(k)(0)/k! + g^(N)(\tau)/N! wobei \tau aus dem ofenen Intervall von 0 bis 1 stammen soll.
Wieso???
Mfg
Rainer Endrich