Guten Tag zusammen.
Ich möchte für eine Regression, Prinzip der kleinsten Fehlerquadrate (least square) das Ausgleichspolynom 2. Grades und für eine E-Funktion herleiten.
Für die 1. Ordnung ist dies bereits vorhanden.
Hier setzt man ja als funktion f=ax+b ein
Notwenidge Bedingung muss ja sein: Df/Da =0 und Df/Db (Partielle Differentiation)
danach erzeugt man ein LGS das man dann mit als Matrize usw löst.
Nun meine Frage für
- Ordnung:
hier wird ja ax^2 + bx + c als funktion eingesetzt.
Muss die Summe dann lauten: SUMME(y-ax^2+bx-c)^2 ?
Dies muss man dann jeweils nach a b und c differentieren um das LGS zu erhalten (notwendige Bedingung) ?
E-Funktion:
Muss hier die Funktion: a*exp(bx) eingesetzt werden?
Muss die Summe dann lauten: SUMME(y-a*exp(bx))^2 ?
Hier muss dann auch nach a und b differentiert werden(notwendige Bedingung) ?
Wäre toll wenn mir jemand sagen könnte ob dies korrekt ist.
Danke schonmal
Gruß
Huhu,
- Ordnung:
hier wird ja ax^2 + bx + c als funktion eingesetzt.
Muss die Summe dann lauten: SUMME(y-ax^2+bx-c)^2 ?
SUMME(y - f(x))²
= SUMME(y - (ax²+bx+c))²
= SUMME(y-ax²-bx-c)²
Dies muss man dann jeweils nach a b und c differentieren um
das LGS zu erhalten (notwendige Bedingung) ?
Ja.
Für einen beliebigen Parameter „p“ (p kann hier a, b oder c sein) ergibt sich die allg. Lösung als
dSS/dp = d/dp (SUMME(y-f(x))²) = 0
Ableitung = innere x äußere Ableitung:
„innere Funktion“ = y-f(x), „äußere“ Funktion = ()²
SUMME(2*(y-f(x))*(0-df(x)/dp))= 0
df(x)/dp ist die partielle Ableitung von f(x) nach p
Ausklammern:
SUMME( 2*(y-f(x))*(-1)*(df(x)/dp) )= 0
Faktoren 2 und -1 vor die Summe:
-2* SUMME( (y-f(x))*(df(x)/dp) )= 0
Ausmultiplizieren:
-2* SUMME( y*(df(x)/dp) - f(x)*(df(x)/dp) )= 0
durch -2 teilen, SUMMEn trennen:
SUMME( y*(df(x)/dp) ) - SUMME( f(x)*(df(x)/dp) ) = 0
Nun kann man alles einsetzen:
Parameter a:
(df(x)/da) = x² -> SUMME(y*x²) - SUMME(f(x)*x²) = 0
Parameter b:
(df(x)/db) = x -> SUMME(y*x ) - SUMME(f(x)*x ) = 0
Parameter c:
(df(x)/dc) = 1 -> SUMME(y*1 ) - SUMME(f(x)*1 ) = 0
E-Funktion:
dito.
VG
Jochen