Liebe/-r Experte/-in,
Die Aufgabe lautet folgendermassen:
Approximiere die Funktion f bei x0 bestmöglich durch eine lineare Funktion g. In welchem Intervall um x0 = 1 ist der absolute Fehler e (epsilon) kleiner als angegeben?
f: y= x^2 - 3x, e1 = 1, e2 = 0.25, 23 = 0.01
Zuerst habe ich einmal den Differenzialquotienten ausgerechnet, dies hat -1 ergeben, und eine Tangentengleichung die y = -x-1 heisst. So weit so gut.
Doch wie weiter? Wie rechne ich den absoluten Fehler e aus?
Ich habe zwar eine Formel: absoluter Fehler = |f(x0 + deltax)- g(x0 + deltax)|
Kannst du mir weiterhelfen?
ich wäre total froh, denn ich habe am montag eine Prüfung.
Danke jetzt schon für deine mühe