Kannst du mir erklären wie ich den absoluten Fehler epsilon beim differenzieren ausrechnen kann?

Liebe/-r Experte/-in,

Die Aufgabe lautet folgendermassen:
Approximiere die Funktion f bei x0 bestmöglich durch eine lineare Funktion g. In welchem Intervall um x0 = 1 ist der absolute Fehler e (epsilon) kleiner als angegeben?

f: y= x^2 - 3x, e1 = 1, e2 = 0.25, 23 = 0.01

Zuerst habe ich einmal den Differenzialquotienten ausgerechnet, dies hat -1 ergeben, und eine Tangentengleichung die y = -x-1 heisst. So weit so gut.
Doch wie weiter? Wie rechne ich den absoluten Fehler e aus?
Ich habe zwar eine Formel: absoluter Fehler = |f(x0 + deltax)- g(x0 + deltax)|

Kannst du mir weiterhelfen?
ich wäre total froh, denn ich habe am montag eine Prüfung.
Danke jetzt schon für deine mühe