F-test für "Joint Hypothese"

Liebe/-r Experte/-in,

ich vermute, dass mein Problem wahrscheinlich nicht besonders komplex ist, aber irgendwie fehlt mir momentan leider ein wenig der Durchblick.
Es geht um ein einfaches lineares Regressionsmodell mit einer erklärenden Variablen der Form:

y=a+bx+e

Nun möchte ich gerne die („joint“) Hypothese „a=0,b=1“ testen, was vermutlich mit Hilfe des F-test’s geschieht. Leider weiss ich nicht, wie genau die entsprechende Prüfgröße auszusehen hat.

Über eine Rückmeldung freue ich mich sehr.
Vielen Dank!

Viele Grüße,
André

Hallo André,

Ich würde für das Problem den sog. Wald-Test verwenden. Ich hoffe du hast daon schon gehört. Hierbei konstruiert man sich eine Matrix A und ein c, so dass sich A*(Vektor der Variablen)=c.
In diesem Fall:
A=(10)
(01) (soll eine Matrix darstellen)
Vektor=(a)
(b)
c=(0)
(1)

Die Klammern sollten egtl jeweils untereinander stehen…

–> Lehne H0 ab, falls
MSH/MSE

Hallo Anja,

vielen Dank für Deine Antwort. Vom Wald-Test habe ich schon gehört und auch gerade drüber nachgedacht. Wenn ich Dich also richtig verstehe, stelle ich hierbei ein restringiertes und ein unrestringiertes Modell gegenüber, oder?
Konkret also: y = bx + e versus y = a + bx +e.
Habe ich das so richtig verstanden?

Danke!

Viele Grüße
André

Hallo André,
Den Ausdruck joint-Hypothese kenne ich nicht und Deine Hypothese finde ich an sich seltsam, da normalerseise H0 b=0 lautet.
Einen Ausweg, wie Du zeigen kannst, ob a=0 und b=1 sind, ist der folgende. Führe eine normale lineare Regression durch (H0: b= 0). Damit erhältst Du eine Schätzung für a und b (â und ^b) und die dazugeörigen Standardfehler (se(â) und se(^b). Dann berechnest Du die t-Werte für a und b:
t = (â-0) / se(â)
t = (^b-1) / se(^b)

Wenn t

Hallo Andrè,
genau er vergleicht ein volles Modell mit einem Modell, das deine Restriktionen enthält.
Viele Grüße
Anja

Super, dann weiss ich jetzt, was zu tun ist.
Vielen Dank für Deine Hilfe.

Viele Grüße
André

Hallo Andrè,
genau er vergleicht ein volles Modell mit einem Modell, das
deine Restriktionen enthält.
Viele Grüße
Anja

Freut mich, dass ich helfen konnte :wink:

viele Grüße
Anja

Hallo Andre!

Das ist eine sehr interessante Frage! Eine von denen, die man erstmal gar nicht so ohne Weiteres beantworten kann, sich gleichzeitig aber wundert, warum man ihr bisher nicht schon längst begegnet ist.

Also: Man möchte ein komplettes Parameterset (a0,b0) testen. Ich würde das, so wie Sie das schreiben, mit einem F-Test ansetzen.

F=Var(y_mod)/Var(eps)*(n-1)/(n-2) mit y_mod=a0+b0*x_i und eps=y_mod-y_i; die Daten sind (x_i/y_i).

F ist dann F_n-1/n-2 - verteilt.

Dass das mit beliebigen Hypothesentests (a0,b0) klappt und nicht nur mit den geschätzten Parametern, ist mir noch nicht aufgefallen.

Ich habe heute eine Bekannte gefragt, promovierte Statistikerin. Sie war sich allerdings nicht ganz sicher (hat versprochen, darüber nochmal nachzudenken), und mich auf den Likelihood-Ratio-Test angesprochen. Das ist natürlich auch eine Möglichkeit,

http://de.wikipedia.org/wiki/Likelihood-Ratio-Test

aber der scheint mir ziemlich aufwändig zu sein. Mir erschliesst sich nicht, wie man hier die Prüfstatistik ermitteln soll.

Insofern würde ich es mal beim F-Test belassen.

Viele Grüsse!

C. Schatz

Hallo Christian,

vielen Dank für Ihre Rückmeldung.
Ich habe die Zeit genutzt und mich etwas näher mit dem Problem beschäftigt. Ich denke, dass der Wald-test bzw. F-test ein guter Ansatz sein sollte.
Hier würde ich dann so vorgehen, das Modell ohne Restriktionen

y = a + bx + e

dem Modell mit Restriktionen

y = bx + e

gegenüberzustellen. Wenn die Nullhypothese (a=0 und b=1) wahr ist, sollte man für die Schätzung der (Stichproben-)Regressionsfunktionen des restringierten und des unrestringierten Modells ähnliche Ergebnisse erwarten dürfen.

Dieser Ansatz scheint mir bisher recht plausibel.

Viele Grüße,
André

Liebe® Andrè,

ich mache jetzt das, was ich immer mache, wenn eine statistische Frage zu einem
Thema auftaucht, das ich vor etwas längerer Zeit betrachtet habe. Ich schaue in
den Hartung: „Statistik“ Oldenbourg-Verlag.
Dort finde ich im Kapitel X: Regressionsanalyse
den Paragraphen

  1. Lineare Regression

1.4 Konfidenzintervalle und Tests von Hypothesen über die unbekannten
Parameter alpha , beta und sigma2

Die Geradengleichung lautet dabei anscheinend y(x) = a+b*x +e, bzw. y(x) =
alpha + beta* x + e

Dann ist für alpha die Testgröße : (a-alpha_null)/s_alpha und sie ist t-verteilt
mit n-2 Freiheitsgraden
Dann ist für beta die Testgröße : (b-beta_null)/s_beta und sie ist ebenfalls t-
verteilt mit n-2 Freiheitsgraden

Deine Frage mit der F-Verteilung verwundert mich.

Entschuldige die Verspätung. Ich habe schon ein paar Termine verbrannt. Wenn
das nicht ausreicht, kann ich Die noch eine andere Quelle suchen, bzw. die Seite
aus dem Hartung als Anhang senden.

Viele Grüße

H.-D.

Hallo André,

bei dieser Frage kann ich leider nicht helfen.

Beste Grüße

Oliver