Hallo Peter,
gwapa verwechselte einen statistischen Test mit einen statistischen Verfahren/Analyse. Eine Analyse fasst letztlich Daten irgendwie zusammen. Ein Test berechnet dir anhand von Daten einen p-Wert. Der p-Wert sagt dir, wie wahrscheinlich du ähnlich „extreme“ Daten alleine durch den Stichprobenfehler bekommen kannst.
Die Lineare Regression ins ein Verfahren, bei dem die Abhängigkeit von Kovariablen (also zB. X- und Y-Werten) durch ein lineares Modell der Form Y = mX+b dargestellt wird (m=Steigung, b=Achsenabschnnitt). Die Parameter m und b werden so bestimmt, dass die mittlere quadratische Abweichung der Y-Werte zur Geraden minimal wird.
Das ganze hat zunächst noch nichts mit einem Test zu tun, sondern liefert dir schlicht eine einfache Zusammenfassung über die (lineare) Abhängigkeit deiner (empirischen) X- und Y-Werte. Die Regressionsgerade bezieht sich auf deine Stichprobe und gilt für genau die n Werte-Paare, die du vorliegen hast. Diese Werte sind aber nur eine Auswahl aus möglichen anderen Werten, die sie hätten annehmen können. Eine neue Untersuchung würde mehr oder weniger andere Werte liefern und eben auch ein mehr oder weniger anderes Ergebnis für die Regressiongerade.
Nehmen wir an, X und Y hängen nicht voneinander ab. Wenn du nun eine endliche (meist kleine) Anzahl von Daten hast (deine Stichprobe!), dann ist es sehr wahrscheinlich so, dass die Punkte deiner Stichprobe so liegen, dass eine Regressionsgerade dadurch eine Steigung ungleich Null hat. Dummes Beispiel: Du hast nur genau 2 Punkte in der Stichprobe. Die Regressionsgerade geht natürlich genau durch diese 2 Punkte. Immer dann (und das wird wegen der Streuung der Daten praktisch immer der Fall sein) wenn die 2 Punkte nicht exakt die selben Y-Werte haben, wird die Steigung der Regressionsgeraden nicht gleich Null sein. Unter der Voraussetzung, dass X und Y tatsächlich unkoreliert sind, wird es natürlich langfristig in vielen gleichartigen Untersuchungen gleichhäufig vorkommen, dass die Regressionsgerade eine positive wie auch eine negative Steigung hat.
Nun hast du deine n Punkte deiner einen Untersuchung und deine Regressionsgerade mit einer Steigung m. Frage: Wie wahrscheinlich wirst Du mindestens so große Steigungen bekommen, wenn in Wahrheit X und Y unkorreliert sind? Das macht ein Test. Und der Test, den man hier nimmt, ist im Prinzip ein t-Test (s. mein voriges Posting; man kann m testen wie auch r - das ist statistisch äquivalent. Zur Veranschaulichung bleibe ich hier bei der Steigung m).
Sagen wir, für deine Daten liefert der Test p=0,02. D.h., in 2% solcher Untersuchungen würde auch dann eine Steigung größer als die deiner Daten herauskommen, wenn X und Y in Wahrheit nicht korrelieren würden. Also, entweder du hast verdammtes Pech gehabt, dass deine Daten zufällig so streuen, dass man eine so große Steigung bekommt, oder aber in Wahrheit sind X und Y korreliert und daher ist es nicht ungewöhnlich, eine so große Steigung in den Daten zu finden. Je kleiner der p-Wert, desto mehr sprechen deine Daten gegen die Annahme, dass X und Y unkorreliert seien. Wenn man nun eine Ja/Nein-Entscheidung treffen muss, ob X und Y korreliert sind oder nicht, setzt man sich meist eine Grenze von 5%. Wenn p