Gemeinsame Verteilungen - Copulas

Hallo, ich habe mal eine kleine Verständnisfrage:

Wenn ich eine Zufallsvariable habe, dann besitzt sie genau eine Verteilung.
Nehme ich nun mehrere Zufallsvariablen, besitzen diese dann auch genau eine gemeinsame Verteilung? Ich würde sagen, ja. Aber beim Lesen einiger Texte über Copulas bin ich stutzig geworden.
Und zwar habe ich einen Satz gefunen, der unter anderem folgendes besagt:

Gegeben ist ein Zufallsvektor (X,Y) mit Randverteilungen F1 und F2 und endlichen Varianzen für X und Y.

Dann ist die Menge aller möglichen Korrelationen (die Rede ist hier vom Pearson´schen Korrelationskoeffizient roh) das geschlossene Intervall [rohmin, rohmax].
Weiterhin wird gesagt, dass das Maximum rohmax angenommen wird, wenn X und Y komonoton sind, analog für rohmin.

Wenn X und Y aber nur eine gemeinsame Verteilung besitzen, muss doch auch der Korrelationskoeffizient eindeutig sein, oder???

Hier nochmal die Formel: roh = Cov(X,Y) / sqrt( Var(X)* Var(Y) )
Wie ist dann der Satz zu verstehen?
Oder vergleiche ich grad Äpfel mit Birnen?
Wäre dankbar für jede Hilfe,

claas

Auch hallo.

Wenn ich eine Zufallsvariable habe, dann besitzt sie genau
eine Verteilung.

Stimmt.

Nehme ich nun mehrere Zufallsvariablen, besitzen diese dann
auch genau eine gemeinsame Verteilung? Ich würde sagen, ja.

Die Summe von Zufallsvariablen mehrerer Verteilungen konvergiert i.A. gegen die Normalverteilung. („hm, nicht gut formuliert…“)

Aber beim Lesen einiger Texte über Copulas bin ich stutzig
geworden.

Copulas ? -> http://www.caesar.de/fileadmin/presse/Schulungsflyer…

Und zwar habe ich einen Satz gefunden, der unter anderem
folgendes besagt:

Gegeben ist ein Zufallsvektor (X,Y) mit Randverteilungen F1
und F2 und endlichen Varianzen für X und Y.

Dann ist die Menge aller möglichen Korrelationen (die Rede ist
hier vom Pearson´schen Korrelationskoeffizient roh) das
geschlossene Intervall [rohmin, rohmax].
Weiterhin wird gesagt, dass das Maximum rohmax angenommen
wird, wenn X und Y komonoton sind, analog für rohmin.

http://www-m4.ma.tum.de/pers/tasche/seminar.pdf
Auf jeden Fall liegt gilt -1 Mit der XYZ-Verteilung derselben hat das erstmal gar nichts zu tun
Aber das interessiert sich eigentlich nicht für für komonotones Verhalten.

Quelle: Taschenbuch der Statistik Werner Voß et alii

HTH
mfg M.L.

Hallo

Wenn ich eine Zufallsvariable habe, dann besitzt sie genau
eine Verteilung.

Das ist korrekt.

Nehme ich nun mehrere Zufallsvariablen, besitzen diese dann
auch genau eine gemeinsame Verteilung?

Das muss man genau sein. Gegeben sind endlich viele Zufallsvariablen X1,…Xn. Dann hat der Vektor (X1,…,Xn) eine eindeutige Verteilung. Dies ist die gemeinsame Verteilung.

Gegeben ist ein Zufallsvektor (X,Y) mit Randverteilungen F1
und F2 und endlichen Varianzen für X und Y.

Dann ist die Menge aller möglichen Korrelationen (die Rede ist
hier vom Pearson´schen Korrelationskoeffizient roh) das
geschlossene Intervall [rohmin, rohmax].
Weiterhin wird gesagt, dass das Maximum rohmax angenommen
wird, wenn X und Y komonoton sind, analog für rohmin.

Wenn X und Y aber nur eine gemeinsame Verteilung besitzen,
muss doch auch der Korrelationskoeffizient eindeutig sein,
oder???

Bei gegebenem Zufallsvariablen ist sowohl die gemeinsame Verteilung wie auch der Korrelationskoeffizient eindeutig. Aber die obengenannten Angaben (die beiden Randverteilungen F1 und F2) legen den Zufallsvektor (X,Y) nicht eindeutig fest und damit auch nicht die gemeinsame Verteilung. Es ist zum Beispiel möglich, das X=Y gilt, aber auch dass die beiden Zufallsvariablen unabhängig sind. Ein Mass für die Abhängigkeit ist dann eben der Korrelationskoeffizient.

Gruss Urs

Hallo

Die Summe von Zufallsvariablen mehrerer Verteilungen
konvergiert i.A. gegen die Normalverteilung. („hm, nicht gut
formuliert…“)

So schlecht formuliert, dass es total falsch ist. Das was noch am nächsten an diese Aussage kommt ist der „Zentrale Grenzwertsatz“. Dem interessierten Leser sei empfohlen diesen Satz in der Literatur nachzuschlagen anstatt das obige nachzubeten.

Gruss Urs

Bei gegebenem Zufallsvariablen ist sowohl die gemeinsame
Verteilung wie auch der Korrelationskoeffizient eindeutig.
Aber die obengenannten Angaben (die beiden Randverteilungen F1
und F2) legen den Zufallsvektor (X,Y) nicht eindeutig fest und
damit auch nicht die gemeinsame Verteilung. Es ist zum
Beispiel möglich, das X=Y gilt, aber auch dass die beiden
Zufallsvariablen unabhängig sind. Ein Mass für die
Abhängigkeit ist dann eben der Korrelationskoeffizient.

Okay, das ist schon mal eine große Hilfe. Der Korrelationskoeffizient ist aber nur ein Maß für die lineare Abhängigkeit, oder?
Das heißt, ein Korrelationskoeffizient von Null impliziert nicht stochastische Unabhängigkeit, umgekehrt jedoch schon (wenn ich´s richtig verstanden habe).

Und wie genau ist Gleichheit bei Zufallsvariablen eigentlich definiert? Kann man nur von Gleichheit sprechen, wenn die Zufallsvariablen auf dem selben W´raum definiert sind? Dann hieße Gleichheit meiner Meinung nach bei gegebenem W´raum (Omega, A, P)
X(o) = Y(o) für alle o aus Omega. Oder bedeutet X=Y bei dir „fast überall gleich“ - also Gleichheit bis auf Nullmengen ?

Gibt es ein „einfaches“ Beispiel, bei dem sowohl Gleichheit als auch Unabhängigkeit bei zwei ZV-en gilt? Das würde ich ja gerne mal sehen.

Das heißt also, der oben genannte Satz sagt mir, in welchem Bereich das roh bei zwei gegebenen (!)Verteilungen(!) liegen kann. Wenn ich mir dann zwei konkrete ZV-en mit diesen Verteilungen nehme, kann ich schonmal eine Aussage darüber machen, in welchem Intervall roh mindestens liegt.
Wenn das jetzt so stimmt, ist bei mir der Groschen gefallen.

Hallo

Das heißt, ein Korrelationskoeffizient von Null impliziert
nicht stochastische Unabhängigkeit, umgekehrt jedoch schon
(wenn ich´s richtig verstanden habe).

So sehe ich das auch.

Und wie genau ist Gleichheit bei Zufallsvariablen eigentlich
definiert? Kann man nur von Gleichheit sprechen, wenn die
Zufallsvariablen auf dem selben W´raum definiert sind? Dann
hieße Gleichheit meiner Meinung nach bei gegebenem W´raum
(Omega, A, P)
X(o) = Y(o) für alle o aus Omega. Oder bedeutet X=Y bei dir
„fast überall gleich“ - also Gleichheit bis auf Nullmengen ?

Gleichheit heisst tatsächlich, dass die Zufallsvariablen auf dem gleichen WR definiert sind und wirklich punktweise gleich sind. Meistens ist man aber an Gleichheit fast überall interessiert, denn es macht oft keinen Unterschied, wenn sich zwei ZV nur auf einer Nullmenge unterscheiden (gleicher Erwartungsert, gleiche Varianz, gleiche Verteilung,…).

Gibt es ein „einfaches“ Beispiel, bei dem sowohl Gleichheit
als auch Unabhängigkeit bei zwei ZV-en gilt? Das würde ich ja
gerne mal sehen.

Das ist nur für triviale ZV möglich; z.B. (fast sicher) konstante Zufallsvariablen.

Die Gleichheit von ZV ist aber davon zu unterscheiden, dass sie die gleiche Verteilung haben. Es ist gleiche Verteilung und Unabhänigigkeit kein Problem (Bsp: Würfeln mit Würfel, X: Wert erster Wurf, Y: Wert zweiter Wurf).

Das heißt also, der oben genannte Satz sagt mir, in welchem
Bereich das roh bei zwei gegebenen (!)Verteilungen(!) liegen
kann. Wenn ich mir dann zwei konkrete ZV-en mit diesen
Verteilungen nehme, kann ich schonmal eine Aussage darüber
machen, in welchem Intervall roh mindestens liegt.
Wenn das jetzt so stimmt, ist bei mir der Groschen gefallen.

Es sieht tatsächlich so aus, als ob der Groschen gefallen ist. Das effektive (eindeutige aber unbekannte) rho hängt davon ab, wie die beiden ZV korreliert sind.

Gruss Urs