Grüß Gott beisammen,
ich habe folgendes Problem: zu einer Verteilungsfunktion mit endlich vielen (typischerweise 5 oder 6) Werten, habe ich alle Momente (Mittelwert, Standardabweichung, Schiefe, …) in hinreichender Genauigkeit. Wie kann ich daraus eine mögliche Verteilungsfunktion (dh. die 5 oder 6 Werte) berechnen? Die Gleichungen lesen sich einfach (für N=3, zB):
3*m1 = x1 + x2 + x3,
3*m2 = x1^2 + x2^2 + x3^2,
3*m3 = x1^3 + x2^3 + x4^3;
aber für N=4 geht zB Mathematica schon in die Knie. Ich bin nur an reelen Lösungen, bis auf die Reihenfolge der Werte interessiert.
Wer weiss wie das geht?
Danke fürs Lesen und beste Grüße
regreb
Hi regreb,
n=5 oder 6 sind zwar endlich, aber eher ein very small sample. Daraus eine Verteilung zu schätzen ist immer ein Wagnis. Etwas anderes ist es, wenn du den Typ der Verteilung schon kennst (z.B. Gamma-Verteilung), kannst du daraus schon eher die Verteilungsparameter schätzen. Aber wozu brauchst du das?
Grüße,
JPL
Hi JPL,
der Punkt ist, da ich alle Momente habe und weiss wieviele Werte zugrundeliegen,
dass ich die Werte _analytisch_ berechnen möchte, anstatt eine zugrundeliegende hypothetische Verteilungsfunktion irgendeines Typs zu schätzen. Dies erfordert das finden _einer_ Lösung {x1,x2,…,xN} des obigen (speziellen?) polynomialen Gleichungssytems. Wenn ich das richtig überblicke sind alle Möglichen Lösungen äquivalent bis auf die Reihenfolge. Mit N=2 ist die Lösung einfach. Mit N=3 gehts noch mit Mathematica, aber ab N=4 hab ich keinen Plan. Darüberhinaus könnten ab N=5 Probleme mit der Lösbarkeit auftreten (ich hoffe aber nicht).
Ich habe den Namen „Momentenproblem“ deshalb gewählt, weil ich vermute dass die Lösungen des Polynomialen Gleichungssystems evtl. jemandem in diesem Zusammenhang bekannt sein könnten.
Gruß
regreb
Hi,
Gleichungssystemlösungsspezialisten rufst du mit deinem Urposting nicht gerade auf den Plan
Stat. gesehen hast du eine sehr eigenartige Verteilung, denn die Momente n-ter Ordnung sind als E(Xk) definiert, und damit rekursiv darstellbar. Das ist bei dir aber nicht der Fall; was soll das für eine Verteilung sein?
Grüße,
JPL
PS. Wozu ich das brauche:
Aus einer Messung bekomme ich eine Kurve, die im wesentlichen eine Ueberlagerung aus Gaussfunktionen mit annaehernd bekannten Halbwertsbreiten beschrieben werden kann. Die ganze Funktion sieht meist wie „ein Hügel“ aus. Mich interessieren die zugrundeliegenden Positionen der Maxima. Ich schätze optimale Fittingparameter wären einfach „die Momente“. Aufgrund der besthenden Datenverarbeitungsroutine (die nicht ohne enormen Aufwand geändert werden kann) ist es allerdings notwendig
letzen Endes immer die zugrundeliegenden Werte (x-Werte der einzelnen Maxima) als implizite Fitparameter zu verwenden. Daher bräuchte ich die Beziehung zwischen den Momenten von denen ich glaube dass sie optimal „fitbar“ wären und den Werten ohne die die Prozedur nicht funktioniert.
Kompliziert, gell?
regrab
Ja, da hast Du wahrscheinlich recht. Evtl sollte ichs nochmal mit einem anderen Titel probieren.
Meine Verteilung ist nichts anderes als ein völlig beliebiger n-dim Vektor mit beliebigen reelen Zahlen, zB.: 1.321, 1.310, 1.368, 1,333; von dem ich aber nur
eben den Mittelwert, die Standardabweichung, …, das n-te Moment (1.333,0.0004745,0.000007245,0.0000004503005) kenne.
Hi,
ich glaub, so langsam komm ich dahinter.
Ja, da hast Du wahrscheinlich recht. Evtl sollte ichs nochmal
mit einem anderen Titel probieren.
Trotzdem werde ich diesen thread einw enign weiterverfolgen, wenn’s recht ist.
Also erstes aber: Der Schätzer für das n-te Moment ist
M_n = \frac{1}{k} * \sum_{j=1}^k x_j^n
Für dein GLS ist die aufgabenstellung dann etwas anders.
Du schreibst, „Die ganze Funktion sieht meist wie „ein Hügel“ aus. Mich interessieren die zugrundeliegenden Positionen der Maxima. Ich schätze optimale Fittingparameter wären einfach „die Momente“.“ und dass du die Momente kennst. Das erste Moment _ist_ dann aber gerade der x-Wert des Maximums deines Hügels.
Aus deinem anderen Posting geht hervor, dass das 3. und 4. Moment extrem klein ist. Setzt man mal praktische Überlgungen an, kann man Schiefe und Wölbung getrost vergessen. Noch höhere Momente sind ohnehin nur noch theoretisch von Interesse. Damit würde sich dein GLS auf 2 Gleichungen reduzieren.
Grüße,
JPL
Meine Verteilung ist nichts anderes als ein völlig beliebiger
n-dim Vektor mit beliebigen reelen Zahlen, zB.: 1.321, 1.310,
1.368, 1,333; von dem ich aber nur
eben den Mittelwert, die Standardabweichung, …, das n-te
Moment (1.333,0.0004745,0.000007245,0.0000004503005) kenne.
Hi nochmal,
ich glaub, so langsam komm ich dahinter.
wenn ich doch nur auch langsam dahinterkommen würde …
Trotzdem werde ich diesen thread einw enign weiterverfolgen,
wenn’s recht ist.
sehr gerne!
Also erstes aber: Der Schätzer für das n-te Moment ist
M_n = \frac{1}{k} * \sum_{j=1}^k x_j^n
Für dein GLS ist die aufgabenstellung dann etwas anders.
Ja, ok.
Nur in meinem Zusammenhäng würd ich ihn halt nicht „Schätzer für …“ nennen sondern „n-tes Moment“ weil ich ja eben am Ende die echte und wirkliche Verteilung explitzit bekomme (bis auf Permutationen und in Abhaengigkeit aller Momente die ich zumindest hypothetisch exakt kenne). Dass ich diese Momente kenne
sollte praktisch die Voraussetzung sein, die ich einfach als gegeben annehme.
Du schreibst, „Die ganze Funktion sieht meist wie „ein Hügel“
aus. Mich interessieren die zugrundeliegenden Positionen der
Maxima. Ich schätze optimale Fittingparameter wären einfach
„die Momente“.“ und dass du die Momente kennst. Das erste
Moment _ist_ dann aber gerade der x-Wert des Maximums deines
Hügels.
Ja in etwa. Und die Halbwertsbreite ist das zweite. Und eine Abweichung von der
Spiegelsymmetrie beobachte ich auch immer. Und eckiger als eine Gausskurve sind meine Kurven auch immer,… Usw. bis halt zum ca 5. oder 6. Moment (oBdA).
Aus deinem anderen Posting geht hervor, dass das 3. und 4.
Moment extrem klein ist. Setzt man mal praktische Überlgungen
an, kann man Schiefe und Wölbung getrost vergessen. Noch
höhere Momente sind ohnehin nur noch theoretisch von
Interesse. Damit würde sich dein GLS auf 2 Gleichungen
reduzieren.
Gut das Beispiel war etwas frei aus dem Bauch heraus, nur um zu demonstrieren wie
die Rechung geht. der Punkt ist: Ich muss meine
x_i als f(m_1,…,m_n) explizit angeben können und möchte mich nicht a priori auf weniger Freiheitsgrade einschränken (müssen).
Grüße
regreb
Grüße,
JPLMeine Verteilung ist nichts anderes als ein völlig beliebiger
n-dim Vektor mit beliebigen reelen Zahlen, zB.: 1.321, 1.310,
1.368, 1,333; von dem ich aber nur
eben den Mittelwert, die Standardabweichung, …, das n-te
Moment (1.333,0.0004745,0.000007245,0.0000004503005) kenne.
Ähm,
jetzt hast du mich doch wieder abgehängt.
Noch mal von vorne: Du misst n Sachen (X_i, i=1,…,n) und bekommst dafür von einem Programm eine Kurve K_i abgebildet. K_i sieht in etwa normalverteilt aus. Durch Überlagerung der K_i bekommst du einen Kurve K (die auch wieder normalverteilt aussieht) und dazu die berechneten Momente m_j, j=1,…,k wobei k nicht notwendig gleich n sein muss.
Für deine weitere Arbeit möchtest du jetzt reelle Werte x_1,…,x_k haben, die dir genau die Momente m_j ergeben.
DAbei liegen dir nur die m_j vor.
Richtig?
als erstes ist wichtig, die Momente richtig zu schätzen (siehe Vorposting), sonst wird das eh nicht klappen. Als 2. ist wichtig, dass du genau so viele x berechnen willst, wie du Momente hast, sonst wird das mit expliziten Lösungen eh nix.
Wie die anderen schon schreiben, wird es ohnehin schwer, die Lösungen auf reelle Werte zu beschränken, von daher müssen anderen Überlegungen her.
Grüße,
JPL
Servus JPL,
danke dass Du noch nicht aufgegeben hast, denn eine Lösung wäre sehr bedeutsam!
Ähm,
jetzt hast du mich doch wieder abgehängt.
Noch mal von vorne: Du misst n Sachen (X_i, i=1,…,n) und
bekommst dafür von einem Programm eine Kurve K_i abgebildet.
Nein. Ich messe eine Kurve von der ich weiss, dass sie eine Überlagerung von n Sachen sein muss (oBdA. Gausskurven mit Maxima K_i). Die Standardprozedur sieht ein least squares fitting von unabhängigen K_i zum Anpassen an die experimentelle Kurve vor. Das geht in der Regel aufgrund der „Korrelation“ den
Bach runter (physikalisch unsinnige Werte). K_i ist nicht normalverteilt sondern systematisch [genauer gesagt es sind Bindungslängen (interatomare Abstände) in einem Molekül]. Damit ist das was ich messe nicht eine irgendwie geartete Stichprobe, sondern es sind explizite komplette Daten, die aber durch die Überlagerung etwas verschmiert sind. Ich weiss nun aber, dass ein Fitting der Standardmomente möglich ist und in der Regel mehr Momente mit sinnvoller Unsicherheit gefittet werden können als unabhangige Parameter K_i.
Daher würde ich gerne mein Modell das der Fitprozedur zugrunde liegt, anstelle als Funktion der Parameter K_i, als Funktion der Momente formulieren. Da ich aber zu Implementierung in die vorhandene und nicht ohne enormen Aufwand veränderbare Auswertungsprozedur letzten Endes einen vollständigen Satz von Atomkoordinaten liefern muss, stehe ich vor dem Problem den kompletten Satz der
Momente (die gefittet werden) in die zugrundeliegenden Abstandswerte K_i zu transformieren. Genau das macht das Gleichungssystem das ich in den anderen Artikel geschrieben habe. Die Frage ist, gibt es eine explizite „Lösungsformel“ oder einen Algorithmus der dies bewerkstelligt. Wie gesagt das Mathematica rechnet am Fall N=4 jetz schon 1 Woche rum…
Andererseits sind die Gleichungen aber auch schön symmetrisch in allen Variablen
dh. es gibt eigentlich (wenn ich alles richtig Überblicke) bis auf die n! Permutationen nur einen Lösungsvektor (K_1,…,K_n). Alle anderen Lösungen sollten aus Permutaionen dieser hervorgehen. [Im schlimmsten Falle würden mir die Lösungen bis n=6 genügen].
K_i sieht in etwa normalverteilt aus.
s.o.
Durch Überlagerung der
K_i bekommst du einen Kurve K (die auch wieder normalverteilt
aussieht)
Eigentlich nicht, denn die Fälle die ich hoffe besser knacken zu können weisen auch deutliche Asymmetrien oder Verbreiterungen und Schultern auf.
und dazu die berechneten Momente m_j, j=1,…,k
wobei k nicht notwendig gleich n sein muss.
Doch! k ist notwendig = n. Zumindest bei der Formulierung des Modells.
In der Praxis des Fittings könnte es allerdings dann Probleme geben, aber das ist nicht von Belang da die fehlenden Momente gut Raten kann.
Für deine weitere Arbeit möchtest du jetzt reelle Werte
x_1,…,x_k haben, die dir genau die Momente m_j ergeben.
DAbei liegen dir nur die m_j vor.
Richtig?
Ja.
als erstes ist wichtig, die Momente richtig zu schätzen (siehe
Vorposting), sonst wird das eh nicht klappen.
Das ist quasi die Grundannahme bei diesem neuen Verfahren
Als 2. ist
wichtig, dass du genau so viele x berechnen willst, wie du
Momente hast, sonst wird das mit expliziten Lösungen eh nix.
Ja, auch das ist vorgesehen.
Wie die anderen schon schreiben, wird es ohnehin schwer, die
Lösungen auf reelle Werte zu beschränken, von daher müssen
anderen Überlegungen her.
Viele Grüße
regreb
P.S.: Vielleicht nochmal zur Erkärung: Sinn und Zweck dieses Verfahrens wäre zu erreichen, dass man möglichst wenige „gut geratene“ Nebenbedingungen einführt und soviel Information wie irgend möglich aus den experimentellen Daten rauszieht. Oder idealerweise genau soviel wie drin ist rausziehen und genau den Rest „gut raten“. Und das in einer standardisierbaren Prozedur.