Halb-Normalverteilung

Hallo!

Kennt sich hier zufällig jemand mit Statistik aus?

Kann man eine Halb-Normalverteilung mit so sachen wie t-Test, F-Test oder ANOVA, die ja nur für Normalverteilungen sind, untersuchen?

Vielen Dank!

Hallo!

Kennt sich hier zufällig jemand mit Statistik aus?

Kann man eine Halb-Normalverteilung mit so sachen wie t-Test,
F-Test oder ANOVA, die ja nur für Normalverteilungen sind,
untersuchen?

Hallo,

was ist denn eine Halb-Normalverteilung?

Gruß

Fritze

Gefaltete Normalverteilung?
Hi,
meinst du die gefaltete NV, oder die an ihrem Modalwert umgeklappte NV? Geht es um einseitig begrenzte Merkmale?
Präzisier doch mal dein Problem.
Gruss,

Halb-Normalverteilung oder doch nicht? Präziser
Hallo, hier mein Problem noch einmal genauer.

Ich will den Fehler eines Algorithmus unter verschiedenen Bedingungen untersuchen. Der Fehler ist minimal 0 und maximal irgendwas. Wenn man sich jetzt das Histogramm des Fehlers anschaut liegt das Maximum ungefähr sagen wir mal bei 2.0 und fällt dann nach rechts in Form einer Halben Gaußschen Glockenkurve ab. Nach links geht das leider nicht da der Fehler ja immer > 0 ist.

Wenn ich diese Verteilung mit SPSS auf Normalverteilung checke, wie ich es einmal gelernt habe, mit Q-Q-Plot oder Kolmogorov-Smirnov ist es keine. Ein Q-Q-Plot für eine Halbnormalverteilung würde dann schon eher gehen.

Ich bin kein großer Statistik-Experte. Wie kann man solch Probleme am besten analysieren und vorallem verschiedene Messreihen vergleichen?

Vielen Dank schon einmal.

Hallo, hier mein Problem noch einmal genauer.

Ich will den Fehler eines Algorithmus unter verschiedenen Bedingungen untersuchen. Der Fehler ist minimal 0 und maximal irgendwas. Wenn man sich jetzt das Histogramm des Fehlers anschaut liegt das Maximum ungefähr sagen wir mal bei 2.0 und fällt dann nach rechts in Form einer Halben Gaußschen Glockenkurve ab. Nach links geht das leider nicht da der Fehler ja immer > 0 ist.

Wenn ich diese Verteilung mit SPSS auf Normalverteilung checke, wie ich es einmal gelernt habe, mit Q-Q-Plot oder Kolmogorov-Smirnov ist es keine. Ein Q-Q-Plot für eine Halbnormalverteilung würde dann schon eher gehen.

Ich bin kein großer Statistik-Experte. Wie kann man solch Probleme am besten analysieren und vorallem verschiedene Messreihen vergleichen?

Vielen Dank schon einmal.

Hi,

es scheint mir, als ob du unter „Halb-Normalverteilung“ so etwas wie: „Sieht ungefähr so aus wie eine Normalverteilung“ verstehst.
Prüf doch mal, ob Deine Werte nicht einer Poissonverteilung folgen.

Gruß,

Max

logarithmische Normalverteilung?
Hallo Christian,

Du könntest mal ausprobieren, ob Y=ln(X) zumindest annähernd normalverteilt mit my und sigma ist (X ist die Variable für den Fehler). Dann wäre X logarithmisch normalverteilt mit denselben Parametern my und sigma.
Diese Verteilung sieht so aus wie die Kurve, die Du beschreibst, und man kann ganz gut damit arbeiten.

Gruß
Katharina

Hallo Christian,

ich fasse Deine Frage so auf: Du fragst nach der Robustheit parametrischer Verfahren, wenn die Normalverteilungsannahme verletzt ist. Bei Deinen Daten handelt es sich offensichtlich nicht um normalverteilte Daten, aber Du möchtest sie möglichst mit den parametrischen Verfahren wie t-Tests, ANOVA usw. auswerten und fragst Dich, ob dies möglich ist, obwohl die Normalverteilungsannahme nicht richtig ist. Pauschal kann man diese Frage nicht beantworten. Allerdings kann man sagen, daß sowohl t-Tests als auch die ANOVA ohne Meßwiederholung gegenüber der Normalverteilungsannahme robust sind, d.h. daß man sie auch bei Verletzung der Normalverteilungsannahme anwenden kann. Die Normalverteilungsannahme ist viel weniger entscheidend als die Annahme der Varianzenhomogenität. Man sollte im Falle der Verletzung der Normalverteilungsannahme allerdings eine möglichst größere Stichprobe nehmen (also nicht nur 20 Daten).

Gruß,

Oliver Walter

OK. Gefaltete NV
Hi,

dein Merkmal hat also eine natürliche Grenze mit Tendenz hin zu dieser Grenze.
Dafür ist eindeutig die gefaltete NV „zuständig“.
Das kriegst du mit SPSS und vergleichbaren Standard Statistik Packages nicht hin. (Übrigens ist SPSS sozialwissenschaftlich orientiert, daher hier ungeeignet)
Da braucht man schon ein spezielles Industriestatistiktool, z.B. QS-stat von der Firma Q-das.
Mit der logarithmischen NV kann man sich notfalls behelfen.
Korrekt ist es aber nicht, da logarithmischen NV´s andere Annahmen zugrunde liegen.
Ich stimme auch Oliver nicht zu, dass man in deinem Fall ANOVA, t-Test usw. anwenden kann.
Dein Problem ist gleichzusetzen mit einem industriellen Fertigungsproblem, und da kann man Varianzhomogenität leider nicht einfach so annehmen.

Aus der Ferne kann ich dir nicht weiterhelfen, da müsste ich die Datensätze schon selbst sehen, und vor allem die Technik dahinter verstanden haben.

Gruss,

Hallo Helge,

Ich stimme auch Oliver nicht zu, dass man in deinem Fall
ANOVA, t-Test usw. anwenden kann.
Dein Problem ist gleichzusetzen mit einem industriellen
Fertigungsproblem, und da kann man Varianzhomogenität leider
nicht einfach so annehmen.

Ich habe nicht gesagt, daß man in diesem Fall die genannten Methoden anwenden kann, indem man Varianzenhomogenität einfach annimmt. Im Gegenteil habe ich gesagt, daß die genannten Verfahren gegenüber der Verletzung der Normalverteilungsannahme robust sind, nicht jedoch gegenüber der Verletzung der Varianzenhomogenität. Bitte lies mein Posting genau, bevor Du beim nächsten Mal widersprichst.

Gruß,

Oliver Walter

2 Like

Entschuldigung
Hi,
ich wollte der Gefahr vorbeugen, dass der Initiator dieses Threads deine Anmerkungen falsch versteht.
Mir scheint, dass das Problem die Kenntnis des Initiators wesentlich übersteigt. Ohne ein spezielles Tool kriegt er das meiner Meinung nach nicht ordentlich gelöst.
Gruss,

Hi!

Ich bin zwar kein Statistik Profi, wie schon gesagt, aber arrogant brauch man deswegen auch nicht gleich zu werden. :wink:

So jetzt erklär ich mein Problem noch einmal ganz exakt.

Ich bin Informatiker und schreibe meine Diplomarbeit. Darin habe ich einen Algorithmus entwickelt der CAD-Modelle in Bildern die eine Kamera liefert ausgehend von einer Groblokalisierung durch einen Benutzer exakt Lokalisiert um das Ojekt dann zum Beispiel durch einen Industrieroboter greifen zu können.

Am Rande dieser möchte ich ein paar statistische Untersuchungen zu meinem Algorithmus durchführen. In diesem Test, um den es hier geht, möchte ich untersuchen wie exakt ein Objekt im CAD modelliert werden muss, um noch eine zuverlässige Erkennung zu ermöglichen.

Dazu habe ich ein Objekt hergenommen und es in 5 Stufen modelliert, von einer ganz einfachen bis zu einer ganz exakten mit allen Details des Objekts. Das Objekt wird in einem statischen Bild des Objekt von dem die exakten Transformationsparameter bekannt sind pro Modell 1000 mal erkannt. Der Groblokalisierungsfehler wird durch gaußsches Rauschen um die bekannte exakte Lokalisierung simuliert. Den Fehler den ich dann Auswerten möchte berechne ich durch die gefundene exakte Lokalisierung und die tatsächliche exakte Lokalisierung.

Rein vom Gefühl würde meine Auswertung ergeben das das mittlere Modell ausreichend ist, wenn man sich die Mittelwerte der Fehler anschaut. Nur würde ich das gerne statistisch, stichhaltig beweisen.

Hoffentlich hat das jemand verstanden.

MfG
christian

[Bei dieser Antwort wurde das Vollzitat nachträglich automatisiert entfernt]

1 Like

Hi,
Nochmal Entschuldigung.
Ich treffe ständig Leute, die -salopp formuliert- Statistik betreiben ohne sich überhaupt Gedanken über die Grundannahmen zu machen.
Diesen -inzwischen als falsch erkannten- Eindruck hatte ich hier auch. War von mir nicht persönlich gemeint.
So, und nun zur Sache.

[Ich bin Informatiker und schreibe meine Diplomarbeit. Darin
habe ich einen Algorithmus entwickelt der CAD-Modelle in
Bildern die eine Kamera liefert ausgehend von einer
Groblokalisierung durch einen Benutzer exakt Lokalisiert um
das Ojekt dann zum Beispiel durch einen Industrieroboter
greifen zu können.]

Es ist interessant zu erwähnen, dass die Messgenauigkeit digitaler optischer Systeme deutlich über der Auflösungsgenauigkeit der Kamera liegt.

[Am Rande dieser möchte ich ein paar statistische
Untersuchungen zu meinem Algorithmus durchführen. In diesem
Test, um den es hier geht, möchte ich untersuchen wie exakt
ein Objekt im CAD modelliert werden muss, um noch eine
zuverlässige Erkennung zu ermöglichen.
Dazu habe ich ein Objekt hergenommen und es in 5 Stufen
modelliert, von einer ganz einfachen bis zu einer ganz exakten
mit allen Details des Objekts. Das Objekt wird in einem
statischen Bild des Objekt von dem die exakten
Transformationsparameter bekannt sind pro Modell 1000 mal
erkannt. Der Groblokalisierungsfehler wird durch gaußsches
Rauschen um die bekannte exakte Lokalisierung simuliert. ]

OK. hier steckt im Prinzip bereits eine Ad Hoc Annahme drin, was meine weiteren Kommentare unten erklärt.

[Den
Fehler den ich dann Auswerten möchte berechne ich durch die
gefundene exakte Lokalisierung und die tatsächliche exakte
Lokalisierung.
Rein vom Gefühl würde meine Auswertung ergeben das das
mittlere Modell ausreichend ist, wenn man sich die Mittelwerte
der Fehler anschaut. Nur würde ich das gerne statistisch,
stichhaltig beweisen.
Hoffentlich hat das jemand verstanden.]

Hab ich es verstanden? Mal sehen:
Du versuchst die reale Welt mit möglichst wenig Aufwand nachzubilden.
Du gibst eine maximal zulässige Abweichung von der wirklichen Welt vor und möchtest nachweisen, dass diese Abweichung mit zB. 99 prozentiger Wahrscheinlichkeit nicht überschritten wird.

Da es sich bei der ganzen Sache eher um ein anwendungsorientiertes Modell und weniger um ein wissenschaftliches Problem handelt (das ist keine Wertung) schlage ich vor:
Nimm bei deinen Auswertungen diejenigen Verteilungsfunktionen, die mit kritischem menschlichem Auge gemessen deine Datensätze am besten repräsentieren. Bei einseitig begrenzten Merkmalen würde ich da durchaus auf die LogNV zurückgreifen, oder noch besser auf diejenige Verteilungsform, die das jeweilige Statistikprogramm anbietet.

Gruss,