Signifikanz von Werte

Liebe Forum,
ich habe eine Frage dazu wie genau die signifikanz von Werten bestimmt wird.

Das Problem sieht folgendermassen aus: Ich habe eine Reihe von Werten (z.B. gemessene Anzahlen von Kaefern an 1000 Messpunkten). Fuer jeden von diesen Werten habe ich eine Statistik bestimmt (im konkreten Fall: die Getis-Ord Gi* Statistik). Diese Statistik ist angeblich so bearbeitet (Standardisiert?) dass sie quasi eine Z-Statistik darstellt, d.h. sie fuer jeden Wert angibt wieviele Standardabweichungen die Kaeferanzahl vom Mittelwert abweicht. Wenn die gemessenen Kaefer Anzahlen normal verteilt sind, kann man die Statistik daher nutzen die signifikanten Werte zu bestimmen (die Werte bei denen Z + oder - 1.96 gross ist, falls ein Significanzlevel von 95% angenommen wird).

So, meine Daten sind aber nun nicht normal Verteilt. Ein Statistiker hat mir empfohlen einfach die „top 1%“ (oder 5% oder was auch immer mein level ist) meiner Ergebnisse zu waehlen. Das wuerde zwar einen Signifikanztest simulieren, aber nicht eine bestimmte Haeufigkeitsverteilung voraussetzen. Ein Behelf, wenn denn die Normalverteilung nicht gegeben ist.

Wie waehle ich jetzt die "top 1% aus?
(a) die top 1% Werte: ich zaehle wieviele Werte ich habe und bestimme wieviel 1% davon ist (bei 1000 Messwerten also 10), und waehle dann entsprechend viele Messwerte aus, beginnend mit den hoechsten.

b) die top 1% der „population“: ich summiere alle Messwerte auf (ergibt z.B. 20.000 Kaefer insgesamt fuer die Population), bestimme wsa 1% davon ist (also 200 Kaefer), und addiere dann, beginnend mit den hoechsten Messwerten, so lange Werte auf, bis ich die gewuenschte Anzahl erreicht habe.

Welcher von den beiden Ansaetzen simuliert die Bestimmung von Signifikanz in einer Normalverteilung am besten?
Vielen Dank fuer die Hilfe!!!

Kerstin