Repräsentativer Umfang an Versuchen

Hallo,

ich habe zu einer Bachelorarbeit eine Frage bezüglich der notwendigen Anzahl an Versuchen: Ich will untersuchen, ob ein Bakterienstamm einen bestimmten Stoff abbauen kann. Ich züchte den Stamm auf einem Medium in Petrischalen und gebe die Substanz dazu und überprüfe nach einer definierten Zeit, ob der Stoff abgebaut wurde. Wie kann ich berechnen, wieviele Petrischalen optimal sind? Entweder die Bakterien können das unter definierten Bedingungen oder nicht. Aber eine Petrischale kann doch nicht reichen?

Gruß
Feivel007

Aber eine Petrischale kann doch nicht reichen?

n=1 :smile: na ja, dann hast du zumindest ein ‚eindeutiges‘ Ergebnis

Welche Statistischen Tests willst du denn machen? Und gibt es keine Variationen in der Behandlung?
Und wie sieht es mit Kontrollgruppen aus?

Du sprichst eine ganze Wissenschaft an. Biometrie. Wenn Du brauchbare wissenschaftliche Ergebnisse erhalten willst, musst Du einen Biostatistiker, Biometriker für die Versuchsplanung einschalten.
Udo Becker

musst Du einen Biostatistiker, Biometriker für die Versuchsplanung
einschalten.

:smile: ja, klar - theoretisch stimmt das natürlich. Ich kenne zwar niemand der das macht…, schon gar für eine Bachelor Arbeit nicht, aber vielleicht hängts auch vom Fachbereich ab?

Ich würde halt mal den Betreuer fragen.

Hallo!

Die Frage ist zunächst, ob Du den Abbau eindeutig nachweisen kannst. D. h. ist die erwartete Abnahme des Stoffes so groß, dass die Aussage ob es geklappt hat oder nicht eindeutig zu treffen ist.

Wenn Du mit einer Abnahme um 99% rechnest, ist es eindeutig, aber wenn das Bakterium nur zu 1% Abnahme führt, wird es schwierig.

Im ersteren Fall reicht tatsächlich ein Versuch, eine Positv- und eine Negativkontrolle.

Im zweiteren Fall musst Du die Abnahme jeweils quantitativ bestimmen und dann - z. B. mittels T-Test - bestimmen, ob die Abnahme signifikant ist. Wie viele Ergebnisse Du brauchst, hängt dann davon ab, wie sehr sie von Versuch zu Versuch streuen. Das kann Dir im Voraus noch niemand sagen.

Michael

Hallo,

esrtmal brauchst du gute Kontrollen. Das ist das A und O. Es kann sich dabei um eine Bakterienart handeln, welche a) die Substanz bekanntermaßen abbaut und/oder b) die Substanz bekanntermaßen nicht abbauen und/oder c) der selbe Ansatz ohne Bakterien und/oder d) mit einer ähnlichen Substanz mit sehr ähnlichen Eigenschaften bis auf die, dass sie nicht abgebaut werden kann.

Ein exploratorischer Ansatz umfasst soviele Versuche, wie praktisch/finanziell durchführbar („feasable“). Unter 5 brauchst du nicht anfangen. Das gibt immerhin erste qualitative Hinweise.

Für eine saubere konfirmatorische Studie, welche statistisch sauber geplant werden kann/muss, musst du vorher scon einiges über die Daten wissen. Dazu macht man Pilotstudien. Das sind die o.g. explorativen Studien, allerdings sollten für diese Zielsetzung schon so 50 oder mehr Schalen pro Gruppe untersucht werden. Damit ließen sich dann Schätzungen zur Verteilungsform, Streuung und Effekt machen.

Mit den Kenntnissen aus der Pilotstudie und der gewählten Sicherheit, den erwarteten Effekt („Stärke des Abbaus“) nachzuweisen („power“) und der gewählten Unsicherheit, einen Effekt zu postulieren, der tatsächlich nicht da ist (Typ-I-Fehler: Die zufällige Streuung der Stichprobe ergibt zufällig einen Effekt), kann man den statistischen Test festlegen und die nötige Fallzahl planen. Dann macht man das Experiment und wertet die Daten aus. Ist der test statistisch signifikant auf den gewählten Niveau, dann hat man den Abbau nachgewiesen. Ist er nicht signifikant, hatt man mit der gewählten power nachgewiesen, dass der tatsächliche Abbau kleiner ist als der gewählte Mindesteffekt.

In aller Regel reicht der exploratorische Ansatz. Doktorarbeiten kommen auch nicht über mehr oder weniger brauchbare Pilotstudien hinaus (meistens reicht n=50 aus, um eine hinreichend gute Normalverteilung der Stichprobenmittelwerte zu postulieren und den t-Test zu verwenden, und der ist dann auch meist signifikant, so dass nur die Frage bleibt, ob der statistisch nachgewiesene Effekt biologisch relevant ist). Die konfirmatorischen Studien sind m.W. nur im klinischen Bereich gebräuchlich, wo es um die Zulassung odre Ablehnung von Medikamenten usw. geht (Phase II/III Studien).

Petrischalen optimal sind? Entweder die Bakterien können das
unter definierten Bedingungen oder nicht. Aber eine
Petrischale kann doch nicht reichen?

Wenn du zeigst oder wenn man weiss, dass der Stoff selbst stabil ist (auch in Gegenwart von Bakterien), dann reicht im Prinzip eine Schale, um zu zeigen, dass die Baktis ihn abbauen können. dazu muss der Abbau deutlich sein. Mist weiss man sowas aber nicht so genau und/oder der Effekt ist nicht soooo groß. Dann hilft eben nur Statistik. Ein nachweis, dass Bakterien den Stoff NICHT abbauen, ist mit einer Schale prinzipiell unmöglich (weil immer irgendwas nicht geklappt haben kann - die Bakterien sind nicht gewachsen, waren nicht gesund, kamen nicht an den Stoff, weiß der Geier was).

LG
Jochen

Gruß
Feivel007

Hi pollux,

Da hast du schon recht, aber das ist genau der Punkt, an dem es dann immer hakt; schlußendlich hat sich jemand viel Mühe gegeben und weil er sich oder sein Betreuer sich keine Gedanken um die Analyse gemacht haben oder schlicht mal einen Statistiker vorher gefragt haben tritt dann einer oder mehrere der folgenden Punkte ein:
a) eine stat. Hypothese ist nicht formuliert
b) die studie ist gar nicht so designed, dass man a) messen / testen könnte
c) die Zeit ist am Ende zu knapp um sich noch mit der probaten (ggf. komplizierten) stat. Methode auseinandersetzen zu können
d) wegen c) oder dem „Wissen“ der Betreuer wird irgendeine stat. Methode verwendet, die weniger power hat oder (noch schlimmer) verzerrte ergebnisse liefert
e) die ergebnisse werden „totgetestet“, d.h. es werden ohne multiplicity adjustement soviele Hypothesen getestet, bis etwas signifikantes herauskommt.

Unter dem Deckmantel der explorativen Studie kann man zwar e) umgehen, aber nicht den Rest. Und wenn man bedenkt, dass vielen Bettreuern die Bedeutug eines sig. Ergebnisses einer explorativen Studie gar nicht klar ist wird zum einen etwas publiziert was so nicht unbedingt richtig ist und zum anderen ist es unfair dem Betreuten gegenüber, dass seine Mühe am Ende an so etwas einfachen scheitert.
Zum wissenschaftlichen Arbeiten (egal ob nun explorativ oder nicht) gehört auch die Statistik. Man vergibt sich nichts, mal nachzufragen, sei’s nun hier im Forum, bei der stat. Abteilung der Uni oder direkt im mathematischen Bereich.

Grüße,
JPL

[Bei dieser Antwort wurde das Vollzitat nachträglich automatisiert entfernt]

Hall,

eine Zwischenfrage:

Und wenn man bedenkt, dass
vielen Bettreuern die Bedeutug eines sig. Ergebnisses einer
explorativen Studie gar nicht klar ist wird zum einen etwas
publiziert was so nicht unbedingt richtig ist

In wie fern ist denn ein sig. Ergebnis einer explorativen Studie anders zu interpretieren als das einer konfirmatorischen Studie? Und warum?

LG
Jochen

Hi Jochen,

In wie fern ist denn ein sig. Ergebnis einer explorativen
Studie anders zu interpretieren als das einer
konfirmatorischen Studie? Und warum?

Explorative Studien sollen mögliche Zusammenhänge oder Variablen finden, die man später in einer schließenden Studie bestätigt (oder auch nicht). Bei exp-Studien legt man also weniger Wert auf das Einhalten des Sig-Niveaus und konzentriert sich eher auf Punktschätzer. Entsprechend irrelevant sind (oder sollten) daher p-Werte sein. Alleine schon weil eine korrekte schließende Studie auf eine vorherige Fallzahlplanung beinhalten sollte und man die Testprozedur vorher explizit festlegt, ist es für viele Forscher oftmals gar nicht möglich, eine echte schließende Studie zu machen (meistens schon wegen der nötigen Fallzahl) und sie machen, ob sie es wollen oder nicht, „nur“ eine explorative Studie. Dementsprechend muss man sich immer fragen: Wieviele Hypothesen haben die denn getestet und ob sie auch adjustiert haben. Oft ist die Antwort: Viele und nein. Und in dem Kontext muss man dann auch den p-Wert betrachten.

Grüße,
JPL

Hallo,

Danke für die Antwort. Soweit ist mir das schon klar. Was ich wissen wollte: Gesetzt den Fall, ein adäquater Test wurde verwendet und die p-Werte sind korrekt adjustiert - hätte dann ein sig. Ergebnis in einer expl. Studie eine andere Bedeutung/Interpretation als in einer konf. Studie? Ich denke: nein. Dein erstes Posting hatte ich jedoch so verstanden, als dass du diese Frage mit „ja“ beantworten würdest. UNd wenn dem so ist: Warum?

LG
Jochen

Hi,

Danke für die Antwort. Soweit ist mir das schon klar. Was ich
wissen wollte: Gesetzt den Fall, ein adäquater Test wurde
verwendet und die p-Werte sind korrekt adjustiert - hätte dann
ein sig. Ergebnis in einer expl. Studie eine andere
Bedeutung/Interpretation als in einer konf. Studie? Ich denke:
nein.

Das stimmt. Da aber eine explorative Studie eben nicht dieser Einschränkungen bedarf, wird kaum einer Exp-Studie draufschreiben und dann eine schließende durchführen. Meistens schrieben sie ja einfach gar nix und dann kann man sich nur denken, was es war.
Grüße,
JPL

Das stimmt.

Da bin ich ja beruhigt.

Meistens
schrieben sie ja einfach gar nix und dann kann man sich nur
denken, was es war.

Ja. Schlimmer finde ich aber noch, dass oft Experimente so oft durchgeführt werden, bis das Ergebnis endlich signifikant ist. Das ist IMHO Betrug. Oft ist es jedoch schwer, aus der Etablierungsphase heraus einen Schnitt zu machen und zu sagen: Jetzt funktioniert die Technik (gut genug), jetzt mache ich das eigentliche Experiment. Meist geht das eine ins andere über (um Geld & Zeit zu sparen, klar), und dann wird zu früh geschaut, ob irgendwas schon signifikant ist, und wenn nein, „optimiert“ man weiter…

Grüße,
Jochen

Hi Jochen,

Ja. Schlimmer finde ich aber noch, dass oft Experimente so oft
durchgeführt werden, bis das Ergebnis endlich signifikant ist.
Das ist IMHO Betrug. Oft ist es jedoch schwer, aus der
Etablierungsphase heraus einen Schnitt zu machen und zu sagen:
Jetzt funktioniert die Technik (gut genug), jetzt mache ich
das eigentliche Experiment. Meist geht das eine ins andere
über (um Geld & Zeit zu sparen, klar), und dann wird zu früh
geschaut, ob irgendwas schon signifikant ist, und wenn nein,
„optimiert“ man weiter…

Das stimmt auch wieder. Abhilfe wäre da ein adaptives design, aber das ist zugegebenermassen etwas zu komplex um das mal eben umzusetzen. Dabei tun sich ja sogar die großen Firmen mit genug Ressourcen schwer.
Ein Anfang wäre zumindest, dass man den Leuten den Unterschied und ggf. die Konsequenzen klar macht.
Grüße,
JPL