Digitalkamera:Sterne vom Sensorrauschen trennen?

Hallo Kollegen :wink:

welche Grafiksoftware kann mir bei einer Sternen-Aufnahme via
Digitalkamera die Sterne vom Rauschen annähernd halbwegs brauchbar trennen ?

Geschickter Weise sollte das Programm sowohl (a) ein aufgenommenes digitales Himmelsfoto
und (b) ein Rauschpegel-Foto vom Sensor (also bei schlicht verdecktem Objektiv)
einlesen, und so den Rauschhintergrund wegrechnen, und das neue vereinfachte Bild speichern.

Kennt jemand was passendes ? Kann auch Freeware, oder ein Kommandozeilenprogramm
für W2K od. Linux sein.

VG,
-Thomas/Stuttgart

Mit Gimp sollte das möglich sein (für lau). Die Bilder in zwei Ebenen eines Bildes laden und subtrahieren.
Photoshop natürlich sowieso.

Kameras können das aber auch teilweise selbst und vollautomatistisch.
Bei der Nikon D70 z.B. läuft das unter der Bezeichnung Noisereduction.

Jens

Bilder subtrahieren reicht mE nicht
Hi Jens,

Mit Gimp sollte das möglich sein (für lau). Die Bilder in zwei

Ohh, das ist ja schonmal ein guter Vorschlag. Wird überprüft.

Ebenen eines Bildes laden und subtrahieren.

Also das Sensor-Rausch-Bild vom Sternen-Bild zu subtrahieren reicht
aus meiner Sicht nicht wirklich. Ich dachte eher an die Bestimmung
eines geeigneten ‚Threshold-Feldes‘, oder zumindest ‚eines‘ Threshold-Wertes aus dem Sensor-Rausch-Bild. Alle Pixel vom Sternen-Bild
mit Werten unterhalb des Thresholds sollten dann auf ‚schwarz‘ gesetzt werden.

Photoshop natürlich sowieso.

Hmm.

Kameras können das aber auch teilweise selbst und
vollautomatistisch.
Bei der Nikon D70 z.B. läuft das unter der Bezeichnung
Noisereduction.

Da muss ich mir doch nicht extra selbst ne Software zusammenbasteln,
die die Noise-Thresholds beherrscht ??

Jens

VG,
-Thomas

Alle Pixel vom
Sternen-Bild
mit Werten unterhalb des Thresholds sollten dann auf ‚schwarz‘
gesetzt werden.

Auch das geht mit GIMP … Kontrast auf Maximum drehen, dadurch bekommst du ein Bild, dass nur noch aus Schwarz und Weiß besteht … daraus kannst du dann eine Maske bauen …

Aber wofür brauchst du dann das Bild bei geschlossenem Verschluss?

Photoshop natürlich sowieso.

Hmm.

Kameras können das aber auch teilweise selbst und
vollautomatistisch.
Bei der Nikon D70 z.B. läuft das unter der Bezeichnung
Noisereduction.

Da muss ich mir doch nicht extra selbst ne Software
zusammenbasteln,
die die Noise-Thresholds beherrscht ??

Den exakten Algorithmus kenne ich natürlich nicht, aber prinzipiell macht die oben genannte Kamera nach dem eigentlichen Bild, noch eins ohne den Verschluss zu öffnen, aber ansonsten mit den selben sonstigen Daten (ISO, Belichtungszeit) und rechnet mit den beiden Bildern rum, mit dem Ziel Rauschen durch ‚hot pixel‘ rauszurechenen.

Gegen rauschen, dass nicht pixel spezifisch ist, gibt es in Grafikprogrammen auch jede Menge optionen, und es gibt spezielle Programme (z.B. Noise Ninja) die sich darauf spezialisiert haben (einfach mal googlen)

In der Astrophotografie werden häufig sehr viele Aufnahmen vom selben Motiv gemacht und überlagert … ich habe aber nie ganz verstanden, warum das besser ist, als einfach entsprechend lange zu belichten.

Jens

Moin,

Alle Pixel vom
Sternen-Bild
mit Werten unterhalb des Thresholds sollten dann auf ‚schwarz‘
gesetzt werden.

Aber wofür brauchst du dann das Bild bei geschlossenem
Verschluss?

Ein sogenanntes Dark liefert Dir ausschließlich das Sensorrauschen bzw. noch wichtiger, Sensorfehler. Man bekommt also ein schwarzes Bild inklusive evtl. vorhandener heißer Pixel o.ä. Dieses vom Orginal zu subtrahieren ist i.A. notwendig und sinnvoll. Bedingung dafür ist, daß die Belichtungszeiten und die Umgebungstemperatur der beiden Aufnahmen (Orginal und Dark) gleich sind.

Da muss ich mir doch nicht extra selbst ne Software
zusammenbasteln,
die die Noise-Thresholds beherrscht ??

Nein. Siehe unten.

Den exakten Algorithmus kenne ich natürlich nicht, aber

Sowas ist meist eine exakte Subtraktion. Wenn man will, kann man noch einen Median- oder Gaussfilter (oder sonst einen Glättungsfilter) drüberschieben, um ein wenig zu glätten; aber das ist nicht immer hilfreich.

Gegen rauschen, dass nicht pixel spezifisch ist, gibt es in
Grafikprogrammen auch jede Menge optionen, und es gibt
spezielle Programme (z.B. Noise Ninja) die sich darauf
spezialisiert haben (einfach mal googlen)

In der Astrophotografie werden häufig sehr viele Aufnahmen vom
selben Motiv gemacht und überlagert … ich habe aber nie ganz
verstanden, warum das besser ist, als einfach entsprechend
lange zu belichten.

Zwei oder drei Gründe:

  • ein Motiv kann man nur eine gewisse Zeit lang belichten, wenn man bspw. wie an einem Teleskop die Blende nicht wählen kann. Man wird also solange belichten bis der hellste Bereich fast die Sättigung erreicht.
  • Selbst wenn der erste Grund nicht gegeben ist, so fängt man sich mit kleiner Öffnung Beugungseffekte ein, die die mögliche Auflösung begrenzen. Je kleiner die Öffnung ist, desto größer sind die Beugungseffekte. Somit wäre es sinnlos, lange zu belichten, wenn weniger Details zu erkennen sind als mit größerer Öffnung. Auflösung ~ Wellenlänge des Lichts / Öffnung des Objektivs
  • Wenn man mehrere Bilder hintereinander vom selben Motiv macht, dann ist evtl. ein Bild futsch, wenn zwischendrin wer am Stativ wackelt, die Nachführung spinnt etc. oder das Objekt noch scharf, wenn die Nachführung ungenau ist.

Addiert man jetzt mehrere Bilder, wo steigt das Signal-zu-Rauschverhältnis an. Begründet liegt das darin, daß das Rauschen als zufällige Störung angesehen werden kann, deren Mittelwert bei Null liegt. Das eigentliche Bildsignal ist jedoch immer gleich. Wenn wir also viele Bilder addieren, so wird die Statistik besser und das Rauschen mittelt sich besser heraus. Es gilt S/N ~ sqrt(N), d.h. man braucht 4 Mal soviele Aufnahmen, um das S/N-Verhältnis zu verdoppeln.

ImageJ kann Dir vermutlich helfen: http://rsb.info.nih.gov/ij/

Oder, wenn Du Astronomie mit Belichtungsreihen oder einer Videokamera oder Webcam betreibst, ist für Bildsequenzen http://www.videoastronomy.org/ sehr zu empfehlen.

Gruß,
Ingo

Bild bei geschlossenem Verschluss:Sensor-Rauschen
Hi,

Auch das geht mit GIMP … Kontrast auf Maximum drehen,

Checking in progress :wink:

Aber wofür brauchst du dann das Bild bei geschlossenem
Verschluss?

Ich weiss dann, was alles zum Sensor-Rauschen gehört. Kann ja
sein dass da ein-zwei kaputte Pixel (pixel ‚hell‘ wo kein Objekt) dabei sind.
Eigentlich müsste man sogar ein Bild von einem weissen Blatt
erzeugen, um eventuelle Pixel-Probleme zu erkennen (Pixel ‚schwarz‘ obwohl Objekt vorhanden), oder besser noch ein Bild von einer Graukarte erzeugen, gell ?

Den exakten Algorithmus kenne ich natürlich nicht, aber
prinzipiell macht die oben genannte Kamera nach dem
eigentlichen Bild, noch eins ohne den Verschluss zu öffnen,
aber ansonsten mit den selben sonstigen Daten (ISO,
Belichtungszeit) und rechnet mit den beiden Bildern rum, mit
dem Ziel Rauschen durch ‚hot pixel‘ rauszurechenen.

Die betroffene Kamer hab ich leider net, werde wohl nur ein
paar Tests mit einer, ähm, Fujifilm F30 machen. Die nimmt
immerhin erfolgreich den Sternhimmel auf :smile:. Demnächst gibts mit einer Spiegelreflex-KonicaMinolta und einem Telekop ein paar bessere Folgefotos.

spezielle Programme (z.B. Noise Ninja) die sich darauf
spezialisiert haben (einfach mal googlen)

OK, wird überprüft.

In der Astrophotografie werden häufig sehr viele Aufnahmen vom
selben Motiv gemacht und überlagert … ich habe aber nie ganz
verstanden, warum das besser ist, als einfach entsprechend
lange zu belichten.

Hatte ich auch mal nicht verstanden. Ich denke mal,
(a) man kann einzelne ‚schlechte Bilder‘ (zB verwackelt, od mit
Satellitenspur etc) aus der Sequenz manuell rauswerfen
(b) Mit einem verwendeten SensorChip X (bei digitalen Aufnahmen)
hat man irgendwann nach einer bestimmten Belichtungszeit
den zulässigen Maximalpegel pro Pixel an einer Sternenposition Y
erreicht. Eine weitere Belichtung würde zu einem falschen Helligkeitspegel führen, du weisst, was ich meine ?
Wenn man aber mehrere Bilder addiert, die jeweils einzeln
nirgendwo ihr lokales Pixel-Pegel-Maximum erreichen, dann ist
auch in der Summer der Bilder kein Helligkeitsfehler bzgl
dieses Problems da.
© Im Prinzip steigt mit der Bild-Addition auch die Bit-Tiefe pro
Pixel. Wenn man nur 8 bit pro Farbe hat, dann hätte man
bei vier addierten Bildern sozusagen schon 10 bit pro Pixel.

Mit meiner FinePix F30 gibts nur 8bit pro Farbe&amp:stuck_out_tongue_winking_eye:ixel (sie hat laut docu 24bit pro RGB_Pixel), da bin ich sozusagen betroffen. Z.B. eine HP Photosmart M627 hätte hier schon meines Wissens 12 Bit pro Farbe&amp:stuck_out_tongue_winking_eye:ixel (hat laut Manual 36 bit pro RGB_Pixel), allerdings wird hier das Bild auf 24 bit Farbtiefe runtergerechnet.

Kann aber sein, dass es noch andere Gründe für Bild-Summationen gibt.

VG,
-Thomas

Begründet liegt das darin, daß
das Rauschen als zufällige Störung angesehen werden kann,
deren Mittelwert bei Null liegt.

hallo,

Das ist nicht ganz richtig: das Rauschsignal hat einen Mittelwert, der von vielen verschiedenen Einflüssen abhängt, jedoch definitv nicht 0 ist. Wäre es 0, müsste eine „negative“ Ruaschleistung möglich sein. Da es das jedoch nicht gibt (ausgenommen in etwaigen exotischen Berecihen der Quantenmechanik, die für unseren Fall jedoch keine Rolle spielen), ist auch keine mittlere Rauschleistung von 0 möglich. Die S/N bleibt somit immer gleich. was jedoch möglich ist, ist folgendes: man kann das Rauschen durch oben beschriebene Methoden „glätten“ und dadurch von Sternen zumindest unterscheiden. (Das Rauschen wird übrigens in „guten“ Geräten hauptsächlich duch die Umgebungstemperatur, sowie Atmosphäre(-ntemperatur) beeinflusst.)

Grüße, Tom

Die S/N bleibt somit immer gleich.

sorry… hier korrigiere ich mich: es ist möglich sie zu verändern…

hi Thomas

ein kollege verwendet zum nahbearbeiten von astronomischen aufnahmen die software maxime dl
http://www.cyanogen.com/products/maxim_main.htm

generell:
man benötigt drei „dummy“ aufnahmen, um das sensorrauschen wegrechnen zu können:

  • eine aufnahme mit geschlossenem deckel und der kürzesten belichtungszeit um das ausleserauschen zu ermitteln (wird in folge abgezogen)
  • eine aufnahme mit geschlossenem deckel und der selben belichtungszeit, mit der auch die aufnahmen gemacht werden. damit das grundrauschen des chips ermittelt. wird ebenfalls abgezogen. diese aufnahme sollte übrigens ungefähr zur gleichen zeit wie die echte aufnahme gemacht werden, damit die selben voraussetzungen (z.b. temperatur des chips etc.) gegeben sind. bei sehr langen belichtungszeiten wird die aufnahme ja auf mehrere einzelaufnahmen aufgeteilt. dann auch zwischen den aufnahmen diese schwarzaufnahmen machen und später kombinieren.
  • eine aufnahme von einem möglichst hellem objekt - wenn möglich gleichmässig hell. damit kann die empfindlichkeit der einzelnen pixel gemessen werden und damit in folge etwaig unterbelichtete pixel verstärkt werden.

ist ein ganz schöner aufwand für ein paar aufnahmen…

lg
erwin

Moin,

das Rauschen als zufällige Störung angesehen werden kann,
deren Mittelwert bei Null liegt.

hallo,

Das ist nicht ganz richtig: das Rauschsignal hat einen
Mittelwert, der von vielen verschiedenen Einflüssen abhängt,
jedoch definitv nicht 0 ist. Wäre es 0, müsste eine „negative“

Du hast Recht. Ich habe meinen innerlich vorhandenen Schritt, daß ich vom Bild einen konstanten Mittelwert subtrahiere, in meinen Ausführungen übersprungen bzw. ausgelassen. Es stimmt natürlich, daß auch der absolute Level des Rauschens ansteigt, die relative Rauschamplitude bezüglich dieses Mittelwertes jedoch mit zunehmender Integration abnimmt. Genau das spiegelt sich auch im besser werdenden S/N-Verhältnis wider.

Gruß,
Ingo