Auflösung unserer Augen?

Wie hoch ist die „Auflösung“ unserer Augen? Lässt sich das messen? Wieviele Bildpunkte können wir erkennen - oder einfacher ausgedrückt - wie hoch müsste die Auflösung eines Bildes sein, damit es ebenso viele Details (auch in der Ferne) enthält, wie ein menschliches Auge wahrnehmen kann?
Und noch eine Frage: wieviele Farben können wir unterscheiden? Im Computerbereich wird von 24Bit-Farben, High-Color, True Color un 16 Millionen Farben gesprochen… kann man die Farb-Auffassungsgabe eines Menschen auch ebenso messen?

Andi

öhm

also da ich auf nem riesem tft display mit 32" noch jedes pixel erkennen konnte denke ich mal größer als 3072*2048 … außerdem ists rund, dann iss da noch die sache mit dem gelbem fleck und was farben angeht , schaum mal in das handbuch zu photoshop thema farbräume,
oder hier http://www.sohnrey.de/druckseiten/index_nf.htm
und hier http://www.iccview.de/examples/workspace.htm
und hier http://www.augusta.de/~hafner/diss/node56.html

Andi

Hallo Andreas,

Schwierig deine Fragen in relativ kurzen Sätzen zu beantworten, ich wills mal versuchen :smile:

Wie hoch ist die „Auflösung“ unserer Augen?

Wir können Strukturen abhängig vom Abstand auflösen.

z.B. im Betrachtungsabstand von einem halben Meter, kann das Auge Strukturen von 1-3 mm noch sehr gut auflösen, bis etwa 0,2-0,3 mm, da verschwimmt es.

In 3 m Entfernung sind es dann noch Strukturen von etwa 10-30 mm, die wir gut Auflösen, bis runter zu etwa 2-3mm.

Pixel, Raster, Bildschirme bauen auf dieses eingeschränkte Auflösungsvermögen.

Lässt sich das
messen?

Jain, man kann es durch Tests an Versuchspersonen herausfinden, bzw. mit einfacher Geometrie akzeptabel berechnen (der Abstand zweier Strahlengeraden mit circa 10 Grad Öffnung, das ist in etwa der Betrachtungswinkel mit dem wir sehen ).

Wieviele Bildpunkte können wir erkennen - oder
einfacher ausgedrückt - wie hoch müsste die Auflösung eines
Bildes sein, damit es ebenso viele Details (auch in der Ferne)
enthält, wie ein menschliches Auge wahrnehmen kann?

Wir können eben so viele Bildpunkte erkennen, wie es der Betrachtungsabstand zulässt. Also mit bekanntem Betrachtungsabstand, ergibt sich die ungefähre Pixelgrösse, die wir noch unterscheiden können. (seit langem praktiziert in der Werbung, grosse Plakate sehen von Nahem sehr pixelig aus, weil die Rastergrösse eben auf Entfernung ausgelegt ist)

Und noch eine Frage: wieviele Farben können wir unterscheiden?
Im Computerbereich wird von 24Bit-Farben, High-Color, True
Color un 16 Millionen Farben gesprochen…

Also im Moment finde ich die Literaturquelle nicht… :wink:, aber es sind etwa 100 Millionen Farben oder mehr die wir unterscheiden können. RGB (Additive Farbmischung am Bildschirm), CYMK (Subtraktive Farbmischung im Druckbereich) und auch monochrome Pigmente und Farbstoffe können nur einen Ausschnitt der tatsächlich möglichen Farbtöne darstellen.

Inzwischen hat sich eine Ganze Branche entwickelt, die sich mit den sogenannten Garmuts beschäftigt, das sind Darstellungen für Drucker, Bildschirme, Scanner usw. die zeigen, wie gross der darstellbare Farbbereich ist.

kann man die
Farb-Auffassungsgabe eines Menschen auch ebenso messen?

Die CIE hat das 1931 und 1964 versucht, dabei ist der Lab Farbraum herausgekommen. Allerdings basieren alle ergebnisse auf Testpersonen. Direkt kann man es nicht messen, weil sehr viele Faktoren zusammenspielen. Chemie (in den Pigmenten, in den Rezeptoren im Auge), Physik (Beleuchtung, Spektrum, Lichtreflektion und -absorption), Physiologie (Aufbau des AUges, Nervenleitung), Psychologie (verarbeitung des Sehreizes im Gehirn, Gemütsstimmung des Beobachters).

*g* leider kann ich deine Fragen nicht vollständig beantworten, vielleicht gibst du mal noch genauere Hinweise worum es geht ?

Grüsse

Mike

theoretische Maximalauflösung
Wenn man mal von einigen biologischen unzulänglichkeiten absieht, die sicherlich existieren, von denen ich aber keine Ahnung habe, könnte man wie folgt abschätzen:
Das kürzestwellige sichtbare Licht hat vielleicht 400 nm Wellenlänge, d.h. Objekte, die näher beisammen sind, können vom Menschlichen Auge auch mit Hilfe eines Mikroskops nicht mehr unterschieden werden.
Daraus würde dann eine Auflösung von ca. 40 Tera-pixel pro Zoll^2
resultieren. Ab dieser Auflösung kann also von einem kontinuierlichen, d.h. Pixelfreien Bild gesprochen werden.

Diese Rechnung ist aber nur eine Spielerei, eine brauchbare Antwort dürfte sie wohl kaum darstellen.

Gruß
L.

hallo Andi,

zur Auflösung selber ha ich hier grad keine Zahlen parat, aber ich weiß, daß die Dynamik des menschlichen Auges noch jeden Detektor übertrifft.
Mit Dynamik ist hier folgendes gemeint:
Jeder Detektor (CCD-Kamera, Photomutiplier, …) hat eine untere und eine obere Grenze was die Intensität angeht, die er messen kann. Ist das Signal zu schwach, wird es nicht detektiert, ist es zu stark, sprengt es den Messbereich. Dadurch daß sich das menschliche Auge an Helligkeit adaptieren kann, ist es in dieser Hinsicht allen bis heute gebauten Detektoren überlegen.
Ich hab das nicht genau parat, aber soviel ich weiß, schafft das Auge ein paar Zehnerpotenzen in der Intensität.

Grüßle,
Sandra

Hallo, Sandra,
zu dem, was Du hier zur optimal funktionalen „Hardware“ schreibst kommt dann noch eine ausgefeilte „Software“ hinzu, die außer Formerkennung, Farbinterpolation auch noch unzureichend aufgelöste Bilder (meist) sinnvoll interpretiert.
Das gesamte System „Sehen“ hat wegen seiner überragenden Bedeutung für das Überleben eine besonders intensive, jahrmillionenlange Entwicklungszeit hinter sich und wird immer noch laufend optimiert.
Wenn man außerdem an die Spezialversionen (Nachtsicht bei Eulen oder Katzen, Fernsicht bei Raubvögeln, Bewegungswahrnehmung bei Reptilien usw usf) denkt, dann kann man selbst die modernsten auf der Fotokina vorgestellten Modelle nur noch in die Ecje werfen :smile: (aber dann sagt mir bitte, in welche!)

Grüße
Eckard.

(aber dann sagt mir bitte, in welche!)

vielleicht in die Anfängermodell-der-optischen-Umgebungswahrnehmung-Ecke? LOL

Grüßle,
Sandra

Auflösung unserer Augen? ca 75 Mikrometer
Hi,

Wie hoch ist die „Auflösung“ unserer Augen?

bei „unbewaffnetem“ Auge und etwa 25 cm Abstand ist die Auflösung etwa 75 Mikrometer.

Lässt sich das
messen?

Im einfachen Selbstversuch: Falls du Zuhause Mikrometerschrauben hast geht das ziemlich einfach. Wenn Du Dir z.B. mit Rasierklingen eine Schlitzblende bastelst und das ganze geschickt beleuchtest, wirst Du feststellen, dass Du bei Blendenweiten unter etwa 75 um nicht mehr unterscheiden kannst, ob die Blende weiter geöffnet oder geschlossen wird.

Wieviele Bildpunkte können wir erkennen - oder
einfacher ausgedrückt - wie hoch müsste die Auflösung eines
Bildes sein, damit es ebenso viele Details (auch in der Ferne)
enthält, wie ein menschliches Auge wahrnehmen kann?

Das ist kompliziert, als Einstieg (auch in die Optik) ist www-inst.eecs.berkeley.edu/~ee119/ Optical%20systems.post.pdf
ganz brauchbar.
Ciao Rossi

Anhang
Lesenswert ist auch

Über das optische System Auge:
http://www.spie.org/web/oer/october/oct97/eye.html

Das standardisierte Auge:
http://www.4colorvision.com/standeye.htm
(Hier besonders: „resolution parameters“)

Hallo Andi,

Wie hoch ist die „Auflösung“ unserer Augen? Lässt sich das
messen? Wieviele Bildpunkte können wir erkennen - oder
einfacher ausgedrückt - wie hoch müsste die Auflösung eines
Bildes sein, damit es ebenso viele Details (auch in der Ferne)
enthält, wie ein menschliches Auge wahrnehmen kann?
Und noch eine Frage: wieviele Farben können wir unterscheiden?

Im Computerbereich wird von 24Bit-Farben, High-Color, True
Color un 16 Millionen Farben gesprochen… kann man die
Farb-Auffassungsgabe eines Menschen auch ebenso messen?

Das hat auch noch etwas mit Übung zu tun.

Aus eigener Erfahrung:
Ich habe vor 15 jahren, als Elektroniker, in der Textilfärberei gearbeitet. Da kamm dan manchmal so ein Färber ins Labor und hat geschimpft wie ein Rohrspatz, weil die Produktion mal wieder 2 Farbtöne daneben lag. Anfänglich hatten die die zwei Muster für mich jedenfalls die gleiche Farbe. Mit der Zeit konnte ich dann auch die Unterschiede feststellen.

Letzte Woche war ich bein Andruck in einer Druckerei, die bedrucken dor Papier mit Holzimmitation, und musste feststellen, dass ich, in der Zwischenzeit, wieder eniges verlernt habe.

Also es besteht auch noch ein grosser Unterschied zwischen dem was die Harware (das Auge) leistet und dem was die Software (das Gehirn) dann davon wirklich ausweten kann.

MfG Peter(TOO)

Diese Rechnung ist aber nur eine Spielerei, eine brauchbare
Antwort dürfte sie wohl kaum darstellen.

Allein schon deshalb, weil die Sinneszellen in der Netzhaut (die Bildpunktrezeptoren, kann man sich vorstellen als winzige, parallel angeordnete Photomultiplier) VIIIEEL breiter (Durchmesser) sind als 400 nm.

Dann haben die Sinneszellen auch noch die Eigenschaft, so empfindlich zu sein, dass sie teilweise schon ein einzelnes auftreffendes Photon „melden“ bzw. „feuern“. So kann es passieren (und passiert auch), dass es mal „falschen Alarm“ gibt. Würde dieser falsche Alarm nicht wieder rausgefiltert, würden wir nur „stark überbeleuchtete“ Bilder sehen und nicht viel erkennen. Ein sehr effektiver Filter besetht nun darin, dass ein Signal von einem Bildpunkt nur dann ans Gehirn weitergeleitet wird, wenn mehrere benachbarte Sehzellen gleichzeitig „feuern“. Das geht natürlich nochmal auf Kosten der Auflösung.

Gruß
Jochen

Hallo,

wenn ich mich recht an Informationen aus Astronomiebücher
erinnern kann, so hat das Auge ein Auflösungsvermögen von
ungefähr einer Bogenminute (ein sechzigstel Grad). Das heißt,
zwei punktförmige Objekte (zB 2 gleich helle Sterne) können
gerade noch getrennt wahrgenommen werden, wenn sie nicht näher
als eine Bogenminute Winkelabstand haben. Erschwert wird die
Sache, wenn zB der eine Stern deutlich heller als der andere
ist oder das Bild sehr kontrastarm (zB Sterne bei hellem
„Hintergrund“ durch Lichtverschmutzung.

Gruss, Niels