und nochmal und nochmal und …
Hatten die schon immer 24Bilder /Sekunde auf Celluloid.
Das hat nichts damit zu tun, ob’s interlaced oder deinterlaced
ist.
Doch das ist der Knackpunkt!
Nur für den Fall Celluliod:
Wenn das Urmaterial Celluloid ist, dann ist dies zweifelsohne ein progressive Format.
Korrekt
Wird dieses Format nun digitalisiert und auf DVD gebracht,
dann wird durch die Umrechnung auf PAL (576i) das Urmaterial nicht verändert.
Auch wenn das PAL Signal nun interlaced ist, das wirkliche Video
ist es immer noch nicht. Im den allermeisten Fällen wird einfach mit 50Hz (also 25/frames/s) abgespielt.
Ham. Das ist jetzt Definitionsfrage. Ich seh schon, worauf du hinaus willst, aber machen wir erst mal weiter . . .
Daher sind die Filme bei uns auch immer kürzer wie die
Orginalspielzeit da sie 24/25 schneller abgespielt werden.
Korrekt.
Wenn dieser Film dann wieder decodiert wird merkt der Decoder
und/oder Deinterlacer das es eigentlich ein progressive Film ist
und stellt den Deinterlacer aus.
Und da rufe ich jetzt mal stopp. Zunächst mal gibt es ein interlaced-Signal, das ein Deinterlacer zusammenflicken muss.
Was du meinst, ist die Tatsache, das es sich bei den beiden Halbbildern einer DVD nicht wie beim Fenseher um zwei Bilder handelt, die um eine 50tel Sekunde auseinanderliegen und aufwendigst interpoliert werden müssten, sondern im Prinizp um zwei Hälften des gleichen Bildes.
Bis hierhin hast du absolut recht, keine Frage.
Das Problem ist, diese Erkennung kannst du nur mit dem digitalen Bildmaterial fahren, nach Analogisierung, Übertragung per Scartkabel und Digitalisierung funktioniert diese Erkennung nicht oder nur seltenst. Denn sonst hätten die ganzen Dinger in Mediamarkt und Co ein erstklassiges Bild, da sie meist von DVD gefüttert werden (weil’s einfach besser aussieht als das Fernseh-Programm).
Das funktioniert nur bei einem Deinterlacer, der auf digitaler Ebene arbeitet. Also, mit genau dem, was auf der DVD drauf ist. Halt im DVD-Player selber. Also einem sog. Progressive-Player.
Und selbst da funktioniert es nicht zuverlässig, das weis ich durch das Bild bei einem Kumpel, der son Teil hat.
Progressive wird (zumindest bei seinem Gerät) nämlich nicht am Bild erkannt (wie soll das auch gehen?), sodern es gibt irgendwo im Bitstrom ein spezielles Bit, das einem solchen Player sagt, was es für ein Material ist und welches das Top- und welches das Bottom-Frame ist. Und bei diesem Bit wird geschlampt ohne Ende!
Versteh mich nicht falsch - von der technischen Seite her hast du absolut recht. Video-DVDs, die ihre Herkunft in Hollywood haben, haben potentiell ein progressive Bild in bester Qualität zu bieten. Aber eben nur potentiell - in der Praxis funktioniert das nötige Deinterlacing (sic!) nach meiner Erfahrung in keinster Weise zuverlässig.
Und um das deutlich zu Betonen: das betrifft nur Hollywood-Filme. Bei Fernsehserien, die urspünglich für die NTSC-Norm gedreht wurden (Sex & the City, Ally McBeal, Stargate und und und) hilft das kein bischen weiter, weil es dort mangels 24fps-Aufzeichnung nicht funktioniert.
Auch bei europäische Filmen und europäische Fernsehproduktionen funktioniert es nicht. Okay, letzteres ist’n dünnes Argument, das geb ich zu - was gibt es da schon Sehenswertes 
In wieweit das für relevant für eine Kaufentscheidung ist sei mal dahin gestellt, aber mir wär es schon wichtig. Denn die Filme werden wir in den kommenden Jahren gegen entsprechendes HD-Material austauschen, bei solchen Fernseh-Sereien-DVDs gehe ich aber davon aus, das sie nie oder nicht sinnvollerweise in HD erscheinen werden.
Wobei ich nicht zu beurteilem vermag, wie die Qualität der Uraufnahmen ist. Ich halte es aber durchaus für wahrscheinlich, das sie nur in NTSC-Auflösung vorliegen. Und neue Scheiben mit einfach nur hochskaliertem Material zu kaufen wäre ja witzlos, das sollte unser Player/Fernseher auch selber können.
Genau und dann kommt auch der Deinterlacer ins Spiel,
Der Deinterlacer hat nichts, aber auch mal gar nichts mit der
Auflösung zu tun!
Natürlich hat er!
Wenn ich die Auflösung andere muß ich immer erst den Deinterlacer
bemühen, also Pflicht wenn kein Full-HD Panel vorhanden.
Warum? Du widersprichst dir selber: Wenn ich ein Progressive Signal auf eine andere Auflösung bringen will, muss nur der Up- oder Downscaler arbeiten. der Deinterlacer hat dann Pause.
wenn ich aber nativ aufs Panel gehe dann ist::
- der Deinterlacer piddel, paddel.
1080i kannst du nicht nativ auf’s Panel werfen.
Von der Auflösung wohl. Der Deinterlacer ist stand der Technik von
vor 10 Jahren und ist in jedem 100Hz Fernseher verbaut (OK die Bandbreite ist was höher).
Ja - und die Qualität der Deinterlacer in billigen Geräten hat auch heute noch die Qualität von vor 10 Jahren, davon rede ich doch!
Ich behaupte doch nicht, das es unmöglich ist, ich sage nur, das man für ein wirklich gutes Bild auch wirklich gutes Geld ausgeben muss - und der Deinterlacer macht nach meinen Erfahrungen den Löwenanteil der Qualitätsunterschiede aus.
darum rate ich einem Fimfreak ja auch zu einem FullHD, da ist
die Quelle mittlerweile so gut wie immer progressive. Beim
Fernsehen sieht das anders aus, darum ja meine differenzierten
Ausführungen.
Die aber nur stimmen für Fernsehproduktionen ansonsten ist das
echte Urmaterial progressive.
Hmmm . . . wenn Pro7 das echte Urmaterial auf Letterboxed herunterscaliert , nochmals komprimiert, damit es über den Transponder passt und es beim Empfänger dann analog auf die Glotze geschoben wird - den Deinterlacer, der daraus noch ein richtiges progressive Bild hinbekommt, den möchte ich sehen.
Du wirst mir zustimmen, das das eine echte Herausforderung ist. Bestimmt nicht unmöglich, aber genauso bestimmt nicht serienmäßig in Geiz-ist-Geil-Ware verbaut.
Außerdem ist es nicht sinnvoll, den Upscaler und Deinterlacer
in den DVD-Player zu verlegen, weil du dann immer noch dieses
Problem beim SAT-Reciever (oder DVB-T oder Kabel) und anderen
Videoquellen hast.
Falsch, nur der Decoder weiß wann deinterlacen angesagt ist,
der bekommt die Info quasi geschenkt.
Wie schon gesagt: Nicht falsch, nur (leider) nicht (immer) der Realität entsprechend.
Außerdem könnte man auch da gegenhalten:
Geplant ist ja eine digitale Übertragung der Signale via HDMI - und damit sollte auch der interne Deinterlacer in der Glotze diese Infos bekommen . . .
aber ich denke mal, das würde jetzt zu weit gehen.