HD oder Full HD?

Hallo Wissende

Sollte diese Frage bereits gestellt worden sein, bitte ich um Nachsicht, denn ich treibe mich normalerweise nicht in diesem Brett rum…

Ich möchte im Frühjahr von meinem Röhrenfernseher auf einen Flatscreen wechseln. Beim Googlen habe ich zu oben stehender Frage widersprüchliche Inormationen gefunden. In einige Foren ist zu lesen, Full HD sei ein absolutes Muss, in anderen Foren steht, Full HD sei bloss ein Werbegag der Hersteller und bringe an sich keine wesentlichen Vorteile.

Wie seht Ihr das? Rechtfertigt Full HD wirklich den teilweise doch massiv höheren Preis gegenüber HD-Geräten? Und wenn ja, warum?

Schon jetzt vielen Dank für Eure klärenden Antworten.

Moien

Wie seht Ihr das?

Erstmal sollte man wissen was hinter HD ready und Full HD steht ( http://en.wikipedia.org/wiki/HD_ready ) Ganz grob müssen HD ready Geräte alle möglichen HD-Signale annehmen und mit 720p/1080i wieder ausgeben können. Full HD Geräte müssen die Signale ohne Verluste (1080p) auch anzeigen können.

Der Unterschied zwischen 1080i und 1080p sind 50% mehr Pixel. (ganz grob: p = volle Pixelzahl, i = halbe Pixelzahl pro Bild, dafür mehr Bilder)

Ob man was davon hat hängt vom Ausgangsmaterial ab. Für PAL (also 99.5% der free-TV Sendungen) macht es keinen Unterschied. PAL entspricht in etwa 576i und das können alle 3 (HD ready, full HD und deine Röhre).

Interessanter wird es bei HD-Sendungen, BlueRay und HD-DVD. HD-Sendungen auf den meisten Pay-TV Sendern sind derzeit noch oft in 1080i oder schlechter (kein Unterschied zwischen HD ready und full HD aber ein grosser zu deiner Röhre), werden aber langsam besser. BlueRay und HD-DVD sind fast immer 1080p (da sieht man den Unterschied zwischen HD ready und full HD. Zumindest mal in Theorie).

Jeder Augenarzt kann dir ausrechnen wie nahe man am Gerät sein muss um den Unterschied auch tatsächlich zu sehen. So nahe setz ich mich an keinen Fernseher. Aber das ist Geschmackssache.

cu

Mahlzeit!

HD-Ready Geräte müssen HD Auflösungen irgendwie darstellen können
also 1280*720 und 1920*1080. Das Panel (der wirkliche Schirm) muß
aber keine dieser Auflösungen haben und hat meist 1366*769 (oder
ähnlich).

Soll heißen, bei allen HD Filmen rechnet diese Flimmerkiste sich
mächtig einen in die Tasche, mal besser mal schlechter.

Ein Full HD Gerät besitzt als physische Auflösung des Panels 1920*1080.
Da nahezu alle HD Filme (einschließlich DVB-S, Premiere) diese
Auflösung schicken kann der Fernseher dies ohne umrechnen darstellen.

Die Aussagen meines Vorredners das bei 1080i kein Unterschied
ist, würde ich an deiner Stelle mal ignorieren, da falsch.

Ob man einen Unterschied sieht hängt von der Bildschirmdiagonalen
und dem Betrachtungsabstand ab. Ab 37 Zoll würde ich nur noch
Full HD kaufen.

Gruß
Stefan

Soll heißen, bei allen HD Filmen rechnet diese Flimmerkiste
sich
mächtig einen in die Tasche, mal besser mal schlechter.

Hallo,
wo bitte gibt es HD Filme? Meine es ernst, habe da keine Ahnung.

Wenn Du allerdings DVD meinst, da rechnet bereits der Player.
Ach ja, ich habe mir gerade einen HD ready gekauft, super Bild mit DVD und 1080p Einstellung am DVD Player.
Ein Freund hat einen Full HD: das Bild von analogen Quellen und DVD ist einfach nur grausig.

An den Fragesteller:
ob Full HD oder HD ready ist nicht so wichtig wie ein gutes Bild insgesamt. Was nutzt Full HD wenn der TV die Schwarzwerte nicht vernünftig darstellen kann.
Klar: bei einer Diagonalen von 50 Zoll würde ich mir nur Full HD kaufen, aber die 4-5tsd Euro sind für mich jenseits von gut und böse. Und bei meinen 42 Zoll habe ich mich klar für einen der besten TVs der Welt entschieden - komisch, er gewinnt alle Vergleichtests namhafter Zeitschriften und ist Referenz, obwohl er „nur“ Full HD ist (Pioneer PDP-4280XA).

MFG
Hagen

Hallo,

Der Unterschied zwischen 1080i und 1080p sind 50% mehr Pixel.
(ganz grob: p = volle Pixelzahl, i = halbe Pixelzahl pro Bild,
dafür mehr Bilder)

Nein, das ist sicher nicht der Fall.
1080i bedeutet interleased. Dabei werden 2 Halbbilder nacheinander
im Zeilensprungverfahren übertragen, die dann aber genauso zu
FullHD-Auflösung = 1920x1080 Pixeln zusammengesetzt werden.
-> Anwendung bei DVB-S wegen der begrenzten Bandbreite

1080p bedeutet progressiv. Das Bild wird in komplett übertragen.
-> Anwendung bei BlueRay und HD-DVD

Interessanter wird es bei HD-Sendungen, BlueRay und HD-DVD.
HD-Sendungen auf den meisten Pay-TV Sendern sind derzeit noch
oft in 1080i oder schlechter (kein Unterschied zwischen HD
ready und full HD

Du verwechselst da 1080i mit 720p !

Gruß Uwi

Morgen!

wo bitte gibt es HD Filme?

Samstag 20:15 Pro7 eine Komödie, Namen hab ich vergessen
Sonntag 20:15 Pro7 SpiderMan II
to be continued…
Übrigens Sat1 sendet auch manchmal in HD.

Meine es ernst, habe da keine Ahnung.

Man merkts.

Wenn Du allerdings DVD meinst, da rechnet bereits der Player.

Du meinst der Player rechnet und dann rechnet der Fernseher nochmal
dran rum, anders geht es nicht!

Ach ja, ich habe mir gerade einen HD ready gekauft, super Bild
mit DVD und 1080p Einstellung am DVD Player.
Ein Freund hat einen Full HD das Bild von analogen Quellen
und DVD ist einfach nur grausig.

Äpfel und Birnen.
Ich hab einen 46 Zoll Full HD und hab ein super Bild und nu?

An den Fragesteller:
ob Full HD oder HD ready ist nicht so wichtig wie ein gutes
Bild insgesamt.

Geschmackssache aber sehen kann ich es trotzdem auf den größeren
Geräten.

Was nutzt Full HD wenn der TV die Schwarzwerte
nicht vernünftig darstellen kann.

Ja, ja das ist so das einzige was eine Zeitschrift messen kann und
dann Testergebnisse produzieren (ich weiß Kontrast und Farbumfang
schaffen sie machmal auch).

Klar: bei einer Diagonalen von 50 Zoll würde ich mir nur Full
HD kaufen, aber die 4-5tsd Euro sind für mich jenseits von gut
und böse.

Muß auch nicht, meiner war mit 1800 dabei und 52 Zoll gibt es für ca.
2400 - 2800.

Und bei meinen 42 Zoll habe ich mich klar für einen
der besten TVs der Welt

Na dann…

1024*768 Pixel auf 42 Zoll hat mit HD gar nichts zu tun und ist
gerade mal aufgemöppeltes PAL. Dein Wohnzimmer scheint recht
groß zu sein ansonsten könntest du die Pixel einzeln zählen.

Gruß
Stefan

Hallo.

Die Meinung der anderen wirst da ja schon studiert haben.

So aus’m Bauch raus würde ich auch immer zu Full-HD raten (und ich persönlich werde mir keinen flachen holen, bis wirklich große Full-HDs nicht in ordentlicher Qualität zu erschwinglichen Preisen draussen sind), aber:
So einfach isses (natürlich) nicht.

In der c’t war vor einigen Monaten ein recht erhellender Artikel.

Danach ist das Kernproblem bei der ganzen HD-Technologie (oder vielmehr bei jeder digitalen Video-Technologie) dieser völlig idiotische Interleave-Modus mit seinen zeitverstzten Halbbildern (ich weis echt nicht, warum die Idioten diesen Schwachfug nicht ein für allemal über Bord geworfen haben . . .), die aufwendig wieder zu Vollbildern zusammengerechnet und korrigiert werden müssen.

Die Produzenten (der Filme) habe das zu Glück mittlerweile geschnallt und benutzen wenn möglich lieber den Progressive Mode mit ganzen Bildern.

Bei der BlueRay oder HD-DVD ist das auch kein großes Problem, da gibt’s Platz satt. Aber bei einer Fernsehübertragung ist die Bandbreite nun mal begrenzt. Auf dem gleichen Platz, den ein „richtiger“ Full-HD-Kanal mit 1080p brauchen würde, kann man auch zwei Kanäle mit 720p übertragen. Sind schlicht und ergreifend Kosten.
Man könnte zwar auch zu 1080i greifen, überträgt dann aber die anspruchsvolle Aufgabe des Deinterlacings damit dem Equipment des Kunden - und das ist die Stelle, wo sich gute Geräte von mäßigen oder gar schlechten geradezu dramatisch unterscheiden. Was natürlich der Kunde im Geiz-ist-geil-Markt nicht weiss und lieber 1000 Euro spart - mit den entsprechenden Konsequenzen bei der Bildqualität be solchem Material. Und dann Geschimpfe auf die besch…eidene Sendequalität.

Ergo werden viele Sender - besonders bei Programmen mit schnellen horizontalen Bewegungen --> Fußball!!! - „nur“ 720p ausstrahlen.
Die höhere Auflösung von 1080i macht den Qualitätsverlust durch die mit Masse erbärmlichen Deinterlacer in günstigen Consumer-Geräten bei weitem nicht wett.

Und natürlich sieht ein Bild auf einem Gerät mit der richtigen, nativen Auflösung immer um einiges knackiger aus, als wenn es krum herauf- oder herunter gerechnet werden müsste.

Daher mein Rat:
Überlege dir gut, was du sehen willst.

  • Wenn du Filme-Freak bist und dir mit Masse entsprechende Datenträger aus der Videothek holst oder gar kaufst, dann würde ich unbedingt zu Full-HD raten.
  • Wenn du dagegen eher Fernseh-Konsument bist, evtl. sogar sogar mit Schwerpunkt Fußball, dann dürftset du mit einem guten HD-Ready-Gerät glücklicher werden - in dem Falle allerdings unbedingt über die genaue Auflösung informieren. Das Ding sollte eine echte Auflösung von 1280 x 720 Pixeln haben. Umgestrickte Panels für PC-Auflösungen (mit 768 Pixeln in der Vertikalen) sind absoluter Mist.
  • Wenn du beides willst . . . dumm gelaufen. Dann steckst du in der gleichen Situation wie ich. Dann lieber noch ein, zwei Jahre in die sprichwörtliche Röhre schauen (diesmal kein Sprichwort, sondern wörtlich zu verstehen :wink: und die technische Entwicklung abwarten. Besser, als ein oder zwei Tausender in den Sand zu setzen

Wie auch immer du dich entscheidest:
plane einige Tage zum testen ein, laufe von einem Laden zum anderen und schau dir möglichst viel und möglichst im direkten Vergleich und möglich von einer eigens mitgebrachten Bildquelle (BlueRay oder so) an. Nimm auch ne DVD mit, bis dieses Format (also, diese Auflösung) endgültig ausstirbt, wirst du noch einige Fernseher kaufen. Also achte daruf, das er auch das alte Bild vernünftig wiedergibt.
Wenn ein Laden dir keine Möglichkeit bietet, eigens mitgebrachte Filem abzuspielen, um dich von der Qualität zu überzeugen, dann geh und trag deine Kohle woanders hin.

Hallo!

Die Produzenten (der Filme) habe das zu Glück mittlerweile
geschnallt und benutzen wenn möglich lieber den Progressive
Mode mit ganzen Bildern.

Hatten die schon immer 24Bilder /Sekunde auf Celluloid.

Ergo werden viele Sender - besonders bei Programmen mit
schnellen horizontalen Bewegungen --> Fußball!!! - „nur“
720p ausstrahlen.

Nenne mir bitte mal welche!
Außer einem Exoten in der Schweiz (SRG SSR idée suisse) ist mir in
ganz Europa keiner bekannt, Premiere, Pro7, SAT1 alle senden 1080i.

Die höhere Auflösung von 1080i macht den Qualitätsverlust
durch die mit Masse erbärmlichen Deinterlacer in günstigen
Consumer-Geräten bei weitem nicht wett.

Boah Leute, das stimmt doch nicht.

Und natürlich sieht ein Bild auf einem Gerät mit der
richtigen, nativen Auflösung immer um einiges knackiger aus,
als wenn es krum herauf- oder herunter gerechnet werden
müsste.

Genau und dann kommt auch der Deinterlacer ins Spiel, wenn ich aber
nativ aufs Panel gehe dann ist:

  1. der Deinterlacer piddel, paddel. :smile:

  2. merkt der Deinterlacer bei einem Film, das das Orginal progressive
    war und geht schlicht aus

  • Wenn du dagegen eher Fernseh-Konsument bist, evtl. sogar
    sogar mit Schwerpunkt Fußball, dann dürftset du mit einem
    guten HD-Ready-Gerät glücklicher werden

Nö, siehe oben.

Nimm auch ne DVD mit, bis
dieses Format (also, diese Auflösung) endgültig ausstirbt,
wirst du noch einige Fernseher kaufen. Also achte daruf, das
er auch das alte Bild vernünftig wiedergibt.

Oder du kaufst dir einen etwas teueren DVD-Player und gehst gleich
mit 1080i oder 1080p in den Fernseher. 1080i oder 1080p ist bei DVD
meist schnurz, da das Ausgangsmaterial in der Regel sowieso
progressive ist.

Gruß
Stefan

Außer einem Exoten in der Schweiz (SRG SSR idée suisse) ist
mir in
ganz Europa keiner bekannt, Premiere, Pro7, SAT1 alle senden
1080i.

Shit… Ich sitze in der Schweiz und schaue mir sogar manchmal SRG SSR idée suisse an (wenigestens die Informationssendungen)…

Shit… Ich sitze in der Schweiz und schaue mir sogar
manchmal SRG SSR idée suisse an (wenigestens die
Informationssendungen)…

Schaust du hier http://www.srg-ssr.ch/347.0.html

Du brauchst allerdings so eine SRG Smartcard.

Gruß
Stefan

1024*768 Pixel auf 42 Zoll hat mit HD gar nichts zu tun und
ist
gerade mal aufgemöppeltes PAL. Dein Wohnzimmer scheint recht
groß zu sein ansonsten könntest du die Pixel einzeln zählen.

Hallo Stefan
,
ich sitze in ca. 1,5 Metern Abstand davor und genieße das traumhaft schöne Bild. Komisch, mir gefällt das aufgemöppelte Pal :smile:

MFG
Hagen
P.S. vielleicht solltest Du Dir mal einen guten HD Ready ansehen.

Hallo Hagen!

ich sitze in ca. 1,5 Metern Abstand davor und genieße das
traumhaft schöne Bild. Komisch, mir gefällt das aufgemöppelte
Pal :smile:

Solange man nur PAL schaut ist das sicher eine tolle Sache, nur sowie
es echten HD Content gibt ist es das nicht mehr.

P.S. vielleicht solltest Du Dir mal einen guten HD Ready
ansehen.

Da mein Firma HD-Module, SetTopBoxen (DVB Receiver mit und ohne HDTV)
und Module für Kopfstation entwickelt kannst du mir glauben, ich
kenne mehr als genügend HD-Ready Geräte und hab hier auch reichlich
stehen.

Gruß
Stefan

PS: Bei 1,5m, 42 Zoll und 1024 kann man einzelne Pixel sehen, wenn
nicht dann vieleicht mal nach einer Brille ausschau halten?!

Hatten die schon immer 24Bilder /Sekunde auf Celluloid.

Das hat nichts damit zu tun, ob’s interlaced oder deinterlaced ist.

Und 1080p24 ist noch ein ganz anderes Thema. Wäre ganz klar die wünschenswerteste Lösung, wird aber bisher weder von allen Playern, noch von allen Fernsehern unterstützt. U din der Glotze schon gar nicht (auch nicht bei Filmsendungen).
Mit ein Argument für „in die Röhre schauen und abwarten“.

Ergo werden viele Sender - besonders bei Programmen mit
schnellen horizontalen Bewegungen --> Fußball!!! - „nur“
720p ausstrahlen.

Nenne mir bitte mal welche!

ARD und ZDF haben angekündigt, diesen Modus zu bevorzugen.
Und bei Premiere werden - nach diesem Artikel in der c’t - ebenfalls entsprechende Überlegungen zumindest für schnelle Sportsendungen angestellt.

Die höhere Auflösung von 1080i macht den Qualitätsverlust
durch die mit Masse erbärmlichen Deinterlacer in günstigen
Consumer-Geräten bei weitem nicht wett.

Boah Leute, das stimmt doch nicht.

Und warum bitte schön nicht?
Die meisten Deinterlacer in günstigen Consumergeräten sind der allerletzte Husten. Darum sind die Dinger ja günstig, daran kann man prima Herstellungskosten einsparen.

Und natürlich sieht ein Bild auf einem Gerät mit der
richtigen, nativen Auflösung immer um einiges knackiger aus,
als wenn es krum herauf- oder herunter gerechnet werden
müsste.

Genau und dann kommt auch der Deinterlacer ins Spiel,

Der Deinterlacer hat nichts, aber auch mal gar nichts mit der Auflösung zu tun!

wenn ich aber nativ aufs Panel gehe dann ist::

  1. der Deinterlacer piddel, paddel. :smile:

1080i kannst du nicht nativ auf’s Panel werfen.

  1. merkt der Deinterlacer bei einem Film, das das Orginal progressive
    war und geht schlicht aus

Das ist bei einer progresive Quelle korrekt.
darum rate ich einem Fimfreak ja auch zu einem FullHD, da ist die Quelle mittlerweile so gut wie immer progressive. Beim Fernsehen sieht das anders aus, darum ja meine differenzierten Ausführungen.

Nimm auch ne DVD mit, bis
dieses Format (also, diese Auflösung) endgültig ausstirbt,
wirst du noch einige Fernseher kaufen. Also achte daruf, das
er auch das alte Bild vernünftig wiedergibt.

Oder du kaufst dir einen etwas teueren DVD-Player und gehst
gleich mit 1080i oder 1080p in den Fernseher. 1080i oder 1080p ist
bei DVD meist schnurz, da das Ausgangsmaterial in der Regel sowieso
progressive ist.

Ein DVD-Player, der ein vernünftiges Deinterlacing und Upscaling auf 1080p hinbekommt, ist nicht „etwas“ teurer. Der ist richtig teurer.
Und wird in wenigen Monaten nur noch Kernschrott sein, wenn BlueRay ud/oder HD-DVD auf breiter Front in die Läden kommt. Und jetzt schon in BlueRay und oder HD zu investieren ist a) zu teuer und b)wird sich da noch soviel tun, das man das Gerät mit großer Wahrscheinlichkeit nach einm Jahr austauschen wird.
Und in den gängigen Tests der paar Geräte, die es jetzt schon gibt, war die Darstellung einer DVD so gut wie immer erbärmlich.

Und das Ausgangsmaterial bei einer DVD ist nie progressive. Schau dir die Spezifikationen an. Es gibt kein Progressive auf der DVD.

Außerdem ist es nicht sinnvoll, den Upscaler und Deinterlacer in den DVD-Player zu verlegen, weil du dann immer noch dieses Problem beim SAT-Reciever (oder DVB-T oder Kabel) und anderen Viedoquellen hast. Ein erstklassiger Deinterlacer und Upscaler in der Glotze tut’s dagegen für beliebige Videoquellen --> Sinnvoller, weil wirtschaftlicher.

lg, mabuse

Ich versuche es nochmal …

… zu erklären. :frowning:

Hatten die schon immer 24Bilder /Sekunde auf Celluloid.

Das hat nichts damit zu tun, ob’s interlaced oder deinterlaced
ist.

Doch das ist der Knackpunkt!

Nur für den Fall Celluliod:
Wenn das Urmaterial Celluloid ist, dann ist dies zweifelsohne
ein progressive Format. Wird dieses Format nun digitalisiert und
auf DVD gebracht, dann wird durch die Umrechnung auf PAL (576i) das
Urmaterial nicht verändert. Auch wenn das PAL Signal nun interlaced
ist, das wirkliche Video ist es immer noch nicht. Im den allermeisten
Fällen wird einfach mit 50Hz (also 25/frames/s) abgespielt. Daher
sind die Filme bei uns auch immer kürzer wie die Orginalspielzeit
da sie 24/25 schneller abgespielt werden.
Wenn dieser Film dann wieder decodiert wird merkt der Decoder
und/oder Deinterlacer das es eigentlich ein progressive Film ist
und stellt den Deinterlacer aus.

Desweiteren weiß der Decoder anhand der Kodierung der Macroblöcke
ob dort deinterlace Artefakte sind oder nicht, der Fehrnseher kann
dies nur mit aufwendigen Rechnungen feststellen.

ARD und ZDF haben angekündigt, diesen Modus zu bevorzugen.
Und bei Premiere werden - nach diesem Artikel in der c’t -
ebenfalls entsprechende Überlegungen zumindest für schnelle
Sportsendungen angestellt.

Ergo, es gibt nichts und was die Zukunft bringt …

Genau und dann kommt auch der Deinterlacer ins Spiel,

Der Deinterlacer hat nichts, aber auch mal gar nichts mit der
Auflösung zu tun!

Natürlich hat er!
Wenn ich die Auflösung andere muß ich immer erst den Deinterlacer
bemühen, also Pflicht wenn kein Full-HD Panel vorhanden.

wenn ich aber nativ aufs Panel gehe dann ist::

  1. der Deinterlacer piddel, paddel. :smile:

1080i kannst du nicht nativ auf’s Panel werfen.

Von der Auflösung wohl. Der Deinterlacer ist stand der Technik von
vor 10 Jahren und ist in jedem 100Hz Fernseher verbaut (OK die
Bandbreite ist was höher).

  1. merkt der Deinterlacer bei einem Film, das das Orginal ::stuck_out_tongue:rogressive war und geht schlicht aus

Das ist bei einer progresive Quelle korrekt.
darum rate ich einem Fimfreak ja auch zu einem FullHD, da ist
die Quelle mittlerweile so gut wie immer progressive. Beim
Fernsehen sieht das anders aus, darum ja meine differenzierten
Ausführungen.

Die aber nur stimmen für Fernsehproduktionen ansonsten ist das
echte Urmaterial progressive.

Ein DVD-Player, der ein vernünftiges Deinterlacing und
Upscaling auf 1080p hinbekommt, ist nicht „etwas“ teurer. Der
ist richtig teurer.
Und wird in wenigen Monaten nur noch Kernschrott sein, wenn
BlueRay ud/oder HD-DVD auf breiter Front in die Läden kommt.

Schaun wer mal…

Und das Ausgangsmaterial bei einer DVD ist nie
progressive. Schau dir die Spezifikationen an. Es gibt kein
Progressive auf der DVD.

Siehe oben!

Außerdem ist es nicht sinnvoll, den Upscaler und Deinterlacer
in den DVD-Player zu verlegen, weil du dann immer noch dieses
Problem beim SAT-Reciever (oder DVB-T oder Kabel) und anderen
Viedoquellen hast.

Falsch, nur der Decoder weiß wann deinterlacen angesagt ist,
der bekommt die Info quasi geschenkt.

Gruß
Stefan

und nochmal und nochmal und …

Hatten die schon immer 24Bilder /Sekunde auf Celluloid.

Das hat nichts damit zu tun, ob’s interlaced oder deinterlaced
ist.

Doch das ist der Knackpunkt!

Nur für den Fall Celluliod:
Wenn das Urmaterial Celluloid ist, dann ist dies zweifelsohne ein progressive Format.

Korrekt

Wird dieses Format nun digitalisiert und auf DVD gebracht,
dann wird durch die Umrechnung auf PAL (576i) das Urmaterial nicht verändert.
Auch wenn das PAL Signal nun interlaced ist, das wirkliche Video
ist es immer noch nicht. Im den allermeisten Fällen wird einfach mit 50Hz (also 25/frames/s) abgespielt.

Ham. Das ist jetzt Definitionsfrage. Ich seh schon, worauf du hinaus willst, aber machen wir erst mal weiter . . .

Daher sind die Filme bei uns auch immer kürzer wie die
Orginalspielzeit da sie 24/25 schneller abgespielt werden.

Korrekt.

Wenn dieser Film dann wieder decodiert wird merkt der Decoder
und/oder Deinterlacer das es eigentlich ein progressive Film ist
und stellt den Deinterlacer aus.

Und da rufe ich jetzt mal stopp. Zunächst mal gibt es ein interlaced-Signal, das ein Deinterlacer zusammenflicken muss.

Was du meinst, ist die Tatsache, das es sich bei den beiden Halbbildern einer DVD nicht wie beim Fenseher um zwei Bilder handelt, die um eine 50tel Sekunde auseinanderliegen und aufwendigst interpoliert werden müssten, sondern im Prinizp um zwei Hälften des gleichen Bildes.
Bis hierhin hast du absolut recht, keine Frage.

Das Problem ist, diese Erkennung kannst du nur mit dem digitalen Bildmaterial fahren, nach Analogisierung, Übertragung per Scartkabel und Digitalisierung funktioniert diese Erkennung nicht oder nur seltenst. Denn sonst hätten die ganzen Dinger in Mediamarkt und Co ein erstklassiges Bild, da sie meist von DVD gefüttert werden (weil’s einfach besser aussieht als das Fernseh-Programm).

Das funktioniert nur bei einem Deinterlacer, der auf digitaler Ebene arbeitet. Also, mit genau dem, was auf der DVD drauf ist. Halt im DVD-Player selber. Also einem sog. Progressive-Player.
Und selbst da funktioniert es nicht zuverlässig, das weis ich durch das Bild bei einem Kumpel, der son Teil hat.
Progressive wird (zumindest bei seinem Gerät) nämlich nicht am Bild erkannt (wie soll das auch gehen?), sodern es gibt irgendwo im Bitstrom ein spezielles Bit, das einem solchen Player sagt, was es für ein Material ist und welches das Top- und welches das Bottom-Frame ist. Und bei diesem Bit wird geschlampt ohne Ende!

Versteh mich nicht falsch - von der technischen Seite her hast du absolut recht. Video-DVDs, die ihre Herkunft in Hollywood haben, haben potentiell ein progressive Bild in bester Qualität zu bieten. Aber eben nur potentiell - in der Praxis funktioniert das nötige Deinterlacing (sic!) nach meiner Erfahrung in keinster Weise zuverlässig.

Und um das deutlich zu Betonen: das betrifft nur Hollywood-Filme. Bei Fernsehserien, die urspünglich für die NTSC-Norm gedreht wurden (Sex & the City, Ally McBeal, Stargate und und und) hilft das kein bischen weiter, weil es dort mangels 24fps-Aufzeichnung nicht funktioniert.
Auch bei europäische Filmen und europäische Fernsehproduktionen funktioniert es nicht. Okay, letzteres ist’n dünnes Argument, das geb ich zu - was gibt es da schon Sehenswertes :wink:

In wieweit das für relevant für eine Kaufentscheidung ist sei mal dahin gestellt, aber mir wär es schon wichtig. Denn die Filme werden wir in den kommenden Jahren gegen entsprechendes HD-Material austauschen, bei solchen Fernseh-Sereien-DVDs gehe ich aber davon aus, das sie nie oder nicht sinnvollerweise in HD erscheinen werden.
Wobei ich nicht zu beurteilem vermag, wie die Qualität der Uraufnahmen ist. Ich halte es aber durchaus für wahrscheinlich, das sie nur in NTSC-Auflösung vorliegen. Und neue Scheiben mit einfach nur hochskaliertem Material zu kaufen wäre ja witzlos, das sollte unser Player/Fernseher auch selber können.

Genau und dann kommt auch der Deinterlacer ins Spiel,

Der Deinterlacer hat nichts, aber auch mal gar nichts mit der
Auflösung zu tun!

Natürlich hat er!
Wenn ich die Auflösung andere muß ich immer erst den Deinterlacer
bemühen, also Pflicht wenn kein Full-HD Panel vorhanden.

Warum? Du widersprichst dir selber: Wenn ich ein Progressive Signal auf eine andere Auflösung bringen will, muss nur der Up- oder Downscaler arbeiten. der Deinterlacer hat dann Pause.

wenn ich aber nativ aufs Panel gehe dann ist::

  1. der Deinterlacer piddel, paddel. :smile:

1080i kannst du nicht nativ auf’s Panel werfen.

Von der Auflösung wohl. Der Deinterlacer ist stand der Technik von
vor 10 Jahren und ist in jedem 100Hz Fernseher verbaut (OK die Bandbreite ist was höher).

Ja - und die Qualität der Deinterlacer in billigen Geräten hat auch heute noch die Qualität von vor 10 Jahren, davon rede ich doch!

Ich behaupte doch nicht, das es unmöglich ist, ich sage nur, das man für ein wirklich gutes Bild auch wirklich gutes Geld ausgeben muss - und der Deinterlacer macht nach meinen Erfahrungen den Löwenanteil der Qualitätsunterschiede aus.

darum rate ich einem Fimfreak ja auch zu einem FullHD, da ist
die Quelle mittlerweile so gut wie immer progressive. Beim
Fernsehen sieht das anders aus, darum ja meine differenzierten
Ausführungen.

Die aber nur stimmen für Fernsehproduktionen ansonsten ist das
echte Urmaterial progressive.

Hmmm . . . wenn Pro7 das echte Urmaterial auf Letterboxed herunterscaliert , nochmals komprimiert, damit es über den Transponder passt und es beim Empfänger dann analog auf die Glotze geschoben wird - den Deinterlacer, der daraus noch ein richtiges progressive Bild hinbekommt, den möchte ich sehen.

Du wirst mir zustimmen, das das eine echte Herausforderung ist. Bestimmt nicht unmöglich, aber genauso bestimmt nicht serienmäßig in Geiz-ist-Geil-Ware verbaut.

Außerdem ist es nicht sinnvoll, den Upscaler und Deinterlacer
in den DVD-Player zu verlegen, weil du dann immer noch dieses
Problem beim SAT-Reciever (oder DVB-T oder Kabel) und anderen
Videoquellen hast.

Falsch, nur der Decoder weiß wann deinterlacen angesagt ist,
der bekommt die Info quasi geschenkt.

Wie schon gesagt: Nicht falsch, nur (leider) nicht (immer) der Realität entsprechend.

Außerdem könnte man auch da gegenhalten:
Geplant ist ja eine digitale Übertragung der Signale via HDMI - und damit sollte auch der interne Deinterlacer in der Glotze diese Infos bekommen . . .
aber ich denke mal, das würde jetzt zu weit gehen.

Nee jetzt ist Schluss
Sorry aber du möchtest es nicht verstehen.

Deine Schwierigkeiten mir zu folgen liegen offenbar an der
mangelnden Kenntnis wie MPEG2+4 Daten komprimiert und wie
Daten über HDMI Daten übertragen werden.

Ein MPEG Decoder hat pro Macroblock die Information ob Deinterlace
Artefakte da sind (16*16, 8*8 oder 4*4 Pixel), das ist sicher
keine Information die über HDMI geht.

Ich verdiene zwar mein Geld damit Decoder, Deinterlacer und Receiver
zu entwickeln aber du weißt es alles besser, da werden wir nicht
zusammen kommen, es fehlen leider grundlegende Kenntnisse.

Gruß
Stefan