Ich werde nur ein Beispiel von dir aufgreifen weil es müßig ist.
TV ist z.B. gegenüber PC-Monitoren lahm (hat hohe
Latenzen), weshalb in modernen TV oft extra ein
Game-Mode zur schnelleren Ausgabe aktiviert werden muß.
Ein gutes TV Gerät synchronisiert sein Display mit der Referenceclock
der Quelle, mach das mal mit einem PC.
Du hast von der wirklichen TV - Technik nicht viel Ahnung sonst
würdest du nicht so reden.
Leider gibt es von keinem mir bekannten Chip Datenblätter im I-Net.
Falls du versuchen willst mal sowas zu bekommen nehme z.B. von
Trident den Fusion (ja der Chip heißt so). http://www.tridentmicro.com/producttree/tv/dtv/hid-t…
Ich werde nur ein Beispiel von dir aufgreifen
weil es müßig ist.
Ja ist es, wenn du dich an immer neuen
Nebensächlichkeiten fest beißen willst,
aber Rückfragen zu deinen Hauptaussage:
Zitat: wie zur Hölle soll man daraus die Bilder bei
200Hz ausrechnen. Das wäre ein Programm aus Startrek,
offenbar lieber ignorierst.
Gruß Uwi
Nebensächlichkeiten fest beißen willst,
aber Rückfragen zu deinen Hauptaussage:
Zitat: wie zur Hölle soll man daraus die Bilder bei
200Hz ausrechnen. Das wäre ein Programm aus Startrek,
offenbar lieber ignorierst.
Ich dachte als Ing. könnte man rechnen sorry.
Wenn wir uns einen dämlich MPEG2 Encoder anschauen (und der ist wirklich
viel blöder wie ein Vektorschätzer oder eine H264 Encoder)
Dieses Ding teilt den Bildschirm in 16*16 Kästchen (256Pixel)!
Also haben wir bei HD 120 * 67,5 = 8100 Kästchen
Dieses Kästchen werden als Suchfeld in halben Pixelschritten über
das Bild geschoben, also 1920 * 2 * 1080 *2 = 8.294.400 Schritte
für das gesamte Bild, den Rand ignoriere ich jetzt mal.
Du mußt also 8.294.400 * 256 Pixel * 25Hz * 8100 * 2 Pixel
lesen und subtrahieren. Bei 4 Byte pro Pixel wären das
drei komma schieß mich was mal zehn hoch FÜNFZEHN Byte pro Sekunde.