gerade habe ich es wieder erlebt: Meine schwerhörige Nachbarin stellt ihren Fernseher (Kabel Analog) sehr laut, sodass ich mithören kann. Um exakt 20.00 Uhr (auf die Funkuhr geschaut) ertönt der Gong der Tagesschau.
5 Sekunden später gongt die Tagesschau in meinem Fernseher (Satellit).
Wo kommen diese 5 Sekunden Verschiebung her? Selbst wenn man die Signallaufzeiten zum und vom Satelliten berücksichtigt (2x 36.000 km) komme ich da nur auf einen Zeitunterschied von einer viertel Sekunden. Wo bleibt der Rest? Sind das Wandler, Umsetzer, keine Ahnung, was noch die sooo langsam sind?
Ich vermute deine Nachbarin schaut analoges TV und du natürlich
digitales TV (da SAT). Selbst wenn wir eine ideale Strecke ohne
Umsetzer (Multiplexer heißen die Dinger in diesem Fall) annehmen
geht die Rechnung etwa so
Analog zu Digital, typisch 1-2 Sekunden da der digital Encoder
(MPEG2 Encoder oder H264 Encoder) mehrere Bilder benötigt und
die Rechenleistung so groß ist das, das nur gepipelined klappt.
Daraus entsteht dann ein SPTS (singe program transport stream),
dieser wird verteilt und in einem Multiplexer zu einem MTPS (multi
program transport stream) zusammengemischt (0,5s).
Danach geht es zumm Playoutcenter und ab zum Satelliten.
Vom Satelliten zurück zu dir.
Dein SAT-Receiver benötigt beim Decodieren mehrere Bilder so das
hier wieder ca. eine Sekunde auf der Strecke bleibt (forward,
backward prediction von Bildern).
Dein Flachmann macht nun aus 25 Bildern 100, 200, oder mehr und bedarf
auch mehrere Bilder um eine Bewegungsabschätzung hin zu bekommen,
typisch 300-500ms.
Und da alle Hersteller Angst haben das es ruckt, haben alle Baugruppen
selbstverständlich Fifos eingebaut (200-1000ms).
Das alles zusammen, dann sind 5 Sekunden schon schnell denn analog
wird einfach sofort abgestrahlt.
Wo kommen diese 5 Sekunden Verschiebung her? Selbst wenn man
die Signallaufzeiten zum und vom Satelliten berücksichtigt (2x
36.000 km) komme ich da nur auf einen Zeitunterschied von
einer viertel Sekunden. Wo bleibt der Rest? Sind das Wandler,
Umsetzer, keine Ahnung, was noch die sooo langsam sind?
Ja, das liegt an der digitalen Bildverarbeitung.
Um an der Übertragungsrate zu sparen, werden, etwas vereinfacht, eben nicht, wie bei analog, Pixel für Pixel übertragen, sondern nur noch die Veränderungen zwischen zwei Bildern.
Somit muss also ein Wandler immer erst einige Bilder komplett speichern, bevor er diese in einem anderen Format weiterleiten kann.
ich hab das zwar nicht alles im Detail verstanden, aber es klingt, als ob du wüsstest, wovon du redest.
Wenn ich das richtig sehe, ist also die meiste Zeit zum „Datensammeln“ oder „Warten“, um genügend Informationen zu bekommen, damit ein ruckelfreies Bild entstehen kann.
Sind „Fifos“ Fist-In-First-Out? Und wenn ja, was machen die? Sid das Sammelpuffer, die die Daten dann an das Panel weitergeben, wenn sie genug Reserve habe?
d.h., Daten werden erst dann weitergegeben, wenn Änderungen erfolgt sind. Sollte das beim Fernsehen nicht fast in jedem Frame so sein, also ca. alle 40ms ?
ich hab das zwar nicht alles im Detail verstanden, aber es
klingt, als ob du wüsstest, wovon du redest.
Wenn ich das richtig sehe, ist also die meiste Zeit zum
„Datensammeln“ oder „Warten“, um genügend Informationen zu
bekommen, damit ein ruckelfreies Bild entstehen kann.
Im Prinzip man das so ausdrücken die reine Durchlaufzeit in einem
Gerät addiert sich aber auch noch. Ruckfrei, Tonsynchron in jeder
Lebenslage ist die Herausforderung.
Um ein Video zu dekodieren werden nicht nur die Änderungen aus der
Vergangenheit berücksichtigt (wie du bei PeterToo anmerktest) sondern
auch aus der Zukunft. Soll heißen ein einzelnes Bild hängt nicht nur
von seinem Vorgänger ab sondern auch von seinen Nachfolgern.
MPEG2 kennt da nur Vorgänger und Nachfolger, H264 (unser TV HD Format)
kennt bis zu 64 Referenzbilder! Das heißt ein Bild kann aus Bildteilen
von 64 verschiedenen Bilder zusammengesetzt werden. Das macht zwar
keiner weil die Rechenleistung und Speicher heute noch nicht zur
Verfügung steht aber da geht es hin.
Sind „Fifos“ Fist-In-First-Out?
Korrekt.
Und wenn ja, was machen die?
Sid das Sammelpuffer, die die Daten dann an das Panel
weitergeben, wenn sie genug Reserve habe?
So kann man es ausdrücken. Wenn du mit dem Mediaplayer ein Youtube
Video schaust dann siehst du das er erstmal Daten sammelt um dann
nach günstigenfalls 5-10 Sekunden anzufangen. Dies macht er da nicht
klar ist, ob dein Internet Zugang so gleichmäßig Daten liefert das
nicht mal ein wenig Zeit überbrückt werden muß.
Ich hoffe das konnte man verstehen.
Ich sagte doch, sehr komplexes Thema und in Realität noch ein ganzes
Stück weit komplizierter als hier vereinfacht dargestellt.
Um ein Video zu dekodieren werden nicht nur die Änderungen aus
der
Vergangenheit berücksichtigt (wie du bei PeterToo anmerktest)
sondern
auch aus der Zukunft. Soll heißen ein einzelnes Bild hängt
nicht nur
von seinem Vorgänger ab sondern auch von seinen Nachfolgern.
MPEG2 kennt da nur Vorgänger und Nachfolger, H264 (unser TV HD
Format)
kennt bis zu 64 Referenzbilder! Das heißt ein Bild kann aus
Bildteilen
von 64 verschiedenen Bilder zusammengesetzt werden. Das macht
zwar
keiner weil die Rechenleistung und Speicher heute noch nicht
zur
Verfügung steht aber da geht es hin.
Sind „Fifos“ Fist-In-First-Out?
Korrekt.
Und wenn ja, was machen die?
Sid das Sammelpuffer, die die Daten dann an das Panel
weitergeben, wenn sie genug Reserve habe?
So kann man es ausdrücken. Wenn du mit dem Mediaplayer ein
Youtube
Video schaust dann siehst du das er erstmal Daten sammelt um
dann
nach günstigenfalls 5-10 Sekunden anzufangen. Dies macht er da
nicht
klar ist, ob dein Internet Zugang so gleichmäßig Daten liefert
das
nicht mal ein wenig Zeit überbrückt werden muß.
Ich hoffe das konnte man verstehen.
Ich sagte doch, sehr komplexes Thema und in Realität noch ein
ganzes
Stück weit komplizierter als hier vereinfacht dargestellt.
Der Plem
Danke Plem, das war in der Kürze zumindest sehr verständlich. Viele Umsetzunge, Digitalisierungen, Wartezeiten und Vorausberechnungen scheinen da in Spiel zu sein. Auch wenn ich verwundert bin, es scheint wohl so zu sein, dass sich im Zeitalter von Nano-Sekunden-Prozessoren doch mehrere Milliarden Nanosekunden aufsummieren.
d.h., Daten werden erst dann weitergegeben, wenn Änderungen
erfolgt sind. Sollte das beim Fernsehen nicht fast in jedem
Frame so sein, also ca. alle 40ms ?
Die Kamera liefert ja nur alle 40ms einen Frame.
Wenn wir jetzt für die Komprimierung, angenommene, 10 Frames benötigen, ist das Ausgangssignal schon mal 400ms verzögert.
Im Fernseher hat man dann das selbe Problem noch einmal um das Bild zu decodieren.
Deswiteren kommt das Bild auch nicht direkt von der Kamera auf deinen Fernseher. Auf der ganzen Übertragungsstrecke muss das Bild meist mehrmals decodiert und in eine andere Norm umgesetzt werden, dazu müsses jedesmal wieder erstmal einige Frames gesammelt werden.
Lustig wird das Ganze dann, wenn man noch an verschiedenen Punkten in der Übertragungsstrecke die Quelle umschalten muss.
Wir hier in der CH bekommen bei vielen Privaten andere Werbung eingeblendet als ihr in D. Da ist dann beim Umschalten das Bild für ein paar Sekunden recht verpixelt oder steht kurz, bis die Puffer wieder gefüllt sind.
MfG Peter(TOO)
P.S.: Wie Plem schon geschrieben hat, ist dies eine grobe Vereinfachung, sollte aber die grundsätzliche Problematik aufzeigen.
Um exakt 20.00 Uhr (auf die Funkuhr geschaut)
ertönt der Gong der Tagesschau.
5 Sekunden später gongt die Tagesschau in meinem Fernseher
(Satellit).
Wo kommen diese 5 Sekunden Verschiebung her?