Hallo Fragewurm,
Hm. Inzwischen habe ich beim googlen gelertn, dass nicht nur
die Auflösung für die Größe der Datei entscheident ist,
sondern z.b. auch die Bit-Rate (was immer das ist).
Gibt es keinen Richtwert pi mal Daumen, wie groß so ein
Standard-Clip ist, der NICHT in HD aufgerufen wird?
Ich hatte letzte Woche keine Zeit mehr, diesen Teil der Frage auch noch zu beantworten.
Im allgemeinen werden Bilder und Filme komprimiert.
Nehmen wir mal ein Bild mit 100x100 Pixel, in S/W mit 128 Graustufen aufgelöst. Der Wert 0 bedeutet Schwarz und 127 ist Weiss, das lässt sic in 7 Bit unterbringen. Der Einfachheit halber verwenden wir für jeden Wert ein ganzes Byte (8-Bit) also belegt so ein Bild 100x100=10’000Byte.
Dabei leiben aber 10’000 Bit ungenutzt. Man kann jetzt immer 8 Pixel in 7 Bytes zusammenpacken, dann belegt das Bild noch 8’750 Byte.
Hier könnte man noch einfach umrechnen.
Wenn wir das Bild erst einmal Zeilenweise betrachten dann werden wir feststellen, dass öfters mehrere Pixel hintereinander mit dem selben Wert auftreten.
Wenn wir jetzt 20 Pixel hintereinander mit dem Wert 23 haben, machen wir einfach folgenden Trick:
Wir speichern das als 20x23 ab, das passt in 2 Bytes, an stelle von 20. Damit wir aber 20x vom Wert 20 Unterscheiden können addieren wir 128 zu den 20. Das passt dann immer noch in ein Byte und da alle Pixel-Werte im Bereich von 0…127 liegen, können wir die Zähler ganz einfach von diesen Unterscheiden.
Jetzt haben wir aber schon das Problem, dass der Komprimierungsgrad vom Bildinhalt abhängig ist 
Wenn wir, wie im Beispiel oben, wischen den 20 Pixeln mit dem Wert 23 eines mit dem Wert 24 habe, wird die Komprimierung natürlich schlechter. Jetzt können wir aber den Menschen als Masse der Dinge nehmen, und der kann gar nicht erkennen, das da ein einzelnes Pixel mit einem ganz leicht anderen Grauwert dazwischen ist. Also ändern wir einfach heimlich dieses einzelne Pixel in den Wert de anderen um und erhalten jetzt sogar 21 Pixel mit dem selben Wert, welche nun wiederum in 2 Bytes abgelegt werden können 
Dies nennt man dann verlustbehaftete Komprimierung.
So nun kann man das Ganze dann auf zwei Dimensionen ausweiten, ein Bild besteht ja eigentlich meistens aus Flächen. Auch hier kann man wieder einzelne, nur leicht von der Umgebung abweichende Bits, wieder platt machen.
So, wenden wir uns nun dem Film zu:
So ein Film besteht aus zeitlich aneinander gereihten einzelnen Bildern.
Beim Kinofilm hatte man sich mal auf 24 Bilder/s geeinigt, beim Fernsehen waren es 25 oder 30 Bilder/s (eigentlich 50, bzw. 60, Halb bilder, dies war in der verwendeten analogen Schaltungstechnik und der Frequenz der Netzspannung (50/60Hz) begründet).
Nächstes Problem: Bei Computerfilmen ist die Bildfrequenz, mehr oder weniger, frei wählbar. Also mit welchem Wert sollen wir da rechnen?
So, nun komprimieren wir mal unseren Film weiter.
Nehmen wir z.B. einen Reporter vor einer Wand. Zwischen zwei Bildern ändert sich die Wand nicht, nur der Reporte bewegt sich. Wir müssen also die Struktur de Wand nur einmal abspeichern und von Bild zu Bild nur noch die Veränderungen des Reporters. Da spart dann einen ganzen Haufen an Daten.
Allerdings, wenn die Kamera einen Schwenk mach, ändern sich alle Bildpunkte gleichzeitig und von der Komprimierung bleibt nix mehr übrig.
Die resultiert dann aber in einer variablen Bitrate je nach Bildinhalt und Bildbewegung müssen unterschiedlich viele Daten übertragen werden.
Dies ist aber für eine Fernsehübertragung nicht praktikabel, weil die Verbindung für die maximale Bitrate ausgebaut sein muss, Verzögerungen liegen bei einem Live-Bild irgendwie nicht drin. Bei einer Übertragungsstrecke welche nur auf eine durchschnittliche Bit-Rate ausgelegt wäre, ergäbe das dann Abschnitte in Zeitlupe und welche im Schnelldurchlauf 
Beim Fernsehen geht man nun einen anderen Weg, man verwendet eine konstante Bitrate, aber ändert die Bildauflösung entsprechend.
Wenn wir unser 100x100 Pixel Bild mit 25 Bildern/s analog übertragen wollen, brauchen wir eine Bitrate von
100x100 (Pixel) x7 (Bit/Pixel) x25 (B/s) = 1’750’000Bit/s = 1.75MBit/s
Wenn wir eine Durchschnittliche Komprimierung von 4:1 erreichen brauchen wir ein Bandbreite von 437’500 Bit/s.
Wir haben also noch
437’500 (Bit/s) / 5 (Bilder/s) = 17’500Bits/Bild.
Was tun wie nun bi einem Schwenk der Kamera?
Wir übertragen das Bild halt nur mit 50x50 Pixeln.
50x50x7=17’500
Also nur 1/4 der eigentlich nötigen Information.
Mit den darauf folgenden 4 Bildern liefern wir dann immer 1/4 der fehlenden Informationen nach.
Hier hilft dann das Auge und das Gehirn wieder nach, und ergänzt die fehlende Information.
Wenn man genau hinsieht, kann man aber die schlechtere Auflösung als Verpixelung beobachten, beim digital Fernsehen ganz besonders gut, wenn das Bild umgeschaltet wird oder Störungen bei der Übertagung auftreten.
Dann kann man sehen wir du da im Hintergrund eigentlich immer betrogen wirst 
So, du siehst:
Alle Konstanten sind variabel!
Deshalb kann ein Fachmann auf deine einfache Frage, keine konkrete Antwort geben 
MfG Peter(TOO)