Moin,
Dass die Filme am Rechner nicht in HD angezeigt werden, da ich
noch einen Röhrenbildschirm habe, ist mir klar
ein Röhrenmonitor hat bauartbedingt eigentlich die bessere Chance, Filme in HD-Auflösung wiederzugeben. Dem Röhrenmonitor ist es nämlich prinzipiell egal, wieviel Bildpunkte er mit seinem Elektronenstrahl auf die Phosphorschicht malt (er muss nur eine ausreichend hohe Zeilenfrequenz haben, um bei dieser Auflösung noch eine flimmerfreie Bildwiedergabe (85 HZ bei 1920x1440) zu schaffen. Mein letzter Röhrenmonitor hat das locker gebracht.
Beim LCD hast du halt das Problem, dass 1 Bildpunkt exakt einer LC-Zelle entspricht, die physisch vorhanden sein muss. Es gibt also nur eine, bauartbedingt festgelegte, HD-Auflösung.
doch mit
welcher Karte könnte ich die Filme trotzdem in geringerer
Auflösung auf meinem Rechner anschauen?
Die Bildwiedergabe in HD-Auflösung klappt prinzipiell mit jeder Grafikkarte, die eine Bildauflösung von mindestens 1920x1080 Bildpunkten schafft. Meine alte Geforce 2 GTS von 2002 hat das hinbekommen. Günstig wäre es natürlich, wenn die Grafikkarte einen digitalen Bildausgang (DVI oder HDMI) hat, weil bei hohen Auflösungen per analogem VGA-Kabel schon Qualitätsverluste auftreten können.
Ein anderes Problem besteht jedoch bei komprimierten Videos und Videos sind üblicherweise komprimiert (auf ‚normalen‘ DVDs z.B. als MPEG4, für HD-Material wird meist der H.264-Codec eingesetzt). Hier muss der Prozessor das Bild beim Abspielen des Films decodieren (also quasi jedes Einzelbild vor der Wiedergabe ‚entpacken‘), was ziemlich rechenaufwändig ist und für sehr schwache Prozessoren (z.B. Intel Atom) ein Problem darstellen kann. Reicht die Rechenleistung nicht aus, fängt der Film an zu ruckeln. Mit einem 2,4 Ghz - Prozessor sollte es aber auch mit der Wiedergabe von HD-Video keine Probleme geben, selbst wenn es ein schwachbrüstiger, alter Pentium 4 ist. Ich würde es daher erst mal mit der vorhandenen Hardware probieren.
Falls die CPU zu schwach ist für eine flüssige Wiedergabe, kannst du das ggf. tatsächlich mit einer aktuellen Grafikkarte umgehen. Fast alle grafikkarten der letzten 2 Generationen besitzen einen integrierten HD-Decoder, der dem Prozessor die Arbeit abnimmt. Das große Aber: Der Decoder der Grafikkarte kann nur bestimmte Dateiformate decodieren, bei HD-Video halt üblicherweise H.264/MPEG-4 AVC. Erzeugt deine Kamera ein anderes Videoformat, kann die Grafikkarte möglicherweise damit nichts anfangen und die Arbeit bleibt wieder auf der CPU hängen.
Welche Anschaffung würde sich rentieren, wenn ich nicht gleich
ein neues Board, neuen Speicher, neuen RAM, einen neuen
Bildschirm kaufen kann (Geld)?
Bei ATi können alle Grafikkarten ab der Radeon HD3000 - Serie (einige Einsteigermodelle möglicherweise ausgenommen) HD-Video decodieren. Je neuer, desto besser. Es gibt auch immer noch Modelle mit AGP-Anschluss, wie diese Mittelklassekarte der letzten Generation: http://www.amazon.de/Sapphire-Radeon-Grafikkarte-Spe…
Allerdings dürfte dein PC, wie gesagt, auch ohne Decodingunterstützung von der Grafikkarte stark genug sein.
Gruß, Jesse