HDMI zu DVI-Kabel/Adapter - Worauf muss ich achten?

Hallo Leute,
Ich habe mir gestern eine Geforce GTX 1070 gekauft, habe zu Hause bereits 2 Monitore (QNIX 1440p IPS 27", Anschluss: NUR DVI !!! ) stehen. Zu den Monitoren: ich hatte mir genau diese damals geholt, da ich las, dass die DVI Variante einen geringeren input lag habe ggü. der HDMI Varianten.
Ob das nun stimmt, weisst ich nicht. Evtl kann mir jemand was dazu sagen, damit das Kapitel bei mir dann auch mal geschlossen ist. :slight_smile:
Bemerkte erst spät, dass die grakarte nur über 1 dvi Anschluss verfügt, aber über 4 hdmis…

Jetzt aber zur eigentlichen Frage:
Brauche ich für eine optimale Darstellung/Übertragung nun eher einen „HDMI zu DVI“-Adapter, der über gewisse Spezifikationen verfügt (wie z.B. 1440p/4K/60/90/120/140Hz-fähig, goldene pins, etc.) oder statt eines Adapters lieber direkt ein „HDMI zu DVI“-Kabel? Beeinflusst ein Adapter die Übertragung des Signals in irgendeiner Form wegen des Umwandlungsprozesses?

Ich habe mir noch nie Gedanken über das richtige Kabel gemacht. Heisst das zb, dass ich bislang evtl. mit meinen „no name“-dvi Kabeln nicht die optimale, bzw maximale Auflösung von 1440p angezeigt bekommen hatte (obwohl ich es in den Windows Einstellungen eingestellt hatte, also 1440p mit 90hz)?

War etwas unterwegs im Amazonas und sah halt Angebote von hdmi-dvi mit Schlagworten wie 1200p Kabel, 1080p Kabel, 4K Kabel bei 30hz (3facher Preis!), 3D Kabel, neuster Standard, dvi-d, dvi 24+5, 24+1…

Frage-Fazit:

  1. Hat DVI bei bestimmten Monitoren (oder generell?) einen geringeren input-lag als hdmi?

  2. Gibt es Qualitätseinbußen bei Adapternutzung ggü. Kabeln? Kabelkauf oder Adapterkauf (was uns zur nächsten Frage führt)?

  3. Gibt es Unterschiede bei DVI/HDMI Kabeln bezüglich was am Ende auf dem Bildschirm landet (Thema: Auflösung und Herz).

  4. Sollte ich zukunftssicher gehen und ein 4k Kabel kaufen? Dvi-24+1, 24+5, dvi-d? Kann ein 1080p/1200p/60hz-Kabel 1440p auf meinem Bildschirm darstellen bei 90hz?

Vielen Dank an euch.
Euer Chris

HDMI ist ein digitales Signal. Insofern geht es mit dem jeweiligen Kabel oder es geht halt nicht. 4k braucht man, wenn man 4k darstellen will. Lagg tritt gar nicht auf, aber eine lange Laufzeit, wenn erst von digital auf VGA und wieder zurück gewandelt werden muss und vielleicht auch noch die Bildfrequenz falsch gewählt ist. Was willst du warum an einem 10€-Kabel „zukunftssicher“ machen? Ggf. kaufst du halt ein neues, wenn keins beim neuen Monitor dabei ist.

Meine Monitore laufen mit 1440p und 96hz. Brauche ich nun ein FullHD-fähiges HDMI-DVI Kabel/Adapter oder 4k, um 1440p mit 96hz darstellen zu können?

Für die 96Hz brauchst du ein Kabel, das mindestens HDMI 1.4 kann. Wegen der Auflösung brauchst du aber noch eins drauf - dann bist du bei HDMI 2.0b oder einem 4k-Kabel.
Siehe Tabelle ganz unten auf:
https://www.allround-pc.com/artikel/wissen/2014/wissen-dvi-hdmi-und-displayport

1 Like

Danke für die Info.
Ich benutze im Moment noch DVI-zu DVI.

Laut der obrigen Website:

DVI-D: Überträgt im Gegenzug ausschließlich digitale Signale. Man unterscheidet hier zwischen DVI-D Single Link (18+1 Kontakte im Stecker) für eine maximale Auflösung von 1920×1080 Pixel bei 60 HZ und DVI-D Dual Link (24+1 Kontakte im Stecker) für Auflösungen bis zu 2560×1600 Pixel bei 60 Hz.

Besteht die Wahrscheinlichkeit, dass ich gerade kein 1440p mit 96hz sehe, weil ich ein DVI-D, bzw. DVI-D Dual Link benutze? Welches DVI Kabel müsste ich überhaupt benutzen, um meine Werte dargestellt zu bekommen? Oder geht es garnicht per DVI (z.b. 60+Hz)?

Bzw. welches HDMI-DVI Kabel/Adapter brauche ich um 1440p mit 96Hz darstellen zu können? Kann mir jemand einen Amazon Link oder eine Artikelbeschreibung nennen? :slight_smile: Wäre genial.

Edit: Habe folgendes Kabel bestellt:

PremiumCord 8K High Speed ​​HDMI 2.1 Kabel M/M 48Gbps mit Ethernet, Kompatibel mit Video 8K@60Hz, Deep Color, 3D, ARC, HDR, 3x geschirmt, vergoldete Anschlüsse, schwarz, 1,5 m

Brauche nun nur noch einen entsprechenden Adapter, um meinen DVI Monitor zu verbinden…
Ich lese immer nur von solchen Adaptern:

[KabelDirekt - HDMI DVI 24+1 Adapterkabel - 1,5m - (DVI-D zu HDMI, 1080p Full HD 3D Highspeed)]

Das würde also kein 1440p auf meinem Monitor darstellen, obwohl ich es letztlich mit einem fähigen HDMI Kabel verbinden würde.

Eine weitere Website schreibt:
„Eine gute Alternative zu Displayport ist ein Dual Link DVI-D Kabel , dieses fördert 144 Hertz und eine Auflösung von bis zu 2560X1600 Pixel.“

Ich bin etwas verwirrt. DVI-D kann also 144Hz mit 1440p? Oder nur 60Hz?

Im Endeffekt geht es immer um die Datenübertragungsrate. Also grob gesprochen um Bildpunkte pro Sekunde. Und das kann dann bei gleicher Datenrate eine hohe Auflösung mit weniger Bildern pro Sekunde oder eine geringere Auflösung mit mehr Bildern pro Sekunde sein. Wenn du sowohl hohe Auflösung als auch viele Bilder pro Sekunde haben willst brauchst du also eine richtig hohe Datenübertragungsrate.

Dein bestelltes Kabel kann

übertragen. 8k bedeutet eine Auflösung von 8192x4320=35,3 Millionen Bildpunkte

Die Auflösung von deinem Monitor beträgt aber nur 2560x1440=3,7 Millionen Bildpunkte. Die könnte dein Kabel dann theoretisch nicht nur mit 60Hz, sondern mit 570Hz übertragen - das entspräche der gleichen Datenrate, ist aber natürlich nicht normgerecht und wird weder vom Monitor noch von der Grafikkarte unterstützt.
Noch etwas Info dazu:

Es gibt nicht nur Adapterkabel, sondern auch Adapterstecker. Da spielt die Datenrate eine kleinere Rolle als beim Kabel, weil die Leitungen einfach kürzer sind. Ich habe aber keine Erfahrung mit speziellen Exemplaren.

1 Like

Danke. Die Frage, die ich noch habe ist halt, ob es überhaupt mit DVI möglich ist 1440p mit 96hz darstellen zu können. Der berühmte Flaschenhals zum HDMI Kabel ist dann ja der Adapterstecker, der genormt zu sein scheint auf „FullHD, 60hz“, oder? Das heisst selbst mit 8k HDMI Kabeln käme ich nur auf FullHD60Hz, oder?

Eigentlich kann DVI gar nicht 1440p bei 96Hz. Aber wenn der Monitor nur genau diesen Anschluss anbietet, gehe ich davon aus, dass er das außerhalb der Norm unterstützt. Ob das deine Grafikkarte auch kann weiß ich nicht. Das Kabel scheint es zu können. Also: ausprobieren. Es kann klappen, muss aber nicht. Eventuell musst du die Bildfrequenz dann runterschrauben bis es klappt.

Ich habe nun einen DVI Adapter an das HDMI 2.1 Kabel abgebracht (für den 2. Monitor, der leider ebenso nur über einen DVI Anschluss verfügt), jedoch wird der Monitor zwar angezeigt in der Systemsteuerung (Anzeige-Einstellung), jedoch gibt es kein aktuelle Bildausgabe auf dem Monitor.

Auch gibt es die Meldung die sowas besagt wie „Dieser Bildschirm kann nicht angezeigt werden“, wenn ich auf jegliche Informationen des 2. (über DVI Adapter angeschlossenen) Monitor zugreifen möchte.

Ich habe nachgesehen, aber es steckt alles fest ineinander, also kann es nicht an einer schlechten Anbringungen liegen.

Hat jemand einen Tipp für mich? :frowning:

Probier mal einen anderen HDMI-Anschluss. Kann sein, dass einer sich die Leitung mit dem DVI-.Anschluss teilt.

Kein Unterschied. keiner der beiden Monitore läuft mit dem Adapter…
Habe mal ein Foto gemacht vom Adapter. Ist es normal, dass ein Pin (der 3.) kürzer ist?

Habe den Monitor mal an meinen HDMI Anschluss meines Laptops angeschlossen. der Monitor gibt so Testbilder in rot, blau, grün, weiss in abwechselnder Reihenfolge. Aber keine Bildausgabe des Laptop Bildes. Gleiche Fehlermeldung, wenn ich einen 2. Monitor auswählen will (der ja auch erkannt wird, nur eben, dass etwas angeschlossen ist, aber nicht genau was…keine infos einholbar über den Monitor)

Ich habe mir 2 neue Adapter gekauft. Hoffe es klappt. Hörte die müssen „aktive“ sein bei bestimmten Monitoren.