VGA funktioniert - DVI nicht?
Hallo
Mein Monitor (Dell 1908FP-BLK) war seit jeher über VGA mit meiner Grafikkarte (Gigabyte GTX 550 TI) verbunden. Nun will ich zu DVI wechseln. Doch sobald ich das tue, kriegt der Bildschirm kein Signal mehr.
Die Grafikkarte hat einen DVI-I Ausgang, der Monitor einen DVI-D Eingang. Beides Dual-Link. Benutzt wurde ein DVI-D Kabel (geht ja nicht anders und sollte laut meinen Recherchen auch so funktionieren). Treiber sind auch aktualisiert. Hab Windows 7.
Aufgefallen ist mir, als ich sowohl VGA als auch DVI angeschlossen habe, dass unter Systemsteuerung > Bildschirmauflösung 2 Bildschirme erkannt werden (was auch immer das bedeuten soll ^^). Also kann an den Steckern/Kabeln doch nichts kaputt sein oder? Bin echt ratlos...
4 Antworten
Die plötzliche Erkennung / Auflistung von "2 Bildschirmen" wird aus dem Grunde erfolgen, dass Dein Monitor zunächst ja am VGA-Port der Grafikkarte unter analoger Ansteuerung angeschlossen war, und somit als solcher auch grundlegend erst mal in der Windows-Treiberdatenbank und der Registierungsdatenbank als solcher an diesem Port weiter vermerkt bleibt, wenn Du ihn anschliessend einfach auf den DVI-Port umsteckst.
Du müsstest den "1. Bildschirm" daher zunächst unter laufendem Windows in der Systemsteuerung / im Gerätemanager entfernen, Windows herunterfahren, umstecken von VGA auf DVI und dann Windows hochfahren. Dann müsste Windows den Bildschirm am DVI normalerweise erkennen und direkt ansteuern .
Hast du die eingangssignal-quelle am bildschirm umgeschaltet?
Den Bildschirm bei ausgeschaltetem rechner umgesteckt?
Ja das habe ich versucht. Auf allen 3 Quellen (Analog, Digital, Autom. erkennen) kriegt er kein Signal. Der Rechner war ausgeschaltet.
Check mal ob das Kabel an anderen PCs funktioniert.
Andernfalls lass die Garantie der Komponenten prüfen. Zur Not schickste was ein. Mir persönlich fällt zu dem Problem keine Lösung ein.. :(
DVI-I und DVI-D sind nur mittels AD-Konverter kompatibel.
Willst du hier nur deinen dummen Kommentar abgeben, oder hast du auch eine vernünftige Erklärung, warum das falsch sein sollte? Aufgrund der unterschiedlichen Polung braucht man ein Interface, um die analogen Signale auf digitale zu bringen. Was soll daran Schwachsinn sein?
Unardiburges Geharse. Dein Satz ist an sich kein Schwachsinn, hat aber wohl nichts damit zu tun dass Jongens am Monitor noch nicht den richtigen Eingang ausgewählt hat. Und hat deshalb an dieser Stelle keinen Sinn.
Gut, vllt. hab ich mich unklar ausgedrückt. Die Graka hat einen DVI-I-Ausgang, er hat ein DVI-D-Kabel daran angeschlossen und der Monitor einen DVI-D-Eingang. Das klappt nicht, da bestimmte Kontakte nicht belegt sind, bzw. Signale nicht weitergeleitet werden können. Ergo benötigt er einen DVI-I-Adapter, der auf DVI-D umwandelt. Besser erklärt? :)
falsch
DVI-I führt beide signale analog UND digital
DVI-D hingegen nur Digital
laut spezifikation gibt es auch DVI-A kommt praktisch aber selten bis nicht vor
problematisch wird's erst andersrum
wenn man ein dvi-i kabel in eine dvi-d buchse stecken will,
dann sind die analog buchsen nicht nur unbelegt sonder verschlossen dann bekommt man das kabel nicht rein.
mit der belegung der "digital seite" hat das aber nichts zu tun, die ist immer gleich.
wie Kiboman bereits völlig richtig geschrieben hat, führt eine DVI-I Buchse sowohl analoges als auch digitales Signal. Die 5 Pins, die beim DVI-D Stecker fehlen werden NUR für analoge Signale benötigt. DVI-I Buchse funktioniert wunderbar mit DVI-D Kabel und da braucht man auch keinen Adapter/Konverter. Vielleicht solltest du dich mal ein wenig in das Thema reinarbeiten bevor du hier Falschwahrheiten verbreitest, profanity 😉
schwachsinn