VGA (Monitor) zu DVI-D
-
Wie im Titel - war gerade im örtlichen Geschäft um dafür einen Adapter zu holen und habe erfahren, dass es sowas gar nicht gibt, eine Grafikkarte mit nur DVI-D Ausgang kann kein analog mehr, so wie die meisten modernen.
Habe dann gefragt ob es keine "Umwandler" gibt. Davon wurde mir abgeraten, da wohl oft nicht fehlerfrei (Verzerrungen, träge, ...).Könnt ihr das bestätigen? Lieber neuer Monitor?
Dann noch was: eigentlich würde dem PC locker auch onboard Grafik reichen, weil nur zum Browser / emails da.
Habe dafür den Monitor am entsprechenden Ausgang des MB angeschlossen, aber gab kein Signal?
Gibt es MBS dir gar kein onboard liefern? Bzw. liegt eher am CPU, oder? Müsste nachher schauen welcher das genau ist, irgendein i5.
-
Ja, wenn's sich nur irgendwie vermeiden lässt, willst du kein zusätzliches Geld ausgeben, um dann ein ziemlich mäßiges Bild zu bekommen, wie du es bei einem billigen Wandler erwarten kannst. Wenn du ziemlich viel Geld ausgibst, wird es vielleicht sogar halbwegs akzeptabel. Ist aber natürlich immer noch ein Analogbild und das wird man - egal wie gut - immer noch auf den ersten Blick sehen, wenn man die Perfektion eines Digitalmonitors gewöhnt ist.
Gibt es MBS dir gar kein onboard liefern? Bzw. liegt eher am CPU, oder? Müsste nachher schauen welcher das genau ist, irgendein i5.
Wenn's einen Anschluss dafür hat, dann kann's auch ein Bild liefern. Höchstwahrscheinlich hast du es aber so eingestellt (im UEFI), dass die interne Grafikkarte abgeschaltet wird, wenn noch eine andere Grafikkarte eingebaut ist. Was ja normalerweise auch ganz sinnvoll ist. Bau die externe Grafikkarte aus oder guck mal im UEFI nach.
Lieber neuer Monitor?
Tu dir was Gutes und tu das hier. Analogmonitore sind seit bald 20 Jahren veraltet. Jeder noch so billige Digitalmonitor wird einem rein analogen Monitor auf den ersten Blick erkennbar klar überlegen sein. Im letzten Jahrtausend, als digitale Bildübertragung noch neu war und man mit 1024*768 Punkten lebte, mag der Unterschied ja noch nicht so gewaltig gewesen sein, weil ein Pixel recht breit war, aber bei den hochaufgelösten Signalen von heute sieht man den Unterschied sofort, selbst im Blindtest (pun not intended).
Das gilt sogar ganz besonders, wenn man an dem Gerät hauptsächlich liest. Die feinen, scharfen Linien von Schrift sind bei Analogsignalen besonders vermatscht.
-
Wenn du keine Lightgun hast, dann macht es keinen Sinn mehr den CRT irgendwie noch an den Rechner anzuschließen.
https://de.wikipedia.org/wiki/LightgunKauf dir daher besser einen neuen TFT Bildschirm.
Den CRT kannst du eventuell noch an einem Raspberry Pi anschließen, der hat einen Component Video Ausgang, an dem du das Signal abgreifen kannst. Damit sollte der CRT klarkommen.
-
SeppJ schrieb:
[hilfreiches]
Okay, das klingt ja dann doch relativ eindeutig.
Hätte jetzt gedacht, dass das schon relativ gut funktioniert, kurze Amazon-Suche ergab dashier Adapter was auch gute Bewertungen hat.Aber wenn hier eher davon abgeraten wird, dann werde ich mich dem auch anschließen. Muss ja eigentlich wirklich nicht sein, mit so einem alten Monitor noch auf Teufel komm raus zu arbeiten.
Besonders wenn man dann auch von einem schönere Bild profitiert
-
computertrolls schrieb:
Wenn du keine Lightgun hast, dann macht es keinen Sinn mehr den CRT irgendwie noch an den Rechner anzuschließen.
Der OP hat nicht explizit gesagt, dass es ein CRT ist. Eine Menge alter billiger TFT-Monitore verfügt nur über einen Analogeingäng.
-
camper schrieb:
computertrolls schrieb:
Wenn du keine Lightgun hast, dann macht es keinen Sinn mehr den CRT irgendwie noch an den Rechner anzuschließen.
Der OP hat nicht explizit gesagt, dass es ein CRT ist. Eine Menge alter billiger TFT-Monitore verfügt nur über einen Analogeingäng.
Wenn das so ist, dann dürfte der Wechsel ja noch einfacher fallen.
Es gibt nämlich durchaus noch Gründe einen alten CRT zu besitzen, aber für einen uralten TFT Bildschirm gilt das definitiv nicht mehr.