Supportnet / Forum / HW-Sonstiges
Super schlechte Qualität auf den DVI-i Ausgang der G.Karte
Frage
Hallo,
ich habe an meine Sapphire radeon 9200 G.Karte zwei Monitore angeschlossen und muss wirklich ohne zu übertreiben sagen, dass der DVI-Ausgang, der mittels Adapter mit dem Monitor verbunden ist entweder defekt ist oder weiss nicht, was ich noch sagen soll
Das Bild über DVI-Ausgang ist dermassen unscharf und schlecht, dass man kaum was auf auf dem Monitor lesen kann. Dachte zuerst, das ist der Monitor, der vielleicht schlecht ist, aber der gleiche Monitor liefert am VGA-Ausgang der G.Karte ein gesteochen scharfes Bild und über DVI-Ausgang einfach undiskutabel und richtig schei...
Woran liegt das? habe schon mal gehört, dass der zweite Ausgang von der Singnalqualität nicht so gut wie der Erste ist, aber so etwas kann doch niemals sein
Was sagt Ihr dazu? Ist die G.Karte defekt oder habe ich noch eine bestimmte Einstellung wohl vergessen?
Bitte um eine Antwort!!
Danke
Antwort 1 von Lutz1965
Zitat:
dass der DVI-Ausgang, der mittels Adapter mit dem Monitor verbunden
dass der DVI-Ausgang, der mittels Adapter mit dem Monitor verbunden
Adapter = Abstrichte in der Bildwiedergabe
Antwort 2 von Waldimarr
Hi
Ich hab auch die selbe Kraka (Sapphire radeon 9200) !!
Auch ich hab ein mießes Output-Signal am Zweit-Monitor!
Jedoch ist das Bild nicht soo schlecht, wie es
bei Dir der Fall ist.
Ich kann zumindest Buchstaben schon noch
erkennen!
Versuch es mal mit 60Hz und 800x600 den
zweit-Bildschirm an zu steuern !!
Waldimarr
Ich hab auch die selbe Kraka (Sapphire radeon 9200) !!
Auch ich hab ein mießes Output-Signal am Zweit-Monitor!
Jedoch ist das Bild nicht soo schlecht, wie es
bei Dir der Fall ist.
Ich kann zumindest Buchstaben schon noch
erkennen!
Versuch es mal mit 60Hz und 800x600 den
zweit-Bildschirm an zu steuern !!
Waldimarr
Antwort 3 von Fritzz
Hallöchen!
Nachschauen, ob der Krakalüfter sich dreht...?
Fritzz
Nachschauen, ob der Krakalüfter sich dreht...?
Fritzz
Antwort 4 von saadat
Danke für die Tips
Ich habe es ausprobiert. Bei 800*600 @60Hz kann man erst die Buchstaben mit gewisser Unschärfe noch erkennen, aber bei 1024*768 oder gar 1280*1024 @ 85Hz kann man es schlicht und einfach vergessen.
Ich verstehe eins nicht, wofür dann Dual-Head, wenn die Qualität des zweiten Ausgangs so schlecht ist. Ist doch die Z pur finde ich oder?
Ich hatte früher eine Matrox G400 Max im Einsatz gehabt, und bei beiden Ausgängen war das Bild mit gleicher Qualität und gestochen scharf.
Nur hat leider Matrox andere Nachteile z.B schlechte und mässiger 3D Performance und ist nicht so gut für DVD-Wiegergabe geeignet wie eine ATI-Karte.
Ich habe es ausprobiert. Bei 800*600 @60Hz kann man erst die Buchstaben mit gewisser Unschärfe noch erkennen, aber bei 1024*768 oder gar 1280*1024 @ 85Hz kann man es schlicht und einfach vergessen.
Ich verstehe eins nicht, wofür dann Dual-Head, wenn die Qualität des zweiten Ausgangs so schlecht ist. Ist doch die Z pur finde ich oder?
Ich hatte früher eine Matrox G400 Max im Einsatz gehabt, und bei beiden Ausgängen war das Bild mit gleicher Qualität und gestochen scharf.
Nur hat leider Matrox andere Nachteile z.B schlechte und mässiger 3D Performance und ist nicht so gut für DVD-Wiegergabe geeignet wie eine ATI-Karte.
Antwort 5 von thomasn1975
@Lutz: Nein, das liegt nicht am Adapter.
Hatte damals, als ich eine GraKa mit 2 Ausgängen brauchte, auch erst eine Radeon 9600. Die Qualität war dermaßen schlecht (auf einem 19-Zoller ca. 2cm lange Schatten selbst bei 800x600/75Hz), dass ich die Karte umgetauscht habe. Mittlerweile läuft hier jetzt eine GF4 selbst mit dem billigsten Adapter, den ich finden konnte mit super Bildqualität bei einer Auflösung von 1280x1024 bei 85Hz.
Wie's aussieht kann man in der Hinsicht die Radeons echt vergessen.
Hatte damals, als ich eine GraKa mit 2 Ausgängen brauchte, auch erst eine Radeon 9600. Die Qualität war dermaßen schlecht (auf einem 19-Zoller ca. 2cm lange Schatten selbst bei 800x600/75Hz), dass ich die Karte umgetauscht habe. Mittlerweile läuft hier jetzt eine GF4 selbst mit dem billigsten Adapter, den ich finden konnte mit super Bildqualität bei einer Auflösung von 1280x1024 bei 85Hz.
Wie's aussieht kann man in der Hinsicht die Radeons echt vergessen.
Antwort 6 von saadat
Ja das ist richtig, dass man nicht unbedingt eine bestimmte G.Karte für DVD-Wiedergabe braucht. Aber im Heimkino-Bereich wird im HTPC immer wieder eine ATI Radeon Karte empfohlen, da sie über sehr gute Video-Eigenschaft verfügen.
Beim skalieren eines Video-Signals muss die G.Karte das DVD-Signal hochrechnen und möglichst féhlerfrei wiedergeben und genau da hat die ATI die Nase vorn.
Anderseits denke ich wiederum, was nutzt das wenn das rausgegebe Signal von der Schärfe schlechter ist als eine Matrox.
Irgendwie muss man wohl hier ein Kompromiss eingehen, aber ehrlich gesagt bin ich etwas verzweifelt und weiss nicht nun, welche Karte ich nehmen soll?
Matrox oder ATI? Gforce kommt eigentlich nicht Frage, da die Schärfe wahrscheinlich nicht besser eine ATI sein wird.
Wenn Ihr was mehr darüber wiesst, würde ich mich über eine Atwort sehr freuen.
Beim skalieren eines Video-Signals muss die G.Karte das DVD-Signal hochrechnen und möglichst féhlerfrei wiedergeben und genau da hat die ATI die Nase vorn.
Anderseits denke ich wiederum, was nutzt das wenn das rausgegebe Signal von der Schärfe schlechter ist als eine Matrox.
Irgendwie muss man wohl hier ein Kompromiss eingehen, aber ehrlich gesagt bin ich etwas verzweifelt und weiss nicht nun, welche Karte ich nehmen soll?
Matrox oder ATI? Gforce kommt eigentlich nicht Frage, da die Schärfe wahrscheinlich nicht besser eine ATI sein wird.
Wenn Ihr was mehr darüber wiesst, würde ich mich über eine Atwort sehr freuen.

