PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - SSAA durch GPU-Scaling


Spasstiger
2009-03-16, 18:32:26
Ich hab herausgefunden, dass meine Radeon HD 2900 Pro mit dem Catalyst 8.12 (neuere Versionen hab ich noch nicht getestet) auch hohe Auflösungen auf niedrige Auflösungen skalieren kann und nicht nur umgekehrt. Das Ganze geschieht offenbar auf der GPU unter Nutzung eines wahrscheinlich bilinearen Downsampling-Filters ähnlich wie beim GPU-Scaling. Kurios ist aber, dass GPU-Scaling explizit ausgeschaltet sein muss, damit das Ganze geht. So siehts bei mir im Catalyst Control Center in den DVI-Einstellungen aus:

http://img2.abload.de/img/dviswk1.png

Man muss nur per Powerstrip oder ähnlichen Tools eine höhere Auflösung als die native Auflösung einrichten und auswählen. Das geht sowohl auf dem Desktop als auch in Fullscreen-3D. Auflösungen, die auf dem Desktop ausgewählt werden können, stehen in der Regel auch bei Spielen zur Verfügung.

http://www.abload.de/img/25605yam.png

Beachtet, dass mein Monitor nur 1920x1200 Pixel als native Auflösung verwendet. Die 2560x1600 Pixel werden in der oben gezeigten Einstellung auf 1920x1200 Pixel runterskaliert, so dass ich den kompletten Desktop angezeigt bekomme und nicht nur einen Bildausschnitt. Dass die GPU dabei aktiv wird, merke ich deutlich an der Leistungsaufnahme meines Rechners auf dem Desktop:
800x600: ~132 Watt
1920x1200: ~132 Watt
2560x1600: ~188 Watt
Das Ganze funktioniert auch vorzüglich bei Spielen. 2560x1600 auswählen und schon hab ich ein 1,33*1,33-faches Supersampling-AntiAliasing.

Mich interessieren jetzt folgende Dinge:
- Kann jemand von euch meine Beobachtungen auf seinem System nachvollziehen? Wenn ja, welche Grafikkarte und welchen Treiber verwendet ihr?
- Bekommt ihr das Ganze auch als NV-User hin?
- Wie performt das Ganze bei euch und wie empfindet ihr die Bildqualität? NV-User können auch gerne mit der OGSSAA-Implementierung vergleichen.
- Treten bei Euch irgendwelche Probleme auf wie Darstellungsfehler, Flackern, VPU Recover oder Totalabstürze?

Mit Fotos kann ich momentan leider nicht dienen, dazu müsste ich erstmal eine Digicam ausleihen.
Andiskutiert wurde das Thema auch in folgendem Thread:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7167846

Gast
2009-03-16, 20:35:31
Wenn ich es so einstelle wie im Bild, dann uebernimmt der TFT die Scalierung[normal/wide].

Ich kann nur per HDTV Support[ccc] auf 1920x1080 umstellen, habe auch per Powerstrip einen eigenen Driver[2560x1600] erstellt und installiert[reboot], brachte aber nix.

Wenn ich nun im PS EIDE auswaehlen, steht mode 2 und die max. Aufloesung von 1680x1050. Schalte ich auf mode 1 um, steht 2560x1050, aber annehmen tut ps oder der driver das nicht.

mode 1 = vga ? mode 2 = dvi ¿

Keine Step for Step Anleitung fuer diese "Prozedur", im Netz irgendwo fuer ati gpus ?

OC_Burner
2009-03-16, 20:36:55
Bei Nvidia wird das ganze wohl etwas anders gehandhabt. Bei mir kann ich keinen Unterschied der Leistungsaufnahme
vom Rechner feststellen wenn ich zwischen 800x600, 1600x1200, 2560x1920 und 5404x1150 vergleiche. Ich kann ja
Morgen auch noch ein bißchen was dazu, als Nvidia-User schreiben.

Edit.: Fotos

Desktopresolution 1600x1200 (http://www.oc-burner.de/ftp/Pictures/3D-Center/Unterst%fctzung%20f%fcr%20anamorphe%20Darstellung/Desktop_1600x1200.JPG)
Desktopresolution 2560x1920 (http://www.oc-burner.de/ftp/Pictures/3D-Center/Unterst%fctzung%20f%fcr%20anamorphe%20Darstellung/Desktop_2560x1920.JPG)
Desktopresolution 3840x1080 (http://www.oc-burner.de/ftp/Pictures/3D-Center/Unterst%fctzung%20f%fcr%20anamorphe%20Darstellung/Desktop_3840x1080.JPG)
Desktopresolution 5404x1150 (http://www.oc-burner.de/ftp/Pictures/3D-Center/Unterst%fctzung%20f%fcr%20anamorphe%20Darstellung/Desktop_5405x1150.JPG)

Gouvernator
2009-03-16, 21:01:28
Das es über GPU laufen soll ist ein IRRTUM, das geht net. Das läuft ausschließlich über Bildschirm.

Spasstiger
2009-03-16, 21:06:52
Das es über GPU laufen soll ist ein IRRTUM, das geht net. Das läuft ausschließlich über Bildschirm.
Und wie erklärt sich dann die drastisch erhöhte Leistungsaufnahme?

AnarchX
2009-03-16, 21:08:25
Das es über GPU laufen soll ist ein IRRTUM, das geht net. Das läuft ausschließlich über Bildschirm.
Wie sollte das nicht über die GPU laufen?
Ab HD2000 wurde ja AFAIK die Fixed Function HW für 2D-Funktionen über Board geworfen und diese Funktionen über die 3D-HW implementiert, deshalb wohl auch der deutlich erhöhte Verbrauch bei Spasstiger.

Coda
2009-03-16, 21:37:52
Das es über GPU laufen soll ist ein IRRTUM, das geht net. Das läuft ausschließlich über Bildschirm.
Nö. Die ATI- und NVIDIA-Treiber bieten schon seit längerem auch Scaling auf der GPU an.

Gast
2009-03-16, 21:39:51
Wie sollte das nicht über die GPU laufen?
Ab HD2000 wurde ja AFAIK die Fixed Function HW für 2D-Funktionen über Board geworfen und diese Funktionen über die 3D-HW implementiert, deshalb wohl auch der deutlich erhöhte Verbrauch bei Spasstiger.

Weil es ja eindeutig beschrieben ist : "Enable.....GPU...Scaling" wenn nicht, dann TFT. Und das stimmt sofern es de-enabled ist, denn bei mir streckt der TFT das Bild in die Breite, wenn ich z.B 720p eingestellt habe[+ wide im TFT Menu]
http://saved.im/otcxnjn4btlz/untitled.png

Majestic
2009-03-16, 21:45:02
Bei mir funktioniert das ganze (leider) nicht unter XP32 mit dem Cat 8.12 nicht. Sobald ich eine höhere Auflösung als die die native einstelle , bekomme ich wieder den bekannten scrollbaren Bildausschnitt. Und nach einem Neustart ist komischerweise auch das Häckchen bei "Enable GPU scaling" drin obwohl ich es explizit nicht gesetzt habe.

Gast
2009-03-16, 22:08:21
1280x720 ohne gpu scaling wird das Bild in der Horinzontale gestreckt, bei 1376x768/1440x900 nicht?!

_DrillSarge]I[
2009-03-16, 22:17:50
Und wie erklärt sich dann die drastisch erhöhte Leistungsaufnahme?
weil die karte eine höhere auflösung zu berechnen hat? ;)
wenn du gpu-scaling ausmachst, läuft es NICHT über die karte, sondern dein moni skaliert.
zumal ich finde (zumindest, was man in "normalen" szenarien mit gpu-scaling sieht), dass es deutlich besser als ein bilinearer filter (afaik nutzen die meisten monitore diese einfache methode) aussieht.

€: man erkennt auch, dass das scaling nicht auf der gpu gemacht wird, dass es nicht überall funktioniert (abhängig von monitor).

Majestic
2009-03-16, 22:28:11
Auch wenn es OT.... :redface:
Gibt es eigendlich einen technischen Grund warum AMD/ATI den Radeons kein SSAA gibt.... Ich würde doch sagen das Hybridmodi und reines SSAA doch ein Kaufgrund mehr sind. Oder ist NVidia dort mit ihren Verfahren,Optimierungen oder was auch immer einfach erfahrener/besser?

Coda
2009-03-16, 22:34:50
Gibt es eigendlich einen technischen Grund warum AMD/ATI den Radeons kein SSAA gibt...
Nö.

Tesseract
2009-03-16, 22:45:26
Nö.
ka wie es bei der aktuellen generation aussieht, aber bei den älteren generationen war ja bei ati schon mit 2x2SS nichtmal mehr 1280x1024 machbar oder?

Coda
2009-03-16, 22:48:45
D3D10-GPUs müssen alle 8192x8192 Rendertargets können.

_DrillSarge]I[
2009-03-16, 22:50:06
gibts ne alternative zu powerstrip? das ding will nach dem setzen eine neuen auflösung neustarten, aber danach gehts trotzdem nicht.

Spasstiger
2009-03-16, 23:20:34
I[;7172162']weil die karte eine höhere auflösung zu berechnen hat? ;)
Warum ist dann die Leistungsaufnahme bei 800x600 nicht geringer als bei 1920x1200? Du glaubst doch wohl selbst nicht, dass die 2D-Darstellung in 2560x1600 gegenüber 1920x1200 fast 60 Watt mehr braucht. Der Fall ist ganz klar, die Grafikkarte geht in den 3D-Modus, weil über die Shadereinheiten skaliert wird.

_DrillSarge]I[
2009-03-16, 23:37:50
Warum ist dann die Leistungsaufnahme bei 800x600 nicht geringer als bei 1920x1200? Du glaubst doch wohl selbst nicht, dass die 2D-Darstellung in 2560x1600 gegenüber 1920x1200 fast 60 Watt mehr braucht. Der Fall ist ganz klar, die Grafikkarte geht in den 3D-Modus, weil über die Shadereinheiten skaliert wird.
ok, ich bin jetzt von 3d in games ausgegangen :redface:

reunion
2009-03-17, 07:34:36
ka wie es bei der aktuellen generation aussieht, aber bei den älteren generationen war ja bei ati schon mit 2x2SS nichtmal mehr 1280x1024 machbar oder?

ATi bot ja unter OSX sogar SSAA offiziell an.

Undertaker
2009-03-17, 11:30:24
I[;7172236']gibts ne alternative zu powerstrip? das ding will nach dem setzen eine neuen auflösung neustarten, aber danach gehts trotzdem nicht.

Gleiches Problem hier... :(

Sonyfreak
2009-03-17, 11:38:08
ATi bot ja unter OSX sogar SSAA offiziell an.Zumindest einstellen kann ichs: :biggrin:

http://www.bilderkiste.org/show/original/a559b8fce814064131e71d5303ff8ce8/Bild_1.png

mfg.

Sonyfreak

reunion
2009-03-17, 11:55:01
Ja, ich weiß. Weil ich deinen Shot gerade sehe: Auch Profile scheint es unter OSX ironischerweise zu geben.

Lolman
2009-03-17, 18:38:37
Das es über GPU laufen soll ist ein IRRTUM, das geht net. Das läuft ausschließlich über Bildschirm.


ACK. Leider.

OC_Burner
2009-03-17, 19:32:42
ACK. Leider.

Ach, und wie läßt sich das erklären das 2560x1920 oder Widescreenauflösungen von 5405x1150 über Single-Link DVI-D übertragen werden, was technisch unmöglich sein sollte (60hz).

Lolman
2009-03-17, 19:45:15
Ach, und wie läßt sich das erklären das 2560x1920 oder Widescreenauflösungen von 5405x1150 über Single-Link DVI-D übertragen werden, was technisch unmöglich sein sollte (60hz).

Nö. Mittels Alternate DVI operational Mode/Reduce DVI-Frequency geht das schon. Ich hab bei mir bspw im CCC 1080p 60hz hinzugefügt und der Monitor schreit "Out of Range" - Es skaliert garantiert der Monitor, spiel dich mal mit den Schärfeeinstellungen am Monitor herum. Bei nativer Auflösung haben die normalerweise keine Wirkung.

Gouvernator
2009-03-17, 19:55:08
Solche Hightech Spielerei ist doch sehr schwierig zu realisieren ohne dem User eine spezielle Einstellung zu geben. Die Grafikkarte schickt einfach die angeforderte Auflösung samt Inhalt an den Monitor und fertig. Wie soll die Grafikkarte erkennen das man Skalieren will und was für Auflösung der Monitor schafft und was nicht. Ihr nimmt doch nicht an das die Grafikkarte-X weiss das man aktuell 2560x1920 rendern muss aber Skaliert und ausgegeben wird in 1920x1200?

Spasstiger
2009-03-17, 19:56:33
Wie soll die Grafikkarte erkennen das man Skalieren will und was für Auflösung der Monitor schafft und was nicht.
Anhand der EDID-Daten. Siehe GPU-Scaling.

Gouvernator
2009-03-17, 20:00:09
Anhand der EDID-Daten. Siehe GPU-Scaling.
Ok. Dann, wie soll die Grafikkarte entscheiden welche Auflösung du aus dieser EDID Tabelle aktuell haben willst? Du hast ja 2 Auflösungen eine die du anforderst und die andere die du aktuell haben willst. Die erste stellst du im Desktop ein und die zweite? Ist doch schon viel zu kompliziert für den Treiber.

Spasstiger
2009-03-17, 20:01:20
Ok. Dann, wie soll die Grafikkarte entscheiden welche Auflösung du aus dieser EDID Tabelle aktuell haben willst? Du hast ja 2 Auflösungen eine die du anforderst und die andere die du aktuell haben willst. Die erste stellst du im Desktop ein und die zweite?
Bei AMDs GPU-Scaling wird immer auf die max. Auflösung skaliert, die der Monitor meldet.

Lolman
2009-03-17, 20:04:37
Bei AMDs GPU-Scaling wird immer auf die max. Auflösung skaliert, die der Monitor meldet.

Trotzdem ists idF der Monitor, der skaliert. Probier mal einen anderen Monitor.

(wobei ich mir treiberseitiges Downscaling schon seit Längerem wünsche und es sehr begrüßen, würde wenn der Treiber das wirklich anböte ;))

_DrillSarge]I[
2009-03-17, 20:06:18
nochmal: gibts nen anderes tool, womit man benutzerdefinierte auflösungen einstellen kann? powerstrip will nicht (vista64).
:uwave:

Spasstiger
2009-03-17, 20:09:38
Trotzdem ists idF der Monitor, der skaliert. Probier mal einen anderen Monitor.
Vielleicht kann ich einen 22-Zöller mit HDMI ausleihen. Aber das kann sich bis zum WE hinziehen.

OC_Burner
2009-03-17, 20:50:46
Nö. Mittels Alternate DVI operational Mode/Reduce DVI-Frequency geht das schon. Ich hab bei mir bspw im CCC 1080p 60hz hinzugefügt und der Monitor schreit "Out of Range" - Es skaliert garantiert der Monitor, spiel dich mal mit den Schärfeeinstellungen am Monitor herum. Bei nativer Auflösung haben die normalerweise keine Wirkung.

Auf die Idee bin ich auch schon gekommen. Mein Monitor erhält aber definitiv seine native Auflösung von 1600x1200 (60hz) als Input. Die Schärfe ändert sich nicht bei höheren Auflösungen ganz genauso wie es auch bei der nativen der Fall ist. Würde die Schärfe sich ändern so wie es bei niedrigeren Auflösungen der Fall ist dann hättest du mit deiner Aussage wohl recht, aber es ist nicht so.

Edit: Es sei den die Schärfejustierung funktioniert nicht bei allen Auflösungen...

Sonyfreak
2009-03-17, 23:53:36
I[;7174051']nochmal: gibts nen anderes tool, womit man benutzerdefinierte auflösungen einstellen kann? powerstrip will nicht (vista64). :uwave:Mit dem Rivatuner gehts glaube ich auch. :)

mfg.

Sonyfreak

raffa
2009-03-18, 02:22:31
I[;7174051']nochmal: gibts nen anderes tool, womit man benutzerdefinierte auflösungen einstellen kann? powerstrip will nicht (vista64).
:uwave:

mir scheint, als würde ein verändertes inf unter vista gar nix bringen, solange EDID was anderes sagt.
jedenfalls schaff ich es hier nicht, auflösungen jenseits der 1920x1080 (HDTV Support im CCC, nativ ist 1680x1050) anwählbar zu machen.

CompuJoe
2009-03-18, 02:57:26
mir scheint, als würde ein verändertes inf unter vista gar nix bringen, solange EDID was anderes sagt.
jedenfalls schaff ich es hier nicht, auflösungen jenseits der 1920x1080 (HDTV Support im CCC, nativ ist 1680x1050) anwählbar zu machen.

Ja, hier das selbe.

mekakic
2009-03-18, 07:44:50
Die Monitore zeigen doch überlicherweise in irgendeinem Menü an was bei ihnen am Input anliegt.

Spasstiger
2009-03-18, 14:42:37
Die Monitore zeigen doch überlicherweise in irgendeinem Menü an was bei ihnen am Input anliegt.
Jopp, bei mir:
Einstellung am PC -> Auflösung laut Monitormenü
1920x1200 -> 1920x1200
1200x1200 -> 1600x1200
1536x1536 -> 1600x1200
1920x1440 -> 1600x1200
2048x1536 -> 1600x1200
2560x1600 -> 1920x1200
2560x1920 -> 1600x1200

mekakic
2009-03-19, 08:37:47
Das würde ja für eine Skalierung durch die Grafikkarte sprechen. Es sei denn der Monitor zeigt nicht an was am Eingang anliegt, sondern was er darstellt.

Lolman
2009-03-19, 12:02:06
Es sei denn der Monitor zeigt nicht an was am Eingang anliegt, sondern was er darstellt.

So ist es, glaub ich. Außerdem würd ich eher mit nem Monitor ohne HDMI testen. HDMI-Monitor beherrschen wohl alle mehr oder weniger internes Downscaling.

Spasstiger
2009-03-19, 12:29:07
Warum um Alles in der Welt sollte die Grafikkarte in den 3D-Modus auf dem Desktop schalten, wenn doch angeblich der Monitor das Downscaling übernimmt?

Gibts ein Tool, mit dem man die Auflösung am DVI-Ausgang der Grafikkarte zweifelsfrei feststellen kann?

Mein Monitor hat übrigens keinen HDMI-Eingang, nur DVI. Aber der einzige digitale Monitor, den ich relativ stressfrei ausleihen könnte, hat einen HDMI-Eingang. Dass ein HDMI-Eingang ein Indiz für ein monitorinternes Downscaling sein soll, halte ich allerdings für weit hergeholt. Das trifft höchstens bei HD-Ready-LCD-Fernsehern zu.

raffa
2009-03-19, 12:32:58
Mein Dell 2005FPW zeigt an, was am Eingang anliegt, solange er die Auflösung kennt. Kennt er sie nicht, zeigt er 1680x1050 an. (Die Skalierungsoptionen des Dell funktionieren auch nur, solang er die Auflösung kennt.)

Netterweise kennt er 1920x1080 und skaliert das (seitengerecht) runter auf 1680x1050. Dann funktionieren allerdings die Colorcontrols nimmer und das Bild ist etwas blaustichig (jedenfalls im Vergleich zu meinen bevorzugten Einstellungen).

Zum GPU Downscaling von höheren Auflösungen kann ich dank x800 nichts beitragen. :\ Ich wüsste auch nicht, wie höhere Auflösung ohne EDID Override anwählbar machen könnte, was dazu führt, daß die Grafikkarte ohne korrekte Monitorinfos ohnehin was "falsches" schicken würde. 2560x1600 zb wird dann halt als 2560x1600 ausgegeben, was der Monitor nicht darstellen kann, meiner jedenfalls nicht.

@Spasstiger: Welches Betriebssystem verwendest du? Bei dir scheint das ganze ja ohne EDID Override zu funktionieren.

Spasstiger
2009-03-19, 15:16:43
@Spasstiger: Welches Betriebssystem verwendest du?
XP 64 Bit.

GeneralHanno
2009-03-21, 15:01:08
wenn ich mich recht zurückentsinne gab es vor 10 jahren einen ähnlichen "trick" mit CRT und der lochmaske ...

kokett
2009-03-21, 18:01:31
Spasstiger, was passiert eigentlich wenn du den Haken bei "Enable GPU Scaling" setzt und "Maintain Aspect Ratio" wählst? In dem Fall müsste doch die Grafikkarte auf die ermittelte native Resolution runterskalieren, so wie du es momentan eingestellt hast, müsste es doch der Monitor sein (GPU Scaling ist bei dir ja nicht an). Ich kanns selber wegen Vista x64 nicht testen, ich schaffs nicht eine höhere Auflösung als 1920x1200 einzustellen.

Spasstiger
2009-03-21, 19:59:06
Spasstiger, was passiert eigentlich wenn du den Haken bei "Enable GPU Scaling" setzt und "Maintain Aspect Ratio" wählst?
Ich habs eben getestet. Verhält sich bei 16:10-Auflösungen genauso wie die Einstellung aus dem Startposting. Also auch Downscaling (und Anstieg der Verlustleistung). Bei 4:3-Auflösungen wird der Monitor dagegen nur mit 800x600 Pixeln angesteuert und ich darf scrollen.

kokett
2009-03-21, 21:13:32
Siehst du einen qualitativen Unterschied zwischen gpu scaling an/aus bei 16:10 Auflösungen? Ich würds so gern auch testen, aber ich kriege unter vista x64 keine Auflösungen > 1920x1200 hinzugefügt. Ich hab auch denselben Monitor wie du.

Spasstiger
2009-03-21, 21:52:11
Siehst du einen qualitativen Unterschied zwischen gpu scaling an/aus bei 16:10 Auflösungen?
Ne, selbst wenn ich einzelne Pixel gezielt beobachte, sehen beide Modi genau identisch aus,

Spasstiger
2009-03-22, 16:06:59
Ich sitze gerade an einem Rechner mit Vista 32 Bit, einer GeForce 8800 GT und einem BenQ E2200HD (22", 16:9, 1080p, HDMI).
2048x1152 bekomm ich zum Laufen, die Grafikkarte skaliert dabei ordentlich runter. Alles höhere klappt nicht.

Gast
2009-03-25, 18:50:50
Wenn ich das aus dem Prad-Forum diesbezüglich richtig in Erinnerung habe, ist der von dir genutzte Benq-Bildschirm und seine Schwestermodelle (tragischerweise auch die mit 16:10 AR und 1200 Zeilen) laut Herstelleraussage offiziell gar nicht in der Lage mehr als 1080 Zeilen über HDMI anzunehmen und wiederzugeben. Ich schau aber nochmal nach, ob ich da nicht was verwechsle.

Gast
2009-03-25, 18:57:15
Nachtrag: Damit das keiner falsch versteht, ist noch dazu zu sagen, dass erwähnte Bildschirme mit 1200 Zeilen durchaus in der Lage sind, auch ein Bild mit 1200 Zeilen darzustellen. Nur wird ein solches eben nicht per HDMI angenommen, sondern nur über die zusätzlich vorhandenen DVI-D- oder D-Sub-15-VGA-Anschlüsse. Ich suche aber mal die entsprechende Antwort-Email seitens Benq raus und verlinke sie dann hier, wenn ich sie finde.

hmx
2009-03-30, 00:52:02
Ich habe das jetzt mal mit meinem Beamer ausprobiert. Die native Auflösung ist 1280*720. Alles was darunter ist kann mit GPU Scaling auf 720p Skaliert werden. Darüber (zB 1920*1080) hat das häckchen bei GPS Skalierung keine Wirkung, es wird immer der Beamer mit 1920*1080 angesteuert. Scheint wohl so als ob die GPU-Skalierung wohl nicht funktioniert wenn von einen Hohen Auflösung auf eine niedrigerer runterskaliert wird. Der Beamer zeigt beim Umschalten was nun am Eingang liegt wurde, da zeigt er dann bei 1920*1080 an dass diese Auflösung eingestellt wurde, egal ob nun GPU Skalierung an oder aus ist. Wenn ich 2560*1600 einstelle sagt er out of sync.
Das GPU Scaling bei ATi macht übrigens nicht immer das was man eingestellt hat. Bei 1152*864 ist immer GPU Scaling aktiv, offenbar weil der Beamer diese Auflösung nicht gemeldtet hat (bei meinem Laptop mit NV geht es, da zeigt der Beamer aber bei solchen "unbekannten" Auflösungen immer 1280*1024 am Eingang an). Also ist was wohl so dass ATi da immer das macht was möglich ist, und zwar Automatisch. Wenn eine niedrigere Auflösung nicht gemeldtet ist => immer GPU, wenn über herunterskaliert werden soll GPU immer aus. Zudem zeigen Monitore wohl wie der Beamer nicht unterstützte Auflösungen, wenn man nachschaut was am Eingang anliegt, nicht korrekt an. MEin Beamer zeigt dann immer 1280*1024 an, der Bildschirm von Spasstiger zeigt dann wohl je nach Seitenverhältniss 1920*1200 oder 1600*1200 an.

Mr. Lolman
2009-04-15, 18:33:26
Doch. Ich übertrage von der Grafikkarte 2560x1920 Pixel bei 60 Hz an den Bildschirm. Das Downsampling auf 1920x1200 Pixel @ 60 Hz geschieht erst im Monitor, wenn das Signal bereits vom DVI-Empfänger im Monitor verarbeitet wurde.

Also doch. Wär ja zu schön gewesen. ;(

Spasstiger
2009-04-15, 18:37:26
Also doch. Wär ja zu schön gewesen. ;(
Das Posting ist doch alt. Inzwischen bin ich wegen der krass erhöhten Leistungsaufnahme meines Rechners bei Auflösungen > 1920x1200 im 2D-Betrieb zu einem ganz anderen Schluss gekommen. Zumal ich das Downscaling auch mit einer GeForce 8800 GT unter Windows Vista und an einem ganz anderen Monitor hinbekommen habe.

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=450226

Mr. Lolman
2009-04-15, 18:40:23
Das Posting ist doch alt. Inzwischen bin ich wegen der krass erhöhten Leistungsaufnahme meines Rechners bei Auflösungen > 1920x1200 im 2D-Betrieb zu einem ganz anderen Schluss gekommen.

Liegt imo daran, dass Radeons ab R600 anscheinend keinen gesonderten 2D-Teil mehr haben. Die 2D-Desktopperformance skaliert auch 1:1 mit der Taktrate, was iirc bei GraKas mit dedizierter 2D-Einheit nicht der Fall war.

EDIT:
Zumal ich das Downscaling auch mit einer GeForce 8800 GT unter Windows Vista und an einem ganz anderen Monitor hinbekommen habe.

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=450226

Zufall. Ich würd dir ja gern glauben. Gerade auf meinem 19" TFT ists dringend nötig (zumindest bei GTAIV) ;)

Spasstiger
2009-04-15, 18:47:07
Liegt imo daran, dass Radeons ab R600 anscheinend keinen gesonderten 2D-Teil mehr haben. Die 2D-Desktopperformance skaliert auch 1:1 mit der Taktrate, was iirc bei GraKas mit dedizierter 2D-Einheit nicht der Fall war.
Es kann doch wohl kein Zufall sein, dass alle Auflösungen von 800x600 bis 1920x1200 exakt die gleiche Leistungsaufnahme erzeugen und dann 2048x1536 die Leistungsaufnahme direkt mal um 56 Watt anschnellen lässt während 2560x1600 wiederum nicht mehr benötigt als 2048x1536.
Ich finde, das sind verdammt viele Zufälle, die bei mir eingetreten sein sollen. Ich hab null Indizien dafür, dass die von mir getesteten Monitore das Scaling übernehmen, aber mehrere Indizien dafür, dass die von mir getesteten Grafikkarten Downscaling beherrschen. Auch die Auflösung, die von den Monitoren gemeldet wird, spricht für ein grafikkartenseitiges Downscaling.
Btw. ist das hier der falsche Thread. ;)

Nur weil nur ein einziger weiterer User hier im Forum meine Feststellungen reproduzieren kann, heißt das nicht, dass es GPU-Downscaling nicht gibt. Manche hier bekommen es ja nichtmal gebacken, irgendeine weitere Auflösung einzurichten. Keine Ahnung, wie ungeschickt man sich dafür anstellen muss, ich hab damit seit Jahren an verschiedenen Rechnern keine Probleme. Vor allem verstehe ich nicht, warum die Leute unbedingt an ihren EDID-Daten basteln wollen. Über die EDID-Daten weiß doch die Grafikkarte erst, auf welche Auflösung sie runterskalieren darf.

Mr. Lolman
2009-04-15, 19:07:07
Also ich habs jetzt nochmal getestet, mit 1080p60 (übers CCC hinzugefügt), am 19" Benq FP93GX+ und bekomm mit Catalyst 9.3 und XP SP3 am Monitor eine Out of Range Meldung.


EDIT: Die Beiträge hab ich auch in den richtigen Thread verschoben ;)

Gouvernator
2009-04-15, 19:30:06
Bei älteren Radeons hat man das Problem das bei höheren analogen Auflösungen irgendwas mit dem GPU Takt mitskaliert. Wenn ich eine niedrige GPU Frequenz z.B. in 2D betreibe und gleichzeitig die Auflösung und daraus ergebende Khz erhöhe dann habe ich üble Bildschirmstörungen. Wenn ich GPU Takt erhöhe dann verschwinden plötzlich diese Störungen. Irgendwo auf der Grafikkarte sitzt ein Chip das für Bildausgabe zuständig ist wenn man von ihm eine höhere Auflösung verlangt dann taktet er automatisch GPU Frequenz hoch. Das tut er wahrscheinlich bei allen neuen Grafikkarten bzw. neueren als X1900 Serie.

Das ist quasi der ganze GPU Part - einfach einwandfrei eine hohe Auflösung zu liefern. Ob man diese Auflösung einwandfrei auf dem Monitor zu sehen bekommt liegt NUR am Monitor selbst.

Spasstiger
2009-04-15, 19:48:39
Probiere mal den Cat. 8.12, mit dem klappt es bei mir. Ich werde am WE mal den Cat. 9.4 testen.

Gouvernator
2009-04-17, 19:41:54
@Spasstiger was passiert denn eigentlich wenn du die Auflösung zwar machst aber statt 60Hz dann irgendwas anderes nimmst? Zum Beispiel alles von 30Hz bis 50Hz.

Bei Auflösungen gibt es da ein trick wie man mit Power Strip die Karte dazu bringt kein Scroll-Desktop zu haben. Dazu musst du wenn du die Auflösung sehr hoch wählst zum Beispiel 3840x2400 auf keinen Fall 400Mhz RAMDAC überschreiten. Erst die Hz so niedrig wählen das du drunter bleibst und dann später auf 60 Hz (oder irgendwas) erhöhen. Nimmst deine normale Auflösung gehst wieder auf Benutzerdefiniert und wählst die Auflösung aus die du gerade gemacht hast und kannst die Hz korrigieren.

PatkIllA
2009-04-30, 16:04:17
Gibts ein Tool, mit dem man die Auflösung am DVI-Ausgang der Grafikkarte zweifelsfrei feststellen kann?Hast du mal ein SingleLink-Kabel genommen. Damit kann was höheres als 1920x1200 bei 60 Hz ja ausschließen. Wobei ich eh äußerst sicher bin, dass kein 24" den zweiten Link auch nur anguckt oder mehr als 165 MHz per DVI unterstützt.

Mr. Lolman
2009-04-30, 16:08:17
@Spasstiger was passiert denn eigentlich wenn du die Auflösung zwar machst aber statt 60Hz dann irgendwas anderes nimmst? Zum Beispiel alles von 30Hz bis 50Hz.

Bei Auflösungen gibt es da ein trick wie man mit Power Strip die Karte dazu bringt kein Scroll-Desktop zu haben. Dazu musst du wenn du die Auflösung sehr hoch wählst zum Beispiel 3840x2400 auf keinen Fall 400Mhz RAMDAC überschreiten. Erst die Hz so niedrig wählen das du drunter bleibst und dann später auf 60 Hz (oder irgendwas) erhöhen. Nimmst deine normale Auflösung gehst wieder auf Benutzerdefiniert und wählst die Auflösung aus die du gerade gemacht hast und kannst die Hz korrigieren.


Du hast deinen Monitor über HDMI laufen, oder? Meinst du ein 19" Benq FP93GX+ lässt sich auch mittels DVI dahingehend austricksen?

Gouvernator
2009-04-30, 16:23:25
Über DVI lässt sich mein Benq nur schlecht benutzen. Ich kann höchstens horizontal Auflösung bis auf 3200x1200 aufdrehen.
Über HDMI Anschluss schaltet mein Display zum speziellen Modus wo er "denkt" seine Auflösung ist nun 2560x2400. Auflösungen die kleiner sind z.B. 2048x1536 werden dann bei 1:1 Ratio als kleines skaliertes Fenster dargestellt. Wie eben typischerweise 800x600 oder so, aber unskaliert. Wenn ich über DVI die gleiche Auflösung ansteuere dann verliert er das Signal.
Musst du villeicht selbst ausprobieren ob es geht. Bei mir weiss ich hinterher, das es sehr einfach ist. Alles was man braucht ist Powerstrip wenn die normale 2560x1600 nicht mehr reicht. Im Catalyst CCC musst du höchstens noch "alle verfügbaren Auflösungen" anzeigen lassen.

Gast
2009-05-06, 21:27:31
Wieso geht das bei mir nicht? Mit meinen 22" kann ich nur 1680x1050 einstellen :( Mit Powerstrip kann ich keine Auflösung erwzingen oder erstellen.

nymand
2009-05-17, 13:05:53
das funktioniert ja wirklcih :-)

-Monitor macht 1680*1050,
-übers nv panel 2520*1575 - Timingstandard Auto (1,5x AA) hinzugefügt
-Change flat panel scaling auf "use NVIDIA scaling with fixed aspect ratio"

und schon klappt alles :-)

EDIT:
3360 * 2100 klappt seltsamerweise nicht. Bzw, Bild wird zwar angezeigt, das NV Panel sagt aber failed :-(

Lawmachine79
2009-05-17, 13:30:30
Bei mir funktioniert das mit Powerstrip nicht. 1) Kann ich nur bis 1920x1200 wählen und 2) Ist dann nicht mehr der ganze Desktop auf dem Schirm, so daß ich scrollen muss. Catalyst ist 9.5. Monitor ist 1680x1050. Außerdem kann ich die Auflösungen nur in PStrip auswählen, nicht in Windows.
Edit: Funzt jetzt, der Desktop sieht allerdings aus, als wird wirklich versucht, mit der Auflösung (2560x1600) zu arbeiten und nicht downgesampled. GTA IV bietet die Auflösung nicht an.

dargo
2009-05-17, 17:42:52
das funktioniert ja wirklcih :-)

-Monitor macht 1680*1050,
-übers nv panel 2520*1575 - Timingstandard Auto (1,5x AA) hinzugefügt
-Change flat panel scaling auf "use NVIDIA scaling with fixed aspect ratio"

und schon klappt alles :-)

EDIT:
3360 * 2100 klappt seltsamerweise nicht. Bzw, Bild wird zwar angezeigt, das NV Panel sagt aber failed :-(
Poste bitte deine Erfahrungen bis zum Ziel hier genau, danke. :)
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=454129

y33H@
2009-05-17, 17:55:57
@ dargo

Möglich, dass ich blind bin - was für einen Monitor besitzt du?

dargo
2009-05-17, 18:56:44
LG L227WT, steht übrigens im ersten Post beim verlinkten Thread. :biggrin:

y33H@
2009-05-17, 18:58:07
*hust*

Gast
2009-05-17, 19:26:55
wo stelle ich das ganze denn genau bei powerstrip ein, kann evtl. mal jemand was dazu schreiben oder bilder posten. wäre wirklich super.

habe nämlich die combo die spasstiger verwendet und würde das auch gerne ausprobieren, nur leider weiß ich nicht genau wie ich 2560x1600 aufzwingen kann.?!

danke im vorraus guys

Picknatari
2009-05-19, 01:20:40
Ati 4850, Cat 9.4, Win XP Sp3, Eizo S2031W über DVI (org. EIZO INF File mit ICM) , 1920x1200 / 2048x1536 mit Boardmitteln geschafft. Im CCC alle Auflösungen zugelassen, alle HDTV Modi hinzugefügt, Monitor seitig auf Vollbild eingestellt, GPU Scaling aus und Punkt bei zentrietes Timing. Höher als 2048x1536 gehts nicht. Der Monitor lässt scheinbar nur 16:10 und 4:3 zu, ansonsten kommt out of Range.

Lawmachine79
2009-05-21, 19:14:20
Bei mir funktioniert das mit Powerstrip nicht. 1) Kann ich nur bis 1920x1200 wählen und 2) Ist dann nicht mehr der ganze Desktop auf dem Schirm, so daß ich scrollen muss. Catalyst ist 9.5. Monitor ist 1680x1050. Außerdem kann ich die Auflösungen nur in PStrip auswählen, nicht in Windows.
Edit: Funzt jetzt, der Desktop sieht allerdings aus, als wird wirklich versucht, mit der Auflösung (2560x1600) zu arbeiten und nicht downgesampled. GTA IV bietet die Auflösung nicht an.
Weiss niemand, wieso das nicht geht? Kann die Auflösung wie gesagt einstellen (mein Monitor schimpft dann auch, sagt "Recommended Solution: 1680x1050"), aber GTA bietet sie dann nicht. Muss die Karte beim Einstellen der Auflösung in der Systemsteuerung im 3D-Modus sein?
Edit: GTA startet bei mir gar nicht, wenn die Auflösung nicht auf 1680x1050 steht. Ist immer noch der Cat 9.5

D. Eiht
2009-05-21, 22:08:21
Weiss niemand, wieso das nicht geht? Kann die Auflösung wie gesagt einstellen (mein Monitor schimpft dann auch, sagt "Recommended Solution: 1680x1050"), aber GTA bietet sie dann nicht. Muss die Karte beim Einstellen der Auflösung in der Systemsteuerung im 3D-Modus sein?
Edit: GTA startet bei mir gar nicht, wenn die Auflösung nicht auf 1680x1050 steht. Ist immer noch der Cat 9.5

Ich kann Dir zwar Deine Frage nicht beantworten, aber bei mir ist es genau andersrum:ugly:
Ich kann bei Powerstrip einstellen, was ich möchte, es werden keine Auflösungen hinzugefügt. Allerdings habe ich durch's Hinzufügen von HDTV-Auflösungen im CCC "geschafft", dass ich 1920x1080 jetzt auch in Spielen auswählen kann. Bringt mir nur nichts, da ich immer 'ne Out-Of-Range Meldung erhalte.:mad:
Also ich schliesse daraus, das es wohl doch am jeweiligen Monitor liegen muss und ich mit meinem aktuellen wohl leider passen muss:frown:
Ich habe übrigens auch den Catalyst 9.5...

nagus
2009-06-06, 15:43:57
bei mir funktioniert weder rivatuner noch powerstrip (vista 64, radeon 4870 + 9.5 cats) welche möglichkeiten hab ich noch eine höhere auflösung als mein 24" dell kann (1920x1200) einzustellen?

Madkiller
2009-06-06, 16:03:10
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=454979
(siehe die letzen beiden Posts)

Gast
2009-06-06, 22:25:08
nagus: also das funktioniert leider auch nicht weil ich keinen 2. monitor habe