PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : DSR/VSR


Vollnoob
2016-09-19, 15:26:23
Hallo,
da ich derzeit den Neukauf einer Grafikkarte plane (480 o. 1060/1070) und ich gerne ältere Spiele mit DSR oder VSR aufhübschen will, stellt sich für mich folgende Frage:

Besitze einen FHD Monitor mit 144 Hz. Die 144 Hz würde ich auch gerne bei DSR/VSR nutzen.

Laut AMD-Homepage geht VSR bis max. 2048 x 1536 bei 120 Hz.
http://www.amd.com/de-de/innovations/software-technologies/technologies-gaming/vsr
Trifft dies auch auf Polaris zu?

Auf der Nvidia-Homepage habe ich dazu überhaupt keine Infos gefunden...
http://www.nvidia.de/object/dsr-technology-de.html


Danke für eure Antworten :smile:

Screemer
2016-09-19, 16:32:08
Hallo,
da ich derzeit den Neukauf einer Grafikkarte plane (480 o. 1060/1070) und ich gerne ältere Spiele mit DSR oder VSR aufhübschen will, stellt sich für mich folgende Frage:

Besitze einen FHD Monitor mit 144 Hz. Die 144 Hz würde ich auch gerne bei DSR/VSR nutzen.

Laut AMD-Homepage geht VSR bis max. 2048 x 1536 bei 120 Hz.
http://www.amd.com/de-de/innovations/software-technologies/technologies-gaming/vsr
Trifft dies auch auf Polaris zu?

Auf der Nvidia-Homepage habe ich dazu überhaupt keine Infos gefunden...
http://www.nvidia.de/object/dsr-technology-de.html


Danke für eure Antworten :smile:

Zu vsr erste mal. Die maximale auflösung ist 3.840 × 2.160 @ 60hz bei 16:9 und 3840 X 2400 @ 60hz bei 16:10 und bei 120hz eben 2048 x 1536. Je höher die frequenz um so niedriger die auflösung. Amd löst das ganze über einen hardwarescaller mit einer max. bandbreite und damit die selben beschränkungen wie dp 1.2.

Es soll wohl auch noch eine shaderlösung wie nvdias darf kommen und diese beschränkungen dann nicht haben.

Mr.Magic
2016-09-19, 16:58:07
Definiere älter. Bis DX9 ist man bei NV mit den SSAA/Mischmodi und Kompatibilitätsbits meist besser bedient. Durch die größere Auswahl kann man die Performance besser einpendeln, und hat wesentlich bessere Glättung.

dargo
2016-09-19, 17:01:54
Bei Downsamling hast du aktuell bei Nvidia mehr Möglichkeiten, ergo GTX1060/1070, je nach Budget.

=Floi=
2016-09-19, 17:11:21
naja, das bei ati ist doch ein witz mit den winz auflösungen. woran scheitert es da denn?
dachte das wäre alles kein thema... O_o

Vollnoob
2016-09-19, 17:36:02
Es soll wohl auch noch eine shaderlösung wie nvdias darf kommen und diese beschränkungen dann nicht haben.

Verstehe ich es richtig, das bei Nvidia DSR auch bei UHD mit 144Hz funktioniert?


Definiere älter.

Diablo 2, Gothic 1-3, CoD 2...so die Richtung


Bei Downsamling hast du aktuell bei Nvidia mehr Möglichkeiten, ergo GTX1060/1070, je nach Budget.

Denke es wird auf eine 1070 hinauslaufen, die Gainward GeForce GTX 1070 Phoenix für 425 € oder die KFA2 GeForce GTX 1070 EX für 399 € sind schon sehr verlockend...außer die 480 (8GB) fällt noch auf unter 250 € :biggrin:


naja, das bei ati ist doch ein witz mit den winz auflösungen. woran scheitert es da denn?
dachte das wäre alles kein thema... O_o

Auf der verlinkten AMD-Homepage ist allerdings nicht die Rede von der neuen Polaris Generation. Hat sich da mittlerweile etwas getan?

scully1234
2016-09-19, 18:01:18
Verstehe ich es richtig, das bei Nvidia DSR auch bei UHD mit 144Hz funktioniert?


4k and beyond x4. Falls das Spiel optimiert ist dafuer, wahrscheinlich irgendwann auch mehr,wenn die Bandbreite es zu laesst

https://www.youtube.com/watch?v=8WrGVwjiIuI

spielbare Framerate jetzt mal aussen vor gelassen

Screemer
2016-09-19, 18:55:14
und was hat ansel jetzt mit dsr zu tun?

Thunder99
2016-09-20, 11:46:46
naja, das bei ati ist doch ein witz mit den winz auflösungen. woran scheitert es da denn?
dachte das wäre alles kein thema... O_o
Nach wie vor eine andere Herangehensweise wie sie es implementiert haben. An sich von der Qualität die bessere Lösung, dafür beschränkter von den möglichen Auflösungen :(

Für ältere oder wirklich alte Spiele (DX9 und älter) ist meist sowieso SGSSAA oder die Mischmodi bei nvidia besser. Problem ist halt wenn das HUD nicht mitskaliert. Ansonsten testen was einem besser gefällt :)

Möglichkeiten DSR>VSR
Qualität DSR<VSR

Darkman.X
2016-09-21, 01:45:14
Verstehe ich es richtig, das bei Nvidia DSR auch bei UHD mit 144Hz funktioniert?

Eine Kleinigkeit solltest du noch wissen: In meinen Tests mit Spielen ohne Hz-Einstellung in den Optionen lief UHD (über DSR) immer nur mit 60 Hz/fps. Damit ich >60fps erhalten konnte, musste ich vor dem Spielstart immer erst den Desktop auf UHD @ 144 Hz einstellen. Es gibt auch Tools, die das für einen automatisch durchführen, aber da kenne ich im Moment keinen Namen.

Das nur als Hinweis. Das kann halt ohne Zusatz-Tool leicht nervig werden.

Hübie
2016-09-21, 02:53:58
Mit NVIDIA kann man beide Methoden nutzen: Downsampling via scaler oder downsampling via shadercode.
Daher: 1070 kaufen und freuen dass man sogar SGSSAA und Hybridmodi deutlich breitbandiger einsetzen kann.

Mr.Magic
2016-09-21, 07:55:41
Damit ich >60fps erhalten konnte, musste ich vor dem Spielstart immer erst den Desktop auf UHD @ 144 Hz einstellen. Es gibt auch Tools, die das für einen automatisch durchführen, aber da kenne ich im Moment keinen Namen.

QRes oder NirCmd sind zwei Möglichkeiten. Wobei NirCmd noch wesentlich mehr kann.

https://sourceforge.net/projects/qres/
http://www.nirsoft.net/utils/nircmd.html

N0Thing
2016-09-21, 11:45:38
Mit NVIDIA kann man beide Methoden nutzen: Downsampling via scaler oder downsampling via shadercode.

Wo wählt man das aus und ab welchen Chips ist das möglich?

hmmm
2016-09-21, 14:35:44
Würde mich auch interessieren wie man bei Nvidia zwischen "Downsampling via scaler oder downsampling via shadercode" wählen kann.
Denn imho ist es doch so, dass bei Nvidia Downsampling von etwas schlechterer Qualität ist und etwas mehr Leistung kostet. Dafür aber etwas flexibler ist.

aufkrawall
2016-09-21, 14:52:24
Er meint wohl das Custom Resolution-Gebastel.
Das nutzt für <4x wohl bilinear anstatt den DSR linear + Gauß-Müll. Wäre dann schon etwas besser, kann aber auch eigentlich nicht flimmernde Texturen zum Flimmern bringen.
VSR sah hier mit der 390 bei Faktoren <4x tatsächlich deutlich besser als DSR aus. Hatte ich nur mit nativem WQHD & 75Hz rein gar nichts von, VSR verschwindet damit vollständig aus den Einstellungen...

VSR kann aber auch nicht mit dem SSAA in Talos Principle mithalten, das bietet mehrere Scaler an. So kann man sowohl mit den Faktoren 2x (eigentlich 2,25x) und 4x ein perfektes, gleichzeitig scharfes und flimmerarmes Resultat erzielen.
AMD und Nvidia sind bei Downsampling einfach unsäglich unfähig.

hmmm
2016-09-21, 16:41:52
>Er meint wohl das Custom Resolution-Gebastel.

Verstehe ich nicht.
Was hat das denn mit scaler vs shadercode zu tun?

x-force
2016-09-21, 16:49:36
scaler = bilinear
shader = gaußmüll
deutlich besser = lanczos jinc nedi und co (ebenfalls über shader zu realisieren, warum nv gauß gewählt hat wissen die nur selber)

hmmm
2016-09-21, 19:57:58
scaler = bilinear
shader = gaußmüll
deutlich besser = lanczos jinc nedi und co (ebenfalls über shader zu realisieren, warum nv gauß gewählt hat wissen die nur selber)
Klar, aber wie kann ich bei Nvidia den Scaler nutzen?

Mit NVIDIA kann man beide Methoden nutzen: Downsampling via scaler oder downsampling via shadercode. ...

Ist das neu?

uweskw
2016-09-21, 20:17:38
Ich würde es mal so zusammen fassen:
Wenn du bereit und willens bist 400,00€ und mehr auszugeben dann Nvidia.

Wenn du nicht so viel ausgeben willst oder kannst dann gibt es Alternativen:
Der Perfektionist, der das letzte Quentchen Grafikqualität herausquetschen will das oft nur auf Standbildern und Ausschnittvergrößerungen sichtbar ist, holt sich eine NV.
Dazu braucht es natürlich auch die Bereitschaft zum rumfrickeln an dutzenden Einstellungen, globalen und Spiel-spezifischen Profilen, AA-Bits, 3th Party-Software, Game-Einstellungen usw.
Massive Optimierung mit entsprechendem Zeitaufwand halt. Da ist der Weg das Ziel.
Wer seine Zeit lieber zum Zocken nutzt und bei ein wenig Einarbeitung mit 95% der Grafikqualität leben kann, holt sich ne AMD und spart Geld.

greetz
Uwe

aufkrawall
2016-09-21, 20:26:00
Du erzählst groben Unfug, für SGSSAA braucht es genau ein Bit in ~100% der Fälle.

Wenn man alte Spiele aufhübschen will, rennt man bei AMD ständig gegen irgendwelche Mauern.
Beispiel: Es ging mal MSAA/SGSSAA in Diablo 3. Seit irgendeinem Treiber funktioniert das aber einfach nicht mehr.
Bei Nvidia: kein Problem. SGSSAA ging auch noch nie per Treiber einfach so kaputt.

hmmm
2016-09-21, 20:32:20
Ich würde es mal so zusammen fassen:
Wenn du bereit und willens bist 400,00€ und mehr auszugeben dann Nvidia.

Wenn du nicht so viel ausgeben willst oder kannst dann gibt es Alternativen:
Der Perfektionist, der das letzte Quentchen Grafikqualität herausquetschen will das oft nur auf Standbildern und Ausschnittvergrößerungen sichtbar ist, holt sich eine NV.
Dazu braucht es natürlich auch die Bereitschaft zum rumfrickeln an dutzenden Einstellungen, globalen und Spiel-spezifischen Profilen, AA-Bits, 3th Party-Software, Game-Einstellungen usw.
Massive Optimierung mit entsprechendem Zeitaufwand halt. Da ist der Weg das Ziel.
Wer seine Zeit lieber zum Zocken nutzt und bei ein wenig Einarbeitung mit 95% der Grafikqualität leben kann, holt sich ne AMD und spart Geld.

greetz
Uwe
Es sieht ja eher danach aus als wären die Nvidia User nicht so auf Grafikqualität aus, anders würden sich die _im Schnitt_ mit weniger VRAM beglückten Karten nicht so verkaufen.
Und kommt nicht gerade von den Nvidia GTX970 Usern immer öfter das "Naja, sehe eh keinen unterschied bei Texture auf ULTRA, da kann ich auch auf Nur_NVIDIA stellen" ;)

uweskw
2016-09-21, 20:53:56
Du erzählst groben Unfug, für SGSSAA braucht es genau ein Bit in ~100% der Fälle.

Wenn man alte Spiele aufhübschen will, rennt man bei AMD ständig gegen irgendwelche Mauern.
Beispiel: Es ging mal MSAA/SGSSAA in Diablo 3. Seit irgendeinem Treiber funktioniert das aber einfach nicht mehr.
Bei Nvidia: kein Problem. SGSSAA ging auch noch nie per Treiber einfach so kaputt.

Wenn das mit den AA-Bits so einfach ist, warum gibts dann hier 320 Seiten Diskussion von lauter Profis was, wann, wo und wie es am besten funzt?

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=490867&page=321
edit: Weil alle außer dir keinen Plan haben???

Und wenn alles perfekt passt kommt nen neuer Treiber und es geht u.U. von vorne los. :frown:

Ich hab eine der schnellsten/teuersten 980Ti im Rechner und das gefrickel schon lang aufgegeben, weil mir das Hintergrundwissen fehlt.
Wenn ich mal ein paar Stunden am Stück Zeit hab will ich Zocken. Und beim Zocken fallen mir meist nicht mal die Unterschiede zwischen High und very High/Ultra auf.
Es sei denn das Spiel ist so langweilig. Aber dann fliegt es eh von der Platte. Damit ich nicht ständig an das rausgeschmissene Geld erinnert werde. :freak:

greetz
US

aufkrawall
2016-09-21, 21:39:29
Wenn das mit den AA-Bits so einfach ist, warum gibts dann hier 320 Seiten Diskussion von lauter Profis was, wann, wo und wie es am besten funzt?

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=490867&page=321
edit: Weil alle außer dir keinen Plan haben???

Weil
1. es dort auch um MSAA und andere Modi geht (ich sprach rein von SGSSAA, was anderes will man für alte Spiele eh nicht)
2. dort versucht wird, so wenig Bits wie möglich einzusetzen für bessere Performance und Kompatibilität (was mit SGSSAA so gut wie nie ein Problem ist).


Und wenn alles perfekt passt kommt nen neuer Treiber und es geht u.U. von vorne los. :frown:

Geht es mit SGSSAA eben nicht. Außerdem kann man mit dem Inspector Backups von Profilen anlegen und einspielen.


Ich hab eine der schnellsten/teuersten 980Ti im Rechner und das gefrickel schon lang aufgegeben, weil mir das Hintergrundwissen fehlt.

Eben etwas wie auf Beispielbildern einzustellen ist nun echt nicht sonderlich kompliziert.
Außerdem geht es dem TO explizit um das Aufhübschen älterer Spiele. Und da ist es wohl unbestreitbar besser, wenn etwas überhaupt möglich ist.

AMD Settings sind auch nicht der letzte Schluss was Komfort angeht.
Der erkennt Blizzard-Spiele etwa nicht richtig automatisch (verknüpft nur die Launcher-Exen).
Außerdem muss man bei Nvidia überhaupt nicht rumfrickeln, wenn man nicht will. Als ob irgendetwas ootb nicht richtig liefe.

Hübie
2016-09-21, 22:27:07
Wo wählt man das aus und ab welchen Chips ist das möglich?

Afaik ab Fermi, vielleicht auch vorher. Auf dem Wege wie AMD es löst machst du es via CP und custom Resolution. Ansonsten einfach DSR auswählen und Gauss-Filter einstellen. Letzteres ist praktisch. Ersteres vom Monitor und Treiber abhängig.
Per registry kann man auch für DSR recht hohe Faktoren erreichen (z.B. 7k für 1080p).

Vollnoob
2016-09-21, 22:28:50
Oha, da habe ich wohl eine kleine Diskussion losgetreten...
Wie gesagt, es geht mir darum bei der Nutzung von DSR/VSR auch meine 144 Hz zu bekommen, der Rest war mir eher nebensächlich. Trotzdem auch vielen Dank für die anderen Antworten bezüglich der Qualität beider Verfahren. Mir war überhaupt nicht bewusst, das AMD und Nvidia völlig unterschiedliche Techniken hierfür nutzen.

Wie ich ja nun in Erfahrung bringen konnte, bietet Nvidia die Möglichkeit 144 Hz zu nutzen (meistens) und AMD anscheinend überhaupt nicht.
Welcher Hersteller nun die bessere Bildqualität hervorbringt, scheint wohl eine "Glaubensfrage" zu sein ;D

aufkrawall
2016-09-21, 22:31:23
Wie ich ja nun in Erfahrung bringen konnte, bietet Nvidia die Möglichkeit 144 Hz zu nutzen (meistens)

Immer. Es gibt keine Einschränkungen.


Welcher Hersteller nun die bessere Bildqualität hervorbringt, scheint wohl eine "Glaubensfrage" zu sein ;D
Bei Faktoren <4x ist eindeutig AMD besser, bei 4x gibts bei Nvidia mit bilinear nichts zu meckern (sowohl schärfer als auch flimmerfreier als native Auflösung).

N0Thing
2016-09-22, 10:21:48
Afaik ab Fermi, vielleicht auch vorher. Auf dem Wege wie AMD es löst machst du es via CP und custom Resolution. Ansonsten einfach DSR auswählen und Gauss-Filter einstellen. Letzteres ist praktisch. Ersteres vom Monitor und Treiber abhängig.
Per registry kann man auch für DSR recht hohe Faktoren erreichen (z.B. 7k für 1080p).

Es ging mir um die Wahl zwischen Shader und Scaler bei Nvidia.

Mit NVIDIA kann man beide Methoden nutzen: Downsampling via scaler oder downsampling via shadercode.

Wo habe ich die Wahl und die Einstellungsmöglichkeit? Ich habe dazu im Treiber nie etwas gesehen.
Oder meinst du, dass bei den Custom Resolutions ein Hardwarescaler verwendet wird und bei DSR die Shader?

Hübie
2016-09-22, 10:27:13
Es ging mir um die Wahl zwischen Shader und Scaler bei Nvidia.



Wo habe ich die Wahl und die Einstellungsmöglichkeit? Ich habe dazu im Treiber nie etwas gesehen.
Oder meinst du, dass bei den Custom Resolutions ein Hardwarescaler verwendet wird und bei DSR die Shader?

Exakt. Es differiert ja von Monitor zu Monitor. Die Custom Resolutions sind dem wie AMD es löst am nächsten.

hmmm
2016-09-22, 11:26:37
Exakt. Es differiert ja von Monitor zu Monitor. Die Custom Resolutions sind dem wie AMD es löst am nächsten.
Also wie gedacht, es hat 0,0 mit AMDs Lösung zu tun.
Ich interpretiere dies jetzt mal so:
Wenn jemand nur Eisenbahn und Farad als Fortbewegungsmittel kennt, dann kommt für ihn auch das Farad der Eisenbahn am nächsten.

Hübie
2016-09-22, 12:02:40
Dann löse doch mal auf anstatt so dümmlich von oben herab unsinnige Kommentare vom Stapel zu lassen :rolleyes: Und bitte hebe doch die Unterschiede heraus.

hmmm
2016-09-22, 14:59:10
Dann löse doch mal auf anstatt so dümmlich von oben herab unsinnige Kommentare vom Stapel zu lassen :rolleyes: Und bitte hebe doch die Unterschiede heraus.
Ich denke es ist nicht nötig den durchaus vorhandenen Unterschied zwischen Farad und Eisenbahn heraus zu heben. Dümmlich ist nur den Unterschied klein reden zu wollen.
Dir würde ich empfehlen den unterschied zwischen der Nvidia (Software) und AMD(Hardware) Lösung mal genauer anzuschauen und nicht zwanghaft mit herbeigezogenem Stuss, in etwa, gleichsetzen zu wollen.

Hübie
2016-09-22, 15:26:47
Lern erst mal wie man Fahrrad schreibt :rolleyes: Ich sehe nur den Unterschied zwischen custom resolution und VSR, dass bei NV der Monitorscaler bestimmt wie herunter gerechnet wird. Bei VSR eben jener Displaycontroller.
Ich lerne gerne, aber lass mich nicht dumm anmachen. Wenn du was weißt sag es sonst lass es. Soziale Kompetenz mag nicht jedermanns Stärke sein, aber so von oben herab ohne fundierte Fakten dazustellen ist echt weit weg. Kannst mir auch einfach n link da lassen...

aufkrawall
2016-09-22, 15:33:39
Ich würd nicht drauf wetten, dass AMD mit VSR nur bilinear nutzt. Sah für mich eher besser aus.
Ist bei AMD wegen der schlechteren Texturfilterung aber nicht so leicht zu beurteilen. Es schien aber nichts mehr zu flimmern als ohne VSR, unabhängig vom Faktor.
Das ist mit dem CR-Gefrickel <4x bei Nvidia nicht zu erreichen und mit DSR <4x nicht ohne eine gehörige Portion Unschärfe.

N0Thing
2016-09-22, 15:39:51
Exakt. Es differiert ja von Monitor zu Monitor. Die Custom Resolutions sind dem wie AMD es löst am nächsten.

Nur damit ich dich richtig verstehe: Du meinst also, dass DSR über die Shader realisiert wird und die Custom Resolutions dagegen von einem Hardwarescaler in der GPU?

aufkrawall
2016-09-22, 15:43:20
Ist kein Unterschied, DXVA-Scaling ist bei Nvidia auch nur bilinearer Müll (+Sharpen).
Ob das über die TMUs oder einer anderen Einheit mit FF-Einheiten dafür gemacht wird, ist auch egal.

Btw: Lanczos-Downscaling in Talos Principle ist so gut wie überhaupt nicht teurer als bilinear.
Es ist technisch einfach nicht zu rechtfertigen, warum die DSR-Qualität <4x so schlecht ist.

Hübie
2016-09-22, 15:45:10
Nur damit ich dich richtig verstehe: Du meinst also, dass DSR über die Shader realisiert wird und die Custom Resolutions dagegen von einem Hardwarescaler in der GPU?

Im Monitor. Der Displaycontroller schickt doch das große Bild heraus, oder? So richtig hab ich nicht kapiert. ;)

N0Thing
2016-09-22, 15:45:47
Thema Fahigkeiten von VSR: http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/VSR-Faehigkeiten-5K-1208554/

Mit Polaris ist u.a. nun auch Downsampling an 4K-Monitoren möglich.

N0Thing
2016-09-22, 15:47:09
Im Monitor. Der Displaycontroller schickt doch das große Bild heraus, oder? So richtig hab ich nicht kapiert. ;)

Das dachte ich eigentlich auch, deshalb war ich verwundert als du von einem Hardwarescaler bei Nvidia geschrieben hattest. Der Monitor gehört für mich nicht mehr zur Grafikkarte. :D

x-force
2016-09-22, 15:48:48
Btw: Lanczos-Downscaling in Talos Principle ist so gut wie überhaupt nicht teurer als bilinear.
Es ist technisch einfach nicht zu rechtfertigen, warum die DSR-Qualität <4x so schlecht ist.

:up:
leider darf ich hier keine nähere kritik an einzelnen beschäftigten bei nvidia üben, sonst machen die mods mich wieder ein paar wochen mundtot.

Hübie
2016-09-22, 16:20:55
Das dachte ich eigentlich auch, deshalb war ich verwundert als du von einem Hardwarescaler bei Nvidia geschrieben hattest. Der Monitor gehört für mich nicht mehr zur Grafikkarte. :D

Ja Lösung bzw. Möglichkeit von NVIDIA, Skalierung durch Hardware vom Monitor.

kruemelmonster
2016-09-22, 16:29:32
Im Monitor. Der Displaycontroller schickt doch das große Bild heraus, oder? So richtig hab ich nicht kapiert. ;)

Ich denke N0Thing hatte es schon richtig: der Hardwarescaler in der GPU skaliert das große Bild auf die Zielauflösung des Monitors herunter. Wäre über den Monitor nicht möglich, wie soll der TFT denn bspw ein 3840x2400 entgegen nehmen und es auf 1920x1200 runterskalieren? Der sagt sich nur "out of range" und macht Feierabend.

aufkrawall
2016-09-22, 16:30:42
Wär auch komisch, wie mein Qnix ohne Scaler das sonst bewerkstelligen würde. :freak:

Hübie
2016-09-22, 17:04:54
Hm. Aber wieso sagt dann der Monitor irgendwann out of range oder verzerrt das Bild? Irgendwie muss ja mehr über das Kabel laufen. Auch die Schwarzschulter beeinflusst das Endergebnis minimal. Also da wird definitiv schon nach der GPU noch was gemacht.

hmmm
2016-09-22, 17:44:14
Wär auch komisch, wie mein Qnix ohne Scaler das sonst bewerkstelligen würde. :freak:
Einige Qnix "können" Downsampling(!) ist aber ,Gott sei dank, nicht die Regel denn wem dies von der Qualität gefällt, dem kann man alles vorsetzen.

Aber nur weil einige Monitore Downsampling können, hat das immer noch nichts mit AMDs VSR zu tun.

Sorry, aber cr mit vsr/dsr gleich zu setzten ist und bleibt Stuss.
Und natürlich bleibt es dabei: Nvidia=DSR=Shader ; AMD=VSR=Hardware(NOCH!)

Hm. Aber wieso sagt dann der Monitor irgendwann out of range oder verzerrt das Bild? Irgendwie muss ja mehr über das Kabel laufen. Auch die Schwarzschulter beeinflusst das Endergebnis minimal. Also da wird definitiv schon nach der GPU noch was gemacht.
Weil sie "out of range" betrieben werden?! CR hat nichts mit VSR/DSR zu tun.

Hübie
2016-09-22, 18:00:14
Ich setze es nicht gleich, sondern sage dass es dem am ähnlichsten ist. Von dir kommt aber nix ausser cholerische Satzbauten, das sehe ich schon. :rolleyes:

Erleuchte uns mit deinem Wissen (das du vermutlich gar nicht hast).

Vollnoob
2016-09-22, 19:34:47
Nvidia=DSR=Shader ; AMD=VSR=Hardware(NOCH!)
Was ich daran allerdings nicht verstehe, AMD hat/hatte doch Probleme seine Karten richtig auszulasten. Weshalb hat AMD dann nicht den Weg gewählt, VSR per Shader zu realisieren?

Sry falls ich da was Missverstehe (Shader-/Hardwareumsetzung)
Shader: Nutzung der vorhanden Recheneinheiten?
Hardware: Extra Schaltkreise nur für VSR?

aufkrawall
2016-09-22, 19:40:16
Was ich daran allerdings nicht verstehe, AMD hat/hatte doch Probleme seine Karten richtig auszulasten. Weshalb hat AMD dann nicht den Weg gewählt, VSR per Shader zu realisieren?

Du denkst viel zu logisch, das sollte man sich bei der Betrachtung DSR/VSR besser abgewöhnen.
Da müssen die absoluten Voll-Anfänger (noch ein nettes Wort) am Werk sein, die sich dringend mal im doom9-Forum von den Tech-Freaks dort erklären lassen sollten, wie gescheites Scaling mit geringfügigen Leistungsverlusten funktioniert.

hmmm
2016-09-22, 20:00:09
..
Da müssen die absoluten Voll-Anfänger (noch ein nettes Wort) am Werk sein, die sich dringend mal im doom9-Forum von den Tech-Freaks dort erklären lassen sollten, wie gescheites Scaling mit geringfügigen Leistungsverlusten funktioniert.
Um Downsampling performant und von sehr guter Qualität bieten zu können müsste es von den Spiele Entwicklern umgesetzt werden.
Im Treiber ist und bleibt es immer nur ein Notbehelf.
Also wende dich biete an diese.

aufkrawall
2016-09-22, 20:02:13
Warum sollte das so sein?
Wenn der Treiber ein ganzes Bild mit PP-AA bearbeiten kann, dann kann er es vor der Ausgabe auch eben mit einem vernünftigen Shader runterskalieren.

kruemelmonster
2016-09-23, 16:16:17
Hm. Aber wieso sagt dann der Monitor irgendwann out of range oder verzerrt das Bild?

Außerhalb von NV weiß wohl niemand im Detail wie die CR konkret umgesetzt werden. Klar ist dass das Runterrechnen vor der Monitorausgabe passiert, unklar ist welche Rolle der Monitor dabei spielt.
Bis es bessere Infos gibt behelfe ich mir mit "schwarzer Magie" fürs Verständnis.

OC_Burner
2016-09-23, 17:49:27
Hm. Aber wieso sagt dann der Monitor irgendwann out of range oder verzerrt das Bild? Irgendwie muss ja mehr über das Kabel laufen. Auch die Schwarzschulter beeinflusst das Endergebnis minimal. Also da wird definitiv schon nach der GPU noch was gemacht.

Der Monitor spielt bei Nvidias Custom Resolution Downsampling dahingehend eine Rolle, dass der Monitor beim Downsampling je nach gewählten Timings mit höheren Bandbreiten umgehen muss die sich dann natürlich irgendwann in Out-of-Range Meldungen widerspiegeln. Um nun höhere Refreshraten (60hz und mehr) mittels Downsampling realisieren zu können musste man immer "Gesamtzahl der Pixel Horizontal" zum teil deutlich anheben. Erhöht man nun "Gesamtzahl der Pixel" ergibt das sofort einen höheren Pixeltakt der sich in einer höheren übertragenen Bandbreite niederschlägt. Je nach Monitor ging das dann mehr oder weniger gut. Gesamtzahl der Pixel horizontal zu erhöhen war eine Zeitlang die einzigste Möglichkeit die Refreshrate zu erhöhen. Mit anheben von horizontal versuchte man aber gleichzeitig auch vertical zu reduzieren um der Bandbreitenerhöhung entgegenzuwirken. Gesamtzahl der Pixel beinhaltet keinerlei zusätzliche Bildinformationen, sondern gibt lediglich an wie groß der Puffer an schwarzen Zeilen/Linien um das aktive genutzte Bild ist. Warum man dies immer tun muss weiß nur Nvidia (könnte auch einer Limitierung des Hardwarescalers in der Displayeinheit geschuldet sein). Das Interessante kommt aber jetzt, diese Limitierung ließ sich mittels Biosmod aufheben oder besser gesagt reduzieren. Mittels starker Übertaktung der Display Clock Domain (nur via Bios möglich) war es nun nicht mehr nötig "Gesamtzahl der Pixel Horizontal" auf auf aberwitzig hohe Werte einzustellen. Der letzt Punkt warum der Monitor immer noch eine Rolle spielt, sind seine gesendeten EDID-Informationen. Damals waren Downsampling und 60Hz noch nicht die Regel und man begnügte sich mit 50Hz oder noch weniger. In den EDID-Informationen wurde nun meistens hinterlegt das der Monitor nicht weniger als 58Hz oder aber auch 52Hz darstellen kann. Der Nvidiatreiber hielt sich peinlich genau an dieser Vorgabe und verweigerte benutzerdefiniertes Downsampling mit geringeren Refreshraten. Das ist der Grund warum Downsampling oft als Monitorabhängig betitelt wurde. Mittels Monitortreiber oder Registryhack ließ sich auch dieses Problem umgehen. Die meisten Monitore liefen auch mit deutlich weniger als 60Hz und den angegebenen EDID-Informationen.

Downsampling fand und findet immer vor der Bildausgabe der Grafikkarte statt.

Hübie
2016-09-24, 04:48:00
Ah ha. Damit kann man arbeiten. Und was genau macht VSR dann anders? Da wird ja auch die refresh rate verringert, was mich darauf schließen lässt, das es sich ebenfalls um custom resolutions handelt bzw. um das gleiche Prinzip.
Und an deinem Beispiel sieht man ja dass man im gewissen Grad noch Variablen hat (siehe horizontale Pixel).

OC_Burner
2016-09-24, 14:10:44
Ah ha. Damit kann man arbeiten. Und was genau macht VSR dann anders? Da wird ja auch die refresh rate verringert, was mich darauf schließen lässt, das es sich ebenfalls um custom resolutions handelt bzw. um das gleiche Prinzip.
Und an deinem Beispiel sieht man ja dass man im gewissen Grad noch Variablen hat (siehe horizontale Pixel).

In Sachen VSR bin ich regelrecht unwissend aber was bei mir hängen gelieben ist, dass schon vor der Veröffentlichung von VSR mittels Registryhack und Tools Custom Downsampling Auflösungen erstellt wurden die sich aber penibel an gewissen Timingsstandards halten mussten um zur Bildausgabe fähig zu sein. Auch bei AMD half es die Refreshrate zu senken. Wie bei Nvidia war es demnach wohl das Zusammenspiel aus Hardwareeinheiten und Treiber die Downsampling mehr oder weniger gut ermöglichten, wobei gesagt werden muss das bei AMD der Treiber mehr Restriktionen aufwieß, was ein munteres Verstellen der Timings unmöglich machte. Beetlewar, Dargo und Ronny45 waren die User die sich recht intensiv mit AMDs Downsampling beschäftigt haben.

Was VSR nun anders macht? Im Prinzip nichts aber am offensichtlichsten sind das wohl die nicht ganz so leistungsfähigen Hardwareeinheiten der Bildskalierung die für VSR bzw. Downsampling zweckentfremdet werden. Werden diese Einheiten auch unterschiedlich oder getrennt getaktet, so bin ich mir sicher das auch hier bei Übertaktung höhere Modi und Refreshraten möglich wären. Allerdings wäre man hier wieder am Anfang und automatisch besseres VSR wäre nicht gegeben. Man müsste wieder manuell Auflösungen erstellen um bessere Ergebnisse zu erzielen. Hätte Nvidia keine shaderbasierte Lösung bereitgestellt wäre Nvidiauser mit ähnlichen Restriktionen begnügt worden.

Hübie
2016-09-24, 15:22:34
Dann faucht Mr. hmmm also einfach nur herum ohne Belege / Beweise / Wissen zu haben, schätze ich mal.
Denn so wie du es siehst, denke ich auch dass es auf die Art realisiert wird. Wie gesagt gibt es nirgends technische Erläuterungen oder Unterlagen dazu, wie VSR nun arbeitet.
Bei DSR haben ja unsere Spezies hier nun schon (afair) alles aufgedeckt. Das Verfahren ist grundlegend anders und überall mit maximalen Frequenzen möglich, weil es einfach über die ALUs realisiert wird (inkl. 13-tap gaussian filtering bzw. bicubic).
Danke für die Erklärung. :up:

OC_Burner
2016-09-24, 16:36:56
-Bei DSR ist es immer "pointsampling + gaussian (smoothness 0%-100%)" wenn keine vielfachen Faktoren zum Einsatz kommen.

-Bei vielfachen Faktoren (offiziel wird nur Faktor 4 angeboten, höher nur mittels Hack) kommt immer bilinear + gaussian (11%-100%) oder nur bilinear (unter 11% smoothness reines bilinear) zum Einsatz. Faktoren über 4 erhielten später sogar Gaussian mit mehr Taps weil bilinear komplett ausfällt oder nicht funktioniert bei bestimmten Faktoren und der standardmäßige Gaussianfilter nicht ausreichte um Flimmern zu eliminieren. Afaik war Faktor 9, 25 und 49 (Achsenfaktor 3, 5 oder 7) kein bilinear und Faktor 16 bzw. 64 (Achsenfaktor 4 oder 8) zwar bilinear aber einfachstes bilinear glättet nur vernünftig bei Achsenfaktor 2. Bei Nvidia kommt wenn dann nur die einfachste Form von bilinear zum Einsatz und eignet sich dadurch nur für einen einzigen Faktor und der wäre halt Faktor 4 (Achsenfaktor 2). In dem Videobearbeitungsprogramm VirtualDub (das der ein oder andere hier vielleicht kennt) gibt es die Resamplingmethode "Bilinear (interpolation only)", diese entspricht ziemlich genau Nvidias bilineare Resamplingmethode (gilt für DSR sowie klassisches Downsampling)

AMD nutzt definitiv kein einfaches Bilinear zumindest nicht in jedem Fall, ansonsten würde alle Auflösungen ungleich Achsenfaktor 2 wie wild flimmern, tun sie aber nicht. Die Vermutung bicubic könnte es sein scheint aber auch nicht richtig. Richtige Bildqualitätsvergleiche mit Testbildern und RGB-Capturekarte gab es mit AMDs VSR (soweit ich mich erinnern kann) nie.:(
Geldmann3 hatte mit seiner Capturekarte die leider kein RGB aufnehmen kann ein paar Vergleiche angestellt (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=559642&page=2)

aufkrawall
2016-09-24, 18:08:30
Diese Tap-Umstellung war allerdings nicht nur positiv, seitdem gibt es bei den Faktoren <4x große Abweichungen bei der Schärfe.
Alles außer 2x und 2,25x ist direkt unbrauchbar und 2x muss auch sehr blurry sein, damit es nicht flimmert. 2,25x ist auch nicht besonders scharf.
Völliger Müll. Bei AMD ist <4x auch nicht knackscharf, aber immerhin brauchbar, und das sogar jeder Faktor bzw. jeder ist afair in etwa gleich scharf und flimmerfrei.

Aber natürlich unverständlich, dass AMD nicht durchweg 4x anbietet, wenn das mit simplem bilinearen Filter nebenwirkungsfrei und sparsam funktioniert.

Hübie
2016-09-25, 00:51:07
Ich schätze das wird der Lösung selber geschuldet sein. AMD setzt eben auf den scaler und der ist eben restriktiv. Sonst ergäben die ungleichmäßigen Ergebnisse auch keinen Sinn. VSR scheint im Allgemeinen aber das bessere Bild zu liefern.

=Floi=
2016-09-25, 03:20:28
imho rechnet nv zumindest intern die auflösung runter und gibt es dann in nativer auflösung aus. das hat imho nichts mit dem monitor zu tun...

Hübie
2016-09-25, 03:28:58
Sprichst du von DSR oder CR? :|

hmmm
2016-09-25, 11:42:54
Dann faucht Mr. hmmm also einfach nur herum ohne Belege / Beweise / Wissen zu haben, schätze ich mal.

Oder aber du verstehst es nicht.

Downsampling:
DSR= Nvidias Downsampling mittels Shader
VSR= AMDs Downsampling mittels Hardwareeinheit


CR=Ändern der vom Monitor gemeldeten unterstützen Auflösungen(inc Timings usw)
Hier muss man unterscheiden zwischen Monitoren die Downsampling „können“ (offiziell unterstützt) und Monitoren die es nicht können.

CR: Bei Monitoren die es nicht können besteht CR im wesentlichen darin der Hardware Auflösung und Timing aufzudrücken in der Hoffnung, dass auf dem Monitor noch ein Bild erscheint.
Und genau hier hört es ja dann schon für viele auf, denn wenn man sich die Qualität von dem Bild anschaut erkennt man eben die strukturellen Defizite diese Methode, die gerade bei hohen Auflösungen IMMER zu lasten der Bildqualität geht.
Wer meint dass diese Methode zu einer besseren Qualität führt als DSR oder gar VSR, hat schlicht einfach nur was am Auge.
Hier ist sogar die, im vergleich zu AMDs VSR, etwas schlechtere Qualität von Nvidias DSR noch haushoch überlegen und AMDs VSR wirkt im Vergleich dazu wie eine Offenbarung.

Und nein, die Screenshots die dazu im Netz zu finden sind sind Stuss da sie das Tatsächliche Bild, das am Monitor wiedergegeben wird, schlicht nicht zeigen.


Kein CR:
Monitore die Downsampling „können“ unterstützen, und melden, höhere Auflösungen als das Display nativ darstellen kann. In der regel wird für die Skalierung billigst Hardware verwendet was man dann auch am schlechten Ergebnis sieht. ZB Schlechtes Bild inc höherem Inputlag usw.
Es gab auch „Dinger“ deren „Skalierungs-Methode“ darin bestand einfach jedes Xte Pixel zu „vergessen“.


---------------
Also nochmal: CR hat nichts aber auch gar nichts mit DSR oder VSR zu tun.

OC_Burner
2016-09-25, 13:46:19
Ich glaube du hast da etwas missverstanden. Mit CR ist selbstredend Custom-Resolution gemeint, soweit gehe ich mit. Ich gehe auch soweit mit und sage ja, man passt die Timings minimal nach eigenen Bedürfnissen an aber nur in geringem Umfang, meistens garnicht und manchmal sogar sehr stark. In diesem Custom-Resolution-Fenster gibt es zwei Kernbereiche. Der obere Bereich mit Auflösung, Refreshrate, Farbtiefe und Scantyp und der untere Bereich mit detaillierteren Timing-Eingabefeldern. Der obere Bereich ist immer als virtueller Bereich zu sehen. Auflösungen die dort eingetragen werden kennt nur Windows und der Nvidiatreiber aber nicht der Monitor. Im unteren Bereich gibt es die Zeile "Aktive Pixel" Horizontal sowie Vertikal. Dort und immer dort wird die native Auflösung des Monitors eingetragen, somit wird dem Monitor auch beim klassischen Downsampling immer noch seine native Auflösung zugespielt. Die vierte Zeile "Gesamtzahl der Pixel" Horizontal sowie Vertikal war die Zeile an der dann Änderungen an den Timings vorgenommen wurde. Tat man dies nicht, so kam es öfters beim drücken auf Test zu Fehlermeldungen seitens des Nvidiatreibers. Dies passierte eigentlich immer wenn die virtuelle Auflösung zu stark von der nativen Auflösung abwich. Aber hier nochmal ein kleinen Bildchen das schon ein bißchen älter ist.:

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=57517&stc=1&d=1474802819

Nach diesem Schema funktioniert klassisches Downsampling nun schon seit mindestens 2008 erfolgreich. Downsampling mittels Monitor indem man eine größere Auflösung als die der nativen zum Monitor überspielt war in der ganzen Zeit nie eine ernsthafte Alternative. Dieses Vorgehen wäre schlichtweg bei fast allen Monitoren in die Hose gegangen. Zum ersten weil die erhöhten Bandbreiten/Auflösungen damit massiv die in ihrer Bandbreite spezifizierten Anschlüsse überschreiten und zweitens, die Scaler im Monitor das sehr selten mitmachen.

-/\-CruNcher-/\-
2016-09-25, 14:19:48
Diese Tap-Umstellung war allerdings nicht nur positiv, seitdem gibt es bei den Faktoren <4x große Abweichungen bei der Schärfe.
Alles außer 2x und 2,25x ist direkt unbrauchbar und 2x muss auch sehr blurry sein, damit es nicht flimmert. 2,25x ist auch nicht besonders scharf.
Völliger Müll. Bei AMD ist <4x auch nicht knackscharf, aber immerhin brauchbar, und das sogar jeder Faktor bzw. jeder ist afair in etwa gleich scharf und flimmerfrei.

Aber natürlich unverständlich, dass AMD nicht durchweg 4x anbietet, wenn das mit simplem bilinearen Filter nebenwirkungsfrei und sparsam funktioniert.

Oder aber du verstehst es nicht.

Downsampling:
DSR= Nvidias Downsampling mittels Shader
VSR= AMDs Downsampling mittels Hardwareeinheit


CR=Ändern der vom Monitor gemeldeten unterstützen Auflösungen(inc Timings usw)
Hier muss man unterscheiden zwischen Monitoren die Downsampling „können“ (offiziell unterstützt) und Monitoren die es nicht können.

CR: Bei Monitoren die es nicht können besteht CR im wesentlichen darin der Hardware Auflösung und Timing aufzudrücken in der Hoffnung, dass auf dem Monitor noch ein Bild erscheint.
Und genau hier hört es ja dann schon für viele auf, denn wenn man sich die Qualität von dem Bild anschaut erkennt man eben die strukturellen Defizite diese Methode, die gerade bei hohen Auflösungen IMMER zu lasten der Bildqualität geht.
Wer meint dass diese Methode zu einer besseren Qualität führt als DSR oder gar VSR, hat schlicht einfach nur was am Auge.
Hier ist sogar die, im vergleich zu AMDs VSR, etwas schlechtere Qualität von Nvidias DSR noch haushoch überlegen und AMDs VSR wirkt im Vergleich dazu wie eine Offenbarung.

Und nein, die Screenshots die dazu im Netz zu finden sind sind Stuss da sie das Tatsächliche Bild, das am Monitor wiedergegeben wird, schlicht nicht zeigen.


Kein CR:
Monitore die Downsampling „können“ unterstützen, und melden, höhere Auflösungen als das Display nativ darstellen kann. In der regel wird für die Skalierung billigst Hardware verwendet was man dann auch am schlechten Ergebnis sieht. ZB Schlechtes Bild inc höherem Inputlag usw.
Es gab auch „Dinger“ deren „Skalierungs-Methode“ darin bestand einfach jedes Xte Pixel zu „vergessen“.


---------------
Also nochmal: CR hat nichts aber auch gar nichts mit DSR oder VSR zu tun.


Merkt man vor allem bei Text und hier ist eben auch ein knackpunkt text und grafik gkeichzeitig gut zu skalieren schaft momentan nur Intel mit ihrem Adaptive Lanczos ;)

Sony verlässt sich grundsätzlich nicht auf AMDs Hardware Scaler und nutzt ihre eigenen für die neue PS4 z.b allerdings bleibt da auch noch die Frage ob das wirklich externe Hardware aus Sonys Optics Division ist was für das Checkeboard scaling dort eingesetzt wird.

Nvidia will vor allem die Shader Latenz erhöhung niedrieg halten und flexibel sein ein mit höhrern kosten verbundener Hardware Scaler wird von Nvidia wohl erstmal weiterhin nicht realisiert und wenn dann werden sie ihn wohl eher innerhalb ihres G-sync Brands und Tegra vermarkten, wenn dort nicht schon teile zum Einsatz kommen.

Was mich bei AMD wundert ein ALU Scaler könnte Nvidias momentanes DSR richtig alt aussehen lassen das sieht man schon teils auf den Konsolen wo die Entwickler anfangen AMDs SIMD extensions vermehrt endlich zu nutzen vor allem Temporal und vor allem Async die Performance Gewinne sind ja teils einfach nur irre vor allem was Tiago da mit DOOM rausgeholt hat :)


Mich interessiert Nvidias Tap Change von damals auch sehr die Entscheidung dafür vor allem zumindestens konnte man feststellen das die Latenz sich auf einen schlag verbessert hat vor allem auf der GTX 970 und ich sehe es wie du in der Gesammtbetrachtung (Text/Grafik) ist nur 4x brauchbar seit dieser Entscheidung und text Skalierung unter richtig großem vorbehalt gewisse zahlen und buchstaben deren typo sich doch sehr ähneln nur noch schwer ausseinanderzuhalten zu können sehr auffällig bei 8 und B ;)

Und es gibt interessante visuele Probleme unter dem Windows UI damit mal wird ein teil der Skalierung Blurry mal ein teil scharf der in einem gewissen berreich des Bildschirms liegt :D

Das verhalten der Windows Bildschirmlupe ist auch interessant ;)

http://i1.sendpic.org/t/te/teOfoJWUIZKrZJEQQKBzpBIqwMI.jpg (http://sendpic.org/view/1/i/s9HLzFLZUSVWvebm0LXHmB1fLbP.png)

Aber wie gesagt je nach betrachtungswinkel kann sich auch alles plötzlich ganz anders darstellen, Cleartypes verhalten spielt ja auch noch eine rolle und in der Browser Betrachtung dann ja auch noch in dem Fall Firefox Directwrite und D3D Engine ;)

Allerdings wird das ganze richtig interessant wenn ich diesen Screenshot nun in Firefox betrachte je nachdem ob er in der oberen mittleren oder unteren bildchirmhälfte ist wird er unterschiedlich dargestellt Blurry (mitte) oder Scharf (oben/unten) mit DSR vor allem das Bildschirmlupenfeld also der gezoomte berreich ist deutlich unterscheidbar ;)


Interessant als ob Nvidia vorher das gesammte Frame gesampled hat sich aber später gesagt hat die leute konzentrieren sich eh nur auf die Mitte des Bildschirms, was ja auch im großen und ganzen ihre herangehensweise bei VR ist MRS ;)

oben = scharf
mitte = blurry
unten = scharf

Wobei Nope das lässt sich so auch nicht halten es kann hier auch unten plötzlich blurry werden je nach genauer possition des zu rendernden Fensters und dessen inhalt

Für den normalen Desktop gebrauch ist dieser plötzlich auftretende Blur Effekt selbst auf 0% Gaus Filter jedenffalls überhaupt nicht geignet und bei Einführung DSRs kann ich mich an diesen auf dem Desktop auch nicht wirklich zurück erinern.

Langsam kommt mir das ganze Random vor je nach dem wo man gerade das zu rendernde Fenster hinzieht und losläst.

Mit text und oder gescreenshotetem text als Bild lässt sich dieses verhalten am genausten beobachten vor allem wird drumherum ja nichts blurry nur der text selbst als Bild nur der ausschnit mit dem gezoomten text der Hintergrund bleibt vollkommen klar und deutlich :)


@hmmm

Und nein, die Screenshots die dazu im Netz zu finden sind sind Stuss da sie das Tatsächliche Bild, das am Monitor wiedergegeben wird, schlicht nicht zeigen.

Da bekommst sowas von einem Full ACK von mir wobei man bei DSR oder Intels Adaptive 4 Tap Lanczos Scaling doch schon mehr sehen kann als wie von VSR ;)

mit einem ordentlichen FCAT Aufbau könnte man noch mehr auseinandernehmen.


Auch sollte man zwischen Desktop Video und Interaktiven 3d Applikationen unterscheiden auch mit dem Wissen das der Desktop selbst quasi heute überall eine Interaktive 3d Applikation ist in deren context andere laufen und alles schon ziemlich mit einander verschmolzen.

Vollnoob
2016-09-29, 21:39:22
Eine Kleinigkeit solltest du noch wissen: In meinen Tests mit Spielen ohne Hz-Einstellung in den Optionen lief UHD (über DSR) immer nur mit 60 Hz/fps. Damit ich >60fps erhalten konnte, musste ich vor dem Spielstart immer erst den Desktop auf UHD @ 144 Hz einstellen. Es gibt auch Tools, die das für einen automatisch durchführen, aber da kenne ich im Moment keinen Namen.

Das nur als Hinweis. Das kann halt ohne Zusatz-Tool leicht nervig werden.

Habe nun meine 1070 :smile:
Habe im Treiber DSR-Faktor auf 4 und DSR-Glättung auf 0% gestellt. Nun kann ich in jedem Spiel, was ich bisher getestet habe UHD auswählen. Bisher lief auch jedes Spiel mit 144 Hz ohne jegliches Tool:smile:

aufkrawall
2016-09-29, 21:45:09
Falls so etwas auftritt, sollte es sich auch durch die Option im Nvidia-Treiber "maximale Refreshrate bevorzugen" beheben lassen.

Darkman.X
2016-09-30, 03:07:35
Vielleicht hat es Nvidia mittlerweile gefixt, ich nutze schon länger das DSR nicht mehr. Es war aber eine zeit lang über mehrere Treiberversionen so wie ich es beschrieben hatte. Und auch die Option "max. Refreshrate bevorzugen" hatte nicht geholfen.

Aber ist ja schön, wenn es nun wirklich sauber funktioniert.