Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidias Multi-Res Shading spart Rechenleistung auch außerhalb von VR
Leonidas
2016-10-16, 06:08:25
Link zur News:
http://www.3dcenter.org/news/nvidias-multi-res-shading-spart-rechenleistung-auch-ausserhalb-von-vr-gaming
Botcruscher
2016-10-16, 11:47:52
Denn wenn der Spieler sowieso total auf das Zentrum des Geschehens fixiert ist, dann spielt eine abgesenkte Renderauflösung an den Bildschirmrändern keine große Rolle.
Da bin ich ja gespannt wo mich 20% mehr Leistung durch AUFLÖSUNGSREDUZIERUNG retten. Dann kommt noch der Rattenschwanz samt Unschärfe...
Die Idee ist, außerhalb von VR ohne Eyetracking, einfach nur behinderter Werbemüll. Erstens reagiert das Auge im äußeren Bereich extrem, wofür AUFLÖSUNG aber eben nicht unbedingt Qualität gebraucht wird und zweitens kann im Multiplayer auch gleich die Qualität gesenkt werden. Bringt locker 50% und noch Vorteile im Spiel.
PS: Bei den Beispielen bluten einem ja die Augen. Texturweichspüler damit genug Leistung für Bildverschlechterer wie Bloom, blur und Dof da ist. Brrrrr.
Ben Carter
2016-10-16, 12:09:43
Interessanter fände ich es eher in die andere Richtung. Am Bildrand normale Auflösung, aber in der Bildmitte Downsampling und somit höhere Bildqualität.
Kartenlehrling
2016-10-16, 12:19:42
http://images.nvidia.com/geforce-com/international/images/shadow-warrior-2/shadow-warrior-2-nvidia-multi-res-shading-border-640px.png
Erstemal finde ich das diese Technik nur Sinn macht wo man im Zentrum fokusiert spielt, Renn- und Flugsimulation.
Und dann hätte ich nicht einen Tunnelblick gemacht sondern gerade für das spielen auf einen 21:9 Bildschirm nur die Ränder Rechts und Links, aber auf keinen Fall unten und oben.
Bei schnellen Spielen sieht man es bestimmt nicht,
nur bei Spiele wohl man Blumen pfücken geht könnte es stören.
https://youtu.be/MQUBPAX-J0I
Multi-Res Shading 3.840px × 2.160px
redpanther
2016-10-16, 12:29:26
Das würde im Multi-(3)-monitor betrieb Sinn machen. Der Mittlere läuft in Normaler Auflösung die Seitlichen mit reduzierter Auflösung. Die seitlichen Monitore geben ein tolles Mitten-drin Gefühl, aber genau schaut man dort meistens auch nicht hin.
Würde mir da bei nVidia aber auch endlich mal die (Vernünftige) Unterstützung von Ungleichen Monitorien im Surround wünschen, so wie es anscheinend AMD macht.
Botcruscher
2016-10-16, 12:34:54
Oder eben bei einem Aufbau mit 3 Monitoren. Da könnte man die beiden außen wirklich auf das Minimum drücken. Blickfeld unter geht wirklich überhaupt nicht. In Bewegung muss es ja noch viel schlimmer aussehen.
Unten/oben war imo nötig um überhaupt noch Leistung raus zu bekommen.
Interessanter fände ich es eher in die andere Richtung. Am Bildrand normale Auflösung, aber in der Bildmitte Downsampling und somit höhere Bildqualität.
Das wäre ja wenigsten eine Verbesserung.
Vor allem mit 21:9-Monitoren ist das interessant, da dürfte es wirklich kaum auffallen wenn der Rand mit schlechterer Auflösung gerendert wird.
Dass muss natürlich so funktionieren, dass eventuelle HUD-Elemente noch immer mit voller Auflösung gerendert werden und nur für die 3D-Grafik die Auflösung verringert wird.
Interessanter fände ich es eher in die andere Richtung. Am Bildrand normale Auflösung, aber in der Bildmitte Downsampling und somit höhere Bildqualität.
Dass kannst du eh haben, stellst eben die Auflösung auf 4k und aktivierst das Multi-Resolution-Shading.
Blade II
2016-10-16, 14:55:26
Für hochauflösende Monitore könnte die Technik auch sehr interessant sein. Idealerweise dabei nicht nur zwei- sondern dreistufig. Die Bildmitte würde dabei in 3840x2160 (100%) berechnet werden, wohingegen die Auflösung zu den Rändern hin mit 3200x1800 (85%) und 2560x1440 (65%) reduziert werden könnte. 3200x1800 sieht auf 27" z.B. immer noch sehr gut aus, während 2560x1440 für die Ränder/Ecken des Bildes durchaus ausreichend sein könnte.
Beispiel:
https://abload.de/thumb/multires0gzq3.png (http://abload.de/image.php?img=multires0gzq3.png)
Fusion_Power
2016-10-16, 15:10:13
Ich kenn diese Technik nicht in der Praxis, ist da wirklich ein harter Übergang zwischen den Auflösungen oder geht das sanft und Stufenlos mit Filterung und Interpolationen? Weil alles andere wäre sicher zu auffällig.
Aber ich fände diese andere neue Technik aus der VR eh viel besser fürn Desktop, nämlich die Bildinterpolation wo zwischen zwei Frames noch ein Zwischenbild Bild eingefügt wird und man so mit niedrigeren FPS trotzdem höhere "simulieren" kann, wobei dann vllt. spezielle Chips auf denGrafikkarten sowas noch besser hinbekämen.
:lol: ja klar, foveated rendering am normalen Monitor, und dann noch ohne eye tracking... Hoffentlich kommt das nicht als Standard und wird immer Ausschaltbar sein, ähnlicher Müll wie depth-of-field-Effekte, die einem Betrachter einen gewissen Blickpunkt unterstellen. Meine Augen bewegen sich.
Und dann erkennt man im Pixelbrei nicht mehr wie früher 'aus dem Augenwinkel' die vom Rand den Blickfeldes drohende Gefahr?
Dass man auf die Mitte fokussiert, ist klar, bekannt und je nach Spiel und Begabung zwingend notwendig. Aber realisiert man die außerhalb liegenden Bereiche wirklich so unscharf, dass es keine Rolle spielt? Und worauf hat nVidia normiert?
Klingt alles sehr nach Marketing.
Complicated
2016-10-16, 19:56:28
Aber ich fände diese andere neue Technik aus der VR eh viel besser fürn Desktop, nämlich die Bildinterpolation wo zwischen zwei Frames noch ein Zwischenbild Bild eingefügt wird und man so mit niedrigeren FPS trotzdem höhere "simulieren" kann, wobei dann vllt. spezielle Chips auf denGrafikkarten sowas noch besser hinbekämen.
Das gibt es und nennt sich Freesync oder Gsync. Wenn die Framerate unter 30FPS fällt werden zusätzliche Frames gedoppelt.
BlacKi
2016-10-16, 20:03:18
http://images.nvidia.com/geforce-com/international/images/shadow-warrior-2/shadow-warrior-2-nvidia-multi-res-shading-border-640px.png
Erstemal finde ich das diese Technik nur Sinn macht wo man im Zentrum fokusiert spielt, Renn- und Flugsimulation.
Und dann hätte ich nicht einen Tunnelblick gemacht sondern gerade für das spielen auf einen 21:9 Bildschirm nur die Ränder Rechts und Links, aber auf keinen Fall unten und oben.
60% von 4k ist immernoch recht scharf, immerhin mehr als 1080p!
Kartenlehrling
2016-10-16, 20:04:34
@Complicated
Nee keine Frames Verdoppelung, das bringt doch nur schlieren und Geisterbilder.
wenn schon dann dieses Amd Fluid Motion, das berechnend wirkliche Zwischenbilder.
Ihr meint das Asynchronous Spacewarp wo aus 45fps PS4pro 90fps PS-VR Brille wird.
Complicated
2016-10-16, 21:05:12
Ah ok, bei ASW gibt es noch eine Berechnung der möglichen Bewegung.
aufkrawall
2016-10-16, 21:26:41
Schön, wie hier alle kommentieren, aber niemand hat es ausprobiert.
Aber realisiert man die außerhalb liegenden Bereiche wirklich so unscharf, dass es keine Rolle spielt?
Ja, tatsächlich sehen wir nur einen sehr kleinen Teil des Blickfeldes wirklich scharf.
Am Rand des Blickfeldes registrieren wir hauptsächlich Bewegung, unser Gehirn interpoliert aufgrund unserer Erfahrung wesentlich mehr Informationen in diese Bildbereiche, als unser Auge tatsächlich wahrnehmen kann.
Problematisch wird es eben dann wenn wir uns entscheiden mal nicht in die Mitte zu schauen sondern auf den Rand, dann kann man die geringere Schärfe auch wahrnehmen.
Wobei ich denke dass diese Technik eher interessant ist um die Auflösung im Zentrum zu erhöhen.
Wenn die Leistung für komplettes 4k nicht ausreicht spielt man eben nur in der Mitte in 4k und am Rand nur in 1080p. Die wahrgenommene Qualität ist dann wahrscheinlich höher, als wen man die gesamte Auflösung auf die gleiche Pixelzahl verringern würde.
das kann nur bei vr sinn machen, da die bildmitte mit dem auge mitwandert. auf einem grossen display sorgt der abstand, dass das auge mehr fossuiert als nur die bildmitte. es kommt also auf den wahrnehmungsabstamd an. bei vr ist dieser eher gering.
letztlich versucht nvidia mal wieder optimierungen ins spiel zu bringen, die eigentlich verpönnt sein sollten. wenn ich ein 4k display oder mehr kaufe dann soll es auch 4k sein und nicht nur 4k in der bildmitte. rechenleistung dazu ist ausreichend vorhanden, nur darf man dann nicht für mainstream highendpreise verlangen.
Grafikspachtel
2016-10-16, 22:46:36
Das Problem ist, dass mein Auge alles scharfstellt, wo ich hingucke.
Wenn ich jetzt in die linke obere Ecke gucke, dann ist die scharf.
Damit das wirklich vernünftig funktioniert müsste eine Kamera meine Augen aufnehmen, um zu ermitteln, wo ich gerade hinschaue.
Ist ja selbst auf meinem 65"Tv schwer 1440 und 4k zu unterscheiden. Klar wenn man genau hinsieht sieht man was, aber das ist es ja was genutzt wird. Man guckt halt normal nur in die Mitte. Und wenn man mal an den Rand sieht, dann ist der Unterschied nur marginal. Dafür hat man dann rocksolid 60fps statt 55-60.
aufkrawall
2016-10-17, 00:21:23
Am TV mag das gehen, vorm Monitor fällt es sehr störend auf.
Problem ist auch, dass die Präzision von Effekten wie SSAO abnimmt, bei SW2 bleicht das Bild deshalb an den Rändern mit Multi-Res Shading aus.
Nazar
2016-10-17, 07:47:35
Schön, wie hier alle kommentieren, aber niemand hat es ausprobiert.
Kennst du DoF?
Wenn ja, dann bitte schön, da hast du das gleiche Prinzip nur mit "feature angepassten" Namen.
Ja ja, alles total neu, dieses Multi-Res Shading. :rolleyes:
Ohne Eye Tracking ist und bleibt es nur eine Art DoF. Als ob das nicht auf den Konsolen bis ins Exzessive getrieben wurde.
Der Vorteil einer VR Brille wird damit obsolet; nämlich das man anstatt den Kopf bewegen zu müssen, nun auch effektiv seine Augen nutzen kann, weil man eben mitten drin ist. Mit Multi-Res Shading wird das negiert. Mit "natürlich" hat das so gar nichts zu tun, da kann man auch gleich wieder auf geringere Auflösungen setzen, wenn die Optik für schnelle Shooter eh nicht wichtig ist.
Ich verstehe den Ansatz aber hier versucht man den Spielern alte Wäsche unter neuem Namen ein 2. Mal zu verkaufen!
Nazar
2016-10-17, 07:57:36
http://images.nvidia.com/geforce-com/international/images/shadow-warrior-2/shadow-warrior-2-nvidia-multi-res-shading-border-640px.png
Erstemal finde ich das diese Technik nur Sinn macht wo man im Zentrum fokusiert spielt, Renn- und Flugsimulation.
Und dann hätte ich nicht einen Tunnelblick gemacht sondern gerade für das spielen auf einen 21:9 Bildschirm nur die Ränder Rechts und Links, aber auf keinen Fall unten und oben.
Bei schnellen Spielen sieht man es bestimmt nicht,
nur bei Spiele wohl man Blumen pfücken geht könnte es stören.
https://youtu.be/MQUBPAX-J0I
Multi-Res Shading 3.840px × 2.160px
Warum sollte es da Sinn machen?
Überall wo es geht bewege ich zuerst meine Augen und dann erst den Kopf, ergo selbst mit Track-IR, welches meine Fokus dann mit der Kopfbewegung verschieben würde, ist die Technik eher sinnbefreit.
Auch bei schnellen Spielen sieht man das. Etwas nicht scharf sehen zu können, obwohl man es möchte und auch könnte, sorgt für Übelkeit und ermüdet die Person sehr schnell.
Natürlich kann man das nutzen, um den Spieler unterschwellig dazu zu "zwingen" nur noch starr geradeaus zu sehen aber welchen Sinn haben dann noch große Monitore (z.B. 34")? Immersion die nichts bringt, weil nicht natürlich nutzbar!
Ich sehe keinen Gewinn ohne Kopf und Eye Tracking!
deekey777
2016-10-17, 08:09:59
Kennst du DoF?
Wenn ja, dann bitte schön, da hast du das gleiche Prinzip nur mit "feature angepassten" Namen.
Ja ja, alles total neu, dieses Multi-Res Shading. :rolleyes:
Ohne Eye Tracking ist und bleibt es nur eine Art DoF. Als ob das nicht auf den Konsolen bis ins Exzessive getrieben wurde.
Der Vorteil einer VR Brille wird damit obsolet; nämlich das man anstatt den Kopf bewegen zu müssen, nun auch effektiv seine Augen nutzen kann, weil man eben mitten drin ist. Mit Multi-Res Shading wird das negiert. Mit "natürlich" hat das so gar nichts zu tun, da kann man auch gleich wieder auf geringere Auflösungen setzen, wenn die Optik für schnelle Shooter eh nicht wichtig ist.
Ich verstehe den Ansatz aber hier versucht man den Spielern alte Wäsche unter neuem Namen ein 2. Mal zu verkaufen!
Kannst du das bitte näher erklären, warum DoF und diese Nvidia-Ding ähnlich sein sollen? Denn das eine kostet Leistung, das andere bringt Leistung. Das eine ist ein Postprocessing-Effekt, das andere nicht.
Vor allem wie hier über Unschärfe und dann Übelkeit diskutiert wird. Hier geht es um 1440p oder 4k, da wird nichts matschig gerechnet wie bei den Randblureffekten (wie z.B. bei TombRaider die ich auch ausschalte). Ich denke z.B. das eine normale Linse, mit der ja Fotos und Filme etc aufgenommen werden, am Rand ebenfalls nicht die maximale Auflösung produziert.
Ja die 10-20% Mehrleistung bringen was. 4K Gaming ist heftig und selbst eine GTX 1080 schafft die wenigsten Titel durchgehend in 60fps zu rendern. Die PS4 Pro soll ja 4k super hochrechnen können, aber Details bleiben Details. Wenn ein Randzaun in einem Autorennen nicht in 4K gerendert wird kommen auch mit gutem Upscaler keine Details raus. Die müssen in 4k gerechnet werden, speziell in der Mitte wo man die Details sehen will und die Detaildichte. Also sollten andere Möglichkeiten her.
Der Vorteil einer VR Brille wird damit obsolet; nämlich das man anstatt den Kopf bewegen zu müssen, nun auch effektiv seine Augen nutzen kann, weil man eben mitten drin ist. Mit Multi-Res Shading wird das negiert.
Die Linsen der VR-Brillen sind am Rand eh nicht scharf, von daher bringt es gar nichts dort auch die volle Auflösung zu senden.
Die VR-Brille der PS4 geht soweit ich weiß sogar soweit, dass das Panel in der Mitte eine höhere Pixeldichte als am Rand hat.
Damit dürfte der nominelle Auflösungnachteil gegenüber Occulus/HTC auch obsolet sein.
Kennst du DoF?
Wenn ja, dann bitte schön, da hast du das gleiche Prinzip nur mit "feature angepassten" Namen.
Ja ja, alles total neu, dieses Multi-Res Shading. :rolleyes:
DOF hat nichts, aber auch gar nichts damit zu tun.
Nahe kommen würde dem höchstens künstliche CA/Vignettierung, wobei das nicht direkt unscharf wird, aber immerhin betrifft es die Bildränder und nicht die Bildtiefe wie bei DoF.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.