PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Die neue Kantenglättung von nVidias Turing: Deep Learning Super Sample


Leonidas
2018-08-26, 15:12:55
Link zur News:
https://www.3dcenter.org/news/die-neue-kantenglaettung-von-nvidias-turing-deep-learning-super-sample-dlss

JVC
2018-08-26, 15:44:55
"Es gibt hierzu sogar Bedenken, ob nVidia das ganze nicht nur zum Puschen von GeForce Experience benutzten könnte, sondern letztlich auch als Einstieg für einen späteren Abo-Dienst – wo es gewisse Leistungen, die Cloud-basiertes Rechnen erfordern, nur noch mittels extra Accounts und später extra Bezahlung im Abonnement gibt."

Wäre aus der Sicht von NV doch ganz normal, wenn es dann mal genug haben, dann doch etwas Geld für die Arbeit des "Supercomputers" zu verlangen ... man bekommt nix geschenkt im Leben ;)

Aber auch wenn NV zum wiederholten male versucht irgendetwas "nicht ganz astreines" abzuziehen, will ich nicht jetzt schon *schreien* und gebe ihnen natürlich noch einmal die Chance ihre "Selbstlosigkeit" mal doch zu beweisen ...
( wobei die Preise der neuen Grafikkarten nicht recht selbstlos wirken )

m.f.g. JVC

p.s.: Ich bin echt heilfroh das AMD mit den CPU´s mal wieder gut im Rennen ist und somit vielleicht doch Ressourcen haben könnte nächstes Jahr ... im GPU Bereich zu überraschen :)
Alleine dieser Hintergedanke könnte NV dazu motivieren entwicklungstechnisch und auch leistungstechnisch am Gas zu bleiben ;)
( so ne "künstliche Flaute", wie von Intel im CPU Bereich, will ich nicht noch einmal erleben )

Iscaran
2018-08-26, 16:59:52
Ist es nicht ein bisschen verfrüht mit den bisherigen, halbgaren informationen hier derart Spekulativ über die Arbeit des DLSS zu berichten ?

Wäre es nicht besser gewesen zu warten bis es dazu handfeste infos und Tests, Vergleichsbilder, Filme gibt ?

Ben Carter
2018-08-26, 17:28:35
Treppchen sind heute bei 4K mMn. gar nicht mehr das große Problem. Natürlich sollten sie auch noch angegangen werden, aber das deutliche größere Problem ist Flimmern. Das ist etwas, dagegen hilft SSAA oder Downsampling. Ich bin gespannt, ob DLSS (immerhin hat es ja Super Sampling im Namen) auch hilft. Wenn ja, dann kann es wirklich ein sehr, sehr geniales Feature werden. Wenn nein, dann ist es bei weitem weniger interessant.

iamthebear
2018-08-26, 17:30:46
So wie ich es bisher verstanden habe ich es lediglich ein beschleunigtes AA Verfahren. Allerdings gibt es auch einige, die behaupt es ist eigentlich ein Upscaling Verfahren und die 4K Benchmarks sind im Prinzip kein 4K. Ich denke das wird man genauer analysieren müssen.

Was die monatlichen Preise angeht: Also ich glaube nicht, dass sich das durchsetzen lässt bzw. dass es diesen "Supercomputer" wirklich in der Form gibt. Es ist nur gerade in Mode jedes stinknormapen Algorithmus, den man entwickelt als "KI" zu bezeichnen.

Gast
2018-08-26, 17:48:42
Von welchen Dateigrößen kann man denn bei einem "Mustererkennungs-Set" für ein Spiel ausgehen? Würden das überhaupt im Sinn machen im Treiber, wenn man die meisten Spiele ohnehin nicht besitzt?

pool1892
2018-08-26, 17:59:07
ich würde wetten, dass es sich um eine variante von deconvolutional super resolution handelt (z.b. https://arxiv.org/pdf/1707.02921.pdf, gibt jede menge literatur dazu), die um eine temporale komponente erweitert wurde (um flimmern o.ä. zu bekämpfen) - dabei ist ein gan-training sehr gut denkbar, denn da investiert nvidia im moment ne menge in die forschung (siehe etwa https://news.developer.nvidia.com/transforming-standard-video-into-slow-motion-with-ai/ und ähnliches zeug).
das heißt: man nimmt ein, meinetwegen, 4k bild, schickt es durch das dlss und bekommt ein 8k (oder noch höher) aufgelöstes bild, das man dann sofort wieder runtersampled. nur ist das upsamling convolutional, d.h. es ist trainiert und läuft auf den tensor cores. ich würde erwarten, dass das dlss pro spiel trainiert werden muss, um maximal effektiv zu sein. dann allerdings wird es resultate liefern, die von echtem super sampling im rendering kaum zu unterscheiden sind (schließlich kann nvidia nahezu beliebige mengen trainingsmaterial erzeugen).

Lehdro
2018-08-26, 18:49:45
Ist es nicht ein bisschen verfrüht mit den bisherigen, halbgaren informationen hier derart Spekulativ über die Arbeit des DLSS zu berichten ?

Wäre es nicht besser gewesen zu warten bis es dazu handfeste infos und Tests, Vergleichsbilder, Filme gibt ?
Genau dies jetzt hier zu tun ist der ganze Punkt dieser Seite. Wenn die Informationen höchstoffiziell verfügbar sind brauche ich auch kein 3Dcenter mehr um diese anzuschauen....

Dorn
2018-08-26, 18:51:38
Ich bin echt gespannt wie AMD 2019 darauf reagiert, auf jeden Fall ruht sich nvidia nicht wie Intel aus.

iamthebear
2018-08-26, 19:58:27
Von welchen Dateigrößen kann man denn bei einem "Mustererkennungs-Set" für ein Spiel ausgehen? Würden das überhaupt im Sinn machen im Treiber, wenn man die meisten Spiele ohnehin nicht besitzt?

Also ich glaube nicht, dass es hier für jedes Spiele ein extra Update geben muss. Das ist reines Marketing. Eine Kante sieht immer aus wie eine Kante egal welches Spiel diese anzeigt. Da werden einfach ein paar Tuningparameter upgedated und das wars falls das nicht überhaupt nur ein reiner Marketinggag ist.

iamthebear
2018-08-26, 20:01:46
Treppchen sind heute bei 4K mMn. gar nicht mehr das große Problem. Natürlich sollten sie auch noch angegangen werden, aber das deutliche größere Problem ist Flimmern. Das ist etwas, dagegen hilft SSAA oder Downsampling. Ich bin gespannt, ob DLSS (immerhin hat es ja Super Sampling im Namen) auch hilft. Wenn ja, dann kann es wirklich ein sehr, sehr geniales Feature werden. Wenn nein, dann ist es bei weitem weniger interessant.

Auf einem 30" Monitor nicht, auf einem 65" Fernseher der 1 Meter vor dir steht schon.
Umgekehrt finde ich es sehr sinnlos von 1440p auf 4K zu gehen und gleichzeitig AA komplett abzuschalten. Da bekomme ich optisch dasselbe raus mit wesentlich niedriger Performance.

Ben Carter
2018-08-26, 20:13:37
65" direkt vor dem Gesicht ist jetzt aber nicht unbedingt üblich. :)

Und es gibt genügend Spiele, bei denen AA nicht so besonders funktioniert. Da hilft Auflösung zumindest etwas weiter. Und ansonsten kann man auch bei 4K noch AA hinzuschalten, vor allem bei älteren Spielen, wo die Leistung reicht.

Aber zum Glück kann ja auswählen, was man haben will.

Sven77
2018-08-26, 20:15:41
Leos Fake News Teil X

Gast
2018-08-26, 22:19:06
Treppchen sind heute bei 4K mMn. gar nicht mehr das große Problem.

Das hängt ganz von der Größe und Abstand vom Bildschirm ab. 4k auf einem 15" Bildschirm brauch sicher kaum noch zusätzliches AA.

Als anderes extrem, 4k in einem VR-Headset sind viel zu wenig.

AA braucht es erst dann nicht mehr, wenn der Abstand groß genug ist, dass man 2x2 Pixel nur mehr als einen Pixel wahrnimmt.

pool1892
2018-08-26, 23:27:55
Von welchen Dateigrößen kann man denn bei einem "Mustererkennungs-Set" für ein Spiel ausgehen? Würden das überhaupt im Sinn machen im Treiber, wenn man die meisten Spiele ohnehin nicht besitzt?

man kann neuronale netze auf mehrere spiele zugleich trainieren, d.h. es gibt einen satz von weights, der für alle spiele, die im trainingssatz vorliegen, fast perfekte ergebnisse liefert. neue spiele bedeuten neues training (mit alten und neuen spielen kombiniert im trainingsdatensatz). mit anderen worten: treiber wächst einmal um ne konstante größe, wenn das feature eingeführt wird.

Gast
2018-08-27, 00:33:07
Von welchen Dateigrößen kann man denn bei einem "Mustererkennungs-Set" für ein Spiel ausgehen? Würden das überhaupt im Sinn machen im Treiber, wenn man die meisten Spiele ohnehin nicht besitzt?

Wenn es einen "universalen" DLSS Algorithmus gibt nicht viel. Aber auch ansonsten bei Spiel-für-Spiel DLSS wird es wenig sein. Eine Version des Raytracing Denoising Algos von Nvidia wird in einem Paper mit 3.2 Millionen Parametern angegeben. Ist jeder Parameter 32 Bit gross, wären das gerade mal 13 MByte. Dazu noch die Netzbeschreibung etc. sollte das sehr deutlich unter 100MB sein. Also alles in allem wohl eine sehr geringe Datenmenge im Vergleich zu einem ganzen Spiel.

Am besten wäre natürlich ein standard DLSS, das für das meiste gut genug funktioniert und optional (falls man es noch ein wenig schöner haben will) kann man eine aufs Spiel angepasste Version runterladen oder ist ins Spiel integriert.

Leonidas
2018-08-27, 06:02:58
Ist es nicht ein bisschen verfrüht mit den bisherigen, halbgaren informationen hier derart Spekulativ über die Arbeit des DLSS zu berichten ?
Wäre es nicht besser gewesen zu warten bis es dazu handfeste infos und Tests, Vergleichsbilder, Filme gibt ?


Eigentlich ja. Aber das Thema ist in der Welt, viele andere Berichte erwähnen DLSS - da muß man endlich mal sagen, worum es sich dreht. Hier war sicherlich auch technologische Neugier meinerseits mit im Spiel. Zudem habe ich nach Studium aller Unterlagen auch gesehen, das man das ganz gut beschreiben kann, es gar nicht so unklar ist, wie oftmals berichtet wird.




Von welchen Dateigrößen kann man denn bei einem "Mustererkennungs-Set" für ein Spiel ausgehen?


nVidia sagt: Ein paar MegaByte.




Leos Fake News Teil X


Wenn das ironisch sein soll, hab ich es nicht verstanden.
Wenn es ernst gemeint sein soll, dann ist mir unklar, wieso ein Post ohne jede Begründung selbige Ernsthaftigkeit für sich in Anspruch nehmen will. Ernsthaft gesprochen ;)

Spasstiger
2018-08-27, 09:41:54
Der Verdacht des Upsamplings kommt deshalb auf, weil NV mit DLSS einen Performancegewinn ggü. TAA von rund 30% erzielen will, obwohl sogar der komplette Verzicht auf Antialiasing nur einstellige Prozentpunkte Performancegewinn ggü. TAA bringt: https://www.gamestar.de/artikel/kantenglaettung-anti-aliasing-erklaert-guide-wie-funktionieren-msaa-txaa-und-co,3085163,seite6.html

Wäre evtl. damit erklärbar, dass auf den Shader-Multiprozessoren oder auf der gesamten Rasterizing-Pipeline zusätzliche Resourcen frei werden, wenn das Antialiasing bzw. sogar die komplette Bildsynthese auf die Tensorcores ausgelagert wird. Aber das ist genauso spekulativ wie die Upsampling-Theorie. Man sollte das komplette Bild mit Vergleich der Bildqualität, der Performance und der Leistungsaufnahme abwarten.

ActionNews
2018-08-27, 10:04:52
Ich bin echt gespannt wie AMD 2019 darauf reagiert, auf jeden Fall ruht sich nvidia nicht wie Intel aus.

Naja ich weiß nicht ... Pascal haben sie über zwei Jahre gezogen ... wurde doch Ende letzten Jahres schon gemeckert wo die neue Architektur bleibt. Und jetzt mit Turing mal sehen wie viel von den handgepickten Marketing 50%+ in unabhängigen Tests übrig bleiben.

Klingt für mich nicht unbedingt nach "Gas geben" sondern eher nach einem Gang zurückschalten.

Was man aber zu Gute halten muss ist die Integration von Raytracing-Beschleunigung. Wobei ich da immer noch skeptisch bin wie viel davon echtes Raytracing ist und was per Tensor Cores und Maschine Learning dazugedichtet wird (siehe Artefakte bei BattleField 5 Präsentation und hat ja auch Nvidia gesagt das manche Pixel per ML erzeugt werden statt von RT). Und vor allem wie viele Spiele es dann letztendlich nutzen wo Nvidia nicht Geld hinterher wirft damit es genutzt wird, so wie bei Gameworks und PhysX.

ActionNews
2018-08-27, 10:14:55
man kann neuronale netze auf mehrere spiele zugleich trainieren, d.h. es gibt einen satz von weights, der für alle spiele, die im trainingssatz vorliegen, fast perfekte ergebnisse liefert. neue spiele bedeuten neues training (mit alten und neuen spielen kombiniert im trainingsdatensatz). mit anderen worten: treiber wächst einmal um ne konstante größe, wenn das feature eingeführt wird.

Naja je mehr Spiele ich aber in ein einziges Neuronales Netz werfe desto schwieriger ist es weights zu finden die für alle Situationen passen. Alleine unterschiedliche Helligkeit in den Spielen kann da enormen Einfluss haben. Um das Auszugleichen brauche ich immer mehr Knoten im Netz und immer mehr weights. Das kostet alles Rechenzeit.

Einzelne Netze pro Spiel würde deswegen IMHO schon sinn machen.

BigKid
2018-08-27, 11:35:46
Der Verdacht des Upsamplings kommt deshalb auf, weil NV mit DLSS einen Performancegewinn ggü. TAA von rund 30% erzielen will, obwohl sogar der komplette Verzicht auf Antialiasing nur einstellige Prozentpunkte Performancegewinn ggü. TAA bringt: https://www.gamestar.de/artikel/kantenglaettung-anti-aliasing-erklaert-guide-wie-funktionieren-msaa-txaa-und-co,3085163,seite6.html

Und das ist genau der Punkt weshalb ich schon Fragen muss warum darauf nicht wenigstens mit 1-2 Sätzen eingegangen wird. NVidia gibt an durch das Umschalten von TAA auf DLSS 30%+ Performance zu gewinnen. Das GEHT nicht wenn TAA nicht wenigestens 30% kostet und das kann ich mir beim besten willen nicht vorstellen...
Also bleibt nur das DLSS noch irgendwie anders zur Entlastung der GPU "durch beisteuern von Pixeln" beiträgt. Auf diesen Umstand weisen andere Hardware Seiten wenigstens noch hin... Aber gut... Ich habe keine Ahnung sondern geh da nur mit (hoffentlich) gesundem Menschenverstand ran... Ich halte daran fest, das NVidia bei den angegebenen Performancesteigerungen/Veröffentlichten Balken DLSS mit Upscaling nutzt... Vlt. ist das ja nur eine Option und nicht gezwungenermassen der Fall - aber ich bin mir recht sicher, dass man es auch dazu nutzen kann vergleichbare Ergebnisse bei niedrigerer Render-Auflösung zu erzielen... Genau deshalb ist es IMHO für Raytracing auch die nächsten Generationen zwingend nötig und wurde vermutlich auch dafür erfunden - aber wenn man es auch für die Balkenlänge unter normaler Rasterization (ohne Nennenswerten Quali-Verlust) nutzen kann wäres es unsinnig es nicht zu tun.... Nur muss man es dann halt auch dazusagen...
Übrigens hatten man in dem Thread zu Turing herausgearbeitet, dass nicht nur Image sondern auch Bewegungsvektoren in der hohen Auflösung benötigt werden.
Wenn DLSS nur ein AA ist, ist mir auch nicht so ganz klar warum eine Anpassung der Spiele nötig ist...

Leonidas
2018-08-27, 13:40:59
Aber TAA ist doch Multisampling mit temporaler Komponente? MSAA kostet immer saftig, oder nicht? Wird das hier eventuell mit TSAA verwechselt? TSAA ist was anderes als TAA.

Gast
2018-08-27, 14:31:02
Aber TAA ist doch Multisampling mit temporaler Komponente?

TAA steht nur für Temporales AA, da gibt es verschiedenste Umsetzungen.

TXAA, eine Gameworks-Variante von Temporalen AA basiert auf Multisampling, mit Temporaler komponente.

Es gibt aber auch TAA Varianten die ohne Multisampling auskommen und im wesentlichen für hintereinander berechnete Frames unterschiedliche Samplepositionen verwenden und dann die Frames miteinander verrechnen.

Bei rein statischen Szenen ist das Ergebnis dann weitestgehend identisch mit anderen AA-Verfahren, in Bewegung muss aus den Bewegungsvektoren rückgerechenet werden welche Pixel der vorherigen Frames wirklich miteinander verrechnet werden müssen.

Gast
2018-08-27, 14:49:41
Der Verdacht des Upsamplings kommt deshalb auf, weil NV mit DLSS einen Performancegewinn ggü. TAA von rund 30% erzielen will, obwohl sogar der komplette Verzicht auf Antialiasing nur einstellige Prozentpunkte Performancegewinn ggü. TAA bringt: https://www.gamestar.de/artikel/kantenglaettung-anti-aliasing-erklaert-guide-wie-funktionieren-msaa-txaa-und-co,3085163,seite6.html


Es ist zu 100% Upsampling, das wurde auch ganz klar gesagt.

Was nicht gesagt wurde ist was die Basisrenderauflösung ist.

Es wäre auch denkbar beispielsweise 4k zu rendern, auf 8k upzusamplen und dann wieder auf die Bildschirmauflösung runterzurechnen.

Oder es wird z.B. 1440p gerendert und auf 4k hochgerechnet.

Wobei das eigentlich unwichtig ist, wichtig ist welche Bildqualität ist zu welcher Performance erreichbar.

BigKid
2018-08-27, 14:57:33
Aber TAA ist doch Multisampling mit temporaler Komponente? MSAA kostet immer saftig, oder nicht? Wird das hier eventuell mit TSAA verwechselt? TSAA ist was anderes als TAA.
Dann hätten es aber schon 2 falsch verstanden:
https://www.computerbase.de/2018-08/nvidia-geforce-rtx-2080-performance-benchmark/
Zudem wurde bei der Demo ein Framecounter eingeblendet. DLSS wurde auf einer GeForce RTX 2080 Ti berechnet, das TAA-System war mit einer GeForce GTX 1080 Ti bestückt. Die neue Nvidia-Grafikkarte war je nach Szene etwa 20 bis 100 Prozent schneller. Bis zu doppelte Leistung zeigt sich in der ersten Nvidia-Folie bei den Spielen, die auch DLSS nutzen. Das ist aber nicht direkt miteinander vergleichbar, entsprechend sollten die „DLSS“-Balken diesbezüglich ignoriert werden. Was sich genau hinter DLSS verbirgt, wird ComputerBase im Launch-Review zu einem späteren Zeitpunkt klären.
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/47195-geforce-rtx-20-serie-neuer-aa-modi-dlss-erlaeutert-und-erste-leistungsdaten.html
NVIDIA hat auch eine erste Einschätzung der Leistung von DLSS im Vergleich zu TAA ermöglicht. Während eine GeForce GTX 1080 Ti die Infiltrator-Demo in 4K-Auflösung mit TAA bei 38 FPS berechnet, schafft eine GeForce RTX 2080 Ti dies mit etwa 60 FPS. Schaltet man das TAA ab und verwendet stattdessen DLSS, erreicht die GeForce RTX 2080 Ti fast 80 FPS und damit doppelt so viele Frames pro Sekunde wie eine GeForce GTX 1080 Ti.
Wenn hier nicht TAA sondern ein (Zeit)aufwändigeres AA gemeint wäre, dann sähe es natürlich anders aus...

EDIT: Hier mal meine "Linksammlung" dazu:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11780030&postcount=7029

Troyan
2018-08-27, 15:06:50
Es gibt kein MSAA in der UE4.

BigKid
2018-08-27, 16:03:14
Habe grade noch das hier gefunden :-)
https://www.computerbase.de/2018-06/jurassic-world-evolution-benchmark-test/

Nvidia GeForce GTX 1080:
Hochskaliertes TAA 141 %
Aus 107 %
TAA 100 %


Darüber hinaus gibt es noch die Option „Hochskaliertes TAA“. Nutzen sollten es Spieler allerdings nicht, denn es handelt sich nicht um ein weiter verbessertes Antialiasing. Stattdessen wird die Bildqualität reduziert. Offenbar nutzt dieser Modus Informationen von vorherigen Frames für das gesamte Bild, reduziert dabei jedoch die Auflösung.

TAA kostet also 7% ... Und TAA mit Upscaling bringt ~34%... Ich sehe da Ähnlichkeiten sowohl von den Auswirkungen als auch von der Erklärung was es tut...

F4USt
2018-08-27, 18:20:08
Die erreichbare Kantenglättungs-Qualität dürfte in jedem Fall exzellent sein ...

Warum solche Vorschusslorbeeren?

aufkrawall
2018-08-27, 18:26:25
Wär peinlich, wenn nicht, weil das schon TAA schafft. Was btw. zu 99% ohne MSAA daher kommt.

Iscaran
2018-08-27, 18:55:34
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11781974&postcount=3

Ist es nicht ein bisschen verfrüht mit den bisherigen, halbgaren informationen hier derart Spekulativ über die Arbeit des DLSS zu berichten ?

Wäre es nicht besser gewesen zu warten bis es dazu handfeste infos und Tests, Vergleichsbilder, Filme gibt ?


https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11782390&postcount=17

Eigentlich ja. Aber das Thema ist in der Welt, viele andere Berichte erwähnen DLSS - da muß man endlich mal sagen, worum es sich dreht. Hier war sicherlich auch technologische Neugier meinerseits mit im Spiel. Zudem habe ich nach Studium aller Unterlagen auch gesehen, das man das ganz gut beschreiben kann, es gar nicht so unklar ist, wie oftmals berichtet wird.


https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11782575&postcount=21

Und das ist genau der Punkt weshalb ich schon Fragen muss warum darauf nicht wenigstens mit 1-2 Sätzen eingegangen wird. NVidia gibt an durch das Umschalten von TAA auf DLSS 30%+ Performance zu gewinnen. Das GEHT nicht wenn TAA nicht wenigestens 30% kostet und das kann ich mir beim besten willen nicht vorstellen...


https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11782843&postcount=25

TAA kostet also 7% ... Und TAA mit Upscaling bringt ~34%... Ich sehe da Ähnlichkeiten sowohl von den Auswirkungen als auch von der Erklärung was es tut...


EDIT:
Die erreichbare Kantenglättungs-Qualität dürfte in jedem Fall exzellent sein ...


Warum solche Vorschusslorbeeren?

/EDIT

Genau das habe ich damit gemeint "Ist es nicht ein bisschen verfrüht mit den bisherigen, halbgaren informationen hier derart Spekulativ über die Arbeit des DLSS zu berichten ?"

Eigentlich wissen wir NICHTS....nur was DLSS als Abkürzung heisst.

Gast
2018-08-27, 19:09:06
Wär peinlich, wenn nicht, weil das schon TAA schafft. Was btw. zu 99% ohne MSAA daher kommt.

Es wäre nicht peinlich wenn man die doppelte Geschwindigkeit mit geringfügig schlechterer Bildqualität erreicht.

starfish
2018-08-27, 19:25:48
Es gibt kein MSAA in der UE4.

Kleine Spezifizierung:
Es gibt kein MSAA im Deferred Renderer der UE4.
Die Infiltrator-Demo nutzt den Deferred Renderer.

Der Forward Renderer der UE4 kann MSAA.

Edit:
Und ja, kein AA kann bei gleicher nativer Auflösung nicht langsamer sein als DLSS.
Das will mir auch nicht in den Kopf.

F4USt
2018-08-27, 21:25:58
Genau das habe ich damit gemeint "Ist es nicht ein bisschen verfrüht mit den bisherigen, halbgaren informationen hier derart Spekulativ über die Arbeit des DLSS zu berichten ?"

Eigentlich wissen wir NICHTS....nur was DLSS als Abkürzung heisst.

Wäre schön darauf eine Antwort zu bekommen. Na mal sehen ...

Leonidas
2018-08-28, 04:26:14
Warum solche Vorschusslorbeeren?


Hast Recht, zum jetzigen Zeitpunkt übertrieben. Ich ändere in "könnte" ab. Mehr ist nicht. Es könnte exzellent sein, weil NV wesentlich weniger Arbeit macht, weil das AA nur auf Bruchteile des Bildes zum Einsatz kommt.

BigKid
2018-08-28, 13:25:53
Hast Recht, zum jetzigen Zeitpunkt übertrieben. Ich ändere in "könnte" ab. Mehr ist nicht. Es könnte exzellent sein, weil NV wesentlich weniger Arbeit macht, weil das AA nur auf Bruchteile des Bildes zum Einsatz kommt.
Das beantwortet aber immer noch nicht woher das mehr an Performance Gain herkommt. Egal wie genial DLSS arbeitet - es kann nicht mehr Performance bringen als das AA Verfahren, das es ablöst kostet... Es sei denn es passiert eben noch was anderes um die GPU zu entlasten... Nehmen wir mal an die 35%+ wurden gegen ein AA mit Downsampling angegeben. Dann bleibt immernoch, dass das aus rein technischer Sicht kein fairer Vergleich ist. Dann wäre bei DLSS zwar kein Upscaling im Spiel aber beim Vergleich mit einem AA mit Downsampling nach 4k hat die GPU durch das Rendern in höherer Auflösung deutlich mehr Arbeit als bei DLSS wenn dort in 4k + DLSS Vodoo gearbeitet wird. Darauf sollte in so einem Artikel IMHO zumindest hingewiesen werden... Dann hätte NVIDIA uns immernoch ein kleines aber feines Detail zu den Balken "unterschlagen"...
Das alles unbestritten der Tatsache dass das Endergbnis durch DLSS sehr überzeugend sein könnte...
Also pro DLSS aber gegen DLSS als Balkenverlängerer wenn die Werte unplausibel sind/darauf hindeuten dass hier noch ein Mosaikstein fehlt...

Gast
2018-08-28, 15:00:16
Hast Recht, zum jetzigen Zeitpunkt übertrieben. Ich ändere in "könnte" ab. Mehr ist nicht. Es könnte exzellent sein, weil NV wesentlich weniger Arbeit macht, weil das AA nur auf Bruchteile des Bildes zum Einsatz kommt.

Das was wir über DLSS wissen ist eben genau das Gegenteil.
DLSS wird auf das gesamte Bild angewandt, nicht nur auf irgendwelche Teile eines Bildes.

Das was DLSS schnell macht, ist dass es keine echten neuen Informationen berechnen muss, sondern aufgrund der Erfahrungen aus dem deep learning Prozess, die Informationen (angeblich) sehr gut erraten kann.

JVC
2018-08-29, 08:10:24
Das was wir über DLSS wissen ist eben genau das Gegenteil.
DLSS wird auf das gesamte Bild angewandt, nicht nur auf irgendwelche Teile eines Bildes.

Das was DLSS schnell macht, ist dass es keine echten neuen Informationen berechnen muss, sondern aufgrund der Erfahrungen aus dem deep learning Prozess, die Informationen (angeblich) sehr gut erraten kann.

Ich dachte es "lernt" durch den "Super Computer" was es nicht rendern muss weil man es auch "nicht so wahrnimmt" :confused:
( NV reduziert die Bildqualität auf eine weise die man angeblich nicht bemerkt ... )

Für mich klingt das DLSS perfekt für Filme bei denen man ja weis wohin die nächste Bewegung der Pixel hingeht. ( oder auch Demos , alles was vorhersehbar ist ... )

Beim Zocken kann ich mir aber nicht so wirklich vorstellen das die "KI" immer weis wo ich als nächstes hin schwenke/schaue ... und fühle mich auch bevormundet wenn NV wieder einmal meint zu wissen was ich sehen oder wissen will ...

Für mich zählt die Roh Power die die Karte auf die Straße bringt .
Für was und wie ich dann diese Leistung einsetze ist dann meine Sache.

Neue Optionen, die mir helfen wenn die Leistung mal nicht ausreicht,
sind immer willkommen ...
Aber diese "Hilfen/Schummeleien" sollte nicht als neue "Basisleistung" angesehen werden sondern als nettes Hilfsmittel ... und nicht mehr.

m.f.g. JVC

Gast
2018-08-29, 19:05:19
Ich dachte es "lernt" durch den "Super Computer" was es nicht rendern muss weil man es auch "nicht so wahrnimmt"

DLSS ist im Prinzip Fullscreen Supersampling. Die zusätzlichen Samples werden allerdings nicht gerendert sondern von der KI erraten.

:confused:
( NV reduziert die Bildqualität auf eine weise die man angeblich nicht bemerkt ... )

Nvidia erhöht die Bildqualität "ohne" Performance zu kosten, und da es in den Tensor Cores läuft die ansonsten nichts zum Rendering beitragen könnte es tatsächlich 0 Performance kosten (die Frage ist wie weit evtl. die Taktfrequenz reduziert werden muss um die TDP einzuhalten).



Neue Optionen, die mir helfen wenn die Leistung mal nicht ausreicht,
sind immer willkommen ...
Aber diese "Hilfen/Schummeleien" sollte nicht als neue "Basisleistung" angesehen werden sondern als nettes Hilfsmittel ... und nicht mehr.

m.f.g. JVC

Entscheident ist immer wieviel Bildqualität für wieviel FPS bekommt.

Ob die Bildqualität nun durch höhere Auflösung, KI oder sonstige Bildverbesserungen zustande kommt ist erstmal nebensächlich.

Aber ich stimme dir absolut zu, man sollte nicht mit irgendwelchen blöden Äquivalenzberechnungen anfangen.

Bestes Beispiel ist immer noch die Speicherbandbreite. Bei der gefühlt jede Generation die "effektive Bandbreite" erhöht.

Dabei ist die höchst mögliche Bandbreite die vorhandene physische Bandbreite, die effektive Bandbreite liegt immer darunter, niemals darüber.

Leonidas
2018-09-05, 09:41:30
Das beantwortet aber immer noch nicht woher das mehr an Performance Gain herkommt. Egal wie genial DLSS arbeitet - es kann nicht mehr Performance bringen als das AA Verfahren, das es ablöst kostet... Es sei denn es passiert eben noch was anderes um die GPU zu entlasten... Nehmen wir mal an die 35%+ wurden gegen ein AA mit Downsampling angegeben.


Weil Du mit diesem Einwurf vollkommen Recht hast, habe ich diese Bedenken als Nachtrag bzw. in den News noch notiert.

BigKid
2018-09-10, 16:51:22
Weil Du mit diesem Einwurf vollkommen Recht hast, habe ich diese Bedenken als Nachtrag bzw. in den News noch notiert.
Danke :o)