PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 29. Juli 2020


Leonidas
2020-07-30, 11:57:05
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-29-juli-2020

JVC
2020-07-30, 12:40:53
Als proprietäres Sahnehäubchen lehne ich es Prinzip bedingt ab.

Sollte es mal, überall ohne Training oder sonst was, einfach super funktionieren,
dann will ich es auch ^^

Aber da ich mit den Spielen eher Jahre hinterher hinke...
juckt es Mich, so wie RT, noch überhaupt nicht.

M.f.G. JVC

Complicated
2020-07-30, 13:08:51
Denn dies führt potentiell schließlich zur selben Situation, dass man vom Fertiger abhängig wird. Um wieder vorn mitspielen zu können, müsste Intel sich hingegen auf die Synergie-Effekte besinnen, welche sich von einer Hand-in-Hand arbeitenden Entwicklung und Fertigung unter demselben Dach ergeben können.Das schon - nur kann man nie schlechter dastehen als die Konkurrenz. Wollen die CPU-Designer wirklich zeigen was sie können ist Ihnen der Fertigungsvorsprung egal (Auch wenn es zusätzliche Vorteile bietet), ein Rückstand jedoch sabotiert jedes gute Design im Markt. Ich denke hier wird lediglich mit dem Finger auf jemanden Schuldigen gezeigt und es ist offensichtlich, dass die Fertigung es vergeigt hat. Doch wo war der Plan B? Wo war die ganze Zeit das Management?

Flinx
2020-07-30, 13:16:20
Guten Tag an alle.
Wenn die Konsolen doch schon jahrelang geplant wurden, sollte eine Lösung doch schon gefunden sein für "DLSS Ersatz". Ich baue ja nicht erst die Hardware, werbe mit Futures, und überlege dann, wie ich das umsetze.

Complicated
2020-07-30, 13:29:18
Checkerboard halte ich für die Interessantere Technik zur Weiterentwicklung. DLSS hat eine Komponente auf die es angewiesen ist, die nicht vom eigenen System berechnet wird. Dies liegt völlig ausserhalb des Einflusses des Besitzers und ist auf Vorarbeit von AI-Berechnungen abhängig. Da die Abhängigkeit von Nvidias Servern besteht sehe ich hier immer die Gefahr der Monetarisierung an einem Punkt, wenn es sich erst einmal Durchsetzt. Man schaue nur mal auf Nvidias Umgang: Optimierte Grafiktreiber erfordern Zwangsregistrierung (https://www.golem.de/news/nvidia-geforce-experience-optimierte-grafiktreiber-erfordern-zwangsregistrierung-1510-116954.html)

Die anderen Techniken bekommt man umsonst und ohne Zwangsregistrierung und DLSS ist hier nicht gerade besser gegenüber Checkerboard auf der PS4.

madshi
2020-07-30, 13:41:01
Das mit DLSS in der PS5 ist meiner Meinung nach wahrscheinlich eine Ente.

Der Grund warum DLSS bei Turing/Ampere so gut funktioniert, ist daß extra Tensor-Cores zur Verfügung stehen, die ansonsten bei Gaming einfach ungenutzt brach liegen würden. Da hat sich Nvidia halt gedacht: "Wie können wir die Tensor-Cores auch für Gaming nutzen?" und sind dann auf DLSS gekommen.

Tensor Cores sind für Inference saftige 8x so schnell wie die normalen Pixel-Shader. Klar, daß man solche Hardware gerne benutzen will, wenn sie schon mal da ist, zumal AMD (meines Wissens?) derzeit nichts vergleichbares hat.

Daß die eigentliche "Arbeit" (im Sinne von "developer time") im KI-Training liegt, ist zwar richtig, sollte aber nicht darüber hinweg täuschen, daß das fertig gelernte neuronale Netzwerk immer noch "ausgeführt" (Fachwort: "Inference") werden muß. Und das verbrät *Unmengen* an mathematischen Add und Mul Operationen. Bei Turing/Ampere kein Problem, machen die Tensor Cores "for free" (allerdings nur das Add/Mul, extra RAM Bandwidth wird natürlich trotzdem benötigt). Bei AMD GPUs müßte die Inference per Pixel-Shader ausgeführt werden, was dann natürlich dramatisch Shader-Power vom eigentlichen Spiel-Rendering klauen würde - zumal eben die Pixel-Shader um den Faktor 8x langsamer bei Inference sind als Tensor-Cores!!!

Nun könnte man vielleicht meinen, daß ein kleines süßes KI ja nicht so viel Pixel-Shader-Power verbrauchen sollte. Naja, man kann natürlich KI scalen wie jeden anderen Algo auch. Aber ist doch klar, daß wenn Nvidia DLSS mit voller Tensor-Core-Power fahren kann, dann müßte Sony/AMD das DLSS Netzwerk schonmal gleich um den Faktor 8x verkleinern, um es überhaupt lauffähig zu kriegen, und dann würde es die AMD Pixel-Shader Hardware komplett auslasten, mit 0 Resourcen übrig für eigentliches Game-Rendering. Also müßte Sony's PS5 DLSS-Alternative mit z.B. einem um den Faktor 50x (oder noch mehr) verkleinerten KI-Netzwerk arbeiten, im Vergleich zu Nvidia's DLSS, damit noch genug Pixel-Shader-Power für das eigentliche Game-Rendering übrig bleibt.

Kann natürlich sein, daß die in PS5 verbaute AMD Hardware etwas ähnliches wie Tensor-Cores hat? Bin da nicht ganz auf dem neusten Wissensstand. Klingt für mich aber eher unwahrscheinlich. Warum für PS5 wertvolle Chip-Fläche bezahlen für ein Feature das (fast) nur für DLSS benutzt werden könnte? Tensor-Cores bei Nvidia haben ja auch nicht den primären Zweck, DLSS zu machen, sondern sind eigentlich für andere Zwecke gedacht, und DLSS dient lediglich als coole Idee, um die Hardware (da sie nun schon mal da ist) auch für Gaming zu nutzen.

Wen's interessiert: Tesla hat sich ja sehr aufwendig und teuer eigene Hardware für KI gebaut:

https://www.cnet.com/news/meet-tesla-self-driving-car-computer-and-its-two-ai-brains/

Diese Hardware wird in die Autos eingebaut, nur für Inference - nicht für Training! Daran sieht man schon, daß fertig gelernte KI-Netzwerke immer noch unglaublich viel Processing Power für die Inference benötigen.

(Ich trainiere schon seit Jahren KI-Netzwerke.)

Platos
2020-07-30, 14:26:04
Unabhängig davon, ob nun DLSS 3.0 mit Ampere kommt oder nicht (was ich mal bezweifle), stellt sich dennoch die Frage, ob, wenn es dann raus kommt, die vorherigen Generationen das auch erhalten, oder ob dass dann das neue Feature der jeweiligen Gen. wäre.

MiamiNice
2020-07-30, 15:39:07
DLSS ist das Konsolenfeature schlechthin ;D
So true.
Kann es nicht bitte auch dahin wandern und auch genau dort bleiben? Pls ;D

Complicated
2020-07-30, 15:45:09
https://www.pcgameshardware.de/Raytracing-Hardware-255905/News/AMD-patentiert-eigene-Texturprozessor-Loesung-1293305/
"Der hybride Ansatz (feste Funktionsbeschleunigung für einen einzelnen Knoten des BVH-Baums) und die Verwendung einer Shadereinheit zur Planung der Verarbeitung löst die Probleme mit ausschließlich hardwarebasierten und/oder ausschließlich softwarebasierten Lösungen. Die Flexibilität bleibt erhalten, da die Shadereinheit weiterhin die Gesamtberechnung steuern kann und bei Bedarf die feste Funktionshardware umgehen kann und trotzdem den Leistungsvorteil der festen Funktionshardware nutzt. Darüber hinaus werden durch die Nutzung der Texturprozessor-Infrastruktur große Puffer für Ray-Speicher und BVH-Caching eliminiert, die typischerweise in einer Hardware-Raytracing-Lösung benötigt werden, da die vorhandenen VGPRs und der Textur-Cache an ihrer Stelle verwendet werden können, was wesentlich Platz und Komplexität der Hardware-Lösung spart."
@madshi
perfekt beschrieben, daher ist wohl auch nicht nötig Extra Hardwareeinheiten einzubauen und man kann das mit anderen FUs nutzen. Ohne Tensor Cores hat man einfach Platz auf dem Chip gespart und hat ebenso Hardware-Raytracing bei AMD.

Gast
2020-07-30, 16:13:42
https://www.pcgameshardware.de/Raytracing-Hardware-255905/News/AMD-patentiert-eigene-Texturprozessor-Loesung-1293305/

@madshi
perfekt beschrieben, daher ist wohl auch nicht nötig Extra Hardwareeinheiten einzubauen und man kann das mit anderen FUs nutzen. Ohne Tensor Cores hat man einfach Platz auf dem Chip gespart und hat ebenso Hardware-Raytracing bei AMD.

Ist es auch nicht ,wenn man aber wie hier die Vorteiler dieses Patents aufzeigt sollte man auch die Nachteile belichten und die liegen nunmal in deutlich geringerer Leistungsfähigkeit und vorallem um Dimensionen höherem Stromverbrauch welcher der Sache Spätestens den Riegel vorschiebt.

Man sieht an Turing über diverse Tools das die Arbeit der spezialisierten Einheiten sehr wohl deutlich messbare Anteile vom begrenztem Powerbudget abzweigt.
Was das für eine Lösung wie im Patent beschrieben bedeutet sollte klar sein, entweder man bekommt geringere Leistungsfähigkeit bei gleichem Budget oder deutlich gesteigerte Leistungsaufname .
Letzteres ist gerade bei Consolen in ihrem "Powerenvelope" kaum praktikabel.

Bambuslooter
2020-07-30, 17:03:41
@Leonidas

Microsoft bietet bei XBOX DirectML an:
https://www.golem.de/news/playstation-5-sony-arbeitet-an-ki-gestuetztem-upscaling-2007-149941.html

"Dergleichen hat Nvidia mit DLSS bereits für Geforce-Karten umgesetzt und Microsoft mit DirectML für die Xbox Series X präsentiert."

Bitte nachtragen in der Liste.
Das wird zu 100% kommen.

JVC
2020-07-30, 17:22:09
So gesehen könnte man "DLSS o.ä." auch gleich bei Allen abhaken denk ich mal.
Mögen die Kämpfe ums "bessere beschießen" von neuem beginnen...

M.f.G. JVC

Gast
2020-07-30, 17:24:49
Ein wichtiger Unterschied zu TSMC sollte nicht unerwähnt bleiben:
"The relationship between Intel’s chip designers and manufacturing had been particularly strained, Mr. Swan said. The manufacturing team, based in Oregon, had been slow to share technical details with the designers out of a desire to prevent leaks that could threaten Intel’s perceived tech lead, current and former executives said.

In contrast, TSMC, the Taiwanese rival, regularly shared data about its manufacturing technology with external designers and incorporated their suggestions."
https://www.nytimes.com/2020/03/01/technology/intel-culture-robert-swan.html

Im Bereich der PC-Grafikkarten würde es AMD hingegen sehr gut zu Gesicht stehen, wenn man eine DLSS-Alternative entwickeln könnte – oder eventuell auch jene von Sony übernimmt, je nachdem ob dies so einfach auf den PC-Bereich (mit seinen höheren Optikanforderungen) übertragbar ist.

AMD könnte auch die Konsolen-SoCs (bzw. den Ausschuß) als APUs für Laptops und Desktops verwenden.

Troyan
2020-07-30, 17:39:53
Kann natürlich sein, daß die in PS5 verbaute AMD Hardware etwas ähnliches wie Tensor-Cores hat? Bin da nicht ganz auf dem neusten Wissensstand. Klingt für mich aber eher unwahrscheinlich. Warum für PS5 wertvolle Chip-Fläche bezahlen für ein Feature das (fast) nur für DLSS benutzt werden könnte? Tensor-Cores bei Nvidia haben ja auch nicht den primären Zweck, DLSS zu machen, sondern sind eigentlich für andere Zwecke gedacht, und DLSS dient lediglich als coole Idee, um die Hardware (da sie nun schon mal da ist) auch für Gaming zu nutzen.

Weil "fast nur" eben alle Spiele sind. Eine fixe Hardwareplattform mit einer universiellen Upscaling-Technik kann dann von jedem Entwickler eingebaut werden.

Sony verwendet es nicht, weil der Techniklieferant eben rückständig ist. Alle anderen Hersteller (angefangen von nVidia, über Apple, Samsung, Huawai, Google bis zu Tesla) verbauen dedizierte Einheiten für Inference.

Leonidas
2020-07-30, 17:50:34
Wenn die Konsolen doch schon jahrelang geplant wurden, sollte eine Lösung doch schon gefunden sein für "DLSS Ersatz". Ich baue ja nicht erst die Hardware, werbe mit Futures, und überlege dann, wie ich das umsetze.


Jein. DLSS ist eines dieser Features, für die man vergleichsweise wenig HW auf der Grafikkarte braucht (die Ausnahme von der Regel). Eigentlich reicht ein performanter INT8-Support. Die eigentliche Arbeit liegt bei DLSS wo anders.





"Dergleichen hat Nvidia mit DLSS bereits für Geforce-Karten umgesetzt und Microsoft mit DirectML für die Xbox Series X präsentiert."


Mache ich gern!

Gast
2020-07-30, 18:00:48
Was für quatschsoßige Diskussion.
Nur weil der Entwickler SSD im PC empfiehlt, bedeutet das doch nicht, dass 'SSD-Caching' nicht Konsolen-exklusiv bleibt. SSD ist immer zu empfehlen.
Zumal am PC andere Möglichkeiten bestehen. Zuallererst mehr VRAM und folgend mehr RAM.
Man muss ja nicht gleich Flight Simulator like 99,99% der Spieldaten ins Internet auslagern.

madshi
2020-07-30, 18:18:49
daher ist wohl auch nicht nötig Extra Hardwareeinheiten einzubauen und man kann das mit anderen FUs nutzen. Ohne Tensor Cores hat man einfach Platz auf dem Chip gespart und hat ebenso Hardware-Raytracing bei AMD.
Rein vom Anwendungszweck her hat Tensor nix zu tun mit Raytracing. Tensor Cores sind für AI. Raytracing Cores sind für Raytracing.

Microsoft bietet bei XBOX DirectML an:
https://www.golem.de/news/playstation-5-sony-arbeitet-an-ki-gestuetztem-upscaling-2007-149941.html

"Dergleichen hat Nvidia mit DLSS bereits für Geforce-Karten umgesetzt und Microsoft mit DirectML für die Xbox Series X präsentiert."
DirectML ist eine Software-API für AI, nichts anderes. DirectML kann nicht Tensor-Cores auf AMD-Hardware herbeizaubern. Und man kann AI auch ohne DirectML machen. Ich mache es zum Beispiel einfach mit Pixel Shadern. Von daher ist DirectML meiner Meinung nach überhaupt kein Game-Changer. Solange AMD keine dedizierte AI-Hardware verbaut, wird DirectML die normale Shader-Hardware verwenden, um AI Inference zu machen, welche 8x langsamer als Nvidia's Tensor-Cores ist. Und wenn die normale Shader-Hardware für AI verwendet wird, dann nimmt die AI-Berechnung dem Spiel-Rendering entsprechend Leistung weg. Siehe mein vorheriger Kommentar.

Weil "fast nur" eben alle Spiele sind. Eine fixe Hardwareplattform mit einer universiellen Upscaling-Technik kann dann von jedem Entwickler eingebaut werden.

Sony verwendet es nicht, weil der Techniklieferant eben rückständig ist. Alle anderen Hersteller (angefangen von nVidia, über Apple, Samsung, Huawai, Google bis zu Tesla) verbauen dedizierte Einheiten für Inference.
Ich weiß nicht wie viel Prozent der Chip-Fläche bei Nvidia von den Tensor Cores verbraten werden. Bei der PS5 kommt es ja auf jeden Dollar an, da wird knallhart kalkuliert. Von daher fällt es mir schwer zu glauben, daß die dort teure Chipfläche für etwas wie Tensor Cores investieren würden. Aber keine Ahnung...

madshi
2020-07-30, 18:35:43
DLSS ist eines dieser Features, für die man vergleichsweise wenig HW auf der Grafikkarte braucht (die Ausnahme von der Regel).
Wie kommst Du denn auf die Idee? :freak:

Ist schon eine sehr pauschale Aussage, die Du da machst. Man kann ja DLSS auch in verschiedenen Qualitäten anbieten, je nachdem wie groß man das neuronale Netzwerk macht. Sicherlich, wenn man mit einer sehr geringen Qualität zufrieden ist, dann braucht man auch nur wenig HW auf der Grafikkarte. Wenn Du aber vernünftige Qualität haben willst, brauchst Du ein entsprechend größeres neuronales Netzwerk, und dann brauchst Du sehr schnell sehr viel GFLOPS/TOPS für die Inference, was eben nicht "vergleichsweise wenig HW" ist.

Complicated
2020-07-30, 19:45:39
Der Grund warum DLSS bei Turing/Ampere so gut funktioniert, ist daß extra Tensor-Cores zur Verfügung stehen, die ansonsten bei Gaming einfach ungenutzt brach liegen würden. Da hat sich Nvidia halt gedacht: "Wie können wir die Tensor-Cores auch für Gaming nutzen?" und sind dann auf DLSS gekommen.

Rein vom Anwendungszweck her hat Tensor nix zu tun mit Raytracing. Tensor Cores sind für AI. Raytracing Cores sind für Raytracing.
Das war in diesem Kontext gemeint. Viele habe darauf gewartet, dass AMD auch solche AI-Einheiten verbaut. Da AMD dies aber nicht getan hat haben Sie die Option einen möglichst effizienten Weg für RT zu gehen.

Geldmann3
2020-07-31, 00:10:43
Ich denke die Konsolen wären bereits sehr gut beraten, wenn sie in dieser Generation etwas hätten, was von der Qualität her zwischen Checkerboarding und DLSS 2.0 liegt.

Wobei einige Engines, wie die Unreal Engine, mit temporalen Upsamling durchaus bereits etwas Hardware-Agnostisches haben, was immerhin zu ca. 70% an DLSS 2.0 herankommt.

Weitehin wird DLSS 2.0 oft falsch verstanden, gefühlt sogar im News Artikel hier.
DLSS 2.0 ist KEIN Upscaler mehr.
Und deshalb funktioniert es so gut und schnell, besser als jeder AI-Image-Upscaler.

DLSS 2.0 benötigt nicht mehr viel Training durch Supercomputer. Es ist einfach sehr gutes, temporales Upsampling mit dem Buzzwort Deep Learning dran geklatscht. Wobei am Ende der Renderpipeline zwar tatsächlich ein neuronales Netz z.b. zur Unterdrückung von Moire-Artefakten zum Einsatz kommt, dieses jedoch die Auflösung des Bildes nicht mehr erhöht. Daher braucht es eben kein Training mehr, weil das Netzwerk nicht wissen muss, wie eine Struktur im Game in hoher Auflösung aussieht.

Jetzt wird der eine oder andere vielleicht argumentieren:,,Was redest Du da? Natürlich erhöht es die Auflösung des Bildes, wenn die interne Renderauflösung niedriger als die Zielauflösung ist."
Mein Argument dagegen ist jedoch, dass es zum Upscaling erstmal ein Bild in einer niedrigeren Auflösung braucht, was dann hochgerechnet werden kann. Doch es gibt bei DLSS 2.0 keine niedrigere Renderauflösung, sondern nur das bereits hochauflösende Bild final im Framebuffer. Es gibt kein Bild, welches upgescaled wird, man hat lediglich die Samples, die über einen bis x Frames gesammelt wurden, sowie z.b. Motion-Vektoren. Ein einzelner Frame generiert zwar nur genug Samples für z.b. 540p, doch insgesamt hat man bereits temporale Bildinformationen für ein 1080p Bild oder sogar noch wesentlich mehr, die vom neuronalen Netzwerk nur noch hübsch gemacht werden. Es muss keine zusätzlichen Informationen für das Bild ,,halluzinieren" wie es, optisch scheinbar, noch in DLSS 1.0 der Fall war oder in Upscalern für Fotos. Das ist auch der Grund, warum in DLSS 2.0 der "Ölpainting-Effekt" verschwunden ist. Denn es wird streng genommen gar nicht upgescaled... Es ist auch keine Magie, dass mehr Details da sind als in der ,,Renderauflösung". Denn diese Details wurden über ein Jitter der Samplingkoordinaten über die letzten Frames gesammelt und nicht von einem neuronalen Netz generiert. Deshalb muss auch kein Supercomputer mehr für jedes Game rechnen. Denn die Bildinhalte sind DLSS 2.0 fast egal.

Badesalz
2020-07-31, 00:15:43
Link zur News:Na. Wenn man schon SO eine Tabelle macht, dann hätte man ruhig auch Cuda auflisten können

:usweet:

Leonidas
2020-07-31, 04:15:31
Wie kommst Du denn auf die Idee? :freak:


Wenn man es plant, reicht ein Support für INT8 und einfach nur viel HW-Power. Das, was NV derzeit mittels Tensor Cores schafft, könnten die Grafikchips von 2025 sicherlich in ihren normalen ALUs nebenbei her rechnen.

Aber auch die dedizierte HW ist nicht so das ganz große Ding. Die Tensor Cores sind auch deswegen derart da, weil NV jene im professionellen Bereich benötigt. Wenn man dagegen bei einem Gamer-Chip von Anfang an weiss, das es nur um eine einzige Funktion geht, könnte man jene sicherlich deutlich schrumpfen, eventuell als reines Anhängsel zu den Shader-Einheiten.




Weitehin wird DLSS 2.0 oft falsch verstanden, gefühlt sogar im News Artikel hier.
DLSS 2.0 ist KEIN Upscaler mehr.
Und deshalb funktioniert es so gut und schnell, besser als jeder AI-Image-Upscaler.


Danke für die Klarstellungen & Erläuterungen. Muß ich zukünftig besser beachten.

Ätznatron
2020-07-31, 08:28:08
DLSS ist das Konsolenfeature schlechthin ;D
So true.
Kann es nicht bitte auch dahin wandern und auch genau dort bleiben? Pls ;D


Selten waren wir uns so einig wie hier.

Matschfilter zum künstlichen FPS-Verbessern (längerer Balken) braucht wirklich niemand.

Geldmann3
2020-07-31, 08:58:23
Selten waren wir uns so einig wie hier.

Matschfilter zum künstlichen FPS-Verbessern (längerer Balken) braucht wirklich niemand.
DLSS 2.0 sieht in 99% der Szenen besser aus als die native Szene mit einfachen TAA und performt sogar noch viel besser als die ungeglättete, native Szene, wo ist das bitte ein Matschfilter?

Ätznatron
2020-07-31, 09:08:03
DLSS 2.0 sieht in 99% der Szenen besser aus als die native Szene mit einfachen TAA und performt sogar noch viel besser als die ungeglättete, native Szene, wo ist das bitte ein Matschfilter?

Nö.

Ich möchte kein Bild, das künstlich verändert wird. Mir gefällt das Original grundsätzlich immer besser. Und zwar genau so, wie es der Künstler gestaltet hat.

Und schon gar nicht bin ich Freund davon, mir zu schwache Hardware durch Bildverschlimmbesserungen schön zu saufen.

DLSS ist ein Täuschungsmittel!

Geldmann3
2020-07-31, 09:20:59
Nö.

Ich möchte kein Bild, das künstlich verändert wird. Mir gefällt das Original grundsätzlich immer besser. Und zwar genau so, wie es der Künstler gestaltet hat.

Und schon gar nicht bin ich Freund davon, mir zu schwache Hardware durch Bildverschlimmbesserungen schön zu saufen.

DLSS ist ein Täuschungsmittel!

Dann verwendest Du also auch kein TAA? Welches Selbiges macht, nur, dass es alle in den letzten Bildern durch Jitter der Samplingkoordinaten gesammelten Samples in die Samplingauflösung steckt anstatt in eine höhere Bildauflösung. Ich schreib es nochmal, DLSS 2.0 ist anders als DLSS 1.0 kein neuronales Netz mehr, welches Bilddetails dazu erfindet und die Artefakte stammen allesamt von der temporalen Komponente, die so ähnlich generell auch bei TAA auftreten könnten. Meist fehlen einfach Motion-Vektoren. Und dass das neuronale Netz am Ende z.b. Moiré-Artefakte herausfiltert, dagegen wirst Du ja wohl eher nichts haben? Es sei denn, Du willst diese ebenfalls im Bild.

Ätznatron
2020-07-31, 09:31:06
Die dahinter stehende Technik, die Idee dazu , die Kompetenz, das umzusetzen, mag wunderbar elaboriert sein.

Der Makel des nicht-Originalem bleibt trotzdem.

Ist das nun ein Fall für die Geschmackspolizei?

MiamiNice
2020-07-31, 10:06:17
Gibt es überhaupt Menschen die TAA nutzen.
Die haben wohl noch nix von DS gehört. Es muss einfach mehr Rohpower her um durchgehend DS nutzen zu können und mehr VRam.

Ätznatron
2020-07-31, 10:24:00
Es muss einfach mehr Rohpower her um durchgehend DS nutzen zu können und mehr VRam.

Mehr Power und VRAM Kosten viel mehr Geld, als es den Aktionären lieb sein kann.

Es ist ja nicht die Kundenzufriedenheit, die diese Herrschaften umtreibt.

Die Dividende ist's.

In dem Sinne sind doch ein paar (Presse-) gehypte Buzzwords besser, kosten viel weniger, und halten den Börsenkurs hoch.

Geldmann3
2020-07-31, 10:25:38
Ich mache vieles mit DS, spiele beispielsweise gerade GTA IV in 8k DS+SMAA@4k. Doch selbst 8k DS kommt in vielen Fällen einfach nicht an temporale Glättung heran. Für eine nahezu perfekte Darstellung, um jegliches Flickern zu unterdrücken, müssen wir schon auf 16k hinauf. Oder einfach gut implementiertes TAA nutzen...

Nehmen wir mal an ich hätte überall die Rechenleistung für 8k. Dann würde ich dennoch lieber 8k@DLSS@120Hz fahren als 8k@Nativ@60Hz. Ersteres sieht besser aus und performt besser.

Am liebsten wäre es mir natürlich, ALLES nativ in 16k zu rendern. Doch wir leben nicht in einer Fantasiewelt...

Ätznatron
2020-07-31, 10:37:59
Lieber Geldmann3, nimms mir nicht übel, aber...hurra, hurra...

Nehmen wir mal an ich hätte überall die Rechenleistung für 8k. Dann würde ich dennoch lieber 8k@DLSS@120Hz fahren als 8k@Nativ@60Hz. Ersteres sieht besser aus und performt besser.

...die Geschmackspolizei ist da.

Geldmann3
2020-07-31, 10:44:09
Lieber Geldmann3, nimms mir nicht übel, aber...hurra, hurra...



...die Geschmackspolizei ist da.

Erstens habe ich lediglich geschrieben, was ICH für sinnvoll halte, ich schreibe niemanden vor, wie er es tun soll.

Zweitens, kannst Du mir erklären was genau an ,,besserer Bildqualität und besserer Performance" Du für Geschmack hältst? Selbstverständlich gibt es auch Leute, deren Geschmack es ist, lieber in 720p zu zocken... Doch, wir reden ja von Bildqualität, was genau findest Du am nativen Bild geschmacklich besser als am DLSS 2.0 Bild? Erkläre bitte mal genauer. Vielleicht kannst Du mich ja bekehren oder ich Dich, vielleicht gibt es hier ja ein Missverständnis. Eventuell kannst Du auch mal ein Beispiel zeigen. Mir fallen hier nur temporale Artefakte an manchen Stellen ein, die jedoch nur von einer suboptimalen Implementierung, die zu spät im Entwicklungsprozess stattgefunden hat, rühren. Denn an diesen Stellen fehlen dann Motion-Vektoren oder eine Fehlerbehandlung.

Natürlich, am besten ist es einfach immer in 16k zu rendern, da stimme ich zu. Doch ist das realistisch? Haben wir JETZT die Hardware dafür?

Übrigens, im Prinzip ist DLSS 2.0 Supersampling, um das besser verständlich zu machen. Nur, dass die Samples aus mehreren Frames stammen, statt aus einem. Es ist temporales Supersampling. In einem Frame hast Du zwar nur ein Bruchteil der Auflösung, doch es werden ja die Samples aus vielen Frames verwendet.

Ätznatron
2020-07-31, 10:51:41
Jetzt nimms mir doch bitte nicht übel, war nur ein schmaler Gag...;)

Aber Folgendes:

Ich kann es einfach nicht ab, das Algorithmen mir etwas aufbinden, was ohne selbige so nicht
zu sehen wäre.

Ich bin halt Purist ;)

JVC
2020-07-31, 11:54:41
Es muss einfach mehr Rohpower her um durchgehend DS 4K VR und 8K nutzen zu können und mehr VRam.
+1 :up:
(+ nem Anschluss, mit den neuen Funktionen, der Das nach Außen leiten kann. DP 2.0 oder zu mindestens HDMI 2.1)

M.f.G. JVC

Zergra
2020-07-31, 12:01:19
Jetzt nimms mir doch bitte nicht übel, war nur ein schmaler Gag...;)

Aber Folgendes:

Ich kann es einfach nicht ab, das Algorithmen mir etwas aufbinden, was ohne selbige so nicht
zu sehen wäre.

Ich bin halt Purist ;)

Das ist doch Käse. Am Ende ist jedes Bild aus Algorithmen entstanden.

Ätznatron
2020-07-31, 12:09:58
Das ist doch Käse. Am Ende ist jedes Bild aus Algorithmen entstanden.

Wir können es durchaus unterteilen:

In notwendig erforderliche Algorithmen, und in lediglich FPS-beschleunigende.

Lehdro
2020-07-31, 12:48:49
Wir können es durchaus unterteilen:

In notwendig erforderliche Algorithmen, und in lediglich FPS-beschleunigende.
Und noch weiter: Dein "natives" Bild ohne DLSS ist auch nur ein halbgarer Kompromiss aus Rasterrendertricks und vorhandener Rohleistung. :freak:

Ätznatron
2020-07-31, 13:02:13
Und noch weiter: Dein "natives" Bild ohne DLSS ist auch nur ein halbgarer Kompromiss aus Rasterrendertricks und vorhandener Rohleistung. :freak:

Und dann noch DLSS obendrauf?

Geht gar nicht.

Geldmann3
2020-07-31, 13:19:31
Wir können es durchaus unterteilen:

In notwendig erforderliche Algorithmen, und in lediglich FPS-beschleunigende.
Okay, dann sollten wir also auch kein Culling betreiben und somit auch nicht sichtbare Objekte rendern? Denn Culling ist ebenfalls nur FPS-beschleunigend.

Nicht zu vergessen, sollten wir beim Raytracing in Games dann auch kein Denoising verwenden, nein, wir sollten jedes Sample aufwändig berechnen, denn alles andere ist hässliche trickery. Auch wenn es dann vielleicht noch 15 Jahre dauert, bis wir Raytracing wieder performant in Games sehen, auch wenn man keinen Unterschied sieht. Es geht einfach ums Prinzip! :wink:

madshi
2020-07-31, 14:14:03
Weitehin wird DLSS 2.0 oft falsch verstanden, gefühlt sogar im News Artikel hier.
DLSS 2.0 ist KEIN Upscaler mehr.
Und deshalb funktioniert es so gut und schnell, besser als jeder AI-Image-Upscaler.
Gibt's da irgendwo nen Artikel wo die technische Funktionsweise genau erklärt wird (für Devs nicht für User, also sehr technisch)? Würd mich interessieren...

Complicated
2020-07-31, 14:58:54
Naja Culling zeigt gar nichts und taugt als Argument wenig wenn es um Verfälschung des sichtbaren geht.

Geldmann3
2020-07-31, 15:14:59
Gibt's da irgendwo nen Artikel wo die technische Funktionsweise genau erklärt wird (für Devs nicht für User, also sehr technisch)? Würd mich interessieren...
Hier (https://developer.nvidia.com/gtc/2020/video/s22698) musst Du Dich zwar bei Nvidia im Developer-Program anmelden, doch es wird im Video recht detailliert erklärt.

@Complicated
DLSS 2.0 verfälscht das Bild nicht, sondern konstruiert es erst aus den zur Verfügung stehenden Samples. Es ist kein Upscaler, es halluziniert keine Details dazu, wie DLSS 1.0.

MiamiNice
2020-07-31, 15:29:03
Als Online-Gamer will man nichts temporales haben und da gibt es auch keine Diskussion. Die Nachteile überwiegen die Vorteile. Als SP Gamer mag das egal sein. Ich bevorzuge trotzdem absolut gar kein AA (produziert zusätzlich Mouselag + die Nachteile vom temporalem Gedöns wenn eine temporale Komponente vorhanden ist), sondern ausschließlich DS, wenn die Leistung passt. Wenn die Leistung nicht passt, dann ohne DS sprich nativ. Und auch ohne jedwedes AA.

Wen interessiert schon die Bildquali wenn man sich seine Scores kaputt macht? Da gehe ich zwischen den Maps lieber eine Runde raus, da ist die Grafik eh besser XD

Geldmann3
2020-07-31, 15:34:41
Als Online-Gamer will man nichts temporales haben und da gibt es auch keine Diskussion. Die Nachteile überwiegen die Vorteile. Als SP Gamer mag das egal sein. Ich bevorzuge trotzdem absolut gar kein AA (produziert zusätzlich Mouselag), sondern ausschließlich DS, wenn die Leistung passt.

Nun ja, streng genommen ist DLSS 2.0 ja ein Teil der Renderpipeline, kostet höchstens wenige Millisekunden und folglich wirkt sich DS noch schlimmer auf den ,,Input-Lag" aus, denn es erhöht die Renderzeit wesentlich drastischer als DLSS, sodass Du damit länger braucht, um den aktuellen ,,World-State" auf den Bildschirm gezaubert zu bekommen. Gar kein AA und 720p ist natürlich das Beste für einen niedrigen Input-Lag. Du liegst durch DLSS 2.0 übrigens auch keinen einzigen Frame zurück, da es keine Frames vorhält.

Wenn ich competitive spielen würde, würde ich DLSS dennoch nicht zuschalten. Habe die Erfahrung gemacht, dass ich bei 1080p und möglichst hoher Framerate am besten performe. Doch meistens geht es mir beim Zocken nicht um die letzten 0,2% Performance. ^^

madshi
2020-07-31, 15:47:42
Hier (https://developer.nvidia.com/gtc/2020/video/s22698) musst Du Dich zwar bei Nvidia im Developer-Program anmelden, doch es wird im Video recht detailliert erklärt.
Bin ich doch schon längst. Danke!

MiamiNice
2020-07-31, 16:31:56
Wenn ich competitive spielen würde, würde ich DLSS dennoch nicht zuschalten. Habe die Erfahrung gemacht, dass ich bei 1080p und möglichst hoher Framerate am besten performe. Doch meistens geht es mir beim Zocken nicht um die letzten 0,2% Performance. ^^

Ich spiele meist noch mit Grafik auf low ^^
100 min FPS sind in meinem Mitier wesentlich wertvoller als üppige Bildquali.

Complicated
2020-07-31, 17:03:58
@Complicated
DLSS 2.0 verfälscht das Bild nicht, sondern konstruiert es erst aus den zur Verfügung stehenden Samples. Es ist kein Upscaler, es halluziniert keine Details dazu, wie DLSS 1.0.
Das musst du mir nicht erklären - nur das Culling, das du eingebracht hast ist fehl am Platz als Argument zum Thema.

Edit:
Zur Bildqulalität sehe ich die DLSS Diskussion für unnötig an. Das Problem ist Nvidias RT, welches das Bild schon verhunzt in vielen Fällen. Da spielt DLSS schon keine Rolle mehr IMHO. Es gibt einige Beispiele Wo AMDs upscaling+RIS deutlich besser aussieht als Nvidias RT+DLSS.

Geldmann3
2020-07-31, 17:15:14
Das musst du mir nicht erklären - nur das Culling, das du eingebracht hast ist fehl am Platz als Argument zum Thema.

Edit:
Zur Bildqulalität sehe ich die DLSS Diskussion für unnötig an. Das Problem ist Nvidias RT, welches das Bild schon verhunzt in vielen Fällen. Da spielt DLSS schon keine Rolle mehr IMHO. Es gibt einige Beispiele Wo AMDs upscaling+RIS deutlich besser aussieht als Nvidais RT+DLSS.

Zum Thema passend ist es in der Tat nicht optimal, doch Ätznatron meinte ,,Wir können es durchaus unterteilen:

In notwendig erforderliche Algorithmen, und in lediglich FPS-beschleunigende."

Und Culling ist letzteres, genau wie DLSS.

Kannst Du mir ein Spiel zeigen, wo upscaling+RIS DLSS 2.0 schlägt?

Complicated
2020-07-31, 17:20:45
Wir reden aber zentral über Qualität und nicht über beschleunigen. Nur weil es erwähnt wird, muss ich dir jetzt doch nicht erklären was Algorithmen sind oder etwas anderes was beiläufig erwähnt wurde.

Gast
2020-07-31, 17:23:48
Es gibt einige Beispiele Wo AMDs upscaling+RIS deutlich besser aussieht als Nvidias RT+DLSS.

Gibt es nicht, DLSS 2.0 ist 4x4SSAA verteilt auf mehrere Frames, ein reiner Upscaler wie AMD es macht kann da nicht mal ansatzweise mithalten.

DLSS2.0 ist im Prinzip TAA in Perfektion, mit selber oder sogar besserer Glätting aber ohne >90% der Artefakte.

Geldmann3
2020-07-31, 17:24:21
Ich ging davon aus, wir schreiben über das Gesamtthema.

Complicated
2020-07-31, 17:36:11
Mich hatte halt nur das Bildqualitätsthema eben interessiert und ich habe interessiert mitgelesen. Allerdings finde ich, wie erwähnt, hier sollte man über den Vergleich mit RT sprechen bevor man über DLSS für und wieder sprechen kann.

Edit: Dass DLSS nichts verfälscht ist eben nur die halbe Wahrheit wenn das RT zuvor macht und DLSS ohne RT nicht funktioniert.

Geldmann3
2020-07-31, 22:08:46
Mich hatte halt nur das Bildqualitätsthema eben interessiert und ich habe interessiert mitgelesen. Allerdings finde ich, wie erwähnt, hier sollte man über den Vergleich mit RT sprechen bevor man über DLSS für und wieder sprechen kann.

Edit: Dass DLSS nichts verfälscht ist eben nur die halbe Wahrheit wenn das RT zuvor macht und DLSS ohne RT nicht funktioniert.

DLSS funktioniert einwandfrei ohne RT. RT in Verbindung mit DLSS 2.0 ist sogar eines der schwerer zu implementierenden Features, da es sich mit temporalen Denoising beißt und man diesen Pass daher nicht mit DLSS abfrühstücken kann, sondern eine andere, temporale Lösung, die in der Pipeline noch vor DLSS arbeitet, benötigt.

Gast
2020-08-01, 00:45:28
DLSS funktioniert einwandfrei ohne RT. RT in Verbindung mit DLSS 2.0 ist sogar eines der schwerer zu implementierenden Features, da es sich mit temporalen Denoising beißt und man diesen Pass daher nicht mit DLSS abfrühstücken kann, sondern eine andere, temporale Lösung, die in der Pipeline noch vor DLSS arbeitet, benötigt.

DLSS hat mit Raytracing genau gar nichts zu tun die zwei Dinge sind völlig unabhängig.

Und es ist auch nicht irgendwie schwieriger RT mit DLSS zu implementieren oder umgekehrt.

Das einzige was man machen muss ist den Denoiser stärker zu machen, falls man diesen ursprünglich für die Verwendung mit TAA getunt hat, und auf dessen Unschärfe abgestimmt hat. Die Unschärfe fehlt natürlich mit DLSS, aber das ist eine reine Änderung der Konfiguration und nicht schwierig in irgendeiner Form.

Complicated
2020-08-01, 01:19:49
Das war mit neu. Danke für die Info. Mein letzter Stand war RT ist Voraussetzung.

Geldmann3
2020-08-01, 02:07:56
DLSS hat mit Raytracing genau gar nichts zu tun die zwei Dinge sind völlig unabhängig.

Und es ist auch nicht irgendwie schwieriger RT mit DLSS zu implementieren oder umgekehrt.

Das einzige was man machen muss ist den Denoiser stärker zu machen, falls man diesen ursprünglich für die Verwendung mit TAA getunt hat, und auf dessen Unschärfe abgestimmt hat. Die Unschärfe fehlt natürlich mit DLSS, aber das ist eine reine Änderung der Konfiguration und nicht schwierig in irgendeiner Form.
Das ist absolut korrekt, das ist alles, was man tun muss. Hatte ich falsch in Erinnerung.

MasterElwood
2020-08-01, 12:55:44
Die dahinter stehende Technik, die Idee dazu , die Kompetenz, das umzusetzen, mag wunderbar elaboriert sein.

Der Makel des nicht-Originalem bleibt trotzdem.

Ist das nun ein Fall für die Geschmackspolizei?

Wenn du WIRKLICH glaubst dass es bei Raster-Grafik so etwas wie ein "Original" überhaupt gibt - dann hast du Computergrafik nicht einmal im kleinsten Ansatz verstanden. :facepalm:

Bitte betreibe etwas Grundlagenforschung bevor du hier bei Sachen mitredest von denen du offensichtlich keine Ahnung hast.

Geldmann3
2020-08-01, 13:57:25
Wenn wir als Original die 32x gesupersampelte Version eines Spieles als Referenz nehmen, so sind wir mit DLSS 2.0 deutlich näher dran als mit nativer Auflösung. Ich würde sogar behaupten wir sind damit näher an der ,,Wahrheit" als je zuvor.

https://s12.directupload.net/images/200801/msr6ulif.png

Troyan
2020-08-01, 15:07:31
Liegt an der Doktrierung, dass Auflösung der relevante Qualitätsmaßstab ist. Lustigerweise zählt dies bei Raytracing nicht, dort sind "Fakes" und bessere Annäherungen als Alternative akzeptiert.

Wenn man überlegt, dass 1080p mit DLSS ca. 0.9x der Qualität von 4K mit TAA bei 2x+ der Leistung schafft, sollte man native Auflösung wohl eher als "Ultra"-Setting behandeln.

Geldmann3
2020-08-01, 15:17:26
Liegt an der Doktrierung, dass Auflösung der relevante Qualitätsmaßstab ist. Lustigerweise zählt dies bei Raytracing nicht, dort sind "Fakes" und bessere Annäherungen als Alternative akzeptiert.

Wenn man überlegt, dass 1080p mit DLSS ca. 0.9x der Qualität von 4K mit TAA bei 2x+ der Leistung schafft, sollte man native Auflösung wohl eher als "Ultra"-Setting behandeln.

Oder man behandelt QHD mit DLSS als Ultra, was bereits besser aussieht als 4k nativ mit TAA...

Dass die Auflösung der Qualitätsmaßstab ist liegt einfach in der Natur vom Rasterizing... Je höher die Auflösung, desto näher kommt man an die Aufnahme einer realen Kamera heran, denn diese Supersampled quasi immer unendlich. Außerdem verringert man mit steigender Auflösung die unerwünschten Artefakte wie Aliasing, die Rasterizing mit sich bringt. Jedes Photon, welches auf den Kamerasensor trifft, ist quasi ein Sample. (Naja, nicht ganz, aber so in der Art) Das hätte man am liebsten auch in Games, unendliches SSAA. Jedenfalls, wenn eine realitätsnahe Darstellung das Ziel ist. Und ich sehe da generell kaum einen Unterschied beim Raytracing, man geht hier gerade nur mehr Kompromisse ein, weil man keine Wahl hat und man wird dementsprechend auch sehr erfinderisch.

Gast
2020-08-02, 20:43:55
Als proprietäres Sahnehäubchen lehne ich es Prinzip bedingt ab.

Sollte es mal, überall ohne Training oder sonst was, einfach super funktionieren,
dann will ich es auch ^^

Aber da ich mit den Spielen eher Jahre hinterher hinke...
juckt es Mich, so wie RT, noch überhaupt nicht.

M.f.G. JVC

Dann kauf halt AMD, wie DLSS ohne Training gehen soll musst du mir mal erklären.