PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 30. April 2021


Leonidas
2021-05-01, 10:20:59
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-30-april-2021

Olliver
2021-05-01, 11:06:24
Eigentlich bin ich eher überrascht das der RT unterschied so riesig ist und man quasi auf 2080ti Niveau gelandet ist.
AMD kannte die 2080ti Performance und dass sie vor zwei Jahren schon zu gering war
und man konnte ahnen das 3080-3090 deutlich zulegen wird
Außerdem hat AMD 7nm TSMC, Nvidia war damals noch bei 14nm.
Ist dieser Benchmark neutral oder hat Nvidia geholfen?

Raff
2021-05-01, 11:10:32
Steht doch alles im ausführlichen PCGH-Text. :)

MfG
Raff

Olliver
2021-05-01, 11:36:54
"Angesichts der engen Zusammenarbeit mit Nvidia..."
Bench´t du noch, oder liest du schon?
Ja, jetzt habe ich auch gelesen ;-)

Gast Ritis
2021-05-01, 11:58:58
YAUBOEBIODOH - yet another useless benchmark on engine beta implementation optimized on developers own hardware

Wenn neue Benchmarks ausprobiert werden muss immer die erste Frage sein ob das für reale Anwendungen, für die User Geld ausgeben, relevant bzw. übertragbar ist.

Ist es in diesem Fall offensichtlich nicht..

Es wäre doch das mindeste auf die UE5 zu warten um soetwas als Laie mal hinzuklatschen. Dann könnte man zumindest annehmen die Basis ist ordentlich gereift.
Die bisherige UE4 RT Implementierung wurde allein mit/für Nvidia gebaut. Mehr als proof of concept als drangeklebter Afterthought ist das in UE4 wohl kaum. Hier wird scheinbar der BruteForce Ansatz ausgetestet.

Wir sind aber immer noch bei Hybrid Rendering, also RT on top zu Rasterizing. Nur so sind die nächsten Jahre annehmbare Auflösungen möglich, mit den Vorgaben aktueller RT-Konsolen wird da kaum etwas anderes finanziert werden...

Hat jemand eigentlich schon den Digital Foundry RT-Käse vom Metro Exodux Remake gesehen? Auch überwiegend nur statische Lichter in den Szenen die beim original ohne RT oft mehr Stimmung bringen und dramatischer wirken.

Der totale Fail war in der DF-Analyse auf YT zum Schluss das Lagerfeuer mit RT bei dem zwar Ultra-RT mehr Leitsung braucht, am Ende aber eigentlich mit Normal-RT identisch aussieht. ;D

Da wünscht man sich als Käufer des Games doch dass die Entwickler erst gar nicht son Scheiss machen und nur so viel RT-Leistung abverlrangen wie es optisch Sinn macht.

Das ganze Raytracing entwickelt sich genauso zu einem völlig unsinnigen Marekting-Battle wie bei Tesselation.

Es wird ins optisch Irrelevante hochgezogen um die vorherige Gen schlecht aussehen zu lassen. Mit den unsinnigen Benchmarkvergleichen sollen dann die GPUs teuer verkauft werden, wichtig ist der längste Balken. Das ist die Message die beim Noob hängen bleibt.

Ätznatron
2021-05-01, 13:39:45
Die ähnliche Performance von Turing und RDNA2 war dem Interessierten schon lange bekannt.

Ebenfalls die RT-Leistung von Ampere; Futuremarks Port Royal (erschienen 2018 iirc) sei Dank.

Soweit also keine Überraschung, der Neuigkeitswert geht gegen null.

Geldmann3
2021-05-01, 14:11:28
YAUBOEBIODOH - yet another useless benchmark on engine beta implementation optimized on developers own hardware

Wenn neue Benchmarks ausprobiert werden muss immer die erste Frage sein ob das für reale Anwendungen, für die User Geld ausgeben, relevant bzw. übertragbar ist.

Ist es in diesem Fall offensichtlich nicht..

Es wäre doch das mindeste auf die UE5 zu warten um soetwas als Laie mal hinzuklatschen. Dann könnte man zumindest annehmen die Basis ist ordentlich gereift.
Die bisherige UE4 RT Implementierung wurde allein mit/für Nvidia gebaut. Mehr als proof of concept als drangeklebter Afterthought ist das in UE4 wohl kaum. Hier wird scheinbar der BruteForce Ansatz ausgetestet.

Wir sind aber immer noch bei Hybrid Rendering, also RT on top zu Rasterizing. Nur so sind die nächsten Jahre annehmbare Auflösungen möglich, mit den Vorgaben aktueller RT-Konsolen wird da kaum etwas anderes finanziert werden...

Hat jemand eigentlich schon den Digital Foundry RT-Käse vom Metro Exodux Remake gesehen? Auch überwiegend nur statische Lichter in den Szenen die beim original ohne RT oft mehr Stimmung bringen und dramatischer wirken.

Der totale Fail war in der DF-Analyse auf YT zum Schluss das Lagerfeuer mit RT bei dem zwar Ultra-RT mehr Leitsung braucht, am Ende aber eigentlich mit Normal-RT identisch aussieht. ;D

Da wünscht man sich als Käufer des Games doch dass die Entwickler erst gar nicht son Scheiss machen und nur so viel RT-Leistung abverlrangen wie es optisch Sinn macht.

Das ganze Raytracing entwickelt sich genauso zu einem völlig unsinnigen Marekting-Battle wie bei Tesselation.

Es wird ins optisch Irrelevante hochgezogen um die vorherige Gen schlecht aussehen zu lassen. Mit den unsinnigen Benchmarkvergleichen sollen dann die GPUs teuer verkauft werden, wichtig ist der längste Balken. Das ist die Message die beim Noob hängen bleibt.

Oh glaube mir, als Game-Designer denkst Du Dir teilweise genau das Gegenteil, da Ray-Tracing vieles vereinfacht.
Wobei ich mir bei der Digital-Foundry-Analyse hin und wieder auch dachte ,,ähhh, was? Wo ist jetzt der Unterschied? Und das soll wirklich besser aussehen?"

Ja, es ist ein synthetischer Benchmark, genau wie Messungen der Speicherbandbreite zum Beispiel, welche meistens genauso wenig Auswirkungen auf die Praxis haben, sie werden jedoch dennoch gerne durchgeführt, um einen bestimmten Faktor als Bottleneck herauszudestillieren. Manchmal ist man eventuell einfach am aktuellen, technischen Stand interessiert, um daraus tiefergehende Einblicke zu gewinnen und diese auf die Zukunft projizieren zu können. Die Unreal Engine 5 habe ich nicht verwendet, weil es sie noch nicht gibt, ich nehme lieber das, was ich habe und warte nicht auf jenes, was in Zukunft eventuell mal kommen wird. Wer das tut, wartet ewig. Außerdem werde ich das mit diesem Benchmark errungene Wissen (War mein erstes UE-4 Projekt) verwenden, um in Zukunft weitere Projekte zu erstellen. Jedenfalls ist das mein Wunsch. Bei den weit über 150h, welche ich zum Bauen dieses Benchmarks investiert habe, war sicher 33% ,,Lernzeit". Beim nächsten Mal erreiche ich ein ähnliches Ergebnis folglich wesentlich schneller bzw. kann mich an größere Projekte heranwagen. Übrigens wurde das Ganze zwar auf ,,Developers own hardware" gebastelt, doch der Developer ownt immerhin eine 6900XT, eine RTX 3090, einen Intel-Laptop und hat den Benchmark durchaus auf einer ziemlich breiten Masse an Hardware von Freunden getestet. Sicher gibt es noch ein paar Inkompatibilitäten, vermute z.b. mit Ryzen APUs, doch sobald ich davon Wind und Details bekomme werde ich es fixen. Zu guter Letzt wird es mir, wenn die Zeit gekommen ist, eventuell eines Tages möglich sein, den Benchmark auf die UE5 zu portieren, abhängig davon, wie die Kompatibilität meines Projekts, meiner verwendeten C++ Klassen sowie der verwendeten Plugins aussehen wird und ob es mir lohnenswert erscheint.

Gast
2021-05-01, 14:18:28
Relevant ist, was die Konsolen können. Der Rest ist Zuckerguss.

Gethvel
2021-05-01, 14:32:13
Hat jemand eigentlich schon den Digital Foundry RT-Käse vom Metro Exodux Remake gesehen? Auch überwiegend nur statische Lichter in den Szenen die beim original ohne RT oft mehr Stimmung bringen und dramatischer wirken.

Der totale Fail war in der DF-Analyse auf YT zum Schluss das Lagerfeuer mit RT bei dem zwar Ultra-RT mehr Leitsung braucht, am Ende aber eigentlich mit Normal-RT identisch aussieht. ;D

Da wünscht man sich als Käufer des Games doch dass die Entwickler erst gar nicht son Scheiss machen und nur so viel RT-Leistung abverlrangen wie es optisch Sinn macht.

Das ganze Raytracing entwickelt sich genauso zu einem völlig unsinnigen Marekting-Battle wie bei Tesselation.

Es wird ins optisch Irrelevante hochgezogen um die vorherige Gen schlecht aussehen zu lassen. Mit den unsinnigen Benchmarkvergleichen sollen dann die GPUs teuer verkauft werden, wichtig ist der längste Balken. Das ist die Message die beim Noob hängen bleibt.

RT sieht sehr viel realistischer aus, vor allem in der RT enhanced Version von Metro. Kann natürlich sein, dass dir ein künstlicher unrealistischer Stil eher zusagt.:rolleyes:

Ätznatron
2021-05-01, 14:40:59
Ja, es ist ein synthetischer Benchmark, genau wie Messungen der Speicherbandbreite zum Beispiel, welche meistens genauso wenig Auswirkungen auf die Praxis haben, sie werden jedoch dennoch gerne durchgeführt, um einen bestimmten Faktor als Bottleneck herauszudestillieren..

Gut, was nun entnimmst du den Ergebnissen deines Benchmarks?

Oder anders gefragt: Welchen Nutzen hat ein Noob wie ich, wenn das Feld doch schon von anderen (bspw. PR) beackert wird?

Geldmann3
2021-05-01, 14:58:42
Gut, was nun entnimmst du den Ergebnissen deines Benchmarks?

Oder anders gefragt: Welchen Nutzen hat ein Noob wie ich, wenn das Feld doch schon von anderen (bspw. PR) beackert wird?

Wenn Du Dich als Noob betrachtest, hast Du vielleicht gar keinen Nutzen davon. Welcher Benchmark hat schon einen direkten, praktischen Nutzen? Am praktischsten ist es noch immer, wenn Du die Performance während des echten Gameplays analysierst, im Spiel Deiner Wahl. Viele Benchmarks kommen näher an die praktische Performance in aktuellen Spielen, denn der ART-Mark zeigt einen sehr spezifischen Edge-Case. Aber... haben wir solche Benchmarks nicht schon zu Hauf, ist das nicht langweilig? ;D Wenn ich die Performance im Spiel messen will, messe ich in diesem Spiel. Bestimmt habe ich in meinem Leben schon hunderte Stunden nur Benchmarks laufen lassen. haha, irgendwo macht es komischen Leuten wie mir wohl Spaß Hardware zu testen und auf die unterschiedlichsten Weisen an ihre Limits zu bringen.

Doch vielleicht kannst selbst Du aus den Ergebnissen in diesem Benchmark durchaus schließen, wie Spiele mit extremen Raytracing-Einsatz in Zukunft performen werden. Ja, er ist vielleicht nicht optimal auf jede Hardware zugeschnitten und presst nicht jedes, eventuell noch vorhandene Tröpfchen, Performance aus AMD-GPUs heraus, die Tendenz wird jedoch definitiv stimmen. Und nein, Raytracing geht nicht mehr weg, nicht in den Vorzeigetiteln. Für mich ist der Benchmark, wie viele andere Benchmarks, auch ein bisschen ein kleines Kunstwerk und die Performancemessung gibt dem Betrachten dessen immerhin immer wieder einen Sinn. :D

Gast
2021-05-01, 15:30:08
YAUBOEBIODOH - yet another useless benchmark on engine beta implementation optimized on developers own hardware


Die Endanwendersoftware ist auf keine spezielle Hardware "optimiert".

Vereinfacht gesagt, sagt die Software einfach DXR schieße einen Strahl in eine bestimmte Richtung und definiert Shader für closest hit, any hit bzw. no hit, welche die Hardware dann ausführt.

Wie diese auf einer bestimmten Hardware optimial laufen ist nicht Aufgabe der Software sondern des Treibers. In der Software, in dem Fall UE4 gibt es keinen Hardwarespezifischen Code, dieser wird erst vom Grafiktreiber erzeugt, und es ist dessen Aufgabe diesen optimal zu erzeugen.


Wenn neue Benchmarks ausprobiert werden muss immer die erste Frage sein ob das für reale Anwendungen, für die User Geld ausgeben, relevant bzw. übertragbar ist.


Nicht wirklich, man kann auch einen Benchmark rein aus technischem Interesse machen bzw. diesen testen.


Hat jemand eigentlich schon den Digital Foundry RT-Käse vom Metro Exodux Remake gesehen? Auch überwiegend nur statische Lichter in den Szenen die beim original ohne RT oft mehr Stimmung bringen und dramatischer wirken.


Ja und das auf einem 4k OLED und im Gegensatz zu dir nicht mit geschlossenen Augen. Es ist erstaunlich wie viel Fortschritt es in nur 2 Jahren gegeben hat, vor allem vor dem Hintergrund dass auch schon im Orignal die RT-Beleuchtung schon ein extremer Fortschritt gegenüber der konventionellen Beleuchtung war.
Jetzt auf quasi selber Hardware noch mal einen derartigen Fortschritt zu bringen ist schon gigantisch.

Man sieht es wirklich wie es dem Spiel gut tut wenn Leveldesigner keine Rücksicht mehr auf Non-RT Hardware nehmen müssen und sich rein darauf konzentrieren können die Beleuchtung für eine RT-Umsetzung zu erstellen.

Ätznatron
2021-05-01, 15:38:33
@Geldmann3

Die Schwachstelle des Art-Marks ist halt, dass er auf der UE aufsetzt. Aber gut, es gibt ja auch Spiele, denen Ähnliches widerfährt. ;)

Was die Zukunft des Raytracings angeht: Kommt auf dessen Implementierung an. Vermutlich wird sich diese stark an der Leistungsfähigkeit der Konsolen orientieren.

PS: Nichts gegen deine Leistung, während des Einarbeitens in die UE gleichzeitig noch einen Benchmark geschaffen zu haben.

Allen Respekt!

Gast
2021-05-01, 16:06:16
Die Schwachstelle des Art-Marks ist halt, dass er auf der UE aufsetzt. Aber gut, es gibt ja auch Spiele, denen Ähnliches widerfährt. ;)


Ja es ist sicher eine "schwachstelle" wenn man eine der meistverwendetsten Spieleengines für einen Benchmark verwendet. 🤦

Geldmann3
2021-05-01, 16:09:41
@Geldmann3

Die Schwachstelle des Art-Marks ist halt, dass er auf der UE aufsetzt. Aber gut, es gibt ja auch Spiele, denen Ähnliches widerfährt. ;)

Was die Zukunft des Raytracings angeht: Kommt auf dessen Implementierung an. Vermutlich wird sich diese stark an der Leistungsfähigkeit der Konsolen orientieren.

PS: Nichts gegen deine Leistung, während des Einarbeitens in die UE gleichzeitig noch einen Benchmark geschaffen zu haben.

Allen Respekt!

Danke Dir!

Das sehe ich genauso, vermute, dass erst die nächste Konsolengeneration Raytracing richtig auf die Straße bringen wird und bis dahin ist es noch ein weiter Weg.
Denn erst dann können die Entwickler absolut sorgenfrei und umfangreich RT- AO, GI und Reflexionen verwenden, ohne sich sorgen zu müssen, dass sie die Performance in den Boden rammen.

Auf PCs hingegen puh, also ich denke ja darüber nach mit der UE vielleicht mal ein Game zu entwickeln und dann würde ich Non-RT GPUs eventuell wirklich ignorieren, auch, wenn ich es nicht so heavy nutzen würde, wie im Benchmark. Das macht vieles einfacher und pushed die Hardware. :D Sowas habe ich seit Crysis-Zeiten nicht mehr gesehen.

Ätznatron
2021-05-01, 16:23:09
Ja es ist sicher eine "schwachstelle" wenn man eine der meistverwendetsten Spieleengines für einen Benchmark verwendet. ��

Natürlich ist das eine Schwachstelle, was denn sonst?

Man misst nicht die allgemeine Leistungsfähigkeit der Hardware, man misst die Leistungsfähigkeit der UE auf der Hardware.

Gast
2021-05-01, 17:39:41
Man misst nicht die allgemeine Leistungsfähigkeit der Hardware, man misst die Leistungsfähigkeit der UE auf der Hardware.

Die Hardware führt Shader aus, und der ist es völlig egal ob sie die Shader von der Unreal, Unity oder sonst irgendwelchen Engines bekommt.

Ätznatron
2021-05-01, 18:07:27
Die Hardware führt Shader aus, und der ist es völlig egal ob sie die Shader von der Unreal, Unity oder sonst irgendwelchen Engines bekommt.

Vor dem Shader steht immer noch der Renderpfad.

Olliver
2021-05-01, 19:39:11
Momentan sieht es so aus, als würde RT für RDNA 2 und die neue Konsolengeneration eigentlich ausfallen.
Aber warum sollte AMD sagen, mehr als nvidia 2018 können wir auch mit der neuesten Fertigung nicht?

Ich warte noch auf RT in Spielen, an denen AMD wirklich mitgearbeitet hat und sei es für die neuen Konsolen und hoffe auf einen etwas positiveren Eindruck.

Berserkervmax
2021-05-01, 19:46:36
RTX 3090
rund 70FPS
Warum not Valide weiß ich nicht

https://extreme.pcgameshardware.de/threads/raytracing-showcase-getestet-ampere-deklassiert-turing-und-rdna-2-ein-blick-in-die-zukunft.603763/post-10738260
Ist jetzt OK

Treiber Problem

Gast
2021-05-01, 20:12:22
Ich warte noch auf RT in Spielen, an denen AMD wirklich mitgearbeitet hat und sei es für die neuen Konsolen und hoffe auf einen etwas positiveren Eindruck.

Der Eindruck wird "besser" sein, aber nicht weil AMDs Raytracing durch deren Unterstützung so viel schneller wird, sondern weil Spiele die von Konsolen kommen eben viel weniger Raytracing verwenden können und werden.

Geldmann3
2021-05-01, 20:26:17
RTX 3090
rund 70FPS
Warum not Valide weiß ich nicht

https://extreme.pcgameshardware.de/threads/raytracing-showcase-getestet-ampere-deklassiert-turing-und-rdna-2-ein-blick-in-die-zukunft.603763/post-10738260

Zitat von mir auf PCGH: (https://extreme.pcgameshardware.de/threads/raytracing-showcase-getestet-ampere-deklassiert-turing-und-rdna-2-ein-blick-in-die-zukunft.603763/page-4#post-10738269)
Hast Du mal versucht den Benchmark komplett neu zu starten?
Im Hintergrund werden ein paar empfindliche Tests durchgeführt, je nachdem welche Features gerade gerendert werden.
Auch sowas wie der Riva-Tuner-Statistics-Server oder minimal zu starkes OC könnten in wenigen Fällen bereits zu einer Invalidierung führen.
Sollte es in der Regel aber noch nicht, verwende ihn sogar selbst.

Ein Neustart sollte helfen, wenn das passiert.
Also nicht nur zurück ins Menü, sondern ganz raus und wieder rein.
Daran werde ich in Zukunft nochmal arbeiten.

FarCry
2021-05-01, 21:00:49
Relevant ist, was die Konsolen können. Der Rest ist Zuckerguss.

Konsolen? Was war das nochmal genau...? :confused:

Lehdro
2021-05-02, 00:07:13
Konsolen? Was war das nochmal genau...? :confused:
Der niedrigste gemeinsame Nenner in Zukunft. Dafür wird programmiert.

Berserkervmax
2021-05-02, 00:23:13
Zitat von mir auf PCGH: (https://extreme.pcgameshardware.de/threads/raytracing-showcase-getestet-ampere-deklassiert-turing-und-rdna-2-ein-blick-in-die-zukunft.603763/page-4#post-10738269)

Fehler ist gefunden !
Treiber war Rotze ...warum auch immer !

GerryB
2021-05-02, 08:40:25
Momentan sieht es so aus, ....
... als ob Manche überhaupt net informiert sind!?
Wie RT läuft hängt lediglich von der Optimierung ab, und ob die Studios das Whitepaper von AMD beachten "wollen".


Ich warte noch auf RT in Spielen, an denen AMD wirklich mitgearbeitet hat
Google is your Friend.

JVC
2021-05-02, 09:05:08
Der niedrigste gemeinsame Nenner in Zukunft. Dafür wird programmiert.
+1
Ebenso habe ich noch immer kein "Need" auf RT, da ich noch kein RT-Spiel besitze :tongue:

Und auch wenn es mit RT realistischer aussehen sollte....
so sieht es im Moment meist zu künstlich, überzogen, ungewohnt, glänzig... aus.
M.M.

Begeistert bin ich von den Möglichkeiten, aber nicht von der aktuellen Umsetzung und deren Leistungshunger.
Das muss noch wesentlich besser/anpassbarer werden, bevor es mich begeistert.

M.f.G. JVC

Gast
2021-05-02, 15:03:52
... als ob Manche überhaupt net informiert sind!?
Wie RT läuft hängt lediglich von der Optimierung ab, und ob die Studios das Whitepaper von AMD beachten "wollen".



Übersetzt auf Deutsch: Wie RT auf AMD läuft hängt lediglich davon ab, ob RT auch ordentlich eingesetzt wird, oder nur für den Sticker auf der Verpackung.

GerryB
2021-05-02, 17:15:36
Übersetzt auf Deutsch: Wie RT auf AMD läuft hängt lediglich davon ab, ob RT auch ordentlich eingesetzt wird, oder nur für den Sticker auf der Verpackung.

Eine wave32-Optimierung ist deutlich performanter als dumb wave64.
(ob manche Studios die Info/Whitepaper net haben"wollen" ist ne andere ...)

edit:
Heute 60h for free bei Steam die RE-Village Demo:
schaut bei Gurdi@6800XT ganz vernünftig aus(Helligkeit kommt durch HDR so dunkel rüber)
https://extreme.pcgameshardware.de/threads/resident-evil-8-pc-demo-ist-gestartet-frische-4k-screenshots.603865/#post-10739235

Gast
2021-05-03, 08:50:57
Eine wave32-Optimierung ist deutlich performanter als dumb wave64.

Ob ein Shader Wave32 oder Wave64 kompiliert wird entscheidet der Grafiktreiber, und AMD sollte halt schon wissen was am schnellsten funktioniert.

GerryB
2021-05-03, 10:51:56
Das klang für mich aber ganz Anders:...eher nach Treiber+Mitwirkung der DEV´s, die auch mitziehen müssen
https://twitter.com/JirayD/status/1369203058589249536
https://www.youtube.com/watch?v=NchGcb7V6zU

Gast
2021-05-03, 11:43:36
Das klang für mich aber ganz Anders:...eher nach Treiber+Mitwirkung der DEV´s, die auch mitziehen müssen
https://twitter.com/JirayD/status/1369203058589249536
https://www.youtube.com/watch?v=NchGcb7V6zU

Der Tweet ist leider nicht ganz vollständig.

https://i.imgur.com/H3P1kHd.png

Und so nebenbei:

https://i.imgur.com/fqXTA61.png

Kurz gesagt:
Es gibt für die DEVs keine Möglichkeit Wave32 oder Wave64 zu bevorzugen.
Er hat den Shader leicht verändert, was den Grafiktreiber dazu veranlasst hat diesen in Wave32 zu kompilieren anstatt Wave64 zu verändern, und dabei die Performancesteigerungen beobachtet.
Das kann und darf aber nicht die Aufgabe der Entwickler sein, du kannst nicht für alle mögliche Hardware die Shader irgendwie anders anordnen nur damit der Treiber dann denn optimalen Code daraus baut. Nebenbei ist man als Softwareentwickler hier weitestgehend in einer Blackbox unterwegs, da die genaue interne Funktionalität der Hardware von AMD und Nvidia gar nicht öffentlich bekannt ist, und solche "Optimierungen" sind einfach ein try&error Ergebnis, keine gezielte Optimierung weil man weiß Hardware X arbeitet so, also muss ich sie so optimal ansprechen.

Und die späteren Nachrichten zeigen auch, dass AMD genau das gemacht hat, offenbar bauen die neuen Treiber immer/bevorzugt Wave32 Shader, und seine "Optimierung" hat keine Auswirkung mehr.

Übrigens verwendet Nvidia schon seit Ewigkeiten Warp32 (Warp ist das NV Äquivalent von Wave), und es gibt auf NV-Hardware keine 64er Option. Falls es tatsächlich irgendwelche Dinge geben würde die Software im High-Level machen kann um optimal in 32er Paketen verarbeitet zu werden, dann ist "NV-Optimiert" automatisch gleichzeitig auch "RDNA2-Optimiert", lediglich für ältere AMD-Hardware würde es dann schlechter aussehen.

GerryB
2021-05-03, 12:50:18
Danke für die Info!

Würde mich mal interessieren, Was in CP2077 dann schiefgelaufen ist, um die zusätzliche 20...25% Differenz
zu Normal zu erklären.

edit:
Ampere soll aber gut wave64 können, also nix mehr mit warp32 auf der Enterprise.
Man könnte denken, das NV in Game XYZ net mehr komilieren muss, in Echtzeit inGame,
aber AMD diese fps-kostenträchtige Mehrarbeit braucht, falls denn überhaupt so einfach von 64 zu 32.
(meist sehr hohe W bei Leerlauf deuten eher auf 64 hin)

Denniss
2021-05-03, 13:40:00
Wenn man sich mit NV ins Bett legt bleibt halt kaum Platz für andere.
Das Verhalten kennt man ja schon von Hairworks und anderen "genialen" Erfindungen von NV

Gast
2021-05-03, 13:57:39
Das Verhalten kennt man ja schon von Hairworks und anderen "genialen" Erfindungen von NV

Also ich finde das Hairworks von NV ist schon sehr viel schöner als das TressFX von AMD.

GerryB
2021-05-03, 18:02:52
TressFX sieht kaum Anders aus und kostet deutlich weniger Fps.
evtl.
Kann man in einigen Games auch noch zusätzlich zw.HBAO und HDAO wählen.(oder neu CACAO in Fidelity FX)

Gast
2021-05-03, 19:41:46
TressFX sieht kaum Anders aus und kostet deutlich weniger Fps.

Ja es kostet mehr FPS, aber es schaut auch extrem viel besser aus:
https://www.pcgameshardware.de/The-Witcher-3-Spiel-38488/News/Mod-Hairworks-nur-Tiere-Monster-1161346/galerie/2375296/?fullsize

GerryB
2021-05-03, 23:15:09
Wenn man alle kleinen extra-Features von NV mal summiert und den Overhead für DX12 dazunimmt
landet man am Ende bei GPU+CPU+NT+Gehäuse+Lüfter ne Nr. größer.

Muss Jeder selber wissen, was man braucht. Und wieviel Abwärme im kleinen Spielzimmer/Homeoffice erträglich ist.

GerryB
2021-05-03, 23:49:54
ne Nr. größer.(x)
Muss Jeder selber wissen, was man braucht.

(x) statt der 3080 dann die Ti:
https://videocardz.com/newz/gigabyte-and-msi-geforce-rtx-3080-ti-custom-cards-listed-by-new-zeland-and-australian-retailers
(die Eagle@UVP>>3090FE!)

Gast
2021-05-04, 15:13:05
(x) statt der 3080 dann die Ti:
https://videocardz.com/newz/gigabyte-and-msi-geforce-rtx-3080-ti-custom-cards-listed-by-new-zeland-and-australian-retailers
(die Eagle@UVP>>3090FE!)

1300$ schon vor dem Launch gelistet. Das hört sich auf dem aktuellen Markt sogar überraschend gut an, wenn die dann auch wirklich geliefert wird.