PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: AMDs "Navi 21 XT" tritt mit um die 2400 MHz Game-Clock an


Leonidas
2020-10-18, 05:48:26
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-amds-navi-21-xt-tritt-mit-um-die-2400-mhz-game-clock

Platos
2020-10-18, 08:49:14
Hört sich gut an, allerdings sollte man sich preislich nichts erwarten. Die Karte wird höchst wahrscheinlich teurer wie eine 3080 10GB sein (nicht gleich teuer)und günstiger wie eine 3080 20GB.

Zu RT sind noch keine sicheren Werte bekannt (Tests abwarten) und DLSS gibts mit Sicherheit auch nicht. Eigentlich müssten sie die 16GB Version daher ja gleichteuer wie die 10GB 3080 ansetzen.

nagus
2020-10-18, 09:12:02
SEHR konservative Schätzung! Ihr geht somit davon aus, dass von RDNA1 auf RDNA2 0 IPC Verbesserung passiert? Das ist mit Sicherheit nicht der Fall!

Zum Vergleich: Radeon VII hatte über 13TFlops FP32 und Navi 10 knapp unter 10. Trotzdem sind die beiden Karten fast gleich schnell im Performance Index.

Ich würde eher davon ausgehen, dass die XT Variante ca. 25Tflop FP32 bringt und keine 21! Somit wird die 6800XT - meiner Meinung nach - mit der 3080 locker anlegen können und die XTX die 3090er erwischen.

Navi 10 hat 10Tflops FP32 mit 40 CUs und ca. 1800 Game clock. mit 80CUs sind wir schon bei 20Tflop. Dann noch +25% Takt drauf = 25Tflop. Rechnen wir noch eine gesunden IPC Steigerung dazu, sind geht sich das LOCKER aus, auch wenn die XT nur 72CUs hat. Wie ihr auf die 21TFlop kommt, ist mir wirklich schleierhaft.

cat
2020-10-18, 09:19:43
Das hier ist vom 26. September 2020
https://www.reddit.com/r/Amd/comments/j06xcd/number_of_cus_of_navi_23_navi_31_van_gogh_cezanne/?utm_source=share&utm_medium=web2x&context=3
und dort ging der freq table für die Navi22 schon bis 2500 MHz, also sind die 2400MHz für den fetten Chip für mich jetzt wenig verwunderlich, wie AMD das mt dem Powerlimit vereinbaren wird und wie die realen in Game Clocks von Game zu Game aussehen werden spannt mich schon sehr auf die Folter ;)

Peak 25,6 TFLOPs sind möglich falls alle Spekulationen stimmen, die Tragweite der weitern Verbesserungen sind aktuell nicht abzuschätzen, allerdings hoffe ich, dass AMD viel Fokus auf RDNA next-Gen gelegt hat, weil sich CDNA bisher nicht in kaufbarer Form zeigt. Außerdem hat AMD nach den frühen Relativierungen der Compute-Performance was RDNA angeht, dann kurz nach dem Launch eher eine 180° Wende gemacht und ab da die Compute-Performance und gute Nutzbarkeit und Programmierbarkeit von RDNA gelobt.
Fast schon alsob die AMD-internen brute Compute-Performance GCN-Liebhaber nach dem RDNA-Launch ihre Stimme verloren haben und jetzt endlich verstanden wurde, dass ohne Effizienz nur eine Heizplatte aber keine moderne GPU entsteht.

Gethvel
2020-10-18, 11:25:45
Bin auf die Raytracing-Leistung und den Performance-Vergleich gespannt wenn Nvidias DLSS aktiviert ist bzw. was AMDs Alternative zu DLSS ist. Gäbe für mich keinen Grund eine neue Radeon zu kaufen, wenn die in den Bereichen nicht punkten kann.

iamthebear
2020-10-18, 11:49:23
Gerade Spiele mit RT unterstützen so gut wie immer auch DLSS und bei steigendem Rechenaufwand pro Pixel wird der Vorteil von DLSS immer höher.

hq-hq
2020-10-18, 11:50:57
hoffe NVidia arbeitet schon fleissig am Ampere Refresh:biggrin:

Iscaran
2020-10-18, 11:58:29
...nicht mehr so drastisch weit weg von der GeForce RTX 3080 mit ihren 29,8 TFlops, welche jene jedoch Schwierigkeiten hat "auf die Schiene zu bringen".


Das Problem ist, dass man bei den 3xxx Karten nicht mehr auf die Peak-FP32 Leistung schauen kann. Diese würde nur erreicht werden wenn die Shader 0 INT-Last abarbeiten müssen. In der Praxis ist dies aber abgesehen von ein paar wenigen spezialfällen in "normalen" Gaming Workloads nicht machbar.

Viel sinnvoller wäre es daher "Spannweite" der FP32-Leistung anzugeben. Ausgehend vom Extremwert, wenn die Ampere Karte ihre Shader NUR in der gemischten Form nutzt und 64 FP32 + 64 Int Operationen ausführt. Und eben bis zum Maximum wenn die Ampere karten im FP32 only modus fährt, in welchem Sie dann diese 29.8 TFlops erreicht.

Das wären dann also "Worst Case" 100% "Mixed Operation" 14.9 TFlops und eben "Best Case" 29.8 TFlops wenn nur Float Operation gemacht wird.

Die Realität liegt sozusagen bei der Architektur buchstäblich irgendo dazwischen.

Und wenn man sich das mal realisiert und vor Augen hält - dann versteht man wieso AMDs Architektur welche IMMER 100% MIXED operation output liefern kann mit >21 TFLops gar nicht mal so schlecht dasteht.

Vergesst endlich mal diese "Peak-FP" Leistung bei Ampere, die ist nur Augenwischerei.

etp_inxession
2020-10-18, 11:59:23
Ich bin sehr gespannt.

> Fractal Design - Define 7
> Corsair 850 Watt NT
> B550 Aorus Elite
> 2x 32 GB Patriot Viper 3600
> Crucial P1 - 1 TB
> NZXT Kraken N53

- Ryzen 9 - 5800 X / 5900 X / 5950 X ???
- Radeon RX 6x00 12 / 16 GB ???

Überrascht uns positiv @AMD

konkretor
2020-10-18, 12:37:02
https://twitter.com/vissim2/status/1317773856241717250?s=20

Beste Tweet heute :-)

Leonidas
2020-10-18, 12:49:07
Also die bei Chiphell liegen auf jeden Fall falsch ... Navi 22 hat max 40 CU, damit sind keine 3584 SP möglich.

why_me
2020-10-18, 13:46:02
Ist schon möglich, 96 SP pro CU, auch wenn es sehr unwahrscheinlich ist.

Leonidas
2020-10-18, 14:33:34
Eine so gravierende Architektur-Änderung setzt man nicht nur bei einem Chip, sondern der kompletten Serie um. Außerdem passt das ganze nicht zu diversen Datenpfaden etc. 64 oder 128 - aber keine 96.

Geldmann3
2020-10-18, 16:12:01
Gedankenspiel

Nehmen wir die 2080 Ti bei 100% Performance
dann liegt die 5700XT bei 68%.

Die 5700XT hat nur 40 CUs.

Optimistisch können wir das Ganze stupide mal 2 nehmen, weil Big Navi doppelt so viele CUs hat, dann kommen wir bereits auf 136% und liegen damit 4% über der RTX 3080.
Jetzt haben wir aber auch noch 36% mehr Takt. Womit wir hypothetisch bei 184% liegen.
Und damit bereits 31% über der RTX 3090.
Doch wir haben ja auch noch angeblich einen IPC increase.
Wo wir dann weeeeit über der 3090 landen...

Natürlich ist das eine extreme Milchmädchenrechnung.
Aber Takt, skaliert eigentlich, wenn man sonst kein Bottleneck hat, ganz gut.

CUs sollten ebenfalls ganz gut skalieren, wenn auch längst nicht linear, doch wesentlich besser als von Nvidias 2000er zur 3000er Serie.
Denn da wurde in meinen Augen nur ein Teil des Cores verdoppelt, mir egal wie Nvidia es nennt.
Aus 100% mehr CUs sollten wir schon mindestens 25% mehr Performance herauskriegen.

Jetzt also nochmal pessimistisch. Sagen wir +20% auf die 5700XT für den Mehrtakt, +25% für die 100% mehr CUs. (Sehr konservativ.) und +15% IPC, wenn AMD von +50% Effizienz spricht, muss das ja ebenfalls irgendwo herkommen.
Dann sind wir bei. 117%, also genau zwischen der 2080 Ti und der 3080.

Ich denke daher eine realistische Range ist irgendwo zwischen 2080 Ti +10% und 3090 +10%. Nehmen wir davon genau die Mitte, sind wir 6% unter der 3080.

Mein Gefühl sagt mir übrigens seit einigen Monaten RTX 2080 Ti +40%, womit wir dann knapp unter der 3090 herauskommen würden.
Denn der Name sagt es eigentlich schon Navi2x, 5700XT x2, das ist das Ziel.

Es bleibt spannend.

Gethvel
2020-10-18, 17:43:06
Gedankenspiel

...

Mein Gefühl sagt mir übrigens seit einigen Monaten RTX 2080 Ti +40%, womit wir dann knapp unter der 3090 herauskommen würden.
Denn der Name sagt es eigentlich schon Navi2x, 5700XT x2, das ist das Ziel.

Es bleibt spannend.

Dann aktiviert man bei der Nvidia DLSS und die AMD hat dann einfach keine Chance mehr. AMD kann so gerade mithalten, mit DLSS und Raytracing wird Nvidia dann halt ca. 40% schneller bleiben.
Momentan noch nicht so wild, in 1-2 Jahren dürften die meisten Blockbuster Games aber DLSS und Raytracing verwenden. Dürfte wohl allein schon mit Cyberpunk 2077 zum Problem werden, wenn AMD da alt aussieht.

Gast
2020-10-18, 18:16:42
Das Problem ist, dass man bei den 3xxx Karten nicht mehr auf die Peak-FP32 Leistung schauen kann. Diese würde nur erreicht werden wenn die Shader 0 INT-Last abarbeiten müssen. In der Praxis ist dies aber abgesehen von ein paar wenigen spezialfällen in "normalen" Gaming Workloads nicht machbar.


Das gilt für andere Architekturen mit der Ausnahme von Turing genau so.


Viel sinnvoller wäre es daher "Spannweite" der FP32-Leistung anzugeben. Ausgehend vom Extremwert, wenn die Ampere Karte ihre Shader NUR in der gemischten Form nutzt und 64 FP32 + 64 Int Operationen ausführt. Und eben bis zum Maximum wenn die Ampere karten im FP32 only modus fährt, in welchem Sie dann diese 29.8 TFlops erreicht.


Genau genommen müsste man diese Spannweite bei Turing angeben.

Ampere kann immer ~30 TOPs liefern, so lange das Verhältnis INT zu FP im Bereich 0:1 bis 2:1 liegen.

Erst wenn mehr INTs wie FPs anliegen kann man nicht mehr die volle Leistung liefern.

Bei den meisten anderen Architekturen verhält es sich ähnlich, lediglich der maximale INT Durchsatz im Verhältnis zu FP ist teilweise unterschiedlich, allerdings in der Regel in einem nicht relevanten Bereich so lange wir wesentlich mehr FPOps als INTOps benötigen, was beim Gaming immer der Fall ist.

Der einzig echte Ausreißer ist Turing.
Am Beispiel einer 2080Ti kann dieser eben zwischen 13,5 und 27TOPs liefern. Den Peak kann Turing aber nur bei einem INT:FP Verhältnis von 1:1 erreichen.


Das wären dann also "Worst Case" 100% "Mixed Operation" 14.9 TFlops und eben "Best Case" 29.8 TFlops wenn nur Float Operation gemacht wird.


Stimmt zwar, unterschlägt aber, dass jede andere GPU auch die INTOPs berechnen muss und davon Ressourcen benötigt werden. Lediglich bei Turing waren die INTOps bis zu einem gewissen Grad "for free".

Gast
2020-10-18, 18:27:35
Gedankenspiel

Nehmen wir die 2080 Ti bei 100% Performance
dann liegt die 5700XT bei 68%.

Die 5700XT hat nur 40 CUs.

Optimistisch können wir das Ganze stupide mal 2 nehmen, weil Big Navi doppelt so viele CUs hat, dann kommen wir bereits auf 136% und liegen damit 4% über der RTX 3080.
Jetzt haben wir aber auch noch 36% mehr Takt. Womit wir hypothetisch bei 184% liegen.
Und damit bereits 31% über der RTX 3090.
Doch wir haben ja auch noch angeblich einen IPC increase.
Wo wir dann weeeeit über der 3090 landen...
...


Die Rechnung ergibt schon Sinn, ein Stückweit zumindest.
Ich würde ja aus dem Lachen nicht mehr herauskommen, wenn Lisa bei der klitzekleinen Vorstellung am 08.10. "nur" Navi 22 gezeigt hätte und die dicke 21-Katze erst am 28.10. aus dem Sack lässt, wo dann die 3090 geschreddert wird. Soviel kann AMD in den nächsten Monaten gar nicht liefern, wie dann nach Navi-21-Karten gekauft würden...

Denniss
2020-10-18, 19:08:34
Dann aktiviert man bei der Nvidia DLSS und die AMD hat dann einfach keine Chance mehr. AMD kann so gerade mithalten, mit DLSS und Raytracing wird Nvidia dann halt ca. 40% schneller bleiben.
Momentan noch nicht so wild, in 1-2 Jahren dürften die meisten Blockbuster Games aber DLSS und Raytracing verwenden. Dürfte wohl allein schon mit Cyberpunk 2077 zum Problem werden, wenn AMD da alt aussieht.Träume sind was schönes gell?

Gast
2020-10-18, 20:02:58
Was ist eigentlich mit Radeon Image Sharpening?
Dachte, dass es zu zumindest gegenüber DLSS 1.0 ebenbürtig/überlegen wäre.

iamthebear
2020-10-18, 20:47:25
Gedankenspiel

Nehmen wir die 2080 Ti bei 100% Performance
dann liegt die 5700XT bei 68%.

Die 5700XT hat nur 40 CUs.

Optimistisch können wir das Ganze stupide mal 2 nehmen, weil Big Navi doppelt so viele CUs hat, dann kommen wir bereits auf 136% und liegen damit 4% über der RTX 3080.
Jetzt haben wir aber auch noch 36% mehr Takt. Womit wir hypothetisch bei 184% liegen.
Und damit bereits 31% über der RTX 3090.
Doch wir haben ja auch noch angeblich einen IPC increase.
Wo wir dann weeeeit über der 3090 landen...

Natürlich ist das eine extreme Milchmädchenrechnung.
Aber Takt, skaliert eigentlich, wenn man sonst kein Bottleneck hat, ganz gut.

CUs sollten ebenfalls ganz gut skalieren, wenn auch längst nicht linear, doch wesentlich besser als von Nvidias 2000er zur 3000er Serie.
Denn da wurde in meinen Augen nur ein Teil des Cores verdoppelt, mir egal wie Nvidia es nennt.
Aus 100% mehr CUs sollten wir schon mindestens 25% mehr Performance herauskriegen.

Jetzt also nochmal pessimistisch. Sagen wir +20% auf die 5700XT für den Mehrtakt, +25% für die 100% mehr CUs. (Sehr konservativ.) und +15% IPC, wenn AMD von +50% Effizienz spricht, muss das ja ebenfalls irgendwo herkommen.
Dann sind wir bei. 117%, also genau zwischen der 2080 Ti und der 3080.

Ich denke daher eine realistische Range ist irgendwo zwischen 2080 Ti +10% und 3090 +10%. Nehmen wir davon genau die Mitte, sind wir 6% unter der 3080.

Mein Gefühl sagt mir übrigens seit einigen Monaten RTX 2080 Ti +40%, womit wir dann knapp unter der 3090 herauskommen würden.
Denn der Name sagt es eigentlich schon Navi2x, 5700XT x2, das ist das Ziel.

Es bleibt spannend.

Ich glaube du siehst das etwas zu optimistisch:
Die 2070 Super liegt ca. 10% über der 5700XT
Die 2080 Ti hat 50% mehr Einheiten als die 2070 Super
Die 3080 hat 50% mehr Einheiten als die 3070 die auf 2080 Ti Niveau ist
Somit sind wir grob auf Faktor 2.5x der 5700XT

Die 3080 hat aber auch eine massiv erhöhte Speicherbandbreite während Big Navi immer noch bei 256 Bit GDDR6 herumgammelt. Der Infinity Cache mag vielleicht etwas davon auffangen aber bei Weitem nicht alles.

Kann sein, dass es eine IPC Erhöhung gibt, kann aber auch genauso sein, dass diese gesenkt wurde, um dafür mehr Takt und mehr CUs zu erreichen. Das ist keine CPU, wo auf Single Core Leistung viel wert gelegt werden würde solange das Gesamtergebnis stimmt.

Und dann vergleichen wir immer noch die Leistung ohne DLSS. Die Tensor Cores der 3080 sind bis ca. 100-120 fps bei 4K ausgelegt. Bis dahin hat man mit der 3080 fast 1440p Leistung mit 4K Qualität.

Gast Ritis
2020-10-18, 21:17:44
Kein Grund zum voreiligen Optimismus

bei WCCFtech war die Tabelle dass der Base Clock im Vergleich zur Navi1 sich kaum ändert, der Game Clock auch 300MHz unter dem Peak Clock liegt. Am Ende werden nur mit Wasser gekühlte GPUs die Performance stabil hoch halten.

www.wccftech.com/amd-radeon-rx-6000-navi-21-xt-navi-21-xl-big-navi-gpu-clocks-reportedly-up-to-2-4-2-2-ghz/

Von daher abwarten bis die Reviews reinkommen. Wenns schlecht läuft erst spät im November...

Gast
2020-10-18, 22:40:28
Was ist eigentlich mit Radeon Image Sharpening?
Dachte, dass es zu zumindest gegenüber DLSS 1.0 ebenbürtig/überlegen wäre.

Radeon Image Sharpening war niemals ansatzweise mit DLSS vergleichbar, auch nicht mit DLSS 1.0.

Du kannst RIS dazu verwenden um dem Weichzeichnen durch TAA etwas entgegen zu wirken.

Das Problem mit RIS ist, dass es ein reiner Scharfzeichnungsfilter ist. Damit hebt er zwar Detail hervor aber auch Artefakte. Wenn du also wie bei DLSS die Auflösung verringerst um auf mehr Performance zu kommen, bekommst du auch viel mehr Artefakte, insbesondere flimmern, was viel störender als Unschärfe ist.

Schon DLSS 1.0 war praktisch Artefaktfrei, die Schärfe konnte aber je nach Umsetzung nicht mit nativer Auflösung mithalten.

Übrigens hat Nvidia auf RIS einen quasi gleichwertigen Scharfzeichnungsfilter nachgelegt.

Nazar
2020-10-18, 22:42:55
Dann aktiviert man bei der Nvidia DLSS und die AMD hat dann einfach keine Chance mehr. AMD kann so gerade mithalten, mit DLSS und Raytracing wird Nvidia dann halt ca. 40% schneller bleiben.
Momentan noch nicht so wild, in 1-2 Jahren dürften die meisten Blockbuster Games aber DLSS und Raytracing verwenden. Dürfte wohl allein schon mit Cyberpunk 2077 zum Problem werden, wenn AMD da alt aussieht.

Kannst du mir zeigen wo ich in all meinen Spielen DLSS aktivieren kann (DCS, TWIII, Borderlands 3, DOOM die Serie, etc.)? Ich bin da irgendwie zu doof zu? :rolleyes:

Gast
2020-10-18, 22:48:43
Natürlich ist das eine extreme Milchmädchenrechnung.
Aber Takt, skaliert eigentlich, wenn man sonst kein Bottleneck hat, ganz gut.



Genau das ist das Problem bei dieser Mildmädchenrechnung. Karten mit mehr als 2080Ti Performance zeigen in durchaus einer überschaubaren Anzahl an Spielen schon eine teilweise CPU-Limitierung und können damit die vorhandene Mehrperformance nicht mehr vollständig in FPS zeigen.

Egal wie schnell nun Navi2x wird, wird er in das selbe Problem rennen, und damit in einer Durchschnittsbildung nicht den Vorsprung vor der 5700XT haben, den die Rohperformance eigentlich liefern könnte.

Gethvel
2020-10-18, 23:18:50
Träume sind was schönes gell?
Cyberpunk 2077 kommt tatsächlich im November und verwendet Raytracing und DLSS. Dürfte eines der wichtigsten Spiele dieses Jahrzehnts werden. Gamer werden ganz besonders darauf achten bei diesem Game die beste Bildqualität und Performance zu bekommen. Sieht schlecht aus für AMD. Weiß jetzt nicht was daran unrealistisch ist.

Gethvel
2020-10-18, 23:23:17
Kannst du mir zeigen wo ich in all meinen Spielen DLSS aktivieren kann (DCS, TWIII, Borderlands 3, DOOM die Serie, etc.)? Ich bin da irgendwie zu doof zu? :rolleyes:

Warum willst du das machen? :confused: Gibt es nur bei neueren Games.

Gastein
2020-10-19, 00:45:06
Warum willst du das machen? :confused: Gibt es nur bei neueren Games.

Eben deswegen. DLSS1 war - so die einhellige Meinung auch der Reviewer - nicht zu gebrauchen. Da war AMDs Image Sharpening besser weg gekommen. Und das geht bei jedem Titel. Artefakte sind zu vernachlässigen wenn man nicht gleich auf 4-fache Auflösung hochrechnet.

DLSS hat einen (1) guten Referenz-Titel, Death Stranding.
Ansonsten muss man immer noch warten ob, wann und wie es je Titel implementiert wird. So what... just works - if you wait long enough

Cyberpunk 2077?
Völlig überbewerteter Hypetrain. Ist auch nur ein GTA mit Cyborg Setting.
Nicht alle Gamer zocken GTAs und das nächste originale GTA ist nicht so lange hin - von wegen Jahrzehnt...
Kommt jetzt auch mit massiv Verspätung und nachgebessert weil die Grafik zum geplanten Launch nicht gut war, wahrscheinlich war das Observer Remake Observer System Redux grafisch besser und man wollte sich die Peinlichkeit nicht geben.

Gast
2020-10-19, 02:08:18
Cyberpunk 2077 kommt tatsächlich im November und verwendet Raytracing und DLSS. Dürfte eines der wichtigsten Spiele dieses Jahrzehnts werden. Gamer werden ganz besonders darauf achten bei diesem Game die beste Bildqualität und Performance zu bekommen. Sieht schlecht aus für AMD. Weiß jetzt nicht was daran unrealistisch ist.
Das Spiel wird man schnell weider vergessen haben. Von wegen wichtiges Spiel des Jahrzehnts. Da werden ganz andere Kaliber kommen.

Gast
2020-10-19, 07:42:25
Cyberpunk 2077 kommt tatsächlich im November und verwendet Raytracing und DLSS. Dürfte eines der wichtigsten Spiele dieses Jahrzehnts werden. Gamer werden ganz besonders darauf achten bei diesem Game die beste Bildqualität und Performance zu bekommen. Sieht schlecht aus für AMD. Weiß jetzt nicht was daran unrealistisch ist.
Das ist ja schön für dich, mich interessiert das Spiel überhaupt nicht, weil man viel zu viel Tamtam darum macht. Das Ding kann nur enttäuschen.

Und deine Behauptung, dass NVidia in RT deutlich schneller als AMD ist, kann man aktuell nicht überprüfen, weil man gar nicht weiß, wie schnell Navi 2x in RT ist. Das Thema DLSS ist auch ein zweischneidiges Schwert. Auf den Konsolen wird es wohl etwas ähnliches geben, entsprechend dürfte MS wohl eine eigene Lösung für DX12 anbieten. Da diese dann Herstellerübergreifend funktionieren wird, wird DLSS ein ähnliches Dasein wie GPU PhysX fristen. Entsprechend sieht es vielleicht aus deiner Sicht für AMD schlecht aus, aber andere "Gamer" empfinden das vielleicht anders.

Iscaran
2020-10-19, 10:25:08
Warum willst du das machen? :confused: Gibt es nur bei neueren Games.

RIS funktioniert bei jedem DX12 fähigen Spiel (und kommt evtl. sogar noch für DX11 ?).

DLSS funktioniert nur bei an einer Hand abzählbaren Spielen die nVidia gefallen.

EDIT: https://www.techspot.com/article/1873-radeon-image-sharpening-vs-nvidia-dlss/
Und:
https://www.reddit.com/r/Amd/comments/hri67n/death_stranding_dlss_20_vs_native_vs_fidelityfx/

Und nicht zu vergesen AMDs FidelityFX läuft sogar auf nVidia-Karten ganz ohne Tensor Cores und kostet sogar weniger Leistung:
https://www.hardwareluxx.de/index.php/artikel/software/spiele/53616-death-stranding-mit-dlss-2-0-und-fidelityfx-cas-im-leistungstest.html?start=1

Also ja - wozu sollte ich DLSS 2.0 haben wollen, wenn ich eine frei-Zugängliche Version die +- dasselbe Leistet haben kann ?

Geldmann3
2020-10-19, 12:05:21
Die Rechnung ergibt schon Sinn, ein Stückweit zumindest.
Ich würde ja aus dem Lachen nicht mehr herauskommen, wenn Lisa bei der klitzekleinen Vorstellung am 08.10. "nur" Navi 22 gezeigt hätte und die dicke 21-Katze erst am 28.10. aus dem Sack lässt, wo dann die 3090 geschreddert wird. Soviel kann AMD in den nächsten Monaten gar nicht liefern, wie dann nach Navi-21-Karten gekauft würden...

;D Ich glaube ja auch nicht dran, aber wenn AMD die 3090 in rasterization performance schlagen sollte, würde ich ebenfalls nicht mehr als dem Lachen herauskommen.

Ich glaube du siehst das etwas zu optimistisch:
Die 2070 Super liegt ca. 10% über der 5700XT
Die 2080 Ti hat 50% mehr Einheiten als die 2070 Super
Die 3080 hat 50% mehr Einheiten als die 3070 die auf 2080 Ti Niveau ist
Somit sind wir grob auf Faktor 2.5x der 5700XT

Du hast natürlich Recht.

Dann aktiviert man bei der Nvidia DLSS und die AMD hat dann einfach keine Chance mehr. AMD kann so gerade mithalten, mit DLSS und Raytracing wird Nvidia dann halt ca. 40% schneller bleiben.
Momentan noch nicht so wild, in 1-2 Jahren dürften die meisten Blockbuster Games aber DLSS und Raytracing verwenden. Dürfte wohl allein schon mit Cyberpunk 2077 zum Problem werden, wenn AMD da alt aussieht.
Ich bin mir ziemlich sicher, dass AMD sich in den nächsten 1-2 Jahren darum kümmern wird, Nvidia in diesen Punkten nicht mehr nachzustehen. AMD soll das Problem DLSS bereits erkannt haben und angeblich noch dieses Jahr eine Alternative vorstellen. Wobei ich wirklich hoffe, dass sie damit nicht das Upscaling mit anschließendem CAS-Sharpening meinen. Das können sie sich gleich wieder in den Hut stecken... Doch spätestens in 2 Jahren ist es für mich keine Frage, dass AMD etwas DLSS gleiches hat, sonst haben sie nämlich auch in meinen Augen bereits verloren und das weiß AMD durchaus auch selbst.

Gast
2020-10-19, 12:30:30
Eben deswegen. DLSS1 war - so die einhellige Meinung auch der Reviewer - nicht zu gebrauchen.


DLSS 1 war in Battlefield einfach nur schlecht, in Metro OK, und in Tomb Raider sehr gut.


Da war AMDs Image Sharpening besser weg gekommen. Und das geht bei jedem Titel. Artefakte sind zu vernachlässigen wenn man nicht gleich auf 4-fache Auflösung hochrechnet.


RIS war keinesfalls besser als DLSS nicht mal in der 1.0 Version, und ist auch überhaupt nicht vergleichbar.

Das Problem mit verringerter Auflösung ist, dass damit feine Strukturen nicht mehr abgetastet werden können, und damit Lücken entstehen.
Schon DLSS 1.0 konnte das erkennen und daraus eine korrekte Linie zeichnen. RIS kann das eben nicht, und macht diese Lücken einfach noch stärker sichtbar, weil sich noch mehr hervorgehoben werden.


DLSS hat einen (1) guten Referenz-Titel, Death Stranding.


DLSS 2.0 sieht in der Quality Einstellung in allen Titeln besser als natives Rendering aus, und gerade Death Stranding ist davon, wenn man den Reviews glauben mag, ich habe es noch nicht persönlich gesehen, die schlechteste Umsetzung aller DLSS 2.0-Spiele, da es dort Bewegungsartefakte gibt, die in anderen Spielen nicht auftauchen.

Die Umsetzungen in Wolfenstein, Mechwarrior und Control sind einfach nur exzellent.

RyoHazuki
2020-10-21, 16:41:18
Ich glaube du siehst das etwas zu optimistisch:
Die 2070 Super liegt ca. 10% über der 5700XT
Die 2080 Ti hat 50% mehr Einheiten als die 2070 Super
Die 3080 hat 50% mehr Einheiten als die 3070 die auf 2080 Ti Niveau ist
Somit sind wir grob auf Faktor 2.5x der 5700XT

Die 3080 hat aber auch eine massiv erhöhte Speicherbandbreite während Big Navi immer noch bei 256 Bit GDDR6 herumgammelt. Der Infinity Cache mag vielleicht etwas davon auffangen aber bei Weitem nicht alles.

Kann sein, dass es eine IPC Erhöhung gibt, kann aber auch genauso sein, dass diese gesenkt wurde, um dafür mehr Takt und mehr CUs zu erreichen. Das ist keine CPU, wo auf Single Core Leistung viel wert gelegt werden würde solange das Gesamtergebnis stimmt.

Und dann vergleichen wir immer noch die Leistung ohne DLSS. Die Tensor Cores der 3080 sind bis ca. 100-120 fps bei 4K ausgelegt. Bis dahin hat man mit der 3080 fast 1440p Leistung mit 4K Qualität.

Nun faktor 2,5 (du meinst die 3080 ggü. 5700xt richtig?) ist schon Arg viel.

Also Faktor 2 hat scheinbar die 6900XT ggü der 5700XT eh geschafft, wenn man die Benchmarks von Frau Su bei der Vorstellung von Zen 3 sich das ansieht.

GPU Shader Faktor 2x
Speicherbandbreite Faktor 1,1x
Speichermenge Faktor 2x
Energieverbrauch Faktor 1,8x

Interessant sind hier nun die Fragen:

1. Wie wurde das Thema Speicherbandbreite gelöst ? Da die Doppelte Performance ohne doppelte Bandbreite erreicht wird. Infinity Cache ?

2. Wie viel Verbraucht die 6900XT ?

Übrigens: Das Performancerating von CB (ANHANG) ist auf dieser Auflösung auch nicht gerade das Paradebeispiel für die 5700XT.

Gast
2020-10-21, 19:49:36
1. Wie wurde das Thema Speicherbandbreite gelöst ? Da die Doppelte Performance ohne doppelte Bandbreite erreicht wird. Infinity Cache ?


Das kann nicht stimmen, würde man mit derartig wenig Bandbreite eine so hohe Performance erreichen, wäre man massiv effizienter.

Entweder sind es doch 512bit, oder an den immer wieder auftauchenden Gerüchten mit HBM ist doch was dran, und man verwendet 2 HBM Stacks on Package + GDDR6.

Berniyh
2020-10-21, 20:33:38
Das kann nicht stimmen, würde man mit derartig wenig Bandbreite eine so hohe Performance erreichen, wäre man massiv effizienter.
Ein Cache braucht ja durchaus auch ein bisschen was.
Aber ja, da ist auch eine Woche vor Vorstellung immer noch ein riesen großes Fragezeichen für das bislang niemand eine wirklich zufriedenstellende Antwort hat.
Entweder sind es doch 512bit, oder an den immer wieder auftauchenden Gerüchten mit HBM ist doch was dran, und man verwendet 2 HBM Stacks on Package + GDDR6.
Alle Karten die Custom sind dürften 256 Bit haben, ich denke das kann man mittlerweile als gesichert ansehen. Alles andere (inkl. HBM wäre angekommen).
Eine andere Lösung bliebe nur für die AMD-exklusive XTX, aber es ist schon arg unwahrscheinlich, dass AMD nur für diese Karte eine Extrawurst macht, wenn die sich eh nicht so wahnsinnig von der XT Variante abheben wird.
Genauso hätten wir was von zusätzlichen HBM Stacks mitbekommen.

Gast
2020-10-22, 13:16:18
Ein Cache braucht ja durchaus auch ein bisschen was.

Jeder Datentransfer der vom Cache abgefangen werden braucht um Größenordnungen weniger Energie als wenn er in den VRAM muss, und wir reden hier locker über den Faktor 10. Je höher die Hitrate im Cache ist desto geringer der Verbrauch.

Die schlechtere Engergieeffizienz bisher bei AMD Grafikkarten liegt ja hauptsächlich an daran, dass die Karten mehr externe Bandbreite benötigen.

Das sieht man beispielsweise sehr schön an Vega, dessen 7nm Version sich nicht gerade Großartig von der 14nm Version absetzen kann. Ganz einfach weil ein großer Teil des Gesamtverbrauchs für den Datentransfer zwischen GPU und VRAM drauf geht, der nicht von 7nm profitieren kann.

Und das ist auch der Grund warum Nvidia mit Maxwell einen derartigen Effizienzsprung selbst ohne neue Fertigung hingelegt hat. Man hat die benötigte externe Bandbreite in jeder Performanceklasse massiv reduziert.

Wenn also AMD in der Bandbreiteneffizienz mit Nvidia nicht nur gleichziehen kann, sondern massiv besser wird, muss automatisch auch die Energieeffizienz massiv besser sein.

Außer natürlich man verwendet die gewonnene Effizienz auf der einen Seite beispielsweise auf der anderen Seite um die Grafikkarten extrem weit über dem Sweet Spot zu betreiben und braucht extrem viel Energie für die hohen Taktraten.