PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 [56] 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81

gedi
2020-10-09, 19:40:56
Bestcase war in letzter Zeit zumeist Frostbite usw.

Exakt, warum sollte ich Benchmarks posten, wo Navi eh gut dasteht? Da nehme ich doch lieber den Worst-Case und bleib leicht unter ner 3080, wobei ich im Bestcase über ner 3090 rauskomme. Der Raja arbeitet nu bei Intel und hätte sich aufgrund der Architektur einen dahin gescheppelt. Gott sei Dank arbeitet er nu bei Intel, sonst hätte es ne real white Edition gegeben

Sunrise
2020-10-09, 19:57:57
Nein, klar ist da gar nix. Wir unterhalten ins weiterhin nur über mögliche Namensgebungen, das kann sich alles ändern und/oder nicht korrekt sein.
AMD hat schon vor einer ganzen Weile Navi 3x (N3x) ganz klar RDNA3 zugeordnet, es wurde unmissverständlich und klar nach außen kommuniziert.

Sollte sich das ändern, hat es AMD falsch kommuniziert. Und genau das ist das, was du jetzt indirekt behauptest.

Ja, ich kenne die Infos (Reddit) und die Spekulationen. Irgendwas ist hier wirr, das ist auch mir klar.

Brillus
2020-10-09, 19:58:12
hypetrain war auf die gpu sparte bezogen, hypetrain war darauf bezogen, das hier leute BN vor der 3080 sehen, obwohl wir hier wahrscheinlich best cases, des größten models sehen. best cases in denen die 3080 5-10% mehr leistung bringt.

bin gespannt ob sich das so halten kann, oder ob der schnitt nicht doch tiefer liegt.
Seit gut 2-3 Jahren zeigt AMD bei so Sachen eher Durschnittsfall bis unter Durchschnitt, warum soll es gerade hier jetzt anders sein?

BlacKi
2020-10-09, 20:15:15
Seit gut 2-3 Jahren zeigt AMD bei so Sachen eher Durschnittsfall bis unter Durchschnitt, warum soll es gerade hier jetzt anders sein?ich hab doch schon veg64 angeführt mit doom 2016.

Exakt, warum sollte ich Benchmarks posten, wo Navi eh gut dasteht? Da nehme ich doch lieber den Worst-Case und bleib leicht unter ner 3080, wobei ich im Bestcase über ner 3090 rauskomme. Der Raja arbeitet nu bei Intel und hätte sich aufgrund der Architektur einen dahin gescheppelt. Gott sei Dank arbeitet er nu bei Intel, sonst hätte es ne real white Edition gegeben

wie willst du damit käufer vom kauf einer 3080 abhalten. der gedanke erschließt sich mir nicht.

Ich hab das entscheidene an deiner Aussage mal fett gemacht. Du spekulierst hier auch nur rum. Und heulst jetzt hier rum weil andere Spekulanten was anderes sagen.

Grundsätzlich muss ich sagen, das Spiele mit Unrealengine auf den letzten Generationen von AMD Grakas nicht unbedingt geglänzt haben. Würde mich jetzt also schon etwas wundern, wenn das jetzt aufeinmal der BestCase ist.
widerspricht meiner aussage aber nur bedingt. ich glaube mit rdna 2 wendet sich das blatt. das vermute ich anhand der auswahl der titel.

hypetrain ist eine erwartungshaltung über dem was realistisch erscheint, oder den gegebenen daten. selbst wenn die 3080 langsamer wäre als BN, dann wäre die erwartungshaltung richtig, war aber dennoch ein hypetrain, denn ich sehe nicht das die 3080 im schnitt langsamer sein sollte, wenn man nackt nach den bekannten zahlen geht.

Langlay
2020-10-09, 20:18:07
wie willst du damit käufer vom kauf einer 3080 abhalten. der gedanke erschließt sich mir nicht.

Müssen sie ja nicht, den Part hat Nvidia mit der grandiosen Verfügbarkeit ja schon erledigt.

dargo
2020-10-09, 20:20:00
;D

Ich mag deine Schlagfertigkeit Langlay. (y)

Also mal ernsthaft, den Paperlaunch den Nvidia gerade mit GA102 hinter sich gebracht hat, dann noch 10GB bei der 3080... leichter kann es AMD gar nicht haben.

[MK2]Mythos
2020-10-09, 20:23:30
;D

Ich mag deine Schlagfertigkeit Langlay. (y)
Naja, ist ja auch alles klar ersichtlich. Blacki befindet sich offensichtlich zusammen mit Dural in irgendeiner Parallelwelt in der nvidia gerade die RTX30xx Karten unter das Volk bringt und AMD nur zugucken kann.
Ich denke, dass es genau andersrum sein wird, viele, die ne RTX30xx haben wollten, werden Ende Oktober bei AMD ins Regal greifen, weil das Produkt gut und hervorragend verfügbar sein wird.

BlacKi
2020-10-09, 20:24:33
Müssen sie ja nicht, den Part hat Nvidia mit der grandiosen Verfügbarkeit ja schon erledigt.das ist aber das ziel des teases.

DrFreaK666
2020-10-09, 20:30:50
das ist aber das ziel des teases.

Das Ziel eines Teases ist, um auf sich aufmerksam zu machen (wir haben nicht nur schnelle CPUs). Ganz unabhängig davon ob Nvidia liefern kann oder nicht
Vermute ich jedenfalls ^^

Langlay
2020-10-09, 20:32:48
das ist aber das ziel des teases.

Der Ziel des Teaser war zeigen das man was konkurrenzfähiges hat. Für den Rest gibts den 28.10.

unl34shed
2020-10-09, 20:34:57
Der Ziel des Teaser war zeigen das man was konkurrenzfähiges hat. Für den Rest gibts den 28.10.

Kapiert er nicht, für ihn hat der Tease doch gezeigt, dass man nur auf 3070 Performance sein soll :facepalm:

BlacKi
2020-10-09, 20:36:25
Der Ziel des Teaser war zeigen das man was konkurrenzfähiges hat. Für den Rest gibts den 28.10.
und dazu nimmt man die worst cases, so wie gedi im ursprünglichen post meinte? nimms rhetorisch, eine antwort kannst du dir sparen.

Kapiert er nicht, für ihn hat der Tease doch gezeigt, dass man nur auf 3070 Performance sein soll was soll das jetzt? hab ich nicht geschrieben. würd mich nicht wundern wenn das keiner mehr weiß, weil sich hier alle im kreis drehen.

PS: bin hier raus, weil alles was ich schreibe gedreht und falsch verstanden wird. ernsthaftes interesse an einer diskussion gibts wohl leider nicht.

Armaq
2020-10-09, 20:43:30
hypetrain war auf die gpu sparte bezogen, hypetrain war darauf bezogen, das hier leute BN vor der 3080 sehen, obwohl wir hier wahrscheinlich best cases, des größten models sehen. best cases in denen die 3080 5-10% mehr leistung bringt.

bin gespannt ob sich das so halten kann, oder ob der schnitt nicht doch tiefer liegt.
Bis gestern war ja auch 10900k Gaming Performance total absurd und die Scoreboards von 3DMark waren immer mit nem 10900 bestückt.

Ich war zutiefst überrascht von dem Radeon Teaser, denn schon die Nähe zur 3080 (ich dachte erst ja sogar 3090) hat mich echt schockiert.

Wenn du andere Schlüsse ziehst, ist das ja legitim. Die Realität zeigt sich am 28.10 für uns alle, wobei die 699 € schon eine neue Realität andeuten. AMD muss Antworten auf: Performance, Verbrauch, DLSS, RT und Verfügbarkeit

Es sieht so aus als ob Stone Cold Lisa Su am 28.10 einen relativ souveränen Auftritt hinlegt, ohne Kuchenspatel.

Olliver
2020-10-09, 21:29:41
Ich bin mittlerweile ziemlich froh, dass nvidia mich daran gehindert hat eine 3080 zu kaufen :wink:

horn 12
2020-10-09, 21:35:53
So wieder mal ich mit Meinen Spekulatius Hoch³

Preise hatte ich gestern zum Kollege (Freund welcher gleich neben mir wohnt)
Beim RyZen 3 5800XT bereits prognostiziert
449 Dollar / Euro und hatte vollkommen Recht.

Big Navi denke wird so aufgestellt werden.
3 Karten zum Launch!

XL 16 GB 529 Dollar
XT 649 Dollar
XTX 829 bis 849 Dollar

XTX kommt der 3090 Gewaltig Nahe
XL Gute 10% unter der 3080
und die XT einmal Minimal Besser, einmal knapp unter der 3080 von Nvidia

Und die Speichermengen immer zu 16GB
und dann hat NV schon verloren!

225 Watt
zu 275 Watt
zu 340 Watt

BigBangBacket
2020-10-09, 21:49:07
Ich bin mittlerweile ziemlich froh, dass nvidia mich daran gehindert hat eine 3080 zu kaufen :wink:

Ich hatte die 3090 schon im Warenkorb aber weiter ging es nicht.
Mittlerweile bin ich auch froh. Von dem Geld hole ich mir lieber ein 5900x und eine 6900xt/xtx
@Horn12
Auch wenn du oft/immer übers Ziel hinausschiesst. Mittlerweile ist alles möglich.
Obwohl ich auch glaube das wir bei der Präsentation schon den größten Brummer geteast bekommen haben.
Aber dann kommt eine Wakü drauf und wird etwas übertaktet.
Nach 18 Jahren mal wieder ein AMD System. Hätte ich mir vor 3 Monaten auch nicht träumen lassen

Screemer
2020-10-09, 21:57:48
Mythos;12455556']Naja, ist ja auch alles klar ersichtlich. Blacki befindet sich offensichtlich zusammen mit Dural in irgendeiner Parallelwelt in der nvidia gerade die RTX30xx Karten unter das Volk bringt und AMD nur zugucken kann.

Für ihn ist ja auch die aussage, dass etwas schneller und billiger ist nicht gleich bedeutend zu einem besseren plv. Geht Grad gut rund bei ihm. Evtl. lässt ihn sein Nachwuchs ja nicht schlafen ;)

gedi
2020-10-09, 22:00:24
Kapiert er nicht, für ihn hat der Tease doch gezeigt, dass man nur auf 3070 Performance sein soll :facepalm:

Wo doch für Next-Gen im Vergleich zu Ti-OC praktisch nix bei rumkommt. Von daher

gedi
2020-10-09, 22:02:34
Bis gestern war ja auch 10900k Gaming Performance total absurd und die Scoreboards von 3DMark waren immer mit nem 10900 bestückt.

Ich war zutiefst überrascht von dem Radeon Teaser, denn schon die Nähe zur 3080 (ich dachte erst ja sogar 3090) hat mich echt schockiert.

Wenn du andere Schlüsse ziehst, ist das ja legitim. Die Realität zeigt sich am 28.10 für uns alle, wobei die 699 € schon eine neue Realität andeuten. AMD muss Antworten auf: Performance, Verbrauch, DLSS, RT und Verfügbarkeit

Es sieht so aus als ob Stone Cold Lisa Su am 28.10 einen relativ souveränen Auftritt hinlegt, ohne Kuchenspatel.

Exakt-denn die dickere OW behält Lisa. Zudem: Was wollt ihr mit ner 3080? Wenn das der Benchmark ist, dann müsste Lisa nochmals zum Schönheitschirugen, denn sonst holt se der Jensen bez. Oberweite ein!

mr coffee
2020-10-09, 22:35:49
???

Berniyh
2020-10-09, 22:39:16
???
Ich glaube drei Fragezeichen sind da nicht genug.

Brillus
2020-10-10, 00:18:23
ich hab doch schon veg64 angeführt mit doom 2016.


Vega64 Launch: 27. Jul. 2017

Soviel zu in den letzten 2-3 Jahren. Hätte auch schreiben gekönnt seit Raja weg ist. Also nochmal warum sollen die jetzt hierbei plötzlich die Best Case rauswerfen, wo sie doch die letzten 2-3 Jahre immer nur Durchschnitt gezeigt haben oder gar tief gestapelt haben?

[MK2]Mythos
2020-10-10, 02:15:51
Vega64 Launch: 27. Jul. 2017

Soviel zu in den letzten 2-3 Jahren. Hätte auch schreiben gekönnt seit Raja weg ist. Also nochmal warum sollen die jetzt hierbei plötzlich die Best Case rauswerfen, wo sie doch die letzten 2-3 Jahre immer nur Durchschnitt gezeigt haben oder gar tief gestapelt haben?
Na ist doch vollkommen klar. Weil nvidia in ihren Präsentationen immer nur die Best Cases zeigt, da nochmal 30% drauf packt und damit durchkommt. Kann doch nicht sein, dass AMD da seriöser agiert.

dr.denton
2020-10-10, 07:56:06
Glaube, da widersprecht ihr euch gar nicht ;)
"Best Case rauswerfen" hab ich in dem Zusammenhang als "in die Öffentlichkeit stellen" gelesen.

Redneck
2020-10-10, 08:25:41
Vega64 Launch: 27. Jul. 2017

Soviel zu in den letzten 2-3 Jahren. Hätte auch schreiben gekönnt seit Raja weg ist. Also nochmal warum sollen die jetzt hierbei plötzlich die Best Case rauswerfen, wo sie doch die letzten 2-3 Jahre immer nur Durchschnitt gezeigt haben oder gar tief gestapelt haben?

Wenn ich mir anschaue, wie Vega in Star Wars Squadrons performt, sieht es nicht nach einem völlig vermurkstem Chip aus. Bin erstaunt.

BigBangBacket
2020-10-10, 08:45:06
Wenn ich mir anschaue, wie Vega in Star Wars Squadrons performt, sieht es nicht nach einem völlig vermurkstem Chip aus. Bin erstaunt.

Frostbite lief schon immer gut auf AMD.
Es würde mich nicht wundern wenn die 6900xt selbst die 3090 locker in Squadrons hinter sich lässt. Aber das ist dann auch vermutlich nur dieses Spiel wo sie das schafft.
Kann mir aber nur recht sein

Adam D.
2020-10-10, 09:17:51
Wenn ich mir anschaue, wie Vega in Star Wars Squadrons performt, sieht es nicht nach einem völlig vermurkstem Chip aus. Bin erstaunt.
Da ich selbst eine im Rechner stecken hab: mit Ruhm bekleckert hat sich AMD mit Vega nicht, weil Frostbite so ziemlich das einzige Beispiel ist, das man für ein halbwegs akzeptables Funktionieren der Architektur heranziehen kann (im Gaming-Bereich). In so gut wie allen kürzlich erschienenen Spielen zeigt sich Vega nicht gerade von seiner beeindruckendsten Seite.

horn 12
2020-10-10, 09:22:48
Hardlaunch ab dem 28.ten Oktober bis 05 November (Bessere Verfügbarkeit)
Und BIG Navi ist derzeit auf OC getrimmt, deshalb auch die Aussage man sagt nicht (lässt offen) welche BN Karte dies war.
Die XT wird etwas gedrosselt und die XTX kommt nochmals schneller als gezeigt wurde.

Zergra
2020-10-10, 09:32:14
Niemals wird das Ding am 28.10 oder eine Woche später im Handel stehen.
Dafür gibt es viel zu wenig Informationen bis jetzt, die legen erstmal die Priorität auf Zen3.

Die wird es Ende November bzw Anfang Dezember, das passt dann perfekt zur 3080 20GB die wohl im Dezember kommen soll.

dargo
2020-10-10, 09:47:13
Kann jemand der guten Pixelzähler schon die Länge der Karte bestimmen? :)
https://abload.de/img/bignavisakdj.jpg

Die Lüfter würde ich jetzt auf 95mm schätzen. Oder meint ihr eher 85-90mm?

btw.
Blöd finde ich, dass sich der mittlere Lüfter offenbar in die gleiche Richtung dreht. Aber gut... bei Referenz erwarte ich jetzt keinen sehr guten Kühler.

Edit:
Zum Vergleich Radeon VII mit 268mm Länge.
https://abload.de/img/r_viifrkek.jpg

Wenn ich das mal mit den PCIe-Slots vergleiche dürfte BigNavi auch irgendwo bei 270-280mm landen, also doch max. 90mm (eher 85mm) Lüfter. Die Radeon VII hat 75mm Lüfter in einer 82mm Öffnung.

Hakim
2020-10-10, 10:25:51
Niemals wird das Ding am 28.10 oder eine Woche später im Handel stehen.
Dafür gibt es viel zu wenig Informationen bis jetzt, die legen erstmal die Priorität auf Zen3.

Die wird es Ende November bzw Anfang Oktober, das passt dann perfekt zur 3080 20GB die wohl im Dezember kommen soll.

Du meinst sicherlich Anfang Dezember, ich muss leider bis zum 19ten November irgendwas haben. Irgendwie habe ich die Befürchtung das ich ohne neue Gen dastehen werde

Berniyh
2020-10-10, 10:26:56
Kann jemand der guten Pixelzähler schon die Länge der Karte bestimmen? :)
https://abload.de/img/bignavisakdj.jpg

Die Lüfter würde ich jetzt auf 95mm schätzen. Oder meint ihr eher 85-90mm?

btw.
Blöd finde ich, dass sich der mittlere Lüfter offenbar in die gleiche Richtung dreht. Aber gut... bei Referenz erwarte ich jetzt keinen sehr guten Kühler.

Edit:
Zum Vergleich Radeon VII mit 268mm Länge.
https://abload.de/img/r_viifrkek.jpg

Wenn ich das mal mit den PCIe-Slots vergleiche dürfte BigNavi auch irgendwo bei 270-280mm landen, also doch max. 90mm (eher 85mm) Lüfter. Die Radeon VII hat 75mm Lüfter in einer 82mm Öffnung.
Etwa 3.23x Länge des PCIe Verbinders, damit ca. 275mm, wenn der Slot (soweit ich die Länge im Netz richtig finden konnte) 85mm lang ist.
zzgl. Slotblende.

Edit: Mit einem größeren/besser aufgelösten Bild wäre es genauer. ;)

Zergra
2020-10-10, 10:28:56
Du meinst sicherlich Anfang Dezember, ich muss leider bis zum 19ten November irgendwas haben. Irgendwie habe ich die Befürchtung das ich ohne neue Gen dastehen werde

Ups, ja klar Dezember.

[MK2]Mythos
2020-10-10, 10:31:43
Was aber zumindest für mich viel wichtiger ist: Die Karte scheint nicht mehr ganz so hoch bzw tief zu sein. Bei meiner VII wurde das zusammen mit den Wasseranschlüssen schon extrem eng in Gehäusen.

dildo4u
2020-10-10, 10:32:32
Hardlaunch ab dem 28.ten Oktober bis 05 November (Bessere Verfügbarkeit)
Und BIG Navi ist derzeit auf OC getrimmt, deshalb auch die Aussage man sagt nicht (lässt offen) welche BN Karte dies war.
Die XT wird etwas gedrosselt und die XTX kommt nochmals schneller als gezeigt wurde.
Du hast doch gerade gesehen wie lange es bei Zen 3 dauert.

dargo
2020-10-10, 10:40:10
Etwa 3.23x Länge des PCIe Verbinders, damit ca. 275mm, wenn der Slot (soweit ich die Länge im Netz richtig finden konnte) 85mm lang ist.
zzgl. Slotblende.

Edit: Mit einem größeren/besser aufgelösten Bild wäre es genauer. ;)
Habe ich leider nicht, ist schon vom 4k YT-Video.

Auf jeden Fall würde ich schätzen es deutet auf ca. 275W bei BigNavi hin wenn sich AMD mit dem Referenzkühler nicht wieder wie bei der Radeon VII blamieren will. Paar Wattchen weniger, dafür größes Die womit die Wärmeabgabe einfacher ist.

Du hast doch gerade gesehen wie lange es bei Zen 3 dauert.
Das muss nichts heißen. Die Nachfrage bei Zen 3 dürfte um ein vielfaches höher sein als bei BigNavi. BigNavi ist nur Gaming, mit einem 5900X/5950X kannst du wesentlich mehr anstellen.

unl34shed
2020-10-10, 10:42:20
Du hast doch gerade gesehen wie lange es bei Zen 3 dauert.

Vielleicht ist Zen3 erst am 5.11 verfügbar, damit man an dem Tag das ganze System mit Ryzen 5k und RX6000 kaufen kann.

Zergra
2020-10-10, 10:42:29
Das muss nichts heißen. Die Nachfrage bei Zen 3 dürfte um ein vielfaches höher sein als bei BigNavi.
Klar muss das nicht heißen, aber in der Vergangenheit (Zen2, RDNA1, Zen+) waren immer etwa 4-6 Wochen zwischen Vorstellung und Verkauf.

dargo
2020-10-10, 10:46:51
Klar muss das nicht heißen, aber in der Vergangenheit (Zen2, RDNA1, Zen+) waren immer etwa 4-6 Wochen zwischen Vorstellung und Verkauf.
Früher war früher, das heißt gar nichts. Und der Punkt von unl34shed ist gar nicht so abwegig da Lisa Su Zen 3 mit RX-6000 Series schon auch als Bundle sah.

@Berniyh
So besser?
https://cdn.wccftech.com/wp-content/uploads/2020/09/AMD-Radeon-RX-6000-Series_RDNA-2-GPU_Radeon-RX-6900-Graphics-Cards_2-2060x1091.png
Oder das hier.
https://www.notebookcheck.net/Leaked-AMD-Radeon-RX-6900-XT-photos-confirm-thick-design-and-I-O.494474.0.html

Etwas merkwürdig finde ich die Slotblende... Null Lüftungsschlitze.

btw.
Der mittlere Lüfter wirkt kleiner, oder habe ich was mit den Augen? :D Ich tippe mal auf 2x 95mm + 1x 85mm. Da hat sich AMD wohl was von Sapphire abgeschaut. ;)

Zergra
2020-10-10, 10:50:25
Früher ist aber auch heute, siehe Zen3.

Wie gesagt vor Ende November würde ich nicht damit rechnen, Customs dann erst 2021.

SKYNET
2020-10-10, 10:58:59
Früher war früher, das heißt gar nichts. Und der Punkt von unl34shed ist gar nicht so abwegig da Lisa Su Zen 3 mit RX-6000 Series schon auch als Bundle sah.

@Berniyh
So besser?
https://cdn.wccftech.com/wp-content/uploads/2020/09/AMD-Radeon-RX-6000-Series_RDNA-2-GPU_Radeon-RX-6900-Graphics-Cards_2-2060x1091.png
Oder das hier.
https://www.notebookcheck.net/Leaked-AMD-Radeon-RX-6900-XT-photos-confirm-thick-design-and-I-O.494474.0.html

Etwas merkwürdig finde ich die Slotblende... Null Lüftungsschlitze.


viel besser finde ich die materialwahl... an der faskante bei den löchern für die lüfter, siehts aus, als wäre AMD nicht geizig gewesen und setzt auf alu bei der coverbasis.

dargo
2020-10-10, 11:02:41
Das ist bestimmt kein Alu, wofür auch? Ganz normaler Kunststoff in Alu-Optik an der Fräskante.

btw.
Die Lüfter wurden offenbar verbessert. Diese "Leitkante" soll wohl dafür sorgen, dass der Luftdruck stärker Richtung Kühlkörper gedrückt wird. Bin schon echt auf den Test gespannt. Ich erwarte natürlich keine Wunder von einem Referenzkühler, der sollte aber schon deutlich besser als bei Radeon VII sein sonst regnet es Shitstorm.

[MK2]Mythos
2020-10-10, 11:04:03
viel besser finde ich die materialwahl... an der faskante bei den löchern für die lüfter, siehts aus, als wäre AMD nicht geizig gewesen und setzt auf alu bei der coverbasis.
Darauf würde ich nichts geben. Die leading edges der fanblades sehen schließlich auch so aus und die sind sicher nicht aus Alu.

SKYNET
2020-10-10, 11:06:50
Mythos;12456074']Darauf würde ich nichts geben. Die leading edges der fanblades sehen schließlich auch so aus und die sind sicher nicht aus Alu.

nö, die sind weiss....

ianm
2020-10-10, 11:07:00
Thanksgiving ist am 26.11. und Black Friday etc. das wichtigste Verkaufswochenende des Jahres. AMD wird das mitnehmen wollen, besonders wenn sie Stückzahlen liefern können. Mein Tipp wäre ein 23./24.11. Release spätestens.

Andererseits hat Papermaster (?) gesagt sie werden vor den Konsolen releasen. Die neue XBox kommt am 10.11. - würde mich nicht wundern wenn sie zeitnah mit Zen 3 liefern können.

dargo
2020-10-10, 11:10:51
nö, die sind weiss....
Du könntest mit dem Alu auch recht haben. :)

R VII
https://pics.computerbase.de/8/6/4/3/1/2-1080.1151775588.jpg

Berniyh
2020-10-10, 11:11:46
Früher war früher, das heißt gar nichts. Und der Punkt von unl34shed ist gar nicht so abwegig da Lisa Su Zen 3 mit RX-6000 Series schon auch als Bundle sah.

@Berniyh
So besser?
https://cdn.wccftech.com/wp-content/uploads/2020/09/AMD-Radeon-RX-6000-Series_RDNA-2-GPU_Radeon-RX-6900-Graphics-Cards_2-2060x1091.png
Oder das hier.
https://www.notebookcheck.net/Leaked-AMD-Radeon-RX-6900-XT-photos-confirm-thick-design-and-I-O.494474.0.html
Da sieht man leider den Slotstecker unten nicht.
Könnte höchstens die Molex Stecker als Referenz nehmen, aber das ist halt eine eher kleine Länge und damit auch wieder eher ungenau.

dargo
2020-10-10, 11:14:45
Slot hast du hier.
https://www.notebookcheck.net/fileadmin/Notebooks/News/_nc3/AMD_Radeon_RX_6900XT_Big_Navi_1_1200x675.jpg

Den Abstand der äußeren Schraube bis zum Ende des Kühlers könnte man dann über dieses Bild herausfinden.
https://www.notebookcheck.net/fileadmin/Notebooks/News/_nc3/AMD_Radeon_RX_6900XT_Big_Navi_4_1200x675.jpg

Oder sind die Perspektiven dafür Murks?

Hakim
2020-10-10, 11:18:55
Beim aktuellen navi gab es die custom Versionen erst über einen Monat später zu kaufen oder? Bin mal gespannt wie das jetzt ablaufen wird

dargo
2020-10-10, 11:21:45
N21 soll angeblich eh erstmal nur als Referenz kommen. Customs dann eher später. Bei N22 sollen laut Gerüchten Customs direkt da sein. Ich würde darauf tippen der Zeitplan steht AMD bzw. den AIBs im Weg. Ich erwarte N22 erst im Dezember, insofern haben die AIBs mehr Zeit für ihre Lösungen.

Schnoesel
2020-10-10, 11:28:26
Da wir ja in letzter Zeit vieleüber POSCAPS und MLCCs lernen duften. Was bitte hat AMD denn da hinten auf seine GPUs gelötet?

Linmoum
2020-10-10, 11:30:58
Launch-Diskussion die 13. mal wieder obwohl Fakt ist, dass N21 (aka Big Navi) vor den Konsolen erhältlich sein wird. Keine Ahnung, warum man das schon wieder durchkauen muss. Das kam nicht von irgendeinem Support-Fuzzi, sondern vom CFO höchstpersönlich.

ianm
2020-10-10, 11:33:13
Stimmt der Kumar wars, nicht der Papermaster.

dargo
2020-10-10, 11:34:29
Da wir ja in letzter Zeit vieleüber POSCAPS und MLCCs lernen duften. Was bitte hat AMD denn da hinten auf seine GPUs gelötet?
Keine Poscaps. ;)
MLCCs

Berniyh
2020-10-10, 11:35:10
Oder sind die Perspektiven dafür Murks?
Ja, die Perspektiven sind ziemlich schlecht. Hab's trotzdem mal probiert mit Zwischenschritt über die Vertiefungen auf der Rückseite.
Dann würde rauskommen:
Länge: 316.5 mm (da vertraue ich aber den 275mm von vorhin ehrlich gesagt eher)
Höhe: 121 mm (unter der Annahme, dass die Schrauben im Quadrat aufgebracht sind)
Breite Chipaussparung: ca. 42 mm

Zergra
2020-10-10, 11:40:48
Launch-Diskussion die 13. mal wieder obwohl Fakt ist, dass N21 (aka Big Navi) vor den Konsolen erhältlich sein wird. Keine Ahnung, warum man das schon wieder durchkauen muss. Das kam nicht von irgendeinem Support-Fuzzi, sondern vom CFO höchstpersönlich.


Weil das lange her ist?
Das heißt nicht das man jedes Datum hält.

Keine Ahnung wie man sich auf eine Aussage so versteifen kann.

AffenJack
2020-10-10, 11:42:57
Launch-Diskussion die 13. mal wieder obwohl Fakt ist, dass N21 (aka Big Navi) vor den Konsolen erhältlich sein wird. Keine Ahnung, warum man das schon wieder durchkauen muss. Das kam nicht von irgendeinem Support-Fuzzi, sondern vom CFO höchstpersönlich.

Lustig, was ihr so alles als Fakt betitelt. Ich wette es gibt nur Tests vor dem 9.11 oder die Möglichkeit vorzubestellen. In der Woche davor wirds keinen Launch geben. Aber ich bin gespannt, ob es AMD so drauf ankommt 1 Tag vor der Xbox zu launchen, damit man sich ja an die "Fakten" gehalten hat. Ich wette dagegen, auf die paar Tage kommts eh nicht an. Vor allem sollte einem der Nv-Launch doch zeigen, dass sie lieber paar Tage warten, statt nen Paperlaunch hinzulegen. Man wird kurz vor/in der Black Friday Woche launchen, weil das wichtig ist. Davor ist man flexibel.

Berniyh
2020-10-10, 11:48:35
Ausgemessen aus der Draufsicht mit dem 8-fach Molex als Referenz komme ich auf 307 mm.

Aber das Bild scheint mir auch etwas verzerrt zu sein, also vermutlich eher etwas weniger.
Ich denke so 280-290 mm dürften in etwa stimmen.

dargo
2020-10-10, 11:51:35
Vor allem sollte einem der Nv-Launch doch zeigen, dass sie lieber paar Tage warten, statt nen Paperlaunch hinzulegen.
RDNA2 kommt in 8nm Samsung :uconf2: Wer sagt denn, dass die Produktion von BigNavi nicht schon lange anläuft? Die ersten GA102 Chips sind laut Dural von Juni wenn ich es richtig in Erinnerung habe.

@Berniyh
Danke für deine Mühe.

why_me
2020-10-10, 11:52:28
Ja, die Perspektiven sind ziemlich schlecht. Hab's trotzdem mal probiert mit Zwischenschritt über die Vertiefungen auf der Rückseite.
Dann würde rauskommen:
Länge: 316.5 mm (da vertraue ich aber den 275mm von vorhin ehrlich gesagt eher)
Höhe: 121 mm (unter der Annahme, dass die Schrauben im Quadrat aufgebracht sind)
Breite Chipaussparung: ca. 42 mm

317,5mm = 12,5 Zoll, würde zu dem Tweet hier passen (https://twitter.com/AzorFrank/status/1301727609466892288)

Original wurde gelöscht, war eine Zeichnung mit Chiplets auf der GPU und Längenangabe der Karte von 12 Zoll

AffenJack
2020-10-10, 12:04:42
RDNA2 kommt in 8nm Samsung :uconf2: Wer sagt denn, dass die Produktion von BigNavi nicht schon lange anläuft? Die ersten GA102 Chips sind laut Dural von Juni wenn ich es richtig in Erinnerung habe.

@Berniyh
Danke für deine Mühe.

Die Produktion der Chips? Gut möglich, die Produktion der Karten? Unwahrscheinlich. Sobald die Karten in Massenproduktion sind, hast du einfach immer mehr Leaks. Jeder Bandarbeiter sieht was für Ram und wieviel da drauf ist. Das wäre schon viel länger bekannt. Noch viel mehr Infos kommen dann dazu, wenn die Kartons verfügbar sind. Das was man gut geheim halten kann ist die Performance, indem keine Treiber rausgegeben werden und Architektur/Chipdetails.

Nur weil zb bei GA102 ein Chip vom Juni drauf ist, heißt das nicht, dass die ganze Karte so alt ist. Da hat man dann vll einfach die guten Chips der ersten Testchargen eben auch verkauft. Muss man ja nicht wegschmeißen. Die Karte kann trotzdem August produziert worden sein. (das war glaube die Aussage von Nv zur Ampere Produktion)

Linmoum
2020-10-10, 12:09:37
Oder es ist deswegen weiter quasi nichts bekannt, weil an dem Gerücht, dass es N21 zuerst nur Ref-only gibt, doch etwas dran ist. Dann kann es von AiB natürlich nichts geben, weil die nichts haben. Der einzige dürfte dann Sapphire sein, von dem die Ref wahrscheinlich kommt.

ianm
2020-10-10, 12:11:14
Jup, denke ich auch. Und Karten sehen wir seit Anfang September.

dargo
2020-10-10, 12:15:32
Die Produktion der Chips? Gut möglich, die Produktion der Karten? Unwahrscheinlich. Sobald die Karten in Massenproduktion sind, hast du einfach immer mehr Leaks. Jeder Bandarbeiter sieht was für Ram und wieviel da drauf ist. Das wäre schon viel länger bekannt.
Das Aussehen der Karte ist schon seit September bekannt. Und wenn die Karte anfangs nur von AMD kommt kann man auch besser dicht halten. ;)

AffenJack
2020-10-10, 12:18:59
Oder es ist deswegen weiter quasi nichts bekannt, weil an dem Gerücht, dass es N21 zuerst nur Ref-only gibt, doch etwas dran ist. Dann kann es von AiB natürlich nichts geben, weil die nichts haben. Der einzige dürfte dann Sapphire sein, von dem die Ref wahrscheinlich kommt.

Selbst wenn es nur Sapphire ist, kannst du in der Massenproduktion solche Sachen nicht mehr geheim halten, ob es HBM/GDDR ist. Dazu muss niemand ein Foto oder sonstwas machen. Da kennt wer von Chiphell, Weibo etc. wen und das geht komplett durch die asiatische Gerüchteküche durch und wird von wem anders bestätigt, der wen kennt, der auch bei Sapphire etc arbeitet. So läuft das immer bei Massenproduktion. Das dagegen die Infos eher von westlichen Youtubern kommen, lässt an einer frühzeitigen Massenproduktion stark zweifeln, denn dann kommen die Leaks eher aus Entwicklungsabteilungen.

BlacKi
2020-10-10, 12:20:01
Keine Poscaps. ;)
MLCCs
die anordnung macht skeptisch ob es sich hier um ein funktionstüchtiges sample handelt. die bilder von jay waren definitiv nur optische vorzeigemodelle, aka holzstück.

why_me
2020-10-10, 12:32:07
Wie kommst du bitte drauf, dass es nicht funktionstüchtig sein soll? Die gleiche Frage zu den Bildern von Jay, wie kommst du auf so einen Schwachsin? :confused:

dargo
2020-10-10, 12:43:33
@AffenJack

Ich werde das Gefühl nicht los du versuchst hier gerade den grandiosen Launch von Jensen mit GA102 auf BigNavi zu übertragen. BigNavi kommt nicht von Samsung sondern TSMC. Wenn ich sehe, dass AMD selbst den 5950X direkt am 05.11 ausliefert dann gehe ich nicht unbedingt vom schlechten Yield bei TSMC aus, läuft ja auch schon ne Weile. Auch wenn die Chiplet-Größen jetzt nicht unbedingt mit einer fetten GPU vergleichbar sind. Es könnte natürlich dennoch zur relativ schlechten Verfügbarkeit kommen wenn Jensen es bis dahin nicht schafft die Verfügbarkeit von GA102 massiv zu verbessern (einige überlegen das Lager zu wechseln). Und danach sieht es momentan auch nicht aus.

btw.
Da fällt mir gerade ein... 360mm² SoCs laufen auch schon länger vom Band.

BlacKi
2020-10-10, 12:43:41
@why hab ich doch geschrieben. der umgangston ist wieder mal für die tonne.

[MK2]Mythos
2020-10-10, 12:48:37
@why hab ich doch geschrieben. der umgangston ist wieder mal für die tonne.
Deine Behauptungen aus dem Nichts sind definitiv auch für die Tonne. Wer sich so viel unbegründet zusammenspinnt, der muss sich nicht wundern, wenn dem ein oder anderen mal die Hutschnur reißt.

why_me
2020-10-10, 12:55:36
@why hab ich doch geschrieben. der umgangston ist wieder mal für die tonne.

Nein du hast nichts begründet.

Welches Problem hast du mit der Anordnung der Kapazitäten?
Wieso sollen die Bilder von Jay "definitiv" eine Attrappe sein?

E: Tut mir leid, dass du dich von meiner einfachen Frage beleidigt fühlst...

SKYNET
2020-10-10, 13:01:01
Selbst wenn es nur Sapphire ist, kannst du in der Massenproduktion solche Sachen nicht mehr geheim halten, ob es HBM/GDDR ist. Dazu muss niemand ein Foto oder sonstwas machen. Da kennt wer von Chiphell, Weibo etc. wen und das geht komplett durch die asiatische Gerüchteküche durch und wird von wem anders bestätigt, der wen kennt, der auch bei Sapphire etc arbeitet. So läuft das immer bei Massenproduktion. Das dagegen die Infos eher von westlichen Youtubern kommen, lässt an einer frühzeitigen Massenproduktion stark zweifeln, denn dann kommen die Leaks eher aus Entwicklungsabteilungen.


na, irgendwer muss die karten ja bauen... und wenn AMD in nem monat liefern will, werden die fabriken glühen in der produktion...

BlacKi
2020-10-10, 13:06:08
mit dem ton meinte ich das wort schwachsinn obwohl ich schon erklärt habe warum. mit solchen äusserungen ziehst du nur das niveau runter, genau wie mythos.

zeige mir eine anordnung der capazitors die jemals so aussah. sieht fake aus. den sinn hinter einer solche anordnung sehe ich nur beim optischen vorzeige modell. bei einem fertigen produkt hat die funktion priorität und für mich sieht das definitiv nicht danach aus.

so eine anordnung gab es nie und vermutlich werden wir so eine niemals sehen. jay hat doch gesagt das es hier und da optische mängel an den karten zu sehen sind die typisch für sind für die entwicklung eines kühlermodells.

edit: ich hab mir schon öfter gedanken gemacht einfach mir mal eine ignore liste zuzulegen.

why_me
2020-10-10, 13:07:07
https://cdn.videocardz.com/1/2020/09/AMD-Big-Navi-Engineering-Sample.jpg

Sieht genauso aus, scheint zu funktionieren. 5700 XT sieht ähnlich aus, da sind nur noch 5 größere Kapazitäten dabei, die sitzen beim Engineering Board hinter der Backplate...

unl34shed
2020-10-10, 13:13:34
so eine anordnung gab es nie und vermutlich werden wir so eine niemals sehen. jay hat doch gesagt das es hier und da optische mängel an den karten zu sehen sind die typisch für sind für die entwicklung eines kühlermodells.

Als Elektrotechniker kann ich dir sagen dass man die Kapazitäten versucht so nah wie möglich an die Power Pins zu bekommen. Die Anordnung wird so gewählt, dass man die nötige Kapazität dafür hinbekommt. Mit einer solchen Anordnung bekommt man die meisten Kapazitäten auf der Fläche unter, also warum nicht? Sieht für mich jetzt nicht unüblich aus.

BlacKi
2020-10-10, 13:17:31
es ist unüblich, deshalb hab ich es ja kritisiert. aber ich hab vergessen den leak zu prüfen. ich bedanke mich fürs aufklären.

dargo
2020-10-10, 13:21:31
Eine RX 5700XT hat auch unterschiedliche Kapazitäten bei den MLCCs.
https://www.igorslab.de/wp-content/uploads/2019/07/PCB-Back-1.jpg

Aber sich deshalb jetzt daran aufhängen bzw. davon irgendwas zur Verfügbarkeit abzuleiten ist schon etwas albern.

btw.
Bei Navi10 sind auch paar kleine Poscaps dabei. ;)

[MK2]Mythos
2020-10-10, 13:22:27
es ist unüblich, deshalb hab ich es ja kritisiert. aber ich hab vergessen den leak zu prüfen. ich bedanke mich fürs aufklären.
Du hast weder was von unüblich, noch was von Kritik geschrieben, sondern dass das definitiv ein fake sei. Überdenk doch einfach mal deine eigenen Formulierungen bei solchen "Einfällen". Dann klappts vielleicht auch mit einem höheren Niveau, dass du dir angeblich wünschst.

aufkrawall
2020-10-10, 13:23:20
Aber sich deshalb jetzt daran aufhängen bzw. davon irgendwas zur Verfügbarkeit abzuleiten ist schon etwas albern.
Bisher hat sich AMD beim Platinendesign jedenfalls noch keine vergleichbaren Patzer geleistet.

BlacKi
2020-10-10, 13:38:00
otMythos;12456243']Du hast weder was von unüblich, noch was von Kritik geschrieben, sondern dass das definitiv ein fake sei. Überdenk doch einfach mal deine eigenen Formulierungen bei solchen "Einfällen". Dann klappts vielleicht auch mit einem höheren Niveau, dass du dir angeblich wünschst.
nimmst du es immer als rechtfertigung wenn jemand sich täuscht ihn dafür zu beleidigen? hier schreiben viele im forum dinge die nicht ganz richtig sind. wenn ich jedes mal deswegen jemanden anpflaumen würde, dann wäre der grundton im forum auch nicht besser.

es hilft ja nichtmal, es erzeugt bei mir nur innerlich ebenfalls das bedürfniss so zu antworten. und manchmal klappts nicht und hinterher bereue ich es mich so mitziehen zu lassen.

Ravenhearth
2020-10-10, 13:58:36
Launch-Diskussion die 13. mal wieder obwohl Fakt ist, dass N21 (aka Big Navi) vor den Konsolen erhältlich sein wird. Keine Ahnung, warum man das schon wieder durchkauen muss. Das kam nicht von irgendeinem Support-Fuzzi, sondern vom CFO höchstpersönlich.
Man sollte eine mögliche Fehlinterpretation jetzt nicht als Fakt hinstellen. Kumar hat gesagt "This will be our first RDNA 2 based product". Die Betonung liegt auf "our" - möglich, dass man die Konsolen nicht dazu zählt, weil die halt von Sony/Microsoft kommen. Sonst hätte er auch sagen können "the first RDNA 2 based product". Er könnte also auch gemeint haben, dass Big Navi die erste RDNA 2-Karte direkt von AMD wird.

Linmoum
2020-10-10, 14:31:02
Es wurde von sämtlichen Medien aufgegriffen und davon auch in dergestalt berichtet, dass "Big Navi" vor den Konsolen launcht. Den Shitstorm wird AMD nicht auf sich ziehen, ansonsten hätten sie die Aussage schon damals unmittelbar im Anschluss klargestellt, wenn es eine Fehlinterpretation gewesen wäre. Haben sie nicht.

[MK2]Mythos
2020-10-10, 14:43:15
Ich denke wir können uns darauf einstellen, dass BN irgendwann in der zweiten bis vierten Novemberwoche kommt, ist doch eigentlich total Banane, ob das jetzt ein paar Tage früher, oder später ist.

Zergra
2020-10-10, 14:49:50
Es wurde von sämtlichen Medien aufgegriffen und davon auch in dergestalt berichtet, dass "Big Navi" vor den Konsolen launcht. Den Shitstorm wird AMD nicht auf sich ziehen, ansonsten hätten sie die Aussage schon damals unmittelbar im Anschluss klargestellt, wenn es eine Fehlinterpretation gewesen wäre. Haben sie nicht.

Man liest eben das was man lesen möchte....

gedi
2020-10-10, 19:11:59
Da gebe ich ihm aber recht, zumal die Aussage Afaik eindeutig war. Der wirkliche Index ist, wann die Karten zwecks Reviews bereitstehen. Zudem postet capframex, dass die XTX ne AiO-Version bei 330W ist. Performance wohl exakt zwischen 3080 und 90 im Schnitt. Ob man es glauben mag? Ich habe da so gewisse Zweifel

Und zwecks RT würde ich bei RDNA2 nicht wirklich viel erwarten, da M$ die Funktion als überbewertet einstuft.

Olliver
2020-10-10, 19:27:39
Zweifeln sollte man wohl, aber es wäre toll und würde ein schönes Geräusch auf Jensens Lederjacke machen.:D

gedi
2020-10-10, 19:38:53
Wenn man den FS2020 mal gespielt hat, frage ich mich auch: Kein RT und trotzdem realistischer als jedes RT-Game. RT ist lediglich ein kleiner Anfang zur Realität im Bezug auf Games. Und derzeit ist es sehr teuer. Im Schnitt 35% sind ein Faktor und DLSS 2 habe ich mir angeschaut. Der wo nicht sieht, dass es ein Hardwarebased Upscaler (!) ist, der hat grüne Tomaten auf den Augen

OgrEGT
2020-10-10, 19:41:01
Scheint wohl so zu kommen wie auf Chiphell vor dem AMD Event prognostiziert...
https://www.chiphell.com/forum.php?mod=viewthread&tid=2264233&mobile=1

Jetzt ist nur die Frage ob das N21XL oder N21XE war zu den Benches die gezeigt wurden...

gedi
2020-10-10, 19:52:02
Mit der Bandbreite imo unrealistisch trotz fettem Cache. Aber wenn AMD das Ei des Columbus gefunden haben sollte, dann bin ich der Erste der teilhaben möchte

dargo
2020-10-10, 20:05:34
Joker dreht auch schon durch. ;D

lfZN2kdgfrA

Scheint wohl so zu kommen wie auf Chiphell vor dem AMD Event prognostiziert...
https://www.chiphell.com/forum.php?mod=viewthread&tid=2264233&mobile=1

Jetzt ist nur die Frage ob das N21XL oder N21XE war zu den Benches die gezeigt wurden...
Die ganze Tabelle ist doch Bullshit³. :freak:

Wiseman
2020-10-10, 20:09:38
Es wird ja schon seit einiger Zeit vermutet, dass Big Navi 2x Navi10 werden könnte. Nun, ich hab eine Navi10 und eine Verdoppelung der Leistung käme mir gerade recht. Wobei es nicht unbedingt 100% sein müssten. Ich wär auch mit 80% bis 90% zufrieden, denn neben der Leistung sind für mich auch ein vernünftiger Watt-Verbrauch und ein vernünftiger Preis wichtig.

Als ich heute den Teaser von AMD zur RX 6000 Serie mit Benchmarks zu Borderlands 3, Gears und CoD sah, machte ich mich sofort ans Überprüfen, ob das mit einer eventuellen Leistungs-Verdoppelung von Navi10 zu Navi21 hinkommt. Gears hab ich leider inzwischen deinstalliert und CoD hab ich nicht. Aber Borderlands 3 konnte ich testen.

Borderlands 3/ DX12/ 3840x2160/ Badass Quality: avg 32.5 fps

In dem Teaser werden 61 fps für Borderlands 3 genannt. Das ist jetzt zwar keine Verdoppelung, aber mit 88% wär ich schon mal zufrieden. Hauptsache 60 fps in 4k. Hinzukommt, dass wir ja nicht wissen, welche Karte aus der RX 6000 Serie gemeint ist. Das wurde ja bewusst im Dunkeln gelassen.

Ich zitier mich mal selbst, um mich nicht unnötig wiederholen zu müssen.

Wie man sieht, hatte ich vorgestern mit meiner 5700XT überprüft, mit welcher Leistungsverbesserung ich rechnen könnte, wenn ich demnächst auf Big Navi umsteige. Dass ich auf eine RX 6000 Karte umsteigen werde, ist so sicher wie das berühmte Amen in der Kirche. Am liebsten wäre mir eine mit unter 300 Watt Verbrauch, also z. B. mit 275 Watt.

Von den 3 Games, die AMD angeteasert hat, habe ich vorgestern Borderlands 3 überprüft. AMD gab für Borderlands 3 61 fps an. Ich erzielte 32.5 fps. Das ergibt eine Leistungssteigerung von 88%.

Heute habe ich Gears 5 nochmals installiert und ebenfalls überprüft. Gears 5/ DX12/ 3840x2160/ Ultra Quality: 38 fps. AMD gab für Gears 5 73 fps an. Ich erzielte 38 fps. Das ergibt eine Leistungssteigerung von 92%.

Übrigens, dass sowohl in Borderlands 3 als auch in Gears 5 von AMD der interne Benchmark verwendet wurde, steht für mich außer Frage. Warum sollte sich AMD die Mühe machen und einen eigenen Benchmark-Parcours zusammenstellen, der dann null Vergleichbarkeit aufzuweisen hätte.

Schaut doch gut aus für alle RX 5700XT Besitzer, die vorhaben, auf eine Big Navi umzusteigen. Einmal eine Steigerung von 88% und einmal eine Steigerung von 92%. Eine Leistungssteigerung von ca 90% mit eingebauter mindestens 60 fps in UHD Garantie kann sich schon mal sehen lassen.

Bleibt nur noch die Frage, welche RX 6000 wurde von AMD vor 2 Wochen für den Teaser getestet? Ich bin der Meinung, dass war bereits der aktuelle Top Dog, der auch am 28. Oktober vorgestellt wird und im November erhältlich ist. Mit etwas Feinschliff treiberseitig sind vielleicht auch 100% Leistungssteigerung drin. Ich bin aber ferner der Meinung, dass AMD sich sehr wohl die Option offen lässt, etwas später mit einem Top-notch Dog auch die "Man gönnt sich ja sonst nichts" User bedienen zu können, die selbst ein 350 Watt Verbrauch und/oder ein 999 Euro Kaufpreis nicht abschrecken kann.

gedi
2020-10-10, 20:48:44
Joker dreht auch schon durch. ;D

https://youtu.be/lfZN2kdgfrA


Die ganze Tabelle ist doch Bullshit³. :freak:

Was aber Fakt ist, dass die 3 Benchmarks definitiv kein AMD-freundliches Szenario darstellen! Fakt ist, dass N10 in diesen Games nur durchschnittlich performt! Was passiert, es interessiert kein Schwein! Von daher abwarten - die XT schnappt sich die 3080 und die XTX die 3090. Im Vergleich zu einer 2080TI OCed hat sich eigentlich nicht viel getan bei Ampere
Und nun muss ich doch relativieren: In 4K sind es zwischen einer High ASIC Ti oced und N10 High ASIC oced ca. 30%. Ne 3080 legt ma locker 30% drauf, was imo ne Ansage ist. 4K ist für die Karte immer machbar maxed out. Von daher great work Jensen

Olliver
2020-10-10, 22:15:49
Ich finde es etwas riskant, die bisherigen Stärken oder Schwächen von AMD Karten bei bestimmten engines, oder Spielen, als Maßstab zur Einschätzung dieser drei Benchmarks mit der neuen Karte zu nehmen.
Wenn sich soviel geändert hat was Vram Bandbreitenbedarf und Gebrauch und Aufbau des Cache angeht, finde ich es realistisch, dass die Stärken und Schwächen schlicht anders verteilt sind.

igg
2020-10-10, 22:35:31
Von den 3 Games, die AMD angeteasert hat, habe ich vorgestern Borderlands 3 überprüft. AMD gab für Borderlands 3 61 fps an. Ich erzielte 32.5 fps. Das ergibt eine Leistungssteigerung von 88%.

Heute habe ich Gears 5 nochmals installiert und ebenfalls überprüft. Gears 5/ 3840x2160/ Ultra Quality: 38 fps. AMD gab für Gears 5 73 fps an. Ich erzielte 38 fps. Das ergibt eine Leistungssteigerung von 92%.Woher weißt du, welche Qualitätseinstellung von AMD verwendet wurde?

unl34shed
2020-10-10, 22:44:42
AMD hat für Borderlands den Badass Preset und für Gears Ultra Preset angegeben.

https://www.3dcenter.org/dateien/abbildungen/AMD-Radeon-RX-6000-Performance-Teaser.jpg

Berniyh
2020-10-11, 09:19:41
Scheint wohl so zu kommen wie auf Chiphell vor dem AMD Event prognostiziert...
https://www.chiphell.com/forum.php?mod=viewthread&tid=2264233&mobile=1

Jetzt ist nur die Frage ob das N21XL oder N21XE war zu den Benches die gezeigt wurden...
Da steht Navi 23 mit 192 Bit bzw. 12 GB Speicher, was aber nach unserem Wissen sehr unwahrscheinlich sein dürfte.
Navi 23 wird mit 128 Bit kommen.

dargo
2020-10-11, 09:25:37
Ich werde auch eine Schätzung von Navi 21, 22, 23 veröffentlichen
Lohnt gar nicht darüber zu diskutieren. ;)

Berniyh
2020-10-11, 09:38:22
Ich finde es etwas riskant, die bisherigen Stärken oder Schwächen von AMD Karten bei bestimmten engines, oder Spielen, als Maßstab zur Einschätzung dieser drei Benchmarks mit der neuen Karte zu nehmen.
Wenn sich soviel geändert hat was Vram Bandbreitenbedarf und Gebrauch und Aufbau des Cache angeht, finde ich es realistisch, dass die Stärken und Schwächen schlicht anders verteilt sind.
Damit hast du recht, aber du wirst vermutlich auch zustimmen, dass es etwas absurd ist vom Gegenteil auszugehen, d.h. also dass genau diese Titel bei denen man in Relation zu Nvidia underperformed hat nun plötzlich eine Stärke (d.h. Rosinenpicken) darstellen, oder?
Genau so wurde es aber gerne dargestellt, auch von Leo auf 3DC hier.

Cyberfries
2020-10-11, 10:13:34
Scheint wohl so zu kommen wie auf Chiphell vor dem AMD Event prognostiziert...

Dieser Beitrag schreibt N22 56 und 50CU zu, N23 wird mit 40 und 32CU angegeben.
Das widerspricht den Treibereinträgen. Aufgrund dessen ist auch der Rest in Frage zu stellen.

d.h. also dass genau diese Titel bei denen man in Relation zu Nvidia underperformed

Wo kommt eigentlich diese Behauptung her?
Ich habe das bisher so hingenommen und erst gerade eben nachgesehen.

Gears 5, CBS-Test:
AMDs neue Navi-Grafikkarte ist in Full HD 12 Prozent schneller als die GeForce RTX 2070, im Durchschnitt sind es sonst 8 Prozent.
Borderlands 3, CBS-Test:
Vor allem AMDs neue RDNA-Architektur zeigt sich sehr stark in Borderlands 3.
Gerade unter DX12 gewinnt RDNA hier massiv.
Und dann noch CoD:MW:
Die Radeon RX 5700 XT ist der GeForce RTX 2070 im ComputerBase-Parcours um acht Prozent voraus, in Call of Duty: Modern Warfare sind es dann 16 Prozent.

Was übersehe ich?
Oder ist die Behauptung der RDNA-Schwäche in diesen Titeln Quatsch?

edit: Links:
https://www.computerbase.de/2019-09/gears-5-benchmark-test/2/#diagramm-gears-5-3840-2160
https://www.computerbase.de/2019-09/borderlands-3-benchmark-test/2/
https://www.computerbase.de/2019-10/cod-modern-warfare-test/3/#diagramm-call-of-duty-modern-warfare-3840-2160

Berniyh
2020-10-11, 10:52:03
Oder ist die Behauptung der RDNA-Schwäche in diesen Titeln Quatsch?
Hast du nen Link zu den Tests?
Ich weiß das hauptsächlich aus den ACC Benchmarks die diverse User machen. Da ist eine 5700 XT ok, aber nicht weltbewegend.

Hab auch beim Test von CB mal nachgeschaut:
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/2/
Da haben (5700 XT = 100%, erste Zahl Gesamtperformance, zweite in B3):
1920x1080:
1080 Ti FE: +3% / +20%
2070S FE: +8% / +13%
2080S FE: +21% / +27%

2560x1440:
1080 Ti FE: +5% / +16%
2070S FE: +9% / +11%
2080S FE: +24% / +27%

3840x2160:
1080 Ti FE: +7% / +16%
2070S FE: +10% / +8%
2080S FE: +25% / +23%

In UHD holt die 5700 XT tatsächlich ein bisschen auf die Super-gen Karten auf, aber ansonsten steht Nvidia da relativ betrachtet schon besser da.
Gears 5 haben die da aber nicht getestet.

Aber selbst wenn, es ist ja überhaupt nicht ausgeschlossen, dass Borderlands 3 (bzw. UE4 allgemein) nun das herausragende Beispiel für Topperformance bei RDNA2 ist.
Das ist in meinen Augen aber pure Spekulation für die es nicht wirklich Anhaltspunkte gibt.

dildo4u
2020-10-11, 10:58:06
UE 4.0 war unter DX11 Problematisch für AMD genau aus dem Grund nutzen sie Games mit DX12.
Bei Borderlands bekommt man mit einer 3080 schlechtere Performance wenn man diese API nutzt, also wenn ein Reviewer nicht drauf achtet verschiebt sich das Bild Richtung Big Navi.

Die Frametimes sind besser mit DX12 aber die Avg wären schlechter mit Nvidia und diese stellt der Bench dar.

https://live.staticflickr.com/65535/50449826561_52c5bbdaf9_o.png (https://flic.kr/p/2jS5xMT)borderg (https://flic.kr/p/2jS5xMT) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

https://www.computerbase.de/2019-09/borderlands-3-benchmark-test/2/

dargo
2020-10-11, 11:07:16
Wo kommt eigentlich diese Behauptung her?
Ich habe das bisher so hingenommen und erst gerade eben nachgesehen.

Gears 5, CBS-Test:

Borderlands 3, CBS-Test:

Gerade unter DX12 gewinnt RDNA hier massiv.
Und dann noch CoD:MW:

Das ist jetzt nicht dein ernst oder? :freak: Offenbar ist an dir komplett die wichtige Erkenntnis vorbeigesaust, dass AMD in vielen Titeln mit low level API im CPU-Limit Nvidia überholt. In höheren Auflösungen und somit mehr GPU-Last kann sich das schnell wieder verschieben.

Cyberfries
2020-10-11, 11:14:48
In höheren Auflösungen und somit mehr GPU-Last kann sich das schnell wieder verschieben.

Ich vergleiche 4k und DX12. Also genau das, was AMD für die 6000 genutzt hat.
Natürlich ist die 5700 keine 4k-Karte, die 2700 aber auch nicht.

edit: gemeint sind natürlich 5700/5700xt und 2700/2700super

Hast du nen Link zu den Tests?

Ich habe das oben ergänzt.

unl34shed
2020-10-11, 11:17:48
Man sollte aber auch nicht vergessen, dass Borderlands ein Spiel ist, das überproportional gut auf der 3080 läuft (+40% zur 2080Ti, durchschnitt ist +31% bei CB)

dargo
2020-10-11, 11:25:15
Ich vergleiche 4k und DX12. Also genau das, was AMD für die 6000 genutzt hat.
Natürlich ist die 5700 keine 4k-Karte, die 2700 aber auch nicht.

:confused:

Wieso vergleichst du mit der 2070? Die hat AMD schon lange überholt. Der ernsthaftere Gegner der RX 5700XT ist die 2070 Super.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12422841&postcount=3713

Berniyh
2020-10-11, 11:36:24
Man sollte aber auch nicht vergessen, dass Borderlands ein Spiel ist, das überproportional gut auf der 3080 läuft (+40% zur 2080Ti, durchschnitt ist +31% bei CB)
Ich würde eher sagen, dass auch Turing bei Borderlands 3 schwächelt.
Schau dir mal die Zahlen Pascal vs. Turing aus meinem Vergleich oben an.

@Cyberfries und dildo4u: danke für die Ausführungen. Die Unterschiede bei UE4 mit DX11 und DX12 waren mir tatsächlich noch nicht bewusst.
Das relativiert den Performancemalus von AMD Karten tatsächlich ein bisschen.

Dennoch würde ich an der Stelle nicht davon sprechen, dass AMD an der Stelle deutlich überperformed und das war ja eigentlich das ursprüngliche Thema (cherry-picking).
Wenn man sowas machen wollte, dann gäbe es definitiv bessere Kandidaten als Borderlands 3, zumindest wenn man RDNA1 als Basis nutzt.
Wie sich RDNA2 allgemein und spezifisch in Borderlands 3 verhält werden wir jetzt nicht auflösen können.

dargo
2020-10-11, 11:51:54
Auf jeden Fall. In dem Fall hätte AMD auch BFV nehmen können. F1 2020 wäre auch kein schlechter Kandidat für Cherry Picking. Dort ist die 5700XT selbst in 4k leicht vor der 2070 Super.

Olliver
2020-10-11, 12:43:54
Damit hast du recht, aber du wirst vermutlich auch zustimmen, dass es etwas absurd ist vom Gegenteil auszugehen, d.h. also dass genau diese Titel bei denen man in Relation zu Nvidia underperformed hat nun plötzlich eine Stärke (d.h. Rosinenpicken) darstellen, oder?
Genau so wurde es aber gerne dargestellt, auch von Leo auf 3DC hier.

Ja natürlich, einfach von Rosinenpickerei auszugehen, macht auch nicht mehr Sinn.
Es ist halt heiteres oder düsteres Raten, je nach roter oder grüner Farbe des Fähnchens.

Mich erinnern die emotionalen Wallungen, nvidia versus Amd,
nur an die wechselseitige schwarz/weiß Malerei von iPhone versus Android Fans.

dargo
2020-10-11, 12:47:22
Mich erinnern die emotionalen Wallungen, nvidia versus Amd,
nur an die wechselseitige schwarz/weiß Malerei von iPhone versus Android Fans.
Wir müssen aber auch zugeben ohne diese Sticherleien wäre die Welt doch langweilig oder? :D

Olliver
2020-10-11, 12:54:03
So lange man den Humor behält, kann man über die verbissene Ernsthaftigkeit der Fans gut lachen ��

aufkrawall
2020-10-11, 12:58:41
UE 4.0 war unter DX11 Problematisch für AMD genau aus dem Grund nutzen sie Games mit DX12.
Bei Borderlands bekommt man mit einer 3080 schlechtere Performance wenn man diese API nutzt, also wenn ein Reviewer nicht drauf achtet verschiebt sich das Bild Richtung Big Navi.

Die Frametimes sind besser mit DX12 aber die Avg wären schlechter mit Nvidia und diese stellt der Bench dar.

https://live.staticflickr.com/65535/50449826561_52c5bbdaf9_o.png (https://flic.kr/p/2jS5xMT)borderg (https://flic.kr/p/2jS5xMT) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

https://www.computerbase.de/2019-09/borderlands-3-benchmark-test/2/
Ich sehe da aber kein Ampere? Wer sagt denn, dass Ampere nicht schon eine Extrawurst im Treiber erhalten hat, wenn schon Nvidia selbst BL3 DX12 als Cherry Pick für die Ampere-Vorstellung nutzte?

Olliver
2020-10-11, 13:00:01
Wenn ich einen emoji eingebe, habe ich immer nur zwei Fragezeichen nachdem ich auf Antworten klicke.
Auf dem PC, auch mit verschiedenen Browsern.
???

dildo4u
2020-10-11, 13:00:37
Ich sehe da aber kein Ampere? Wer sagt denn, dass Ampere nicht schon eine Extrawurst im Treiber erhalten hat, wenn schon Nvidia selbst BL3 DX12 als Cherry Pick für die Ampere-Vorstellung nutzte?

Laut dem rennt es langsamer in DX12.

https://youtu.be/lfZN2kdgfrA?t=320

Olliver
2020-10-11, 13:38:11
Ich würde gerne wissen, ob die Spiele die Raytracing schon implementiert haben,
auch auf den RDNA2 Karten laufen, oder ob sie erst gepatcht werden müssen.

Anders gesagt passt einfach Directx12 Raytracing, oder sind die Spiele bisher auf RTX only ausgelegt?

dargo
2020-10-11, 13:48:31
Gute Frage... tippe aber darauf, dass Patches für schon erschienene Games nötig sind. Eventuell ist es aber auch reine Treibersache.

tEd
2020-10-11, 13:58:40
Theoretisch müssten DX12 Raytracing Spiele auch auf RDNA2 laufen. Praktisch wird man sehen.

Olliver
2020-10-11, 14:12:23
Lara, Artjom und Jesse würden gerne in neuem Licht erstrahlen
und am Ende wäre die Kompatibilität mit AMD eben auch eines der Entscheidungsargumente.

robbitop
2020-10-11, 15:51:06
Sofern nicht propertäre Schnittstellen bedient wurden (bspw DXR nach DX12 oder auch die standardtisierten Extensions in Vulkan) muss es auf jeder Hardware laufen, die diese Schnittstellen spezifikationsgemäß umsetzen.

Ist allerdings für mich unklar ob ersteres der Fall ist.

aufkrawall
2020-10-11, 15:53:23
Laut dem rennt es langsamer in DX12.

https://youtu.be/lfZN2kdgfrA?t=320
Da spricht er nur von "Nvidia". Kann auch sein, dass er das genau so ungeprüft auf Ampere überträgt wie du. ;)

Hier sinds nur 57fps mit DX11 auf der 3080 in 4k Renderauflösung (1440p 150%):
https://www.youtube.com/watch?v=PPzLugKKVns

Berniyh
2020-10-11, 16:32:10
Noch ein paar Infos aus der discovery Binary von OS X zu Navi 2x :
https://www.reddit.com/r/Amd/comments/j7bpzs/an_update_on_navi_2x_firmware/

Leider lässt sich die Speicherfrage damit auch nicht abschließend klären. Denn zwar kommt aus der pptable für Navi 10 "memory type 0" und für Navi 12 "memory type 1" raus, aber genau diese Werte fehlen leider bei den Navi 2x Chips.

Interessant ist, dass AMD die UMC (Universal Memory Controller) von 4 auf 8 bei Navi 21 erhöht hat, obwohl ja angeblich die gleiche Breite für das Speicherinterface angenommen wird (256 Bit).
Das klingt nun erstmal verführerisch, dass Navi 21 evtl. die Interfaces von Navi 10 (4x UMC) und 12 (4x UMC) implementiert.
Ein Blick auf Navi 22 (6x UMC, mutmaßlich 192 Bit) und Navi 23 (4x UMC, mutmaßlich 128 Bit) verneint das aber (zumindest in der Form).

SKYNET
2020-10-11, 16:41:06
Ich würde gerne wissen, ob die Spiele die Raytracing schon implementiert haben,
auch auf den RDNA2 Karten laufen, oder ob sie erst gepatcht werden müssen.

Anders gesagt passt einfach Directx12 Raytracing, oder sind die Spiele bisher auf RTX only ausgelegt?


da ne 1080Ti in jedem game RT kann das es anbietet, dürfte es gleich für AMD gelten, da ist nix mit RTX exklusiv, ist standard von der DX12 schnittstelle... ergo: jede DX12 karte kann RT, sofern der treiber es unterstützt.

Olliver
2020-10-11, 18:03:44
da ne 1080Ti in jedem game RT kann das es anbietet, dürfte es gleich für AMD gelten, da ist nix mit RTX exklusiv, ist standard von der DX12 schnittstelle... ergo: jede DX12 karte kann RT, sofern der treiber es unterstützt.

Das leuchtet natürlich ein.
Schade das AMD das nie gemacht hat, vielleicht hätte meine Radeon vii da etwas von ihrer verpuffenden Rechenleistung verwenden können.
Oder wenigstens eine schöne Diashow gemacht.:wink:

gedi
2020-10-11, 18:25:37
Imo ist RT für das Gebotene viel zu teuer. Auch bei ner 3080 brechen 30% der Frames weg. Ist zwar deutlich besser als bei ner 2080TI, trotzdem meh.

AffenJack
2020-10-11, 18:37:12
Imo ist RT für das Gebotene viel zu teuer. Auch bei ner 3080 brechen 30% der Frames weg. Ist zwar deutlich besser als bei ner 2080TI, trotzdem meh.

Das wird nur mehr werden, desto stärker RT benutzt wird.:wink:

RT Effekte kosten nunmal und desto mehr und desto Qualitativ bessere verwendet werden, desto größer wird der Verlust durch RT im Vergleich zu Non-Rt werden (bis irgendwann non-RT ganz raus ist).

Olliver
2020-10-11, 18:41:55
Etwas mehr RT Fortschritt hatte ich mir auch erhofft.
Aber wahrscheinlich sind die bei dem Monsterchip schon zu sehr an den Grenzen um noch mehr RT Cores draufzulegen.
Und man muss bei nvidia auch an die Zukunft denken, also mindestens noch zwei drei Generationen mit mehr RT Performance verkaufen, bis 16K Bildschirme mainstream werden.��

RLZ
2020-10-11, 18:48:29
Ich würde gerne wissen, ob die Spiele die Raytracing schon implementiert haben,
auch auf den RDNA2 Karten laufen, oder ob sie erst gepatcht werden müssen.

Anders gesagt passt einfach Directx12 Raytracing, oder sind die Spiele bisher auf RTX only ausgelegt?
Theoretisch ja. Allerdings kann sein, dass Entwickler beispielsweise den Nvidia BVH Generator direkt verwendet haben. Das könnte zu schlechterer Perfomance auf der AMD Hardware führen.

Imo ist RT für das Gebotene viel zu teuer. Auch bei ner 3080 brechen 30% der Frames weg. Ist zwar deutlich besser als bei ner 2080TI, trotzdem meh.
Wenn man langfristig plant, muss man sich überlegen was man mit der nächsten Größenordnung an Performancezuwachs anfangen will, um einen möglichst hohen Bildqualitätszugewinn zu erreichen. Auch viele Screenspace Effekte wie SSR (die auch fast alle "Raytracing" sind...) haben am Anfang ähnlich Leistung gekostet. Wir haben in den letzten 10 Jahren viele Versuche für globale Szenen-Queries gehabt. Raytracing ist da aber immer noch die (langsame) Referenzlösung. Am effizientesten sind vermutlich Algorithmen, die aus einer Reihe von Lösungen auswählen (e.g. UE5 Lumen). Aber imo ist der Entwicklungsaufwand langfristig dafür zu groß und es wird immer mehr Richtung Raytracing gehen. Interessant wird es, wenn wir genug Leistung für Echtzeit Metropolis Tracing (oder was auch immer dann aktuell ist) haben.

Olliver
2020-10-11, 18:54:00
Die RT Performance auf RDNA2 ist ja eh noch eine große Unbekannte, wenn das Gerücht z.B stimmt, dass einfach 1/4 der Cores für RT abgezweigt werden, ohne spezialisiert zu sein.
Da würde ich mich auch fragen ob man die Balance wieviele cores man für RT benutzt, nicht einfach je nach Bedarf verschieben könnte.

dargo
2020-10-11, 18:58:48
Imo ist RT für das Gebotene viel zu teuer.
Sehe ich absolut genauso. Selbst bei RDNA2 werde ich mit hoher Wahrscheinlichkeit kein RT nutzen. Es sei denn ich habe genug Overhead (1440p). Aber erstmal abwarten wie teuer RT auf RDNA2 tatsächlich ist. Und vor allem welche RT-Implementierungen die Multiplattform Titel bekommen, jetzt wo die Konsolen auch RT können. Vielleicht setzt man RT dort so sparsam ein, dass es gar nicht so teuer ist. Beispiel... RT medium Konsole und dann in der Regel fast sinnfreies RT high + ultra am PC welches jede Karte in die Knie zwingt. Mal sehen...

gedi
2020-10-11, 19:08:56
Es ist ja so, dass es für den Moment absolut spärlich eingesetzt wird und trotzdem Performance ohne Ende kostet - bestes Beispiel: RotTR. Hier muss man übertrieben gesagt mit der Lupe suchen (ingame nimmt man es eh nicht wahr), trotzdem kostet es Unmengen an Performance.

aufkrawall
2020-10-11, 19:16:33
Die Schatten in SotTR dürften allerdings auch so ziemlich der schlechteste Fall sein, was die Optik-"Aufwertung" anbelangt. Für gescheite Filterung gegen Schrott-Aliasing war dann wohl nicht mehr genug Performance da. ;D

dargo
2020-10-11, 19:22:45
Es ist ja so, dass es für den Moment absolut spärlich eingesetzt wird und trotzdem Performance ohne Ende kostet - bestes Beispiel: RotTR. Hier muss man übertrieben gesagt mit der Lupe suchen (ingame nimmt man es eh nicht wahr), trotzdem kostet es Unmengen an Performance.
Bei den Games wo ich schon die Lupe rauskramen muss um einen Unterschied zu erkennen schalte ich RT direkt aus. ;)

gedi
2020-10-11, 19:28:29
Die Schatten in SotTR dürften allerdings auch so ziemlich der schlechteste Fall sein, was die Optik-"Aufwertung" anbelangt. Für gescheite Filterung gegen Schrott-Aliasing war dann wohl nicht mehr genug Performance da. ;D

SotTR, danke für die Berichtigung :smile: Teuer ist es aber auch hier und da frage ich mich warum. Den RT-Ansatz hätten sie sich sparen können und wegen mir es bei DLSS für die schwächeren NV-GPUs belassen sollen.

dargo
2020-10-11, 19:44:20
Gerade dort gibts kein DLSS mit TU116/117, das ist ja der Witz dabei. :freak:

gedi
2020-10-11, 19:46:11
Ich meine damit eigentlich die 2060 non s.

horn 12
2020-10-11, 22:07:26
Mann wirds spannend
Meiner Meinung nach lässt AMD Nvidia diesesmal komplett auflaufen.

XL für 499 Ohne Konkurrenz
XT für 599 bis 649 Euro und knapp unter 3080/ teils auf 3080 Level
XTX für 849 Dollar/ Euro und zwischen 3080 und 3090, und auch darüber!


Mann muss rechnen, dass die 20GB Karten deutlich teurer als aktuell von Nvidia eingepreiste RTX 3070/3080 werden und somit müssen die 20 GB Karten zum Preis der jetzigen 3080/3070 kommen falls Nvidia sich darauf einlassen sollte.
Da wird man wohl DLSS und RayTracing in den Focus stellen!

horn 12
2020-10-11, 22:10:43
@edit

y33H@
2020-10-11, 22:23:04
Du hast du RX 6900 XTX ub0r Edition vergessen ...

gedi
2020-10-12, 10:12:48
Du hast du RX 6900 XTX ub0r Edition vergessen ...

Die Rage-Version mit AiO bei 330W - ich dachte das Ding ist nen Fake :rolleyes:

PingpiN
2020-10-12, 10:26:16
Wie kann man in mittleren Alter eigentlich noch so ein Fanboy sein? In der Jugend und im frühen Erwachsenen Alter war ich auch ein Amd Fanboy. Jetzt mit 30 interessiert mich das ein feuchten furz welche Marke in mein pc werkelt.bei gleichen Preis werde ich wohl zur Nvidia greifen wegen dlss usw obwohl meine symphatien eher bei AMD sind.

Thunderburne
2020-10-12, 10:32:38
Mann wirds spannend
Meiner Meinung nach lässt AMD Nvidia diesesmal komplett auflaufen.

XL für 499 Ohne Konkurrenz
XT für 599 bis 649 Euro und knapp unter 3080/ teils auf 3080 Level
XTX für 849 Dollar/ Euro und zwischen 3080 und 3090, und auch darüber!


Mann muss rechnen, dass die 20GB Karten deutlich teurer als aktuell von Nvidia eingepreiste RTX 3070/3080 werden und somit müssen die 20 GB Karten zum Preis der jetzigen 3080/3070 kommen falls Nvidia sich darauf einlassen sollte.
Da wird man wohl DLSS und RayTracing in den Focus stellen!
Ich glaub er an eine 11-12GB mit 356 -384 bit und Ausbau wie 3090 damit man Performance nach legen kann und nicht zu teuer wird mit 20GB.

Armaq
2020-10-12, 10:39:04
Es ist ja so, dass es für den Moment absolut spärlich eingesetzt wird und trotzdem Performance ohne Ende kostet - bestes Beispiel: RotTR. Hier muss man übertrieben gesagt mit der Lupe suchen (ingame nimmt man es eh nicht wahr), trotzdem kostet es Unmengen an Performance.

Das ist das hauptsächliche Problem. Wenn man sich RT und nonRT Szenarien ansieht, sieht man in zweitem Fall halt sehr gut Annäherung (aka Fakes) und mit RT eben "nur" die korrekte Version. Ich finde die Unterschiede sind schon sichtbar, ich denke einen Vergleich wird es vll. so nicht geben - richtig sinnvoll wäre eben eine DXR Implementierung, bei der man nur ein RT Modell hat. Aber wir sehen hier halt wieder das Henne/Ei Thema.


Wie kann man in mittleren Alter eigentlich noch so ein Fanboy sein? In der Jugend und im frühen Erwachsenen Alter war ich auch ein Amd Fanboy. Jetzt mit 30 interessiert mich das ein feuchten furz welche Marke in mein pc werkelt.bei gleichen Preis werde ich wohl zur Nvidia greifen wegen dlss usw obwohl meine symphatien eher bei AMD sind.
Das ganze Thema "Fan" muss mir noch einer erklären. Ich find die Konkurrenz wichtig, ansonsten haben wir Mondpreise und bekommen auch keine Innovation. Ich hoffe auch beim DLSS-Konkurrenten irgendwie auf etwas was ähnlich funktioniert, dann haben wir vll. mit der nächsten Generation generell so ein Upscaler in DX. Das lässt mehr Effekte und RT-Beleuchtung vll. erst zu bei 4k.

Fragman
2020-10-12, 11:11:31
Ich glaube nicht, das AMD schon so etwas wie DLSS hat.
Das hätte man in den Konsolenfeatures erwähnt und fürs Marketing benutzt.

gedi
2020-10-12, 11:33:14
GPU-Turbo (also Upsampling)+einen gewissen Grad mit SSAA+FFX und schon sollte man ein Äquivalent in etwa haben.

Thunderburne
2020-10-12, 11:33:15
Ich glaube nicht, das AMD schon so etwas wie DLSS hat.
Das hätte man in den Konsolenfeatures erwähnt und fürs Marketing benutzt.

https://youtu.be/F8lCD5iPQiI
https://youtu.be/8b6m5wmLCLo

Dural
2020-10-12, 11:49:44
Wie will AMD sowas bringen, keine Tensor Cores vorhanden.

Ich habe 2018 schon gesagt das AMD frühestens 2022 mit RT und Tensor Einheiten kommen wird, und bis jetzt trifft das wohl auch voll zu.

Navi2 ist eine Bastellösung, ist ja mehr als offensichtlich.

dargo
2020-10-12, 11:58:02
Ich glaube nicht, das AMD schon so etwas wie DLSS hat.
Das hätte man in den Konsolenfeatures erwähnt und fürs Marketing benutzt.
Braucht AMD auch nicht solange die Konsolen es auch nicht haben. Der Alleingang von Nvidia mit DLSS ist langfristig eine Totgeburt. Erst wenn ein offener Standard für ein Äquivalent kommt auf den die gesamte Gamingbranche Zugriff hat wird sich sowas durchsetzen.


Ich habe 2018 schon gesagt das AMD frühestens 2022 mit RT und Tensor Einheiten kommen wird, und bis jetzt trifft das wohl auch voll zu.

Dann hast du schon mal zu 50% wie üblich Blödsinn erzählt. Ray Tracing kommt 2020 bei AMD.

Lehdro
2020-10-12, 12:01:02
Navi2 ist eine Bastellösung, ist ja mehr als offensichtlich.
DLSS 1.0 ist auch eine Bastellösung und wurde von einigen hier im Forum als Revolution abgefeiert.
DLSS 2.0 war dann das was man wirklich haben will, krankt aber noch am fehlenden breiten Support. Was wohl auch so bleiben wird, solange das ganze propertiär ist und für jedes Game extra implementiert werden muss.

Ich hoffe AMD setzt da mehr auf etwas Universelleres, sofern überhaupt möglich.

Dampf
2020-10-12, 12:01:59
https://youtu.be/F8lCD5iPQiI
https://youtu.be/8b6m5wmLCLo

Schon wieder dieser Unsinn.

FidelityFX ist upscaling und sharpening, es ist keine Rekonstruktion wie Checkerboarding oder DLSS. Es fügt keine Details hinzu und du erzielst den selben Effekt, wenn du im Spiel selbst eine geringere Renderauflösung auswählst und Sharpening mit Nvidia Control Panel oder RIS hinzufügst.

Es hat gar nichts mit DLSS zu tun.

Der Grund warum es in dem Video ähnlich aussieht ist, weil bei 4K die interne Renderauflösung von Fidelity hoch genug ist. Wahrscheinlich siehst du das sowieso auf einem 1440p oder 1080p Monitor, heißt ohne ranzoomen ist es unmöglich da Unterschiede festzustellen, da die interne Renderauflösung von FidelityFX höher ist als 1440p. Deswegen mal ein Vergleich bei 1080p:

https://imgsli.com/MTk0MTQ/0/1

w0mbat
2020-10-12, 12:05:59
Ach Dampf, du bist echt ein broken record. DLSS sieht auch schlechter aus, das haben wir jetzt doch schon zig mal durch.

Daredevil
2020-10-12, 12:06:30
Ja ist doch geil.
Du startest das Spiel in 720p, weil es sonst in UHD+RT zuwenig Frames hat und schärfst es dann solange, bis man wieder was erkennt auf 55“. :D

DLSS ist wegen RT geboren, entweder hat AMD ein Äquivalent, oder sie gehen unter bei z.B. Cyberpunk.
Oder sie fokussieren sich so stark auf RT ( schon alleine wegen den Konsolen), das man Rohperformance vernachlässigt, also wie bei Turing.

dargo
2020-10-12, 12:06:45
@Dampf

Und genau dort sehe ich den Sinn von DLSS... bei 4k Bildschirmen oder drüber. Unter 4k ist das Ergebnis nicht überzeugend, sagt sogar Exe mit seiner RTX 2080! Wenn DLSS unter 4k sehr gute Ergebnisse liefern würde hätten TU116/117 ebenfalls Tensor Cores. Haben sie nicht.

Dampf
2020-10-12, 12:07:57
Ach Dampf, du bist echt ein broken record. DLSS sieht auch schlechter aus, das haben wir jetzt doch schon zig mal durch.

Bei 8K stimmt das. Wo bist du, wenn man dich mal braucht? ;)

@Dampf

Und genau dort sehe ich den Sinn von DLSS... bei 4k Bildschirmen oder drüber. Unter 4k ist das Ergebnis nicht überzeugend, sagt sogar Exe mit seiner RTX 2080! Wenn DLSS unter 4k sehr gute Ergebnisse liefern würde hätten TU116/117 ebenfalls Tensor Cores. Haben sie nicht.

Blödsinn, das war noch so bei DLSS 1.0. Ich nutze DLSS auf 1440p und 1080p und selbst da macht es einen hervorragenden Job.

https://www.youtube.com/watch?v=YWIKzRhYZm4
https://youtu.be/ScAQ5Of1LfE?t=1024

Die neuen Einsteiger-Karten werden definitiv RT und TCs haben.

dargo
2020-10-12, 12:11:54
Blödsinn, das war noch so bei DLSS 1.0. Ich nutze DLSS auf 1440p und 1080p und selbst da macht es einen hervorragenden Job.

Dann bist du nicht besonders anspruchsvoll. Völlig legitim...

PS: der Vergleich mit der Postprocessing-Seuche @Control setzt dem ganzen noch die Krone auf. :freak:

Dampf
2020-10-12, 12:13:49
Dann bist du nicht besonders anspruchsvoll. Völlig legitim...

Hör doch auf mit solch einem unreflektierten, beleidigenden Unsinn. Ich hab schon dutzende Vergleiche aufgenommen. Was meinst du wie viel Lebenszeit ich damit verbracht hab, Unterschiede aufzunehmen? Guck dir doch einfach mal das hier an https://youtu.be/ScAQ5Of1LfE?t=1024

robbitop
2020-10-12, 12:15:07
Mittels INT4 Beschleunigung lässt sich sicherlich da schon was machen. Ist ja immer die Frage, wie man das NN aufbaut und was man damit macht. NV hat ihr NN so aufgebaut, dass man die TCs gut nutzen kann. Wenn andere HW vorhanden ist, lässt sich da sicherlich auch etwas tun.

Ein Produkt, was sicherlich mehrere hundert Millionen USD in der Entwicklung gekostet hat und beiden Next Gen Konsolen, die sicherlich gemeinsam im Lebenszyklus über 100 Mio Geräte kommen als Bastellösung zu bezeichnen, ist IMO sehr gewagt. Verschiedene Wege sind valide. Und es bleibt auch erstmal abzuwarten, wie gut Navi 2x ist. Insbesondere pro Watt, pro Transistor, pro EUR etc.

Nazar
2020-10-12, 12:21:02
Wie kann man in mittleren Alter eigentlich noch so ein Fanboy sein? In der Jugend und im frühen Erwachsenen Alter war ich auch ein Amd Fanboy. Jetzt mit 30 interessiert mich das ein feuchten furz welche Marke in mein pc werkelt.bei gleichen Preis werde ich wohl zur Nvidia greifen wegen dlss usw obwohl meine symphatien eher bei AMD sind.

Seit wann schließt das Alter Fanatismus aus? :confused:
Als Erwachsener im mittleren Alter sollte einem klar sein, dass das Alter noch nie ein Gradzeiger für Intelligenz oder Logik war und das gerade "Männer" dazu neigen ewig "Kind" zu bleiben. :wink:

DLSS ist total überschätzt. Mit DLSS ist Modding im Bereich der Texturen tot! DLSS will nämlich immer die Textur "reparieren", egal ob das gewünscht ist oder nicht. Man sieht das sehr gut, wenn Texturen plötzlich anstatt eines gewünschten verwaschenen Gelbs eine strahlendes bekommen und Texte, die absichtlich verwittert aussehen sollen, plötzlich wieder wie neu aussehen.
Ich glaube, viele haben sich bisher noch nicht im Ansatz mit der Wirkweise und der Auswirkung von DLSS auf Spiele auseinander gesetzt.
DLSS ist für Spiele sowohl Fluch als auch Segen aber mit Sicherheit nicht der Heilbringer als das es Verkauft wird. :wink:

Bei 8K stimmt das. Wo bist du, wenn man dich mal braucht? ;)



Blödsinn, das war noch so bei DLSS 1.0. Ich nutze DLSS auf 1440p und 1080p und selbst da macht es einen hervorragenden Job.

https://www.youtube.com/watch?v=YWIKzRhYZm4
https://youtu.be/ScAQ5Of1LfE?t=1024

Die neuen Einsteiger-Karten werden definitiv RT und TCs haben.

Wie ich oben schon schrieb. Deine Antwort zeigt nur zu deutlich, dass du dich kaum mit DLSS und dessen Auswirkungen und dem Nutzen auseinandergesetzt hast.
DLSS kann eben nicht zwischen absichtlich "schlechten" und normalen "guten" Texturen unterscheiden. Sieht man auch gut in einigen Spielen, die DLSS nutzen.
Auch funktioniert DLSS nicht sehr gut, sondern eher so "La La", wenn es sich um weiträumige Level handelt, da massiv Details in der Entfernung verloren gehen und viel Blurr eingesetzt wird.
Es mag seine Zweck für Leute erfüllen, die mit ungeeigneter Hardware hochauflösende Spiele flüssig spielen möchten aber hier treibt man den Teufel mit dem Beelzebub aus.
Ja DLSS ist ein Mittel aber es macht mit Sicherheit keinen hervorragenden Job! Davon ist DLSS noch >>Lichtjahre<< entfernt und so lange es eine "Ego Entwicklung" von nVidia bleibt, wird sich daran auch nichts ändern.
Aber jeder wie er es mag.

dargo
2020-10-12, 12:21:56
Hör doch auf mit solch einem unreflektierten, beleidigenden Unsinn. Ich hab schon dutzende Vergleiche aufgenommen. Was meinst du wie viel Lebenszeit ich damit verbracht hab, Unterschiede aufzunehmen? Guck dir doch einfach mal das hier an https://youtu.be/ScAQ5Of1LfE?t=1024
Du diqualifizierst dich doch schon selbst mit einem kaputt komprimierten YT-Video. In 1440p nativ + TSSAA T8X sehe ich auf dem Plakat rechts an der Tür gar kein Kantenflimmern welches mit DLSS direkt sichtbar ist. Ich bleibe dabei... 1440p ist einfach zu niedrige Abtastung. Und 1080p ist dann Comedy.

Thunderburne
2020-10-12, 12:24:52
Schon wieder dieser Unsinn.

FidelityFX ist upscaling und sharpening, es ist keine Rekonstruktion wie Checkerboarding oder DLSS. Es fügt keine Details hinzu und du erzielst den selben Effekt, wenn du im Spiel selbst eine geringere Renderauflösung auswählst und Sharpening mit Nvidia Control Panel oder RIS hinzufügst.

Es hat gar nichts mit DLSS zu tun.

Der Grund warum es in dem Video ähnlich aussieht ist, weil bei 4K die interne Renderauflösung von Fidelity hoch genug ist. Wahrscheinlich siehst du das sowieso auf einem 1440p oder 1080p Monitor, heißt ohne ranzoomen ist es unmöglich da Unterschiede festzustellen, da die interne Renderauflösung von FidelityFX höher ist als 1440p. Deswegen mal ein Vergleich bei 1080p:

https://imgsli.com/MTk0MTQ/0/1
https://docs.microsoft.com/en-us/windows/win32/direct3d12/dml-intro
Das wird der Gegenspieler zu DLSS!
Und das wird dann auf bei allen drei Kontrahenten laufen!
Und DLSS wird an PhysiX erinnern also das Schicksal teilen!
Nicht falsch verstehen ich mochte DLSS 2.0 auf meiner Ex2080Ti aber ist halt wieder eigener Brei den NV da macht!

Berniyh
2020-10-12, 12:30:14
Ach Kinders … gibt es nicht irgendwo einen DLSS Thread in dem man das diskutieren könnte?

robbitop
2020-10-12, 12:32:07
DLSS ist total überschätzt. Mit DLSS ist Modding im Bereich der Texturen tot! DLSS will nämlich immer die Textur "reparieren", egal. Man sieht das sehr gut, wenn Texturen plötzlich anstatt eines gewünschten verwaschenen Gelbs eine strahlendes bekommen und Texte, die absichtlich verwittert aussehen sollen, plötzlich wieder wie neu aussehen.
Ich glaube, viele haben sich bisher noch nicht im Ansatz mit der Wirkweise und der Auswirkung von DLSS auf Spiele auseinander gesetzt.
DLSS ist für Spiele sowohl Fluch als auch Segen aber mit Sicherheit nicht der Heilbringer als das es Verkauft wird. :wink:
Bin mir nicht sicher, ob das bei DLSS 2.x auch noch so ist. Eigentlich ist der Ansatz hier eher temporale Daten zur Rekonstruktion eines Bildes zu nutzen statt Dinge einfach zu Schärfen und nur das 2D Bild für sich zu betrachten und entsprechend Dinge zu halluzionieren.

https://docs.microsoft.com/en-us/windows/win32/direct3d12/dml-intro
Das wird der Gegenspieler zu DLSS!
Und das wird dann auf bei allen drei Kontrahenten laufen!
Und DLSS wird an PhysiX erinnern also das Schicksal teilen!

DirectML ist eine Schnittstelle, keine NN-Applikation. Es ist eher ein Werkzeug als ein Produkt.
Was DLSS ausmacht ist das Know How und die Forschung und den Aufbau des neuronalen Netzwerks. Das ist sicherlich sehr aufwändig. Damit das richtig gut wird, kann das nicht jeder Spieleentwickler für sich machen (Aufwand und RnD sehr sehr hoch). Dazu muss einer (AMD) entsprechend Zeit/Arbeit investieren. Auch muss die Lösung gut implementierbar sein.

Die Frage ist, ob AMD dann am Ende das NN für andere 3D HW zugänglich macht und grundsätzlich auf jeder modernen 3D HW ausführbar ist.
Ich tippe darauf, weil man eben das NN braucht, was extern trainiert wird - dass die Lösung, sollte sie denn mal kommen, dann auch nur auf AMD HW läuft. Aber wer weiß: vielleicht ist AMD ja bereit diesen Zugang allen zu geben.

Thunderburne
2020-10-12, 12:32:27
Ach Kinders … gibt es nicht irgendwo einen DLSS Thread in dem man das diskutieren könnte?

Warum ist doch Interessant und da geht die Zukunft auf jeden Fall hin mit KI Berechnung auch für AMD !

robbitop
2020-10-12, 12:35:31
Ja aber Berniyh hat Recht. Es gibt einen dedizierten DLSS Thread. Da kann man das weiter diskutieren.

Dampf
2020-10-12, 12:35:53
https://docs.microsoft.com/en-us/windows/win32/direct3d12/dml-intro
Das wird der Gegenspieler zu DLSS!
Und das wird dann auf bei allen drei Kontrahenten laufen!
Und DLSS wird an PhysiX erinnern!

DirectML ist eine API für Machine Learning in Spielen. Ja, sie ermöglicht so ein DLNN für Rekonstruktion auf allen Plattformen. Die Frage ist dann, ob es in der selben Qualität wie DLSS zu dieser Performance möglich ist. Ohne Tensor Kerne/Matritzeneinheiten die die AI Compute Leistung liefern eher nicht, da muss dann auf beiden Seiten Kompromisse eingegangen werden.

Ich bin überzeugt davon, dass AMD bei RDNA3 ebenfalls solche Matritzen-Einheiten einbauen werden und dann ist auch DLSS Qualität mit dieser Performance möglich. Wenn AMD schnell ist, dann werden sie das vielleicht sogar schon in Big Navi einbauen, so als Überraschung.

Irgendwann könnte ein DLNN auf Basis von DirectML DLSS ablösen. Aber bedenke bitte, dass sich für RTX Nutzer nichts ändert da DirectML ebenfalls auf die Tensor Kerne zugreifen kann.

@dargo und wegen so einer Tür ignorierst du die ganzen anderen Kanten, die von DLSS hervorragend geglättet werden? Und ignorierst die schärfere, insgesamt bessere Bildqualität? Bedenke, ich hab Wolfenstein unkomprimiert bei mir laufen, während du deine Meinung auf Basis von JPEGs und "tot komprimierte Videos" bilden musst. ;) Aber belassen wir es dabei, sonst wird es noch off-topic. Sobald du irgendeine neue GPU hast, die AI Rekonstruktion in diesem Umfang unterstützt, egal ob AMD oder Nvidia, wirst du ebenfalls von AI Rekonstruktion begeistert sein, das verspreche ich dir.

In Control ist es überschärft, da gebe ich dir recht.

dargo
2020-10-12, 12:42:23
@dargo und wegen so einer Tür ignorierst du die ganzen anderen Kanten, die von DLSS hervorragend geglättet werden? Und ignorierst die schärfere, insgesamt bessere Bildqualität? Bedenke, ich hab Wolfenstein unkomprimiert bei mir laufen, während du deine Meinung auf Basis von JPEGs und "tot komprimierte Videos" bilden musst. ;) Aber belassen wir es dabei, sonst wird es noch off-topic. Sobald irgendeine neue GPU hast, die AI Rekonstruktion in diesem Umfang unterstützt, egal ob AMD oder Nvidia, wirst du ebenfalls von AI Rekonstruktion begeistert sein, das verspreche ich dir.
Mir zeigt dein Video eindeutig, dass du nur auf Bildbereiche achtest die dir Vorteile bringen bzw. für dich persönlich schöner aussehen (subjektive Wahrnehmung). Und das ist keine objektive Betrachtung von Bildqualität. Bezüglich Bildschärfe... ich sehe in diesem Forum viel zu oft Bilder im entsprechenden Thread die völlig überschärft sind. Das lässt mich dann am Beurteilungsvermögen diverser User zweifeln ob die Ahnung von Bildqualität haben. Zudem kann man die Bildschärfe in Wolfenstein wunderbar im Menü justieren. Ob die Bildschärfe mit dem nativen Bild im Video jetzt optimal ist kann ich anhand von einem YT-Video nicht beurteilen, miserable Kompression.

btw.
Wolfenstein habe ich auch gespielt, so ganz ohne DLSS.

DrFreaK666
2020-10-12, 12:47:03
Wie kann man in mittleren Alter eigentlich noch so ein Fanboy sein? In der Jugend und im frühen Erwachsenen Alter war ich auch ein Amd Fanboy. Jetzt mit 30 interessiert mich das ein feuchten furz welche Marke in mein pc werkelt.bei gleichen Preis werde ich wohl zur Nvidia greifen wegen dlss usw obwohl meine symphatien eher bei AMD sind.

Ich bin auch eher AMD-Sympathisant, habe aber zur Nvidia-Karte gegriffen, weil das das bessere Angebot war (ja, GTX980Ti ist schon etwas her, war aber besser als die Fury X)

Berniyh
2020-10-12, 13:10:26
Warum ist doch Interessant und da geht die Zukunft auf jeden Fall hin mit KI Berechnung auch für AMD !
Bestimmt, aber für die die es interessiert gibt es ja den entsprechend Thread. ;)

Mich persönlich interessiert es halt nicht, Navi 2x aber schon.
Da das auch hier schon 3-4x diskutiert wurde kenne ich inzwischen auch alle Argumente und Vergleiche hinreichend gut.

Wobei es natürlich auch nicht nach mir gehen muss.
Man hat aber halt hier und da den Eindruck, dass es beim Aufbringen des Themas mehr um Provokationen geht als um Diskussion dazu.

Complicated
2020-10-12, 13:25:00
Wenn man das selbe Ergebnis (FPS+Bildqualität) mit upscaling erreicht wie mit DLSS, ohne das Bild zu verfälschen, wie das DLSS oft macht, dann braucht man DLSS auch nicht bei AMD. Tesselation lässt grüßen, was AMD auch anders lösen konnte. Nvidia muss ja etwas wie DLSS bieten, um die Temsorcores mit etwas zu beschäftigen, die ja auch Platz auf dem Chip brauchen. Diese werden auf Dauer nicht in Gaming GPUs bleiben, da bin ich mir sicher.

Der Grund warum Tensor-Cores zur Belastung für Nvidias RT-Ansatz werden, ist einfach die verbrauchte Diefläche auf teuren 5nm-Nodes und die Situation mit der verfügbaren Wafer-Kapazität. Wenn AMD nun das SI wirklich nachhaltig schrumpfen kann, wie es derzeit für RDNA2 spekuliert wird, erhöht sich der Druck Flächen-Effizient zu werden. Ich denke spätestens bei RDNA3 auf 5nm wird Nvidia sich diesen Platzverbrauch nicht mehr leisten können für ein Feature das noch Jahre brauchen wird, um in Software breit genug abzuliefern für DLSS - EUV wird das teuer machen.

pixeljetstream
2020-10-12, 13:59:41
Wir haben spezifische Threads für diese Themen... Es scheint als ob die gleichen Personen die gleichen Themen mehrfach übers Forum verteilt diskutieren.

JVC
2020-10-12, 14:59:42
Wie kann man in mittleren Alter eigentlich noch so ein Fanboy sein? In der Jugend und im frühen Erwachsenen Alter war ich auch ein Amd Fanboy.
Jetzt mit 30 interessiert mich das ein feuchten furz welche Marke in mein pc werkelt.
Jup, jetzt mit fast 50, kann ich auch etwas gelassener und überdachter darüber entscheiden...

Performance per Watt ist es um was sich Jetzt alles dreht ;)
Und man liebt immer mehr das "Echte" ...

M.f.G. JVC

Ich glaube nicht, das AMD schon so etwas wie DLSS hat.
Zum Memo, den ich denke da liegst du falsch...

OgrEGT
2020-10-13, 01:15:32
Im b3d Forum wurde über 160 CUs spekuliert bzw. 80 DCUs...
https://forum.beyond3d.com/posts/2164593/

VLIW2 war ja auch schon im Gespräch hier:
https://twitter.com/kopite7kimi/status/1300840126734450688?s=20

dargo
2020-10-13, 07:09:32
Im b3d Forum wurde über 160 CUs spekuliert bzw. 80 DCUs...
https://forum.beyond3d.com/posts/2164593/

What? Nee... das wird mir zu wild. :tongue:

OgrEGT
2020-10-13, 07:42:52
What? Nee... das wird mir zu wild. :tongue:

Vlt deutet das darauf hin dass BN auch wie Ampere mehr Instrunktionen pro Clock ausführen kann und man so die Einheiten auch auf dem Papier verdoppelt...
Bei VLIW2 geht man davon aus dass parallel ein Load/Store mit jeder Instruktion ausgeführt werden kann was vorher nur entweder/oder funktioniert.

https://www.reddit.com/r/Amd/comments/8llt52/curiosity_about_amds_patents_potentially_aluding/

OgrEGT
2020-10-13, 07:45:43
... ist aber mit BN wirklich heftig wie wenig Infos vor Launch (in 2 Wochen) bekannt sind...
Modelle, CUs, Speicher, SI alles nebulös...

dargo
2020-10-13, 08:04:47
Vlt deutet das darauf hin dass BN auch wie Ampere mehr Instrunktionen pro Clock ausführen kann und man so die Einheiten auch auf dem Papier verdoppelt...

Sowas wäre doch aber schon bei der Vorstellung der XBSX durchgesickert. Ich kann mir kaum vorstellen, dass sich die Desktop-Varianten so gravierend unterscheiden.

mboeller
2020-10-13, 08:08:16
Im b3d Forum wurde über 160 CUs spekuliert bzw. 80 DCUs...
https://forum.beyond3d.com/posts/2164593/

VLIW2 war ja auch schon im Gespräch hier:
https://twitter.com/kopite7kimi/status/1300840126734450688?s=20

Jawed hat aber nur ein 256bit Speicherinterface für seine "Analyse" benutzt.

160CU + 256bit ... eher schräg

Cyberfries
2020-10-13, 08:14:57
Wir wissen von der CU, WGP, SA, SE - Konfiguration der N2x-Generation.
Nur weil ein Mitglied des b3d-Forums das nicht mitbekommen hat, müssen wir das nicht in Frage stellen.
b3d ist da ohnehin langsamer, denen ist erst vor kurzem aufgefallen, dass 505mm² zu groß sind.

Seit dem Bondrewd-Bann hat der b3d-Navi-Thread einiges an Unterhaltungswert eingebüßt.
Gut, dafür wird dort nicht so ausführlich über DLSS philosophiert.

Palpatin
2020-10-13, 08:37:16
... ist aber mit BN wirklich heftig wie wenig Infos vor Launch (in 2 Wochen) bekannt sind...
Modelle, CUs, Speicher, SI alles nebulös...
In 2 Wochen ist die Vorstellung, Launch eher in ca. 6 Wochen.

Leonidas
2020-10-13, 09:15:56
Interessant ist, dass AMD die UMC (Universal Memory Controller) von 4 auf 8 bei Navi 21 erhöht hat, obwohl ja angeblich die gleiche Breite für das Speicherinterface angenommen wird (256 Bit).


Wichtige Frage:
Wo finde ich die Bestätigung, das Navi 10 wirklich nur 4 UMC hatte?

Berniyh
2020-10-13, 09:50:04
Wichtige Frage:
Wo finde ich die Bestätigung, das Navi 10 wirklich nur 4 UMC hatte?
Hm, mir ist gerade erst aufgefallen, dass Navi 10 in seiner Tabelle fehlt. Hab da wohl Navi 14 mit Navi 10 verwechselt.

Für Navi 12
http://ix.io/2A5a
und
Navi 14
http://ix.io/2A59
kann man das dem Output der discovery binary entnehmen.
Einfach die UMCs zählen, sind jeweils 4 Stück.

Ich weiß nicht, ob Navi 10 bei dieser Methode einfach nicht enthalten ist. Etvl. findet sich aber dazu etwas in den anderen Firmware Dateien oder im Code.
Das könnte ich aber frühestens heute Abend nachforschen.

Falls du einen Reddit Account hast könntest du ihn auch mal anschreiben, ich hab halt keinen und auch keine Lust mir einen zu erstellen.

Berniyh
2020-10-13, 17:52:56
Weiß zufällig jemand was "ASD" bei AMD bedeutet?

Iscaran
2020-10-13, 20:01:42
Hast du evtl. noch ein Kontext dazu ? Speicher, GPU, Architektur, Video...

Complicated
2020-10-13, 20:43:29
Weiß zufällig jemand was "ASD" bei AMD bedeutet?
https://www.spinics.net/lists/amd-gfx/msg42550.html

/* * Allocate 16k memory aligned to 4k from Frame Buffer (local
* physical) for shared ASD <-> Driver
*/
Scheint ein Teil der PSP firmware zu sein.
https://code.woboq.org/linux/linux/drivers/gpu/drm/amd/amdgpu/amdgpu_psp.h.html#psp_context::asd_fw

SKYNET
2020-10-13, 22:36:49
Sowas wäre doch aber schon bei der Vorstellung der XBSX durchgesickert. Ich kann mir kaum vorstellen, dass sich die Desktop-Varianten so gravierend unterscheiden.


waru nicht? RDNA2 beschreibt ja nur die architektur im allgemeinen, nicht jeden chip für sich... evtl. hat das dickschiff halt wirklich 160 CUs bzw. 80 DCUs..

und die 256bit... das die noch immer hier rumschwirren... davon kann man sich wohl endlich mal getrost verabschieden :freak:

Berniyh
2020-10-13, 22:39:19
Korrekt. So heißt eine Firmware Datei.
Bei Navi 1x gibt es diese Datei noch, bei Navi 21 noch bei einem Treiber, beim anderen aber nicht und bei Navi 22/23 gar nicht.

Leider finde ich im Code nichts dazu, außer, dass die Datei Microcode enthält (siehe oben verlinkte Header Datei), aber zu was das gut ist konnte ich halt leider nicht rausfinden, daher dachte ich evtl. kann jemand was mit der Abkürzung anfangen.

PSP steht ja typischerweise für "Platform Security Processor".
Evtl. ist es sowas wie "AMD Security Device" o.ä. Keine Ahnung.

Edit: hm ne, ich glaube hier geht es eher um Power Management. PSP ist wohl hier was anderes als bei den Prozessoren?

Berniyh
2020-10-13, 22:51:01
waru nicht? RDNA2 beschreibt ja nur die architektur im allgemeinen, nicht jeden chip für sich... evtl. hat das dickschiff halt wirklich 160 CUs bzw. 80 DCUs..
Noch mal: die 80 CU sind bestätigt und wir wissen auch wie diese CUs strukturiert sind.
und die 256bit... das die noch immer hier rumschwirren... davon kann man sich wohl endlich mal getrost verabschieden :freak:
Nun ja, wir wissen zumindest von 16 Textur Channel Caches und das entspricht im Normalfall 16 Speicherkanälen und das heißt halt nun mal 256 Bit Speicherinterface, im Einklang mit praktisch allen anderen kürzlichen Leaks zu Big Navi.

Bislang können wir noch nicht ausschließen, dass Navi 21 mehr Speicherkanäle als Textur Channel Caches hat, aber es ist doch eher unwahrscheinlich.

Complicated
2020-10-13, 23:07:47
Es ist der Platform Security Processor gemeint. TA steht für Trusted Application und im Code ist ASD im Kontext mit der Firmware gelistet:
http://sbexr.rabexc.org/latest/sources/57/7e3565fb5ee64c.html#0007800100085001
enum psp_gfx_cmd_id
{
GFX_CMD_ID_LOAD_TA = 0x00000001, /* load TA */
GFX_CMD_ID_UNLOAD_TA = 0x00000002, /* unload TA */
GFX_CMD_ID_INVOKE_CMD = 0x00000003, /* send command to TA */
GFX_CMD_ID_LOAD_ASD = 0x00000004, /* load ASD Driver */
GFX_CMD_ID_SETUP_TMR = 0x00000005, /* setup TMR region */
GFX_CMD_ID_LOAD_IP_FW = 0x00000006, /* load HW IP FW */
GFX_CMD_ID_DESTROY_TMR = 0x00000007, /* destroy TMR region */
GFX_CMD_ID_SAVE_RESTORE = 0x00000008, /* save/restore HW IP FW */
GFX_CMD_ID_SETUP_VMR = 0x00000009, /* setup VMR region */
GFX_CMD_ID_DESTROY_VMR = 0x0000000A, /* destroy VMR region */
GFX_CMD_ID_PROG_REG = 0x0000000B, /* program regs */
GFX_CMD_ID_CLEAR_VF_FW = 0x0000000D, /* Clear VF FW, to be used on VF shutdown. */
/* IDs upto 0x1F are reserved for older programs (Raven, Vega 10/12/20) */
GFX_CMD_ID_LOAD_TOC = 0x00000020, /* Load TOC and obtain TMR size */
GFX_CMD_ID_AUTOLOAD_RLC = 0x00000021, /* Indicates all graphics fw loaded, start RLC autoload */
};

/* Command to load Trusted Application binary into PSP OS. */
struct psp_gfx_cmd_load_ta
{
uint32_t app_phy_addr_lo; /* bits [31:0] of the GPU Virtual address of the TA binary (must be 4 KB aligned) */
uint32_t app_phy_addr_hi; /* bits [63:32] of the GPU Virtual address of the TA binary */
uint32_t app_len; /* length of the TA binary in bytes */
uint32_t cmd_buf_phy_addr_lo; /* bits [31:0] of the GPU Virtual address of CMD buffer (must be 4 KB aligned) */
uint32_t cmd_buf_phy_addr_hi; /* bits [63:32] of the GPU Virtual address of CMD buffer */
uint32_t cmd_buf_len; /* length of the CMD buffer in bytes; must be multiple of 4 KB */

/* Note: CmdBufLen can be set to 0. In this case no persistent CMD buffer is provided
* for the TA. Each InvokeCommand can have dinamically mapped CMD buffer instead
* of using global persistent buffer.
*/

Iscaran
2020-10-13, 23:42:47
Der Begriff taucht auch im Kontext von Shared Memory auf:

#define PSP_ASD_SHARED_MEM_SIZE 0x4000

Was aber vermutlich nur den Memory Raum für den "Application Specific Device" zuweist ?
https://en.wikipedia.org/wiki/Wi-Fi_Alliance#Certification_types
"Application Specific Device (ASD), for wireless devices other than Access Point and Station which has specific application, such as DVD players, projectors, printers, etc."

=> WLAN-Treiber ?

ASD steht ansonsten auch für Australian signal Directorate :-) Einer Schule für Computerwissenschaften.
https://cecs.anu.edu.au/asd

horn 12
2020-10-14, 07:37:49
https://twitter.com/LisaSu/status/1315648926993854466/photo/1

https://twitter.com/LisaSu/status/1315648926993854466

dargo
2020-10-14, 08:10:14
Hehe... "Big Navi" wird also wohl doch nicht so Big wie manche vermuten. :tongue:

masked__rider
2020-10-14, 08:37:51
Überseh ich etwas oder ist etwas Besonderes an dem Tweet?

dildo4u
2020-10-14, 08:44:12
Überseh ich etwas oder ist etwas Besonderes an dem Tweet?

Nichts "Big Navi" meint vermutlich nur das es nicht der offizielle Codename ist sondern Navi 2X.

Cyberfries
2020-10-14, 08:46:34
Die Beiden spielen auf die Anführungszeichen um "BigNavi" an.
Das ist aber keinesfalls Bestätigung für eine größere, nicht gezeigte Variante, sondern nur eine gewisse Distanzierung,
ein Zitat, da AMD den Begriff nicht selbst geprägt sondern nur von Fans übernommen hat.
Mangels Leaks drehen eben einige am Rad und lesen im Kaffeesatz.

rentex
2020-10-14, 08:50:29
Durchdrehen ist gerade sehr in Mode!

dargo
2020-10-14, 08:59:00
@masked__rider

Nö... wir vertreiben uns nur die letzten zwei Wochen noch mit Häppchen.

Hasenpfote
2020-10-14, 09:00:44
Überseh ich etwas oder ist etwas Besonderes an dem Tweet?Ja, Donald ist n Nvidia-Fan ;D

https://twitter.com/GlikoR/status/1315649036867850243

dargo
2020-10-14, 09:04:22
Die Beiden spielen auf die Anführungszeichen um "BigNavi" an.
Das ist aber keinesfalls Bestätigung für eine größere, nicht gezeigte Variante, sondern nur eine gewisse Distanzierung,
ein Zitat, da AMD den Begriff nicht selbst geprägt sondern nur von Fans übernommen hat.
Mangels Leaks drehen eben einige am Rad und lesen im Kaffeesatz.
Dann hast du wohl meinen Post nicht verstanden. :)

Ich fände es bemerkenswert wenn AMD mit N21 und ca. 420mm² die RTX 3080 einholt oder gar leicht überholt. GA102 ist wesentlich größer. Zudem würde das die Chancen erhöhen, dass von AMD eventuell Ende 2021 noch ein größerer RDNA2 Refresh kommt. Je nachdem wie aggressiv AMD im Enthusiasten-Bereich sich aufstellen will. Zumindest rein von der Die-Size wäre da noch viel Platz.

masked__rider
2020-10-14, 09:08:21
Aja.. das klassische Loch vor der Ankündigung :biggrin:

Noch 14x schlafen, Jungs :)

Cyberfries
2020-10-14, 09:51:56
Avery78 hat ein paar Info-Häppchen rausgegeben, sagt aber dass er einiges davon nicht glaubt:
Ready for some incoming #RX6000 rumors that dropped in my inbox today? Going to share what I got. All totally unverified and I haven't any proof - but they are from someone who has shared some good stuff before & feel is connected - so I am just passing along. Make what you will
Rumors: #Navi22 #RX6000
- N22 w/12GB | 192bit bus | 40CU | Really High clocks
- Those N22 gains are mainly due to clocks / AIB cards are getting ~2350MHZ & reference is a bit less
- N22 ref. clocks ~35% over 5700XT (clocks not perf.)
(1/2) #unverified #salt
Source: DM (today)
- TDP ~ similar to 5700XT maybe bit higher
- Perf ~ reaches 2080S level
- Don't count on 2500Mhz from reference cards
- There is a bit of a gap in clocks between N22 and N21
(2/2) cont.. #unverified #salt
Rumors: #Navi21 "XT" variant
- N21 has big changes for DirectX Raytracing at the cost of power draw (msg is to wait and see) & little room for OC
- ~25% better than #2080Ti /beats 3070 by ~12-15%.
- Target $599 (maybe $50 either side) will cost more than #RTX3070
#unverified
- 5-10% less performance than #RTX3080 @ 4k traditional rasterization
- Much bigger hit with Ray Tracing enabled in a head-to-head showdown
- $50-$100 cheaper than #RTX3080
#Navi21XT #RX6000
Source: DM (I got a bunch of info come in today)
- What I got sent said this was the card that was demo'd
- The games were cherry-picked (larger spread of games tested should align with the overall perf. above)
- DX11 widens performance gap
What was sent said it was a "massive fail rush to market."
Rumors: #Navi21 #RX6000
- DXR support is apparently only on N21 and cut variants
- Implementing DXR has meant big design changes that has ramifications in accommodation
- Benchmarks with DXR enabled should show increased PWR consumption
- N21 "XTX" consumes a lot of PWR >#RTX3080
- N21 XTX can compete with #RTX3080 but not #RTX3090
- Expensive to make and expensive to buy > #RTX3080
- Proper niche card - The big daddy
- RT perf less that 3080
- Lots of ties/trades in 4K in traditional raster perf w/3080 really depends on the game, possibly overall > 3080
I get that some of these rumours are out there. My opinion is the most of it is quite aligned on what is known so far (at least from regular sources)
I am especially “unsure of”
- N21 TDP rumors
- DXR capability only on the higher end SKUs
2 weeks to go!
Here is another source AquariusZi "AMD will also be like NVIDIA’s Turing strategy, only supporting hardware ray tracing in high-end products"

N22 soll eher bei 2,3GHz (Ref) bis 2,35GHz (Partner) liegen und 2080S erreichen.
N21 niedrigerer Takt, kaum OC-Spielraum, ca. 12-15% vor der 3070, etwa 25% vor 2080Ti.
Schlechte Leistung unter RT oder DX11, RT nur auf N21. N21 für 599$+/-50.
Diese Variante soll bei der Pressekonferenz gezeigt worden sein.
N21 XTX erreicht die 3080, ist aber teuer und durstig.

Ich lass das einfach mal so stehen, auch wenn ich nicht dran glaube (gerade RT)

Linmoum
2020-10-14, 09:53:34
12-15% vor der 3070, aber 25% vor der 2080Ti. Dat logic.

dargo
2020-10-14, 09:56:16
Kein RT auf N22 macht für mich auch gar keinen Sinn wenn schon eine PS5 mit 36 CUs RT kann. Ja selbst die poppelige XBSS mit 20 CUs kann RT. :freak:

nairune
2020-10-14, 10:34:41
Klingt für mich wie ausgedacht, aber andererseits wäre es ganz nett, wenn N21 XT knapp unter der 3080 rauskommt und damit trotz 16GB günstiger wird. Im Vergleich zur 3080 20GB würde das dann ein richtiger Schnapper.

Der_Korken
2020-10-14, 10:49:31
Einiges klingt sehr komisch. N22 soll 35% höher takten als N10, aber nur auf 2080S-Niveau rauskommen, welche knapp 30% schneller als N10 ist. Damit wäre die IPC sogar ein Stück gesunken gegenüber RDNA1. Die "12% schneller als 3070 aber 25% schneller als 2080Ti" ergeben so auch keinen Sinn, denn dann wäre die 3070 schon 12% schneller als die 2080Ti ... und damit nur 20% hinter der 3080, obwohl letztere 50% mehr Flops/s und 70% mehr Bandbreite hat. Die Performance-Abschätzung für die 3070 damit sogar optimistischer als die von Nvidia. Die 12% dürften falsch sein, denn 2080Ti+25% passt auch besser zu der Aussage, dass N21XT knapp hinter der 3080 rauskommt.

Wäre trotzdem nicht besonders schnell für die Specs. 85-90% vor der 5700XT, trotz doppelter CUs mit 15% mehr Takt. Die IPC wäre deutlich schlechter als N10 und N22 (s.o.). Ja, die Speicherbandbreite ist kaum gestiegen, aber das ist eine Designentscheidung von AMD. Wenn das Ding so an der Bandbreite verhungert, dass die CUs 20% weniger leisten als der Vorgänger, hätten sie 384bit oder HBM verbaut. Oder nur 64 CUs, um keinen Diespace zu verschwenden.

dargo
2020-10-14, 11:03:05
Klingt für mich wie ausgedacht, aber andererseits wäre es ganz nett, wenn N21 XT knapp unter der 3080 rauskommt und damit trotz 16GB günstiger wird. Im Vergleich zur 3080 20GB würde das dann ein richtiger Schnapper.
Jepp... das einzige was mir an diesem Gerücht gefällt ist der Preis mit 549$-649$ für N21 XT. :tongue:

Einiges klingt sehr komisch. N22 soll 35% höher takten als N10, aber nur auf 2080S-Niveau rauskommen, welche knapp 30% schneller als N10 ist.
Ähm... 2,3Ghz vs. 1,85Ghz sind bei mir +24%. ;)

Sunrise
2020-10-14, 11:07:24
...Wäre trotzdem nicht besonders schnell für die Specs. 85-90% vor der 5700XT, trotz doppelter CUs mit 15% mehr Takt.
Wenn die Info stimmt, dass nur die XTX mehr CUs (80) hat, aber deutlich mehr verbraucht (Takt nochmal höher), dann gehen wir hier ja nicht von einem voll-aktivierten Chip aus und dann würde das Ganze auch wieder stimmen. Die auf der Präsentation gezeigte Variante war jedenfalls unter der 3080 und das wird sicher das “Massenprodukt” hinsichtlich der Chipausbeute sein.

Dass da noch eine XTX kommt oder wie auch immer, die dann auch preislich mit der 3080 konkurrieren kann, scheint ja auch fast sicher zu sein. Ist nur die Frage, ob AMD dafür wirklich alles an die Kotzgrenze ausfahren muss.

Man darf nach wie vor nicht vergessen, um welche Chipgröße wir hier reden, denn NV scheint jeweils deutlich größer zu sein, fährt aber nun plötzlich aggressive Preise (Samsung) und bei AMD muss sowohl Leistung als auch Preis natürlich passen, auch wenn sie theoretisch den jeweils kleineren Chip hätten.

mironicus
2020-10-14, 11:07:27
Wird der 3DMark mit Raytracing-Test wohl auf Big Navi laufen? Das wird sowieso etwas blöd, da der Test momentan immer mit DLSS aktiviert läuft.
Wir brauchen auf jeden Fall einen Raytracing-Benchmark der auf beiden Plattformen läuft.

Berniyh
2020-10-14, 11:08:24
Ähm... 2,3Ghz vs. 1,85Ghz sind bei mir +24%. ;)
Er hat mit 2.5 GHz gerechnet, dann sind es 35%.

Aber auch mit +24% Takt wäre es arm bei +30% Performance rauszukommen, zumal bei ähnlicher TDP und identischer Anzahl an CUs.
Wo blieben da die angeblichen +50% Performance/Watt?:confused:

HOT
2020-10-14, 11:15:15
12-15% vor der 3070, aber 25% vor der 2080Ti. Dat logic.
RT wird gemeint sein mit N21. Da wird die 3070 die 2080Ti ja ziemlich sicher schlagen.

Aber was leider glaubhaft ist, ist, dass N22 kein RT hat. Das würde erklären, warum der sich so hoch takten lässt. Irgendwelche Nachteile handelt man sich mit den geringen Chipgrößen halt ein. Alles in Allem ist das eben doch nur ein Erstlingswerk bezüglich RT. N31 wird da sicherlich wesentlich ausgereifter sein in der Hinsicht. So wurde das ja auch kommuniziert - man will ja mit RDNA3 sich weit mehr auf RT konzentrieren. Wir dürfen nicht vergessen, AMDs RT-Strategie 2018 war nur eingeschränktes RT über GPUs, echtes RT nur über Cloud. Das war wohl ne Fehlplanung.

Der_Korken
2020-10-14, 11:16:49
Ähm... 2,3Ghz vs. 1,85Ghz sind bei mir +24%. ;)

Ups, hab nur die "- N22 ref. clocks ~35% over 5700XT (clocks not perf.)" aus dem Tweet übernommen. 24%würde schon eher passen, vor allem wenn man das mit 25% weniger Bandbreite schafft. Allerdings hat Berniyh auch recht, dass wir von +50% Perf/W weit entfernt sind, wenn das Ding immer noch so viel verbraucht wie eine 5700XT. Ist bei dem hohen Takt nicht verwunderlich, denn V20 hat trotz 7nm vs 14nm auch "nur" 30% mehr Takt als V10 geschafft bei gleichem Verbrauch. Trotzdem wirkt N22 hier wie ein Sparbrötchen, wo man auf die Effizienz geschissen hat - man hätte ja auch 48 CUs verbauen können mit weniger Takt.

Redneck
2020-10-14, 11:55:07
Avery78 hat ein paar Info-Häppchen rausgegeben, sagt aber dass er einiges davon nicht glaubt:

N22 soll eher bei 2,3GHz (Ref) bis 2,35GHz (Partner) liegen und 2080S erreichen.
N21 niedrigerer Takt, kaum OC-Spielraum, ca. 12-15% vor der 3070, etwa 25% vor 2080Ti.
Schlechte Leistung unter RT oder DX11, RT nur auf N21. N21 für 599$+/-50.
Diese Variante soll bei der Pressekonferenz gezeigt worden sein.
N21 XTX erreicht die 3080, ist aber teuer und durstig.

Ich lass das einfach mal so stehen, auch wenn ich nicht dran glaube (gerade RT)

das mit dem Verbrauch fände ich eher ungeil.. paßt so gar nicht zu den vorherigen rumours und wäre für mich ein Ausschlußkriterium.

DrFreaK666
2020-10-14, 12:09:07
Wird der 3DMark mit Raytracing-Test wohl auf Big Navi laufen? Das wird sowieso etwas blöd, da der Test momentan immer mit DLSS aktiviert läuft.
Wir brauchen auf jeden Fall einen Raytracing-Benchmark der auf beiden Plattformen läuft.

https://www.youtube.com/watch?v=Luw7Es66Stg

Ob es auch mit Navi2 läuft, kann ich jedoch nicht sagen

Fragman
2020-10-14, 12:16:08
Mal von Details abgesehen wird die Leistung wieder dort eingeordnet, wo sie seit Monaten steht, also keine Ueberraschungen. Kein RT fuer alle Chips wiederspricht frueheren offiziellen Aussagen. Das trifft auch auf den Verbrauch zu. Sollte der stimmen, lief etwas nicht erwartungsgemaess, was ich so fast nicht glauben kann (Verbrauch hoeher als bei der 3080?).

dargo
2020-10-14, 12:23:18
Wird der 3DMark mit Raytracing-Test wohl auf Big Navi laufen? Das wird sowieso etwas blöd, da der Test momentan immer mit DLSS aktiviert läuft.
Wir brauchen auf jeden Fall einen Raytracing-Benchmark der auf beiden Plattformen läuft.
Wen interessiert der 3DFurz oder irgendein anderer synthetische Benchmark? Es gibt schon paar RT-Games, da kannst du wunderbar vergleichen.

Er hat mit 2.5 GHz gerechnet, dann sind es 35%.

Aber auch mit +24% Takt wäre es arm bei +30% Performance rauszukommen, zumal bei ähnlicher TDP und identischer Anzahl an CUs.
Wo blieben da die angeblichen +50% Performance/Watt?:confused:
Habe ich irgendwo gesagt das neue Gerücht wären Fakten?


Aber was leider glaubhaft ist, ist, dass N22 kein RT hat. Das würde erklären, warum der sich so hoch takten lässt.
Was ist das denn für ein bescheuertes Argument? :| Noch nie was vom Powerlimit gehört? :freak: Sollte RT mehr heizen gibts halt weniger Frequenz. Unglaublich was sich hier manche aus den Fingern saugen.

Birdman
2020-10-14, 12:27:11
Wo blieben da die angeblichen +50% Performance/Watt?:confused:
Evtl. ähnlich "kreativ" gerechnet wie nVidia....sprich man stellt bei einem Game dem Framelimiter auf 60fps und schaut wie viel Strom die Karten hierbei verbrauchen.

basix
2020-10-14, 12:41:20
Aber was leider glaubhaft ist, ist, dass N22 kein RT hat. Das würde erklären, warum der sich so hoch takten lässt.

Das sehe ich genau nicht als glaubhaft an. Die PS5 taktet auch so hoch, hat gleich viele CUs und kann RT. Dass die kleinen RDNA2 Chips kein RT bringen ist das mit Abstand unglaubhafteste an dem "Leak". Selbst Microsoft sagt "minimal area cost". Macht also keinen Sinn, das aus der Architektur zu entfernen.

Die geposteten "Infos" widersprechen sich zudem an zu vielen Stellen oder sind einfach unlogisch. Darauf würde ich also nichts geben.

Piefkee
2020-10-14, 13:28:54
Das sehe ich genau nicht als glaubhaft an. Die PS5 taktet auch so hoch, hat gleich viele CUs und kann RT. Dass die kleinen RDNA2 Chips kein RT bringen ist das mit Abstand unglaubhafteste an dem "Leak". Selbst Microsoft sagt "minimal area cost". Macht also keinen Sinn, das aus der Architektur zu entfernen.

Die geposteten "Infos" widersprechen sich zudem an zu vielen Stellen oder sind einfach unlogisch. Darauf würde ich also nichts geben.

Absolut richtig. Bei der FAD im Januar hat Wang selbst gesagt das Navi2x Ray-Tracing von Top to buttom unterstützt. Auch Scott Herkelmann hat gesagt, dass sie Ray-Tracing bei Navi10 nicht gebracht haben weil sie keinen Split wollen. Alle Karten sollen RT fähig sein.

@Avery
Sorry aber der ist schlimmer als die TechTuber...Der sitzt den ganzen Tag bei Chiphell mit Google-Translate und stellt dann die Diskussion auf Twitter. ;D;D

mboeller
2020-10-14, 13:32:29
bzgl. B-Series von IMG bin ich über die alte PowerVR GR6500 Seite (https://www.imgtec.com/blog/powervr-gr6500-ray-tracing/) gestolpert.

Da steht:

Up to 300 MRPS (million rays per second), 24 billion node tests per second and 100 million dynamic triangles per second at 600 MHz


vielleicht kann man dadurch die RT-Leistung von Navi21 besser einschätzen?

XBX kann ja 380 Mrd Intersections pro Sekunde, also 380/24 ~16x schneller. Vielleicht sind ja auch die Mio Rays pro Sekunde 16x schneller. Das wären dann 4,75 GigaRays/s bei XBX und beim BigNavi dann 80/52, also 7,3 GigaRays/s. Ergo ziemlich wenig...

dargo
2020-10-14, 13:39:23
@mboeller

Ich weiß immer noch nicht was dieser Quatsch mit GigaRays/s soll? Es ist doch längst bekannt, dass die RT-Leistung bzw. das Endergebnis sehr stark an der Shaderleistung hängt. Ohne viel Shaderpower kannst du noch so viele dedizierte RT-Einheiten wie bei Nvidia verbauen. Es bringt dir nur nicht das gewünschte Endergebnis.

Nazar
2020-10-14, 13:43:33
Avery78 hat ein paar Info-Häppchen rausgegeben, sagt aber dass er einiges davon nicht glaubt:












N22 soll eher bei 2,3GHz (Ref) bis 2,35GHz (Partner) liegen und 2080S erreichen.
N21 niedrigerer Takt, kaum OC-Spielraum, ca. 12-15% vor der 3070, etwa 25% vor 2080Ti.
Schlechte Leistung unter RT oder DX11, RT nur auf N21. N21 für 599$+/-50.
Diese Variante soll bei der Pressekonferenz gezeigt worden sein.
N21 XTX erreicht die 3080, ist aber teuer und durstig.

Ich lass das einfach mal so stehen, auch wenn ich nicht dran glaube (gerade RT)

Die Leaks lesen sich wie von einem nVdia Fanboy ausgedacht, da passt absolut rein gar nichts logisch zusammen. Im Gegenteil, fast alles schließt sich gegenseitig aus. :freak:
Max. 15% schneller als eine 3070 (non super) aber 25% schneller als eine 2080TI... ja ne... Mathe aus Dummsdorfhausen? ;D
Aber den Vogel schießen die Power Angaben ab.... da wird die Physik neu erfunden. :eek:
Echt geil der Typ ;D

Cyberfries
2020-10-14, 14:04:52
Wie sich manche hier echauffieren, trotz doppelter Kennzeichnung als "wahrscheinlich nicht vertrauenswürdig".
Besser schlechte Leaks als die hunderdste DLSS-Diskussion.

Max. 15% schneller als eine 3070 (non super) aber 25% schneller als eine 2080TI... ja ne... Mathe aus Dummsdorfhausen? ;D

Den nVidia-Teil habe ich mal weggelassen, gehört nicht hierher.
Laut dieser Quelle arbeitet nVidia an einem Wundertreiber.
edit: Ampere wird mehr und mehr zu Vega, da gabs auch Gerede von einem "Wundertreiber".

das mit dem Verbrauch fände ich eher ungeil.. paßt so gar nicht zu den vorherigen rumours

Igor hat auch mal was derartiges fallenlassen. Ich glaub aber auch nicht dran.

@Avery
Sorry aber der ist schlimmer als die TechTuber...

Techtuber: "Ich bin der größte, ich weiß alles, das was ich sage ist die reine Wahrheit."
Avery: "Bin mir nicht sicher ob das stimmt, kommt mir komisch vor, ich zeigs euch trotzdem."

Gut, wenn dir das Gehabe von Techtubern lieber ist....

edit:
Evtl. ähnlich "kreativ" gerechnet wie nVidia....sprich man stellt bei einem Game dem Framelimiter auf 60fps und schaut wie viel Strom die Karten hierbei verbrauchen.

Gibt AMD doch an, wie das gemessen wird? Vergleichbare Konfiguration und Betriebspunkt.

Gipsel
2020-10-14, 14:05:51
@mboeller

Ich weiß immer noch nicht was dieser Quatsch mit GigaRays/s soll? Es ist doch längst bekannt, dass die RT-Leistung bzw. das Endergebnis sehr stark an der Shaderleistung hängt. Ohne viel Shaderpower kannst du noch so viele dedizierte RT-Einheiten wie bei Nvidia verbauen. Es bringt dir nur nicht das gewünschte Endergebnis.Wie viele Strahlen man schafft, hängt von vielen Sachen ab. Shaderleistung ist eines (das Maximum wird wohl nur erreicht, wenn man außer dem Testen auf Treffer, kaum was macht), ein anderer Faktor wäre, gegen wie viel Geometrie man jeden Strahl eigentlich testen muß, also wie tief man sich durch den BVH-Baum für jeden Strahl hangeln muß, bevor man dann was trifft. Anzahl der Strahlen und Anzahl der Intersection-Tests (egal ob Node oder Dreieck) sind also weder unabhängige Performance-Angaben, noch sind sie strikt per Faktor miteinander verknüpft.

prinz_valium_2
2020-10-14, 14:12:02
Avery78 hat ein paar Info-Häppchen rausgegeben, sagt aber dass er einiges davon nicht glaubt:












N22 soll eher bei 2,3GHz (Ref) bis 2,35GHz (Partner) liegen und 2080S erreichen.
N21 niedrigerer Takt, kaum OC-Spielraum, ca. 12-15% vor der 3070, etwa 25% vor 2080Ti.
Schlechte Leistung unter RT oder DX11, RT nur auf N21. N21 für 599$+/-50.
Diese Variante soll bei der Pressekonferenz gezeigt worden sein.
N21 XTX erreicht die 3080, ist aber teuer und durstig.

Ich lass das einfach mal so stehen, auch wenn ich nicht dran glaube (gerade RT)

Warum sollte man dann zu BIG Navi greifen, wenn N22 die bessere Karte ist?
Glaube ich so also noch absolut nicht dran.
Aber wenn N22 für 299€ kommt, immer her damit

Dural
2020-10-14, 14:37:50
XTX ist wie die versteckten Einheiten in jeder AMD GPU: Hat sich nie bewahrheitet und ist somit auch nie gekommen.

Dazu 1x N21 schlecht taktet und 1x N21 plötzlich gut taktet, macht Total viel Sinn.

Und auch die 2,3GHz+ halte ich für Blödsinn.

Berniyh
2020-10-14, 14:49:16
Habe ich irgendwo gesagt das neue Gerücht wären Fakten?
Es ging doch nicht um deinen Post, sondern das Gerücht.

dargo
2020-10-14, 14:50:17
Dural... es wäre wirklich besser wenn du wieder deine Grafikkarten im Schrank verstaust.

Du hast mal wieder nichts gepeilt. Die 2,3Ghz beziehen sich auf einen spekulierten 40 CU N22. Eine Konsole schafft schon bis zu 2,23Ghz bei 36 CUs. Du wirst uns sicherlich erklären können warum eine Desktop-Variante poppelige 3% mehr Takt nicht schaffen wird. Die zwei unterschiedlich getakteten N21 können einfach nur der TopDog und der Salvage sein. Wäre ja was ganz Neues im Bereich Desktop-GPUs. :rolleyes: Und nein... N21 wird nicht mit 2,3 Ghz takten. Jedenfalls nicht per Default in GPU-Limits.

Blediator16
2020-10-14, 15:04:06
- Implementing DXR has meant big design changes that has ramifications in accommodation

Wahrscheinlich war AMD beim alljährlichen Treffen nicht eingeladen und musste 2019 schnell "DXR implementieren". Wers glaubt wird seelig :D

NC
2020-10-14, 15:08:13
bzgl. B-Series von IMG bin ich über die alte PowerVR GR6500 Seite (https://www.imgtec.com/blog/powervr-gr6500-ray-tracing/) gestolpert.

Da steht:


vielleicht kann man dadurch die RT-Leistung von Navi21 besser einschätzen?

XBX kann ja 380 Mrd Intersections pro Sekunde, also 380/24 ~16x schneller. Vielleicht sind ja auch die Mio Rays pro Sekunde 16x schneller. Das wären dann 4,75 GigaRays/s bei XBX und beim BigNavi dann 80/52, also 7,3 GigaRays/s. Ergo ziemlich wenig...
Ca halbe 2080 RT-Leistung klingt garnicht schlecht für eine so kurze Entwicklungszeit und eine Konsole. Vermutlich hast du das realistischte an Leistugsprojektion ausgegraben was wir bis zum Marktstart zu RT@RDNA2 haben werden.

Ravenhearth
2020-10-14, 15:08:57
Er hat mit 2.5 GHz gerechnet, dann sind es 35%.

Aber auch mit +24% Takt wäre es arm bei +30% Performance rauszukommen, zumal bei ähnlicher TDP und identischer Anzahl an CUs.
Wo blieben da die angeblichen +50% Performance/Watt?:confused:
Vielleicht nur bei der N21 XT - mit ~275W und 25% über 2080 Ti wäre man 85-90% schneller als die 5700XT bei ca. einem Viertel mehr Verbrauch, also +50% Perf/W. Laut den Gerüchten scheint AMD N22 und N21 XTX höher zu prügeln, da gäbe es dann also weniger Perf/W.

Hakim
2020-10-14, 15:23:01
Ich bin echt gespannt ob AMD am 28ten auch viel über die RT Performance zeigen wird, irgendwie eines der sehr großen Unbekannten Punkte derzeit

WedgeAntilles
2020-10-14, 15:23:48
Ich hoffe sehr, dass AMD nicht den Verbrauch irre erhöht, nur um ein paar Prozent mehr Leistung zu bekommen.

Der Nvidia-Weg mit der 3080 sehe ich da als völlig falsch an.
(Bei der 3090 kann man meinetwegen noch sagen, dass beim Topmodell der Verbrauch völlig egal ist. Sehe ich zwar auch nicht so, aber meinetwegen.)

IMO sollte AMD lieber 15% weniger Verbrauch haben, wenn dafür nur auf 5% Leistung oder so verzichtet wird.
Das lässt sich IMO Marketingtechnisch doch auch gut verkaufen.

Ob man jetzt 90 Frames oder 95 Frames hat - wen interessiert das?
Aber ob man 270W oder 320W verbraucht ist halt schon ein merklicher Unterschied.

NC
2020-10-14, 15:31:54
Ich bin echt gespannt ob AMD am 28ten auch viel über die RT Performance zeigen wird, irgendwie eines der sehr großen Unbekannten Punkte derzeit
Vermutlich nicht, zumindestens nichts was stark von RT limitiert wird. Sie zeigen vermutlich kurz, dass sie RT lauffähig haben.
Sie werden nicht auf einen Schlag die 10Jahre die NVidia reininvestiert hat einfach aufholen. Aber es ist doch gut, dass sie RT überhaupt einbauen. Bei Zen hat es auch 3 Generationen gedauert bis sie die single core Leistung von Intel eingeholt haben. Der Rest wird von der Preis/Leistung abhängen.

Monsta
2020-10-14, 15:32:33
Ich hoffe sehr, dass AMD nicht den Verbrauch irre erhöht, nur um ein paar Prozent mehr Leistung zu bekommen.

Der Nvidia-Weg mit der 3080 sehe ich da als völlig falsch an.
(Bei der 3090 kann man meinetwegen noch sagen, dass beim Topmodell der Verbrauch völlig egal ist. Sehe ich zwar auch nicht so, aber meinetwegen.)

IMO sollte AMD lieber 15% weniger Verbrauch haben, wenn dafür nur auf 5% Leistung oder so verzichtet wird.
Das lässt sich IMO Marketingtechnisch doch auch gut verkaufen.

Ob man jetzt 90 Frames oder 95 Frames hat - wen interessiert das?
Aber ob man 270W oder 320W verbraucht ist halt schon ein merklicher Unterschied.

Sehe ich genauso, es gibt aber auch Kunden wie Miami die eher 99 Fps und 400 Watt verballern wollen.
Anscheinend sind solche in der Überzahl, sonst würde es solche Monster nicht geben.

Berniyh
2020-10-14, 15:36:31
Vielleicht nur bei der N21 XT - mit ~275W und 25% über 2080 Ti wäre man 85-90% schneller als die 5700XT bei ca. einem Viertel mehr Verbrauch, also +50% Perf/W. Laut den Gerüchten scheint AMD N22 und N21 XTX höher zu prügeln, da gäbe es dann also weniger Perf/W.
Solche Vergleiche sind immer bei normierter CU Anzahl und Taktrate, d.h. erstmal weitgehend unabhängig vom Chip.

Natürlich werden sich die einzelnen Chips unterschiedlich verhalten, aber es kann mir einfach keiner erzählen, dass ein Navi 22 mit gleicher Anzahl an CU, gleicher TDP und 24% mehr Taktrate sowie 50% Performance/Watt dann nur bei 27% höherer Performance im Vergleich zu Navi 10 landet.*
Macht einfach keinen Sinn.

*Laut UHD Index ist die 2080S deren Performance Level Navi 22 erreichen soll bei 198%, 5700XT ist bei 156%, das ist ein Faktor von 1.269, also etwa 27% mehr.

Asaraki
2020-10-14, 15:54:40
Sehe ich genauso, es gibt aber auch Kunden wie Miami die eher 99 Fps und 400 Watt verballern wollen.
Anscheinend sind solche in der Überzahl, sonst würde es solche Monster nicht geben.

Sind sie natürlich nicht, aaaaaber : Aktuell ist durch YT und so noch viel mehr Meinungsbildung im Spiel als das früher war, dadurch entsteht ein realitätsfremder Druck alles auf die Balken und "Fastest, biggest, coolest" zu erreichen. Vermutlich falsch, aber es würde mich nicht wundern, wenn derzeit die tollen Berater sagen, dass man auf jeeeeden Fall die schnellste Karte haben muss und dann auch die AMDs eher zu hoch getaktet / am sweet spot vorbei ausgeliefert werden.

Ist alles nicht so schlimm, seit dem Miningboom wird generell auf Verbrauch (abseits von Mining lustigerweise) geschissen und wenn wir ehrlich sind, die meisten Karten werden nur wenige Stunden pro Woche voll ausgelastet und der Verbrauch ist eigentlich relativ egal im grossen Bild. Muss man sich fragen ob Otto Normalgamer sich noch kümmert wie viel seine Karte zieht, wenn im Hochhaus nebenan irgendein Horst seine 10 Karten im Rig hat und damit... ja virtuellen Quark rechnet.

Trotzdem wünsche ich mir auch, dass Effizienz wieder sexy wird. Ich würde meine Karten abseits von Extremtests nie an der Kotzgrenze betreiben, das hat das schöne Stück Hardware nicht verdient. Aber das ist halt der Ingenieur in mir, der auf sowas steht :D

WedgeAntilles
2020-10-14, 16:00:23
Ist alles nicht so schlimm, seit dem Miningboom wird generell auf Verbrauch (abseits von Mining lustigerweise) geschissen und wenn wir ehrlich sind, die meisten Karten werden nur wenige Stunden pro Woche voll ausgelastet und der Verbrauch ist eigentlich relativ egal im grossen Bild. Muss man sich fragen ob Otto Normalgamer sich noch kümmert wie viel seine Karte zieht, wenn im Hochhaus nebenan irgendein Horst seine 10 Karten im Rig hat und damit... ja virtuellen Quark rechnet.


Ich sehe den Stromverbrauch nicht mal von der Kostenseite (und sicher nicht von der Umweltseite)
Ne, ganz primitiv: Viel Strom = viel Wärme.
Hoher Aufwand für die Kühlung, tendenziell lauter und so weiter.
Will ich mit Gewalt nen PC haben der noch mal deutlich stärker heizt für 5% Performance? Und wahrscheinlich noch lauter ist?
Oder mich auf ne Wasserkühlung zwingt, was teuer auf aufwändig ist?

Ich persönlich sehe da einfach 0 Sinn - wie gesagt, meinetwegen noch im absoluten Spitzenprodukt.

dargo
2020-10-14, 16:02:51
Solche Vergleiche sind immer bei normierter CU Anzahl und Taktrate, d.h. erstmal weitgehend unabhängig vom Chip.

Natürlich werden sich die einzelnen Chips unterschiedlich verhalten, aber es kann mir einfach keiner erzählen, dass ein Navi 22 mit gleicher Anzahl an CU, gleicher TDP und 24% mehr Taktrate sowie 50% Performance/Watt dann nur bei 27% höherer Performance im Vergleich zu Navi 10 landet.*
Macht einfach keinen Sinn.

Ist auch kompletter Humbug. Bei +50% Perf/W sollte ein 40 CU N22 bei ca. 1850Mhz 50% schneller sein als RX 5700XT. Bei angenommenen 2,3Ghz entsprechend schneller sein und somit die 2080TI/RTX3070 überholen. Es sei denn AMD wird so kreativ wie Nvidia bei der Effizienzberechnung dann könnte natürlich auch was völlig anderes rauskommen. :D

Edit:
Es könnte natürlich trotzdem passieren, dass N22 unter der 2080TI/3070 rauskommt. Dann aber mit deutlich unter 225W.

Asaraki
2020-10-14, 16:03:35
Ich sehe den Stromverbrauch nicht mal von der Kostenseite (und sicher nicht von der Umweltseite)
Ne, ganz primitiv: Viel Strom = viel Wärme.
Hoher Aufwand für die Kühlung, tendenziell lauter und so weiter.
Will ich mit Gewalt nen PC haben der noch mal deutlich stärker heizt für 5% Performance? Und wahrscheinlich noch lauter ist?
Oder mich auf ne Wasserkühlung zwingt, was teuer auf aufwändig ist?

Ich persönlich sehe da einfach 0 Sinn - wie gesagt, meinetwegen noch im absoluten Spitzenprodukt.

Nö, sehe ich ja auch so. Wobei ich auch sinnlosen Stormverbrauch (e.g. nicht spürbare Performancegewinne durch viele Watt) ganz prinzipiell verachte. Aber ich mach auch Geräte aus, wenn ich sie nicht benutze und so. Einfach aus Prinzip, weil man mit endlichen Ressourcen nicht so umgeht.

Kein vernünftiger Mensch würde sein Auto so pimpen, dass es jetzt 205 statt 200 fährt, aber dabei 30% mehr verbraucht. Zumindest nicht sein Alltagsauto. Aber bei Strom ist das ok ^ ^ Alles Deppen :D

Cyberfries
2020-10-14, 16:13:01
Kein vernünftiger Mensch würde sein Auto so pimpen, dass es jetzt 205 statt 200 fährt, aber dabei 30% mehr verbraucht.

Wohl noch nie am Wörthersee gewesen?
Wobei - du hast noch "vernünftig" eingeschoben. Dann ist aber eigentlich alles außer Office-Kisten raus.

*Laut UHD Index ist die 2080S .... bei 198%, 5700XT ist bei 156%, ....

Seit Ampere sind die Zahlen veraltet, siehe Launch-Analysen. 5700xt 163%, 2080S 205%.
Ändert aber natürlich nichts an der Kernaussage. Ja, N22 sollte bei 205% Leistung auf 190w rauskommen.
Außer natürlich diese ominöse Quelle verwechselt TGP und TBP, dann passts wieder.

Hakim
2020-10-14, 16:27:30
Naja letzten Endes kauft der 08/15 Kunde nach dem längeren Balken, wenn er keine Markenvorliebe hat (solange sein NT es mitmacht). Wenn die Chips so nah beieinander sind, sehe ich nicht warum man unter 320W gehen sollte um sich unter 3080 zu positionieren wenn man ~ genau schnell sein kann.

Nicht falsch verstehen mir wäre es auch lieber wenn sowohl 3080 und auch BN unter 300W wären. Die Entwicklung gefällt mir auch nicht. Das ran gehen an die Kotzgrenze war halt früher den PC Nerds überlassen, jetzt bekommt man das quasi ab Werk, lame

Asaraki
2020-10-14, 16:29:50
Genau Hakim, das meinte ich auch :-) zum Glück können wir ja hand anlegen. Quasi wie wenn wir getunte Autos kaufen würden und dann die unnötigen Tuningmassnahmen ausbauen würden.

2020, alles steht Kopf ^^

basix
2020-10-14, 16:31:55
Sie werden nicht auf einen Schlag die 10Jahre die NVidia reininvestiert hat einfach aufholen. Aber es ist doch gut, dass sie RT überhaupt einbauen. Bei Zen hat es auch 3 Generationen gedauert bis sie die single core Leistung von Intel eingeholt haben.

Jein. Wer als zweiter kommt, hat immer einen Vorteil: Er kann beim ersten abschauen und von dessen Design lernen ;) Ausserdem ist AMD auch schon sehr lange mit Raytracing im Geschäft bei den Profi-Produkten. Das ist nichts neues für sie und auch bei DXR waren sie wohl schon früh mit im Boot bei Gesprächen. Nur die HW-Implementation und DXR-Unterstützung wird komplett neu sein.

Ich denke zwar auch nicht, dass Nvidia von der Performance her geschlagen wird. Sie haben wirklich etwas mehr Erfahrung und spendieren auch mehr Silizium-Fläche. Aber wenn noch andere Dinge wie die Shaderleistung, Cache und Speicherbandbreite limitieren, ist es möglich dass der Abstand dann doch nicht allzu gross sein wird.

Mangel76
2020-10-14, 20:40:53
Jein. Wer als zweiter kommt, hat immer einen Vorteil: Er kann beim ersten abschauen und von dessen Design lernen ;) Ausserdem ist AMD auch schon sehr lange mit Raytracing im Geschäft bei den Profi-Produkten. Das ist nichts neues für sie und auch bei DXR waren sie wohl schon früh mit im Boot bei Gesprächen. Nur die HW-Implementation und DXR-Unterstützung wird komplett neu sein.

Ich denke zwar auch nicht, dass Nvidia von der Performance her geschlagen wird. Sie haben wirklich etwas mehr Erfahrung und spendieren auch mehr Silizium-Fläche. Aber wenn noch andere Dinge wie die Shaderleistung, Cache und Speicherbandbreite limitieren, ist es möglich dass der Abstand dann doch nicht allzu gross sein wird.

Was sollen sie sich denn wann abgeschaut haben? Gerade die Konsolen-APUs sollten bei Erscheinen von Turing schon sehr weit fortgeschritten im Design gewesen sein. Da hat man sich überhaupt nichts abgeschaut. Auch die Idee, AMD wäre erst mit Turing auf den RT-Zug aufgesprungen, ist völlig absurd. Kann sein, dass AMD nicht so weit wie NV ist. Kann auch sein, dass AMD einfach warten wollte, bis RT mit den Konsolen mehr Verbreitung findet. Man hatte ja nichtmal die Ressourcen für eine komplette Navi 1x-Generation. Da ging alles in RDNA2 und die Konsolen inkl. MS- und Sony-Beiträge. Wie gut RT wirklich funktioniert, ist derzeit überhaupt nicht abzusehen.

basix
2020-10-14, 21:57:21
Was sollen sie sich denn wann abgeschaut haben. Gerade die Konsolen-APUs sollten bei Erscheinen von Turing schon sehr weit fortgeschritten im Design gewesen sein. Da hat man sich überhaupt nichts abgeschaut.

Klar waren sie schon weit. Aber Design Complete waren sie 2 Jahre vor Release sicher noch nicht ;) Ich glaube nicht, dass sich das Design noch extrem geändert hat aber einige Punkte werden sicher beeinflusst worden sein. Und es gibt ja nicht nur HW, sondern auch SW und API-Design. Anhand etwas Bestehendem Unzulänglichkeiten zu erkennen und zu verbessern ist immer viel einfacher als etwas von Grund auf neu zu erschaffen.

horn 12
2020-10-15, 00:29:50
Nun, das Absolute Spitzenmodell soll um die 8% schneller sein als die RTX 3080
und die Gezeigte Karte ist die 2 schnellste AMD Karte, welche derzeit knapp, Onpair mit RTX 3080 ist , aber nochzuviel Saft verbraucht, da sich die GPU nicht runtertaktet.
Dies ist, wird nun gefixt sodass man deutlich unter einer RTX 3080 kommt was den Stromverbrauch angeht, aber auch einiges an Performance liegen bleibt, sprich brach liegen soll.

Für die Top alla TOP AMD 6000-er Karte mit >Performance als RTX 3080, aber bedauerlicherweise eben dem Stromhunger der doch recht immens wird, kümmert sich die Karte aussschließlich von AMD´s Prestige (Halo) Objekt.

=Floi=
2020-10-15, 00:31:57
Dagegen spricht der große chip, welcher in der 3080er verbaut wurde. Imho hat sich NV da schon was gedacht.

crux2005
2020-10-15, 01:14:47
Hoffentlich ist der Verbrauch nicht so hoch wie auf der 3080. Und natürlich der Preis. Alles andere passt.

Wobei auch mit ~300W Verbrauch wäre das schon Fortschritt. Lange waren alle Performance/High-end Karte von NV vor AMD. Mit RDNA1 -70 S eingeholt und mit RDNA2 die -80. Das sind extreme Sprünge.

OgrEGT
2020-10-15, 01:23:11
Hoffentlich ist der Verbrauch nicht so hoch wie auf der 3080. Und natürlich der Preis. Alles andere passt.

Wobei auch mit ~300W Verbrauch wäre das schon Fortschritt. Lange waren alle Performance/High-end Karte von NV vor AMD. Mit RDNA1 -70 S eingeholt und mit RDNA2 die -80. Das sind extreme Sprünge.

Eigentlich die-80ti der nur das ti im Namen abhanden gekommen ist... :ugly:

horn 12
2020-10-15, 07:17:04
Verbrauch der TOP Karte wohl auch 320 bis 340 Watt
Die schwächere um die 260 bis 275 Watt...

OgrEGT
2020-10-15, 07:33:11
Verbrauch der TOP Karte wohl auch 320 bis 340 Watt
Die schwächere um die 260 bis 275 Watt...

Meinst du damit N21XT und N21XL?
Würde so in etwa mit der Chiphell Tabelle übereinstimmen bzw. werden die Werte der Tabelle wiedergegeben.

Wenn auf dem Ryzen Event die Werte der N21XL gezeigt wurden mit 275W wäre das absolut Top...

Korvaun
2020-10-15, 07:41:31
Meine Prognose:
21XT 5-10% unter 3080, 21XTX 5-10% über 3080, beide 16GB GDDR6.
21XT Verbrauch wenn möglich unter 300W, 21XTX Verbrauch egal (solange unter 3090).
21XT ist leicht Salvage und die "Massenkarte" (649-699€), 21XTX ist full Chip und das Halo-Produkt, aber nur in kleineren Stückzahlen erhältlich und rel. teuer (799-899€ ?).

Raytracing und DLSS auf RDNA2 gibt es zZt. einfach noch keine sinnvollen Infos, sind aber beides Themen die mMn im Alltag aktuell noch nicht so wichtig sind.

dargo
2020-10-15, 08:42:41
Dagegen spricht der große chip, welcher in der 3080er verbaut wurde. Imho hat sich NV da schon was gedacht.
Klar haben die sich was gedacht... Nvidia wollte nicht alleine die RTX 3090 gegen AMD stellen um vorne zu bleiben. Dann würde es heißen... nur die teure 1.500+€ Karte Karte schafft es sicher BigNavi leicht zu überholen.

Verbrauch der TOP Karte wohl auch 320 bis 340 Watt
Die schwächere um die 260 bis 275 Watt...
Na dann hoffe ich auf folgendes...

XTX = Brechstange (320+W?)
XT = 275W
XL = 220W

Wobei ich mich frage ob diese Brechstange bei der XTX überhaupt Sinn macht? Ich würde jetzt davon ausgehen, dass sowohl die XTX als auch die XT 80 CUs haben. Also kannst du die Brechstange nur über den Takt liefern. Selbst wenn die XTX auf 2,3GHz geprügelt wird und die XT mit 2Ghz läuft hast du gerade mal 15% mehr Takt. Davon bleiben dann auf der Straße um die 8-10%. Naja... wäre mir dann auch egal, ich muss ja (und würde auch nicht) keine XTX kaufen. :)

btw.
Man sollte sich auch nicht alleine auf N21 versteifen. AMD braucht ein vernünftiges Portfolio bei RDNA2. Besonders im unteren Bereich ist es auch wichtig, dass man Ampere paroli bieten kann. Hier wäre es sehr wichtig, dass N22 auf Augenhöhe mit RTX 3070 bei der Performance ist.