Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
Glaub auch nicht, dass AMD da Einschränkungen vorgibt. Wenn ein Hersteller 12GB verbauen will kann er das sicherlich tun. Leider lohnt sich das bei einer 5600 einfach nicht, von daher wird das wohl nicht passieren.
Daredevil
2020-01-08, 13:51:30
Haben Mining-Karten nicht eigentlich weniger VRAM??
Es gibt bestimme Algorithmen, die nicht nur Speicherbandbreiten intensiv sind, sondern halt auch Speichergröße benötigen, Grin mit MimbleWimble ist z.B. der populärste Fall.
Deswegen auch die RX570 mit 16GB.
Meine RTX2080ti nutzt auch hier ca. 9.5GB beim arbeiten, sprich 8GB Karten sind im Nachteil.
Leonidas
2020-01-08, 15:53:51
AMD schon. Siehe RX570 16 GB
https://www.computerbase.de/2019-01/gpu-mining-sapphire-radeon-rx-570-16-gb-grin/
Also Vorsicht womit du ganz sicher bist ;)
Die Warnung ist natürlich berechtigt -100%ige Sicherheiten gibt es nicht.
Ich sehe im konkreten Beispiel aber eher einen Sonderfall: Alt-Chip zum Ende seiner Laufbahn mit einer sowieso überkandidelten Speicherbestückung. Kann durchgehen bei den Chip-Entwicklern. Aber 12 GB bei 1660, 1660S, 2060 oder 5600XT? Nada, das spricht gegen die Langfristpläne der Chipentwickler, sprich macht die nachfolgende Generation schwerer absetzbar. So was läßt man vielleicht zum absehbaren Ende der Generation ausnahmesweise zu, weil dann der Markteffekt gering ist. Aber niemals gleich am Anfang.
Complicated
2020-01-08, 16:50:00
Ich sagte ja nur man soll es nicht kategorisch ausschließen. Das ist nicht als Argument gedacht, dass es 12 GB Karten geben wird.
Ich glaube auch hier steckt ein riskanter Zug von AMD dahinter um PCIe 4.0 zu pushen. Erinnere dich mal an die kürzlichen Benchmarks der 5500 mit 8x PCIe lanes. Dort haben die 4 GB Karten mehr profitiert von PCIe 4.0 als die 8 GB Karten. Oder wenn man es anders formulieren will: je weniger Speicher desto besser ist es PCIe 4.0 zu nutzen.
Wenn das bei Reviews auf AMD Systemen gegenüber Nvidias 6 GB Karten Vorteile bringt, schlägt AMD zwei Fliegen mit einer Klappe.
1.PCIe 4.0 wird plötzlich relevant bei GPUs und man hat keine Highendkarte gebraucht um Nvidia direkt unter Druck zu setzen.
2. Eine PCIe 3.0 Plattform kommt schon nicht mehr als Neukauf in Frage, was Intels neue 1200 Sockel direkt obsolet macht mit samt der darauf basierenden CPU Generation.
Klar kann auch sagen...was solls 16x PCIe funktioniert ja einwandfrei. Nur ist das auch noch so wenn der Speicherbedarf über die 8GB rutscht mit neuen Spielen?
Wenn der Speicher anfängt zu limitieren ist mit PCIe 4.0 einfach noch mehr Luft da.
Berniyh
2020-01-08, 17:32:49
ob wir hbm auf gaming karten jemals wieder sehen werden?
Kommt darauf an wie sich das preislich im Vergleich zu GDDR6 entwickelt.
Es hieß ja mal (ist aber schon etwas länger her), dass HBM2 günstiger werden soll. Ob das auch so eingetreten ist weiß ich allerdings nicht.
Zu GDDR6 hieß es zuletzt ja eher, dass die Chips teurer werden.
Je nachdem wie da die Tendenzen sind könnte es schon sein, dass AMD irgendwann wieder mit HBM2 plant.
Berniyh
2020-01-08, 17:34:46
Ich sagte ja nur man soll es nicht kategorisch ausschließen. Das ist nicht als Argument gedacht, dass es 12 GB Karten geben wird.
Ich glaube auch hier steckt ein riskanter Zug von AMD dahinter um PCIe 4.0 zu pushen. Erinnere dich mal an die kürzlichen Benchmarks der 5500 mit 8x PCIe lanes. Dort haben die 4 GB Karten mehr profitiert von PCIe 4.0 als die 8 GB Karten. Oder wenn man es anders formulieren will: je weniger Speicher desto besser ist es PCIe 4.0 zu nutzen.
Wenn das bei Reviews auf AMD Systemen gegenüber Nvidias 6 GB Karten Vorteile bringt, schlägt AMD zwei Fliegen mit einer Klappe.
1.PCIe 4.0 wird plötzlich relevant bei GPUs und man hat keine Highendkarte gebraucht um Nvidia direkt unter Druck zu setzen.
2. Eine PCIe 3.0 Plattform kommt schon nicht mehr als Neukauf in Frage, was Intels neue 1200 Sockel direkt obsolet macht mit samt der darauf basierenden CPU Generation.
Klar kann auch sagen...was solls 16x PCIe funktioniert ja einwandfrei. Nur ist das auch noch so wenn der Speicherbedarf über die 8GB rutscht mit neuen Spielen?
Wenn der Speicher anfängt zu limitieren ist mit PCIe 4.0 einfach noch mehr Luft da.
Mag ja sein, allerdings wird niemand mit einer X570 Plattform ernsthaft eine 5500 kaufen und der X570 ist aktuell die einzige Desktop Plattform mit PCIe 4.0.
B550 hieß es zuletzt, dass man den erst zur Computex sehen wird, das ist noch etwa ein halbes Jahr hin …
BoMbY
2020-01-08, 17:45:59
Kommt darauf an wie sich das preislich im Vergleich zu GDDR6 entwickelt.
Nein, kommt darauf an was die vor drei bis fünf Jahren dachten wie sich das preislich entwickeln wird.
Berniyh
2020-01-08, 18:00:19
Nein, kommt darauf an was die vor drei bis fünf Jahren dachten wie sich das preislich entwickeln wird.
Das war doch im Grunde das was ich im letzten Satz erwähnen wollte.
Aber wenn jetzt die Tendenzen eben so sind, dann könnte es durchaus sein, dass man zukünftig wieder mit HBM2 plant.
Evtl. nicht für RDNA2, aber vielleicht für RDNA3 oder 4.
dargo
2020-01-08, 18:06:19
ob wir hbm auf gaming karten jemals wieder sehen werden?
Wenn GDDRX weiter im Preis steigt sicherlich. Schon mit GDDR6 gab es einen guten Preisanstieg. Mal schauen wie es dann mit GDDR7 aussehen wird.
Wenn der Speicher anfängt zu limitieren ist mit PCIe 4.0 einfach noch mehr Luft da.
Das werden sich auch Konsolen Spiele-Entwickler so denken und die Luft nutzen.
(das "aufpoppen" kann man bestimmt etwas damit kaschieren, das nachgeladene Texturen "langsam kommen")
(ich mein damit, das wen man "ne sec" genauer hinschaut die hoch auflösenden Texturen schon da sind
und in Bewegung sehen wir eh nicht so gut ;))
M.f.G. JVC
bloodflash
2020-01-08, 18:52:05
Zu GDDR6 hieß es zuletzt ja eher, dass die Chips teurer werden.
Naja, wenn Sony und MS den Markt leer kaufen in 2020, wird das für alle anderen teurer.
Complicated
2020-01-08, 19:05:04
Mag ja sein, allerdings wird niemand mit einer X570 Plattform ernsthaft eine 5500 kaufen und der X570 ist aktuell die einzige Desktop Plattform mit PCIe 4.0.
B550 hieß es zuletzt, dass man den erst zur Computex sehen wird, das ist noch etwa ein halbes Jahr hin …
Und was denkst du wieviele Tester eine Midrange-Plattform verwenden nur weil die GPU Midrange ist? Wenn ich heute eine PCIe3 Plattform habe und mir eine GPU kaufe in dem Preissegment ca. 200,- €, dann mache ich mir schon Gedanken wie meine nächsten Plattform aussehen könnte oder wie meine GPU performt wenn ich in einem halben Jahr auf einen modernen Unterbau wechsle.
Also kaufe ich jetzt lieber eine 6 GB AMD PCIe4 oder eine Nvidia 6GB PCIe3 für mein aktuelles Intel Mainstream-System?
Welche GPU wird mir in 6-8 Monaten mehr bringen wenn ich auf mein nächstes System Upgrade, das vielleicht sogar einen Ryzen beheimatet? Wer Midrange kauft, der kauft sich nicht mit jeder CPU auch ein neues Board und eine neue GPU. AMD fängt an das Aufrüsten und das Teile-kaufen wieder attraktiv zu machen. Niemand muss mit jeder CPU gleich wieder einen Haufen Geld für Board und RAM ausgeben. Bleibt mehr für anderes.
Zumindest werden die Argumente zahlreicher wenn das Intel-Komplett-System-Tauschen im Retail wieder Alternativen bietet.
Grendizer
2020-01-08, 19:11:13
Also kaufe ich jetzt lieber eine 6 GB AMD PCIe4 oder eine Nvidia 6GB PCIe3 für mein aktuelles Intel Mainstream-System? Welche GPU wird mir in 6-8 Monaten mehr bringen wenn ich auf mein nächstes System Upgrade, das vielleicht sogar einen Ryzen beheimatet? Wer Midrange kauft, der kauft sich nicht mit jeder CPU auch ein neues Board und eine neue GPU. AMD fängt an das Aufrüsten und das Teile-kaufen wieder attraktiv zu machen. niemand muss mit jeder CPU gleich wieder einen Haufen Geld für Board und RAM ausgeben. Bleibt mehr für anderes.
So ganz stimmt das ja nicht. Man könnte natürlich weiterhin 2666 DDR4 nutzen, den man für einen Ryzen 1700X gekauft hat und könnte Zen 2 CPU mit einem B350 Board paaren, aber man würde schon beachtliche Leistung verschenken.
Ich werde meinen 1700X mit meiner 1080 als 2. PC behalten und wenn Zen 3 und was immer der Winter diesen Jahres an GPU bringt kommt, werde ich komplett neu kaufen. Meine Töchter werden sich freuen, wen ihr Sandybridge I5 PC mit einer AMD 390 aktualisiert wird.
Complicated
2020-01-08, 19:38:42
Klar aber du könntest dir alle 3 Monate eine Komponente kaufen. GPU->Mainboard->CPU->RAM...etc....und jedesmal wird dein System schneller für 200,- €
dargo
2020-01-09, 06:09:59
Das werden sich auch Konsolen Spiele-Entwickler so denken und die Luft nutzen.
Wofür braucht eine Konsole PCIe 4.0? :freak:
=Floi=
2020-01-09, 07:36:55
für die kommunikation mit der gpu. pcie 4.0 ermöglicht auch weniger lanes.
kommunikation mit der SSD, sollte es wirklich über 3,5gb gehen.
robbitop
2020-01-09, 07:38:08
Wofür braucht eine Konsole PCIe 4.0? :freak:
Die PS5 nutzt es wohl für die besonders schnelle SSD.
Grendizer
2020-01-09, 07:39:30
Hmm.... und nVidia kontert die 5600 XT mit einer 2060 KO für 299 Dollar ... die wollen AMD aber echt keine Oberwasser in irgendeinem Bereich bekommen lassen.
dildo4u
2020-01-09, 07:47:06
Hmm.... und nVidia kontert die 5600 XT mit einer 2060 KO für 299 Dollar ... die wollen AMD aber echt keine Oberwasser in irgendeinem Bereich bekommen lassen.
Das ist ein EVGA only Custom Modell.
Grendizer
2020-01-09, 07:59:38
Das ist ein EVGA only Custom Modell.
nVidia gibt doch gewisse Rahmenbedingungen für die PCBs vor. Meinst du nicht, da die dann evtl. gelockert wurden ? Das war meine Vermutung.
dildo4u
2020-01-09, 08:02:58
nVidia gibt doch gewisse Rahmenbedingungen für die PCBs vor. Meinst du nicht, da die dann evtl. gelockert wurden ? Das war meine Vermutung.
Ich sehe kein Grund die 2060 runter zu ziehen,die 1660 Ti ist ja noch im Markt und hat keine Feature Nachteile gegenüber AMD.
Früher hatte man ja noch wenigstens das Argument das AMD mehr Vram hat.
Leonidas
2020-01-09, 08:07:13
Die 1660Ti dürfte mittelfristig aus dem Markt gehen wegen der 1660S.
Grendizer
2020-01-09, 08:08:01
Ich sehe kein Grund die 2060 runter zu ziehen,die 1660 Ti ist ja noch im Markt und hat keine Feature Nachteile gegenüber AMD.
Früher hatte man ja noch wenigstens das Argument das AMD mehr Vram hat.
Die Inno3D GeForce RTX 2060 Twin X2 wird aber bei Notebooksbilliger gerade für 299 angeboten.... mal schauen, wie es da weitergeht.
dildo4u
2020-01-09, 08:14:42
Die 1660Ti dürfte mittelfristig aus dem Markt gehen wegen der 1660S nur 10$ niedriger.
Und was machen sie mit den vollkommen intakten Chips?
Leonidas
2020-01-09, 08:16:28
Eine gute Frage. Hat sich das NV überlegt bei der Aufstellung der 1660S?
Zergra
2020-01-09, 08:30:32
Die gleiche Frage stellt sich doch auch bei der 2070. Den vollen TU106 gibt es dann auch nicht mehr zu kaufen.
dildo4u
2020-01-09, 08:36:29
Doch in Notebooks,die Super Serie gibt es ja bisher nicht in dem Bereich.
dargo
2020-01-09, 08:52:23
Die PS5 nutzt es wohl für die besonders schnelle SSD.
Aber doch nicht 16x.
für die kommunikation mit der gpu.
In einem Konsolen SoC? :freak:
robbitop
2020-01-09, 09:03:36
Aber doch nicht 16x.
Ich denke eher 4x. Aber jede Lange kostet wegen der Sersdes/PHYs Strom und Die Space. Also ist PCIe 4.0 definitiv hilfreich. Sonst müsste man 8 lanes legen.
In einem Konsolen SoC? :freak:
Es ist noch nicht klar, welches Interface hier genutzt wird. Ich tippe eher auf IF. Die hatte aber IIRC elektrisch einige Gemeinsamkeiten mit PCIe und IIRC hing die Bandbreitenverdopplung dort auch mit IP Blocks von PCIe 4.0 zusammen (in Matisse). Ich bekomme es aber leider nicht mehr richtig zusammen.
Zergra
2020-01-09, 09:33:43
Doch in Notebooks,die Super Serie gibt es ja bisher nicht in dem Bereich.
Dürfte aber ja nur ein Bruchteil der vorherigen Stückzahlen sein, die anderen werden halt beschnitten und als 2060S verkauft.
dildo4u
2020-01-09, 11:07:21
Laut AMD gibt es ca 90 Mio High-End Notebook Käufer eher ist Desktop der kleinere Markt.
BlacKi
2020-01-09, 11:13:34
Wofür braucht eine Konsole PCIe 4.0? :freak:
pcie4.0/5.0 spart pcie lanes. pcie4.0 ist auch nicht perse stromhungrig. intel wird pcie5.0 genauso passiv kühlen können wie pcie3.0. das die x570er boards so viel ziehen liegt nur am ungeeigneten chipsatz, nicht am pcie standard selbst.
dargo
2020-01-09, 11:46:22
Das Thema war Konsolen-SoC und kommst mir jetzt mit dem X570 Chipsatz um die Ecke. Muss ich den Zusammenhang verstehen? :uconf2:
Wenn die Konsole PCIE 4.0 hat reicht eine 4x Anbindung z.B. der SSD um eine Bandbreite der 16x Anbindung bei PCIE 3.0 zu gewährleisten.
Sofern mich meine Erinnerung hier nicht täuscht.
Denniss
2020-01-09, 13:41:32
4x4 = 3x8 = 2x16
Complicated
2020-01-09, 14:14:08
4x4 = 3x8 = 2x16
16=24=32?
;)
Habe mich wohl falsch erinnert^^
Quelle (https://www.elektronik-kompendium.de/sites/com/0904051.htm)
Berniyh
2020-01-09, 19:58:01
pcie4.0/5.0 spart pcie lanes. pcie4.0 ist auch nicht perse stromhungrig. intel wird pcie5.0 genauso passiv kühlen können wie pcie3.0. das die x570er boards so viel ziehen liegt nur am ungeeigneten chipsatz, nicht am pcie standard selbst.
Was noch zu beweisen wäre. Bislang gibt es nach meinem Wissen keinen anderen Mainstream Chipsatz als X570 der PCIe4.0 (oder gar 5.0) beherrscht?
BlacKi
2020-01-10, 00:09:01
Was noch zu beweisen wäre. Bislang gibt es nach meinem Wissen keinen anderen Mainstream Chipsatz als X570 der PCIe4.0 (oder gar 5.0) beherrscht?
der8auer hat den verbrauch des x570 mit idle vs gen3 last vs gen4 last gemessen. zwischen idle ohne laufwerk und gen 4 last liegen 2,5w. und zwischen gen3 und 4 nur ein halbes watt unterschied.
https://youtu.be/dYcU5tEaJ8Y?t=1114
der x570 ist einfach dafür nicht konzipiert, er ist einfach zweckentfremdet worden.
wenn man also in der konsole statt pcie x4 gen3 nur pcie x2 gen4 verbauen müsste(angenommen im konsolenumfeld gäbe es pcie x2), dann spart das geld und strom.
robbitop
2020-01-10, 06:40:29
https://www.hardwaretimes.com/mystery-amd-radeon-gpu-surfaces-beats-nvidias-rtx-2080-ti-in-vr-benchmark-big-navi/
Wenn das Ergebnis relativ zur 2080ti stimmt, sind das mindestens 80 CUs.
Da Taktrate, Ausbaustufe (sind dort CUs deaktiviert), CPU Limit?, Treiberreife, IPC von Navi2 unbekannt sind, habe ich die +17% mal unter jetzigen Voraussetzungen (Navi1) eingesetzt:
1.) Navi erreicht vergleichbare Taktraten wie Turing
2.) Ein Turing SM ist in etwa 10% leistungsfähiger als ein Navi CU
68 SMs x 1,17 x 1,1 = 87,5
Das gibt nur die ganz grobe Größenordnung vor. Ggf schließt Navi 2x zu Turings IPC auf. Dann käme man auf 80 CUs. Oder aber er tut es nicht und hier sind noch andere Mali im Spiel (langsame mobile CPU, niedrigere Taktraten GPU, langsamer Treiber...) dann würde es auf eher mehr CUs hinweisen.
Wenn das Ergebnis in der Datenbank nicht gehackt ist, liegt Navi2x zwischen 80 und 100 CUs.
Das bringt uns zum Speicher. AMD hatte in 2019 in einem Interview IIRC abseits von HPC/Servern vor, von HBM abzusehen.
Annahme: GDDR6.
Navi 10: 40CUs @256bit @14GT/s = 448 gb/s
Bei obiger GPU Leistung braucht man ganz grob 2x Bandbreite. ~900 gb/s. Ggf aufh ein bisschen weniger, wenn die Bandbreiteneffizienz gestiegen ist.
384bit @18GT/s käme immerhin auf 864 gb/s. Dort könnte man entsprechend 12 und alternativ 24 gb anbieten.
512bit wäre natürlich auch eine Option. Aber teurer. Da könnte man dann 16 gb anbieten und hätte bei 18gt/s 1152 gb/s. Oder man wählt dort nur 14gt/s (900gb/s) oder 16 gt/s (1024 gb/s).
384 bit erscheint mir, sofern 18 gt/s in ausreichenden Mengen verfügbar wären (Announcement ist 1 Jahr alt...), als praktikabelste Lösung.
Berniyh
2020-01-10, 06:46:41
der8auer hat den verbrauch des x570 mit idle vs gen3 last vs gen4 last gemessen. zwischen idle ohne laufwerk und gen 4 last liegen 2,5w. und zwischen gen3 und 4 nur ein halbes watt unterschied.
https://youtu.be/dYcU5tEaJ8Y?t=1114
der x570 ist einfach dafür nicht konzipiert, er ist einfach zweckentfremdet worden.
wenn man also in der konsole statt pcie x4 gen3 nur pcie x2 gen4 verbauen müsste(angenommen im konsolenumfeld gäbe es pcie x2), dann spart das geld und strom.
Ich kenne den Test, das belegt aber leider deine Aussage nicht.
dargo
2020-01-10, 06:57:51
2.) Ein Turing SM ist in etwa 10% leistungsfähiger als ein Navi CU
Nö... nicht wirklich.
rHT9P9XnsHc
Leonidas
2020-01-10, 07:00:27
Wenn das Ergebnis relativ zur 2080ti stimmt, sind das mindestens 80 CUs.
Sofern AMD in der IPC zwischen RDNA1 und RDNA2 zulegt, könnten eventuell auch 64 CU ausreichend sein. Wäre aber bei +17% Performance die absolute Grenze des Denkbaren.
384 bit erscheint mir, sofern 18 gt/s in ausreichenden Mengen verfügbar wären (Announcement ist 1 Jahr alt...), als praktikabelste Lösung.
Zustimmung. 512 Bit macht den Chip zu fett - und dann würde sich schnell wieder HBM lohnen.
robbitop
2020-01-10, 07:00:54
@dargo
Ist es im Schnitt(!) nicht so, dass eine 5700XT (40 CUs) nicht an eine 2070 Super herankommt sondern nur an eine 2070 (36CUs)?
Hatte das aus den Launch Review in etwa so im Hinterkopf. Zumindest in den neueren Spielen mit viel PP (Wolf2, Control, Quantum Break) hat Turing pro SM iirc navi pro CU ganz schön abgehängt...
In deinem Video sehen die Ergebnisse von N10 ungewohnt „super“ :D (das Wortspiel mussste jetzt sein) aus. Hat sich da inzwischen so viel getan?
@Leonidas
Möglich ist alles. Aber bedenke das Gesetz des sinkenden Grenzertrags. Schaue dir mal an, wie viele Transistoren und Hirnschmalz NV in Turing und Voltagekippt hat (und wie viel Cache). Und das für eine Auslastungssteigerung von gerade mal 10%.
Da jetzt nochmal 25% innerhalb 1 Jahres seitens AMD draufzuhauen... nicht unmöglich vielleicht aber unter beachtung des oben geschriebenen eher unwahrscheinlich. IMO. :)
dargo
2020-01-10, 07:09:33
@dargo
Ist es im Schnitt(!) nicht so, dass eine 5700XT (40 CUs) nicht an eine 2070 Super herankommt sondern nur an eine 2070 (36CUs)?
Hatte das aus den Launch Review in etwa so im Hinterkopf. Zumindest in den neueren Spielen mit viel PP (Wolf2, Control, Quantum Break) hat Turing pro SM iirc navi pro CU ganz schön abgehängt...
Das ist wie immer davon abhängig welche Spiele getestet werden. Auch die Szenen können sich etwas unterschiedlich auswirken. In dem verlinkten Video heißt es in Summe 820fps für die 2070S und 818fps für die RX 5700XT, ergo Gleichstand. Und eine gute Mischung ist es auch. Es gibt sowohl Games wo Navi stärker vorne liegt als auch Games die Turing besser liegen.
robbitop
2020-01-10, 07:12:03
Bei hwunboxed (großer Spieleparcours) war sie 6% langsamer Schnitt als die 2070 super.
https://youtu.be/pcGWIJW3iNU
Ist aber schon ein paar Monate alt. Ich habe aus der Erinnerung (schaue zu viel youtube...weiß nicht mehr genau welche Spiele es waren) dass N10 bei ein paar Spielen doll absackt (Optimierung?).
Beim HW Unboxed Video sieht man in der Endübersicht einige auffällige Spiele. (Warhammer, warthunder, fotnite, rainbow6) und eine ganze Menge (zB Witcher 3) wo es 10% minus sind.
Wie du sagst kommt auf die Spiele an.
Bei dem Benchmarkleak von big Navi soll es sich ja auch um ein Beispiel handeln, was AMD nicht so liegt. Insofern wäre ein Minderungsfaktor von 10% im dortigen Bsp nicht so weit hergeholt.
amdfanuwe
2020-01-10, 07:19:19
@dargo
Ist es im Schnitt(!) nicht so, dass eine 5700XT (40 CUs) nicht an eine 2070 Super herankommt sondern nur an eine 2070 (36CUs)?
Ja und eine 22 CU 5500XT hält mit einer 20 CU 2650 Super mit.
Ist halt RDNA 1, mal sehen, was bei RDNA 2 und Ampere rauskommt.
Vielleicht gehts ja Richtung
4x24=96 CU 16MB
3x24=72 CU 12MB
2x24=48 CU 8MB als Ablösung für Navi 10.
oder eher
3x32=96 CU 12MB
2x32=64 CU 8MB
???? Noch alles offen :-)
24 CU Navi 14 und Navi 10 bleiben uns erstmal im Low End erhalten.
dargo
2020-01-10, 07:24:12
Bei hwunboxed (großer Spieleparcours) war sie 6% langsamer Schnitt als die 2070 super.
https://youtu.be/pcGWIJW3iNU
Ohne Angaben zu anliegenden Taktraten die direkten Einfluss auf die TFLOPs haben ziemlich wertlos.
robbitop
2020-01-10, 07:28:00
Ohne Angaben zu anliegenden Taktraten die direkten Einfluss auf die TFLOPs haben ziemlich wertlos.
Das stimmt. Iirc waren die Taktraten doch zwischen N10 und Tu104 doch ziemlich vergleichbar, oder?
Am Ende will ich jetzt aber keine kleinkarierte Diskussion über Navi/Turing führen (also ob man jetzt 10% ansetzt oder nicht für die Extrapolation der CUs - in der Range kann IMO bei Navi2 ja auch eine IPC Steigerung pro CU kommen) sondern über Big Navi. ;)
@amdfanuwe
IMO (sofern der Benchmark echt ist) hat die Karte mindestens 80 CUs. Neulich gab es ja mal ein Gerücht mit bis zu 100.
Leonidas
2020-01-10, 07:39:13
... nicht unmöglich vielleicht aber unter beachtung des oben geschriebenen eher unwahrscheinlich. IMO. :)
Jo, es die Chance auf 80 ist in jedem Fall höher als auf 64.
Was wir hier vielleicht versuchen zu eruieren sollten: Wie reagiert dieser Benchmark allgemein auf Navi-HW? Dann könnte man es genauer sehen, wie gut dieser Wert von Big Navi ist.
dargo
2020-01-10, 08:04:22
Das stimmt. Iirc waren die Taktraten doch zwischen N10 und Tu104 doch ziemlich vergleichbar, oder?
Im Video siehst du doch alles. :)
robbitop
2020-01-10, 08:04:37
Jo, es die Chance auf 80 ist in jedem Fall höher als auf 64.
Was wir hier vielleicht versuchen zu eruieren sollten: Wie reagiert dieser Benchmark allgemein auf Navi-HW? Dann könnte man es genauer sehen, wie gut dieser Wert von Big Navi ist.
Das ist eine gute Idee. Ich finde leider keine Datenbank in die man schauen kann. Ich habe auf die Schnelle nur folgendes in der google Bildersuche gefunden.
https://steamcdn-a.akamaihd.net/steam/apps/1199470/ss_00a7962b276773130c01cecb81f07a6afb3a5755.600x338.jpg?t=1576864930
5700XT @ Oculus Rift CV1: 41 fps
1080 @ Oculus Rift CV1: 47 fps
(Man darf nur gleiche Headsets wegen unterschiedlicher Auflösung vergleichen).
1080 @ htc vive: 50 fps
2070 @ htc vive: 52 fps
2070 super extrapoliert (40/36 SMs): 57 fps
Daraus ergibt sich eine wackelige Kette:
2070 super = 1080 x 1,15
1080 = 5700 xt x 1,14
2070 super = 5700 xt x 1,15 x 1,14 = 1,31 x 5700XT
(Ich habe hier 40 Navi CUs mit 40 Turing SMs normieren wollen)
Ich weiß nicht wie sinnvoll ein so wackeliges Konstrukt ist - aber man liest, dass AMD in dem Benchmark bei normal gleicher Leistung um einiges hinten liegt.
Würde man auf die 2080 ti mit ihren 68 SMs betrachten und unter obiger wackeliger Annahme Navi 31% mehr CUs geben und dazu noch 17% mehr wegen des 17% höheren Wertes... 104 CUs... X-D
100 CUs mit 512 bit SI - das wäre schon aberwitzig. Andererseits baubar. TSMCs 7nm+ soll ja eine Flächenreduktion um 10% bringen. Linear extrapoliert (und 10% gekürzt wegen N7+) von N10 wären das 564 mm2. Normalerweise skaliert sowas etwas unter linear - aber AMD will ja noch ein paar Neuerungen bringen mit Navi2...
Definitiv baubar. Nicht in riesen Mengen verkaufbar. Preis müsste entsprechend hoch sein, damit der Bedarf nicht das Angebot sprengt und man dennoch den Halo Effekt mitnehmen kann.
Mein Bauch sagt aber: klingt etwas viel... :)
robbitop
2020-01-10, 08:06:37
Im Video siehst du doch alles. :)
Kurz an 3x Stellen geschaut. Mal der eine, mal der andere um relativ wenig Differenz. Nimmt sich unterm Stricht IMO nichts. ;)
Berniyh
2020-01-10, 08:13:11
Zustimmung. 512 Bit macht den Chip zu fett - und dann würde sich schnell wieder HBM lohnen.
evtl. hat man ja generell für HBM2 geplant?
Ich meine, wenn man grob das Level einer 3080 Ti anpeilt, d.h. Preispunkt 800-1000€ (eingerechnet, dass man eine 3080 Ti vermutlich nicht ganz erreichen wird), dann fallen die eventuellen Mehrkosten für HBM2 im Vergleich zum Rest der Karte auch nicht mehr so ins Gewicht.
Berniyh
2020-01-10, 08:16:34
Ist aber schon ein paar Monate alt. Ich habe aus der Erinnerung (schaue zu viel youtube...weiß nicht mehr genau welche Spiele es waren) dass N10 bei ein paar Spielen doll absackt (Optimierung?).
Ja, das ist so. z.B. schneidet AMD generell bei allen Spielen auf Basis der UE4 ziemlich schlecht ab.
Vega war da ziemlich übel, Navi etwas besser, aber immer noch signifikant schlechter im Vergleich zu Nvidia als in anderen Games.
robbitop
2020-01-10, 08:19:22
evtl. hat man ja generell für HBM2 geplant?
Ich meine, wenn man grob das Level einer 3080 Ti anpeilt, d.h. Preispunkt 800-1000€ (eingerechnet, dass man eine 3080 Ti vermutlich nicht ganz erreichen wird), dann fallen die eventuellen Mehrkosten für HBM2 im Vergleich zum Rest der Karte auch nicht mehr so ins Gewicht.
Wie gesagt: AMD hat 2019 in einem Interview gesagt, dass sie HBM erstmal nicht mehr in Consumerprodukten (nur noch Server/HPC) verbauen wollen.
———-
Man muss für Navi2 einkalkulieren, dass der Gegner (zumindest kurz bis mittelfristig) nicht Turing sondern dessen Nachfolger sein wird.
80 CUs könnten für 104 reichen aber nicht für 102. ist die Frage ob man ein Halo Produkt will. Wenn ja muss man es so auslegen, dass es der klare Sieger ist. Sonst gibt es kein Halo. Damit ist ein topdog sinnfrei.
Grendizer
2020-01-10, 08:25:17
evtl. hat man ja generell für HBM2 geplant?
Ich meine, wenn man grob das Level einer 3080 Ti anpeilt, d.h. Preispunkt 800-1000€ (eingerechnet, dass man eine 3080 Ti vermutlich nicht ganz erreichen wird), dann fallen die eventuellen Mehrkosten für HBM2 im Vergleich zum Rest der Karte auch nicht mehr so ins Gewicht.
Eine 3080 Ti wird doch eher bei 1.200 bis 1.500 liegen. Deshalb halte ich BigNavi für unter 1.000 Euro für unrealistisch. Allerdings denke ich auch das der OpenVR Benchmark was anderes ist.
robbitop
2020-01-10, 08:29:14
Wäre ich AMD würde ich mal wieder so etwas wie einen R300 bauen. Nur des Halos wegen. Stärkt die Marke und somit die Gewinnspanne sämtlicher Produkte.
Angeblich soll die Karte erst im Sommer kommen.
IMO muss man auch nicht unbedingt billiger sein. Man sollte als Unternehmen keine niedrigen Margen anpeilen. Gleicher Preis und dafür mehr Leistung. Das wäre dann ein besseres P/L. Wegen der Waferknappheit in 7nm für AMD wäre ein Volumenprodukt mit großem Die eh nicht das richtige.
Berniyh
2020-01-10, 08:39:43
Wie gesagt: AMD hat 2019 in einem Interview gesagt, dass sie HBM erstmal nicht mehr in Consumerprodukten (nur noch Server/HPC) verbauen wollen.
Klar, das spricht sicherlich dagegen.
Man muss für Navi2 einkalkulieren, dass der Gegner (zumindest kurz bis mittelfristig) nicht Turing sondern dessen Nachfolger sein wird.
80 CUs könnten für 104 reichen aber nicht für 102. ist die Frage ob man ein Halo Produkt will.
Ja, das wollte ich damit schon auch andeuten. Aber ging es ja nur darum ganz grob den Preisrahmen zu definieren und bei 1000€ für eine Karte ist HBM2 vs. GDDR6 halt vermutlich nicht mehr der wesentliche Streitpunkt was die Kosten angeht.
Trotzdem kann es selbstverständlich sein, dass die Karte trotzdem für GDDR6 ausgelegt wird, sei es weil man damit dann halt doch noch einen besseren finanziellen Schnitt macht oder weil es evtl. einfacher wenn man die verschiedenen Designs ähnlich hält oder was auch immer sonst für Gründe einfallen könnten.
Wenn ja muss man es so auslegen, dass es der klare Sieger ist. Sonst gibt es kein Halo. Damit ist ein topdog sinnfrei.
Das sehe ich nicht so.
Zen und Zen+ haben auch ganz klar gezeigt, dass man nicht unbedingt die absolute Spitze erreichen muss um wieder eine echte Alternative für die Masse zu werden.
Klar, der endgültige Durchbruch kam dann mit Zen 2, aber auch Zen und Zen+ waren wichtige Schritte, da sie den Nutzern gezeigt haben, dass AMD effektiv versteht an den eigenen Schwächen zu arbeiten und so den Rückschritt deutlich zu reduzieren, bzw. an manchen Stellen dann auch schon zu überholen.
Genau sowas ist bei den Grafikkarten auch notwendig und der erste Schritt war mit RDNA1 auch schon gemacht worden.
RDNA2 muss hier ansetzen und weitere Verbesserungen bringen und vor allem muss AMD zeigen, dass sie auch im High-End Segment wieder mitspielen können, egal ob am Ende dann ein AMD Produkt an der Spitze steht oder nicht. (wird ziemlich sicher nicht der Fall sein, aber so wichtig ist das tatsächlich nicht)
Und dafür ist insbesondere auch notwendig, dass man die Spiele (siehe deine Liste oben + alles was UE4 verwendet) bei welchen RDNA nach wie vor unterdurchschnittlich schlecht abschneidet auf ein Minimum reduziert.
Eine 3080 Ti wird doch eher bei 1.200 bis 1.500 liegen. Deshalb halte ich BigNavi für unter 1.000 Euro für unrealistisch. Allerdings denke ich auch das der OpenVR Benchmark was anderes ist.
Wenn Big Navi einer 3080 Ti auch nur nahe kommt wird Nvidia die Preise nicht ganz so hoch halten können.
Aktuell können sie die Preise im High-End Segment ja praktisch nach Belieben diktieren, damit wird dann vorerst Schluss sein, bzw. die Grenze der Grafikkarten für die das möglich wäre würde sich eben nach oben verschieben.
Wenn man den XBox-Chip als Referenz nimmt, der ja 60CUs auf 400mm² bringt (die Zen-Kerne brauchen ja nicht viel Platz) würd ich sogar sagen, dass N21 ziemlich sicher 96CUs hat. Sicherlich hat N22 dann 60CUs auf 350mm², damit würde das auch alles halbwegs zusammen passen.
dargo
2020-01-10, 09:05:10
Es ist doch nicht mal bestätigt, dass der XBox Chip schon in 7nm+ produziert wird. Oder habe ich was verpasst?
reaperrr
2020-01-10, 09:10:23
@dargo
Ist es im Schnitt(!) nicht so, dass eine 5700XT (40 CUs) nicht an eine 2070 Super herankommt sondern nur an eine 2070 (36CUs)?
Das stimmt zwar, allerdings wird hierbei ein Punkt oft vergessen/unterschätzt:
Die 2070S liegt weiter vor der 2070, als sie von den SM her "dürfte".
Gleichzeitig liegt die 2080(S) näher an der 2080Ti, als man von der Rohleistung erwarten würde.
Kann von den Specs her nur eines heißen:
Die Anzahl der GPCs spielt bei Turing durchaus eine Rolle. TU106 hat 3, TU104 und 102 haben je 6.
TU104 hat dadurch offensichtlich bessere Auslastung bzw. Rasterizer-Leistung, was der 2070S, die mindestens 5 aktivierte GPCs haben muss, einen kleinen Vorteil gegenüber der 5700XT verschafft.
Von einem Navi mit 80 CUs würde ich auch 8 ShaderEngines erwarten, mehr sehe ich auch beim TU104-Nachfolger nicht.
Natürlich sind für den Big Navi auch 72 CUs verteilt auf 6 SE mit 96 ROPs und 384bit nicht ausgeschlossen, aber dann würde ich, gerade in N7+, deutlich weniger als 505mm² erwarten, das müsste in <=420mm² möglich sein.
Von daher halte ich die "N21 = N10-Specs x2"-Theorie für wahrscheinlicher.
robbitop
2020-01-10, 09:18:07
Das sehe ich nicht so.
Zen und Zen+ haben auch ganz klar gezeigt, dass man nicht unbedingt die absolute Spitze erreichen muss um wieder eine echte Alternative für die Masse zu werden.
Klar, der endgültige Durchbruch kam dann mit Zen 2, aber auch Zen und Zen+ waren wichtige Schritte, da sie den Nutzern gezeigt haben, dass AMD effektiv versteht an den eigenen Schwächen zu arbeiten und so den Rückschritt deutlich zu reduzieren, bzw. an manchen Stellen dann auch schon zu überholen.
Für Volumenprodukte mit gewisser Marge stimme ich da zu. Die 5700XT und auch Zen1/+ haben sich in guten Volumen verkauft. Aber die Marge war eher mittelprächtig IMO.
Bei Fijii und Vega hat man gesehen, was ein Topdog bringt, der nicht siegt. Gar nichts. Vielleicht sogar minus.
Mit dem Ansatz kommt man eben nur so weit. Wenn man die fetten Margen haben will, braucht man Halo. Und siehe da, AMD kann für Zen 2 nun wesentlich mehr Geld nehmen als noch für Zen 1.
Und dafür ist insbesondere auch notwendig, dass man die Spiele (siehe deine Liste oben + alles was UE4 verwendet) bei welchen RDNA nach wie vor unterdurchschnittlich schlecht abschneidet auf ein Minimum reduziert.
Absolute Zustimmung. Meine Vermutung ist, dass es nicht an der HW liegt. Ein Teil NV's Erfolg liegt an ihrer Konsistenz und die kommt aus der Software. Sie haben ein riesen Treiberteam, was aus jedem wesentlichen Spiel versucht, jeden Tropfen Performance herauszuquetschen.
AMD macht relativ gute Hardware (die immer besser wird) - hoffentlich investieren sie auch in den Bereich Treiberoptimierung immer mehr mit ihrem Wachstum. Das UI ist jedenfalls offenbar schon mal richtig gut. :)
Wenn Big Navi einer 3080 Ti auch nur nahe kommt wird Nvidia die Preise nicht ganz so hoch halten können.
Aktuell können sie die Preise im High-End Segment ja praktisch nach Belieben diktieren, damit wird dann vorerst Schluss sein, bzw. die Grenze der Grafikkarten für die das möglich wäre würde sich eben nach oben verschieben.
Das wäre für uns Endkunden gut. An AMD's Stelle würde ich keinen Preiskrieg mehr anzetteln. Das hat man Jahrelang gemacht und damit verglichen mit NV nur Pennies verdient.
Gute Produkte liefern aber auch für gute Preise. Da haben alle mittelfristig mehr davon. Mehr Gewinn für AMD, heißt mittelfristig einen stärkeren Wettbewerb und das bedeutet am Ende besseres P/L.
Entweder einen kleinen Tucken weniger Preis bei gleicher Performance oder etwas mehr Performance zum gleichen Preis. So würde ich es jedenfalls machen. :)
Es ist doch nicht mal bestätigt, dass der XBox Chip schon in 7nm+ produziert wird. Oder habe ich was verpasst?
Habe da den gleichen Wissensstand. Ich würde sogar so weit gehen und sagen, dass es unwahrscheinlich ist. Warum? Weil Konsolen SoCs deutlich größere Zeiträume für Validierung und Vorproduktion haben. Da ist relativ früh design freeze angesagt. Zumal N7+ doch EUV braucht. Ist EUV Belichtung im Vergleich zu DUV nicht auch im Volumen noch ein Stück begrenzt?
Da es schon Fotos vom Chip gibt, ist der schon fertig. IIRC sagte DF, dass der zum Scorpio Video vorkommenden Chip passt. Kann also gut sein, dass der schon seit ein paar Monaten im ersten Stepping fertig ist.
Es ist doch nicht mal bestätigt, dass der XBox Chip schon in 7nm+ produziert wird. Oder habe ich was verpasst?
Der wird schon entweder N7P oder N7+ sein, was ja fast auf das gleiche hinausläuft. Die Packdichten müssten ähnlich sein. Für die GPUs gilt ähnliches, auch hier ist keineswegs sicher, dass die GPUs auch in N7+ kommen. Die können genauso gut N7P sein.
Eines ist aber sicher: Auf den alten N7 setzt keines dieser Produkte.
dildo4u
2020-01-10, 09:20:42
Die 5700XT Margen sind massiv wenn sie 400mm² in die Konsolen Stecken.
robbitop
2020-01-10, 09:25:21
Das stimmt zwar, allerdings wird hierbei ein Punkt oft vergessen/unterschätzt:
Die 2070S liegt weiter vor der 2070, als sie von den SM her "dürfte".
Gleichzeitig liegt die 2080(S) näher an der 2080Ti, als man von der Rohleistung erwarten würde.
Lag das nicht an den jeweils höheren sustained turbo taktraten der 2070 Super? Die 2080Ti muss sicherlich wegen ihres TDPs auch ein wenig niedriger Takten.
Kann von den Specs her nur eines heißen:
Die Anzahl der GPCs spielt bei Turing durchaus eine Rolle. TU106 hat 3, TU104 und 102 haben je 6.
TU104 hat dadurch offensichtlich bessere Auslastung bzw. Rasterizer-Leistung, was der 2070S, die mindestens 5 aktivierte GPCs haben muss, einen kleinen Vorteil gegenüber der 5700XT verschafft.
Von einem Navi mit 80 CUs würde ich auch 8 ShaderEngines erwarten, mehr sehe ich auch beim TU104-Nachfolger nicht.
Natürlich sind für den Big Navi auch 72 CUs verteilt auf 6 SE mit 96 ROPs und 384bit nicht ausgeschlossen, aber dann würde ich, gerade in N7+, deutlich weniger als 505mm² erwarten, das müsste in <=420mm² möglich sein.
Von daher halte ich die "N21 = N10-Specs x2"-Theorie für wahrscheinlicher.
Ja man muss die Kontroll- und Verteilerlogik natürlich schön mitskalieren, sonst bringen die ganzen CUs die Leistung nicht auf die Straße.
Das obige Ergebnis läßt mich (sofern es echt ist) ziemlich sicher sein, dass es nicht unter 80 CUs liegt. Die Frage, ist ob es ggf. auch ein bisschen mehr sein darf? :)
Die 5700XT Margen sind massiv wenn sie 400mm² in die Konsolen Stecken.
Der SoC macht ja nur einen Teil des Gesamtpreises einer Konsole aus. Und noch wissen wir weder den Endpreis der Xbox, noch ob und wie viel subventioniert wird noch idealerweise den Anteil des Preises des SoCs. Sony hat sicherlich nicht umsonst einen kleineren Die verbaut.
Und ja gemessen an der Gewinnspanne der Konsolenhardware ist die Marge jedes Produktes massiv. Wäre schlimm wenn nicht. Konsolen HW ist im Bestfall ein Nullsummenspiel.
Eines ist aber sicher: Auf den alten N7 setzt keines dieser Produkte.
Da wäre ich mir bei den Konsolen SoCs nicht so sicher. Zeiträume von Design Freeze bis zum Verkaufsstart sind dort riesig, genau wie der Volumenbedarf. ;)
EUV und sehr sehr hohe Volumen - ist die Frage, ob sich das jetzt schon verträgt...
IMO ist es jedenfalls so klar nicht im Fall der Konsolen.
"Außerdem erklärte er, dass das Ergebnis der unbekannten Karte eigentlich noch höher einzuschätzen sei. Der Grund: Der Vergleich wird zur schnellsten RTX 2080 Ti gezogen, im Schnitt seien die gebenchten RTX 2080 Ti aber langsamer, sodass die mysteriöse Grafikkarte auf einen Vorsprung von circa 29 Prozent kommt."
https://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Big-Navi-schneller-als-RTX-2080-Ti-1340789/
Die 5700XT Margen sind massiv wenn sie 400mm² in die Konsolen Stecken.
Das wird auch so sein. Die scheinen ja auch einigermaßen gekauft worden zu sein.
Ich denke, die 5700er-Serie wird in <300€ abrutschen, wenn die neue NV-Generation kommt. Damit wird man immer noch was verdienen.
...100 CUs mit 512 bit SI - das wäre schon aberwitzig. Andererseits baubar.
Wäre ich AMD würde ich mal wieder so etwas wie einen R300 bauen. Nur des Halos wegen. Stärkt die Marke und somit die Gewinnspanne sämtlicher Produkte.
Angeblich soll die Karte erst im Sommer kommen.
...Von daher halte ich die "N21 = N10-Specs x2"-Theorie für wahrscheinlicher.
16Gb bei 512Bit wären schon geil :biggrin: (auf die :love4:390 schiel)
Vor ~nem halben Jahr hörte ich Gerüchte die auf April-Mai hindeuteten.
(vielleicht ein ursprüngliches Ziel, naja Juli-August ist ja nicht viel später)
Die "N21 = N10-Specs x2"-Theorie ist auf jeden Fall plausibel.
Ach dieses Durcheinander mit den N-Nummern...
Ich spekuliere mal:
N2x 60CUs 8Gb (256bit) (oder doch schon 12Gb 384?)
N2x 80CUs 12Gb (384bit) (oder eher 16Gb 512?)
N2x 120CUs 16/32Gb (512bit)
(vermutlich sind die Einheiten stark verbessert und Richtung RT hin optimiert)
So könnte ich mir das 2x Portfolio vorstellen.
Bei wie viel "Gigabit pro Sekunde" ist man im Moment? 18-20Gbps?
Irgendwie wäre mir HBM lieber...
Ich hoff einfach das AMD n krasses Prestige-Projekt raus haut!
(Die sind es ja gewohnt "nichts" zu verdienen :tongue::wink:)
Ich würde auch ne "R9 390 XTX 400Watt"(aka "N23") kaufen :smile:
M.f.G. JVC
dargo
2020-01-10, 12:41:12
Bei wie viel "Gigabit pro Sekunde" ist man im Moment? 18-20Gbps?
16Gbps untertaktet auf der 2080S.
Complicated
2020-01-10, 12:44:00
Ich wäre Vorsichtig bzgl. diesen VR-Benchmarks. Am Ende ist es eine auf VR optimierte PS5, mit Hardware und Software Optimierung. Ja etwas überspitzt, doch ich glaube in VR sind noch viele Optimierungen drin die über Treiber und Hardware die Performance pushen können, wo eben die Nvidias überhaupt nicht diese zusätzlichen Optimierungen eines zukünftigen Produktes haben.
Man sollte sich einfach nicht zu sehr verrennen. Auch eine Dual-GPU wäre für VR mit viel Performance ausgestattet, die im Desktop nicht umgesetzt werden kann in klassischen Spielen.
Die 5700XT Margen sind massiv wenn sie 400mm² in die Konsolen Stecken.
Es wird ja auch kein HBM verbaut, wobei ich mir über den aktuellen Preisunterschied zwischen HBM und GDDR6 gar nicht sicher bin:biggrin:
Neurosphere
2020-01-10, 13:09:20
Hi, I'm the developer of the benchmark (OpenVR Benchmark), and since I was already asked on my discord server to comment on the AMD benchmark result everyone seems to be talking about, I guess I will also comment here to let people know what I think.
To be clear, I do not have access to any more information than you, I also just see the result in the leaderboard, beating all the 2080 Ti.
The CPU does seem to be a Ryzen 7 4800H and people generally seem to agree about that. Regarding the GPU, it is definitely some kind of unreleased high end GPU, as being 17% above the best performing 2080 Ti is quite a big step. It hasn't really been mentioned here, but that best performing 2080 Ti in the leaderboard is already a really good performing 2080 Ti. As usual, there's many GPUs that perform somewhere in the middle, with few being faster and few being slower. The majority of 2080 Ti actually perform more around ~80 fps in this benchmark, so the unnamed GPU we talk about here is around 29% faster than a regular 2080 Ti, while being 17% faster than the highest overclocked 2080 Ti.
I guess it might be just about possible to get a "30% higher than 2080 Ti" result by having a 2080 Ti with a world-record liquid nitrogen OC, but I think most likely people using engineering sample CPUs, especially a Ryzen 7 4800H, are not running liquid nitrogen OCs.
So this benchmark result is very likely done with some unannounced GPU. And since I would consider it very unlikely that someone has access to both an AMD engineering sample CPU and an unannounced Nvidia GPU, and is allowed to use both in the same system, I think it is most likely that this is an unannounced AMD GPU. So I do agree with most people here that this most likely seems to be a new AMD GPU that is quite a bit faster than a 2080 Ti, but I also think to not be disappointed if it ends up being something different, no one should feel 100% certain about this.
Ich weiß nicht wie die Margen bei aktuellen High-End-Karten aussehen, aber etwas Konkurenz auf ganzer Linie würde uns Nutzern wohl gut tun.
Auch wenn das ganze erstmal nur darauf hindeutet das die Karte schneller als eine 2080 ti wird, weil einfach zu viele Unbekannte darin stecken, schön wäre es wenn AMD es gleich mit der 3000er von Nvidia aufnehmen könnte.
Der_Korken
2020-01-10, 13:17:35
Ich wäre Vorsichtig bzgl. diesen VR-Benchmarks. Am Ende ist es eine auf VR optimierte PS5, mit Hardware und Software Optimierung. Ja etwas überspitzt, doch ich glaube in VR sind noch viele Optimierungen drin die über Treiber und Hardware die Performance pushen können, wo eben die Nvidias überhaupt nicht diese zusätzlichen Optimierungen eines zukünftigen Produktes haben.
Man sollte sich einfach nicht zu sehr verrennen. Auch eine Dual-GPU wäre für VR mit viel Performance ausgestattet, die im Desktop nicht umgesetzt werden kann in klassischen Spielen.
Ich glaube auch, dass hier gesunde Skepsis angebracht ist. Gerade die Idee einer Dual-GPU ist gar nicht so abwegig, denn wo hier schon spekuliert wird dass die Performance einer hypotetischen 80CU-Navi entspricht, könnte dies vielleicht näher an der Wahrheit (2x5700XT) dran sein, als uns lieb ist ;D. Gibt es Möglichkeiten solche Benchmarks zu hacken? Also Berechnungen auszulassen, um mehr Performance vorzugaukeln? Dazu noch irgendwie die CPU-ID gespoofed und schon sieht es wie eine ES-Plattform mit Big Navi aus.
robbitop
2020-01-10, 13:43:09
Ich wäre Vorsichtig bzgl. diesen VR-Benchmarks. Am Ende ist es eine auf VR optimierte PS5, mit Hardware und Software Optimierung. Ja etwas überspitzt, doch ich glaube in VR sind noch viele Optimierungen drin die über Treiber und Hardware die Performance pushen können, wo eben die Nvidias überhaupt nicht diese zusätzlichen Optimierungen eines zukünftigen Produktes haben.
Man sollte sich einfach nicht zu sehr verrennen. Auch eine Dual-GPU wäre für VR mit viel Performance ausgestattet, die im Desktop nicht umgesetzt werden kann in klassischen Spielen.
Das ist ein guter Hinweis. Das kann natürlich sein. Andererseits gibt es eine Menge Gerüchte zum Big Navi. Und kommen soll ja einer. Also in sofern ist die Wahrscheinlichkeit schon gegeben. :)
Linmoum
2020-01-10, 13:50:10
Die Sache ist doch: Wenn es diesen OpenVR-Eintrag gibt, wird es bestimmt nicht nur bei diesem bleiben. Wer durchsucht 3DMark und Co.? ;)
An 2xN10 oder irgendeine Dual-GPU glaube ich nicht. Wie sieht es denn bei dem OpenVR-Bench mit sonstigen Ergebnissen aus? Ist ja noch relativ frisch.
robbitop
2020-01-10, 14:04:26
Verglichen mit anderen N10 Einträgen ist das Ding deutlich schneller als nur 2x 5700XT. Siehe mein Posting weiter oben. Eher Faktor 2,5. Andererseits steht AMD dort relativ zur Leistung bis dato schlecht da - ggf hat man das bei Navi2 im Treiber gefixt.
Berniyh
2020-01-10, 14:08:18
Die Sache ist doch: Wenn es diesen OpenVR-Eintrag gibt, wird es bestimmt nicht nur bei diesem bleiben. Wer durchsucht 3DMark und Co.? ;)
An 2xN10 oder irgendeine Dual-GPU glaube ich nicht. Wie sieht es denn bei dem OpenVR-Bench mit sonstigen Ergebnissen aus? Ist ja noch relativ frisch.
Ich kenn mich bei dem Benchmark nicht wirklich aus. Ist das so einer wo die Ergebnisse automatisch hochgeladen werden?
Wie z.B. bei Geekbench in der freien Version?
Dann läge es vermutlich daran, dass es überhaupt ein Ergebnis gibt.
Bei 3DMark & Co muss man das doch aktiv machen und entsprechend würde das nicht so schnell mal durchrutschen.
Wobei ich mir ehrlich gesagt auch gut vorstellen kann, dass es sich hier um eine gezielte Marketingaktion von AMD handelt.
Mal "versehentlich" hier und da einen Leak platzieren um im Gespräch zu bleiben ist in der einen oder anderen Branche ja durchaus üblich.
OpenVR hat ja zudem den Vorteil (für AMD), dass man sonst nicht sonderlich viele Informationen (Anzahl CU, Taktrate o.ä.) preisgeben muss.
Brillus
2020-01-10, 14:18:49
Die "N21 = N10-Specs x2"-Theorie ist auf jeden Fall plausibel.
Ach dieses Durcheinander mit den N-Nummern...
Ich spekuliere mal:
N2x 60CUs 8Gb (256bit) (oder doch schon 12Gb 384?)
N2x 80CUs 12Gb (384bit) (oder eher 16Gb 512?)
N2x 120CUs 16/32Gb (512bit)
(vermutlich sind die Einheiten stark verbessert und Richtung RT hin optimiert)
So könnte ich mir das 2x Portfolio vorstellen.
M.f.G. JVC
An einen 120CU glaube ich nicht, das wären jetzt nochmal 3 über der 5700, ich denke eher das da noch was in den Einsteigerbereich kommt so als 5100.
einen 60-64CU Chip und noch was im Bereich 80-100 Denk ich aber auch das sowas kommen könnte.
Über 100 kann es eigentlich nur mit 5nm geben mMn. Ich denke nicht, dass AMD über 600mm² hinausgehen würde. Aber 96 ist sicherlich ne gute Zahl, wenn man 60 schon in 350mm² hineinbekommt.
basix
2020-01-10, 15:26:16
Über 100 kann es eigentlich nur mit 5nm geben mMn. Ich denke nicht, dass AMD über 600mm² hinausgehen würde. Aber 96 ist sicherlich ne gute Zahl, wenn man 60 schon in 350mm² hineinbekommt.
96 / 100 könnte der kolportierte 505mm2 Chip sein.
robbitop
2020-01-10, 15:45:52
Mit N7+ wäre es von N10 hochextrapoliert <600mm² bei 100 CUs. [bin auf 564 mm² gekommen]
Allerdings würde die TDP ordentlich ansteigen. Man wird wohl zumindest für die Standardvariante dann niedrigere Boosttaktraten fahren müssen. Und hoffentlich noch etwas Energieeffizienz in RDNA2 finden. Ansonsten sprengt Faktor 2,5 von N10 schnell alles was noch für den Markt akzeptabel wäre.
Das Potenzial sollte aber da sein. RDNA1 kommt zumeist kaum auf Turing Level, trotz nicht gerade kleinem Fertigungsvorteil. Auch hatte AMD ja im Zusammenhang mit Renoir gesagt, dass sie da noch ordentlich Potenzial gefunden haben IIRC.
Ravenhearth
2020-01-10, 15:55:36
Auch hatte AMD ja im Zusammenhang mit Renoir gesagt, dass sie da noch ordentlich Potenzial gefunden haben IIRC.
Ich frage mich, ob sie die Lehren aus Renoirs IGP bei RDNA2 schon nutzen, schließlich erscheinen RDNA2-Karten ein gutes Stück später.
Lehdro
2020-01-10, 16:05:45
Und hoffentlich noch etwas Energieeffizienz in RDNA2 finden.
Mal so ne dumme Idee:
RDNA2 für die Konsolen ist doch schon gesichert oder? Die Taktraten/CU Konfig scheint auch realtiv bekannt zu sein. Ebenso die CPU. Wenn wir jetzt das Netzteil oder die Stromversorgung der Konsole erfahren, können wir doch rein theoretisch die Effizienz von RDNA2 grob ermitteln? Für die CPU können wir um die 40W maximum ansetzen (kein I/O Die, handzahme Taktraten & Boost), den Speicher können wir von bereits vorhanden GPUs interpolieren, dazu ein bissl für SSD & co: Rest bleibt für die GPU. Gehen wir von den Gerüchten von rund 250W für die ganze Konsole aus, so bleiben damit vielleicht noch 180W für die GPU oder nicht? 180W für 56 CUs mit ~1600 MHz klingt doch gut?
Ist natürlich alles nur Spekulatius.
robbitop
2020-01-10, 16:07:23
Ich frage mich, ob sie die Lehren aus Renoirs IGP bei RDNA2 schon nutzen, schließlich erscheinen RDNA2-Karten ein gutes Stück später.
Gehe ich von aus. Auf dem Package von Renoir das gezeigt wurde, wurde eine Produktionswoche aus Juni 2019 gezeigt. Tapeout 9 Monate vorher. Das sollte in Summe für RDNA2 gereicht haben.
Man bedenke, dass Vega IP zum Einsatz kam. Das Designfreeze wird vermutlich kurz bevor der Navi IP Block fertig war gekommen sein. Oder wenn dann war es knapp.
Mal so ne dumme Idee:
RDNA2 für die Konsolen ist doch schon gesichert oder? Die Taktraten/CU Konfig scheint auch realtiv bekannt zu sein. Ebenso die CPU. Wenn wir jetzt das Netzteil oder die Stromversorgung der Konsole erfahren, können wir doch rein theoretisch die Effizienz von RDNA2 grob ermitteln? Für die CPU können wir um die 40W maximum ansetzen (kein I/O Die, handzahme Taktraten & Boost), den Speicher können wir von bereits vorhanden GPUs interpolieren, dazu ein bissl für SSD & co: Rest bleibt für die GPU. Gehen wir von den Gerüchten von rund 250W für die ganze Konsole aus, so bleiben damit vielleicht noch 180W für die GPU oder nicht? 180W für 56 CUs mit ~1600 MHz klingt doch gut?
Ist natürlich alles nur Spekulatius.
Ich weiß nicht, ob RDNA2 gesichert ist für Konsolen. In der Vergangenheit hat man z.T. relativ alte GFXIP mit Teilen aus neueren IP Blocks kombiniert. HW Raytracing spricht zumindest dafür, dass wesentliche Teile aus RDNA2 übernommen worden sind. Aber keine Garantie dafür, dass es komplett RDNA war.
In der PS4 Pro kamen bspw einige Features von Polaris und Vega zum Einsatz. Die CUs und deren ISA war aber noch GCN1.1.
Eine Konsole ist kein guter Ausgangspunkt für eine Effizienzmessung. Die sind selten 100%ig auf Effizienz getrimmt, da sie möglichst jedes Silizium nehmen wollen. Entsprechend ist immer etwas zu viel Spannung drauf.
Auch können wir nicht sinnvoll die GPU Leistungsaufnahme isolieren. Alles Schätzungen. CPU, RAM, SSD, Netzteileffizienz etc. Einfach zu viele Variablen und wahrscheinlich kein idealer Betriebspunkt.
Rampage 2
2020-01-10, 18:53:38
Zustimmung. 512 Bit macht den Chip zu fett - und dann würde sich schnell wieder HBM lohnen.
Ist das immer noch so? GTX 285 und Hawaii wurden in 55 bzw. 28nm gefertigt - mittlerweile sind wir ja schon bei 7nm angekommen. Da sollte ein 512 Bit Memorycontroller nicht mehr soviel Fläche beanspruchen wie bei älteren Fertigungsverfahren:)
Außerdem ermöglicht GDDR6 größere Flexibilität bei der Speicherbestückung und auch beim Speichertakt.
R2
Edit:
Mögliche Konfigurationen sowohl bei AMD als auch Nvidia:
512 Bit GDDR6 @ 16Gbps = 1024GB/sec. (Big-Navi, AM102)
384 Bit GDDR6 @ 18Gbps = 864GB/sec. (Big-Navi, AM102)
384 Bit GDDR6 @ 16Gbps = 768GB/sec. (Performance-Navi, AM104)
Verglichen mit anderen N10 Einträgen ist das Ding deutlich schneller als nur 2x 5700XT. Siehe mein Posting weiter oben. Eher Faktor 2,5. Andererseits steht AMD dort relativ zur Leistung bis dato schlecht da - ggf hat man das bei Navi2 im Treiber gefixt.
RDNA2 hat keine Vega-Gene mehr in sich. Von daher glaube ich dass die Dinger auch nicht mehr 5xxx heißen, sondern direkt auf 6xxx gehen. Wenn es sich um eine Navi-GPU handeln sollte, dann hat das Ding wohl max. 64CUs. Außerdem denke ich, dass die nächste XBO deutlich leistungsfähiger ist, als ein kompetentes 2080Ti System.
Ravenhearth
2020-01-10, 19:08:45
Ist das immer noch so? GTX 285 und Hawaii wurden in 55 bzw. 28nm gefertigt - mittlerweile sind wir ja schon bei 7nm angekommen. Da sollte ein 512 Bit Memorycontroller nicht mehr soviel Fläche beanspruchen wie bei älteren Fertigungsverfahren:)
Solche Teile kannst du nicht so einfach shrinken.
Berniyh
2020-01-10, 19:10:42
Mal so ne dumme Idee:
RDNA2 für die Konsolen ist doch schon gesichert oder?
Nicht wirklich.
Gesichert ist eigentlich nur, dass es nicht RDNA1 ist (wegen Raytracing).
Aber ob es ein Zwischending ist oder komplett separat oder schon RDNA2 … das weiß man nicht wirklich.
Da der Veröffentlichungszeitraum wohl sehr ähnlich zu den (ersten?) RDNA2 Karten sein wird ist es aber zumindest naheliegend, dass es sich um sehr ähnliche Chips wie RDNA2 handeln wird, aber garantiert ist das eben nicht.
Rampage 2
2020-01-10, 19:10:43
Solche Teile kannst du nicht so einfach shrinken.
:confused:
Kannst du das etwas erläutern?
robbitop
2020-01-10, 19:27:08
RDNA2 hat keine Vega-Gene mehr in sich. Von daher glaube ich dass die Dinger auch nicht mehr 5xxx heißen, sondern direkt auf 6xxx gehen. Wenn es sich um eine Navi-GPU handeln sollte, dann hat das Ding wohl max. 64CUs. Außerdem denke ich, dass die nächste XBO deutlich leistungsfähiger ist, als ein kompetentes 2080Ti System.
RDNA2 ist eine RDNA Weiterentwicklung. RDNA hat sicherlich, das sieht man an der ISA, noch GCN Wurzeln.
Es gab und gibt kein 64 CU Limit. Das ist offiziell von AMD entkräftet worden. Die urbane Legende ist aber offenbar schwer auszutreiben.
Das Ergebnis im OpenVR Bench impliziert deutlich(!) mehr als 64 CUs.
:confused:
Kannst du das etwas erläutern?
Ist zum Matisse I/O Die, der ja in 12nm gefertigt wird schon mehrfach gesagt worden. I/O ist kaum shrinkbar. PHYs/SersDes. Analogkram. Die Strukturen lassen sich kaum Shrinken. Die Leistung für die Übertragung muss ja getrieben werden.
mboeller
2020-01-10, 19:45:38
:confused:
Kannst du das etwas erläutern?
kannst du selbst machen. Vergleiche einfach mal die Shots von einem alten AMD Bristol Ridge oder Carrizo (28nm) mit den neuen Ryzen 2200g/3200g (12 bzw. 14nm)
Die Die-Größe ist ja bekannt und schon auf den ersten Blick erkennt man IMHO, dass die DDR Interfaces nahezu gleich groß geblieben sind.
Langlay
2020-01-10, 19:50:43
Da sollte ein 512 Bit Memorycontroller nicht mehr soviel Fläche beanspruchen wie bei älteren Fertigungsverfahren:)
Das Problem ist nicht das ein 512 Bit Memorycontroller zu gross ist. Sondern das man 16 Speichermodule so anordnen muss das der Abstand zu jedem Modul möglichst gleich ist und man trotzdem den PCI-E Anschluss noch anbinden kann.
Hatten wir hier auch schonmal durchgekaut -> https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12179629#post12179629
Und wie der Zufall so will, Buildzoid hat ein paar Tage später ein Video (https://www.youtube.com/watch?v=eNKybalWKVg )gemacht wo er quasi auch die gleichen Gründe anführt wieso es wohl kein 512Bit Speicherinterface geben wird.
reaperrr
2020-01-10, 20:35:01
Ist zum Matisse I/O Die, der ja in 12nm gefertigt wird schon mehrfach gesagt worden. I/O ist kaum shrinkbar. PHYs/SersDes. Analogkram. Die Strukturen lassen sich kaum Shrinken. Die Leistung für die Übertragung muss ja getrieben werden.
Jup, TSMC sagt selbst, dass sich da erst bei 5nm seit langem mal wieder was tun wird, und auch da ist die Flächenersparnis nur ca. 30% (und das vermutlich auch nur im Best-Case). Dann braucht man je 128bit SI vielleicht noch ~20 statt ~28mm². Also selbst bei einem 512bit SI nur knapp über 30mm² Ersparnis, nicht schlecht, aber auch nicht weltbewegend. Kein Vergleich zu Logik- und SRAM-Transistoren jedenfalls.
basix
2020-01-10, 20:49:37
Was ich neben der Fläche fast interessanter finde: Die Konsolen und allendalls RDNA2 sind deutlich effizienter pro FLOP als Navi. Das lässt auf konkurrenzfähige Produkte hoffen.
Zergra
2020-01-10, 21:13:01
Was ich neben der Fläche fast interessanter finde: Die Konsolen und allendalls RDNA2 sind deutlich effizienter pro FLOP als Navi. Das lässt auf konkurrenzfähige Produkte hoffen.
Ne Takt weiter runter und Navi ist auch so Effizient...
basix
2020-01-10, 21:25:43
56CU @ 1.7GHz finde ich jetzt nicht so wenig. Soweit Gerüchte gehen, ist der Stromanschluss max. 250W ab Kabel. Reserven, Netzteileffizienz und andere Komponenten rausgerechnet und wir landen bei ca. 140-150W für die GPU.
robbitop
2020-01-10, 21:38:16
Das Problem ist nicht das ein 512 Bit Memorycontroller zu gross ist. Sondern das man 16 Speichermodule so anordnen muss das der Abstand zu jedem Modul möglichst gleich ist und man trotzdem den PCI-E Anschluss noch anbinden kann.
Hatten wir hier auch schonmal durchgekaut -> https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12179629#post12179629
Und wie der Zufall so will, Buildzoid hat ein paar Tage später ein Video (https://www.youtube.com/watch?v=eNKybalWKVg )gemacht wo er quasi auch die gleichen Gründe anführt wieso es wohl kein 512Bit Speicherinterface geben wird.
Wo ist das Problem? Wurde doch schon mehrfach gemacht. GT200, Hawaii.
Zergra
2020-01-10, 21:46:40
56CU @ 1.7GHz finde ich jetzt nicht so wenig. Soweit Gerüchte gehen, ist der Stromanschluss max. 250W ab Kabel. Reserven, Netzteileffizienz und andere Komponenten rausgerechnet und wir landen bei ca. 140-150W für die GPU.
Naja, wenn die 1.7Ghz nicht der Boost sind und das Teil sonst eher bei 1.4Ghz herum dümpelt.
Complicated
2020-01-10, 21:51:55
56CU @ 1.7GHz finde ich jetzt nicht so wenig. Soweit Gerüchte gehen, ist der Stromanschluss max. 250W ab Kabel. Reserven, Netzteileffizienz und andere Komponenten rausgerechnet und wir landen bei ca. 140-150W für die GPU.
Für den Renderfehler hat sich doch AMD schon längst entschuldigt. Die gezeigte Rückseite ist nicht die der echten Xbox. Siehe:
https://www.pcgameshardware.de/Xbox-Series-X-Konsolen-268616/News/vermeintliche-Anschluesse-der-Konsole-1340532/
Und auf diesem dann angenommenen integrierten Netzteil mit 2-poligem Anschluß basieren diese falschen 250W Gerüchte.
Langlay
2020-01-10, 21:54:03
Wo ist das Problem? Wurde doch schon mehrfach gemacht. GT200, Hawaii.
Mit langsamen GDDR3, GDDR5 ja, mit GDDR6 noch nicht.
https://tpucdn.com/gpu-specs/images/c/2397-pcb-front.jpg
So siehts bei Hawaii aus. Sollte auffallen das die Anordnung nicht optimal ist.
robbitop
2020-01-10, 21:54:19
Naja, wenn die 1.7Ghz nicht der Boost sind und das Teil sonst eher bei 1.4Ghz herum dümpelt.
Konsolen haben keinen Boost. Da liegt der Takt im Spiel immer voll an. Der Entwickler muss reproduzierbare fixe Leistung haben die er zur Optimierung nutzt und sich auf diese verlassen kann.
robbitop
2020-01-10, 21:56:47
Mit langsam Takten GDDR5 ja, mit GDDR6 noch nicht.
https://tpucdn.com/gpu-specs/images/c/2397-pcb-front.jpg
So siehts bei Hawaii aus. Sollte auffallen das die Anordnung nicht optimal ist.
Naja wer kann wirklich ernsthaft einschätzen wo da die Grenze liegt. Dieses Jüngelchen „Buildzoid“ mMn nicht. Oft wird viel geschätzt und auch fehlgeschätzt.
Die Anordnung muss ja auch nicht optimal sein - es muss nur funktionieren. Schwierig/Hindernisse heißen nicht unmöglich. ;)
Langlay
2020-01-10, 22:07:24
Naja wer kann wirklich ernsthaft einschätzen wo da die Grenze liegt. Dieses Jüngelchen „Buildzoid“ mMn nicht. Oft wird viel geschätzt und auch fehlgeschätzt.
Die Anordnung muss ja auch nicht optimal sein - es muss nur funktionieren. Schwierig/Hindernisse heißen nicht unmöglich. ;)
Das mag sein. Aber ein 384 Bit Interface mit 18 Gbit Chips ist jetzt nicht viel langsamer als ein 512 Bit Interface mit 14 Gbit Chips.
Und im Zweifel hätte man ja noch HBM mit dem man das Problem erschlagen könnte.
Gipsel
2020-01-10, 22:59:39
Unterstützt GDDR6 nicht ebenfalls das Training der Datenleitungen zwischen Memory-Controller und Speicherchip? Im Prinzip wird da die Verzögerung der Leitungen gegeneinander vermessen (also im Prinzip Leitungslängenunterschiede oder auch leichte Unterschiede in der Impedanz [hat Einfluß auf die Signalgeschwindigkeit in den Leitungen]) und dann mit in den PHYs integrierten Phasenschiebern ausgeglichen. Damit wird das Layout des Speichers deutlich einfacher, weil so Leitungslängenunterschiede (innerhalb von Grenzen natürlich) toleriert werden können. Das war ja z.B. mit ein Grund, warum das GDDR5-Speicherlayout der PS4 deutlich einfacher und kompakter ausfiel als das DDR3-Setup der XB1 (DDR3 kann das nämlich noch nicht so ausgefeilt wie GDDR5, auf dem XB1-Mainboard kann man also jede Menge mäandernde Datenleitungen sehen [damit die Leitungen möglichst gleich lang werden], was ordentlich Platz kostet, auf der PS4 sind die Traces zum GDDR5 einfach gerade hingezogen => geht).
Das einzige Problem ist im Prinzip wohl physisch genügend Platz zu haben um nicht viele teure Board-Layers für das Routing zu verbraten, z.B. für 8x32 Bit Chips auf der Vorderseite und 8x32bit auf der Rückseite (so kann man 512bit-Interface nämlich auch basteln, sieht dann oberflächlich wie ein 256Bit-Interface mit Clamshell-Bestückung aus, es werden aber volle 32Bit zu jedem Chip geroutet).
Berniyh
2020-01-10, 23:09:11
Mal so am Rande: wenn die Angaben stimmen, müsste dann besagter öminoser AMD Chip nicht die Leistung sogar mit PCIe 3.0 x8 als Schnittstelle erreicht haben?
Finde das amüsant vor dem Hintergrund, dass AMD ja PCIe 4.0 pusht, insbesondere für die 5700er damals. :D
Und wäre die Leistung mit PCIe 4.0 x16 nicht noch einen Ticken höher?
(also minimal, evtl. 1-2%?)
BlacKi
2020-01-11, 00:01:58
Konsolen haben keinen Boost. Da liegt der Takt im Spiel immer voll an. Der Entwickler muss reproduzierbare fixe Leistung haben die er zur Optimierung nutzt und sich auf diese verlassen kann.
*hust*
https://www.polygon.com/2017/2/3/14499188/ps4-pro-boost-mode-firmware-4-50
die ps4 boostet auch die cpu von 1,6 -2ghz
https://www.pcgameshardware.de/Playstation-4-Konsolen-220102/News/Playstation-4-CPU-1-6-GHz-43x-schneller-als-PS2-1112715/
die von sony genannten taktraten sind nur base taktraten.
Und wäre die Leistung mit PCIe 4.0 x16 nicht noch einen Ticken höher?
(also minimal, evtl. 1-2%?)
wenn es 1-2 prozent sind und die gpu durch pcie4.0 2-4 watt weniger boosten kann, dann gleicht sich das in etwa aus. dann kannst du dir raussuchen wo der strom verbraucht werden soll^^
56CU @ 1.7GHz finde ich jetzt nicht so wenig. Soweit Gerüchte gehen, ist der Stromanschluss max. 250W ab Kabel. Reserven, Netzteileffizienz und andere Komponenten rausgerechnet und wir landen bei ca. 140-150W für die GPU.
ich bezweifle das beide hersteller den konsolen soviel verbrauch zumuten. beide konsolen bleiben definitiv unter 200w verbrauch.
Ravenhearth
2020-01-11, 00:23:38
Es gab und gibt kein 64 CU Limit. Das ist offiziell von AMD entkräftet worden. Die urbane Legende ist aber offenbar schwer auszutreiben.
Hast du vielleicht einen Link dazu?
die ps4 boostet auch die cpu von 1,6 -2ghz
https://www.pcgameshardware.de/Playstation-4-Konsolen-220102/News/Playstation-4-CPU-1-6-GHz-43x-schneller-als-PS2-1112715/
die von sony genannten taktraten sind nur base taktraten.
Da steht "scheint", das ist nur eine Vermutung basierend auf nem Benchmark. Und es stimmt afaik nicht.
gravitationsfeld
2020-01-11, 00:28:23
Er braucht keinen Link dazu, weil es nie ein offizielles Statement gab und niemand ausserhalb von AMD die Hardware kennt.
Die Aussage es gab ein 64 CU-Limit braucht erfordert einen Beweis, nicht das Gegenteil.
Ravenhearth
2020-01-11, 01:28:44
Ich hab nach einem Link gefragt, weil mich das genaue Statement interessiert, nicht als Beweis.
Ich denke, die Aussage zum 64 CU-Limit kommt ursprünglich von anandtech:
Looking at the broader picture, what AMD has done relative to Hawaii is to increase the number of CUs per shader engine, but not changing the number of shader engines themselves or the number of other resources available for each shader engine. At the time of the Hawaii launch AMD told us that the GCN 1.1 architecture had a maximum scalability of 4 shader engines, and Fiji’s implementation is consistent with that. While I don’t expect AMD will never go beyond 4 shader engines – there are always changes that can be made to increase scalability – given what we know of GCN 1.1’s limitations, it looks like AMD has not attempted to increase their limits with GCN 1.2. What this means is that Fiji is likely the largest possible implementation of GCN 1.2, with as many resources as the architecture can scale out to without more radical changes under the hood to support more scalability.
https://www.anandtech.com/show/9390/the-amd-radeon-r9-fury-x-review/4
Also ja, es war keine Aussage von AMD, sondern eine Vermutung, basierend auf der Information, dass es zumindest bei GCN 1.1 ein Limit von 4 Shader Engines gab.
Es macht aber auch Sinn: Mehr als 64 CUs wären folglich nur über noch mehr als 16 CUs pro Shader Engine drin gewesen und es ist fraglich, wie gut man so viele CUs noch hätte auslasten können, zumal AMD 16 CUs pro SE nie überschritten hat. Vielleicht gabs technisch gesehen kein 64 CU-Limit, aber praktisch...
robbitop
2020-01-11, 07:41:34
Das mag sein. Aber ein 384 Bit Interface mit 18 Gbit Chips ist jetzt nicht viel langsamer als ein 512 Bit Interface mit 14 Gbit Chips.
Und im Zweifel hätte man ja noch HBM mit dem man das Problem erschlagen könnte.
Für den Fall, dass man richtig „auf die Kacke hauen“ will mit 100 CUs, wird man jedoch beides brauchen: 512bit und 18gt/s. Wenn man es vermeiden kann, nimmt man 384 gbps. Das ist jedem klar. Je nach Szenario eben. HBM hat AMD ja bereits verneint.
512bit und viele ram chips sind teuer. Für ein Topdog Produkt, was man für vierstellige Beträge verkaufen kann, ist das vermutlich auch kein Drama mehr.
Möglich und machbar sind beide Varianten. Ich bin mal gespannt was AMD geplant hat. Eine Art moderner R300 (also das maximal Machbare) wäre sicherlich sehr disruptiv und interessant für den GPU Markt. :)
Mein Bauchgefühl sagt aber auch eher 384bit und 80CUs. Andererseits muss man im Hinterkopf haben, dass die Karte schnell gegen den Turingnachfolger antreten muss. Da sind 80 CUs vermutlich nur gegen den 104 genug. 102 dürfte, wenn man den angreifen will die 100 CUs brauchen. NV wird sicherlich den Sprung zu 7 nm machen (ist ja mehr als 1 fullnodesprung). Auch wenn man seine die sizes mal reduzieren wird, wird dabei dennoch sicherlich ordentlich was kommen relativ zu Turing. Ich tippe darauf, dass wie bei Pascal ggü Maxwell der Großteil der zusätzlichen Transistoren fließt. Das Featureset von Turing ist so modern, dass es noch kein Update benötigt.
Will sagen: was jetzt noch beeindruckend wirkt, ist vermutlich in einigen Monaten Realität im Turing 102 Nachfolger.
@Blacki
Das ist nicht die Art Boost, die ich meinte und die wir aus dem PC kennen. Das heisst zwar auch boost mode, ist aber nur ein Feature der Pro Konsole die in gepatchten/neuen Spielen mit vollem (ggü dem basemodell) höheren Takt läuft. Der boost mode nutzt diesen auch in ungepatchten Games.
Der Takt ist dennoch statisch und für sustained ausgelegt.
@RH
Ich habe es irgendwo mal in einem Interview gelesen. Nicht bei anand. Da kam es von AMD. Finde es aber leider auch nicht mehr. :(
IMO hat ein SE Limit mit einer ISA nichts zu tun sondern eher mit einem Teil der implementierten uArch. Ich gehe davon aus, dass das aktuell passe‘ sein sollte.
ChaosTM
2020-01-11, 10:04:19
AMD könnte zb. einen mit 102 CUs planen und als Fallback einen mit 80 dranhängen, der sich um den "Abfall" der Produktion des Dicken kümmert..
add.: aus Kostensicht sicher nicht optimal ..
mironicus
2020-01-11, 10:41:39
Meine Annahme: AMD bringt einen riesigen Chip mit HBM2 (Navi 23?) der in erster Linie erst mal bei Apple landen wird und wir bekommen dann als Spiele-GPU die weniger guten Chips mit deaktivierten CUs (4-5% langsamer). Also eine ähnliche Strategie wie bei Radeon 7 allerdings mit der Navi-Architektur wird es dann keine Nachteile für Spiele und bei der Effizienz geben.
Und der normale 80 CU-Chip (Navi 21, mehrere Versionen) wie gehabt mit GDDR6 als Konkurrenz zur RTX 3070/80, während die HBM-Version es mit der RTX 3080 Ti aufnimmt und entsprechend bestimmt >1000 Euro kostet.
Langlay
2020-01-11, 12:18:49
512bit und viele ram chips sind teuer. Für ein Topdog Produkt, was man für vierstellige Beträge verkaufen kann, ist das vermutlich auch kein Drama mehr.
Das wäre allerdings auch gleichzeitig ein Argument für HBM.
Mein Bauchgefühl sagt aber auch eher 384bit und 80CUs. Andererseits muss man im Hinterkopf haben, dass die Karte schnell gegen den Turingnachfolger antreten muss. Da sind 80 CUs vermutlich nur gegen den 104 genug. 102 dürfte, wenn man den angreifen will die 100 CUs brauchen. NV wird sicherlich den Sprung zu 7 nm machen (ist ja mehr als 1 fullnodesprung). Auch wenn man seine die sizes mal reduzieren wird, wird dabei dennoch sicherlich ordentlich was kommen relativ zu Turing. Ich tippe darauf, dass wie bei Pascal ggü Maxwell der Großteil der zusätzlichen Transistoren fließt. Das Featureset von Turing ist so modern, dass es noch kein Update benötigt.
Da bin ich bei dir. Ich denke auch 80 CUs und 384Bit Interface mit 16+ Gbit GDDR6 Chips klingt ganz nett für Navi21 und mit 1.7-1.8 GHz liegste spürbar auch vor einer 2080ti.
Es soll ja auch noch Navi23 aka Nvidia Killer kommen oder is da was an mir vorbeigegangen ?
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/AMD-Radeon-High-End-Grafikkarten-Mitte-2020-Nvidia-Killer-1307473/
Dort könnte ich mir 100 CUs und ein HBM Interface gut vorstellen.
Fragman
2020-01-11, 12:51:24
Meine Annahme: AMD bringt einen riesigen Chip mit HBM2 (Navi 23?) der in erster Linie erst mal bei Apple landen wird ...
Apple bekommt doch jetzt erstmal die dicken Vegas (war doch Vega?) für die Workstations. Kann mir nicht vorstellen, das apple da so schnell etwas neuen braucht weil man die wieder ersetzen wird.
robbitop
2020-01-11, 12:52:13
@Langley
Ja das stimmt. HBM wäre bei sehr hohen Preisen (und entsprechender Performance) wohl kein Problem mehr. Andererseits frisst es dann Marge weg.
Wenn man das Ergebnis im OpenVR Benchmark betrachtet - mal unter der Annahme, dass es echt ist und dass sie 17% als eine extrem übertaktete 2080ti respektive 30% schneller als eine normale 2080ti war und in Betracht zieht, dass AMD in diesem Benchmark generell nochmal 30% hinten liegt - dann wäre das für mich die Karte, die die Gerüchte als "Killer" bezeichnen. Wesentlich mehr als das sollte auch in N7+ dann wirklich große Handstände bedürfen.
@Fragman
Da ist was dran. Auf Apple HW spielt praktisch niemand. Da wird gerechnet. Eher was für Arcturus / HPC Ableger.
LasterCluster
2020-01-11, 13:00:25
Es wurde doch recht klar gesagt, dass so schnell kein Consumerchip mit HBM kommen wird.
robbitop
2020-01-11, 13:02:52
Es wurde doch recht klar gesagt, dass so schnell kein Consumerchip mit HBM kommen wird.
Hehe das wird hier gern alle 1-2 Seiten aber wieder ignoriert/vergessen/nicht gelesen. :D
Langlay
2020-01-11, 13:14:49
Hehe das wird hier gern alle 1-2 Seiten aber wieder ignoriert/vergessen/nicht gelesen. :D
1. Was war den die Aussage genau ? Kann ich ein link oder ein Zitat haben? Ich hab beim googlen keine Aussage dazu gefunden.
Das einzige was ich gefunden hab ist das :
https://www.anandtech.com/show/15268/an-interview-with-amds-cto-mark-papermaster-theres-more-room-at-the-top
You bet, and we’ve been in this space for years. We led the way at AMD of bringing HBM to GPUs – it’s on a silicon interposer using a 2.5D packaging technique. What makes it critical is getting the right memory solution for the workload, and you also have to hit the right cost/performance targets. It’s a tricky balance that you have to make for every product. In high performance GPU computation, HBM is a must, and you see it on our MI roadmap. At every other point, we always look at the right solution, and both GDDR and DDR have great roadmaps that are being executed on, and we’ve been leveraging these technologies successfully. We will do the same moving forward, looking at each of our products and asking where the industry is going, what the workload requirements for each product are meant to be, and what are the cost/performance metrics of each memory solution.
Das sagt aber nicht pauschal nein zu HBM in Consumerkarten, sondern nur das man die passende Lösung fürs Produkt sucht. Und der Artikel ist vom 30.12.19 also noch recht frisch.
2. Sowas kann sich auch ändern. Nov. 2018 Vega20 wird nicht als Consumerkarte erscheinen. Feb. 2019 man kann die Radeon VII im Laden kaufen.
Berniyh
2020-01-11, 13:23:32
Es soll ja auch noch Navi23 aka Nvidia Killer kommen oder is da was an mir vorbeigegangen ?
Das weiß man nicht so genau.
Könnte auch sein, dass nur ein High-End Chip (64-80 CU) kommt im Bereich einer 3080 und halt noch ein Mid-Range Chip (wieder so ~40 CU) im Stile von Navi 10 (aber halt 30-40% schneller).
Prinzipiell gibt es halt nach unserem Wissen 3 Chips (21, 22 und 23), aber es ist ja überhaupt nicht gesagt, dass alle drei auch ihren Weg in Consumerprodukte finden.
Ist bei Vega11 und Vega12 sowie (bislang) Navi12 auch ausgeblieben.
robbitop
2020-01-11, 13:24:37
@Langley
Die Radeon 7 war ein Verlegenheitsprodukt (bei der man ein HPC Produkt auf den Konsumentenmarkt gesetzt hat) weil das Navi 10 Tapeout mindestens einen unerwarteten Respin brauchte. Als Navi10 fertig war, wurde sie eingestellt.
Berniyh
2020-01-11, 13:26:35
2. Sowas kann sich auch ändern. Nov. 2018 Vega20 wird nicht als Consumerkarte erscheinen. Feb. 2019 man kann die Radeon VII im Laden kaufen.
Das kann man nicht vergleichen. Die Radeon VII war etwas was man kurzfristig noch umsetzen konnte (und musste, weil Navi sich verzögerte).
Das mit HBM2 vs. GDDR6 muss man schon vor ~2 Jahren geplant haben, da ist so kurzfristig nicht wirklich was machbar.
Ich würde beim großen Navi 2x jetzt auch HBM2 nicht von vorneherein ausschließen, aber durch derartige Aussagen ist es zumindest sehr unwahrscheinlich geworden.
Ich würde aber auch sagen nicht unwahrscheinlicher als ein 512 Bit Interface.
Langlay
2020-01-11, 13:30:13
Ja was war den die Aussage? Link zum Interview, Artikel oder Video wären schon interressant.
Das kann man nicht vergleichen. Die Radeon VII war etwas was man kurzfristig noch umsetzen konnte (und musste, weil Navi sich verzögerte).
Das mit HBM2 vs. GDDR6 muss man schon vor ~2 Jahren geplant haben, da ist so kurzfristig nicht wirklich was machbar.
Ich würde beim großen Navi 2x jetzt auch HBM2 nicht von vorneherein ausschließen, aber durch derartige Aussagen ist es zumindest sehr unwahrscheinlich geworden.
Ich würde aber auch sagen nicht unwahrscheinlicher als ein 512 Bit Interface.
Ich würde 2 Stacks HBM2E mit 800-900GB/s für wahrscheinlicher halten als ein 512Bit GDDR6 Interface. Wenn man Vega10 mit 2 Stacks für <400$ verscherbeln kann. Dann kann man sicherlich auch ein 7nm+ Graka mit 2 Stacks HBM2E für 800$+ bauen ohne pleite zu gehen.
Langlay
2020-01-11, 13:33:21
doppelpost
Berniyh
2020-01-11, 14:41:52
Wenn man Vega10 mit 2 Stacks für <400$ verscherbeln kann.
Das kann man nicht vergleichen, denn da handelt es sich ja wahrscheinlich um einen Abverkauf.
unl34shed
2020-01-11, 14:57:08
Vega 56 wurde mit einer UVP ist 399€/$ eingepreist. Ja ok, das ist die Resteverwertung von Vega10, aber da wird man auch nicht drauf gelegt haben.
robbitop
2020-01-11, 15:04:37
Es wird schon einen sehr guten Grund geben, warum NV das nur in HPC Chips einsetzt und selbst bei 1000€+ Grafikkarten auf GDDR6 setzt. Es scheint einfach billiger zu sein. Großes SI = doppelter Speicher = doppelter Preis. Das gilt aber für jeden Speicher. PCB und SMD Komponenten sind wahrscheinlich kein Drama beim Preis. Ein SI und die Prozessschritte dazu + HBM scheint da teurer zu sein. Aber mit Gewissheit wissen tut das hier keiner von uns. Man kann nur vermuten. NV ist ein besonders margengetriebenes Unternehmen. Ist zumindest ein Indikator, dass GDDR6 zumindest innerhalb gewisser Randbedingungen die günstigere Lösung zu sein scheint, die mehr Gewinn übrig lässt.
Andererseits kann man bei einer Monster GPU natürlich auch in eine TDP Krise laufen. Da kann HBM sicherlich ein wenig sparen. Aber ob das bei einer 300W+ GPU noch kriegsentscheidend ist?
Vega 56 wurde mit einer UVP ist 399€/$ eingepreist. Ja ok, das ist die Resteverwertung von Vega10, aber da wird man auch nicht drauf gelegt haben.
Aber doch nicht beim Launch. Da waren es schon ein paar Hunderter mehr. Und da werden die Kalkulationen gemacht. Die Konkurrenzsituation und die Lernkurve in der Produktion führen natürlich später dazu, dass man gezwungen ist, die Preise zu senken. Ob und wie viel Gewinn da noch gemacht wird - wir wissen es nicht.
Zumal das bei Vega 56 nur lahmes HBM1 war. Für eine Moderne GPU bräuchte man sicherlich etwas besseres. :)
unl34shed
2020-01-11, 15:16:05
Vega hatte HBM2, die UVP zum Launch war 399 (V56) und 499 (V64).
Ja man konnte nur ein paar zu beginn zu dem Preis kaufen, da die Miner zu der Zeit alles leer gekaut haben.
basix
2020-01-11, 15:56:04
Großes SI = doppelter Speicher = doppelter Preis.
Dann steht einem Big Navi mit 512bit, 16 GByte GDDR6 und 500mm2 Chip für 990$ ja nichts im Weg ;)
Marge (prozentual) wäre etwa ähnlich wie bei einer 5700 XT.
Complicated
2020-01-11, 16:16:30
Ein SI und die Prozessschritte dazu + HBM scheint da teurer zu sein. Aber mit Gewissheit wissen tut das hier keiner von uns. Man kann nur vermuten. NV ist ein besonders margengetriebenes Unternehmen. Ist zumindest ein Indikator, dass GDDR6 zumindest innerhalb gewisser Randbedingungen die günstigere Lösung zu sein scheint, die mehr Gewinn übrig lässt.
Andererseits kann man bei einer Monster GPU natürlich auch in eine TDP Krise laufen. Da kann HBM sicherlich ein wenig sparen. Aber ob das bei einer 300W+ GPU noch kriegsentscheidend ist?
Das kann man mit AMD nicht vergleichen. AMD ist Miteigentümer eines Unternehmens (ATMP) (http://ir.amd.com/news-releases/news-release-details/amd-and-nantong-fujitsu-microelectronics-co-ltd-close), welches das Packaging macht und kann HBM-Produkte sicherlich deutlich günstiger herstellen als Nvidia. Daher sind die Entscheidungen der beiden Unternehmen zu HBM nicht auf den selben Daten basierend. Zudem hat AMD beim Stacking einen jahrelangen Vorsprung vor Nvidia in der Entwicklung mit Interposern und sogar mit Intels EMIB schon seine Erfahrungen. Von den organischen Interposern im 2.1-Stacking für Epyc noch gar nicht gesprochen.
AMD kann HBM zu ganz anderen Kostenpunkten einsetzen als Nvidia, auch bei gleichem Einkaufspreis des HBM-Speichers. Die Kosten für das 512-SI waren schon bei Fiji ausreichend hoch um lieber auf HBM zu setzen. Nach Vega, Epyc und Epyc 2 ist auch die Packaging-Technik Routine. Die Kosten für die benötigte Die-Fläche eines 512-SI sind ja nochmal deutlich gestiegen und auch die reine Verfügbarkeit der 7nm-Wafer würden bei 30-40 mm² gesparter Fläche, selbst bezogen auf einen 500 mm²-Die, etwaige höhere Kosten des HBM gegenüber GDDR6 locker kompensieren. Daher denke ich dass dies nicht der entscheidende Faktor sein wird wenn gegen HBM entschieden werden würde.
Eher würde ich eine Problematik in der Kapazität beim Packaging als Ursache sehen, da man dort alles für die Ryzen/TR/Epyc Produke nutzt und ein GPU-Produkt zu viele Kapazitäten binden würde, was die Skalierung bei weiter steigender Nachfrage der CPUs erschweren würde. Aber ob AMD dann auf ein 512-SI setzen würde deswegen, das bezweifle ich ehrlich gesagt.
Man darf eines nicht vergessen:
HBM packt der GPU-Hersteller auf seine GPU. GDDR5/6 packt ein OEM auf das PCB. Der Schritt wird an einer völlig anderen Stelle verarbeitet von einem völlig anderen Unternehmen.
davidzo
2020-01-11, 19:01:56
Das sagt aber nicht pauschal nein zu HBM in Consumerkarten, sondern nur das man die passende Lösung fürs Produkt sucht. Und der Artikel ist vom 30.12.19 also noch recht frisch.
Verbindliche Pauschalaussagen meiden Manager auch wie der Teufel das Weihwasser.
Ich denke deutlicher geht es kaum wie er es gesagt hat: "In der Mi-Series wird auch was mit HBM kommen. In allen anderen Produkten suchen wir nach der richtigen Lösung." - Also wenn man das im Kontext des Satzes davor sieht, dann heißt das ganz klar die richtige Lösung ist bei allen aktuell in der pipeline befindlichen Projekten nicht HBM! Ein klareres Dementi von HBM in Consumer Produkten kann ich mir kaum vorstellen.
Dass man dann sagt dass man weiterhin bei zukünftigen Projekte HBM bei der Planung als Option berücksichtigen wird und nicht generell ausschließt ist klar, denn die Aussage "wir werden nie wieder HBM in consumer, pro oder notbeook einsetzen" wäre ziemlich hart, vor allem für die HBM-Hersteller, aber auch für AMD die viel darein investiert haben. Solche Aussagen können sich Manager nicht leisten...
reaperrr
2020-01-11, 19:40:16
Ich schätze, AMD wird erst wieder auf HBM setzen, wenn man mit einem 2048 bit HBM SI die Bandbreite von 512bit GDDR6 erreicht oder übertrifft.
HBM2E ist dafür nicht schnell genug, und HBM3 noch nicht marktreif und dann müssen für ein Consumerprodukt auch erstmal Verfügbarkeit und Preise passen (was bei HBM3 wahrscheinlich vor 2022 nix wird, wenn überhaupt jemals), damit es sich lohnt.
Langlay
2020-01-12, 00:09:53
Ich schätze, AMD wird erst wieder auf HBM setzen, wenn man mit einem 2048 bit HBM SI die Bandbreite von 512bit GDDR6 erreicht oder übertrifft.
HBM2E ist dafür nicht schnell genug, und HBM3 noch nicht marktreif und dann müssen für ein Consumerprodukt auch erstmal Verfügbarkeit und Preise passen (was bei HBM3 wahrscheinlich vor 2022 nix wird, wenn überhaupt jemals), damit es sich lohnt.
https://www.computerbase.de/2019-08/hbm2e-sk-hynix/
2 Stacks wären 920 GB/s also nur ~10% weniger als ein 512Bit Interface.
Wenn HBM, dann ist das sicher die naheliegendste Option. Navi geht in den verfügbaren GDDR6-Varianten effizient mit seiner Transferrate um, folglich dürften 920 GByte/s einer 80-CU-Variante gut zu Gesicht stehen. Eine RX 5700 XT arbeitet ja auch nur mit 448 GByte/s -> 920 wären +105 Prozent. 2.048 Bit und 16 GiByte Kapazität: voilà.
Übrigens: Anno 1800, das wohl modernste Spiel mit Multisample-AA, ist mit 8× MSAA quasi vollständig Speichertransferraten-limitiert. Eine Radeon RX 5700 (XT) ist hier doppelt so schnell wie eine auf 128 Bit heruntergekrüppelte RX 5500 (XT). Natürlich nur, wenn die CPU mithalten kann. :D
MfG
Raff
Complicated
2020-01-12, 01:51:11
Vielleicht sollte man die Frage anders herum stellen:
Macht es für AMD Sinn einen Nachfolger der MI60 ohne HBM aufzulegen?
Ein solcher Big Navi mit 80 CU wäre doch nie im Leben ein reiner Gaming Chip - daher würde ich hier mit HBM rechnen. 500 mm² Diesize in 7nm, ohne Verwendung im Datacenter kann ich kaum für realistisch halten.
Navi geht in den verfügbaren GDDR6-Varianten effizient mit seiner Transferrate um, folglich dürften 920 GByte/s einer 80-CU-Variante gut zu Gesicht stehen. Eine RX 5700 XT arbeitet ja auch nur mit 448 GByte/s -> 920 wären +105 Prozent. 2.048 Bit und 16 GiByte Kapazität: voilà.Eben, Einfacher geht's ja nicht - also warum komplizierter machen?
Und man kann Varianten mit 32 GB herstellen für das Datacenter, was mit GDDR6 nicht funktionieren wird. Mit der MI50 schon auf 32 GB, könnte sogar der Schritt auf 64 GB angestrebt werden.
https://semiengineering.com/hbm2e-the-e-stands-for-evolutionary/
Samsung is positioning HBM2E for the next-gen datacenter running HPC, AI/ML, and graphics workloads. By using four HBM2E stacks with a processor that has a 4096-bit memory interface, such as a GPU or FPGA, developers can get 64 GB of memory with a 1.64 TB/s peak bandwidth—something especially needed in analytics, AI, and ML.
Although vendors can stack the HBM to up to 12-hi, AMD’s Macri believes all vendors will keep 8-hi stacks. “There are capacitive and resistance limits as you go up the stack. There’s a point where you hit where in order to keep the frequency high you add another stack of vias. That creates extra area of the design. We’re trying keep density cost in balance,” he said.
Mit Renoir kommen APUs, die monolithisch sind und wenn diese das Lineup der R3-R5 im Mainstream übernehmen, gibt es auch wieder mehr Packaging Kapazität. Die Timeline würde den Transit auf diese Weise unterstützen.
Eine Radeon RX 5700 (XT) ist hier doppelt so schnell wie eine auf 128 Bit heruntergekrüppelte RX 5500 (XT).
Bei 22 vs 40 CUs jetzt auch keine sonderliche Überraschung. Da würde auch ein 256-Bit SI keine großen Sprünge für die 5500 XT mehr bringen. 5,2 vs. 10,14 TFlops - passt doch.
Linmoum
2020-01-12, 02:26:35
Vielleicht sollte man Navi und Datacenter auch gar nicht erst in einen Kontext setzen, weil das nicht passieren wird.
Wang hatte 2018 bereits erstmals eine "Trennung" zwischen Gaming und Datacenter/HPC von offizieller Seite erwähnt. Dazu passt auch, dass man Navi und RDNA als "Gaming-Architektur" vermarktet. Es taucht(e) schließlich auch immer wieder der Name Arcturus auf, der womöglich den HPC-Markt bedienen wird - und eben nicht Navi.
Complicated
2020-01-12, 02:36:41
Arcturus ist Vega. Du meinst RDNA2 wird im Datacenter (Es gibt mehr als nur HPC) nicht zum Einsatz kommen?
Ja, wenn das so schon fest steht, wäre mein Ansatz nicht Zielführend.
Leonidas
2020-01-12, 03:49:53
Andererseits kann man bei einer Monster GPU natürlich auch in eine TDP Krise laufen. Da kann HBM sicherlich ein wenig sparen. Aber ob das bei einer 300W+ GPU noch kriegsentscheidend ist?
NVs Chips waren nie so knapp auf Kante gebaut, das das eine Relevanz gehabt hätte. Nur im HPC-Bereich - da nimmt man diesen Vorteil gern mit, Kosten spielen eh keine Rolle. Da muß man gewisse TDPs einhalten, wenn da das Speicherinterface (bei HBM) weniger verbraucht, ist das klar ein Vorteil. Im Gaming-Bereich spielt es dann keine Rolle, weil bei den 250W-Boliden hat AMD keine Konkurrenz aufgebaut.
AMD hatte hingegen hier und da Chips, die waren am Ende taktratenmäßig derart auf die Spitze getrieben, das es ohne HBM und damit noch weniger Chiptakt (unter derselben TDP) noch böser ausgesehen hätte. Aber eigentlich will AMD ja davon wegkommen, seine Grafikchips so krass auf Kante takten zu müssen.
Die Kosten für die benötigte Die-Fläche eines 512-SI sind ja nochmal deutlich gestiegen
Exzellenter Gedanke. Weil die Interfaces schlecht mit dem Fertigungsverfahren skalieren, belegen sie relativ gesehen immer noch viel Fläche - und sind damit unter einem Fertigungsverfahren mit deutlich höherem Preis pro mm² Chipfläche sogar teurer als einstmals. Und das ist in der Chip-Branche doch relativ selten.
Berniyh
2020-01-12, 07:17:22
Arcturus ist Vega. Du meinst RDNA2 wird im Datacenter (Es gibt mehr als nur HPC) nicht zum Einsatz kommen?
Arcturus ist eher die Fortführung von Vega (also nicht Vega30, sondern Arcturus10 oder so ähnlich).
Und das wird ziemlich sicher der Chip für derartige Anwendungen werden.
Ob zusätzlich auch noch RDNA2 Chips in irgendeiner Form da eingesetzt werden wissen wir natürlich auch nicht, komplett ausgeschlossen ist das nicht.
Da aber ja ein dedizierter Chip dafür in der Pipeline ist erscheint es zumindest sehr unwahrscheinlich.
grad bei PCGH gelesen: https://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Big-Navi-schneller-als-RTX-2080-Ti-1340789/
Leonidas
2020-01-12, 08:56:25
Kauen wir hier schon seit 3 Tagen durch. Interessante Postings:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12188321#post12188321
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12188046#post12188046
dargo
2020-01-12, 09:08:57
Übrigens: Anno 1800, das wohl modernste Spiel mit Multisample-AA, ist mit 8× MSAA quasi vollständig Speichertransferraten-limitiert. Eine Radeon RX 5700 (XT) ist hier doppelt so schnell wie eine auf 128 Bit heruntergekrüppelte RX 5500 (XT). Natürlich nur, wenn die CPU mithalten kann. :D
Und wen interessiert das? Als ob sich IHVs an Schrottumsetzungen orientieren würden. Mich wunderts eher, dass es bei dir immer noch nicht angekommen ist, dass MSAA außerhalb von Forwards(+) tot ist, weil viel zu ineffizient. Und selbst letzteres kommt mittlerweile extrem selten zum Einsatz.
robbitop
2020-01-12, 09:27:49
Entspanne dich, dargo. Das ist vermutlich einfach technische Neugier gepaart mit Nostalgie aus der Zeit von echtem Anti-Aliasing. Mir geht das auch oft so. Das heißt nicht, dass Raff nicht klar ist, wie die Verhältnisse von AA heute sind. Mal aus Interesse was anderes Untersuchen: weiter so. :)
Complicated
2020-01-12, 10:05:31
Arcturus ist eher die Fortführung von Vega (also nicht Vega30, sondern Arcturus10 oder so ähnlich).
https://www.golem.de/news/arcturus-linux-patches-zeigen-neue-arcturus-karte-von-amd-1907-142579.html
So hat AMD etwa die Anzahl der Compute Units (CU) von 64 auf 128 erhöht (https://cgit.freedesktop.org/~agd5f/linux/commit/?h=amd-staging-drm-next-arcturus&id=12ce1b5f5ecfb7ad0924540d7d9111730703146b). Mit der Anzahl von 32 Shader-Einheiten pro CU ergeben sich insgesamt 4.096 Shader-Einheiten auf der Arcturus-GPU. Das sind genauso viel wie bei der RX Vega 64. Allerdings hat AMD auch die Wavefront, also die Anzahl der parallel ausführbaren Threads, auf 4.096 verdoppelt (https://cgit.freedesktop.org/~agd5f/linux/commit/?h=amd-staging-drm-next-arcturus&id=d26782485bac80c8c6597193996fbfb17c686883).
Die neuen AMD-GPUs verwenden außerdem statt bisher zwei gleich acht Einheiten für den Speicherdirektzugriff (https://cgit.freedesktop.org/~agd5f/linux/commit/?h=amd-staging-drm-next-arcturus&id=1265a21bdc2a25fd28048d6f71a8e1c633bc12ef) (SDMA), was die Anzahl der Speicherzugriffe deutlich erhöhen sollte. Hinzu kommen noch zwei statt bisher einer der Video-Core-Next (VCN) genannten Multimediaeinheiten, die AMD im Vergleich zu den bisher genutzten leicht überarbeitet hat und in den Arcturus als VCN 2.5 bezeichnet. Angesprochen werden die SDMA und VCN über zwei Speichercontroller (https://cgit.freedesktop.org/~agd5f/linux/commit/?h=amd-staging-drm-next-arcturus&id=31d693dfbe7f4e3646ced6453f70c2ca7f9abf14) statt bisher einen.
In den vergangenen Tagen hat AMD zudem neuen Backend-Code für den LLVM-Compiler (https://github.com/llvm/llvm-project/search?q=gfx908&type=Commits) für den Vega-Chip GFX908 veröffentlicht. Dabei handelt es sich sehr wahrscheinlich um die nun bekannten Arcturus-Karten.
Also auch eher keine 80 CU nach derzeitigem Kenntnisstand und mit GFX908 immer noch ein Vega-Derivat Pre-Navi,
Kann der überhaupt einen OpenVR-Bench ausführen? Wegen:
Diese auf Vega-Grafik aufbauende GPU ist ganz klar auf den professionellen Einsatz ausgelegt und hat keine 3D-Einheit.
robbitop
2020-01-12, 10:27:44
Was hat die Konfiguration von Arcturus (vega) mit rdna2 zu tun?
Das ist einer Instinct und hat keine Grafikausgabe. RDNA2 hat GFX > 1010
danarcho
2020-01-12, 10:50:55
Vielleicht weil ihr vor 3 Seiten noch über ein CU Limit von 64 geredet habt? Außerdem passt doch auch die Info, dass Arcturus eben nicht zur Navi Familie gehört. Und dass Golem sich ziemlich dumm anstellt, ist doch auch unterhaltsam.
Edit: oh, das ist ja vom July, nvm...
robbitop
2020-01-12, 11:03:48
Naja das CU Limit braucht man nicht weiter zu diskutieren. Das gab es nie. Es gab mal ein SE Limit.
Dass Arcturus nicht zur Navi Familie gehört ist ja schon lange bekannt. :)
Interessant finde ich allerdings, dass man die CUs so sehr umgebaut hat offenbar. Weniger ALUs pro CU spricht für mehr Kontrolllogik pro Ausführungseinheit. Andererseits hätte ich angenommen, dass für die meisten Computeanwendungen das weniger ein Problem war.
Erstaunlich allerdings dass man zusätzlich zu Navi noch so viel Aufwand in Vega steckt. Scheint (wie AMD ja auch mal gesagt hat) pro Transistor mehr Leistung zu bringen in Computeanwendungen. Navi CUs kosten ja schon einiges an Transistoren extra. Und IIRC hatte Vega bei Compute selten ein Auslastungsproblem. Macht also schon Sinn. :)
Complicated
2020-01-12, 11:09:29
Was hat die Konfiguration von Arcturus (vega) mit rdna2 zu tun?
Welchen Bezug siehst du von mir hergestellt?
Es geht doch immer noch darum herauszufinden was für ein Chip da im OpenVR gebenched wurde. Oder welcher am Wahrscheinlichsten ist. Arcturus wurde erwähnt, doch ohne 3D Engine kann er das wohl kaum sein. Und Arcturus ist keine neue Architektur, sondern eben doch ein Vega-Derivat.
Ob RDNA2 mit HBM kommen kann und für Datacenter ebenfalls verwendet werden wird ist eine separate Fragestellung. Nach bisherigem Kenntnisstand ja eher nicht.
Hat sich alles halt etwas vermischt gerade, sorry.
robbitop
2020-01-12, 11:24:25
Wenn es Arcturus im OpenVR Benchmark gemessen worden wäre, wäre das Ergebnis IMO mehr als überraschend. :) Ist ja ein Spiele Lastfall.
Dino-Fossil
2020-01-12, 11:48:03
Exzellenter Gedanke. Weil die Interfaces schlecht mit dem Fertigungsverfahren skalieren, belegen sie relativ gesehen immer noch viel Fläche - und sind damit unter einem Fertigungsverfahren mit deutlich höherem Preis pro mm² Chipfläche sogar teurer als einstmals. Und das ist in der Chip-Branche doch relativ selten.
Ist der Preis eigentlich immer pro mm2, oder pro Transistor?
unl34shed
2020-01-12, 11:59:02
Es ist Preis pro Wafer, daraus ergibt sich dann ein Preis pro mm², wobei der bei größeren Chips durch die schlechtere Yield und Flächenausnutzung höher ausfällt.
gravitationsfeld
2020-01-12, 20:54:13
Entspanne dich, dargo. Das ist vermutlich einfach technische Neugier gepaart mit Nostalgie aus der Zeit von echtem Anti-Aliasing. Mir geht das auch oft so. Das heißt nicht, dass Raff nicht klar ist, wie die Verhältnisse von AA heute sind. Mal aus Interesse was anderes Untersuchen: weiter so. :)
TAA ist "echtes Anti-Aliasing".
Kauen wir hier schon seit 3 Tagen durch. Interessante Postings:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12188321#post12188321
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12188046#post12188046
Wurde eigentlich schon die These genannt, (bei wccftech gelesen) dass der Benchmark die onboard gfx für eine externe gehalten hat? Könnte dann jegliche Nvidia gfx gewesen sein, evtl auch SLI.
Bei 22 vs 40 CUs jetzt auch keine sonderliche Überraschung. Da würde auch ein 256-Bit SI keine großen Sprünge für die 5500 XT mehr bringen. 5,2 vs. 10,14 TFlops - passt doch.
In der Ausprägung ist's tatsächlich exklusiv, also maximal vom Speicherdurchsatz abhängig. Normalerweise ist eine RX 5500 XT deutlich mehr als halb so schnell wie eine RX 5700 XT. IIRC ist in Anno 1800 mit 8× MSAA schon die RX 5700 doppelt so schnell wie eine RX 5500 XT/8G, also wirklich die Transferrate und nicht die Rechenleistung maßgeblich. Ich kann die Werte morgen mal aus dem Excel fischen, falls das jemanden im Detail interessiert (die sind ofenfrisch). Am Ende bleibt aber die Aussage, dass zwei flinke HBM2-Stacks gut zu einem doppelten Navi (10) passen.
MfG
Raff
Rampage 2
2020-01-13, 01:00:52
Bezogen zu deiner Aussage im GPUPreise-Thread:
Und wie kommst dann auf 512Bit ? Für 512Bit brauchste 16 Module. Ein Speicherchip hat 32Bit Anbindung um auf 512bit zu kommen braucht man TADA 16 Speicherchips egal welche Kapazität diese haben.
AMD's HD 2900XT (R600) von 2007 hatte ein 512Bit-Interface (8-Channel a 64Bit) mit nur 8 Speicherchips und die Anbindung/Kanäle waren 64Bit:)
Zumindest sehe ich auf dessen Bildern nur 8 Chips auf dem PCB...
R2
Ravenhearth
2020-01-13, 01:14:00
Die anderen waren auf der Rückseite.
https://www.pcgameshardware.de/screenshots/original/2007/05/R600_BareShot_1.JPG
Denniss
2020-01-13, 01:32:04
512Bit GDDR-Interface = recht großer Platzverbrauch im Grafikchip und teures PCB durch die zusätzlichen Leiterbahnen zum RAM auf der Rückseite
robbitop
2020-01-13, 08:57:05
TAA ist "echtes Anti-Aliasing".
Ja das stimmt - insbesondere das von id - ich habe es mal mit 2x2 Downsampling verfeinern wollen in W2 - bis auf die fps war für mich (relativ zum Performancehit) kaum ein Unterschied sichtbar.
Ich meinte jedoch klassisches Anti-Aliasing. (MSAA, SSAA).
512Bit GDDR-Interface = recht großer Platzverbrauch im Grafikchip und teures PCB durch die zusätzlichen Leiterbahnen zum RAM auf der RückseiteAlles hat Vor- und Nachteile. HBM und der zusätzlich notwenige Interposer sind wohl auch super teuer. Deshalb taufht das Zeug heute nur noch im HPC Bereich auf.
So wie es immer ist: es gibt selten die klar bessere Lösung. Alles hat Vor- und Nachteile, die wir hier mangels spezifischer Kenntnisse nicht quantifizieren können. AMD wird sicherlich die Lösung wählen, die unterm Strich die Richtige für sie ist.
Bis ~80 CUs sind IMO bei 18 gt/s Chips ja auch nur 384bit nötig.
Nun, RTX 2080 Ti und Titan RTX gammeln auch bei <700 GByte/s herum. Das genügt offenbar für hohe Leistung, wenn man genug Cache platziert.
MfG
Raff
Es war ja mal die Rede von HBM2E. Davon würden 2 Stapel reichen, ich denke, sinnvoller kann man es nicht machen, wenn man diese Bandbreite braucht. Die große Variante kommt dann mit 2,8GT und die salvage mit 2,4GT. Bei ner Nummer kleiner kann man wieder GDDR machen. Aber 512Bit wirds sicher nicht noch mal geben.
Tidus
2020-01-13, 09:44:07
Was ändert es daran, dass AMD sehr wohl sehr teure, angesichts der Leistung deutlich teurere, Produkte als NVIDIA heraus bringt?
Den Bullshit den du schreibst nimmt auch niemand ernst, schön, dass du es selbst nicht tust :up:
Ui, jetzt habe ich aber Angst ;D
Mach mal ruhig, freue mich wie Bolle auf deinen Realnamen, Adresse & Co :cool:
Und jenachdem, was an Fertigungen verfügbar war, waren es mal neue Architekturen mit neuem Fertigungsverfahren - oder eben nicht. Wie eben Turing. Nur ein leicht verbessertes Fertigungsverfahren.
Hätte 7nm mehr Vorteile versprochen, hätte man die 6 Monate gewartet mit dem Launch.
Das CPU Forum ist woanders, hier geht es um GPUs.
Du hast auch an einen GP104 Launch im Q4 2016 gedacht ;D
Mach dich doch nicht lächerlich mit solchen "Vorhersagen" die hinterher belegen, dass du einfach nur irgendwelchen Bullshit schreibst, der dir gerade in den Kopf kommt.
Ich habe gerade auch sehr viel Spaß dich am Nasenring durch die Manege zu ziehen. Schade nur, dass du nicht lernfähig bist.
Die Volta-Zitate von mir, die du vor hattest zu liefern, kommen noch? :cool:
Das ist einfach zu geil ;D.
Ausnahmen bestätigen halt die Regel.
Wobei wir wieder bei der Justiziabilität wären... :D
Von mir hast du nix zu befürchen. Ich mach keine Konsequenzen. Kannst mich auch ruhig beschimpfen, das berührt mich nicht.
7nm hat massive Vorteile, etliche Hersteller haben das mehr als bewiesen. Von den ganzen SoC-Leuten über AMD bis zu anderen Herstellern die das nutzen. So ein Unsinn :freak:.
Die Vorteile von 7nm sind bekannt. Dass AMD das bei GPUs nicht auf die Strasse bringt hat andere Gründe. Und GPUs oder CPUs ist dem Fertigungsprozess egal. 7nm passte nicht zu NVs Launchzyklus, womit wir wieder beim Thema wären :freak:
Ich schreibe gern was mir in den Kopf kommt, na und? I.Ü. hab ich mir nicht die Mühe gemacht extra ein Zitat von Anno dazumal wieder aufzuwärmen, das warst du.
Ich glaube da liegt ne krasse Fehleinschätzung vor... aber egal, mach ruhig weiter. Ich hör jetzt aber auf, zu viel OT und der Unterhaltungswert nimmt ab.
Nö, ich mach mir doch keine Mühe mit so einem BS, der mal vor x Jahren gesagt wurde, bin ich denn bescheuert?
Letzte Warnung an euch beide. Privatkrieg per PN, aber nicht mehr hier.
robbitop
2020-01-13, 12:18:32
Nun, RTX 2080 Ti und Titan RTX gammeln auch bei <700 GByte/s herum. Das genügt offenbar für hohe Leistung, wenn man genug Cache platziert.
MfG
Raff
Für TU102 Leistung reicht seine Bandbreite. TU102 ist aber current gen. Dieses Jahr ist bei beiden IHV aber next gen geplant. Vor diesem Hintergrund braucht es dann auch mehr Bandbreite.
Das OpenVR Ergebnis ist leider sehr wackelig und ggf. auch fragwürdig. Wenn man sich aber mal spaßeshalber darauf einlässt und mitbetrachtet, wie groß leistungsnormiert der Vorsprung von TU GPUs zu Navi GPUs ist, kommt man dabei auf knapp 100 CUs. Ja das ist hoch spekulativ und am Rande dessen was noch baubar ist in N7P - über Wahrscheinlichkeiten braucht man hier kaum zu reden. Aber eben unter der Prämisse: Konkurrent für NV's NextGen High End, ist es nicht 100%ig undenkbar. Ich würde sagen, sogar notwendig, wenn man mit Nextgen 102 mithalten wollen würde. Der bekommt einen 12->7nm Shrink, bei dem ein Großteil in Ausführungseinheiten investiert wird. Der wird sicherlich ein gutes Stück schneller sein als TU102. In dem Bereich sind dann ~1 TB/s auch notwendig. :)
Und das geht nur mit 512bit +18GT/s oder HBM.
Complicated
2020-01-13, 13:29:20
Ich könnte mir allerdings vorstellen, dass N21 weder RDNA2 noch EUV (7nm+) nutzt.
Alleine aus der Situation heraus, dass eben zwei weitere GPUs erwartet werden. AMD hat mit dem Transit in Richtung EUV eher mit kleinere Chips die neue Fertigung gestartet (und auch historisch immer wieder Pipecleaner genutzt), während Nvidia eben gerne strategisch mit den großen Chips startet.
Irgendwie habe ich den Eindruck das wird zu wenig berücksichtig bei den Spekulationen.
Nimmt man AMDs Strategie des Pipecleaners zur Grundlage, so wäre N21 zwangsläufug RDNA1 und 7nm, während dann ein Navi 10 Nachfolger in 7nm+ folgt (N22) und dann eben der grosse 7nm+(N23).
Was viele hier wohl interpretieren ist die N2x Nomenklatur, die entweder eine neue Fertigung oder eine weiterentwickelte Architektur signalisiert. Es gibt allerdings ein Zwischending, das durch EUV ebenfalls plausibel sein kann. N21 könnte N7P sein, was die 2 rechtfertigen würde (ähnlich 14->12nm bei Polaris zu P20/30) da die Designrules wohl identisch bleiben zu 7nm DUV. Allerdins weiter RDNA1.
N22 beerbt N10 mit EUV 7nm+ und N23 beerbt dann N21 in 7nm+, sobald die Größe mit EUV wirtschaftlich wird und der Output stimmt. Das wäre ein Sicherheitsnetz, das ich AMD zutraue bei der nicht vorhersehbaren Kapazitätssituation mit EUV. Und man hätte Waferkapazitäten dort reserviert wo sie dann auch auf andere Produkte wie Konsolen, Chiplet und APUs übertragbar wären bei Bedarf.
Sicher nicht so sexy für uns Foristen, aber wirtschaftlich wohl sinnvoller.
dildo4u
2020-01-13, 13:46:27
Für TU102 Leistung reicht seine Bandbreite. TU102 ist aber current gen. Dieses Jahr ist bei beiden IHV aber next gen geplant. Vor diesem Hintergrund braucht es dann auch mehr Bandbreite.
Das OpenVR Ergebnis ist leider sehr wackelig und ggf. auch fragwürdig. Wenn man sich aber mal spaßeshalber darauf einlässt und mitbetrachtet, wie groß leistungsnormiert der Vorsprung von TU GPUs zu Navi GPUs ist, kommt man dabei auf knapp 100 CUs. Ja das ist hoch spekulativ und am Rande dessen was noch baubar ist in N7P - über Wahrscheinlichkeiten braucht man hier kaum zu reden. Aber eben unter der Prämisse: Konkurrent für NV's NextGen High End, ist es nicht 100%ig undenkbar. Ich würde sagen, sogar notwendig, wenn man mit Nextgen 102 mithalten wollen würde. Der bekommt einen 12->7nm Shrink, bei dem ein Großteil in Ausführungseinheiten investiert wird. Der wird sicherlich ein gutes Stück schneller sein als TU102. In dem Bereich sind dann ~1 TB/s auch notwendig. :)
Und das geht nur mit 512bit +18GT/s oder HBM.
Die Strategie von NV ist doch erstmal nicht den fetten Chip zu bringen,es ist imo realistischer das sie Titan X +10% Performance für 800€ bringen.
NV braucht imo gute PR nicht eine weitere 1000€+ Karte.
robbitop
2020-01-13, 14:27:11
Die Strategie von NV ist doch erstmal nicht den fetten Chip zu bringen,es ist imo realistischer das sie Titan X +10% Performance für 800€ bringen.
NV braucht imo gute PR nicht eine weitere 1000€+ Karte.
Je nach Wettbewerb und Randbedingungen. ;)
Turing brachte gleich den 102, da 104 aus Leistungssicht kaum ein Upgrade ggü GP102 war.
Kann gut sein, dass NV den 102 etwas nach hinten schiebt. Wenn 104 im Sommer kommt, dann kommt 102 sicherlich trotzdem noch dieses Jahr.
Wenn AMD eine GPU bringt, für die 104 nicht reicht, wird NV 102 sicherlich schnellstmöglich bringen. :)
Denniss
2020-01-13, 14:51:46
HBM mit Interposer mag zwar teuer erscheinen aber wenn man gut Platz auf dem Grafikchip und somit dessen teurer Produktion spart dann rechnet sich das sicherlich auf. Zudem wächst der Stromverbrauch nicht exorbitant wie beim einem fetten GDDR-Interface und die PCBs der Grafikkarten können handlicher gestaltet werden.
Leonidas
2020-01-13, 15:22:33
Wurde eigentlich schon die These genannt, (bei wccftech gelesen) dass der Benchmark die onboard gfx für eine externe gehalten hat? Könnte dann jegliche Nvidia gfx gewesen sein, evtl auch SLI.
Ja, wurde. Leider ist der Developer nicht spezifisch drauf eingegangen. Entweder hat er diese Fehlermöglichkeit nicht auf dem Schirm - oder er weiss, das dieser Fehler nicht möglich ist und hat es deswegen nicht für würdig gehalten, erwähnt zu werden.
Die Strategie von NV ist doch erstmal nicht den fetten Chip zu bringen,es ist imo realistischer das sie Titan X +10% Performance für 800€ bringen.
Da Ampere wieder (im Gegensatz zur Turing) genügend Mehrpower mitbringen dürfte, darf man annehmen, das NV diese Strategie für Ampere wieder auspackt. Sprich GA104 zuerst, um TU102 zu schlagen - und nachher dann GA102.
HBM mit Interposer mag zwar teuer erscheinen aber wenn man gut Platz auf dem Grafikchip und somit dessen teurer Produktion spart dann rechnet sich das sicherlich auf. Zudem wächst der Stromverbrauch nicht exorbitant wie beim einem fetten GDDR-Interface und die PCBs der Grafikkarten können handlicher gestaltet werden.
Seh ich auch so. 2 HBM-Stapel sind sicherlich deutlich kleiner als 512Bit GDDR6 oder 384Bit hochtakt-GDDR6 und viel, viel sparsamer. Und es wird unterm Strich trotzdem günstiger kommen.
Rampage 2
2020-01-13, 16:30:25
Seh ich auch so. 2 HBM-Stapel sind sicherlich deutlich kleiner als 512Bit GDDR6 oder 384Bit hochtakt-GDDR6 und viel, viel sparsamer. Und es wird unterm Strich trotzdem günstiger kommen.
Wie ist eigentlich der aktuelle Stand bei den GDDR6-Übertragungsraten? Lauffähige Speichercontroller mit 20Gbps (wenn auch nur im Labor und mit OC) gibt es bereits seit Juni 2018 (https://www.computerbase.de/2018-06/micron-gddr6-20-gbps/) und erst kürzlich, im November 2019 (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/GDDR6-Speicher-Rambus-ermoeglicht-18-Gbps-durch-neuen-PHY-1336120/), hat Rambus PHYs mit 18Gbps für GDDR6 freigegeben - ich denke, damit sind 20Gbps in greifbare Nähe gerückt...
Ist eurer Meinung nach 20Gbps-GDDR6 noch dieses Jahr für finale Endprodukte realisierbar?
R2
AffenJack
2020-01-13, 18:04:46
Wie ist eigentlich der aktuelle Stand bei den GDDR6-Übertragungsraten? Lauffähige Speichercontroller mit 20Gbps (wenn auch nur im Labor und mit OC) gibt es bereits seit Juni 2018 (https://www.computerbase.de/2018-06/micron-gddr6-20-gbps/) und erst kürzlich, im November 2019 (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/GDDR6-Speicher-Rambus-ermoeglicht-18-Gbps-durch-neuen-PHY-1336120/), hat Rambus PHYs mit 18Gbps für GDDR6 freigegeben - ich denke, damit sind 20Gbps in greifbare Nähe gerückt...
Ist eurer Meinung nach 20Gbps-GDDR6 noch dieses Jahr für finale Endprodukte realisierbar?
R2
Nein und wer weiß ob 20Gbps jemals kommen werden mit GDDR6. Es wurden schon öfter Ramgeschwindigkeiten gezeigt, die am Ende nicht in Produkten gelandet sind, bzw nur als Nieschenlösung, wie zb. 9Gbps GDDR5.
Berniyh
2020-01-13, 18:35:44
Ich könnte mir allerdings vorstellen, dass N21 weder RDNA2 noch EUV (7nm+) nutzt.
Alleine aus der Situation heraus, dass eben zwei weitere GPUs erwartet werden. AMD hat mit dem Transit in Richtung EUV eher mit kleinere Chips die neue Fertigung gestartet (und auch historisch immer wieder Pipecleaner genutzt), während Nvidia eben gerne strategisch mit den großen Chips startet.
Ne, das passt so nicht. Auch die gfx Bezeichnung der Navi 2x Chips ist ja gfx103x (wenn ich mich recht entsinne).
Navi 21 wird schon RDNA2 sein. RDNA1 wird wohl nichts neues mehr kommen.
Ich frag mich zwar immer noch was es mit Navi 12 auf sich hat, aber oberhalb von Navi 10 ist bei RDNA1 wohl Schluss.
Was viele hier wohl interpretieren ist die N2x Nomenklatur, die entweder eine neue Fertigung oder eine weiterentwickelte Architektur signalisiert.
Zurecht. AMD hat auf den Roadmaps ja auch ziemlich klar angegeben, dass 2020 RDNA2 kommt. Warum sollte man dann jetzt noch ein Navi 2x Produkt mit RDNA1 rausbringen, was dann kurze Zeit später obsolet ist?
Macht doch keinen Sinn. Insbesondere, wenn die Produkte kurze Zeit später Features (Raytracing) bringen die du da dann nicht hättest.
So designed man Rohrkrepierer, das halte ich für sehr unwahrscheinlich.
N22 beerbt N10 mit EUV 7nm+ und N23 beerbt dann N21 in 7nm+, sobald die Größe mit EUV wirtschaftlich wird und der Output stimmt.
Wie gesagt, ich wäre hier vorsichtig, dass es überhaupt 3 Chips für den Endusermarkt gibt.
Siehe Vega 12, siehe Navi 12. Würde mich nicht wundern, wenn es am Ende nur 2 Chips aus der Navi 2x Serie in Produkte schaffen.
Ich bin auch sehr skeptisch bzgl. der Ansicht die Leo hier in den News verbreitet, dass es einen Chip (Navi 21) als High-End und dann noch einen Monster-Chip (Navi 23) als Ultra-High-End (oder wie man das auch immer nennen will) geben wird.
Irgendwie glaube ich da nicht dran. Ich schätze eher der High-End Chip ist schon der "Nvidia Killer" und die Bezeichnung ist angesichts der Weiterentwicklung bei Nvidia schlicht obsolet. Meint also, dass mit grob RTX 3080 (Ti?) Performance dann bei RDNA2 das Ende der Fahnenstange erreicht sein wird.
Und das wäre auch ok so, denn für RDNA wäre das innerhalb von etwas mehr als einem Jahr schon ein guter Fortschritt.
LasterCluster
2020-01-13, 19:02:06
Warum meinen eigentlich alle, dass der NV Killer ein absoluter Enthusiastenchip sein muss? Warum kann das nicht auch betriebswirtschaftlich gemeint sein, also ein besonders konkurrenzfähiges Produkt in einem margenstarken aber nicht winzigen Markt. Also eher bei 3070 als bei 3080ti.
BlacKi
2020-01-13, 19:11:36
weil sonst kein anständiger hypetrain entstehen könnte. jedesmal wenn einer 100 CU schreibt muss ich mich kringeln.
Wenn es einen "NV-Killer" gibt kann der nur in 5nm kommen in 2021. Bis dahin wird man sich wohl mit 90CUs begüngen müssen, aber die werden es mMn sicher, wenn man den XBox-Chip mit seinen 60 CUs <350mm² (also ohne CPU-Teil und zusätzlichem I/O) bedenkt.
90 CUs + 16GB HBM2E 2,8GT RAM wird es mMn werden, als salvage dann irgendwas zwischen 72 und 80CUs mit 16GB 2,4GT HBM2.
Die Zeiten mit 8GB in dem Segment sind mMn bei beiden vorbei.
Denkbar sind dann zusätzlich noch 60 und 120CUs, wie gesagt die 120 dann nur in 5nm.
Linmoum
2020-01-13, 19:16:27
Welcher Nvidia-Killer? Von dem spricht doch keine Sau, genauso wenig wie von 100CU außer die Horns dieser Welt. Der Rest geht aktuell von 80CU aus, nicht mehr.
Berniyh
2020-01-13, 19:27:07
Welcher Nvidia-Killer? Von dem spricht doch keine Sau, genauso wenig wie von 100CU außer die Horns dieser Welt. Der Rest geht aktuell von 80CU aus, nicht mehr.
Dann hast du die letzten News Beiträge auf 3D Center wohl nicht gelesen?
Linmoum
2020-01-13, 19:52:31
Keine Ahnung, schreibt Horn neuerdings die News? ;)
Es gibt nicht einmal für die 80CU eine Grundlage, auch, wenn das bei Gerüchten natürlich nichts Neues ist. Und alles darüber ist sowieso auf jedweder Ebene komplette Fantasie und Hype-Train-Gedöns. AMD kann auch genauso gut wieder rumtrollen und erneut bei 64CU den Schlussstrich ziehen. Who knows. Trotzdem hilft es allen, realistischer zu bleiben.
Screemer
2020-01-13, 19:56:51
Natürlich gibt's für die 80 cus be Grundlagen. Das VR bench. Was anderes zu behaupten ist genau so fud. Ob die Annahme passt oder nicht, ist halt ne andere Frage.
Linmoum
2020-01-13, 20:06:52
War es denn überhaupt definitiv eine Radeon?
Hab keine Ahnung von dem OpenVR-Bench und er existiert auch noch nicht so lange, aber (mittlerweile) liest man ja genauso davon, dass das auch eine NV-GPU hätte sein können.
Screemer
2020-01-13, 20:22:14
Genau dafür sind wir im speku-forum. Deal with it.
Linmoum
2020-01-13, 20:30:18
Ich deale aber nicht mit permanentem und unsäglichem Hype-Train, der regelmäßig auf die Spur gebracht wird nur um dann am Ende zu derailen. Speku-Forum hin oder her.
Man kann auch einfach mal versuchen, etwas gemäßigtere Erwartungen zu hegen. Auch, wenn's ans spekulieren geht. Wenn's dann entsprechende Hinweise und Grundlagen gibt, kann man ja auch gerne mehr erwarten. Man sollte aus diesem unsäglichen 5GHz-Hype bei Zen2 mittlerweile gelernt haben.
Wobei es natürlich richtig ist, dass gewisse Leute das trotz ihrer u.U. höheren Spekus richtig einordnen können. robbitop kann das sicherlich besser (und da wissen auch andere User, wie man das einschätzen kann) als ein gewisses Hörnchen, dass dann wieder enttäuscht ist und auf Wundertreiber wartet. ;) Wie genug andere auch.
Rampage 2
2020-01-13, 20:38:59
Nein und wer weiß ob 20Gbps jemals kommen werden mit GDDR6. Es wurden schon öfter Ramgeschwindigkeiten gezeigt, die am Ende nicht in Produkten gelandet sind, bzw nur als Nieschenlösung, wie zb. 9Gbps GDDR5.
In der aktuellen Situation ist es aber zwingend erforderlich (und das gilt für AMD wie Nvidia gleichermaßen!), sofern man weiterhin auf GDDR6 setzt - also mindestens 18Gbps @ 384Bit, um auf knapp 900GB/sek. zu kommen. HBM2E @ 1.6 GHz (bzw. 3.2 Gbps) wird nicht genug sein, da zu weit von 900GB/sek. entfernt (820GB/sek.) - es sei denn, der weiter oben verlinkte Hynix-Speicher mit 3.6 Gbps würde eingesetzt, dann wäre es genug.
Insbesondere beim AM104 wird es kompliziert, sofern dieser NICHT auf HBM sondern weiterhin auf GDDR6 basiert und (wie immer) wieder auf ein 256Bit-Interface setzt anstatt 384Bit. Dann wären sogar 20Gbps schon knapp.
R2
davidzo
2020-01-13, 21:21:56
War es denn überhaupt definitiv eine Radeon?
Hab keine Ahnung von dem OpenVR-Bench und er existiert auch noch nicht so lange, aber (mittlerweile) liest man ja genauso davon, dass das auch eine NV-GPU hätte sein können.
Eben, es könnte auch genauso gut sein dass jemand den Thunderboltanschluss des Asus G14 ausprobiert hat, mit sowas hier, aber wegen der TB-Anbindung nur die IGP ausgelesen wird, welche noch nicht erkannt wird: https://www.kickstarter.com/projects/animaionic/animaionic-turns-your-mac-mini-into-a-workstation
Da reichen eventuell sogar zwei radeon VII
Berniyh
2020-01-13, 21:29:34
Keine Ahnung, schreibt Horn neuerdings die News? ;)
Nein, aber die News signalisiert sehr deutlich, dass er eine High-End GPU von AMD mit grob 30% mehr Leistung als eine 2080 Ti und dann noch mal eine GPU signifikant drüber.
Ich persönlich glaube das nicht und schätze, dass es letzteren Chip nicht geben wird, aber wir werden sehen …
Piefkee
2020-01-14, 17:15:24
https://videocardz.com/newz/afox-submits-radeon-rx-5950xt-rx-5950-rx-5900-and-rx-5800-xt-to-eec
AFOX submits Radeon RX 5950XT, RX 5950, RX 5900 and RX 5800 XT to EEC
robbitop
2020-01-14, 17:22:01
Oh klingt nach RDNA1 - ansonsten hätte man ggf 6xxx verwendet, oder?
weil sonst kein anständiger hypetrain entstehen könnte. jedesmal wenn einer 100 CU schreibt muss ich mich kringeln.
Warum das? Die Wahrscheinlichkeit ist für uns allen unklar. 100 CUs wären ~550mm2 in N7P. 1 TB/s gibt es bereits seit Vega 20. Beides also absolut baubar, wenn gewollt. Dazu kommmt, dass der Turingnachfolger, der ebenfalls in 2020 erscheint sicherlich 40-60% auf Turing drauflegen wird. Dann ist das Performancelevel auf NVs Seite in diesem Jahr vermutlich Realität.
Am Ende ist es IMO nur eine Frage, ob AMD mithalten will im Highend, oder ob sie dort abstinent bleiben wollen. Im Highend ist durch hohe Margen und Haloeffekt ggf gutes Geld zu holen. Dazu muss man dann aber auch etwas liefern, was mithalten kann. Halbe Versuche wie Vega oder Fijii sollte man sich lieber sparen - die sind beide gefloppt.
IMO: entweder richtig oder gar nicht.
Aber AMDs Strategie kann natürlich auch anders aussehen und ggf reicht ihnen ein guter 104 Konkurrent gegen Turings Nachfolger.
Berniyh
2020-01-14, 17:25:14
hm, doch noch Navi 12?
Aber dann wären die 1100 MHz ja Murks gewesen, denn das wird auf eine RX 5800 oder höher ja definitiv nicht zutreffen?
Leonidas
2020-01-14, 17:28:47
Oder bewusste Nebelkerze. Die EEC ist wahrscheinlich billig, da kann man gut falsche Spuren auslegen. Wie war das mit der 5600 XT mit 8 GB? Stand mehrfach in der EEC. Gab früher bereits ähnliche Schoten in der EEC.
Ich will damit nicht gegen diese Möglichkeit schießen. Ich will nur sagen, das hierbei beachtbare Unsicherheiten existieren.
robbitop
2020-01-14, 17:40:09
Eben, es könnte auch genauso gut sein dass jemand den Thunderboltanschluss des Asus G14 ausprobiert hat, mit sowas hier, aber wegen der TB-Anbindung nur die IGP ausgelesen wird, welche noch nicht erkannt wird: https://www.kickstarter.com/projects/animaionic/animaionic-turns-your-mac-mini-into-a-workstation
Da reichen eventuell sogar zwei radeon VII
Thunderbolt im Sinne von eGPU? Und dann auch noch 2x? Unwahrscheinlich. Erstens gibt es mWn keine dual egpu und zweitens hat Thunderbolt 3 und 4 von den 40 gbit/s nur 20 gbit/s für PCIe Tunneling. Kann jeder nachmessen, was ich dank eigener eGPU und TB3 pcie 4x an meinem xps13 gemacht habe mit cuda-z. Läppsiche 2200mib/s. Hab zu dem Thema schon super viel recherchiert. Viel mehr als das hat niemand im Netz gemessen.
Ich habe das für viele moderne Spiele mal getestet - mit einer 1650 super und einer 1070. Beide fahren richtig hart in fast allen Spielen ins PCIe Limit. Das sind halt nur 2x Lanes nach PCIe Standard, die netto drin sind. Rest wird für usb 3 und co fest reserviert und ist nicht für pcie tunneling verfügbar.
Eine Highend GPU würde mit Thunderbolt übel zusammengeschnürt sein. Da kommen einfach keine guten Ergebnisse zustande. Selbst mein TU116 langweilt sich weil gebremst.
BlacKi
2020-01-14, 18:28:56
Warum das? Die Wahrscheinlichkeit ist für uns allen unklar. 100 CUs wären ~550mm2 in N7P. 1 TB/s gibt es bereits seit Vega 20. Beides also absolut baubar, wenn gewollt. Dazu kommmt, dass der Turingnachfolger, der ebenfalls in 2020 erscheint sicherlich 40-60% auf Turing drauflegen wird. Dann ist das Performancelevel auf NVs Seite in diesem Jahr vermutlich Realität.
Am Ende ist es IMO nur eine Frage, ob AMD mithalten will im Highend, oder ob sie dort abstinent bleiben wollen. Im Highend ist durch hohe Margen und Haloeffekt ggf gutes Geld zu holen. Dazu muss man dann aber auch etwas liefern, was mithalten kann. Halbe Versuche wie Vega oder Fijii sollte man sich lieber sparen - die sind beide gefloppt.
IMO: entweder richtig oder gar nicht.
Aber AMDs Strategie kann natürlich auch anders aussehen und ggf reicht ihnen ein guter 104 Konkurrent gegen Turings Nachfolger.
wenn gewollt wäre sowas vielleicht machbar. aber den halo effekt würde es schlichweg nicht geben. aus mehreren gründen.
1. ist bis zum erscheinen (erst recht im laden) schon lange nvidias gen zu haben.
2. halte ich selbst 100cu mit hbm2 zusammen mit einer tdp (also unter 300w tbp) von 250-275w auf nem blower nicht stark genug um nvs next gen zu schlagen, vermutlich gerade so 10-20% über ner (bis dahin)2 jahre alten 2080ti fe rauskommt und deutlich teurer als eine radeon 7 wäre.
3. schätze ich amd mittlerweile so ein, das sie lieber kleinere brötchen backen, als hätten sie endlich aus den sonderbaren produkten aka. furyx, radeon7 (eher machbarkeitsstudien) gelernt.
vega56 war ganz attraktiv, aber vega64 war wegen des enormen aufpreises ja schon fast wie blei im regal.
ich glaube eher nach wie vor an 56/60/64 CU mit 384bit gddr6 bei knapp unter 300w tdp zum günstigeren preis von 399/499$ uvp. und 550-750€ dann im laden.
warum? solche monster GPUs hatten immer schon probleme ihre gpu leistung dann auch in performance umzusetzen. siehe vega56 vs 64 bei selber tdp.
100CU? ja klar;D
mironicus
2020-01-14, 19:37:36
Ich habe das für viele moderne Spiele mal getestet - mit einer 1650 super und einer 1070. Beide fahren richtig hart in fast allen Spielen ins PCIe Limit. Das sind halt nur 2x Lanes nach PCIe Standard, die netto drin sind. Rest wird für usb 3 und co fest reserviert und ist nicht für pcie tunneling verfügbar.
Eine Highend GPU würde mit Thunderbolt übel zusammengeschnürt sein. Da kommen einfach keine guten Ergebnisse zustande. Selbst mein TU116 langweilt sich weil gebremst.
Die limitierte Bandbreite von Thunderbolt 3 bedeutet in erster Linie niedrigere Frameraten. Das optimale Setup um das maximale aus Thunderbolt 3 herauszuholen und die GPU maximal auszulasten ist daher folgendes:
- Laptop mit 4K-Bildschirm wie z.B. XPS 15.
- EGPU mit schneller Grafikkarte.
- Spielen in 4K mit hohen Details mit Bildraten bis maximal 60 fps sind möglich ohne das die Bandbreite limitiert
Wenn ich z.B. einen Firestrike Ultra (4K) durchführe habe ich mit meinen Dell XPS 15 und externer GTX 1070 nur 3-5% weniger Leistung gegenüber einem Desktop-System mit GTX 1070 (Grafikpunkte). Der gleiche Test in 1080P und 1440P zeigt dagegen eine erheblich größere Differenz, bedingt durch die begrenzte Bandbreite von Thunderbolt.
y33H@
2020-01-14, 19:56:53
Bei TB3 ist ein externes Display zu bevorzugen, per internem fällt die Bildrate niedriger aus.
reaperrr
2020-01-14, 20:58:55
2. halte ich selbst 100cu mit hbm2 zusammen mit einer tdp (also unter 300w tbp) von 250-275w auf nem blower nicht stark genug um nvs next gen zu schlagen, vermutlich gerade so 10-20% über ner (bis dahin)2 jahre alten 2080ti fe rauskommt und deutlich teurer als eine radeon 7 wäre.
Sorry, aber das ist Quark. 10-20% über 2080Ti schafft man schon mit doppelter 5700(non-XT)-Leistung, dafür wären 80CUs@leicht-unter-5700-Takt schon völlig ausreichend.
ich glaube eher nach wie vor an 56/60/64 CU mit 384bit gddr6 bei knapp unter 300w tdp
Die Fläche von 505mm² wurde nun schon mehrfach genannt.
Für ~1,5fache Specs braucht man nicht die doppelte Chipfläche, im Gegenteil wegen gleichgroß bleibender Elemente wie Command Processor, PCIe, Display-Controller etc. wäre ein solcher Chip nur 350-370mm² groß.
zum günstigeren preis von 399/499$ uvp. und 550-750€ dann im laden.
So wie die 5700 mit 349$ UVP 480€ und die 5700XT mit 399$ UVP 550€ kostet? :rolleyes:
BlacKi
2020-01-14, 21:13:53
So wie die 5700 mit 349$ UVP 480€ und die 5700XT mit 399$ UVP 550€ kostet? :rolleyes:
das war an die vega preise von damals angelehnt. denn der markt macht seine eigene preise egal was der hersteller vorgibt. ich glaube nicht an 500mm². dazu ist 7nm noch zu teuer und gefragt. mit kleineren chips lässt sich nunmal mehr marktanteil holen. double 5700xt ist zu weit weg von der 5700xt, dort würde man wieder ein ganzes segment offen lassen.
wie gesagt ist das alles IMO. wir werden sehen ob wirklich zuerst ein 500mm² ansteht.
Lehdro
2020-01-14, 21:16:34
das war an die vega preise von damals angelehnt. denn der markt macht seine eigene preise egal was der hersteller vorgibt.
Sieht man gut an NV. Nicht.
AMD wird sicherlich nicht den Preisbrecher für dich spielen wollen nur damit du die NV GPUs günstiger kriegst. Aus der Schiene sind sie seit Navi erstmal raus - es geht um Margen, nicht mehr nur um Marktanteile um jeden Preis.
Berniyh
2020-01-14, 21:18:28
Oder bewusste Nebelkerze. Die EEC ist wahrscheinlich billig, da kann man gut falsche Spuren auslegen. Wie war das mit der 5600 XT mit 8 GB? Stand mehrfach in der EEC. Gab früher bereits ähnliche Schoten in der EEC.
Ich will damit nicht gegen diese Möglichkeit schießen. Ich will nur sagen, das hierbei beachtbare Unsicherheiten existieren.
Klar, wobei es ja auch sein könnte, dass die 5600 XT mit 8 GB für AMD eine Option war, man sich aber dagegen entschieden hat, zwecks Abgrenzung zur 5700.
reaperrr
2020-01-14, 21:29:22
double 5700xt ist zu weit weg von der 5700xt, dort würde man wieder ein ganzes segment offen lassen.
Stimmt, deswegen wird mMn einer der anderen N2x auch 56 CUs haben, und der Rest des Chips ist dann entweder identisch zu N10 bloß mit schnellerem Speicher (16-18Gbps), oder sie gehen auf 320bit SI (und 80 ROPs/5 MB L2$) hoch.
Der große 505mm² Chip hatte bloß diesmal Priorität aus Time-to-Market-Gründen (zumindest kurzzeitig den schnellsten Desktop-Chip haben).
Von Sonderfällen wie der VII mal ab, setzt AMD seine GPUs normalerweise mindestens 2 jahre ein, weshalb davon auszugehen ist, dass keiner der N1x ersetzt wird, sondern die N2x in erster Linie darüber platziert werden (weil sowohl N7+ als auch Hardware-RT sonst wenig Sinn machen).
Ich denke nicht, dass da noch irgendwas RDNA1 ist.
Passt doch auch ganz gut zu den Codenamen und Annahmen bisher.
5800(XT) -> N22 (Performancesegment)
5900(XT) -> N21 (505mm², HighEnd)
5950(XT) -> N23 (5nm super-Navi)
N12 ist mMn irgendwas embedded, was ganz winziges (am wahrscheinlichsten mMn, ein neuer Oland) oder ein exklusiver Mobilchip oder sowas. Die N1x sind ansonsten denke ich durch.
Man wird bei der 5k-Reihe bleiben, auch danach noch, da diese auch aus der Vergangenheit einen sehr guten Ruf hat. Das hatten die 6k bei Weitem nicht, daher denke ich, dass man zwar eine 6k-Reihe machen wird, aber ausschließlich für OEMs, ähnlich wie die 8000er GCN-Reihe. Die nächste Mainsteamreihe wird wieder 7k heißen (2022/3) mMn, denn die hatte in der Vergangenheit ebenfalls einen guten Ruf. Die Nummer ist wichtiger als die Höhe der Nummer heutzutage.
Es könnte sogar sein, dass man in 2021 eine 5750 gibt mit neuem Chip.
robbitop
2020-01-16, 09:13:47
Die limitierte Bandbreite von Thunderbolt 3 bedeutet in erster Linie niedrigere Frameraten. Das optimale Setup um das maximale aus Thunderbolt 3 herauszuholen und die GPU maximal auszulasten ist daher folgendes:
- Laptop mit 4K-Bildschirm wie z.B. XPS 15.
- EGPU mit schneller Grafikkarte.
- Spielen in 4K mit hohen Details mit Bildraten bis maximal 60 fps sind möglich ohne das die Bandbreite limitiert
Wenn ich z.B. einen Firestrike Ultra (4K) durchführe habe ich mit meinen Dell XPS 15 und externer GTX 1070 nur 3-5% weniger Leistung gegenüber einem Desktop-System mit GTX 1070 (Grafikpunkte). Der gleiche Test in 1080P und 1440P zeigt dagegen eine erheblich größere Differenz, bedingt durch die begrenzte Bandbreite von Thunderbolt.
Firestrike - der hat keinen vergleichbaren PCIe Bandbreitenverbrauch wie zB W3.
Mit einer Nextgen Highend GPU sind die fps auch in 4K schnell dort, wo es limitiert. Für dieses Benchmarkergebnis kommt es jedenfalls IMO nicht in Frage.
Bei TB3 ist ein externes Display zu bevorzugen, per internem fällt die Bildrate niedriger aus.
Ja das bringt ein bisschen was. Aber es ist am Ende popelig. Damit GPUs nicht mehr so oft und stark limitiert würden bräuchte es locker 2-3x Bandbreite. Ärgerlich ist, dass man ja 40 gbps hat aber nicht die Flexibilität erlaubt die auch voll zu nutzen. Man bekommt nur 50% für die egpu.
ChaosTM
2020-01-16, 11:19:23
20% über 2080ti Leistung mit 16Gb für unter 900 Euro wär schon was.
Ich nehme aber auch an, dass man sich hier eher an NV orientieren wird
Ich bin viel eher gespannt, ab wann AMD mit MCM beginnt, fände ich interessanter.
robbitop
2020-01-16, 11:46:07
Im Vergleich zu MCM bei CPUs ist das bei GPUs um Größenordnungen schwieriger. Das wollen alle IHVs und noch gibt es nichts was sinnvoll umsetzbar ist. Wird noch dauern, wenn es überhaupt kommt.
Leonidas
2020-01-16, 12:32:58
5800(XT) -> N22 (Performancesegment)
5900(XT) -> N21 (505mm², HighEnd)
5950(XT) -> N23 (5nm super-Navi)
Gleich drei Chips für diese wenig weit auseinanderliegenden SKU-Namen erscheinen mir wenig wahrscheinlich. Wenn AMD tatsächlich in einem gewissen Zeitrahmen gleich drei neue Chips zur Verfügung hätte, würde man damit eher denn eine Radeon RX 6000 Serie begründen. Wenn es bei der Radeon RX 5000 Serie bleibt, dann eher deswegen, weil im Consumer-Segment vielleicht nur einer dieser Chips landet.
eratte
2020-01-16, 12:41:58
Falsche News zu EEC-Datenbankeinträgen von AFOX für die angeblichen Radeon RX 5800 (XT), 5900 (XT) und 5950 (XT) im Umlauf | Nachfrage bei AFOX (igor'sLAB) (https://www.igorslab.de/falsche-news-zu-eec-datenbankeintraegen-von-afox-fuer-die-angeblichen-radeon-rx-5800-xt-5900-xt-und-5950-xt-im-umlauf-nachfrage-bei-afox/)
mironicus
2020-01-16, 12:42:09
Vielleicht ist Big Navi ja noch RDNA1? Wie viel Zeit liegen denn schon zwischen einem Design, dem ersten Silikon und der Veröffentlichung? Wenn Raytracing erst seit August 2018 durch RTX ein Thema ist, reicht das aus um dann Mitte 2020 eine Raytracing-fähige AMD-Karte erwarten zu können?
gbm31
2020-01-16, 12:59:47
Raytracing ist nicht erst seit NVs RTXen Thema.
Berniyh
2020-01-16, 13:00:57
Vielleicht ist Big Navi ja noch RDNA1?
Kann man sich eigentlich nicht erlauben.
Erstens jetzt viel zu spät und zweitens wäre der Verbrauch zu hoch.
Insbesondere vor dem Hintergrund, dass ja später im Jahr auf jeden Fall noch mit RDNA2 zu rechnen ist (laut Roadmap).
mboeller
2020-01-16, 13:08:35
Vielleicht ist Big Navi ja noch RDNA1? Wie viel Zeit liegen denn schon zwischen einem Design, dem ersten Silikon und der Veröffentlichung? Wenn Raytracing erst seit August 2018 durch RTX ein Thema ist, reicht das aus um dann Mitte 2020 eine Raytracing-fähige AMD-Karte erwarten zu können?
Seit wann sind die PS5 und die XBoxX in der Entwicklung? Zumindest seitdem arbeitet AMD an der Implementierung von RT.
[MK2]Mythos
2020-01-17, 04:40:07
weil sonst kein anständiger hypetrain entstehen könnte. jedesmal wenn einer 100 CU schreibt muss ich mich kringeln.
Hm. Und ich muss mich bei deinen relativ wirren und vor allem substanzlosen Prognosen kringeln. Du haust einfach mal deine "Spekulation" raus und vergisst dabei völlig was AMD momentan am Markt hat und wie groß ein entsprechender Nachfolger bei Performance X sein müsste.
Ich tippe und hoffe auf 505mm², RTX2080ti +30% Performance, 250-300Watt Verbrauch und 12-16GB Ram. Preis 800 bis 1000 Euro.
BlacKi
2020-01-17, 05:04:29
substanzlos nur weil ihr meine "substanzen" nicht teilst. so wie viele andere hier sehe ich 100cu (also mehr als eine verdoppelung von n10) einfach substanzlos an. die lücke wäre riesig, ein zwischen chip wirds nicht geben, siehe leos argumentationen und der falschmeldung von igor.
100cu bei +-275 watt wäre rausgeschmissenes silizium. die skalierung pro cu nimmt ab, und der chip müsste wegen der powerlimitierung stark drosseln. freidrehen bei beinahe 2ghz würde knapp 500-600w verbraten.
100cu? ich kringel mich;D
horn 12
2020-01-17, 07:17:05
Takt wird wohl nur 1600 Mhz betragen,- zudem wohl nur 96 CU oder gar darunter.
RTX 2080 TI wird sicher geschlagen,- zudem so ausgelegt werden um mit mindestens RTX 3080 gleichzuziehen.
Um RTX 3080TI kümmert sich dann die 5nm Karte.
Linmoum
2020-01-17, 07:52:05
Ach Horn, nur 96CU. Freu dich, wenn es 80 werden.
basix
2020-01-17, 08:06:46
80 CU könnte der 505mm2 Chip sein. Aber wenn RT nur +5% kostet und auch nur 384 bit annimmt, kommt man mit 7nm+ eher bei 430-440mm2 raus. Wenn es diesen 505mm2 Chip gibt und RDNA2 nicht sonst wie grösser wird, könnten 96-100 CU knapp drin liegen. Aber was ist dann Navi 23 aka "Nvidia Killer"? 5nm?
Leonidas
2020-01-17, 09:18:58
Kurz zurück zu den naheliegenden Ereignissen: Die Radeon RX 5600 XT steht am nächsten Dienstag an. Und NV hat kurz vorher den Listenpreis der GeForce RTX 2060 von 349$ auf 299$ gesenkt:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-16-januar-2020
amdfanuwe
2020-01-17, 09:25:12
Wer weiss, ob AMD nicht umdisponiert hat.
Während der Planung vor ein paar Jahren gab es nur N7 und N7+ als ersten EUV Prozess.
Jetzt stehen N7+, N7P, N5/N5P, N6 zur Auswahl, N5 wohl früher als erwartet.
Da dürfte schon ordentlich abgewogen werden, welchen Aufwand, Verzögerung und welchen Vorteil ein anderer Prozeß gegenüber N7+ bringt.
Würde mich also nicht wundern, wenn nur eine GPU in N7+ kommt und der Rest zugunsten eines etwas späteren besseren Prozesses verschoben wird.
N6 scheint mir ein guter Kandidat für einen Navi 1.x Refresh Ende des Jahres zu sein.
Leonidas
2020-01-17, 10:55:21
Solche Entscheidungen müssen aber wesentlich früher gefällt werden, sicherlich Richtung 1,5J vor Release. Denn dann muß man den Chip noch auf die neue Fertigung umbiegen und dann steht Tape-Out und Validierungsphase an.
Andererseits hat AMD die Info über vorverlegte Fertigungsverfahren bei TSMC sicherlich deutlich früher als wir.
robbitop
2020-01-17, 11:09:10
die skalierung pro cu nimmt ab
Das hängt vor allem von der Kontrolllogik ab. Wenn diese nicht mitskaliert wird ist das definitiv so. NV hat dieses Problem IIRC mit Fermi gelöst.
AMD hatte bis zu Vega dieses Problem - Navi soll es IIRC gelöst haben. (alles ist nun frtei skalierbar: rasterizer, shaderengines, command prozessor, rops etc)
, und der chip müsste wegen der powerlimitierung stark drosseln. freidrehen bei beinahe 2ghz würde knapp 500-600w verbraten.
Ohne Veränderung der uArch und des Fertigungsprozesses kann man sicherlich eine lineare Skalierung der Transistoren annehmen. Das ist ja auch der Grund, warum 102 im Schnitt niedriger takten muss als 104. Er hat nicht linear mehr TDP Limit im Vergleich zu mehr SMs.
Tatsächlich wären 100 CUs ohne Veränderung absolut problematisch. Die 5700XT hat eine TDP von 225W. Linear skaliert würde genau dieses Problem auftreten. Da helfen dann niedrige Frequenzen auch kaum noch.
Um 100 CUs unterzubringen, müsste man in der uArch noch einiges an Energieeffizienz auftun.
Schauen wir uns mal die Randbedingungen an:
- N7P bringt 10% Energieeffizienz
- bessererer niedriger Betriebspunkt sollte gut 15-20% bringen
Ist schonmal was - reicht aber IMO nicht.
Die uArch von Navi kommt auf ~Turing Energieeffizienz. Ggf. sogar ein wenig schlechter. Und das trotz 7 nm (da sind locker 40% Energieeffiziez ggü 12 nm drin gewesen). Bedeutet für mich, dass NVs uArch prozessnormiert ein ganzes Stück vorn liegt.
Weiterhin sagte AMD auf der CES, dass man beim Design von Renoir da bei GPU uArchs einiges an Potenzial für die Steigerung der Energieeffizienz gefunden hat. Dabei würde ich ganz dreist mal sagen, dass Turing hier kurzfristig das maximale Potenzial darstellt - also prozessnormiert nochmal bis zu ~40%.
Das wäre meiner Meinung nach Voraussetzung für eine >300W 100 CU Karte.
In Summe (N7P@10%, Betriebspunkt@15%, uArch Potenzial @40%) kommt man da bei ~50-75% Energieeffizienzpotenzial heraus.
Mit den 75% wäre man dann bei 318W TDP.
Ja das ist schon sehr optimistisch. Stimmt. 64-80 CUs würden da eher passen. Dann reichen 384 bit GDDR6 auch aus.
Aber dennoch gilt:
100cu? ich kringel mich;D
Bitte sachlich bleiben. Ein Diskussionsniveau was jedenfalls nicht wünschenswert ist.
amdfanuwe
2020-01-17, 12:08:55
Andererseits hat AMD die Info über vorverlegte Fertigungsverfahren bei TSMC sicherlich deutlich früher als wir.
Irgendwann gibt es halt den Punkt "of no return". Dann muß man den eingeschlagenen Weg durchziehen oder alles stoppen.
AMD steht bei GPU Desktop nicht zu sehr unter Zugzwang. CPU brummt ja. Von daher können sie es sich leisten ihre Planungen kontinuierlich anzupassen.
Dank der groben Roadmaps bekommen wir davon ja gar nichts mehr mit.
Wo bleibt N12? Gestrichen? Nebelkerze? 3 Navi 2.x Chips. Vielleicht sehen wir da nur einen in N7+ und es geht es nächstes Jahr mit N5(P) und einem komplettem Produktstack richtig rund.
War nicht irgendwao angekündigt, dass N5 und N5P nahezu gleichzeitig kommen sollen?
- N7P bringt 10% Energieeffizienz
- bessererer niedriger Betriebspunkt sollte gut 15-20% bringen
N7P und N7+ sind unterschiedliche Prozesse. Von den Daten her meinst du wohl N7+.
https://fuse.wikichip.org/wp-content/uploads/2019/07/wikichip_tsmc_logic_node_q2_2019.png
y33H@
2020-01-17, 12:49:02
Wobei die Darstellung irgendwie falsch wirkt, weil N6 auch EUV nutzt.
basix
2020-01-17, 13:00:32
Schauen wir uns mal die Randbedingungen an:
- N7P bringt 10% Energieeffizienz
- bessererer niedriger Betriebspunkt sollte gut 15-20% bringen
Ist schonmal was - reicht aber IMO nicht.
Die uArch von Navi kommt auf ~Turing Energieeffizienz. Ggf. sogar ein wenig schlechter. Und das trotz 7 nm (da sind locker 40% Energieeffiziez ggü 12 nm drin gewesen). Bedeutet für mich, dass NVs uArch prozessnormiert ein ganzes Stück vorn liegt.
Weiterhin sagte AMD auf der CES, dass man beim Design von Renoir da bei GPU uArchs einiges an Potenzial für die Steigerung der Energieeffizienz gefunden hat. Dabei würde ich ganz dreist mal sagen, dass Turing hier kurzfristig das maximale Potenzial darstellt - also prozessnormiert nochmal bis zu ~40%.
Das wäre meiner Meinung nach Voraussetzung für eine >300W 100 CU Karte.
In Summe (N7P@10%, Betriebspunkt@15%, uArch Potenzial @40%) kommt man da bei ~50-75% Energieeffizienzpotenzial heraus.
Mit den 75% wäre man dann bei 318W TDP.
Ja das ist schon sehr optimistisch. Stimmt. 64-80 CUs würden da eher passen. Dann reichen 384 bit GDDR6 auch aus.
100 CU wäre bei -15% Takt immer noch 2.2x Performance einer 5700XT. Springt noch was bei der IPC raus, kann es auch wieder 2.5x sein.
Entscheidend ist hier, ob die Bandbreite reicht. 512bit @ 14 GT/s oder 384bit @ 18 GT/s wären zwei mögliche Kandidaten.
Momentan tendiere ich auf 2x Chips: 60CU und 100CU. Ersterer kommt mit hohem Takt und 12GByte (384bit), letzterer mit reduziertem Takt und 16GByte (512bit).
Der 60 CU chip wäre etwa 340mm2 gross und schneller als eine 2080 Ti.
Der 100 CU Chip wäre 505mm2 und der "Nvidia Killer".
Wenn eine XBox Series X 56CU @ 1.7GHz in ca. 150W für den Chip pressen kann, sollten 300W @ 96 CUs @ 1.7 GHz für eine dGPU-Karte knapp drin liegen ;)
Timbaloo
2020-01-17, 13:16:53
Ich sehe der Hypetrain wird schon wieder auf relativistische Geschwindigkeiten beschleunigt.
ChaosTM
2020-01-17, 13:21:18
Konkurrenz ist speziell im GPU Bereich sehr wichtig, sonst kostet die nächste Karte garantiert 1500+ Euronen.
Daher der (Hoffnungs)-Hype.
Und lt. Lisa "is the best still to come" :D
Screemer
2020-01-17, 13:22:59
man sollte aber den ball flach halten. spekulation zu 100 cus und evtl. besserer fertig sei mal gerechtfertigt. sollte man aber immer mit ner priese salz genießen.
Ex3cut3r
2020-01-17, 13:38:45
Nach 1,5 Jahren sollte man endlich mal die 2080Ti auch überholen, alles andere wäre für AMDs Top Dog in 7nm! Ein Fail!!!!! :redface:
Das erwarte ich auch. Das Problem ist leider nur, Q3 kommt schon Nvidias Gegenschlag mit ihren 7nm Karten, und die werden sicherlich nochmal zu legen. Von daher hat AMD wieder 1,5 Jahre nix entgegenzusetzen.
ChaosTM
2020-01-17, 13:46:54
Falls NV zu sehr auf ihre RTX Kerne setzen sollte, könnte deren Zugewinn sehr überschaubar ausfallen. Abwarten...
robbitop
2020-01-17, 13:55:30
@amdfanuwe
N7P hat laut chipwiki 10% weniger Power bei gleicher Performance ggü N7. Genau das meine ich.
Complicated
2020-01-17, 14:24:38
Und N6 kommt erst nach N5, daher schließe ich diesen Prozess für AMD aus.
SKYNET
2020-01-17, 14:32:33
Falsche News zu EEC-Datenbankeinträgen von AFOX für die angeblichen Radeon RX 5800 (XT), 5900 (XT) und 5950 (XT) im Umlauf | Nachfrage bei AFOX (igor'sLAB) (https://www.igorslab.de/falsche-news-zu-eec-datenbankeintraegen-von-afox-fuer-die-angeblichen-radeon-rx-5800-xt-5900-xt-und-5950-xt-im-umlauf-nachfrage-bei-afox/)
mhhh, man könnte nun munkeln, das es diese karten doch gibt, und AMD davon wind bekommen hat und grad gesagt hat "sofort widerruf machen, sei ein fehler"... aber nur eine vermutung... weil AMD ist ja extrem was leaks angeht, da kam ja nie was die letzte zeit...
Linmoum
2020-01-17, 14:36:19
mhhh, man könnte nun munkeln, das es diese karten doch gibt, und AMD davon wind bekommen hat und grad gesagt hat "sofort widerruf machen, sei ein fehler"... aber nur eine vermutung... weil AMD ist ja extrem was leaks angeht, da kam ja nie was die letzte zeit...Ergibt keinen Sinn, da es solche Einträge von Sapphire bei der EEC bereits im letzten Sommer (noch bevor die 5700er auf dem Markt waren) gab, auch mit den jetzt kursierenden Modellbezeichnungen.
SKYNET
2020-01-17, 14:37:41
man sollte aber den ball flach halten. spekulation zu 100 cus und evtl. besserer fertig sei mal gerechtfertigt. sollte man aber immer mit ner priese salz genießen.
wird eh keine 100CUs geben, wird 80CUs haben + RT geschmodder, fertig...
dank 7nm+, weiteren optimierungen usw. dürfte das ganze bei 300W so +/- bei einer RTX Titan landen... ob das für NVs neustes flagship dann reicht, steht in den sternen, denke wir werden bei NV keinen all zu grossen bump in der rohleistung sehen(das + wird dann wohl eher durch mehr takt zustande kommen), dafür wahrscheinlich aber massiv bei der RT leistung.
reaperrr
2020-01-17, 15:30:46
@amdfanuwe
N7P hat laut chipwiki 10% weniger Power bei gleicher Performance ggü N7. Genau das meine ich.
N7P und N7+ sind aber nicht der gleiche Prozess, und RDNA2 wird IMO in letzterem kommen, da der neben nochmal 3-5% mehr Perf/Effizienz durch EUV mittelfristige Kostenvorteile hat (bis zu 17% höhere Packdichte, weniger Masken, kein Quad-Patterning usw.).
wird eh keine 100CUs geben, wird 80CUs haben + RT geschmodder, fertig...
Jup, sehe ich auch so.
Das Problem mit 100 CUs wäre, dass man um in 300W zu bleiben ggü. 80CUs doch deutlich mit dem Takt runter müsste, und linear wird die Leistung pro Takt auch bei Navi nicht mit der CU-Zahl skalieren, gerade in den hohen Regionen, weil irgendwann dann doch Frontend, Backend oder Bandbreite wieder verstärkt zu limitieren beginnen.
Soll heißen, die 20 zusätzlichen CUs würden in 300W am Ende vmtl. nur ~10-15% mehr Performance bringen, für ~20% mehr Fläche und schlechtere Yields und Verfügbarkeit (TSMCs hohe Auslastung und dadurch begrenzte Kapazität nicht vergessen).
Da lieber weniger CUs, dafür etwas mehr Takt und etwas günstigerer Preis.
eratte
2020-01-17, 17:35:36
Hehe
AMD Allegedly Bolstering Radeon RX 5600 XT in Response to RTX 2060 Price Cut (TechPowerUp) (https://www.techpowerup.com/263059/amd-allegedly-bolstering-radeon-rx-5600-xt-in-response-to-rtx-2060-price-cut)
Leonidas
2020-01-17, 17:45:40
Waren die niedrigen Taktraten also nur AMDs geplanter Schachzug, um nVidias zu erwartendem Konter etwas entgegensetzen zu können? Hier würde man gern Mäuschen in den Firmenzentralen spielen können ...
Brillus
2020-01-17, 17:46:11
Hehe
AMD Allegedly Bolstering Radeon RX 5600 XT in Response to RTX 2060 Price Cut (TechPowerUp) (https://www.techpowerup.com/263059/amd-allegedly-bolstering-radeon-rx-5600-xt-in-response-to-rtx-2060-price-cut)
Sieht so aus als würde AMD das nun normal machen sobald NV drauf reagiert nochmal nachlegen. PS mir tun die Reviewer leid.
eratte
2020-01-17, 17:47:30
Und auf Deutsch:
BIOS-Update vor Start: AMD positioniert die Radeon RX 5600 XT neu (HardwareLUXX) (https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/52074-bios-update-vor-start-amd-positioniert-die-radeon-rx-5600-xt-neu.html)
davidzo
2020-01-17, 17:56:00
Sieht so aus als würde AMD das nun normal machen sobald NV drauf reagiert nochmal nachlegen. PS mir tun die Reviewer leid.
Mir tun auch die AIBs leid die alle Karten wieder auspacken und neue Biosse drauf flashen dürfen...
Blediator16
2020-01-17, 17:56:46
Sieht so aus als würde AMD das nun normal machen sobald NV drauf reagiert nochmal nachlegen. PS mir tun die Reviewer leid.
Wenn sie dafür bezahlt werden, sollte das ja noch OK sein :biggrin:
Zergra
2020-01-17, 18:11:50
Dürfte die Reaktion auf die Preissenkung der RTX 2060 sein die so schneller und fast gleich teuer gewesen wäre.
Linmoum
2020-01-17, 18:17:25
Glaube ich weniger, hat sie bei der 5500XT auch nicht interessiert.
Was passiert jetzt mit der normalen 5700? Verschwindet die vom Markt?
BlacKi
2020-01-17, 18:26:38
Jup, sehe ich auch so.
Das Problem mit 100 CUs wäre, dass man um in 300W zu bleiben ggü. 80CUs doch deutlich mit dem Takt runter müsste, und linear wird die Leistung pro Takt auch bei Navi nicht mit der CU-Zahl skalieren, gerade in den hohen Regionen, weil irgendwann dann doch Frontend, Backend oder Bandbreite wieder verstärkt zu limitieren beginnen.
Soll heißen, die 20 zusätzlichen CUs würden in 300W am Ende vmtl. nur ~10-15% mehr Performance bringen, für ~20% mehr Fläche und schlechtere Yields und Verfügbarkeit (TSMCs hohe Auslastung und dadurch begrenzte Kapazität nicht vergessen).
Da lieber weniger CUs, dafür etwas mehr Takt und etwas günstigerer Preis.
der punkt mit der tbp ist halt einfach der knackpunkt. eine gpu mit 100cu, muss deutlich mit dem takt runter um unter 300w zu bleiben. wäre aber kaum schneller als eine 80er gpu. das ist schon fast siliziumverschwendung.
die andere sache ist die mit dem RT. wenn man bei turing schon 10% mehr chipfläche braucht für RT und die RT leistung eigentlich noch zu schwach ist um es richtig einsetzen zu wollen, dann muss amd mehr drauflegen als nur die 10% chipfläche. 15% oder gar richtung 20%. da knackt man dann schnell die 400mm² richtung 450mm² mit nur 60cu.
viel größer wird der chip dann auch nicht, denn man will ja auch die erste RT karte ja nicht für 1000€ verkloppen. das traue ich amd nicht zu. ich sehe einen maximalen preis für so eine karte für 799$ mit den salvage produkten um die 500-600€ herum. auch jenachdem was NV so für die 3000er serie verlangen wird.
Zergra
2020-01-17, 18:45:41
Was passiert jetzt mit der normalen 5700? Verschwindet die vom Markt?
Denke nicht, wäre sonst wieder eine zu große Lücke zwischen den Karten.
dargo
2020-01-17, 18:51:43
Warum sollte man auch die 5700 vom Markt nehmen? Das ergibt keinen Sinn. Mit der 5600XT erweitert AMD einfach nur das Portfolio und wer 8GB haben möchte greift eben zur 5700.
Daredevil
2020-01-17, 23:01:52
In der aktuellen Folge Bring Up von AMD sagt Lisa ganz klar, das wir Big Navi dieses Jahr sehen werden. :)
Ist zwar nichts neues, aber hiermit ausgesprochen. ^^
BlacKi
2020-01-18, 00:37:39
und ganz klar "high end"
TheAntitheist
2020-01-18, 01:34:40
die andere sache ist die mit dem RT. wenn man bei turing schon 10% mehr chipfläche braucht für RT und die RT leistung eigentlich noch zu schwach ist um es richtig einsetzen zu wollen, dann muss amd mehr drauflegen als nur die 10% chipfläche. 15% oder gar richtung 20%. da knackt man dann schnell die 400mm² richtung 450mm² mit nur 60cu.
und was ist mit der chipfläche für den denoiser? den hat AMD auch noch nicht drin... dann noch breiteres Interface was auch nochmal 40mm² kostet...
Das alles sagt mir das Nvidia mit der 3000er Serie einen noch größeren Vorsprung hat als jetzt schon.
SKYNET
2020-01-18, 01:54:26
und was ist mit der chipfläche für den denoiser? den hat AMD auch noch nicht drin... dann noch breiteres Interface was auch nochmal 40mm² kostet...
Das alles sagt mir das Nvidia mit der 3000er Serie einen noch größeren Vorsprung hat als jetzt schon.
wäre ich mir nicht so sicher... AMD muss für MS & Sony das RT zeugs liefern, und das muss potenter sein als das was ne RTX Titan jetzt bietet... gehe davon aus die desktop karten haben locker die doppelte RT leistung einer jetzigen RTX Titan, aber "nur" die rohleistung selbiger... heisst könnte eng werden mit der leistungskrone in games, die kein RT haben, und bei RT games, muss man halt sehen wie sehr NV aufstockt... dürfte ein spannendes kopf an kopf rennen werden... auch wenn ich die "böse" befürchtung habe, das zumindest in RT-OFF games, es wie bei vega vs. pascal hinnaus laufen wird, big navi leicht vor dem 2. schnellsten modell(3080[S]) von NV, beim verbrauch von NVs topmodell(3080Ti).
Leonidas
2020-01-18, 03:03:01
Mir tun auch die AIBs leid die alle Karten wieder auspacken und neue Biosse drauf flashen dürfen...
Mir tun eher die HW-Tester leid, die schon vorgearbeitet hatten.
Klar nicht toll für Tester und AIB dafür für den Kunden und auf das kommt es doch an :wink:
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.