PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 [36] 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81

Lehdro
2020-07-25, 20:05:25
Ich warte immer noch auf eine ehrliche Berichterstattung zum Thema RTX, Nutzen, Kosten, Notwendigkeit?
Gab es doch, auf vielen Seiten: PCGH, Golem, DF...

RT bringt bei Metro und Control optisch richtig was, ansonsten ist das tatsächlich eher Geschmackssache. Gab diverse Seiten die die Stärken und Schwächen der unterschiedlichen Implementationen gezeigt haben, aber dann muss man halt auch mal Interesse zeigen und danach suchen. Ich empfehle dafür übrigens Videos, bewegt wirkt sowas noch einmal ganz anders, nur so als Tipp.

JVC
2020-07-26, 09:03:46
......
.........
Deshalb sollte man immer auf ein Gleichgewicht zweier Konkurrenten achten. ;)
Schön geschrieben :up:

Entweder ist man für einen offenen Standard,
für den gemeinsamen Fortschritt und somit für Alle,
oder eben nicht ... (absichtlich proprietär, "black-Box" und so...)

M.f.G. JVC

HOT
2020-07-26, 09:08:47
Wann hatte AMD das letzte Mal beim ersten Salvage unterhalb dem Top-Dog das SI beschnitten? Ich kann mich nicht mehr daran erinnern.
Jo eher hat die Große dann einfach schnellere Speichermodule.

dargo
2020-07-26, 10:52:18
Gab es doch, auf vielen Seiten: PCGH, Golem, DF...

RT bringt bei Metro und Control optisch richtig was, ansonsten ist das tatsächlich eher Geschmackssache. Gab diverse Seiten die die Stärken und Schwächen der unterschiedlichen Implementationen gezeigt haben, aber dann muss man halt auch mal Interesse zeigen und danach suchen. Ich empfehle dafür übrigens Videos, bewegt wirkt sowas noch einmal ganz anders, nur so als Tipp.
Zwei Beispiele wo ich darüber nur lachen kann wenn ich das mit den Innenräumen von Division 2 vergleiche. Zumal letzteres noch dazu sehr hohe Performance auf einer Performancekarte wie zb. Navi10 bietet.

y33H@
2020-07-26, 11:20:57
Es geht ja auch u.a. darum, dass es dynamisch ist.

Lehdro
2020-07-26, 11:48:29
Es geht ja auch u.a. darum, dass es dynamisch ist.
Genau das, Screenshotvergleiche bringen dich da quasi null weiter. Schaut euch die Videos in hoher Qualität an, oder besser noch, schaut es euch im RL an. Wenn RT richtig eingesetzt wird, hat das ganze massig Potenzial. Sowohl optisch für uns User, als auch für die Entwickler (viel weniger Prebaking notwendig, realistischere Ausleuchtung, Schatten, Reflexionen etc).

Ich bin schon gespannt wie sich hier die Diskussion über RT drehen wird, wenn AMD das ganze auch endlich hardwaretechnisch beschleunigt anbietet ;D

y33H@
2020-07-26, 11:56:14
Hätte AMD es zuerst gehabt, wäre es für JVC und Nazar der heilige Gral ^^

Daredevil
2020-07-26, 12:04:10
Ich warte immer noch auf eine ehrliche Berichterstattung zum Thema RTX, Nutzen, Kosten, Notwendigkeit?
Ab 6:00
FSPIbZln8yY

@Topic
Da geht es nicht nur um RTX, sondern Raytracing Allgemein.

rentex
2020-07-26, 12:20:29
Danke für das Video. Sollte dem letzten klar machen, wie es mit der Grafik in Games, zukünftig aussehen wird.

reaperrr
2020-07-26, 12:30:36
Wann hatte AMD das letzte Mal beim ersten Salvage unterhalb dem Top-Dog das SI beschnitten? Ich kann mich nicht mehr daran erinnern.
Damals war Speicher noch nicht so teuer (relativ zu den Gesamtkosten), und so brauchte man auch nur 1 PCB.

Außerdem, bei Tahiti und Hawaii ging es vermutlich nur in 128bit-Schritten, in 64bit-Schritten kann man das SI vermutlich erst seit Navi10 deaktivieren.

Bei einem N21-Salvage würde es durchaus Sinn machen, einerseits aufgrund der Ausbeute, andererseits weil man so Speicherchips einspart und stärker vom Top-Dog abgrenzt.
Nicht vergessen, der N21-Salvage wird vermutlich nur gegen die 3080 platziert, da sind 384 bit und 12 GB im Grunde völlig ausreichend, 448bit/14GB würde sich im Grunde schon nur lohnen, wenn auch der Salvage sowohl von der Leistung, als auch vom Preis oberhalb der 3080 rauskommt.

Platos
2020-07-26, 14:40:12
Hätte AMD es zuerst gehabt, wäre es für JVC und Nazar der heilige Gral ^^

Dafür würden es dann ein paar andere verteufeln :D

JVC
2020-07-26, 16:40:21
Hätte AMD es zuerst gehabt, wäre es für JVC und Nazar der heilige Gral ^^
Ist das eine reine Vermutung, oder schon eine Ver...
Ich fühle mich fast schon "getriggert" ... :biggrin::wink:

(würde es, keine spezielle extra Hardware benötigen, in jedem Spiel anwendbar sein und nicht nur von einem Hersteller(proprietär) unterstützt werden...
könnte es durchaus sein...)

M.f.G. JVC

dargo
2020-07-26, 16:41:38
Ich bin schon gespannt wie sich hier die Diskussion über RT drehen wird, wenn AMD das ganze auch endlich hardwaretechnisch beschleunigt anbietet ;D
Das lustige an der Sache ist, dass AMD ganze zwei Jahre später damit ankommt. Ergo kann da die Performance schon ganz anders aussehen. ;) Ich entspanne dich schon mal... sollte Big Navi mit RT zu wenig Frames für mich liefern wird RT einfach deaktiviert, so einfach kann die Lösung sein.


Bei einem N21-Salvage würde es durchaus Sinn machen, einerseits aufgrund der Ausbeute, andererseits weil man so Speicherchips einspart und stärker vom Top-Dog abgrenzt.

Hier gibts nur ein Problem. Wenn du den Salvage stärker vom Top-Dog durch ein kastriertes SI abgrenzen willst musst die diesen Salvage entsprechend tiefer beim Preis am Markt setzen. Ergo verzichtest du automatisch auf Marge beim Die. Um Kosten bei Speicher zu sparen gibt es bessere Wege wie zb. langsameren Speicher einzukaufen der billiger sein sollte, sofern es der Speichermarkt natürlich hergibt.

mironicus
2020-07-26, 17:10:24
Ich frage mich, ob bereits NVidia-optimierte Titel mit Raytracing überhaupt auf RDNA2-basierten Karten ohne Einschränkungen von Anfang laufen werden (bis auf DLSS), oder ob dies nur für neue Titel gelten wird.

OgrEGT
2020-07-26, 17:16:33
Läuft RT bei NV nicht auch über MS DXR?
Wenn also N2x DXR unterstützt, dann muss es laufen.
Die Frage ist nur wie schnell?

mironicus
2020-07-26, 18:07:53
Die Frage ist nur wie schnell?

Auf jeden Fall schneller als Turing, und mindestens so schnell das man so eine Schummelei wie DLSS erst gar nicht braucht um spielbare Frameraten zu erhalten. ;D

Thunderburne
2020-07-26, 19:10:38
Warum eigentlich ?
AMD hat doch auch in Fidelity FX einen Upscaller mit aufgenommen.
Inzwischen kann DLSS 2.0 auf Stufe high teils bessere Ergebnisse liefern wie unter Nativem 4K.
Mich würde es sogar nicht wundern wen AMD auf dieses Feature angewiesen ist um Raytracing flüssig auf einem 4K Gerät wiedergeben zu können.
Death Stranding zeigt es doch recht gut anstatt um die 57FPS in 4K kann die 5700XT mit dem Feature um die 81Fps raushauen.
Man darf natürlich nicht vergessen das Death Stranding nur geringe Herausforderung an heutige Grafikkarten darstellt dennoch ist schön zu sehen das der Upscaler durch aus viel Leistung frei macht und man diese sehr gut für Raytracing bei AMD einsetzen kann.

Falls der Artikel von CB noch nicht bekannt ist !
https://www.computerbase.de/2020-07/death-stranding-benchmark-test/3/

Ich kann mir durch aus vorstellen das Big Navi die neuen RTX schlagen kann so lange kein Raytracing zum Einsatz kommt unter Raytracing wird AMD sich bestimmt aushelfen müssen mit einem Upscaler.
Was jetzt nicht tragisch sein muss .

Wenn diese Upscale Techniken hinten heraus super oder bessere Ergebnisse liefern als in einer Nativen Auflösung sollten wir diese Feature doch begrüssen.

Ich selbst habe auch zur Zeit noch eine 2080Ti
DlSS 2.0 sieht grossartig aus bei Young Blood und macht erst Raytracing mit über 60FPS bei noch schärferem Bild als 4K möglich.

Ich glaub sogar das upscaler die Zukunft sind!!!
Man muss auch bedenken das diese AI Techniken noch ziehmlich am Anfang stehen oder sind.

Ich freue mich riesig auf die neuen Karten von AMD und NV es wäre grossartig wen da was dran ist an den 16GB bei AMD.

Nazar
2020-07-26, 19:26:30
Gab es doch, auf vielen Seiten: PCGH, Golem, DF...

RT bringt bei Metro und Control optisch richtig was, ansonsten ist das tatsächlich eher Geschmackssache. Gab diverse Seiten die die Stärken und Schwächen der unterschiedlichen Implementationen gezeigt haben, aber dann muss man halt auch mal Interesse zeigen und danach suchen. Ich empfehle dafür übrigens Videos, bewegt wirkt sowas noch einmal ganz anders, nur so als Tipp.

Was bringt es denn optisch, dass diesen Enormen Perfornaceversut gerechtfertigt?
Dass in der Entfernung die Texturen, im Gegensatz zum RZ matschig sind, ist was für ein optischer Vorteil?
Dass die Beleuchtungseffekte in den Räumen falsch, bzw. viel zu dunkel sind, kann jeder Mensch sofort sehen, der zwei gesunde Augen hat.
Metro ist das Perfekte Beispiel, um aufzuzeigen wie perfekt Framing funktioniert.
Nicht nur mir ist bei Metro aufgefallen, dass das RZ richtig schlecht umgesetzt wurde (absichtlich?) und eben immer besonders dort wo angeblich RT seine Vorteile hat.
Z.B. kann man unter einer Überdachung am helllichten Tag nicht mehr die Bretter richtig erkennen, weil sie angeblich ja nicht beleuchtet werden. Seit wann das? Indirekte Beleuchtung.. schomal davon etwas gehört?
Oder In einem Gebäude ist es plötzlich Stockfinster, weil nur noch ein Riesen Fenster, durch das direkt die Sonne scheint, den Raum "erleuchtet" und nur der Tisch und die direkte Umgebung um den Tisch sind hell. Alles was weiter weg ist oder näher dran zum Protagonisten, ist wie durch Zauberhand ins Dunkle getaucht. Realität = 0,0!
Wer so etwas als "natürlich" bezeichnet, muss entweder blind sein oder verweigert sich der Realität.
Ich habe diese Situation bei mir im Wohnzimmer nachgestellt und nichts davon was mir durch RT in dieser Situation angeboten wurde, stimmt mit der Realität überein. Es ist viel zu dunkel, weil viel zu wenig Strahlen durch das RT berechnet werden. Während ich in meinem Wohnzimmer alles ganz normal erkennen kann und das Wohnzimmer (3 riesige Fenster, die einzeln durch Außenjalousien verdeckt werden können) hell genug durch eine einzige halboffene Jalousie erleuchtet ist und selbst in der hintersten Ecke noch ganz normal winzige Details, wie Schachfiguren und deren Farben, zu erkenne sind. Auch die Farbe und die Struktur der Decke ist deutlich zu erkennen.
Das, was durch das "unnatürliche RZ" angeboten wird, kommt der Realität deutlich näher, als das was RT anbietet. RT ist viel zu dunkel, kaum bis keine indirekte Beleuchtung.
Das, was derzeit durch RT bei einer annehmbaren Performance möglich ist, hat mit der Realität nur wenig zu tun!
Erst durch vollumfängliches Path Tracing würde sich das ändern aber dafür haben und werden wir auf lange Sicht keine ausreichende Performance haben.
RT, in seiner jetzigen Form, ist reiner Ballast, weil es in seiner derzeitigen Leistungsform eben nicht die Realität abbilden kann und gleichzeitig performant ist und dafür ist es dann wiederum viel zu "teuer".

Schön geschrieben :up:

Entweder ist man für einen offenen Standard,
für den gemeinsamen Fortschritt und somit für Alle,
oder eben nicht ... (absichtlich proprietär, "black-Box" und so...)

M.f.G. JVC

Wie man an deinem Kommentar sehen kann, ist mein Posting doch gut zu verstehen. Danke. :smile:

Hätte AMD es zuerst gehabt, wäre es für JVC und Nazar der heilige Gral ^^

Was hat dein kindischer Kommentar mit meiner Ausführung zu tun?
Wenn du keine Argumente hast, dann tu dir doch selber einen Gefallen und poste nichts! Solche persönlichen Verallgemeinerungen und die Zurschaustellung deiner mangelhaften Diskussionskultur, werfen ein schlechtes Licht auf dich, was allerdings zur RT Diskussion passen würde. :wink:

Ab 6:00
https://youtu.be/FSPIbZln8yY

Hast du meinen Kommentar auch wirklich gelesen? Es scheint nicht so.

n68s9I28AvY

9_XDlIxAkFs

bVK85lbymrU

mironicus
2020-07-26, 19:52:48
Mich würde es sogar nicht wundern wen AMD auf dieses Feature angewiesen ist um Raytracing flüssig auf einem 4K Gerät wiedergeben zu können.

Kann es sich NVidia eigentlich überhaupt erlauben langsamer als AMD zu sein? Es würde mich nicht wundern wenn Big Navi zusammen mit Zen 3 präsentiert wird.

gedi
2020-07-26, 20:48:09
Kann es sich NVidia eigentlich überhaupt erlauben langsamer als AMD zu sein? Es würde mich nicht wundern wenn Big Navi zusammen mit Zen 3 präsentiert wird.

Wäre nett. Eines um Intel zu versenken und das Andere, oha wir können auch Enthusiast

Thunderburne
2020-07-26, 21:09:49
Man sollte das alles nicht voreingenommen betrachten wen es stimmt das NV mit 8nm Samsung Prozess kommt der ja wie berichtet er 10nm entspricht bei TSMC so ergibt sich dann ein ganz anderes Bild.
In dem Fall sollte muss AMD was bringen was sie vor NV bringt da sie ja auf 7nm+ setzen welches ja angeblich die Transistordichte zum normalen 7nm Prozess um ca20% erhöht.

Wenn AMD es dann nicht gelingt dann weiß ich auch nicht wan es sonst passieren könnte den AMD hat damit einen nicht zu verachtenden Fertigungsvorteil .
RT Leistung und das Aktuell besser DLSS sind denke ich mal dann NV ihre Stärke.

Linmoum
2020-07-26, 21:19:23
N7+ für RDNA2 ist nicht gesichert, das kann auch wie bei Navi weiterhin N7P sein.

Thunderburne
2020-07-26, 21:30:33
Ah okay weil es halt immer häufiger erwähnt wird.
https://www.gamestar.de/artikel/amd-radeon-rx-big-navi-release-specs-performance,3357392.html

ChaosTM
2020-07-26, 22:04:14
Man darf nicht vergessen, dass AMD an 2 Fronten gegen jeweils 10x größere Firmen antreten muss. Wenn man bis auf 10% an NV herankommen könnte, wäre das schon was. Um wirklich aufschließen zu können, müßte NV schon gröber schwächeln - wie Intel.

NV ist jetzt mehr wert als Intel , oder war es zumindest vor ein paar Tagen kurz. Times are changing...

mironicus
2020-07-26, 22:05:47
Ich hoffe auf Taktraten wie diese hier. Death Stranding läuft auf dem Ryzen 4750G mit einem GPU-Takt von 2300 MHz. :)

eQVe9LCcy30

amdfanuwe
2020-07-27, 00:49:12
NV ist jetzt mehr wert als Intel , oder war es zumindest vor ein paar Tagen kurz. Times are changing...
Was heißt kurz?
aktuell:
Nvidia: $250 Milliarden
Intel: $214 Milliarden
AMD: $81 Milliarden

Wobei man bei Intel eigentlich die Fabs noch abziehen müßte.
Also Intel ohne Fabs $100 - $150 Mrd. ?

Bucklew
2020-07-27, 09:22:26
Nur "Open Source" wird dem Spieler, Kunden einen Nutzen bringen.
Wer vermeintliche Verbesserungen als Alleinstellungsmerkmal in seiner Hardware verbaut kann somit gar nicht für den Kunden arbeiten, sondern immer gegen ihn.
Wo genau ist DXR - die API von Microsoft in DirectX, auf die RTX aufsetzt - jetzt weniger "Open" als das von dir ständig verwendete DirectX, mit dem du kein Problem hast?

Alleine dass ihr diesen Kern immer wieder falsch darstellt, erübrigt jede Diskussion.

rentex
2020-07-27, 09:36:29
Man darf nicht vergessen, dass AMD an 2 Fronten gegen jeweils 10x größere Firmen antreten muss. Wenn man bis auf 10% an NV herankommen könnte, wäre das schon was. Um wirklich aufschließen zu können, müßte NV schon gröber schwächeln - wie Intel.

NV ist jetzt mehr wert als Intel , oder war es zumindest vor ein paar Tagen kurz. Times are changing...

NV ist nicht mit Intel vergleichbar. Ich gestehe NV mehr Flexibilität zu und den Willen zum Erfolg.

pixeljetstream
2020-07-27, 09:52:04
Man darf nicht vergessen, dass AMD an 2 Fronten gegen jeweils 10x größere Firmen antreten muss.
Personal/R&D budget sind nicht 10x größer bei NV vs AMD.

rentex
2020-07-27, 10:02:58
Personal/R&D budget sind nicht 10x größer bei NV vs AMD.

Wie hoch dann?

Complicated
2020-07-27, 10:15:49
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12375240#post12375240
Nur mal als Kennzahlen die R&D Budgets:
TSMC (fab only) ca. 16 Mrd. p.a. (+17%)
Intel (Fab+Chipdesign+Speicher+IoT+Software+Automotiv) ca. 13 Mrd p.a. (-1,5%)
AMD (Chipdesign+Software) ca. 1,6 Mrd p.a. (+10%)
Nvidia (Chipdesign+Software+Automotiv) ca. 2,9 Mrd p.a (+15%)

mironicus
2020-07-27, 10:16:26
Wenn die Entwicklung von neuen GPUs auch von Sony und Microsoft mitgetragen wird, kann man das Budget von AMD wohl nicht wirklich benennen.

pixeljetstream
2020-07-27, 10:17:42
Siehe complicated

NVs zahlen sind erst seit 2 Jahren über 2 Mrd.

Complicated
2020-07-27, 10:19:49
Ja AMD hat hier zusätzlich von den Semi-Custom-Kunden bezahlte R&D die Ihnen zu einem späteren Zeitpunkt zur Verfügung stehen. Auch alle Packaging uund Test-R&D Kosten sind in einem Joint Venture.
AMD and Nantong Fujitsu Microelectronics Co., Ltd. Close On Semiconductor Assembly and Test Joint Venture (https://www.hartware.de/2016/04/29/amd-and-nantong-fujitsu-microelectronics-co-ltd-close-on-semiconductor-assembly-and-test-joint-venture/)

rentex
2020-07-27, 10:28:13
Danke. Also nicht mal das doppelte.

Berniyh
2020-07-27, 13:59:00
Wobei man berücksichtigen muss, dass bei AMD in den letzten Jahren wohl deutlich mehr in Richtung R&D für CPUs geflossen ist als GPUs im Speziellen.

rentex
2020-07-27, 14:18:20
Das dachte ich mir dann ebenfalls. Man merkt es ja spätestens an ZEN.

mboeller
2020-07-27, 15:30:47
Kann es sich NVidia eigentlich überhaupt erlauben langsamer als AMD zu sein? Es würde mich nicht wundern wenn Big Navi zusammen mit Zen 3 präsentiert wird.

warum nicht?

Nvidia:

All told, NVIDIA claims that the fastest Turing parts, based on the TU102 GPU, can handle upwards of 10 billion ray intersections per second (10 GigaRays/second), ten-times what Pascal can do if it follows the same process using its shaders.


Quelle: https://www.anandtech.com/show/13346/the-nvidia-geforce-rtx-2080-ti-and-2080-founders-edition-review/3

XBX = 380 Mrd Intersections.

Und big Navi sollte mit 80 TMUs und >2GHz mehr als 640Mrd Intersections pro Sekunde schaffen.

Also ca. 64x schneller als Turing ;)

Mal sehen ob Ampere da mithalten kann.

Zergra
2020-07-27, 15:44:31
Die von TU102 beziehen sich nur auf die RTCores

unl34shed
2020-07-27, 17:28:26
Vielleicht doch HBM2?

https://videocardz.com/newz/amd-sienna-cichlid-navi21-big-navi-gpu-memory-rumors-hbm-vs-gddr6

rentex
2020-07-27, 18:58:48
Oder doch nicht? Was wäre wenn? Und warum? Das Gerücht ist doch nicht neu.

CompuJoe
2020-07-27, 20:02:21
Was spricht gegen eine Variante mit HBM als Titan-Gegenpart?
Also ne Topvariante gegen die 3080Ti mit GDDR6 und eine Variante in der Hinterhand mit HBM gegen die Titan?

Akkarin
2020-07-27, 20:08:27
Wir kennen zZ einfach zu wenige Navi chips. Es gibt 2-3 chips die anscheinend das gesamte Performance-Spektrum abdecken müssen, evt. incl. spezialChip für Apple. Da ist einfach kein platz für einen super-duper Chip oberhalb des "High-Ends".

mironicus
2020-07-27, 20:15:35
Was spricht gegen eine Variante mit HBM als Titan-Gegenpart?

Gar nichts spricht dagegen. Kann AMD ohne weiteres bauen. Sie haben im Juni eine RX5600M mit 8 GB HBM-Speicher für Apple gebaut - mit 50 Watt TDP die momentan wohl effizienteste GPU auf dem Markt.

Wenn wir DIY-Kunden jetzt die gleiche Bedeutung für AMD hätten und ihnen signalisieren würden, das wir dafür auch einen höheren Preis zu zahlen bereit wären, bekämen wir auch unsere Orgasmus-Edition von Big Navi. :freak:

unl34shed
2020-07-27, 20:54:37
Doch es spricht dagegen, dass es zwei große Chips geben müsste, denn zwei unterschiedliche Memory Controller in einem Chip macht eigentlich keinen Sinn, da es nur Platzverschwendung ist.

Berniyh
2020-07-27, 21:07:21
Gar nichts spricht dagegen. Kann AMD ohne weiteres bauen. Sie haben im Juni eine RX5600M mit 8 GB HBM-Speicher für Apple gebaut - mit 50 Watt TDP die momentan wohl effizienteste GPU auf dem Markt.

Wenn wir DIY-Kunden jetzt die gleiche Bedeutung für AMD hätten und ihnen signalisieren würden, das wir dafür auch einen höheren Preis zu zahlen bereit wären, bekämen wir auch unsere Orgasmus-Edition von Big Navi. :freak:
Mit Apple hast du aber einen Abnehmer der vermutlich bestimmte Stückzahlen garantiert und wohl auch gute Preise zahlt.
Dazu ist Navi12 im Vergleich eher klein.

Extra nen Chip für die absolute Leistungsspitze (ohne Salvage-Versionen) wäre absolut wahnsinnig. Die Stückzahlen dürften da sehr gering sein.
Das Risiko wäre auch enorm, denn wenn die Karte nicht zu 100% performed (im Vergleich zur Titan), dann dürfte das ein ziemliches Verlustgeschäft werden.

Ne, man muss davon ausgehen, dass AMD die obersten 2-4 Modelle auf Sienna Cichlid basieren lässt und die alle mit dem gleichen Speichertyp kommen.

mironicus
2020-07-27, 21:26:29
Ne, man muss davon ausgehen, dass AMD die obersten 2-4 Modelle auf Sienna Cichlid basieren lässt und die alle mit dem gleichen Speichertyp kommen.

So wird es wohl sein, aber das Topmodell kann trotzdem HBM-Speicher haben. 100 CU, 16 GB HBM2e und 2.1-2.3 GHz Takt und schon habt ihr den NVidia-Killer. :eek:

BoMbY
2020-07-27, 22:20:21
Das GDDR6-Gerücht war IMHO ehh haltlos für Navi21. Wie ich bereits sagte könnte ich mir zwei HBM2e-Stapel eigentlich ganz gut vorstellen für das Top-Produkt (und auch dessen Pro-Version).

Berniyh
2020-07-27, 22:38:30
So wird es wohl sein, aber das Topmodell kann trotzdem HBM-Speicher haben. 100 CU, 16 GB HBM2e und 2.1-2.3 GHz Takt und schon habt ihr den NVidia-Killer. :eek:
Ja, es wäre möglich, dass Sienna Cichlid mit HBM2 läuft, aber das gilt dann eben für die komplette Reihe die auf Navi21 basiert.

Leonidas
2020-07-28, 04:40:48
Vielleicht ist es einfach nur die Speicherconfig von Navi 22?

Berniyh
2020-07-28, 08:47:22
Vielleicht ist es einfach nur die Speicherconfig von Navi 22?
Weiß man nicht, Navy Flounders wird da nicht erwähnt.

Ich dachte zunächst, dass die Schlussfolgerung von videocardz.com etwas voreilig getroffen wurde, denn zwar steht in dem Patch drin:
+/* HBM Memory Channel Width */
+#define UMC_V8_7_HBM_MEMORY_CHANNEL_WIDTH 128

Aber Sienna Cichlid referenziert diese Variable UMC_V8_7_HBM_MEMORY_CHANNEL_WIDTH gar nicht, sondern nur:
+ case CHIP_SIENNA_CICHLID:
+ adev->umc.max_ras_err_cnt_per_query = UMC_V8_7_TOTAL_CHANNEL_NUM;
+ adev->umc.channel_inst_num = UMC_V8_7_CHANNEL_INSTANCE_NUM;
+ adev->umc.umc_inst_num = UMC_V8_7_UMC_INSTANCE_NUM;
+ adev->umc.channel_offs = UMC_V8_7_PER_CHANNEL_OFFSET_SIENNA;
+ adev->umc.channel_idx_tbl = &umc_v8_7_channel_idx_tbl[0][0];
+ adev->umc.funcs = &umc_v8_7_funcs;
+ break;

Die stehen zwar im gleichen Block mit der HBM Variante, aber werden nicht referenziert.
Aber gleiches ist auch bei Arcturus und Vega20 der Fall:
»···case CHIP_VEGA10:
»···»···adev->umc.funcs = &umc_v6_0_funcs;
»···»···break;
»···case CHIP_VEGA20:
»···»···adev->umc.max_ras_err_cnt_per_query = UMC_V6_1_TOTAL_CHANNEL_NUM;
»···»···adev->umc.channel_inst_num = UMC_V6_1_CHANNEL_INSTANCE_NUM;
»···»···adev->umc.umc_inst_num = UMC_V6_1_UMC_INSTANCE_NUM;
»···»···adev->umc.channel_offs = UMC_V6_1_PER_CHANNEL_OFFSET_VG20;
»···»···adev->umc.channel_idx_tbl = &umc_v6_1_channel_idx_tbl[0][0];
»···»···adev->umc.funcs = &umc_v6_1_funcs;
»···»···break;
»···case CHIP_ARCTURUS:
»···»···adev->umc.max_ras_err_cnt_per_query = UMC_V6_1_TOTAL_CHANNEL_NUM;
»···»···adev->umc.channel_inst_num = UMC_V6_1_CHANNEL_INSTANCE_NUM;
»···»···adev->umc.umc_inst_num = UMC_V6_1_UMC_INSTANCE_NUM;
»···»···adev->umc.channel_offs = UMC_V6_1_PER_CHANNEL_OFFSET_ARCT;
»···»···adev->umc.channel_idx_tbl = &umc_v6_1_channel_idx_tbl[0][0];
»···»···adev->umc.funcs = &umc_v6_1_funcs;
»···»···break;

Damit erscheint es wieder plausibel, dass Sienna Cichlid HBM2 Speicher verwendet.
Ich bin mir aber nicht sicher, ob die Zahlen nicht evtl. auch auf GDDR6 angewendet werden können.
In jedem Fall aber scheint Navi1x dieses Feature der Fehlerkorrektur/Fehlererkennung(?) nicht zu haben? Zumindest konnte ich keine Verweise darauf im Linux Kernel finden.
(also auch nicht für Navi12 mit HBM2)
Evtl. ist UMC auch generell HBM-spezifisch? Hab mich bislang damit nie beschäftigt.

Edit: ne, UMC steht für Unified Memory Controller. Es wird halt an anderer Stelle (in indirektem Zusammenhang) etwas von "HBM ECC" erwähnt.

Was übrigens auch noch für HBM bei Sienna Cichlid spricht:
»···if (adev->asic_type == CHIP_SIENNA_CICHLID && amdgpu_emu_mode == 1) {
»···»···adev->gmc.vram_type = AMDGPU_VRAM_TYPE_GDDR6;
»···»···adev->gmc.vram_width = 1 * 128; /* numchan * chansize */
»···} else {
»···»···r = amdgpu_atomfirmware_get_vram_info(adev,
»···»···»···»···&vram_width, &vram_type, &vram_vendor);
»···»···adev->gmc.vram_width = vram_width;

»···»···adev->gmc.vram_type = vram_type;
»···»···adev->gmc.vram_vendor = vram_vendor;
»···}

Über diesen Emulations-Modus von Sienna Cichlid wurde ja schon gesprochen. Aber dieser Verweis auf GDDR6 (auf Grund dessen man ja ursprünglich davon ausging, dass der Chip GDDR6 verwenden wird) ist nur bei Sienna Cichlid so gegeben. Navi Flounders aber (zumindest bislang) nicht.
Evtl. liegt ja genau das daran, dass Sienna Cichlid HBM verwendet, Navy Flounders aber GDDR6?

basix
2020-07-28, 12:58:31
Evtl. liegt ja genau das daran, dass Sienna Cichlid HBM verwendet, Navy Flounders aber GDDR6?

Wäre doch sinnvoll? Der grosse Chip mit HBM2e ("Halo" Produkt inkl. Titan Pendant) und die kleineren mit GDDR6 um die Kosten im Rahmen zu halten.

HOT
2020-07-28, 13:17:12
HBM2E war bislang nur bei Samsung bis 3,2GT/s im Angebot, neuerdings kommt ja auch noch SKHynix hinzu mit bis zu 3,6GT/s, verkaufen wird man sicherlich vor allem 3,2. Darauf wird sich das auch einpendeln könnt ich mir vorstellen und SC wäre dann mit 2 Stapeln 3,2GT/s (Samsung) ausgestattet, was Bandbreite zu Kosten das beste Verhältnis bieten dürfte, natürlich 16GB, optional 24GB. Theoretisch kann man mit Samsung HBM sogar 48GB verbauen in 2 Stapeln.

Complicated
2020-07-28, 14:20:53
Wäre doch sinnvoll? Der grosse Chip mit HBM2e ("Halo" Produkt inkl. Titan Pendant) und die kleineren mit GDDR6 um die Kosten im Rahmen zu halten.
Man kann kein Salvage mit anderem Speicher machen als mit dem vollen Chip.
Dafür müssten beide Interface auf dem Chip verbaut werden, was ja den Kostenvorteil und den Stromverbrauchsvorteil für HMB zunichte macht.

Berniyh
2020-07-28, 14:34:15
Man kann kein Salvage mit anderem Speicher machen als mit dem vollen Chip.
Dafür müssten beide Interface auf dem Chip verbaut werden, was ja den Kostenvorteil und den Stromverbrauchsvorteil für HMB zunichte macht.
Es war wohl eher so gemeint:
Sienna Cichlid: HBM2 -> High-End Modelle (inkl. Salvage)
Navy Flounders: GDDR6 -> Mid-Range Modelle

Das wollte ich oben ja andeuten, weshalb es ggf. für Navy Flounders keinen "GDDR6 Emulationsmodus" gibt (für was auch immer der genau gut ist), weil ja schon GDDR6.
Das ist aber sehr vage, da wir meines Wissens aktuell keine Ahnung haben wozu dieser Emulationsmodus überhaupt gut ist (evtl. hat das auch irgendwas mit Virtualisierung oder ähnlichem zu tun).

LasterCluster
2020-07-28, 15:05:33
»···if (adev->asic_type == CHIP_SIENNA_CICHLID && amdgpu_emu_mode == 1) {
»···»···adev->gmc.vram_type = AMDGPU_VRAM_TYPE_GDDR6;
»···»···adev->gmc.vram_width = 1 * 128; /* numchan * chansize */
»···} else {
»···»···r = amdgpu_atomfirmware_get_vram_info(adev,
»···»···»···»···&vram_width, &vram_type, &vram_vendor);
»···»···adev->gmc.vram_width = vram_width;

»···»···adev->gmc.vram_type = vram_type;
»···»···adev->gmc.vram_vendor = vram_vendor;
»···}


Das spricht meiner Meinung nach eher gegen HBM bei Sienna Cichlid. Man sieht, dass ohne amdgpu_emu_mode==1 das vram_type über get_vram_info automatisch ausgelesen wird. Das würde ich folgendermaßen interpretieren: Das automatische Auslesen funktioniert noch nicht, deshalb muss vram_type = AMDGPU_VRAM_TYPE_GDDR6 hardgecodet werden.

Edit: Anderseits wäre dies dann eher eine Art Testmodus und kein Emulationsmodus. Denn emulieren tut man ja gerade das, was nicht die eigentliche Hardware ist.....Naja, bleibt spannend ;)

Berniyh
2020-07-28, 15:09:33
Aber bei Navy Flounders und Navi1x funktioniert es dann?
Und warum nennt man das dann amdgpu_emu_mode?

Sorry, aber die Interpretation macht in meinen Augen wenig Sinn.

LasterCluster
2020-07-28, 15:22:05
Aber bei Navy Flounders und Navi1x funktioniert es dann?


Guter Punkt! Außerdem


/* HBM Memory Channel Width */
#define UMC_V8_7_HBM_MEMORY_CHANNEL_WIDTH 128
/* number of umc channel instance with memory map register access */
#define UMC_V8_7_CHANNEL_INSTANCE_NUM 2
/* number of umc instance with memory map register access */
#define UMC_V8_7_UMC_INSTANCE_NUM 8
/* total channel instances in one umc block */
#define UMC_V8_7_TOTAL_CHANNEL_NUM (UMC_V8_7_CHANNEL_INSTANCE_NUM * UMC_V8_7_UMC_INSTANCE_NUM)
/* UMC regiser per channel offset */
#define UMC_V8_7_PER_CHANNEL_OFFSET_SIENNA 0x400


Erst wird UMC_V8_7 fest mit 2048 Bit HBM in Verbindung gebracht, dann UMC_V8_7 mit SIENNA.

Ok, das mit den HBM erscheint tatsächlich recht plausibel

HOT
2020-07-28, 16:08:28
Wegen der HBM-Nummer ergibt ein 3. Chip im Lineup Sinn. Offenbar sind die Chips ja
N21 -> ~430mm² (HBM)
N23 -> ~350mm² (384Bit GDDR)
N22 -> ~200mm² (256Bit GDDR)

In dem Fall bleibt N21 im hochpreisigen Markt und wird nicht besonders heruntergesalvaged, dafür gibts dann ja den nur wenig kleineren, aber dennoch schnellen N23.

Berniyh
2020-07-28, 17:17:59
Guter Punkt! Außerdem

Ok, das mit den HBM erscheint tatsächlich recht plausibel
aber

Ich hab gerade mal nachgeforscht, was dieser Emulationsmodus ist. Stellt sich heraus das ist schon älter und wurde hier eingeführt:
https://cgit.freedesktop.org/~agd5f/linux/commit/?id=bfca02892773d2702aeeec9a290cf99464c3c0c1

Add amdgpu_emu_mode module parameter to control the emulation mode
Avoid vbios operation on emulation since there is no vbios post duirng emulation,
use the common hw_init to simulate the post

So richtig schlau werde ich daraus noch nicht, aber für mich klingt das nach einer Art Entwicklungsplattform wo man den Treiber testen kann.
Warum aber sollte man hier bei Sienna Cichlid dann den Speichertypus ändern?

Der einzige Grund, der mir einfällt ist, dass diese Plattform nicht mit HBM klar kommt, aber dann würde man doch ein ähnliches Statement für Navi12 auch erwarten?
Dagegen spricht außerdem, dass sowas in der Art auch in gmc_v9_0.c auftaucht, aber in komplett anderer Form:
https://cgit.freedesktop.org/~agd5f/linux/tree/drivers/gpu/drm/amd/amdgpu/gmc_v9_0.c?h=amd-staging-drm-next#n1131

r = amdgpu_atomfirmware_get_vram_info(adev,
&vram_width, &vram_type, &vram_vendor);
if (amdgpu_sriov_vf(adev))
/* For Vega10 SR-IOV, vram_width can't be read from ATOM as RAVEN,
* and DF related registers is not readable, seems hardcord is the
* only way to set the correct vram_width
*/
adev->gmc.vram_width = 2048;
else if (amdgpu_emu_mode != 1)
adev->gmc.vram_width = vram_width;

if (!adev->gmc.vram_width) {
int chansize, numchan;

/* hbm memory channel size */
if (adev->flags & AMD_IS_APU)
chansize = 64;
else
chansize = 128;

numchan = adev->df.funcs->get_hbm_channel_number(adev);
adev->gmc.vram_width = numchan * chansize;
}
heißt: vram_width wird aus dem atom bios ausgelesen (bzw. für Vega10 fest auf 2048 gesetzt), wenn nicht der emu mode läuft.
Im Emu Mode wird das dann stattdessen aus chansize und numchan berechnet, welches die Werte für HBM sind.
(darf ich noch anmerken, dass auf mich dieser Code-Abschnitt sehr verkorkst wirkt? Aber ich hab zugegeben auch nicht sonderlich viel Ahnung von C :D)

Was dann wieder die Frage aufwirft: warum sollte man im Emu Mode nun für Sienna Cichlid den Speichertyp wechseln?

Fragen über Fragen … :confused:

Cyberfries
2020-07-28, 17:24:58
Wegen der HBM-Nummer ergibt ein 3. Chip im Lineup Sinn. Offenbar sind die Chips ja
N21 -> ~430mm² (HBM)
N23 -> ~350mm² (384Bit GDDR)
N22 -> ~200mm² (256Bit GDDR)

Ausreichend Platz für einen Chip mit 384bit Interface sehe ich nicht wirklich.
Wenn wir 80CU für N21 und 48CU für den Chip darunter annehmen (was das gleiche Verhältnis wie bei N10/N14 ist),
ergibt sich bei HBM2 mit 920GB/s für N21 und 256bit GDDR6 bei 18GBps jeweils etwa das gleiche Verhältnis von 11,5-12GB/s je CU.

Die Diskussion Pro/Contra HBM/512bit/384bit dreht sich seit Wochen im Kreis.
Und jetzt wird anhand desselben Treibers mal so, mal so argumentiert.
Kaffeesatzleserei.

Complicated
2020-07-28, 18:07:13
Add amdgpu_emu_mode module parameter to control the emulation mode
Avoid vbios operation on emulation since there is no vbios post duirng emulation,
use the common hw_init to simulate the post
Mir scheint der Emulationsmodus lediglich das vbios zu umgehen um eigene definierte Parameter zu testen. Beim Entwickeln eines Low_power Bios z.B. Auch scheint der Emulationsmodus bestimmte IP Blöcke separat laden zu können die DRM-Elemente enthalten:
if (amdgpu_emu_mode == 1) {
+ /* Need to do common hw init first on emulation */
+ if (adev->ip_blocks[i].version->type == AMD_IP_BLOCK_TYPE_COMMON) {
+ r = adev->ip_blocks[i].version->funcs->hw_init((void *)adev);
+ if (r) {
+ DRM_ERROR("hw_init of IP block <%s> failed %d\n",
+ adev->ip_blocks[i].version->funcs->name, r);
+ return r;
+ }
+ adev->ip_blocks[i].status.hw = true;
+ }
+ }Eventuell um verschiedene VCE Versionen zu testen. Siehe
https://lists.freedesktop.org/archives/amd-gfx/2016-August/001044.html

Akkarin
2020-07-28, 18:18:49
Ich hab mal ne Tabelle gemacht wie viel gflops pro bandbreite AMD typerscherweise so verbaut hat:

-|gflop/GBps|perf/GBps
7970 GHz|14,22|1,39
290X|17,6|1,66
Fury X|16,8|1,33
580|24,12|2,30
Vega 64|26,18|1,92
5500 XT|23,20|2,90
5600 XT|21,40|2,65
5700 XT|20,92|2,43

Wenn man davon ausgeht, dass nicht [deutlich] über 25 gflops/GBps verbaut werden kann man ja Ausrechnen wie viele CUs und Takt man bei welchem Interface braucht.

Ich zitiere mich mal einfach mal. Wenn man einfach mal von einem Takt von 2GHz und 14GB/s Speicher ausgeht würde man bei 256bit ca. 36 CUs, bei 384Bit ca. 54 CUs und bei 2048bit 1600MHz HBM ca. 66 CUs brauchen. Bei höherer Chip Taktung dementsprechend weniger, bei langsameren/schnellerem RAM mehr. Genauso kann man natürlich das Verhältniss von gflops/GBps anpassen. (das verhältniss zwichen 384Bit GDDR:2048bit HBM passt irgendwie nicht, man bräuchte also entweder ein größeres HBM interface, oder mehr Takt auf dem HB- Wenn es so ei Produkt überhaupt gibt)

Ein Vorteil von HBM ist ja auch, dass das Interface auf dem Chip bei selber Bandbreite kleiner ist. Deshalb könnte auch ein ~430mm² Chip sich deutlich von einem ~350mm² Chip absetzen. Günstig würde es aber nicht. Wobei so ein HBM chip ja auch bestimmt für Laptops interessant wäre.

Wobei mir auffällt das die deutsche Wikipedia teils komische (gemittelte ?) Taktraten für die tflops der Karten angenommen hat.

basix
2020-07-28, 19:13:55
Momentan stehen ja folgende Angaben zu den Chipgrössen im Raum (mit CU und SI Schätzungen von mir). Ist recht optimistisch, aber so bin ich halt :D

N23 = 240mm2 --> 40 CU @ 256 bit @ 14 Gbps --> Chip = 2.0 GHz --> 150W
N22 = 340mm2 --> 60 CU @ 384 bit @ 14 Gbps --> Chip = 2.0 GHz --> 220W
N21 = 427mm2 --> 92 CU @ 2048 bit HBM @ 3.2-3.6 Gbps --> Chip = 2.0 GHz --> 320W


Ich habe es kurz durchgespielt mit Chipgrössenanteilen für SI, I/O CUs usw. und es passt erstaunlich gut. Der relativ kleine Sprung auf N21 ist aufgrund HBM erklärbar.

Das einzig unschöne wäre das Loch unterhalb von N23.

Cyberfries
2020-07-28, 19:23:20
Wenn man einfach mal von einem Takt von 2GHz und 16GB/s Speicher ausgeht würde man bei 256bit ca. 36 CUs, bei 384Bit ca. 54 CUs und bei 2048bit 1600MHz HBM ca. 66 CUs brauchen.

Ich kann deine Berechnungen nicht nachvollziehen.
Du gibst 36CU's bei 256bit an. Mit schnellerem Speicher also weniger CU's als N10? Ergibt wenig Sinn.

Speicher mit 16Gbit/s führt an 256bit zu einer Speicherbandbreite von 512GB/s.
25gflops/Gbps sind dann 12,8TFlops, bei 2GHz also 50CU's. 384bit entsprechend 75CU's.

Akkarin
2020-07-28, 19:36:52
Tatsächlich habe ich mit 14GB/s gerechnet. D'oh!

Berniyh
2020-07-28, 20:00:29
Und jetzt wird anhand desselben Treibers mal so, mal so argumentiert.
Kaffeesatzleserei.
Darum geht es eigentlich nicht so sehr, sondern eher darum (ansatzweise) zu verstehen was da passiert.
Wenn du daran kein Interesse hast kannst es ja überlesen. Ich musste ja auch die teilweise absurd anmutende B450+Zen3 Diskussion ertragen. ;)

Und gerade bei Sienna Cichlid mutet der Linux Treiber derzeit wirklich sehr komisch an.
Auf der einen Seite möglicherweise Hinweise auf HBM, auf der anderen Seite halt dieser seltsame emu mode, welcher Sienna Cichlid definitiv auf GDDR6 umswitcht.
Und gerade da darf man sich halt schon fragen, warum, da es bei anderen HBM Chips eben nicht gemacht wird. ;)

rentex
2020-07-28, 20:33:04
@Bernihy Es grenzt leider tatsächlich an Kaffeesatzleserei. Der Informationsgehalt hat den "Nährwert" aller anderen bisherigen Leaks und der ist mehr als mager und vielfach auslegbar.

dargo
2020-07-28, 20:35:40
Das einzig unschöne wäre das Loch unterhalb von N23.
Fände ich jetzt nicht so schlimm. Unterhalb N23 kannst du weiter RDNA 1 laufen lassen sofern es der Markt überhaupt noch braucht.

basix
2020-07-28, 20:42:41
Das stimmt schon. Nur vermisse ich vor allem einen Mobile Chip, der die RDNA2 Effizienz mitnimmt so im Bereich max. 75W. Hier hat AMD momentan die grösste Lücke im Portfolio.

mboeller
2020-07-28, 21:11:55
Das stimmt schon. Nur vermisse ich vor allem einen Mobile Chip, der die RDNA2 Effizienz mitnimmt so im Bereich max. 75W. Hier hat AMD momentan die grösste Lücke im Portfolio.

Eine Navi 23 Karte die mit nur 1 - 1,2GHz läuft, ähnlich wie die neue Navi12 Karte für Apple sollte doch reichen. Nur der etwas höhere Preis für die ~240mm² sind ein Hinderungsgrund für so ein Vorgehen.

Berniyh
2020-07-29, 09:07:41
@Bernihy Es grenzt leider tatsächlich an Kaffeesatzleserei. Der Informationsgehalt hat den "Nährwert" aller anderen bisherigen Leaks und der ist mehr als mager und vielfach auslegbar.
Ein Stück weit schon, aber der wesentliche Unterschied ist, dass es Infos sind die für jeden zugänglich sind und die von AMD direkt stammen, d.h. im Normalfall auch korrekt sein sollten.
Was man dann daraus liest ist natürlich eine ganz andere Frage und liegt eher daran, dass wir halt keine Treiberexperten sind.

Bei den Leaks war zuletzt mit Sicherheit auch einiges an Unsinn dabei, da sich die ja teilweise ordentlich widersprechen, aber das ist natürlich auch irgendwo die Natur von Leaks.

basix
2020-07-29, 10:16:10
Eine Navi 23 Karte die mit nur 1 - 1,2GHz läuft, ähnlich wie die neue Navi12 Karte für Apple sollte doch reichen. Nur der etwas höhere Preis für die ~240mm² sind ein Hinderungsgrund für so ein Vorgehen.

Sicher geht das, ist aber wie du sagst eine Kostenfrage. Nvidia hat mit GP107 und GP108 jahrelang 132mm2 und 74mm2 Chips als MX100-300 verkauft. Ein fast doppelt so grosser Chip vgl. mit GP107 im fast doppelt so teuerem Prozess und GDDR6 anstatt GDDR5? Das wird vermutlich doppelt oder dreifach so teuer wie z.B. eine MX250.

Meiner Meinung nach benötigt AMD noch einen kleinen Chip. 20-24 CUs mit 128bit GDDR6 wären optimal. Vielleicht auch nur 8x PCIe Lanes. Das wäre evtl. im Bereich von 150-160mm2. SKUs kann man irgendwo zwischen 12-24 CUs und 64-128bit konfigurieren. Für Mobile als auch 75W Desktop-Karten (vor allem OEM). GDDR6 Type einfach der günstigste, den es gibt egal ob 12 oder 14 Gbps. Den Chip kann man auch lange laufen lassen, da Konsolen-Ports in 1080p wohl genügend gut laufen werden.

Der Killer wäre aber ein 5nm Chip mit einem einzelnen HBM-Stack. 36 CUs @ 1.8 GHz, 2.8 Gbps, 8 GByte, 130mm2, <75W. Vielleicht 2022 :D

Hauwech
2020-07-29, 11:33:00
Sicher geht das, ist aber wie du sagst eine Kostenfrage. Nvidia hat mit GP107 und GP108 jahrelang 132mm2 und 74mm2 Chips als MX100-300 verkauft. Ein fast doppelt so grosser Chip vgl. mit GP107 im fast doppelt so teuerem Prozess und GDDR6 anstatt GDDR5? Das wird vermutlich doppelt oder dreifach so teuer wie z.B. eine MX250.

Meiner Meinung nach benötigt AMD noch einen kleinen Chip. 20-24 CUs mit 128bit GDDR6 wären optimal. Vielleicht auch nur 8x PCIe Lanes. Das wäre evtl. im Bereich von 150-160mm2. SKUs kann man irgendwo zwischen 12-24 CUs und 64-128bit konfigurieren. Für Mobile als auch 75W Desktop-Karten (vor allem OEM). GDDR6 Type einfach der günstigste, den es gibt egal ob 12 oder 14 Gbps. Den Chip kann man auch lange laufen lassen, da Konsolen-Ports in 1080p wohl genügend gut laufen werden.

Der Killer wäre aber ein 5nm Chip mit einem einzelnen HBM-Stack. 36 CUs @ 1.8 GHz, 2.8 Gbps, 8 GByte, 130mm2, <75W. Vielleicht 2022 :D

Super Einsteigerchips hat AMD doch schon längst. :D:tongue:

https://en.wikipedia.org/wiki/Radeon_600_series

Cyberfries
2020-07-29, 18:04:20
Meiner Meinung nach benötigt AMD noch einen kleinen Chip. 20-24 CUs mit 128bit GDDR6 wären optimal. Vielleicht auch nur 8x PCIe Lanes. Das wäre evtl. im Bereich von 150-160mm2. SKUs kann man irgendwo zwischen 12-24 CUs und 64-128bit konfigurieren. Für Mobile als auch 75W Desktop-Karten (vor allem OEM). GDDR6 Type einfach der günstigste, den es gibt egal ob 12 oder 14 Gbps. Den Chip kann man auch lange laufen lassen, da Konsolen-Ports in 1080p wohl genügend gut laufen werden.

Bin mir nicht sicher ob das sarkastisch gemeint ist?
Häme über Navi14s hohen Energieverbrauch?
Weil jeder sonstige Wert den du beschreibst trifft auf N14 zu....

mczak
2020-07-29, 18:55:09
Meiner Meinung nach benötigt AMD noch einen kleinen Chip. 20-24 CUs mit 128bit GDDR6 wären optimal. Vielleicht auch nur 8x PCIe Lanes. Das wäre evtl. im Bereich von 150-160mm2. SKUs kann man irgendwo zwischen 12-24 CUs und 64-128bit konfigurieren. Für Mobile als auch 75W Desktop-Karten (vor allem OEM). GDDR6 Type einfach der günstigste, den es gibt egal ob 12 oder 14 Gbps. Den Chip kann man auch lange laufen lassen, da Konsolen-Ports in 1080p wohl genügend gut laufen werden.

Ich bin der Meinung es braucht eher einen Chip deutlich unterhalb 150 mm^2 denn Navi 14 ist jetzt nicht sooo schlecht. Darunter verkauft AMD aber bloss 4 Jahre alte Gurken, und zwischen APU und eben Navi 14 klafft ein Riesenloch (wenn man eben museumsreife Ware ausser Betracht lässt).

edit: nur so zum Vergleich wie alt diese Polaris-Karten sind - als die neu waren hat AMD noch ausschliesslich CPUs aus der Bulldozer-Familie verkauft...

davidzo
2020-07-29, 23:19:00
Ich bin der Meinung es braucht eher einen Chip deutlich unterhalb 150 mm^2 denn Navi 14 ist jetzt nicht sooo schlecht. Darunter verkauft AMD aber bloss 4 Jahre alte Gurken, und zwischen APU und eben Navi 14 klafft ein Riesenloch (wenn man eben museumsreife Ware ausser Betracht lässt).

edit: nur so zum Vergleich wie alt diese Polaris-Karten sind - als die neu waren hat AMD noch ausschliesslich CPUs aus der Bulldozer-Familie verkauft...

Da stimme ich dir zu, Navi14 ist auch einfach zu groß um jemals wirkliche low cost Gefilde zu erreichen. Im Entry level verkaufen sich chips eben nicht nur nach Marke und Namen, sondern auch nach features, da tut es schon etwas weh wenn selbst in 2020 man nicht mehr als 28nm GCN1.0 Oland/Sun bieten kann. Das wird man demnächst durch Polaris 12 ersetzen müssen, obwohl der leider über 100mm2 ist und auch keine glänzenden Videospecs hat. Und sowas bräuchte man um eine gute Alternative zu Intels UHDs zu sein.
Navi14 mit seinen 160mm2, mobile aspirationen und ultradünnem DIE ist einfach zu groß um jemals als echter low cost chip herunter gereicht zu werden.

HOT
2020-07-30, 00:23:54
Spätestens wenn der letzte Skylake vom Markt geht sind sämtliche Grafikchips unter N14 auch vollkommen sinnlos geworden und die wird auch nicht mehr geben von AMD. Man behält einfach P12 im Programm für die wenigen noch denkbaren Einsätze in diesem Marktbereich (wie damals Caicos) und schreibt das Segment unter N14 ab der 7nm Generation einfach ab.

reaperrr
2020-07-30, 01:29:30
Spätestens wenn der letzte Skylake vom Markt geht sind sämtliche Grafikchips unter N14 auch vollkommen sinnlos geworden und die wird auch nicht mehr geben von AMD. Man behält einfach P12 im Programm für die wenigen noch denkbaren Einsätze in diesem Marktbereich (wie damals Caicos) und schreibt das Segment unter N14 ab der 7nm Generation einfach ab.
Denke ich auch.
Sowohl die Fixkosten für Design, Masken etc. als auch die Waferpreise gehen mit jedem neuen Prozess immer weiter rauf, die Zeiten, wo man mit Billig-GPUs auf neustem Prozess noch Geld über die Menge verdienen konnte sind so ziemlich vorbei. Gerade die kleinen Billigchips müssen auf modernen Prozessen wahrscheinlich 4+ Jahre laufen, um sich zu amortisieren.
Bei dem fetten "Uncore" von Navi müsste AMD gegenüber N14 so ziemlich alles Spiele-relevante (inkl. SI) halbieren, um unter 120mm² zu kommen. Und wer will ne Graka mit 12 CUs und 64bit SI für ~100-120 €?

Auch Nvidia bringt im LowCost-Bereich nur noch Pascal-Aufgüsse, und im Desktop braucht man Billig-Grakas eigentlich eh nur für Office-/Arbeits-Rechner oder als Übergangslösung, und da reichen Pascal/Polaris halt immer noch aus.

mczak
2020-07-30, 02:34:24
Auch Nvidia bringt im LowCost-Bereich nur noch Pascal-Aufgüsse, und im Desktop braucht man Billig-Grakas eigentlich eh nur für Office-/Arbeits-Rechner oder als Übergangslösung, und da reichen Pascal/Polaris halt immer noch aus.
Das ist so nicht ganz richtig - N14 ist von der Komplexität her ziemlich vergleichbar mit TU116, Nvidia hat aber mit TU117 noch einen deutlich kleineren aktuellen Chip im Programm (in N7 gefertigt wäre der wohl unter 120mm^2), erst darunter hat man dann Pascal (wobei Pascal immerhin noch ein Jahr neuer ist als Polaris und auch von den Features her deutlich moderner). Im Preisbereich einer GTX 1650 (nicht Super) gibt's bei AMD schlicht nichts.

HOT
2020-07-30, 04:26:46
Und das ist auch völlig ok, weil unnötig ist.

DrFreaK666
2020-07-30, 04:36:36
Und das ist auch völlig ok, weil unnötig ist.

Wieso sind solche Grafikkarten unnötig?

HOT
2020-07-30, 04:53:08
Tiger lake und Nachfolger sowie AMDs eigene APUs machen solche Chips endgültig obsolet. NV bietet hier zwar mit TU117 65x noch Chips an, das sind aber auch neue last gen Chips und der Name Gforce zieht eben noch für Notebooks.

genervt
2020-07-30, 06:35:50
Wieso sind solche Grafikkarten unnötig?

Sehe ich wie HOT. IGPs machen diese unnötig. Entweder reicht die IGP oder ne low cost dGPU bringt angesichts des Preises zu wenig Mehrleistung.
Es gibt sicher Anwendungsgebiete für so ne low cost Graka, aber ich sehe keinen Massenmarkt mehr, auch nicht bei OEMs, damit rechnet sich die Produktion nicht.
Dann besser fettere IGP mit verlötetem Sytem-RAM, muss dann aber mit breiterem BUS angebunden sein. HBM ist da eher Luxus - hab davon selbst schon geträumt...

KarlKastor
2020-07-30, 10:59:34
Es gibt immer noch viele CPUs ohne IGP.
Ist die Frage ob dort Polaris reicht oder doch was modernes her sollte.

Bucklew
2020-07-30, 10:59:48
Big Navi not so Big?

https://coreteks.tech/articles/index.php/2020/07/29/big-navi-not-so-big/

Unfortunately for us PC enthusiasts it seems the news aren’t great regarding the so-called “NVidia Killer”. The performance level of the high-end GPUs based on the codenamed Sienna Cichlid ASICs is around the same as NVidia’s last-gen top SKU, the 2080ti, according to these reports. A best case scenario supposedly shared by AMD is that at most gamers should expect to get about 15% over the 2080ti in a select AMD “optimized” titles. According to the same sources AMD is aiming to launch the “Big Navi” as a direct competitor to the soon to be launched RTX 3080, and not as a competitor to NVidia’s highest performing part as has been widely reported (let alone beat it). Some have suggested that “Big Navi” would be up to 50% faster in traditional rasterization than the RTX 2080ti but according to AMD’s partners that will not be the case.

Eher 2080Ti Niveau und damit eher 3080, als 3080Ti. Also genau die "Hackordnung", die es schon mit Vega 1 und Vega 2 gab.

robbitop
2020-07-30, 11:02:27
Wenn es wirklich nur 72 CUs sind, wäre deutlich mehr als das auch recht überraschend.

LasterCluster
2020-07-30, 11:06:46
Außerdem kann man die 4GB 5500 XT durchaus noch im gleichen Preissegment sehen wie die GTX 1650. Würde wegen den 30-40€ kein Fass aufmachen.

Ich würde aber trotzdem davon ausgehen, dass es wegen HEDT/Workstation noch einen Restbedarf an quasi-2D GPUs gibt. Dort reichen zwar auch einfach alte, mittelkleine Dies, aber alle Jahre wieder bietet sich durchaus ein richtig kleiner Chip an. RDNA2 soll ja, siehe Van Gogh, auch für richtig wenig CUs optimiert werden. Kann mir gut vorstellen, dass dort der nächste Winzling herkommt und dann 6+ Jahre am Markt bleibt.

Zergra
2020-07-30, 11:08:04
Ehrlich gesagt war das doch zu Erwarten... am Ende ist es immer das gleiche. Die Erwartung im Vorfeld sind eine Nummer zu groß.

LasterCluster
2020-07-30, 11:10:53
Eher 2080Ti Niveau und damit eher 3080, als 3080Ti. Also genau die
"Hackordnung", die es schon mit Vega 1 und Vega 2 gab.

Gott sei dank. Halo Produkt hin oder her. Diese 800€+ GPUs braucht einfach quasi niemand.

Linmoum
2020-07-30, 11:14:02
Big Navi not so Big?

https://coreteks.tech/articles/index.php/2020/07/29/big-navi-not-so-big/

Eher 2080Ti Niveau und damit eher 3080, als 3080Ti. Also genau die "Hackordnung", die es schon mit Vega 1 und Vega 2 gab.
So kennen wir bucklew. Gerüchte zu schlechterer als erwartete Ampere-Performance sind Quatsch, aber das hier stimmt natürlich.

Davon ab ist der Artikel spätestens mit dem Teil zu Navy Flounder sehr wahrscheinlich Quatsch, denn dessen PCI IDs werden bei MacOS geführt. Was darauf hindeutet, dass Apple hier mit N22 wieder einen extra Chip wie bereits mit N12 erhält.

davidzo
2020-07-30, 11:14:47
Und das ist auch völlig ok, weil unnötig ist.

Tiger lake und Nachfolger sowie AMDs eigene APUs machen solche Chips endgültig obsolet. NV bietet hier zwar mit TU117 65x noch Chips an, das sind aber auch neue last gen Chips und der Name Gforce zieht eben noch für Notebooks.


Du denkst einfach zu sehr vom Desktop und Gaming und als Europäer her. Das ist einfach nur ein Bruchteil der echten Märkte, die zudem global und regional ganz anders ticken.

Die unangefochtene Nummer 1 unter den verbauten Mobil Grafikchips ist mit großem Abstand die nvidia Geforce MX Serie, also MX150, 230, 250, 330 und demnächst 350 und 450.

AMDs Renoir APUs dringen zwar auch in diese Leistungsregionen vor, aber in 90% der global ausgelieferten Geräten steckt eine schwächere IGP.
Die meisten ausgelieferten Intel Prozessoren sind halt auch keine i7s mit G7 Grafik, sondern kleinere i5s, i3s mit G4, G1 und altes 14nm Silizium mit Krüppelgrafik 620 von 2016. Da ist also viel Platz für eine MX330 und dergleichen. Und selbst AMDs großes Volumen an IGPs ist im Durchschnitt noch schlechter als eine MX250.

Außerdem gibt es unzählige Geräte die etwa eine HD 620 mit einer MX110 kombinieren oder eine Icelake G7 mit einer MX230, die also eigentlich leistungsmäßig sehr nah beieinander liegen.
In vielen Märkten ist das nämlich egal wie schnell die IGP ist, der Kunde fordert mangels besseren Wissens eine diskrete Grafik. Selbst wenn diese langsamer ist (siehe Radeon 610) oder durch die Chassis TDP völlig ausgebremst wird.

Sinnvoll ist das zwar nicht wenn es schon effizienteres gibt, aber man sollte seinen Blick auf die Märkte nicht dadurch trüben lassen dass man immer auf die frisch erschienenen Highend APUs guckt, also Renoir mit Vega8, Icelake G7 und Tigerlake.
In manchen Regionen kannst du immer noch Geräte mit i5 7200u neu kaufen. Es ist eher selten dass solche "Resterampe-Geräte" auch mal nach Europa rüberschwappen (wie das Chuwi AeroBook Pro von 4/2020 mit Skylake 6287U).



Nvidia hat viel zu lange erfolgreich im low end mobile gewildert, traditionell war das eher ein starker Markt für AMD.

Polaris12 wird zwar heruntergereicht werden können und ist mit 102mm2 in 14nm auch lowcosttauglich, aber dadrüber gibt es nur Navi 14 der mit 158mm2 in 7nm doppelt bis dreimal so teuer in der Herstellung sein dürfte.
Wenn nvidia jetzt auch noch mit günstigen samsung 10/8nm chips kommt wird das Defizit eklatant. Da ist eine gigantische Lücke und das in AMDs wichtigstem Volumen-Markt.

Ein Update mit RDNA2 Effizienz unterhalb von Navi14 mit ca. 70-100mm2 in 7nm würde da super reinpassen und könnte nvidias MX450 und 1650 angreifen. Und letzteres werden vermutlich die meistverkauften Grafikchips in H2/20 bis 21 werden.

Hauwech
2020-07-30, 11:16:19
Wenn es wirklich nur 72 CUs sind, wäre deutlich mehr als das auch recht überraschend.

Wo kommen eigentlich die 72 CU her? Von dem moore's law Typen?

Bucklew
2020-07-30, 11:18:29
So kennen wir bucklew. Gerüchte zu schlechterer als erwartete Ampere-Performance sind Quatsch, aber das hier stimmt natürlich.
So kennen wir Linmoum. Wirft einfach zwei komplett unterschiedliche Szenarien in einen Topf und lügst dich dann noch eine Bewertung von mir hinzu.

unl34shed
2020-07-30, 11:29:27
Wo kommen eigentlich die 72 CU her? Von dem moore's law Typen?

Ja, so weit ich das mitbekommen habe schon. Der soll das von Nvidia haben und das soll deren Maßstab sein, was AMD bringt. Die Die Size ging damit dann auch von den 505 auf 430mm² runter.

rentex
2020-07-30, 11:32:49
Da haben sich zwei gefunden...

Bucklews Post (oder die Quelle) klingt schon eher im Rahmen des möglichen.
Und wenn AMD, unter den Preisen von NV bleibt, ist es doch für AMD genau so gut.

Linmoum
2020-07-30, 11:36:04
Bucklews Post (oder die Quelle) klingt schon eher im Rahmen des möglichen.Siehe meine Ausführungen zu Navy Flounder, der im Artikel als Consumer-Chip dargestellt wird. MacOS deutet hier auf einen Apple-exklusiven Chip hin, wie es bereits mit N12 zuletzt der Fall war.

Der_Korken
2020-07-30, 12:00:19
Wenn es wirklich nur 72 CUs sind, wäre deutlich mehr als das auch recht überraschend.

Finde ich gar nicht. Das sind 80% mehr als eine 5700XT, d.h. selbst bei gleicher Leistung pro CU müsste man schon im Durchschnitt 15% über der 2080Ti liegen. Da die Architektur neu ist, wird sich sicherlich auch bei der IPC was tun und mehr Takt ist aufgrund PS5- und Renoir-GPU-Taktraten recht wahrscheinlich. 2080Ti-Leistung würde imho eher zu einem 60 CU-Chip passen. Da wären dann aber sowohl die 505mm² als auch die 430mm² Quark.

Ansonsten fände ich es nicht schlimm, wenn AMD keinen 3080Ti-Gegner bringt. Warum sollen die den Preistreiber für die Nvidia-Käufer spielen? Von den Stückzahlen her ist dieser Markt für AMD eher fragwürdig.

JVC
2020-07-30, 12:10:04
Ich wäre schon mit ner soliden 16Gb Karte für ~800.- zufrieden :smile:
(mit HDMI 2.1 natürlich :wink:)

M.f.G. JVC

Badesalz
2020-07-30, 12:22:28
Im Preisbereich einer GTX 1650 (nicht Super) gibt's bei AMD schlicht nichts.Grad überlegt ob eine Vermutung, daß AMD hier genauer auf die Kundschaft in dem Segment geschaut hat und festgestellt hat, bei jener haben sie noch keine Schnitte, wäre nur aus der Luft gegriffen?

In dem "Segment" beweg ich mich öftersmal und da mavcht es für mich weiter keinen Sinn etwas von AMD zu empfehlen. D.h. auch nur testweise ;) bei Kiddis die weder was vn TDP noch sonstwas verstehen, existiert nur Nvidia.

Wer rutscht da eigentlich noch rein (Segment) außer solchen? Alle anderen hier haben sich dann eher für ein µATX und eine AMD-Apu entschieden und gegen eine extra Graka.
Eine 1650 pendelt für mich knapp unter RX470 bis in wenigen Fällen knapp über RX480.

Ich wüsste garnicht, daß die sich (1650) so brauchbar verkaufen (?)

robbitop
2020-07-30, 12:27:49
Also 4xx mm² sind IMO (sofern sie stimmen) nichts, was man als "Halo" oder als "big" bezeichnen würde. Zaubern kann niemand. 4xx mm² sind in Bezug auf die Ambition oberes Performance Segment und kein Enthusiast. Sollten die 4xx mm² stimmen (und es gibt nichts darüber) hat AMD nicht einmal versucht, etwas im (nextgen) Enthusiast Segment zu bringen.

Mal sehen, was am Ende kommt. Ggf. wird man ja auch überrascht.

Berniyh
2020-07-30, 12:29:54
Big Navi not so Big?

https://coreteks.tech/articles/index.php/2020/07/29/big-navi-not-so-big/



Eher 2080Ti Niveau und damit eher 3080, als 3080Ti. Also genau die "Hackordnung", die es schon mit Vega 1 und Vega 2 gab.
Wer soll denn das bitte glauben?
Wenn AMD mit einem einfach größeren Chip 2080 Ti Niveau hätte erreichen wollen, dann hätte man das schon vor einem Jahr mit einem leicht hochskalierten Navi10 erreichen können (wie es ja damals von einigen auch als Navi12 erwartet wurde).

Dazu kommt, dass die Effizienz laut AMD um 50% gegenüber RDNA1 steigen soll. Alleine aus der Sicht macht "nur" 2080 Ti Niveau schon wenig Sinn, denn mit 50% Effizienzsteigerung würde wohl auch eine 5700 XT schon 2080 Ti Niveau erreichen.

Wenn als Big Navi ein größerer Chip als Navi10 ist, dann ist schon zu erwarten, dass mat die 2080 Ti signifikant übertrifft und nicht gerade so erreicht oder nur 15% drauf legt.

davidzo
2020-07-30, 12:50:09
In dem "Segment" beweg ich mich öftersmal und da mavcht es für mich weiter keinen Sinn etwas von AMD zu empfehlen. D.h. auch nur testweise ;) bei Kiddis die weder was vn TDP noch sonstwas verstehen, existiert nur Nvidia.

Die Sache ist, wenn sie was von TDP verstehen würden, dann würden sie aktuell erst recht zu nvidia greifen. Und das zu recht, denn mit einer rx580 wäre das 350watt noname Netzteil ihres 500€ Kaufhaus PCs mit Athlon x4 Steamroller (nirgends gab es 2019 4 kerne so billig ;D) wahrscheinlich gnadenlos überfordert.


Wer rutscht da eigentlich noch rein (Segment) außer solchen? Alle anderen hier haben sich dann eher für ein µATX und eine AMD-Apu entschieden und gegen eine extra Graka.
Dir ist schon klar das zwischen den schnellsten AMD-Apus und einer GTX1650 noch gut Faktor 3 liegt?


Eine 1650 pendelt für mich knapp unter RX470 bis in wenigen Fällen knapp über RX480.

Wobei es beide AMD Karten hierzulande nicht mehr in neu gibt und die RX580 zwar erhältlich ist, aber einiges teurer und auch gut das doppelte verbraucht.

Zudem gibt es abseits der 200mio Einwohner Westeuropas noch viele andere Märkte die ganz andere Preisniveaus bevorzugen.
Nimm zum Beispiel Indien. Das sind 1,3 Milliarden Menschen die statt Candy Crush und Clash of Clans nur darauf warten auch endlich mal PubG, Fortnite und Valorant zu spielen. Da wo 100$ für ne GPU schon sehr viel sind gehen noch etliche GT1030s, RX 230s etc. über den Tisch denn der Gebrauchtmarkt gibt in so rasant wachsenden Märkten einfach nichts her. Die IT-affinen holen sich vielleicht einen 250€ PC mit Ryzen 2200G, andere rüsten lieber ihren Core 2 Duo mit ner "neuen" GT710 auf...

Cyberfries
2020-07-30, 13:02:01
Du denkst einfach zu sehr vom Desktop und Gaming und als Europäer her. Das ist einfach nur ein Bruchteil der echten Märkte, die zudem global und regional ganz anders ticken.

Europa ist kein "echter" Markt?
Ich habe das an anderer Stelle schon geschrieben, Altgeräte sind uninteressant.
Wenn in der zweiten und dritten Welt noch Geräte verkauft werden, die bei uns bereits aussortiert sind, lohnt sich da keine Neuentwicklung.
Die Geräte sind auch deshalb so günstig, weil da seit 2016 keine Weiterentwicklung mehr stattgefunden hat.
Da wird nichts neukonstruiert, nur weil AMD einen neuen Chip auf den Markt wirft.

Außerdem gibt es unzählige Geräte die etwa eine HD 620 mit einer MX110 kombinieren oder eine Icelake G7 mit einer MX230, die also eigentlich leistungsmäßig sehr nah beieinander liegen.

Für diese Fälle reichen Polaris & Oland völlig aus.
Wenn egal ist was drin steckt, hauptsache es ist eine dezidierte GPU vorhanden...

Wer soll denn das bitte glauben?

Wenn als Big Navi ein größerer Chip als Navi10 ist, dann ist schon zu erwarten, dass mat die 2080 Ti signifikant übertrifft und nicht gerade so erreicht oder nur 15% drauf legt.

Wer nicht gerade mit der rosaroten Hype-Brille durch die Gegend rennt, ist wohl kaum von BigNavi an der absoluten Leistungsspitze ausgegangen.
Die spekulierten Daten weisen doch eher auf zwischen 3080 und 3080TI hin.
Unter 3080 wäre tatsächlich enttäuschend, aber davon gehe ich momentan nicht aus.

DrFreaK666
2020-07-30, 13:04:38
Sehe ich wie HOT. IGPs machen diese unnötig. Entweder reicht die IGP oder ne low cost dGPU bringt angesichts des Preises zu wenig Mehrleistung.
Es gibt sicher Anwendungsgebiete für so ne low cost Graka, aber ich sehe keinen Massenmarkt mehr, auch nicht bei OEMs, damit rechnet sich die Produktion nicht.
Dann besser fettere IGP mit verlötetem Sytem-RAM, muss dann aber mit breiterem BUS angebunden sein. HBM ist da eher Luxus - hab davon selbst schon geträumt...

Wäre mir neu dass IGPs genauso schnell sind wie eine 1650

Fragman
2020-07-30, 13:08:52
Also 4xx mm² sind IMO (sofern sie stimmen) nichts, was man als "Halo" oder als "big" bezeichnen würde. Zaubern kann niemand. 4xx mm² sind in Bezug auf die Ambition oberes Performance Segment und kein Enthusiast. Sollten die 4xx mm² stimmen (und es gibt nichts darüber) hat AMD nicht einmal versucht, etwas im (nextgen) Enthusiast Segment zu bringen.

Mal sehen, was am Ende kommt. Ggf. wird man ja auch überrascht.

"Big" im Vergleich zu den amd Karten der letzten Jahren passt ja eigentlich. Nimmt man noch den 7nm Prozess dazu, ist das ja doch relativ "Big".

Die Frage ist auch, wo sieht amd das Produkt. Wie hier schon geschrieben, macht es Sinn, Grakas von über 800 zu bringen die die Masse nicht kaufen wird(?) oder bringt man ein Produkt, was sich auch "Big" verkaufen wird.

amdfanuwe
2020-07-30, 13:17:53
macht es Sinn, Grakas von über 800 zu bringen die die Masse nicht kaufen wird(?)
Man darf nicht nur die Verkaufszahlen ansehen. Wegen der hohen Gewinnmargen bei 2080S und 2080TI fahren die trotz geringerer Verkaufszahlen fast die gleichen Gewinne ein wie eine gut verkaufte 2070S. Lohnt sich also.

Brillus
2020-07-30, 13:31:39
Ich erwarte immernoch eine Karte im Bereich (+/- 10%) von 3080.

Das sagt ich als AMD Fan und Aktienbesitzer die letzten Jahre war der Hype doch immer etwas übertrieben.

LasterCluster
2020-07-30, 13:33:19
Wegen der hohen Gewinnmargen bei 2080S und 2080TI fahren die trotz geringerer Verkaufszahlen fast die gleichen Gewinne ein wie eine gut verkaufte 2070S.

Du argumentierst aber letztendlich gegen dich. Eine GPU, die den Marktbereich von 2070 bis 2080 abdeckt, hätte nach deinen Informationen den höchsten Gewinn.

Berniyh
2020-07-30, 14:02:31
Wer nicht gerade mit der rosaroten Hype-Brille durch die Gegend rennt, ist wohl kaum von BigNavi an der absoluten Leistungsspitze ausgegangen.
Die spekulierten Daten weisen doch eher auf zwischen 3080 und 3080TI hin.
Unter 3080 wäre tatsächlich enttäuschend, aber davon gehe ich momentan nicht aus.
Ich wäre jetzt auch nicht davon ausgegangen, dass Big Navi eine 3080 Ti pulverisiert, aber der wesentliche Punkt ist doch: 2080 Ti Niveau oder knapp drüber hätte man schon vor einem Jahr mit einem leicht aufgebohrten Navi10 Chip erreichen können.
Alleine deshalb erscheint es mir doch ein bisschen unwahrscheinlich, dass ein großer RDNA2 Chip dann grad so da landen soll, zumal eben laut AMD +50% Effizienz gegenüber RDNA1 angegeben wurde.

Hauwech
2020-07-30, 14:10:43
"Big" im Vergleich zu den amd Karten der letzten Jahren passt ja eigentlich. Nimmt man noch den 7nm Prozess dazu, ist das ja doch relativ "Big".

Die Frage ist auch, wo sieht amd das Produkt. Wie hier schon geschrieben, macht es Sinn, Grakas von über 800 zu bringen die die Masse nicht kaufen wird(?) oder bringt man ein Produkt, was sich auch "Big" verkaufen wird.

Wenn ich das richtig im Kopf habe, hat AMD nie offiziell von BigNavi gesprochen. Das soll laut Kumar von Fans kommen die Navi 2X als BigNavi bezeichnen. Das einzige offizielle von AMD, in dem Fall Kumar, ist halo product. Sonst gibt es nichts anderes, oder?

amdfanuwe
2020-07-30, 14:13:01
@ LasterCluster
Nö. Eine 2070S hat eine geringere Gewinnmarge. Die Menge machts.
Sei mal sicher, dass die Preise für die 2080(S|Ti) ohne Konkurrenz das Optimum für Nvidia darstellen.
Bei etwas höheren Preisen würden sie weniger verkaufen und hätten insgesamt weniger Gewinn.
Bei niedrigeren Preisen würden sie weniger pro Karte verdienen und hätten auch insgesamt weniger Gewinn. Die kennen ihre Pappenheimer und beschäftigen genug Mathematiker um ein Optimum zu erwirtschaften.

Mit Konkurrenz sieht das etwas anders aus. Hat man vor 3 Jahren den richtigen Chip geplant und kann diesen nun zum optimalen Preispunkt verkaufen oder verhagelt die Konkurrenz einem das Geschäft?
Bin mal gespannt, wie sich Nvidias Gewinne entwickeln, wenn Big Navi mitmischt.

Zergra
2020-07-30, 14:14:13
Ich wäre jetzt auch nicht davon ausgegangen, dass Big Navi eine 3080 Ti pulverisiert, aber der wesentliche Punkt ist doch: 2080 Ti Niveau oder knapp drüber hätte man schon vor einem Jahr mit einem leicht aufgebohrten Navi10 Chip erreichen können.
Alleine deshalb erscheint es mir doch ein bisschen unwahrscheinlich, dass ein großer RDNA2 Chip dann grad so da landen soll, zumal eben laut AMD +50% Effizienz gegenüber RDNA1 angegeben wurde.
Ja aber genau da kommt sie doch.... 3080 ca. 20% über der 2080TI. Wenn Navi jetzt auch ca. 20-25% über der 2080Ti ist passt das doch.

Daredevil
2020-07-30, 14:14:46
Ich erwarte immernoch eine Karte im Bereich (+/- 10%) von 3080.

Das sagt ich als AMD Fan und Aktienbesitzer die letzten Jahre war der Hype doch immer etwas übertrieben.
Du erwartest Leistung für eine Karte, anhand einer Karte, die es nicht gibt. Du schaust dir vermutlich in einer Glaskugel eine andere Glaskugel an, mh? :D

"Big Navi", sollte es denn so kommen, wie der Name lauten möchte, also weit über einer 2080ti, für einen niedrigeren Preis ohne drölftausend Watt Verbrauch wäre eine Meisterleistung für AMD, weil sie mehrere Spielplätze auf einmal bedienen.
1. Massiv mehr Perf/Watt
2. Konkurrenzfähige Raytracing Leistung ( Natürlich wird eine bessere erwartet )
3. Überschaubarer Verbrauch
4. Kosteneffektive Herstellung in einem kleinen DIE
5. Ein perfektes Gesamtpaket mit PCIe 4.0 und HDMI 2.1, zudem reichlich schneller Speicher

Wer das alles "sicher" erwartet von so einem "kleinen" Hersteller wie AMD, der geht halt nach Gefühl und nicht nach Zahlen, Daten, Fakten.
Sogar Nvidia hat sich anscheinend für eine mehrseitige Lösung entschieden ( Imho Gleiche Leistung + RT mit Turing ) und dabei sind Punkt 1, 3, 4 und 5 liegen geblieben.

Wieso sollte gerade AMD diese Punkte alle auf einmal lösen können/wollen?

mironicus
2020-07-30, 14:15:28
Es soll ja mehrere RDNA2-GPUs geben und ein Chip mit 2080Ti-Performance wäre wohl die GPU mit 3xx mm², also der mittlere.

LasterCluster
2020-07-30, 14:34:36
Nö. Eine 2070S hat eine geringere Gewinnmarge. Die Menge machts.


Und? Grob gesagt gilt Gewinn = Menge * Marge. Wie das zustande kommt kann AMD/NV (fast) egal sein. Und wenn AMD seinen Gewinn optimieren will mit N21 lohnt es sich N21 dort zu plazieren wo Marge UND Menge passt. Und das ist nach deinen Infos eher bei x70 bis x80 als x80 bis x80TI.

Die große Frage ist natürlich wie die Gesamtpalette an RDNA2 aussieht. Falls AMD einen Haufen Dies bringt, kann man natürlich wie NV einfach beide Bereiche mitnehmen. Da AMD hiefür aber noch etwas die Implementierungspower fehlt, müssen sie Prioritäten setzen. Und die liegen meiner Meinung nach ca so:
1. x60 bis x70
2. x70 bis x80
3. x50 bis x60
4. > x80
5. < x50

Kurz gesagt: Neben der Frage ob AMD überhaupt einen GA102 Killer bauen kann, gibt es noch die Frage, ob sie es überhaupt wollen.

Berniyh
2020-07-30, 14:40:21
Ja aber genau da kommt sie doch.... 3080 ca. 20% über der 2080TI. Wenn Navi jetzt auch ca. 20-25% über der 2080Ti ist passt das doch.
Der "Leak" sprach von max. 15% über 2080 Ti und lässt auch durchklingen, dass es eher weniger sein soll. ;)
Und das empfinde ich halt irgendwie als nicht realistisch.

AffenJack
2020-07-30, 14:52:10
Was haltet ihr eigentlich von Lisas Aussage im Conference Call diese Woche?

We are on track to launch RDNA 2 or as you call it big Navi late this year. We're excited about the RDNA 2 architecture. I think it's a full refresh for us from the top of the stack through the rest of the stack.

Es gibt ja Spekulationen, dass sich RDNA2 eher in den höheren Segmenten oberhalb von RDNA1 drauf setzt (Kleinster Chip ähnlich N10). Für mich ist Lisas Aussage da eher ne Absage. Einen vollen Refresh interpretiere ich so, dass auch N14 ersetzt wird und man daher auch einen kleineren Chip braucht. Ein Chip, den man ordentlich in Notebooks verbauen kann.

Berniyh
2020-07-30, 14:57:18
Soweit würde ich evtl. nicht gehen, aber zumindest macht es einen Exclusivchip für Apple (wie bei Navi12) nicht unbedingt wahrscheinlicher.

Badesalz
2020-07-30, 14:59:33
Die Sache ist, wenn sie was von TDP verstehen würden, dann würden sie aktuell erst recht zu nvidia greifen.Nein, ich meinte das selbst bei Unwissenheit bezüglich der Technik.

Dir ist schon klar das zwischen den schnellsten AMD-Apus und einer GTX1650 noch gut Faktor 3 liegt?Das ist Leuten die nicht zocken völlig egal ;)

@all
Nochmal an all die Fantasten. Mit RDNA2 gibt es das Ziel ENDLICH in vernünftig also auch recht nah an Perf/Watt/€ wenigstens bis zu 3070 mitzuspielen. Und das fände ich, der das alles der alten Zeiten wegen noch verfolgt aber keinem Fanboylager angehört, richtig richtig gut. Das wäre schonmal wie Zen1 ;)
Das wären quasi Welten zu dem was so los war nachdem Kepler, spätestens Maxwell, kam.

Ich kann die unrealistische Erwartungshaltung der meisten hier nicht verstehen. Vielleicht verwirren noch die Namen (?) RDNA1 ist noch nicht Zen1 gewesen. Hier hat man eben mehr zu erledigen UND der Gegenspieler hat hier bisher nichts versemmelt (jetzt außer den FE Boards der 2000er).

Oder ich bin zu nah an den größeren der Segmente. Unangefochtenes Godlike ist hier beständig die 1660S und nicht irgendwelche Ungetüme aus den Prestige-Forenfilterblasen.

basix
2020-07-30, 15:35:17
Der "Leak" sprach von max. 15% über 2080 Ti und lässt auch durchklingen, dass es eher weniger sein soll. ;)
Und das empfinde ich halt irgendwie als nicht realistisch.

Du sagst es. Bei einem 60 CU Chip würde ich etwas oberhalb 2080 Ti Leistung erwarten (4352 Shader Units vs. 3840 Shader Units). Dabei etwas höhere IPC und wohl einiges mehr Takt als Turing und schon ist man locker oberhalb von TU102. Eine 5700 XT hat 40 CUs und ist ca. 2/3 so schnell wie eine 2080 Ti. Nun hat man gegenüber Navi 10 +50% CUs, höhere IPC und sehr wahrscheinlich mehr Takt. Wieso soll das jetzt eng werden für die 2080 Ti?

Ein 72 CU Chip oder alles darüber wäre somit deutlich schneller als eine 2080 Ti. Je nach Takt und IPC Steigerung +33-50%. Das ist einfache Mathematik und Logik und hat nicht mal etwas mit Spekulation zu tun. Wenn ein 72 CU Chip mit 2.0 GHz kommt, wird er sich deutlich von einer 2080 Ti abheben können.

Anhand der XBSX haben wir eine Referenz mit 52 CUs. Die GPU allein wird <200W benötigen. 72 / 52 * 200W = 277W. Also, 72+ CU mit ~2.0 GHz und <300W sind extrem wahrscheinlich.

Edit:
Eine Erwartungshaltung für BigNavi ein gutes Stück überhalb einer 2080 Ti ist für mich logisch. Was deutlich unsicherer ist, ist die Konkurrenzsituation zu Ampere. Daran wird RDNA2 sich aber messen müssen.

unl34shed
2020-07-30, 15:37:30
Mit RDNA2 gibt es das Ziel ENDLICH in vernünftig also auch recht nah an Perf/Watt/€ wenigstens bis zu 3070 mitzuspielen.
...

Aber ne 3070 wäre jetzt nicht wirklich ein Halo Produkt. Woher kommt denn die Einschätzung?


Ich kann die unrealistische Erwartungshaltung der meisten hier nicht verstehen. Vielleicht verwirren noch die Namen (?) RDNA1 ist noch nicht Zen1 gewesen. Hier hat man eben mehr zu erledigen UND der Gegenspieler hat hier bisher nichts versemmelt (jetzt außer den FE Boards der 2000er).

Naja, RDNA1 hat man aber auch einfach nicht größer als 40CUs gebaut, den Markt >2070 also gar nicht erst adressiert. Mit RDNA2 sollen laut aktuellen Gerüchten (fast) doppelt so große Chips auf den Markt kommen. Wenn RDNA2 nun nur die 3070 erreichen soll, müsste Nvidia hier auch die Leistung verdoppeln... Wann gab es das denn das letzte mal bei den 70ern?

fondness
2020-07-30, 15:44:30
Was haltet ihr eigentlich von Lisas Aussage im Conference Call diese Woche?



Es gibt ja Spekulationen, dass sich RDNA2 eher in den höheren Segmenten oberhalb von RDNA1 drauf setzt (Kleinster Chip ähnlich N10). Für mich ist Lisas Aussage da eher ne Absage. Einen vollen Refresh interpretiere ich so, dass auch N14 ersetzt wird und man daher auch einen kleineren Chip braucht. Ein Chip, den man ordentlich in Notebooks verbauen kann.

Bei 50% mehr Perf/Watt durch das Design plus einiges an zusätzlichen Features macht es auch keinen Sinn alte Chips weiter zu verwenden. Von daher ist die Aussage für mich logisch. Das ist wahrscheinlich der größte Sprung durch das Design von AMD seit GCN. RDNA1 war da mehr Proof-of-concept, hat aber keine neuen Features gebracht und die Perf/Watt kam wesentlich durch 7nm. Außerdem hat man jetzt wieder die finanziellen Mittel mehr Chips zu bringen als in der Vergangenheit.

gedi
2020-07-30, 15:46:26
Du sagst es. Bei einem 60 CU Chip würde ich etwas oberhalb 2080 Ti Leistung erwarten (4352 Shader Units vs. 3840 Shader Units). Dabei etwas höhere IPC und wohl einiges mehr Takt als Turing und schon ist man locker oberhalb von TU102. Eine 5700 XT hat 40 CUs und ist ca. 2/3 so schnell wie eine 2080 Ti. Nun hat man gegenüber Navi 10 +50% CUs, höhere IPC und sehr wahrscheinlich mehr Takt. Wieso soll das jetzt eng werden für die 2080 Ti?

Ein 72 CU Chip oder alles darüber wäre somit deutlich schneller als eine 2080 Ti. Je nach Takt und IPC Steigerung +33-50%. Das ist einfache Mathematik und Logik und hat nicht mal etwas mit Spekulation zu tun. Wenn ein 72 CU Chip mit 2.0 GHz kommt, wird er sich deutlich von einer 2080 Ti abheben können.

Anhand der XBSX haben wir eine Referenz mit 52 CUs. Die GPU allein wird <200W benötigen. 72 / 52 * 200W = 277W. Also, 72+ CU mit ~2.0 GHz und <300W sind extrem wahrscheinlich.

Edit:
Eine Erwartungshaltung für BigNavi ein gutes Stück überhalb einer 2080 Ti ist für mich logisch. Was deutlich unsicherer ist, ist die Konkurrenzsituation zu Ampere. Daran wird RDNA2 sich aber messen müssen.

Sehe ich ähnlich, wenn man RT rausrechnet. Mit RT vielleicht lediglich on par mit ner Ti, allerdings ohne DLSS.

LasterCluster
2020-07-30, 16:01:28
I think it's a full refresh for us from the top of the stack through the rest of the stack.

Das macht klar, dass mittelfristig RDNA1 keinen zentralen Platz in der Produktpalette mehr haben wird wie zB Polaris nach Vega noch gehabt hat.
Nur klingt "I think" nicht sonderlich nachdrücklich. Nicht so, als würde man möglichst schnell möglichst alles ersetzen wollen. Das manche GCN und RDNA1 Geschichten noch etwas rumspuken werden ist recht wahrscheinlich

dargo
2020-07-30, 16:09:00
Also 4xx mm² sind IMO (sofern sie stimmen) nichts, was man als "Halo" oder als "big" bezeichnen würde. Zaubern kann niemand. 4xx mm² sind in Bezug auf die Ambition oberes Performance Segment und kein Enthusiast. Sollten die 4xx mm² stimmen (und es gibt nichts darüber) hat AMD nicht einmal versucht, etwas im (nextgen) Enthusiast Segment zu bringen.

Ist halt die Frage ob das neue Enthusiasten-Segment welches Nvidia mit ihren 1.000+€ eingeführt hat für AMD lukrativ genug ist? Ich würde nicht davon ausgehen.

btw.
Sind eigentlich die Packdichten zwischen 7nm TSMC und 8nm Samsung einigermaßen vergleichbar? Wenn das der Fall ist und die 427mm² für RDNA2 sowie 600+mm² für Ampere stimmen sehe ich hier eh keinen Angriff auf den schnellsten Ampere. Eher eine Nummer drunter.

LasterCluster
2020-07-30, 16:27:40
Ist halt die Frage ob das neue Enthusiasten-Segment welches Nvidia mit ihren 1.000+€ eingeführt hat für AMD lukrativ genug ist? Ich würde nicht davon ausgehen.


Exakt.

@robbitop: "Big Navi" kam seitens der Community, nicht seitens AMD. Und du überbewertest glaube ich die Bedeutung von "Halo product". Letztendlich geht es um ein positiv herrausstechendes Produkt, dass auf die ganze Marke abstrahlt. Durch welche Eigenschaft dies geschieht ist zweitrangig.

Gewichtiger ist eher die Aussage, dass man was für Enthusiasten bringen will. Und da sollte schon zumindest was im 600€+ Bereich drin sein.

Badesalz
2020-07-30, 16:29:14
Aber ne 3070 wäre jetzt nicht wirklich ein Halo Produkt. Woher kommt denn die Einschätzung?Ich schätze gesunder Menschenverstand ;) Ich selbst hab bezüglich Halo und RDNA2 nie ein Wort verloren ;)

Wobei... wenn das so abläuft wie ich das annehme, wäre das für mich persönlich schon ein Halo :tongue: wenn man sich die letzten ~6 Jahre mal anschaut.

Mit RDNA2 sollen laut aktuellen Gerüchten (fast) doppelt so große Chips auf den Markt kommen.Mal abwarten :cool: Noch glaube ich das Geseier nicht.

Cyberfries
2020-07-30, 16:36:01
2080 Ti Niveau oder knapp drüber hätte man schon vor einem Jahr mit einem leicht aufgebohrten Navi10 Chip erreichen können.

Bei einem 60 CU Chip würde ich etwas oberhalb 2080 Ti Leistung erwarten (4352 Shader Units vs. 3840 Shader Units). Dabei etwas höhere IPC und wohl einiges mehr Takt als Turing und schon ist man locker oberhalb von TU102. Eine 5700 XT hat 40 CUs und ist ca. 2/3 so schnell wie eine 2080 Ti. Nun hat man gegenüber Navi 10 +50% CUs, höhere IPC und sehr wahrscheinlich mehr Takt.

N10 war bei gleicher Shaderzahl und Taktrate noch knapp hinter Turing.
Ein theoretischer "BigRDNA1" hätte also mindestens eine doppelte 5700 sein müssen. (>360watt)
Der Großteil der 50% Effizienzgewinn geht dann dafür drauf, dass die Karte unter 300W landen muss.
Eine größere Karte skaliert außerdem immer schlechter.

Wenn das der Fall ist und die 427mm² für RDNA2 sowie 600+mm² für Ampere stimmen sehe ich hier eh keinen Angriff auf den schnellsten Ampere.

Könnte durchaus auch noch kleiner sein.
Mit HBM wäre 427mm² ein recht großer Chip, das würde für mich eher für GDDR6 sprechen.

Berniyh
2020-07-30, 16:47:46
@robbitop: "Big Navi" kam seitens der Community, nicht seitens AMD.
Lisa Su selbst hat von "Big Navi" gesprochen.
Könnte durchaus auch noch kleiner sein.
Mit HBM wäre 427mm² ein recht großer Chip, das würde für mich eher für GDDR6 sprechen.
Ich würde mich nicht zu sehr auf die 427 mm2 versteifen.
Auch der Leak zuvor bei dem 3 verschiedene Die Größen für Navi 21 bis 23 genannt wurden wurde von den meisten als "korrekt" abgenickt.

Letztendlich wissen wir derzeit nicht wie groß Navi21 werden wird. Zur Diskussion stehen derzeit 427mm2 und 505mm2.
evtl. ist es aber auch eine ganz andere Zahl korrekt …

LasterCluster
2020-07-30, 16:57:05
Lisa Su selbst hat von "Big Navi" gesprochen.


Sie sagte irgendwann was richtung "Big Navi as you call it". Sie hat das nur übernommen. Big Navi = größter RDNA2 Chip. Am Anfang war halt nicht klar, ob N21 oder 23 der größte ist. Darum nannte jemand den einfach Big Navi.

mczak
2020-07-30, 17:01:18
Sehe ich wie HOT. IGPs machen diese unnötig. Entweder reicht die IGP oder ne low cost dGPU bringt angesichts des Preises zu wenig Mehrleistung.

Zu wenig Mehrleistung? Also sorry, zwischen Renoir und einer GTX 1650 liegt so ungefähr ein Faktor 3. Tigerlake wird das auch nicht wesentlich ändern.

Eldoran
2020-07-30, 17:04:13
btw.
Sind eigentlich die Packdichten zwischen 7nm TSMC und 8nm Samsung einigermaßen vergleichbar? Wenn das der Fall ist und die 427mm² für RDNA2 sowie 600+mm² für Ampere stimmen sehe ich hier eh keinen Angriff auf den schnellsten Ampere. Eher eine Nummer drunter.
Nein, Samsung 8nm ist nicht mit Samsung 7nm oder TSMC 7nm vergleichbar. Das ist ein leicht verbesserter 10nm Prozess.
https://fuse.wikichip.org/news/1443/vlsi-2018-samsungs-8nm-8lpp-a-10nm-extension/

Berniyh
2020-07-30, 17:09:42
Sie sagte irgendwann was richtung "Big Navi as you call it". Sie hat das nur übernommen. Big Navi = größter RDNA2 Chip. Am Anfang war halt nicht klar, ob N21 oder 23 der größte ist. Darum nannte jemand den einfach Big Navi.
Mag sein, aber an der Stelle ist es nicht sonderlich relevant wer den Begriff erfunden hat.
Sie hat ihn verwendet, das ist entscheidend.

unl34shed
2020-07-30, 17:11:51
Hat sie auch schon im Januar "Big Navi" genannt: https://videocardz.com/newz/amds-lisa-su-you-gonna-see-big-navi-in-2020

BlacKi
2020-07-30, 17:19:21
AMD’s CFO Devinder Kumar said that Big Navi will be AMD’s first RDNA 2 product. He admitted that “there’s a lot of excitement for Navi 2, or what our fans have dubbed as the Big Navi“, which led him to say “Big Navi is a halo product” and “enthusiasts love to buy the best, and we are certainly working on giving them the best”.
https://videocardz.com/newz/amd-big-navi-to-arrive-before-next-generation-consoles

damit ist doch alles klar. big navi kommt vor allen anderen navi produkten und wird schneller als die 2080ti.

wäre denn eine 3070 denn auch schneller als eine 2080ti? unwahrscheinlich, aber vl nah dran. aber ein halo produkt, wäre sollte IMHO schon das schnellste produkt auf dem markt sein.

wenn man die konkurenz in seine sätze bezieht, dann sollten solche aussagen wie "the best" nicht nur auf das eigene portfolio bezogen werden dürfen.

kein wunder wenn dann solche hypetrains an fahrt aufnehmen und dann brutalst crashen...

LasterCluster
2020-07-30, 17:22:17
Danke für den Link!

Lisa Su: [laughs] I know those on Reddit want a high end Navi! You should expect that we will have a high-end Navi, and that it is important to have it. The discrete graphics market, especially at the high end, is very important to us. So you should expect that we will have a high-end Navi, although I don’t usually comment on unannounced products.

Ich denke, dass drückt Sus Aussagen in der Öffentlichkeit ganz gut aus: Man will ins High-End. Ja. Heißt das zwingend, dass man 3080Ti/3090/Titan Ampere schlagen will/kann. Nein.

@Berniyh: ich wollte nur sagen, dass hinter dem Begriff "Big Navi" keine Ankündigung/Absichtserklärung steckt. Es geht einfach nur um den größten RDNA2 Chip.

Edit: @BlacKi: Da haste Recht, Kumars Aussagen kommen wesentlich aggresiver rüber. Vor allem wegen dem Superlativ

Hauwech
2020-07-30, 17:33:13
Danke für den Link!



Ich denke, dass drückt Sus Aussagen in der Öffentlichkeit ganz gut aus: Man will ins High-End. Ja. Heißt das zwingend, dass man 3080Ti/3090/Titan Ampere schlagen will/kann. Nein.

@Berniyh: ich wollte nur sagen, dass hinter dem Begriff "Big Navi" keine Ankündigung/Absichtserklärung steckt. Es geht einfach nur um den größten RDNA2 Chip.

Edit: @BlacKi: Da haste Recht, Kumars Aussagen kommen wesentlich aggresiver rüber. Vor allem wegen dem Superlativ

Da Kumar als CFO auf einer Veranstaltung einer Bank gesprochen hat, ist es nicht überraschend und das was die Leute hören wollen.

BlacKi
2020-07-30, 17:40:08
selbst wenn er nur die 2080ti gemeint hat, muss man das auf eine 2 jahre alte karte beziehen. da bekommt die beschreibung von einem halo produkt einen faden beigeschmack. frau su hat alles offen gelassen. und wenn man frau su auf das wort halo in bezug auf das erste rdna2 produkt ansprechen würde, dann würde sie das wohl nicht bestätigen, aus gleich mehreren gründen.

dargo
2020-07-30, 18:05:10
Nein, Samsung 8nm ist nicht mit Samsung 7nm oder TSMC 7nm vergleichbar. Das ist ein leicht verbesserter 10nm Prozess.
https://fuse.wikichip.org/news/1443/vlsi-2018-samsungs-8nm-8lpp-a-10nm-extension/
Dann anders gefragt... wie groß wäre ein 427mm² RDNA2 in Samsungs 8nm Fertigung?

Cyberfries
2020-07-30, 18:18:06
Hier im Forum wurden mal als Transistorendichte für 8nm 32-35mrd/mm² angesetzt.
Damit kommt man schnell auf ca.550mm².

Langlay
2020-07-30, 18:40:35
Aber ne 3070 wäre jetzt nicht wirklich ein Halo Produkt. Woher kommt denn die Einschätzung?


Kommt auf den Preis an. (Extrembeispiel was so sicherlich nicht eintretten wird) aber 3070 Leistung für 399€ und 3080 Leistung für 499€ wäre z.b. schon ein Halo Produkt. Und sowas gabs in der Geschichte auch schonmal :


https://www.anandtech.com/show/2556/23

For now, the Radeon HD 4870 and 4850 are both solid values and cards we would absolutely recommend to readers looking for hardware at the $200 and $300 price points. The fact of the matter is that by NVIDIA's standards, the 4870 should be priced at $400 and the 4850 should be around $250. You can either look at it as AMD giving you a bargain or NVIDIA charging too much, either way it's healthy competition in the graphics industry once again (after far too long of a hiatus).



Mit HBM wäre 427mm² ein recht großer Chip, das würde für mich eher für GDDR6 sprechen.

Das wäre kleiner als Vega10 (495mm²)

genervt
2020-07-30, 19:55:55
Zu wenig Mehrleistung? Also sorry, zwischen Renoir und einer GTX 1650 liegt so ungefähr ein Faktor 3. Tigerlake wird das auch nicht wesentlich ändern.

Deine 1650 liegt aber bei 200mm2 Die Size. Du wolltest doch deutlich unter 150mm2 bleiben. Damit sinkt die Leistung entsprechend. Aus meiner Sicht ist die Sub 100€ Klasse durch IGP und Gebrauchtmarkt aus Leistungssicht obsolet. Denn man bekommt schon mit 20€ Aufpreis eine überproportional schnellere GPU und diese sind die bessere Wahl.
Ich hoffe stark, dass AMD diesmal ein komplettes Line-Up bringt. Nvidia besetzt zuverlässig jeden Preispunkt während bei AMD Lücken klaffen.

davidzo
2020-07-30, 23:19:40
Deine 1650 liegt aber bei 200mm2 Die Size. Du wolltest doch deutlich unter 150mm2 bleiben.

Der 7nm Node ist von den Flächen nicht vergleichbar mit 16/14/12nm nodes. Bei Turing ist bekannt dass man statt dem sehr kostenintensiven 7nm lieber einen auf power und kosten pro transitor optimierten 12nm node verwendet hat. Das ist jetzt nicht verwunderlich wenn ein solcher chip dann flächenmäßig viel größer ist als ein 7nm Chip in dem markt. Navi 14 ist trotz "nur" 158mm2 ein klar teurerer Chip als TU117.

SKYNET
2020-07-31, 00:27:25
N10 war bei gleicher Shaderzahl und Taktrate noch knapp hinter Turing.
Ein theoretischer "BigRDNA1" hätte also mindestens eine doppelte 5700 sein müssen. (>360watt)
Der Großteil der 50% Effizienzgewinn geht dann dafür drauf, dass die Karte unter 300W landen muss.
Eine größere Karte skaliert außerdem immer schlechter.



Könnte durchaus auch noch kleiner sein.
Mit HBM wäre 427mm² ein recht großer Chip, das würde für mich eher für GDDR6 sprechen.


grössere karten skalieren besser... ne 2080Ti auf den verbrauch einer 2060S gedrosselt macht die 2060S gnadenlos nackig... und nen 80CU RDNA mit der rohleistung der 2080Ti, wäre auch bei <250W gelandet.

um so grösser der chip, um so geringer der verbrauch bei gleicher leistung wie die kleinen chips.

mczak
2020-07-31, 05:14:01
Deine 1650 liegt aber bei 200mm2 Die Size. Du wolltest doch deutlich unter 150mm2 bleiben. Damit sinkt die Leistung entsprechend. Aus meiner Sicht ist die Sub 100€ Klasse durch IGP und Gebrauchtmarkt aus Leistungssicht obsolet. Denn man bekommt schon mit 20€ Aufpreis eine überproportional schnellere GPU und diese sind die bessere Wahl.

Es geht hier nicht um unter 100 Euro - da bin ich einverstanden, da ist man dann rasch in einem Bereich wo's ein IGP wohl auch tut.
Aber eine GTX 1650 kriegt man eben für ~130 Euro, bei AMD gibt's die günstigste moderne Karte ab ~170 Euro. Das ist schon ein deutlicher Unterschied. Und dass ein TU117 in 7nm deutlich kleiner wäre als Navi 14 wurde ja schon erwähnt (meine Schätzung war unter 120mm^2). GTX 1650 brauchen (zumindest teilweise) auch keinen separaten Stromanschluss und können auch deutlich kompakter ausfallen gegenüber den RX 5500 (die sind alle auf 130W ausgelegt). Und auch für Notebooks wäre ein kleinerer Chip dringend nötig.

basix
2020-07-31, 09:09:21
grössere karten skalieren besser... ne 2080Ti auf den verbrauch einer 2060S gedrosselt macht die 2060S gnadenlos nackig... und nen 80CU RDNA mit der rohleistung der 2080Ti, wäre auch bei <250W gelandet.

um so grösser der chip, um so geringer der verbrauch bei gleicher leistung wie die kleinen chips.

Er hat eine andere Skalierung gemeint: Performance skaliert nicht perfekt linear mit mehr Einheiten nach oben. Beim Stromverbrauch ist es klar, mehr Einheiten kann man niedriger takten.

N10 war bei gleicher Shaderzahl und Taktrate noch knapp hinter Turing.
Ein theoretischer "BigRDNA1" hätte also mindestens eine doppelte 5700 sein müssen. (>360watt)

Eine 2080 Ti ist 70% schneller als eine 5700 non-XT. Somit wäre eine doppelte RX 5700 mit 72 CU und 512bit(!) SI bei 360W also ca. 15% schneller. Mit -5% reduziertem Takt und 384bit SI kommt man auf 300W. Voilà, 2080 Ti Bezwinger. Hätte sich so eine Karte wirtschaftlich gelohnt? Eher nein, da 1-1.5 Jahre zu spät.

Der Großteil der 50% Effizienzgewinn geht dann dafür drauf, dass die Karte unter 300W landen muss.

Eben nicht, dass ist das was Skynet angedeutet hat. Leistungsaufnahme skaliert (ideal) kubisch mit dem Takt. +10% Takt bedeuten also +33% Leistungsaufnahme. Umso näher man am Limit des Chips ist, wird es noch extremer (siehe 2080 Ti mit 300W vs. 400W mit vielleicht 100MHz mehr Takt).

Edit:
Also wenn man das zusammenfassen will: RDNA1 mit 72-80 CU wäre genug gewesen, um eine 2080 Ti zu schlagen. Nur eben zu spät am Markt. Und jetzt soll RDNA2 mit der selben Konfiguration aber +50% Effizienzsteigerung gegenüber RDNA1 die 2080 Ti nicht deutlich schlagen? Wäre doch unlogisch ;)

Cyberfries
2020-07-31, 10:45:48
Das wäre kleiner als Vega10 (495mm²)

Etwa so groß wie Hawaii (438mm²) mit 512bit Interface. Deutlich größer als die VII (331mm²) mit 4096bit Interface.
Beide zu ihrem Erscheinungsdatum die Speerspitze im Programm.

grössere karten skalieren besser...
um so grösser der chip, um so geringer der verbrauch bei gleicher leistung wie die kleinen chips.

Bei gleichem Takt führt eine Verdopplung der Recheneinheiten nicht zu einer Verdopplung der Leistung.
Es ist schwieriger einen großen Chip sinnvoll zu Verwalten und Auszulasten.

Mit -5% reduziertem Takt ....

Leistungsaufnahme skaliert (ideal) kubisch mit dem Takt. +10% Takt bedeuten also +33% Leistungsaufnahme.

Also, 72+ CU mit ~2.0 GHz und <300W sind extrem wahrscheinlich.

An einer Stelle mit 2GHz argumentieren und an anderer Stelle den Takt deutlich reduzieren wollen...

Eine 2080 Ti ist 70% schneller als eine 5700 non-XT. Somit wäre eine doppelte RX 5700 mit 72 CU und 512bit(!) SI bei 360W also ca. 15% schneller. Mit -5% reduziertem Takt und 384bit SI kommt man auf 300W. Voilà, 2080 Ti Bezwinger.


Was du beschreibst ist eine doppelte 5600.
Diese Karte ist aber bereits wieder zu langsam, siehe 3dcenter-4k-Index 114% zu 228% für die 2080TI.
Und das ist wie gesagt eine ideale Verdopplung, keine reale.

Und jetzt soll RDNA2 mit der selben Konfiguration aber +50% Effizienzsteigerung gegenüber RDNA1 die 2080 Ti nicht deutlich schlagen? Wäre doch unlogisch ;)

Weil ein Gerücht von bestenfalls 15% ausgeht?
Hängt euch doch nicht so sehr an einem unbestätigten Zahlenwert Monate vor Erscheinungsdatum auf.
Worauf bezieht sich der Wert? Ist die 2080TI Referenz, FE, übertaktet? Ist N21 ein frühes Sample oder bereits fertig? Welche Konfiguration? Welches Einsatzszenario?

JVC
2020-07-31, 12:14:18
Naja, die 50% Effizienzsteigerung strebt man ja schon zum 2ten mal an...
Die ersten versprochenen 50% hat man ja leicht übertroffen.
Ich schätze mal, das man die 2ten versprochenen 50% auch nicht total verfehlen wird.

M.f.G. JVC

Berniyh
2020-07-31, 12:33:49
Noch mal ein vager Hinweis auf HBM bei Sienna Cichlid:
+ /* For Navi12 and CHIP_SIENNA_CICHLID SRIOV, do not set up TMR.
+ * Already set up by host driver.
+ */
+ if (amdgpu_sriov_vf(psp->adev) && psp_skip_tmr(psp))
+ return 0;

TMR steht für "Trusted Memory Region".
Ist hier aber erst mal nicht entscheidend, es geht nicht darum ob die Chips das haben oder nicht, sondern darum wie es geladen wird.
Meistens an der Stelle, aber bei Navi12 und Sienna Cichlid eben vorher bereits durch den Treiber.

Warum also bei den beiden nun anders als beim Rest?
Möglicherweise, weil Sienna Cichlid genauso wie Navi12 HBM nutzt?
Nicht zuletzt ist das ja einer der wesentlichen Unterschiede zwischen Navi10 und 12.
Es gibt aber auch noch ein paar andere Unterschiede, insofern kann das leider auch nicht als Beweis dienen.
Fand es hauptsächlich interessant und erstaunlich, dass man eben gerade diese beiden Chips gruppiert.

Edit: Link zum Commit:
https://cgit.freedesktop.org/~agd5f/linux/commit/?id=ed900b4945776bb8870eab82516de2e31d928f4f

Lehdro
2020-07-31, 13:08:34
Leistungsaufnahme skaliert (ideal) kubisch mit dem Takt. +10% Takt bedeuten also +33% Leistungsaufnahme.
Stimmt so nicht.

Leistungsaufnahme skaliert linear mit dem Takt und quadratisch mit der Spannung. Deswegen sind Sweetspots so wichtig wenn man effizient sein will.

mironicus
2020-07-31, 13:13:13
Was wäre eigentlich schneller? Ein Chip mit weniger CU (z.B. 72) und sehr hohem Takt (2,2 GHz) oder ein Chip mit mehr CU (>80) und weniger Takt?

LasterCluster
2020-07-31, 13:19:37
Noch mal ein vager Hinweis auf HBM bei Sienna Cichlid:
+ /* For Navi12 and CHIP_SIENNA_CICHLID SRIOV, do not set up TMR.
+ * Already set up by host driver.
+ */
+ if (amdgpu_sriov_vf(psp->adev) && psp_skip_tmr(psp))
+ return 0;

TMR steht für "Trusted Memory Region".
Ist hier aber erst mal nicht entscheidend, es geht nicht darum ob die Chips das haben oder nicht, sondern darum wie es geladen wird.
Meistens an der Stelle, aber bei Navi12 und Sienna Cichlid eben vorher bereits durch den Treiber.

Warum also bei den beiden nun anders als beim Rest?
Möglicherweise, weil Sienna Cichlid genauso wie Navi12 HBM nutzt?
Nicht zuletzt ist das ja einer der wesentlichen Unterschiede zwischen Navi10 und 12.
Es gibt aber auch noch ein paar andere Unterschiede, insofern kann das leider auch nicht als Beweis dienen.
Fand es hauptsächlich interessant und erstaunlich, dass man eben gerade diese beiden Chips gruppiert.

Edit: Link zum Commit:
https://cgit.freedesktop.org/~agd5f/linux/commit/?id=ed900b4945776bb8870eab82516de2e31d928f4f

Würde dann aber bedeuten, dass N22 kein HBM hat und es damit unwahrscheinlicher wird ein reines Appleprodukt zu sein. Das würde wiederum dazu passen, dass AMD RDNA2 von oben bis unten bringen will.

Mehr Kaffee bitte! ;)

Berniyh
2020-07-31, 13:20:00
Was wäre eigentlich schneller? Ein Chip mit weniger CU (z.B. 72) und sehr hohem Takt (2,2 GHz) oder ein Chip mit mehr CU (>80) und weniger Takt?
Die Frage ist nicht beantwortbar, da es von der Geschwindigkeit der CUs und den genauen Taktraten abhängt.
Genauso könntest du fragen was schneller ist: ein Auto mit wenig Hubraum, aber hoher Drehzahl oder eins mit viel Hubraum und niedrigerer Drehzahl
Auch da sind die Angaben unvollständig.

Das einzige, was man mit hoher Wahrscheinlichkeit sagen kann ist, dass der Chip mit mehr CU und niedrigerem Takt bei gleicher Performance eine geringere Leistungsaufnahme hätte.

Berniyh
2020-07-31, 13:22:43
Würde dann aber bedeuten, dass N22 kein HBM hat und es damit unwahrscheinlicher wird ein reines Appleprodukt zu sein. Das würde wiederum dazu passen, dass AMD RDNA2 von oben bis unten bringen will.
Ja, davon ging ich aus den bisherigen Infos aus dem Treiber ohnehin schon aus. (sicher ist das aber auch noch nicht)

Falls Navy Flounders es ins Consumergeschäft schafft, dann würde ich schätzen, dass so ca. 2 Monate zwischen den Chips Sienna Cichlid und Navy Flounders liegen.
Navi23 hingegen dürfte wohl einiges später kommen, davon haben wir jetzt ja schon ewig nichts mehr gehört.

DrumDub
2020-07-31, 13:25:56
Was wäre eigentlich schneller? Ein Chip mit weniger CU (z.B. 72) und sehr hohem Takt (2,2 GHz) oder ein Chip mit mehr CU (>80) und weniger Takt? das kann man so pauschal nicht sagen, da eben noch jede menge andere faktoren mit reinspielen. ein breiterer chip ist größer und daher auch teurer zu produzieren. insofern ist ein kleiner chip mit hohen taktraten günstiger, aber wenn ich dann wiederrum die spannun gstark erhöhen muss, um die gewüschhte leistung zu ererichen, dann gibts probleme mit der stabilität und leistungungsaufnahme. ein breiterer chip ist dann eigentlich wieder im vorteil, aber evnetuell zu teuer um mit dem kleineren chip konkurrieren zu können.


Das einzige, was man mit hoher Wahrscheinlichkeit sagen kann ist, dass der Chip mit mehr CU und niedrigerem Takt bei gleicher Performance eine geringere Leistungsaufnahme hätte. exakt. wobei es da eben auch noch eventuell leckströme gibt. ;)

HOT
2020-07-31, 14:20:48
SC und NF dürften gleichzeitig auf den Markt kommen, Navi23 wird erst später erscheinen, der ersetzt dann ja N10.

Die 50% mehr Perf/W schafft beispielsweise Arcturus spielend ggü. V20, das werden eher 60% bessere Perf/W sein.

Das dürfte dann wie folgt aussehen nach jetzigem Kenntnisstand:

SC -> 427mm² N7P
80 CUs + 3,2GT/s HBM2E (N10 XT + 120%)
72 CUs + 2,4GT/s HBM2 (N10 XT + 100%)

NF -> ~330mm² N7P
60 CUs + 15,5 GT/s GDDR6 384Bit (N10 XT + 70%)
52 CUs + 14 GT/s GDDR6 384Bit (N10 XT + 50%)

basix
2020-07-31, 15:05:15
Stimmt so nicht.

Leistungsaufnahme skaliert linear mit dem Takt und quadratisch mit der Spannung. Deswegen sind Sweetspots so wichtig wenn man effizient sein will.

Tüpfchenscheisser :rolleyes: Weil Spannung normalerweise linear mit dem Takt skaliert, Resultat = kubisch. Aber du hast es natürlich genauer beschrieben :D

Cyberfries
2020-07-31, 16:03:03
SC und NF dürften gleichzeitig auf den Markt kommen, Navi23 wird erst später erscheinen, der ersetzt dann ja N10.

Die 50% mehr Perf/W schafft beispielsweise Arcturus spielend ggü. V20, das werden eher 60% bessere Perf/W sein.

Das dürfte dann wie folgt aussehen nach jetzigem Kenntnisstand:

SC -> 427mm² N7P
80 CUs + 3,2GT/s HBM2E (N10 XT + 120%)
72 CUs + 2,4GT/s HBM2 (N10 XT + 100%)

NF -> ~330mm² N7P
60 CUs + 15,5 GT/s GDDR6 384Bit (N10 XT + 70%)
52 CUs + 14 GT/s GDDR6 384Bit (N10 XT + 50%)

Wenn man sich Blödsinn aus den Fingern zieht sollte man ihn auch kenntlich machen und nicht versuchen dem einen seriösen Anstrich zu geben
durch Bekräftigungen oder Formulierungen wie "nach jetzigem Kenntnisstand".
Sofern AMD nicht völlig neue Wege des Chipaufbaus nutzt und seine bisherige Produktpolitik komplett über den Haufen wirft, passt an diesen Spekulationen nichts zusammen.

Birdman
2020-07-31, 16:44:37
Weil Spannung normalerweise linear mit dem Takt skaliert
Äh, nicht wirklich, zwischen Takt und Spannung gibt es keine direkte Korrelation.

Der_Korken
2020-07-31, 17:13:01
Äh, nicht wirklich, zwischen Takt und Spannung gibt es keine direkte Korrelation.

Eine Korrelation gibt es schon, aber eine absolut nichtlineare *klugscheiß* :D

dargo
2020-07-31, 18:11:38
Ein Blick in den Wattman reicht eigentlich aus.
https://pics.computerbase.de/8/8/4/0/9/1-1080.c3f6d249.jpg

HOT
2020-07-31, 18:25:33
Wenn man sich Blödsinn aus den Fingern zieht sollte man ihn auch kenntlich machen und nicht versuchen dem einen seriösen Anstrich zu geben
durch Bekräftigungen oder Formulierungen wie "nach jetzigem Kenntnisstand".
Sofern AMD nicht völlig neue Wege des Chipaufbaus nutzt und seine bisherige Produktpolitik komplett über den Haufen wirft, passt an diesen Spekulationen nichts zusammen.

Bitte konstruktiv nicht destruktiv, danke.

Thunderburne
2020-07-31, 18:49:23
https://www.gamestar.de/artikel/big-navi-vs-rtx-3000,3360381.html

Neurosphere
2020-07-31, 19:07:26
Who the Hell is Coreteks?

ChaosTM
2020-07-31, 19:23:29
Ein Dampfplauderer aber irgendwie unterhaltsam ^

Locuza
2020-07-31, 20:10:31
Rogame hat beim neustem Treiber nun Konfigurationseinträge zu Navi21 bzw. Sienna Cichlid gefunden:
https://twitter.com/_rogame/status/1289239501647171584

Es gibt 4 Shader-Engines, dass wäre praktisch ein 8-Faches Frontend, wenn AMD es wie bisher aufbaut.
Jede Shader-Engine hat 2 Shader-Arrays und es gibt wie bei Navi10 5WGPs/10CUs pro SA.
Eine Reduktion stellen die ROPs dar, anstatt 32 ROPs pro SE gibt es nur die Hälfte.
Also insgesamt hat Big Navi nach wie vor 64 ROPs.

Linmoum
2020-07-31, 20:33:37
Dann kann man die zuletzt umhergeisternden max. 72CU auch endgültig wieder zu den Akten legen.

robbitop
2020-07-31, 20:35:14
ROPs sollten praktisch nie limitieren. In modernen Renderpipelines von AAA Spielen verbringt die GPU sicherlich deutlich mehr Takte mit der Berechnung der Pixelfarbe (Texturfilterubg, Shading, Compute etc) als sie diese schreibt und liest.

80 CUs wären schon, sollten die ~430mm2 stimmen, echt sportlich. Wäre definitiv gesund für den Markt, wenn AMD auch ein wettbewerbsfähiges Enthusiastprodukt bringt.
Mit Fiji, Vega10 und Vega20 fehlte leider die Wettbewerbsfähigkeit absoluten High End.

dargo
2020-07-31, 20:50:23
Wenn das Ding 20+ TFLOPs raushaut hat AMD wieder eine riesen Lücke zur RX 5700 XT. Ich hoffe da kommt noch was dazwischen mit RDNA2. Ein 60 CU Navi 2.x?

ChaosTM
2020-07-31, 21:02:11
Wie sollte AMD den Vorsprung NVs auf/überholen mit dem Budget - außer Lisa is wirklich eine Hexe.
AMD hat nur dann eine echte Chance, wenn NV einen Intel hinlegt.

rentex
2020-07-31, 21:05:11
NV ist nicht Intel!

Linmoum
2020-07-31, 21:12:36
Wie sollte AMD den Vorsprung NVs auf/überholen mit dem Budget - außer Lisa is wirklich eine Hexe.
AMD hat nur dann eine echte Chance, wenn NV einen Intel hinlegt.Haben sie mit RDNA doch schon was reine Perf/Watt angeht, da ist man mit Turing auf identischem Niveau.

Ich bleibe dabei, GA102 mit 84SM und N21 mit 80CU und wir werden unter diesen Umständen beide in einem identischen Performancefenster (+-10%) sehen.

Neurosphere
2020-07-31, 21:23:56
Ich bleibe dabei, GA102 mit 84SM und N21 mit 80CU und wir werden unter diesen Umständen beide in einem identischen Performancefenster (+-10%) sehen.

+1

Gleiche Annahme habe ich auch. NV hat mit Samsung den schlechteren Prozess als AMD mit TSMC, somit kann man die Prognosen zur Chipfläche schlecht vergleichen. NV hat mit Turing die bessere Ausgangslage gehabt, aber AMD ist mit RDNA 1 dicht dran. Wenn RDNA 2 schafft was AMD verspricht sollte man auf ein solches Level kommen können was NV mit Ampere auch erreichen will.

Abwarten, es dürfte ja nicht mehr zu lange dauern und man weiß in welchen Regionen gewildert wird.

Der_Korken
2020-07-31, 21:30:20
Wenn das Ding 20+ TFLOPs raushaut hat AMD wieder eine riesen Lücke zur RX 5700 XT. Ich hoffe da kommt noch was dazwischen mit RDNA2. Ein 60 CU Navi 2.x?

Ich glaube, dass N10 in so einem Fall einfach relativ schnell ersetzt wird, weil die Effizienz deutlich schlechter ist und das Ding kein HW-RT kann. Dann würde AMD ein komplettes Lineup bringen, losgelöst davon, wie sich die N1X-GPUs da einsortieren würden. Also so wie AMD es bis GCN1 (und Nvidia durchgängig) gemacht hat. Beispiel: N21 = 80CUs, N22 = 48CUs, N23 = 32CUs.

gedi
2020-07-31, 21:40:45
NV ist nicht Intel!

Trotzdem war bereits Navi 1 min. auf NV Niveau was Perf/Watt angeht, s. z.B. die 5600XT-Performance. Klar ist die Karte angesichts des Preises witzlos, aber trotzdem sollte man Fakten nicht wegdiskutieren.

Zudem: Komplett neue PCB-Struktur, ein neues ATX-Design seitens Ampere. Alles klingt für mich nach NV30

Thunderburne
2020-07-31, 21:45:15
https://wccftech.com/amds-big-navi-gpu-codenamed-sienna-cichlid-will-allegedly-feature-5120-stream-processors/

gedi
2020-07-31, 21:49:27
Meine Worte

Berniyh
2020-07-31, 21:51:41
Ist doch das gleiche wie oben nur mit 1000 Wörtern Text umrahmt.

y33H@
2020-07-31, 21:52:14
"Equipped with a process advantage over its competitors, and with NVIDIA backed into a corner with its expensive Turing chips, this is one of the biggest opportunities for AMD Radeon to shine again."

LOL ^^

gedi
2020-07-31, 21:59:27
Warum LOL-weil es dir nicht in den Kram passt, weil du genaueres über die Fertigungskosten und Verträge weißt (?) - LOL

TheGood
2020-07-31, 22:20:16
Ne weil es nicht passieren wird, da AMD auch Geld verdeinen muss und das tun wird. DAs ist jetzt nicht böse gemeint, aber Navi 10 hats doch schon gezeigt. Vielleicht ist der Preisunterschied im High End etwas höher, aber AMD hat schlichtweg nichts zu verschenken.

basix
2020-07-31, 22:46:36
An einer Stelle mit 2GHz argumentieren und an anderer Stelle den Takt deutlich reduzieren wollen...


5% ist deutlich? OK, wie du willst. Jeder hat seine eigenen Ansichten. Und die 2 GHz kommen von den Konsolen mit RDNA2 und nicht RDNA1 und haben keinen Zusammenhang mit der Taktreduktion eines hypothetischen RDNA1 Chips.


Was du beschreibst ist eine doppelte 5600.
Diese Karte ist aber bereits wieder zu langsam, siehe 3dcenter-4k-Index 114% zu 228% für die 2080TI.
Und das ist wie gesagt eine ideale Verdopplung, keine reale.

Richtig, eine 5600, kam mir gar nicht in den Sinn. Dann mal Faktencheck: Das 2. BIOS einer Sapphire Pulse mit 135W ist so schnell wie die Basiskonfiguration. Und das entspricht auch dem, was die Standardkarte verbraucht: https://www.computerbase.de/2020-01/radeon-rx-5600-xt-test/3/#abschnitt_messung_der_leistungsaufnahme Wo landest du also mit einer 300W Karte?

Egal wie du es drehst oder wendest, eine 300W Navi Karte mit 72-80 CUs wäre schneller als eine 2080 Ti FE gewesen. Ob 5% oder 20% ist eine andere Frage, darum ging es aber nicht.


Weil ein Gerücht von bestenfalls 15% ausgeht?
Hängt euch doch nicht so sehr an einem unbestätigten Zahlenwert Monate vor Erscheinungsdatum auf.
Worauf bezieht sich der Wert? Ist die 2080TI Referenz, FE, übertaktet? Ist N21 ein frühes Sample oder bereits fertig? Welche Konfiguration? Welches Einsatzszenario?

Das Gerücht ist ein Gerücht unter vielen. Wenn ein Twitterer / Youtuber / Leaker 15% sagt ist das dann am Wahrscheinlichsten? Was ist denn die am besten gesicherte Info? +50% Effizienzsteigerung direkt von AMD. Diese ist in Performance / Watt gemeint. Diese Zahl wurde im März 2020 von AMD kommuniziert. Wieso ist dieses Datum wichtig? AMD wird zu diesem Zeitpunkt bereits RDNA2 Silizium in den Labors gehabt haben (ob N21 oder Konsolenchips ist egal). Diese Zahl wird also ziemlich gut zutreffen. Wenn es wie bei RDNA1 läuft, wird es sogar übertroffen.

Du kannst es ja selbst mit einer 5600, 5700 oder 5700 XT durchrechnen und in allen Fällen wirst du bei 250-300W ein gutes Stück über einer 2080 Ti FE landen. Wieso FE? Weil das die Variante ist, welche überall gebencht wurde. Mit einer 5700 XT (welche nicht am Sweet Spot läuft) und 250W für Big Navi kommt man in 4K auf +12% Performance (250/220*1.5/1.53). Könnte mit dem Gerücht übereinstimmen. Nimm eine 5600 mit 150W als Basis, dann bist du bei 250W bei +25% Performance. Nimm eine 5600 mit real 135W als Basis, dann bist du bei 250W bei +38% Performance. Sobald du aber in Richtung 300W gehst, was die momentane Gerüchtelage ist, wird nochmals mehr.

Fazit: 250-300W RDNA1 mit 72-80 CU hätte eine 2080 Ti FE geschlagen. Was macht also ein BigNavi mit höherer Effizienz? Sicher nicht nur +15%...aber wir sind hier ja im Speku-Forum. Wenn du das Gefühl hast die 15% passen besser, dann sei dir das gegönnt. Ich sehe viele Indizien, dass dies zu wenig ist.

Dampf
2020-07-31, 23:30:26
Neues Gerücht zur Speicherausstattung von Big Navi:

https://twitter.com/_rogame/status/1289281758618419200

ChaosTM
2020-07-31, 23:31:59
Radeon VII hat schon 16.. mach keine Sinn.

Dampf
2020-07-31, 23:33:17
Radeon VII hat schon 16.. mach keine Sinn.

Andere Zielgruppe, andere Architektur, andere Speicherart.

Linmoum
2020-07-31, 23:42:25
Mir unabhängig vom Hersteller völlig egal. Wer nur 12GiB anbietet und für sowas Ende 2020 dann >800€ verlangen sollte, kann seinen Quatsch behalten.

Dampf
2020-08-01, 00:03:56
Mir unabhängig vom Hersteller völlig egal. Wer nur 12GiB anbietet und für sowas Ende 2020 dann >800€ verlangen sollte, kann seinen Quatsch behalten.

Dann überspringt die Generation halt. Obs jetzt 16 oder 12 GB sind wird fast niemanden jucken.

Linmoum
2020-08-01, 00:17:20
Wird gerade Enthusiasten jucken. Also solche, die bereit sind, hohe Preise zu zahlen und gerade solche, die jetzt schon mit >=11GiB unterwegs sind.

Für 2080Ti oder Titan/VII-Besitzer, ggf. auch solche einer 1080Ti, sicher toll so ein Schwachsinn.

Aber ich zitiere nur mal AMD: AMD is leading the industry at providing gamers with high VRAM graphics solutions across the entire product offering.https://community.amd.com/community/gaming/blog/2020/05/06/game-beyond-4gb?sf234611824=1&sf234728462=1

Beim kommenden "Halo-Produkt" (kommt von AMD selbst) dann weniger VRAM anbieten als bei dem immer noch aktuellen Flagschiff wäre einfach nur Grotesk.

Eigentlich eine total überflüssige Diskussion in ihrer 1241452 Ausführung, wenn nicht ständig irgendwelche Leute mit scheinheiligem "muss man ja nicht kaufen" oder "xy reicht doch" ankommen würden. Das ist einfach nur komplett sinnbefreit.

Und wenn man dann argumentativ mit UHD, Raytracing und DLSS (was ebenfalls Speicher kosten kann) kommt, dann wird das ignoriert weil keine Gegenargumente existieren.

Rampage 2
2020-08-01, 00:18:05
ROPs sollten praktisch nie limitieren. In modernen Renderpipelines von AAA Spielen verbringt die GPU sicherlich deutlich mehr Takte mit der Berechnung der Pixelfarbe (Texturfilterubg, Shading, Compute etc) als sie diese schreibt und liest.


Ich hatte schon mehrfach gefragt, inwiefern ROPs & Pixel-Füllrate Leistungseinbrüche durch SSAA (Transparenz-SSAA, OGSSAA oder Downsampling/DSR) oder Schattenberechnungen (z.B. höhere Schattenauflösung) abfedern oder bei welchen anderen Berechnungen die ROPs und Pixelfüllrate von Bedeutung sind - aber immer noch keine klare Antwort darauf erhalten. Vielleicht sollte ich einen separaten Thread dafür aufmachen:rolleyes:

Dass MSAA von mehr ROPs profitiert (auch dann, wenn nicht *alle* ROPs mit Pixeln durchgefüttert werden können - z.B. bei der 1060, 1070, 2070), ist mir schon längst klar - aber wie sieht es bei Supersampling(-Anteilen) aus? Sind auch hier mehr ROPs von Vorteil oder muss die reelle Pixelfüllrate synchron zu der Anzahl der ROPs sein? (wie gesagt, bei der 1060/1070/2070 ist sie das definitiv nicht)

R2

Daredevil
2020-08-01, 00:27:24
Haben sie mit RDNA doch schon was reine Perf/Watt angeht, da ist man mit Turing auf identischem Niveau.
.
Mit Pascal sind sie so halb identisch bzw. leicht besser, Turing trägt als Ballast noch RT mit sich rum, ein Schicksal, welches AMD auch ereilen wird.

Digidi
2020-08-01, 00:31:47
ROPs sollten praktisch nie limitieren. In modernen Renderpipelines von AAA Spielen verbringt die GPU sicherlich deutlich mehr Takte mit der Berechnung der Pixelfarbe (Texturfilterubg, Shading, Compute etc) als sie diese schreibt und liest.
.

Na ja limitieren ist der falsche Ausdruck. Je mehr Rops und je mehr Rasterizer man hat umso leichter ist die Verteilung auf diese. Der Flaschenhals ist heute nicht mehr eine Bestimmte Einheit sondern die Effektive Verteilung der Arbeit. Sie Vega 64, ein Shadermonster zur 1080ti genutzt hat es nichts weil zu wenig Rasterizer und damit zu schlechte Auslastung der Schader vorherrscht.

Linmoum
2020-08-01, 00:32:25
Mit Pascal sind sie so halb identisch bzw. leicht besser, Turing trägt als Ballast noch RT mit sich rum, ein Schicksal, welches AMD auch ereilen wird.Meinst du den Ballast, der auch noch 30% der Fläche einnimmt? ;)

Dampf
2020-08-01, 00:34:05
Wird gerade Enthusiasten jucken. Also solche, die bereit sind, hohe Preise zu zahlen und gerade solche, die jetzt schon mit >=11GiB unterwegs sind.

Für 2080Ti oder Titan/VII-Besitzer, ggf. auch solche einer 1080Ti, sicher toll so ein Schwachsinn.

Aber ich zitiere nur mal AMD: https://community.amd.com/community/gaming/blog/2020/05/06/game-beyond-4gb?sf234611824=1&sf234728462=1

Beim kommenden "Halo-Produkt" (kommt von AMD selbst) dann weniger VRAM anbieten als bei dem immer noch aktuellen Flagschiff wäre einfach nur Grotesk.

Eigentlich eine total überflüssige Diskussion in ihrer 1241452 Ausführung, wenn nicht ständig irgendwelche Leute mit scheinheiligem "muss man ja nicht kaufen" oder "xy reicht doch" ankommen würden. Das ist einfach nur komplett sinnbefreit.

Und wenn man dann argumentativ mit UHD, Raytracing und DLSS (was ebenfalls Speicher kosten kann) kommt, dann wird das ignoriert weil keine Gegenargumente existieren.

12 GB würden bei diesem PR Statement immer noch als sehr hoch gelten, sagt daher also nichts aus.

Wenn Leute von einer 1080Ti auf eine 3080Ti upgraden dann sicher nicht wegen dem VRAM sondern wegen der immens höheren Performance, wegen Next Gen Features wie DX12 Ultimate, Raytracing und DLSS. Komischerweise scheint den VRAM fast nur ausgewählte deutsche Enthusiasten auf CB, PCGH und hier zu interessieren, auf englischen Foren ist das Verlangen nach VRAM deutlich niedriger.

Es ist eine Kosten/Nutzen-Frage. Mehr als 12 GB VRAM ist halt nicht notwendig und würde die Kosten nur unnötig in die Höhe treiben. Es hätte null Nutzen. Dann investiert man das Geld doch lieber in eine allgemein höhere Performance oder reduziert den Endkunden-Preis.

Außerdem hat die Karte Sampler Feedback, deren VRAM kann also sowieso deutlich effizienter genutzt werden als den einer 1080Ti.

(DLSS schaufelt übrigens ne ordentliche Menge an VRAM im Vergleich zur nativen Auflösung frei)

Ravenhearth
2020-08-01, 00:37:27
Es ist eine Kosten/Nutzen-Frage. Mehr als 12 GB VRAM ist halt nicht notwendig und würde die Kosten nur unnötig in die Höhe treiben. Es hätte null Nutzen. Dann investiert man das Geld doch lieber in eine allgemein höhere Performance oder reduziert den Endkunden-Preis.
Ja, in Spielen der aktuellen Generation. Aber Next-Gen steht vor der Tür, und beim letzten Umbruch gabs einen starken Anstieg der VRAM-Anforderungen.

Dampf
2020-08-01, 00:40:15
Ja, in Spielen der aktuellen Generation. Aber Next-Gen steht vor der Tür, und beim letzten Umbruch gabs einen starken Anstieg der VRAM-Anforderungen.

Das kommt auch immer wieder. Die jetzige Generation der Karten ist bestens aufgestellt für diesen Umbruch. Dieser hat bereits Mitte der Konsolen-Generation stattgefunden, als wir von Maxwell zu Pascal gewechselt sind. 6 GB VRAM wurden in dieser Generation von der Elite-Klasse in die Mittelklasse degradiert, der PC hat diesen Next Gen Sprung also schon hinter sich.

Letzte Generation zu dieser, also PS3 zu PS4, hatten wir einen deutlich, deutlich größeren Anstieg an Speicher als jetzt.

Die XSX hat nur 13.5 GB Speicher für Spiele, den sie auch noch zwischen GPU und CPU teilen muss. Ein PC mit einer 3080Ti mit dediziertem 12 GB VRAM und mindestens 16 GB RAM ist da haushoch überlegen.

Es wurden schon Vergleiche von diversen Seiten gezogen und eine 2080 mit 8 GB VRAM zieht mit einer Xbox Series X in den meisten Fällen gleich und kann auch die Unreal Engine 5 mit ihrer großartigen Geometrie ohne Probleme darstellen.

-=Popeye=-
2020-08-01, 00:45:34
Ich dachte das kommt von den Konsolen SSDs.

robbitop
2020-08-01, 07:05:50
Na ja limitieren ist der falsche Ausdruck. Je mehr Rops und je mehr Rasterizer man hat umso leichter ist die Verteilung auf diese. Der Flaschenhals ist heute nicht mehr eine Bestimmte Einheit sondern die Effektive Verteilung der Arbeit. Sie Vega 64, ein Shadermonster zur 1080ti genutzt hat es nichts weil zu wenig Rasterizer und damit zu schlechte Auslastung der Schader vorherrscht.
Tatsächlich haben moderne GPUs ein Auslastungsproblem. Das liegt zum einen ander Granularität der Kontrolllogik und des Front Ends aber auch zT an der Problemgröße im Bereich 3D Grafik (beides unabhängig voneinander). Deshalb lassen beide IHVs die Einheitenanzahl auch kaum noch wachsen. Eher wird an Takt und ILP Extraktion gearbeitet.

Was du beschreibst hat aber nichts mit den ROPs zu tun. Die ROPs sind ja „nur“ das Backend. Vega hatte die Probleme im Front End und in der Kontrolllogik (Command Processor, aber auch in den CUs).

Die ROPs lesen und schreiben hauptsächlich Daten aus/in den VRAM. Oder blenden Daten.

Cyberfries
2020-08-01, 08:09:50
5% ist deutlich? OK, wie du willst.

Ach komm, ich liefere dir drei unterschiedliche Zitate und du pickst dir das raus
und nicht das direkt darunter, aus dem sich ein Mindertakt von rund 20-25% ergibt.

Richtig, eine 5600, kam mir gar nicht in den Sinn. Dann mal Faktencheck: Das 2. BIOS einer Sapphire Pulse mit 135W ist so schnell wie die Basiskonfiguration. Und das entspricht auch dem, was die Standardkarte verbraucht: https://www.computerbase.de/2020-01/radeon-rx-5600-xt-test/3/#abschnitt_messung_der_leistungsaufnahme

Lies deinen Link nochmal: 146watt Referenz, 147watt Pulse Bios2, 165watt Bios1.
Und erzähl mir jetzt bitte nicht, dass du Werte aus unterschiedlichen Tests zusammenwirfst.

Egal wie du es drehst oder wendest, eine 300W Navi Karte mit 72-80 CUs wäre schneller als eine 2080 Ti FE gewesen. Ob 5% oder 20% ist eine andere Frage, darum ging es aber nicht.

Egal wie ich es drehe und wende - allein aus Luft und dem Glaube an eine gute Sache?
Dann kann ich mir ja mein argumentieren sparen.
2x5700xt bei Skalierung 1,7x mit 25% Taktreduktion ist bei mir ein 15% Rückstand. 2x5600 bei Skalierung 1,7x sogar 18%.
Aber diese Rechnungen sind alles andere als seriös, jede solche Projektion hat eine große Fehlerbreite.

Was ist denn die am besten gesicherte Info? +50% Effizienzsteigerung direkt von AMD.

Fazit: 250-300W RDNA1 mit 72-80 CU hätte eine 2080 Ti FE geschlagen. Was macht also ein BigNavi mit höherer Effizienz? Sicher nicht nur +15%...aber wir sind hier ja im Speku-Forum. Wenn du das Gefühl hast die 15% passen besser, dann sei dir das gegönnt. Ich sehe viele Indizien, dass dies zu wenig ist.

Die 50% bestreitet wohl niemand. Ich habe in meinem Beitrag gesagt, dass ich die 15% nicht glaube, warum machst du jetzt an der Stelle ein Fass auf?

Was ich sage ist, dass RDNA1 nicht schneller gewesen wäre als die 2080TI, dass du also deine Basislinie tiefer ansetzen solltest.
Allein schon um nicht auf der Welle des Hypes mitzureiten und am Ende wieder enttäuscht zu sein.

Zossel
2020-08-01, 08:09:55
Wie sollte AMD den Vorsprung NVs auf/überholen mit dem Budget - außer Lisa is wirklich eine Hexe.
AMD hat nur dann eine echte Chance, wenn NV einen Intel hinlegt.

IMHO ist Suzanne Plummer aus der Zen Entwicklung vor längerer Zeit in die GPU Sparte gewechselt. Jedenfalls werden die GPUs jetzt taktfreudiger.

pixeljetstream
2020-08-01, 08:26:39
Was du beschreibst hat aber nichts mit den ROPs zu tun. Die ROPs sind ja „nur“ das Backend. Vega hatte die Probleme im Front End und in der Kontrolllogik (Command Processor, aber auch in den CUs).

Die ROPs lesen und schreiben hauptsächlich Daten aus/in den VRAM. Oder blenden Daten.

Bei einer Pipeline kann auch das letzte Glied in der Kette limitieren. Der Effekt nennt sich back pressure. Es ist wie ein Stau der als welle rückwärts die Pipeline raufläuft. Wenn die Pixel queues voll sind, müssen die Pixel shader wavefronts warten. Das heißt sie blockieren Register space etc. Das fehlt dann bei der Erstellung neuer wavefronts (ob aus async compute oder mehr rasterization), und so blubbert die Luft (Effizienz Lücke) in der Pipeline nach oben.

Eins der Bilder hier von nem alten Vortrag zeigt das ein bisschen

https://twitter.com/pixeljetstream/status/723956313160597504?s=09

LasterCluster
2020-08-01, 10:46:20
Neues Gerücht zur Speicherausstattung von Big Navi:

https://twitter.com/_rogame/status/1289281758618419200

Schwer so etwas ernst zu nehmen. Es sagt absolut NICHTS wie er darauf kommt. Echte Infos? Andere Leaks? eigene Spekus? Wer weiß....

Edit: Späterer Tweet:

512bit bus is just too big will consume a lot of power and make board design and cooling more complex => more expensive final product
16GB is also a lot for a gaming GPU


Es sind also am ehesten eigene Spekus

robbitop
2020-08-01, 10:53:02
Bei einer Pipeline kann auch das letzte Glied in der Kette limitieren. Der Effekt nennt sich back pressure. Es ist wie ein Stau der als welle rückwärts die Pipeline raufläuft. Wenn die Pixel queues voll sind, müssen die Pixel shader wavefronts warten. Das heißt sie blockieren Register space etc. Das fehlt dann bei der Erstellung neuer wavefronts (ob aus async compute oder mehr rasterization), und so blubbert die Luft (Effizienz Lücke) in der Pipeline nach oben.

Eins der Bilder hier von nem alten Vortrag zeigt das ein bisschen

https://twitter.com/pixeljetstream/status/723956313160597504?s=09

Das ist mir kausal klar. Aber ist das denn in der Praxis wirklich in signifikanter Ausprägung der Fall?

Außerdem sollte es doch ein Stück weit entkoppelt sein (buffer), oder? Lass doch die ROPs zuende schreiben - die SMs/CUs können dann an anderen wavefronts weiter arbeiten. 3D Grafik ist ja schon sehr parallel.

pixeljetstream
2020-08-01, 11:25:11
Das ist mir kausal klar. Aber ist das denn in der Praxis wirklich in signifikanter Ausprägung der Fall?

Außerdem sollte es doch ein Stück weit entkoppelt sein (buffer), oder? Lass doch die ROPs zuende schreiben - die SMs/CUs können dann an anderen wavefronts weiter arbeiten. 3D Grafik ist ja schon sehr parallel.
Wir leben in Zeiten wo man jedes Prozent verbessert, weil die in der Summe es dann ausmachen. Natürlich steht die GPU nicht still, aber es ist effektiv kein Platz für neue Arbeit und damit sinkt der Durchsatz.

robbitop
2020-08-01, 12:02:56
Mit Pascal sind sie so halb identisch bzw. leicht besser, Turing trägt als Ballast noch RT mit sich rum, ein Schicksal, welches AMD auch ereilen wird.
RT HW kostet aber keine Energieefffizienz wenn man sie nicht nutzt. Ein Vergleich mit RDNA1 ist nur sinnvoll ohne RT. Logik die nicht genutzt wird kostet praktisch keine Energie. Das ist seit sicherlich 1 Jahrzehnt so. Power/Clockgating.

HOT
2020-08-01, 12:22:48
Clack Gating ja, Power Gating nein, da das zuviel Chipfläche kostet IIRC.

pixeljetstream
2020-08-01, 12:37:45
Alles was nicht Last hat, trägt zur Kühlung bei ;)

basix
2020-08-01, 12:44:30
Clack Gating ja, Power Gating nein, da das zuviel Chipfläche kostet IIRC.

Gibt es dazu Infos bzw. etwas zum lesen?

Badesalz
2020-08-01, 12:56:28
Bei einer Pipeline kann auch das letzte Glied in der Kette limitieren. Der Effekt nennt sich back pressure.Gegendruck. Das nennt sich schlicht, Gegendruck :rolleyes: :wink:
Und ist so alt wie alt Schrittketten sind.

davidzo
2020-08-01, 13:08:37
Mit Pascal sind sie so halb identisch bzw. leicht besser, Turing trägt als Ballast noch RT mit sich rum, ein Schicksal, welches AMD auch ereilen wird.

Nur das Stumpfe wiederholen falscher Aussagen macht sie nicht wahrer. Die Parität ist klar zwischen Navi und Turing, Pascal ist da etwas abgeschlagen.

Bei der Leistung pro Einheit liegen RNDA1 und Turing gleich auf, das haben Architekturvergleiche schon gezeigt: https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/4/

Und bei der Performance pro Watt auch: https://www.computerbase.de/2020-01/radeon-rx-5600-xt-test/3/#abschnitt_die_energieeffizienz_als_performance_pro_watt

In letzterem Link siehst du auch dass es kaum einen Unterschied zwischen Turing mit RT und Turing ohne gibt, viel wichtiger für die Effizienz ist ob es sich um eine niedrig taktende Salvage Variante erster Generation oder eine Partner-übertaktete Super-Karte handelt.

Akkarin
2020-08-01, 13:36:10
Wenn man bedenkt, dass AMD bald auch auf 5nm geht, was EUV unbedingt erfordert, ist es doch relativ wahrscheinlich, dass AMD auch N7+ benutzt als "EUV pipecleaner", oder ? Die EUV-Capazität von TSMC wächst ja auch stetig.

Ob das dann RDNA 2 oder Zen3 ist steht natürlich auf einem andren Blatt.

amdfanuwe
2020-08-01, 13:47:45
Würde mich nicht wundern, wenn AMD demnächst N6 verwendet. Entweder mit 7nm Strukturen um N7P als Fallback zu haben oder doch schon mit teilweise 6nm Strukturen.
edit:
https://www.tsmc.com/img/dedicatedFoundry/technology/N6_3.png

HOT
2020-08-01, 13:54:34
Gibt es dazu Infos bzw. etwas zum lesen?
Darum gings mal bei P11 vs. P10, P11 hat AFAIK Powergating und P10 nicht, weil das zu groß wurde. Das ist alles arschlange her. Vielleicht ist das auch obsolet, das würd mich auch interessieren.

reaperrr
2020-08-01, 14:48:14
Also allgemein muss ich inzwischen sagen, ich wäre nicht überrascht, wenn einige der Gerüchte bewusst von AMD gestreute Falsch-Infos sind, um a) die Konkurrenz auf die falsche Fährte zu locken, und b) generell zu erschweren, echte Leaks auch als solche zu identifizieren.

Frontend und CUs ggü. N10 verdoppelt + IPC-Verbesserungen, aber kaum schneller als 2080Ti (also nur 50-60% schneller als 5700 XT)?
Nur ~50-60% schneller als 5700XT und ~300W, obwohl AMD 50% mehr Perf/W versprochen hat (ne Angabe, die sie bei Navi vs. Vega eingehalten haben)?
384bit, aber 16 GB? Hier Hinweise auf HBM, dort Hinweise auf GDDR6?
Mal werden 80 CUs genannt, mal 72?
Mal 505mm², mal 427mm²?

Alles ziemlich fischig (passend zu den neuen Treiber-Codenamen:D).

Nazar
2020-08-01, 16:05:29
12 GB würden bei diesem PR Statement immer noch als sehr hoch gelten, sagt daher also nichts aus.

Wenn Leute von einer 1080Ti auf eine 3080Ti upgraden dann sicher nicht wegen dem VRAM sondern wegen der immens höheren Performance, wegen Next Gen Features wie DX12 Ultimate, Raytracing und DLSS. Komischerweise scheint den VRAM fast nur ausgewählte deutsche Enthusiasten auf CB, PCGH und hier zu interessieren, auf englischen Foren ist das Verlangen nach VRAM deutlich niedriger.

Es ist eine Kosten/Nutzen-Frage. Mehr als 12 GB VRAM ist halt nicht notwendig und würde die Kosten nur unnötig in die Höhe treiben. Es hätte null Nutzen. Dann investiert man das Geld doch lieber in eine allgemein höhere Performance oder reduziert den Endkunden-Preis.

Außerdem hat die Karte Sampler Feedback, deren VRAM kann also sowieso deutlich effizienter genutzt werden als den einer 1080Ti.

(DLSS schaufelt übrigens ne ordentliche Menge an VRAM im Vergleich zur nativen Auflösung frei)

Man sollte es tunlichst vermeinden in Absoluten zu schreiben und besonders , wenn diese getätigten Aussagen sofort widerlegt werden können.
In der VR Welt ist VRAM alles und je höher die Auflösungen werden, je mehr VRAM wird benötigt und wenn dann auch noch ein Hersteller erneut eine Extrawurst verkaufen will, wird sich daran nichts ändern.
Die 11 GiB VRAM meiner 2080 Ti sind in DCS mit meiner Reverb G1 (2160*2160 Pixel) bei nativer Auflösung, mit mittleren bis hohen Einstellungen überbelegt.
Die 2080 Ti könnte sehr wahrscheinlich viel bessere Frametimes liefern, wenn sie mehr VRAM hätte.
Die Spiele werden immer Aufwändiger und besonders, da die neue Konsolen die Latte selber noch mal nach oben legen und PC Spieler vermutlich erneut mit extrem schlechten Ports "überfahren" werden.
Aus meiner Sicht ist deine Aussage einfach nicht haltbar und die Begründung dafür findet man im Zeitstrahl des VRAM Verbrauchs bis heute.
Es ist schon extrem naiv zu glauben, dass Nvidia das alles für die Spieler tut. Wäre es so, würden Nvidia in Kooperationen mit anderen Herstellern und Spielentwicklern zusammenarbeiten und keine Knebelverträge und Alleingänge starten.
Geht man hypothetisch davon aus, dass nur noch Nvidia am Markt ist, würde ich mein gesamtes Hab und Gut darauf verwetten, dass nach einer Zeit von DLSS wieder eine Zeit von VRAM ohne Ende kommt und NV das als "neuste" Errungenschaft verkauft.
Alleine RT wird, wenn man vollumfängliches RT einsetzen möchte (z.B. Path Traycing mit 16 Strahlen Pro Pixel) den Bedarf an VRAM sprengen.
Man muss sich mal den Faktor alleine zu Metro ansehen, wo nur ein Strahl pro Pixel ausreichte, um jede 2080Ti zum "Kotzen" zu bringen.
Ganz zu schweigen von den RT Popup Effekten (sehr gut in BF V zu sehen), die diese "Einstrahlmethode" mit sich bringt.
Man kann durchaus VRAM vernachlässigen aber fast ausschließlich auf Kosten der BQ und wer kein absoluter Fanboy ist, sollte sich Metro in ruhe ansehen und ich sich gehen, ob diese Techniken wirklich so toll sind, was die BQ angeht. Leider kenne ich nur wenige Personen die das so deutlich aufzeigen wie hier:
QETexVf8Gz8
aber am schlimmsten ist, dass man sich damit, wie bei PhysX und G-Sync, vollkommen der Gnade eines Herstellers ausliefert.

y33H@
2020-08-01, 16:09:40
DCS ist die Ausnahme für VR aus Speichersicht, die allerallermeisten Titel benötigen sehr viel weniger - du hast dir erneut den Ausreißer rausgesucht. Was primär erforderlich ist, wäre mehr Rechenleistung. Ansonsten bin ich prinzipiell bei dir, mehr VRAM schadet nicht ... 12GB bei mehr Leistung als eine RTX 2080 Ti, brrr!

EDIT

Was ist das Problem mit Metro? So sieht's mit RTGI eben aus.

Akkarin
2020-08-01, 19:04:16
Dumme Frage: inwiefern skaliert der Sweet-Spot von Interface-Breite und VRAM-Takt mit der chipgröße ? Sprich: angenommen man hat zwei chips mit der selben rohleistung, einer 350, der andre 550mm^2 groß. Ist es möglich, dass man beim kleineren Chip ein größeres Interface bevorzugt, beim größeren hingegen höher getakten RAM, einfach weil man beim größeren Chip schon in yield-Probleme (oder gar maximale mask sizes !) sowie Kühlungsprobleme rein läuft, welche beim kleineren Chip so nicht auftreten ?


nVidias Chips sind ja absolut gigantisch. Ist es möglich, dass sie "nur" ein 384 bit Interface benutzen und dafür >=19 gbps ram chips verbauen einfach weil sie kein größeres Interface verbauen können ? AMD hingegen eher auf ein mäßig getaktes 512 bit Interface setzt ?

Auf der andren Seite muss AMD mehr pro Wafer bezahlen, was eigentlich dafür sprechen sollte das sie das Interface möglich klein halten wollen.

Kriegsgeier
2020-08-01, 19:17:47
DCS ist die Ausnahme für VR aus Speichersicht, die allerallermeisten Titel benötigen sehr viel weniger - du hast dir erneut den Ausreißer rausgesucht. Was primär erforderlich ist, wäre mehr Rechenleistung. Ansonsten bin ich prinzipiell bei dir, mehr VRAM schadet nicht ... 12GB bei mehr Leistung als eine RTX 2080 Ti, brrr!

EDIT

Was ist das Problem mit Metro? So sieht's mit RTGI eben aus.

Wenn die Speicherbandbreite anwächst dann sind die 12 GB auch bei 3090 ausreichend!

Bandbreite ist nicht zu unterschätzen

y33H@
2020-08-01, 19:30:41
Was hat die Speicherbandbreite damit zu tun, ob die Größe des Videospeichers ausreicht?

gedi
2020-08-01, 19:37:22
Also allgemein muss ich inzwischen sagen, ich wäre nicht überrascht, wenn einige der Gerüchte bewusst von AMD gestreute Falsch-Infos sind, um a) die Konkurrenz auf die falsche Fährte zu locken, und b) generell zu erschweren, echte Leaks auch als solche zu identifizieren.

Frontend und CUs ggü. N10 verdoppelt + IPC-Verbesserungen, aber kaum schneller als 2080Ti (also nur 50-60% schneller als 5700 XT)?
Nur ~50-60% schneller als 5700XT und ~300W, obwohl AMD 50% mehr Perf/W versprochen hat (ne Angabe, die sie bei Navi vs. Vega eingehalten haben)?
384bit, aber 16 GB? Hier Hinweise auf HBM, dort Hinweise auf GDDR6?
Mal werden 80 CUs genannt, mal 72?
Mal 505mm², mal 427mm²?

Alles ziemlich fischig (passend zu den neuen Treiber-Codenamen:D).

Was trotzdem alles stimmen mag. Z.B. 6900XT mit min 80CUs, HBM2 und RT

Das Andere 6800XT 72CUs, 384-Bit SI und 12 GB mit rudimentärer RT, oder ohne RT-Einheit

unl34shed
2020-08-01, 19:40:27
macht keinen Sinn zwei chips mit +-80CUs und sowohl GDDR6 als auch HBM

dargo
2020-08-01, 19:41:30
Was trotzdem alles stimmen mag. Z.B. 6900XT mit min 80CUs, HBM2 und RT

Das Andere 6800XT 72CUs, 384-Bit SI und 12 GB mit rudimentärer RT, oder ohne RT-Einheit
Liegts an der Hitze oder woher kommen diese völlig absurden Ideen? :freak:

Berniyh
2020-08-01, 19:43:54
Liegts an der Hitze oder woher kommen diese völlig absurden Ideen? :freak:
Wenn man ein HBM2 Interface zu heiß wäscht, dann wird ein 384 Bit GDDR6 Interface daraus. ;)

gedi
2020-08-01, 19:45:17
Liegts an der Hitze oder woher kommen diese völlig absurden Ideen? :freak:

Wahrscheinlich, sitze hier in Stuttgart bei ein paar Bier bei 33G im Schatten. Muss unbedingt weiter drinken, vielleicht fällt mir noch etwas Besseres ein :frown:

gedi
2020-08-01, 19:56:44
macht keinen Sinn zwei chips mit +-80CUs und sowohl GDDR6 als auch HBM

Doch-das Halo Produkt für 1000€ und das Ding welches gegen ne 3080 antritt nur zu einem 100€ kleinerem Preis mit mehr VRAM und gleicher Performance ohne RT

BiZiNiZz
2020-08-01, 19:58:59
Macht noch weniger Sinn :freak:

Weniger Bier, mehr Wasser, vll auch nen Radler:cool:

Linmoum
2020-08-01, 20:00:16
Kein Raytracing ergibt beim Top-Dog noch viel weniger Sinn. Natürlich wird AMD am oberen Ende garantiert keinen RDNA2-Ableger bringen, der RT nicht beherrscht.

Zergra
2020-08-01, 20:06:08
Finde RT am Ende nicht entscheidend, wenn DLSS aber ohne Anpassung in allen Spielen soviel bringt... Dann gute Nacht.

Das dürfte am Ende viel mehr ausmachen.

gedi
2020-08-01, 20:07:01
Die 6800 ist doch kein Top-Dog. Zudem kam von AMD selbst die Aussage, dass RT nur bei den schnellsten GPUs zum Einsatz kommt. Die Interpretation bleibt jedem selbst überlassen

Berniyh
2020-08-01, 20:27:20
Die 6800 ist doch kein Top-Dog. Zudem kam von AMD selbst die Aussage, dass RT nur bei den schnellsten GPUs zum Einsatz kommt. Die Interpretation bleibt jedem selbst überlassen
Im Gegenteil, AMD hat verlauten lassen mit RDNA2 Raytracing durch die ganze Linie einführen zu wollen.

Linmoum
2020-08-01, 20:31:14
Ein 3080-Counterpart wird definitiv auch Big Navi nutzen, so weit oben legt AMD keine zwei separaten Chips auf. Also doch, insofern ist auch das ein Top-Dog-Ableger.

Für die Aussage von AMD hätte ich gerne mal eine Quelle. Ich kenne die von David Wang von Ende 2018:
“AMD will definitely respond to DirectX Raytracing,” he says. “For the moment we will focus on promoting the speed-up of offline CG production environments centered on AMD’s Radeon ProRender, which is offered free of charge.

“Utilisation of ray tracing games will not proceed unless we can offer ray tracing in all product ranges from low end to high end.”https://www.pcgamesn.com/amd-gpu-dxr-ray-tracing-support

Dass man mit einer nunmehr (hardware-)fähigen Architektur für Raytracing auch sämtliche auf dieser basierenden Produkte mit entsprechendem Support bringt, ist nur logisch. Alles andere ergibt auch gar keinen Sinn, zumal eine PS5 mit nur 36CU ebenfalls RT-Support hat. Da wird man sich am Desktop nicht die Blöße geben und unterhalb von N21 Produkte launchen, die zwar gleichstark/stärker als die Konsolen sind, aber dafür kein Raytracing beherrschen. Das ist einfach nur Quatsch.

gedi
2020-08-01, 20:32:51
Zeig! Die bisherige Annahme ging dahin, dass der N10-Nachfolger kein RT können wird. Aber was bitte ist der N10-Nachfolger? Zudem habe ich der 6800 nicht unbedingt RT abgesprochen, nur halt auf nem ganz anderen Level als beim Halo-Produkt

gedi
2020-08-01, 20:36:02
Ein 3080-Counterpart wird definitiv auch Big Navi nutzen, so weit oben legt AMD keine zwei separaten Chips auf. Also doch, insofern ist auch das ein Top-Dog-Ableger.

Für die Aussage von AMD hätte ich gerne mal eine Quelle. Ich kenne die von David Wang von Ende 2018:
https://www.pcgamesn.com/amd-gpu-dxr-ray-tracing-support

Dass man mit einer nunmehr (hardware-)fähigen Architektur für Raytracing auch sämtliche auf dieser basierenden Produkte mit entsprechendem Support bringt, ist nur logisch. Alles andere ergibt auch gar keinen Sinn, zumal eine PS5 mit nur 36CU ebenfalls RT-Support hat. Da wird man sich am Desktop nicht die Blöße geben und unterhalb von N21 Produkte launchen, die zwar gleichstark/stärker als die Konsolen sind, aber dafür kein Raytracing beherrschen. Das ist einfach nur Quatsch.

Google selbst, aber afair kam die Aussage von Lisa selbst

Mangel76
2020-08-01, 20:40:10
Die bisherige Annahme ging dahin, dass der N10-Nachfolger kein RT können wird.
Wer hat das angenommen? Ich nicht.

Daredevil
2020-08-01, 20:40:11
Ist der "3080-Counterpart" nicht einfach der 60CU Konsolen Chip, der ja eh schon Millionen fach verbaut werden soll? Zumindest laut den Spekus, die auch die 80CU bestätigen sollen.

gedi
2020-08-01, 20:42:47
Ist der "3080-Counterpart" nicht einfach der 60CU Konsolen Chip, der ja eh schon Millionen fach verbaut werden soll? Zumindest laut den Spekus, die auch die 80CU bestätigen sollen.

Ich dachte datt Ding hat 52 CUs:confused:

Daredevil
2020-08-01, 20:45:38
Ich meinte das hier, der Typ hat ja auch die 80 CUs erwähnt
https://twitter.com/_rogame/status/1240224499158654978

gedi
2020-08-01, 20:52:18
Ich weiß, ich verzapfe eh nur Stuss. Es waren nur Annahmen aufgrund irgendwelchen Gerüchten

Daredevil
2020-08-01, 20:54:31
Ich glaube, wenn man alle Gerüchte zusammenfasst, ist eh alles dabei von 50CU, 80CU, 112CU, kommt nichts, wird ne Dual GPU ect. pp. :D
Was soll man schon glauben.

Zergra
2020-08-01, 20:55:53
Ich weiß, ich verzapfe eh nur Stuss. Es waren nur Annahmen aufgrund irgendwelchen Gerüchten

Ist halt auch bald zwei Jahre her. Wenn die RT Leistung eben nicht ausreicht, könnte es sein das eben im unteren Bereich nix neues bringt.

Oder es bezieht sich auf Navi 10 und 14 die einfach erhalten bleiben.....

gedi
2020-08-01, 21:06:47
Aus N10 wird auch RDNA2. Wie sich das Ding dann nennt (z.B. 6700XT), keine Ahnung. Vielleicht wird es auch die 52 CU Variante aus der XBOX nur mit wesentlich mehr Takt und 256-Bit SI bei 8GB.

Was nun mehr als genug wäre um ne 2080TI in den Boden zu stampfen. Macht imo wenig Sinn, außer das Ding darf max. 150W ziehen

Linmoum
2020-08-01, 22:14:42
Also insgesamt hat Big Navi nach wie vor 64 ROPs.Um das noch mal aufzugreifen: Laut dem User "Bondrew" ausm beyond3d sind es nicht (nur) 64 ROPs.

https://forum.beyond3d.com/threads/amd-navi-speculation-rumours-and-discussion-2019.61042/page-123#post-2144008

Wie ernst man den User nehmen kann, kann ich schlecht einschätzen. Aber dafür ist man hier im Speku-Forum und bei dem, was hier sonst noch an Quellen gepostet wird... ;)

gedi
2020-08-01, 22:24:18
Fällt leicht der Annahme zu folgen. CDNA hat wieviel ROPs? Von daher könnte gar ich dies gepostet haben

Badesalz
2020-08-01, 23:00:04
Das Andere 6800XT 72CUs, 384-Bit SI und 12 GB mit rudimentärer RT, oder ohne RT-Einheit:| Hat eine 2060 ein beschnittenes (Funktionen) RT gegenüber der 2080Ti?
ODer was ist "rudimentär"?

Akkarin
2020-08-02, 00:16:14
Was genau würde es bedeuten wenn es wirklich 16 wavefronts per SIMD geben würde ?

Gouvernator
2020-08-02, 13:10:57
Was primär erforderlich ist, wäre mehr Rechenleistung. Ansonsten bin ich prinzipiell bei dir, mehr VRAM schadet nicht ... 12GB bei mehr Leistung als eine RTX 2080 Ti, brrr!

Nö. Primär erforderlich ist mehr VRAM. Weil die Rechenleistung für moderne Games für 8K/DSR würde eh nicht reichen. Aber populäre Emulatoren und diverse "Retro" Games können von VRAM bis hinauf 16K DSR profitieren. Wii U und PS3 Games samt allen PC Games aus dieser Ära wären mit mindestens 8K plötzlich spielbar. 16Gb - 24Gb würde wie ein 8K-16K Patch wirken.

y33H@
2020-08-02, 13:22:25
8K ist Nische.

Gouvernator
2020-08-02, 13:43:09
8K ist Nische.
Weil es an VRAM gefehlt hat... Jeder mit 4K und demnächst 120Hz hat Zugang zu 8K DSR. Mit HDMI 2.1 gibt es auf einen Schlag die Möglichkeit von 8K@120FPS. So wie jetzt 1440p/120Hz@4K DSR. Dieser Modus wird mit 8K@120Hz DSR abgelöst. VRAM vorausgesetzt. 8K wird Mainstream. Die neue Nische wird 16K DSR sein für alle mit einem nativen 8K TV.

Dampf
2020-08-02, 14:14:42
Weil es an VRAM gefehlt hat... Jeder mit 4K und demnächst 120Hz hat Zugang zu 8K DSR. Mit HDMI 2.1 gibt es auf einen Schlag die Möglichkeit von 8K@120FPS. So wie jetzt 1440p/120Hz@4K DSR. Dieser Modus wird mit 8K@120Hz DSR abgelöst. VRAM vorausgesetzt. 8K wird Mainstream. Die neue Nische wird 16K DSR sein für alle mit einem nativen 8K TV.
Na, das wird bestimmt noch ne Weile dauern. Erstmal wird 4K Mainstream!

JVC
2020-08-02, 14:16:17
8K ist Nische.
Und wird es auch ewig bleiben ?
Allgemein gesehen, eine ziemlich nutzlose Aussage.

Persönlich lechze ich schon nach 8K :freak:
Spiele die mit 8K funktionieren gibt es genug. (RT und DLSS sind da eher Nische)
Fehlt nur ein passender Anschluss...

M.f.G. JVC