PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 [33] 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81

Fragman
2020-06-08, 09:57:36
RT baucht Kapazität.

Die bisherigen Beispiele zeigen das ja eigentlich nicht und es sind neue Funktionen hinzu gekommen, die den Speicherverbrauch nochmals senken können bzw nicht ansteigen lassen. Einer der Gründe, weshalb die neuen Konsolen mit 10GB auskommen. Das man dann Grakas mit 24 ins Rennen schickt halte ich für ausgeschlossen. Eine mögliche Titan mal außen vor gelassen.

mironicus
2020-06-08, 10:00:16
Big Navi hat sicherlich mehr als 8 GB. Also entweder 12 oder 16.

Hauwech
2020-06-08, 10:10:32
https://community.amd.com/community/gaming/blog/2020/05/06/game-beyond-4gb?

Wenn AMD der Meinung ist, dass 8GB im Entry-Level notwendig sind, dann sollte Big Navi wohl deutlich mehr bekommen :biggrin:

Vielleicht haben sie gemerkt das sich die 4GB Karten einfach nicht mehr gut verkaufen. Dazu kommt möglicherweise noch die Dummheit der Spieler die keine Regler bedienen können. Da braucht man sich doch nur die Grafiksettings auf dem ersten Bild anschauen: High, Ultra, Very High. Was anderes scheint es ja nicht mehr zu geben...

dildo4u
2020-06-08, 10:20:13
Es kauft keiner die 5500XT weil sie ein schlechter Deal ist, daher vermutlich dieser Post die 8Gb sind das einzige was man gegenüber Nvidia hervorheben kann.

w0mbat
2020-06-08, 10:30:32
Die 5500XT ist einfach zu teuer und dazu nur mit x8 angebunden, was die günstigere 4GB-Version komplett unbrauchbar macht. AMD halt, die können bei ihren GPUs mit dem Gesicht in die Torte fallen und würden trotzdem verhungern.

Hasenpfote
2020-06-08, 10:32:06
Gerne.Gamestar(1) undd Golem(2) sehen aber die 5700XT auf dem Niveau einer 2070. Dann sind es 20TFlop vs 15TFlop. 20TFlop hat eine 2080. Seit wann hält AMD mit einer 2080 mit?

Was mich allerdings überrascht hat, ist, dass AMD ENDLICH beim Stromverbrauch mithalten kann und wie lange Navi schon draußen ist. Das ist ja bald ein Jahr. :freak:

(1) https://www.gamestar.de/artikel/amd-radeon-rx-5700-xt-im-test,3346082,seite4.html#spiele-benchmarks
(2) https://www.golem.de/news/radeon-rx-5700-xt-im-test-amds-guenstige-navi-karten-sind-auch-super-1907-141812-5.html

HOT
2020-06-08, 10:35:02
Die bisherigen Beispiele zeigen das ja eigentlich nicht und es sind neue Funktionen hinzu gekommen, die den Speicherverbrauch nochmals senken können bzw nicht ansteigen lassen. Einer der Gründe, weshalb die neuen Konsolen mit 10GB auskommen. Das man dann Grakas mit 24 ins Rennen schickt halte ich für ausgeschlossen. Eine mögliche Titan mal außen vor gelassen.
Siehe Minecraft. Bisherige Implementationen sind lächerlich. Das wird sich ganz übel ändern.

w0mbat
2020-06-08, 10:43:29
Gamestar(1) undd Golem(2) sehen aber die 5700XT auf dem Niveau einer 2070. Dann sind es 20TFlop vs 15TFlop. 20TFlop hat eine 2080. Seit wann hält AMD mit einer 2080 mit?
Eine RTX 2060S FE hat 16,2TF; eine RX 5700 hat 15,7TF. Das sind ca. 3,2% mehr "Leistung". Und jetzt rate mal wie Leistung in Spielen aussieht? Genau, die 1440p ist die 2060S laut CB-Index genau 3% schneller als die RX 5700. Die 5700 XT hingegen ist gute 10% schneller als eine 2070.

Ich weiß nicht, wieso du ein Jahr alte Daten für deinen Vergleich verwendest.

Fragman
2020-06-08, 11:07:54
Siehe Minecraft. Bisherige Implementationen sind lächerlich. Das wird sich ganz übel ändern.

Kann ich als Mincraft, Control und Metro Spieler nicht sagen.
DLSS 2 oder was auch immer AMD machen wird, ändert das Thema sowieso nochmal. NV steckt zumindest viel r&d rein und man sieht alle paar Monate Verbesserungen auf der Softwareebene.

Was wird sich denn "übel ändern", gibt es dazu Informationen?

HOT
2020-06-08, 11:09:00
Es geht hier nicht um DLSS.

Fragman
2020-06-08, 11:13:08
Es geht hier nicht um DLSS.

Ich geh davon aus, das AMD ähnliches über directML anbieten wird.

BlacKi
2020-06-08, 11:20:46
Ich geh davon aus, das AMD ähnliches über directML anbieten wird.
mit welchen cores?

robbitop
2020-06-08, 11:23:23
mit welchen cores?
Zunächst mit regulären Vektor ALUs. Der Boost ist dann natürlich kleiner, da die ALUs dann mit dem Inferencing ausgelastet sind. Später ggf. mit Matrizen ALUs. Würde mich nicht wundern, wenn RDNA3 welche hat. Matrizen ALUs sind nichts neues und auch nichts besonderes.

HOT
2020-06-08, 11:25:31
Ich geh davon aus, das AMD ähnliches über directML anbieten wird.
Es ist trotzdem nicht das Thema.
RT bei entsprechenden Auflösungen in entsprechender Menge, die möglich sein wird, braucht erheblich mehr Speicher - und den werden wir bekommen.

Fragman
2020-06-08, 11:37:03
Natürlich gehört das dazu, da sowas die Resourcen schonen wird. Wieso sollte AMD das nicht machen? Schon heute wird einfaches Upscaling verwendet.

Das Thema allgemein sind die eh schon hohen Preise, mid range ist bei 500€ angekommen.
Da wird man nicht mehr Ram verbauen, wenn es unnötig sein wird. ;)

dargo
2020-06-08, 11:39:02
Gamestar(1) undd Golem(2) sehen aber die 5700XT auf dem Niveau einer 2070. Dann sind es 20TFlop vs 15TFlop. 20TFlop hat eine 2080. Seit wann hält AMD mit einer 2080 mit?

Ähm... wat? :| 20 TFLOPs hat nicht mal eine 2080TI. X-D Sofern diese mit 1,85Ghz taktet hat ne 2080TI 16,1 TFLOPs. 2080 und 2070 entsprechend einiges weniger. Eine RX 5700XT hat bei 1,85Ghz ~9,5 TFLOPs. Hast du den CB Vergleich überhaupt verstanden? Dort hat sowohl die 2070 als auch die 5700 6,9 TFLOPs da beide mit 1,5Ghz laufen und gleiche Anzahl an Shadern haben.

Eine RTX 2060S FE hat 16,2TF; eine RX 5700 hat 15,7TF.
Der nächste... :ulol:

Hasenpfote
2020-06-08, 11:41:33
Ich weiß nicht, wieso du ein Jahr alte Daten für deinen Vergleich verwendest.Weil ich "5700XT Review" in Google eingegeben habe? Und die Behauptung war, dass eine 5700 (ohne XT) mit einer 2070 gleichzieht. Außerdem hat die 5700XT 20TF und die 2070 nur 15, d.h. die 5700XT hat 30% mehr Rohleistung, wovon sie 10% auf die Straße bringt.

Ex3cut3r
2020-06-08, 11:41:55
Sinnlose TFLOPs Diskussion, als ob die dann auch noch gegenüber verschiedener Hersteller vergleichbar wären.

dargo
2020-06-08, 11:48:31
Sinnlose TFLOPs Diskussion...
Zustimmung, aber nur weil einige nicht rechnen können. :D

Raff
2020-06-08, 11:50:15
Im Vergleich Navi vs. Turing geht das immerhin besser als früher (Pascal vs. Vega alias "Luftpumpe"). Die meisten Leute vergessen dabei aber, dass moderne Taktraten hochvariabel sind.

MfG
Raff

Ex3cut3r
2020-06-08, 11:53:17
Ein Beispiel. Eine Vega 64 hatte/hat rund 13 TFLOPS trotzdem ist Sie immer langsamer in Spielen als eine 5700XT mit 9.5 TFLOPS.

robbitop
2020-06-08, 11:57:42
Wobei wie Raff schon sagt Turing und RDNA schon nicht weit voneinander entfernt sind. Das kann sich mit RDNA2 und Ampere ändern kann.

dargo
2020-06-08, 12:00:00
Ein Beispiel. Eine Vega 64 hatte/hat rund 13 TFLOPS trotzdem ist Sie immer langsamer in Spielen als eine 5700XT mit 9.5 TFLOPS.
Das Thema war Navi, also die aktuelle Gen. ;)

w0mbat
2020-06-08, 12:05:26
Zustimmung, aber nur weil einige nicht rechnen können. :D
Die Zahlen stimmen schon, eben nur FP16, was zugegebener Maßen für Spiele nicht so ausschlaggebend ist. Ändert nichts am prozentualen Unterschied, die Rechnung ist 100% korrekt. Da scheint wohl jemand anderes nicht rechnen zu können :wink:

HOT
2020-06-08, 12:08:18
Natürlich gehört das dazu, da sowas die Resourcen schonen wird. Wieso sollte AMD das nicht machen? Schon heute wird einfaches Upscaling verwendet.

Das Thema allgemein sind die eh schon hohen Preise, mid range ist bei 500€ angekommen.
Da wird man nicht mehr Ram verbauen, wenn es unnötig sein wird. ;)

Ist jetzt nicht gegen dich gerichtet, aber ich finds echt ziemlich lächerlich, dass sich Leute an diesen 8GB krampfhaft festhalten.
Die Konsolen haben mindestens doppelt soviel VRAM als früher, sie haben den SSD-Turbo, wir haben RT erst recht auf dem PC als Speicherfresser, wie soll das denn gehen?! Fortschritt bedeutet mehr RAM-Verbrauch, Ende. Es ist ganz klar absehbar, dass 8GB das neue Minimum darstellen und es ist auch klar, dass man, wenn man hohe RT-Destails haben möchte, dann auch mal 16GB dann nicht mehr reichen werden. Die 16GB sind das neue 8GB könnte man polemisch sagen. Klar dauert das seine Zeit, aber die meisten möchten doch nicht 22 schon wieder ne neue Karte kaufen.

pixeljetstream
2020-06-08, 12:09:18
Es ist trotzdem nicht das Thema.
RT bei entsprechenden Auflösungen in entsprechender Menge, die möglich sein wird, braucht erheblich mehr Speicher - und den werden wir bekommen.
Die direkten RT Memory kosten hängen von der Geometrie/Szenenkomplexität ab, nicht von der Auflösung oder der Anzahl der Strahlen. Indirekte Kosten bei Strahlen (bei reflection) können entstehen, dass sie effektiv auch deutlich mehr Texturen anfassen, wobei das imo meist nicht so wahrscheinlich ist.

Der_Korken
2020-06-08, 12:10:35
Bei den TFLop-Vergleichen muss man auch aufpassen, wenn man Full Chip vs Salvage vergleicht. Die 2070S ist 17% schneller als die 2070, obwohl sie nur 11% mehr Flops/s hat. Dafür hat die 2070S das größere Frontend und die größeren Caches vom TU104. Dadurch ist die 5700 leicht schneller als die 2070 beim CB-Vergleich, aber ich vermute dass die 5700XT minimal langsamer als die 2070S sein wird. Das ist kein Widerspruch.

Die 20TF vs 15TF bei 5700XT vs 2070 sind doch völliger Blödsinn. Da hätte ich gerne mal eine Rechnung für. Eigentlich hat Turing sogar noch den Riesenvorteil, auf jede FP-Unit noch eine INT-Unit zu haben. Navi schleust alles durch die selben Units durch, also könnte man sogar böse sagen, dass die 2070S eigentlich 5120SPs hat und damit nur 10% schneller als die 5700XT mit 2560SPs ist ;).

Letztendlich sind die relevanten Metriken Perf/W und Perf/mm². Wie die Performance erreicht wird, ist völlig egal. Wäre V10 nur 320mm² groß gewesen und hätte nur 180W Strom verbraucht, hätte sich keiner dafür interessiert, dass man 4096SPs brauchte um mit 2560SPs von Pascal gleichzuziehen.

dargo
2020-06-08, 12:12:01
Die Zahlen stimmen schon, eben nur FP16, was zugegebener Maßen für Spiele nicht so ausschlaggebend ist. Ändert nichts am prozentualen Unterschied, die Rechnung ist 100% korrekt. Da scheint wohl jemand anderes nicht rechnen zu können :wink:
Zu dumm nur, dass es überhaupt keinen prozentualen Unterschied im CB-Vergleich gibt. :freak: Gleiche TFLOPs, gleiche Bandbreite.

w0mbat
2020-06-08, 12:16:08
Ich hab auf RX 5700 vs 2060S FE genommen und nicht den RX 5700 vs 2070 Vergleich. Aber egal, Navi scheint ähnlich effizient zu sein wie Turing. Das ist ja der Punkt.

Thunder99
2020-06-08, 12:28:28
Nur halt bei 7nm gegen 12nm. Also muss AMD weiter daran arbeiten energieeffizienter zu werden.

mboeller
2020-06-08, 12:33:31
Nur halt bei 7nm gegen 12nm. Also muss AMD weiter daran arbeiten energieeffizienter zu werden.

tun sie doch
https://cdn.wccftech.com/wp-content/uploads/2020/03/AMD-Radeon-Roadmap-2020_RDNA2-Radeon-RX-Navi-2x-GPUs_1.png

robbitop
2020-06-08, 12:47:21
50% Energieeffizienz im gleichen Node sind schon ein großer Fortschritt. Ggf kommt auch ein wenig was vom Betriebspunkt. Andererseits ist das Potenzial ja klar vorhanden, wenn man Turing in 12 nm in den Vergleich nimmt. Die Frage ist, ob AMD die wirklich heben kann und unter welchen Voraussetzungen. :)

BlacKi
2020-06-08, 13:01:41
50% Energieeffizienz im gleichen Node sind schon ein großer Fortschritt. Ggf kommt auch ein wenig was vom Betriebspunkt.
stimmt das denn? langlay schrieb letztens das rdna2 in n7p kommt. zu navi10 fand ich nur informationen zu 7nm. wenn es hier wirklich einen unterschiedlichen prozess gibt, bestätigt das meine vermutung das die game clock um ein paar 100mhz sinken wird.

desweiteren hab ich schon mehrmals geschrieben das man nicht einfach 50%perf/w bei gleichem, oder gar höheren takts innerhalb eines jahres herzaubern kann. wann hören diese träumereien denn endlich auf? ich hab schon mehrmals aufgezählt welche schritte notwendig waren von gcn zu rdna. und diese punkte sind nun alle weg. was übrig bleibt ist hauptsächlich die gameclock als einsparpotential.

Raff
2020-06-08, 13:02:16
Passt schon, wenn man das Ding dann manuell ausreizen kann. :naughty:

MfG
Raff

Piefkee
2020-06-08, 13:05:01
stimmt das denn? langlay schrieb letztens das rdna2 in n7p kommt. zu navi10 fand ich nur informationen für 7nm. es es hier wirklich einen unterschiedlichen prozess gibt, bestätigt das meine vermutung das die game clock um ein paar 100mhz sinken wird.


Navi10 (5700 serie) ist bereits in N7P gefertigt...
Navi2x könnte jedoch in N7+ (EUV) gefertigt werden, ist nochmal etwas besser als N7P

https://fuse.wikichip.org/news/3331/radeon-rx-5700-navi-and-the-rdna-architecture/

. One important key feature to point out is the underlying process technology which is TSMC’s 2nd-generation 7-nanometer node (N7P) which not only provides significant density improvement over AMD’s last node, GlobalFoundries 14-nanometer process but also offers slightly better performance and power over the company’s own first-generation 7 nm process.

dildo4u
2020-06-08, 13:05:11
stimmt das denn? langlay schrieb letztens das rdna2 in n7p kommt. zu navi10 fand ich nur informationen zu 7nm. es es hier wirklich einen unterschiedlichen prozess gibt, bestätigt das meine vermutung das die game clock um ein paar 100mhz sinken wird.


Macht kein Sinn wenn die PS5 mit 2.3Ghz läuft, die High-End Modelle rennen nur bei NV Langsamer als MidRange.

BlacKi
2020-06-08, 13:07:13
Macht kein Sinn wenn die PS5 mit 2.3Ghz läuft, die High-End Modelle rennen nur bei NV Langsamer als MidRange.
einfach nicht verarschen lassen, danke

robbitop
2020-06-08, 13:09:09
desweiteren hab ich schon mehrmals geschrieben das man nicht einfach 50%perf/w bei gleichem, oder gar höheren takts innerhalb eines jahres herzaubern kann. wann hören diese träumereien denn endlich auf? ich hab schon mehrmals aufgezählt welche schritte notwendig waren von gcn zu rdna. und diese punkte sind nun alle weg. was übrig bleibt ist hauptsächlich die gameclock als einsparpotential.
Naja - RDNA2 ist schon relativ lange in der Entwicklung. Wie groß der Unterschied und die Zusammenhänge und die zeitliche Einordnung im RnD sind, kann man von außen kaum sagen.
Maxwell brachte bei gleichem Prozess deutliche Effizienzsteigerungen in 2015 ggü Kepler und Turing setzt ggü Pascal auch nur auf einem getunten 16nm Prozess (12nm) auf und brachte auch deutliche Effizienzvorteile.
Warum soll das bei AMD nicht gehen? Insbesondere, wenn N10 nur N7 war und N2x N7P (das wäre dann ja nicht so unähnlich zu Turing).

RDNA1 startet (gemessen an Turing) ja auch noch relativ moderat, so dass sicherlich noch einiges an Potenzial da ist.

Gerade neue uArchs, sofern es aus Execution Gründen feste Design Freezes gibt, haben noch oft ordentliche Potenziale, die dann in dessen Nachfolgern erschlossen werden.

Ex3cut3r
2020-06-08, 13:19:08
Sehe das wie Robbi. Seit dem Abgang von Raja und mit RDNA geht AMD den richtigen weg. Von Vega und Polaris habe ich nie wirklich dran geglaubt, dass AMD erstens den Stromverbrauch hinbekommt und zweitens gleichwertige Nvidia Performance erreicht. Mit RDNA sehe viel mehr Potenzial bei AMD. :smile:

dildo4u
2020-06-08, 13:23:31
einfach nicht verarschen lassen, danke
Wieso verarschen wenn Sony 500€ will sollten sie lieber den Takt liefern sonst ist Microsoft Meilen weg.

robbitop
2020-06-08, 13:24:36
Dazu kommt, dass man sein RnD dank MS/Sony und den Einkünften aus Ryzen steigern konnte. Auch impliziert das nun jährlich ein Iteration Modell wie Zen einführt, dass der Fokus und die Mittel hier vor einiger Zeit deutlich erhöht wurden. Auch die Mitarbeit von Teilen des Zen Teams wirkt sehr positiv.

Piefkee
2020-06-08, 13:28:09
.Warum soll das bei AMD nicht gehen? Insbesondere, wenn N10 nur N7 war und N2x N7P (das wäre dann ja nicht so unähnlich zu Turing).


Siehe mein Kommentar von vorhin.

N10 ist nicht N7 sondern hat bereits N7P
Deshalb ist der 50% Perf/W beworbene Anstieg von AMD sehr sportlich. Die 50% müssten zu 95% aus der Architektur kommen, da Navi2 auf N7P oder N7+ kommt.


https://fuse.wikichip.org/news/3331/radeon-rx-5700-navi-and-the-rdna-architecture/

mboeller
2020-06-08, 13:32:40
das hat AMD ja auch beim Renoir geschafft. Vorab hätte doch auch da niemand erwartet das 8 VEGA-CUs bei 1750MHz weniger als 15w verbrauchen. Eine 7nm Vega64 mit nur 120w SoC Verbrauch wäre doch ganz cool gewesen. Mal über 3 Ecken iteriert. ;) Die R7 ist davon ja meilenweit weg.

G3cko
2020-06-08, 13:34:29
Vielleicht haben sie gemerkt das sich die 4GB Karten einfach nicht mehr gut verkaufen. Dazu kommt möglicherweise noch die Dummheit der Spieler die keine Regler bedienen können. Da braucht man sich doch nur die Grafiksettings auf dem ersten Bild anschauen: High, Ultra, Very High. Was anderes scheint es ja nicht mehr zu geben...

Hat nichts mit Dummheit zu tun. Bereits die letzten Konsolen hatten bereits 8GB (VRAM + RAM). Und die Konsole ist nunmal Leadplattform. Und ganz ehrlich - Eine Graka mit 3.5GB wie die GTX970 war per Preisdefinition gehoben, die Astattung objektiv nun mal nicht. Wenn eine Konsole (inkl. CPU, RAM, HDD,...) bereits mehr bietet, warum sollte ein Entwickler auf VRAM PC-Krüppel rücksicht nehmen, nur weil der Endkunde wirtschaftlich unsinnig kauft. Muss er halt aufrüsten.

HOT
2020-06-08, 13:50:09
Siehe mein Kommentar von vorhin.

N10 ist nicht N7 sondern hat bereits N7P
Deshalb ist der 50% Perf/W beworbene Anstieg von AMD sehr sportlich. Die 50% müssten zu 95% aus der Architektur kommen, da Navi2 auf N7P oder N7+ kommt.


https://fuse.wikichip.org/news/3331/radeon-rx-5700-navi-and-the-rdna-architecture/
Die Architektur hat einen erheblich größeren Einfluss auf die Leistung als die Fertigung, siehe N10 vs. V20. Das wird wie immer das Performanceziel sein, dass AMD sich selbst gestellt hat, sonst nix. Das wird mMn auch wieder übertroffen werden.

mboeller
Exakt. Da sieht man nämlich, was geht, wenn diese Fertigung auch mal richtig optimiert wird, was offensichtlich weder bei V20 noch bei N10 und erst recht nicht bei N14 richtig durchgezogen wurde. Das geht mit Navi natürlich auch. Das ist aber nur Perf/W und daraus resultierend der Takt. Alles Weitere bringt die Architektur. Übrigens hat man bei Cezanne offenbar ja noch ne CU eingespart, was durch Takt mehr als ausgeglichen werden dürfte und das Ding ist wohl immer noch N7P aber eben nur mit 7 Vega-CUs. Da geht also offensichtlich noch mehr als bei Renoir.
Mehr Leistung würde bei DDR4 ja keinen Sinn ergeben.

robbitop
2020-06-08, 14:15:52
Siehe mein Kommentar von vorhin.

N10 ist nicht N7 sondern hat bereits N7P
Deshalb ist der 50% Perf/W beworbene Anstieg von AMD sehr sportlich. Die 50% müssten zu 95% aus der Architektur kommen, da Navi2 auf N7P oder N7+ kommt.


https://fuse.wikichip.org/news/3331/radeon-rx-5700-navi-and-the-rdna-architecture/
Kann z.T. aus dem Betriebspunkt oder besserer Ausnutzung der Spannungsreserve passieren (NV scheint automatisiert in der Produktion da näher dran zu sein). Da ist sicher noch einiges zu holen.
Der Rest aus der uArch ja. Aber wie gesagt: Maxwell und Turing holten auch schon einiges heraus. Maxwell brachte >50% mehr Energieeffizienz bei gleichem Prozess wie Kepler.

Hasenpfote
2020-06-08, 14:35:01
Ähm... wat? :|Laut https://www.techpowerup.com/gpu-specs/geforce-rtx-2080.c3224
hat ne 2080 20TFlop bei halber Genauigkeit. Und die hab ich über alle Karten verglichen.
Das Thema war Navi, also die aktuelle Gen. ;)
Das Thema war, dass AMD in der Vergangenheit unfähig war, die Rohleistung auch in FPS umwandeln zu können und ich es bezweifelte, dass AMD es jetzt plötzlich kann.
AMD schafft es jetzt gerade mal bei Nvidia mitzuhalten. Man stelle sich vor, Nvidia macht den Sprung, den AMD von 14nm auf 7nm gemacht hat.
Irgendwie denken hier alle, Nvidia macht einen auf Intel und fächelt sich mit den Geldscheinen den ganzen Tag frische Luft an den Sack (um selbigen vor Langeweile nicht kratzen zu müssen) und labern dann Blödsinn wie, dass RDNA2 schneller als eine 3080 sein wird. Mag sein, dass Samsungs 8nm nicht mit TSMC 7nm mithalten können, aber bisher hat Nvidia AMD noch immer in die Schranken verweisen.

Habt ihr alle "Poor Volta!" vergessen?
Oder den Hype-Train um Vega, die dank Primitive Shaders ALLES wegbügelt?
Bin gespannt, ob AMD die Treiber soweit stabil bekommt, damit RDNA2 mit Cyberpunk 2077 läuft. Aber Treiber im ersten Jahr sind ein anderes Thema...

Ich muss nur ein Spiel starten und meiner Vega 56 lauschen, um schlechte Laune zu bekommen. Die nur erträglich ist, weil UV, wobei dann der Treiber alle vier Wochen resetted und mich die Karte dann wieder anbrüllt.

Aber RDNA2 bügelt Ampere weg. ja nee is klar....

Piefkee
2020-06-08, 14:44:37
Das Thema war, dass AMD in der Vergangenheit unfähig war, die Rohleistung auch in FPS umwandeln zu können und ich es bezweifel, dass AMD es jetzt plötzlich kann.


Ich stimme dir zu 100% im ersten teil des Satz zu. Vega war was Gaming angeht eine Katastrophe. Der zweite Teil deines Satz stimmt mM nicht. AMD hat mit Navi deutlich gezeigt das sie ihere Rohleistung auch in FPS bringen können.
Computerbase hat mal 5700 vs 2700 Taktgleich laufen lassen. Ist mehr oder weniger identisch. (Natürlich hat AMD einen erheblichen Fertigungsvorteil und müssten eigentlich mehr bringen) Aber das Argument das AMD die Rohleistung nicht in FPS umwandeln kann ist falsch (jedoch war es damals zu VEGA so...)

Der_Korken
2020-06-08, 14:56:00
Laut https://www.techpowerup.com/gpu-specs/geforce-rtx-2080.c3224
hat ne 2080 20TFlop bei halber Genauigkeit. Und die hab ich über alle Karten verglichen.

Erstens ist halbe Genauigkeit für Games ziemlich nachrangig. Zweitens beziehen sich diese Angaben auf irgendeine von Nvidia auf dem Papier angegebene Taktrate, die in der Praxis überhaupt nicht anliegen muss. Mit einem niedrig angegeben Takt kann man sich dann fps pro Rohleistung schön rechnen.


Das Thema war, dass AMD in der Vergangenheit unfähig war, die Rohleistung auch in FPS umwandeln zu können und ich es bezweifel, dass AMD es jetzt plötzlich kann.

Der Realität ist es egal, ob du sie bezweifelst. Es wurde im Thread bereits ein Test verlinkt, der genau das belegt. Selbst wenn es für Turing nicht ganz reicht, an Pascal zieht RDNA locker vorbei. Und an Vega sowieso.

HOT
2020-06-08, 15:19:39
Aber grade Vega zeigt doch, dass es eben doch geht und zwar mit 1,7GHz bei 15W TDP! Die Probleme von AMD waren komplex und dürften vor allem im Personalmangel bestanden haben. Der löst sich jetzt auf und auf einmal gehen die gleichen GPUs im gleichen Prozess(!) erheblich besser. Es ist ja damals mit dem Konflikt zwischen Raja und Lisa klar geworden, dass man für Vega soviel Personal wie möglich abgezogen hat, um die Ryzen-Chips zu optimieren. Und Ryzen war optimiert, Vega aber eben nicht. Das ganze Personal, was man jetzt aufgebaut hat musste ja auch erst lernen. Das schlägt eben jetzt erst durch.
Man macht es sich wirklich sehr leicht, wenn man sowas behauptet wie Hasenpfote. Die Realität ist sehr viel komplexer. NV und Intel haben immer am Maximum operiert, hatten nie Personalprobleme in der Chipentwicklung. Beide haben immer ihre Chips bis zum Erbrechen durchoptimiert. AMD macht das jetzt auch und schon gucken alle doof aus der Wäsche. Ryzen 3k lässt grüßen.

amdfanuwe
2020-06-08, 15:34:05
Vega in Renoir ist ein anderes Kaliber als Vega 64.
AMD hat doch auch schon gesagt, dass RDNA2 von der Renoir Entwicklung in Sachen Effizienz profitiert.
Ich schätze mal, RDNA war ein Schnellschuß ohne großartige Optimierungen. 7nm und neue Architektur waren erstmal gut genug für Navi.
Bei RDNA2 fließen nun Mobile Erfahrungen für Konsolen und Desktop Chips mit ein.

HOT
2020-06-08, 15:38:46
Das ist sicherlich so. Es gab ja auch offenbar erhebliche Probleme mit der Entwicklung des Chips.

mironicus
2020-06-08, 15:48:18
Ja, da hat es bei AMD wohl "Klick" gemacht und jetzt haben sie den Dreh raus. Und auf dem Wissen können sie jetzt aufbauen und liefern uns Produkte die wir ihnen nie zugetraut hätten.

AMD hat jetzt die Chance alle hinter sich zu lassen, auch NVidia.

DrFreaK666
2020-06-08, 15:53:21
Ja, da hat es bei AMD wohl "Klick" gemacht und jetzt haben sie den Dreh raus. Und auf dem Wissen können sie jetzt aufbauen und liefern uns Produkte die wir ihnen nie zugetraut hätten.

AMD hat jetzt die Chance alle hinter sich zu lassen, auch NVidia.

So sehe ich das nicht. Es würde schon reichen wenn sie einigermaßen mithalten können.
Vielleicht hat AMD Glück und NV verkackt die nächste Generation, wie damals die GTX480

davidzo
2020-06-08, 15:59:33
Die Probleme von AMD waren komplex und dürften vor allem im Personalmangel bestanden haben.

Ich denke bei dieser neuen Dynamik spielen die Konsolen auch eine Rolle. Es war von vornherein klar dass man sich gegen Ende des Konsolenzyklus wieder auf Visual processing konzentrieren muss und die CPU Implementierung erstmal in den Hintergrund rückt wenn man MS und Sony nicht verlieren wollte. Solange man nichtmal 20% des discrete markts hat und gerade keine großen Semicustom Kunden anklopfen lohnte es sich einfach nicht groß in die Entwicklungsteams rein zu buttern. Entsprechend läuft solange erstmal alles auf Sparflamme und man ist mit relativ geringen Margen zufrieden. Vor 2-3 Jahren hat man dann eingesehen dass es sich zu dem Zeitpunkt wo RDNA2 begonnen wurde wieder lohnt zu investieren, da man dann den Zuschlag der Konsolenhersteller bekommt und auch im Desktop wieder kompetitiv mitspielen kann.

HOT
2020-06-08, 16:08:46
Ja, da hat es bei AMD wohl "Klick" gemacht und jetzt haben sie den Dreh raus. Und auf dem Wissen können sie jetzt aufbauen und liefern uns Produkte die wir ihnen nie zugetraut hätten.

AMD hat jetzt die Chance alle hinter sich zu lassen, auch NVidia.
Bullshit
Die haben 3 Jahre harte Arbeit mit N7 und erheblich mehr Personal gebraucht um das zu erreichen. Mit Zen2 hat auch keiner gerechnet und es ist passiert.

davidzo
Das ist sicherlich korrekt. Aber auch und grade für die Konsolen musste man sich erheblich um das eigentliche Chipdesign kümmern. Wir wissen, dass es da schon lange Chip-Samples gibt, schon seit Frühjahr 2019.
Meine Theorie wäre daher sogar, dass man alle Arbeit in Zen2 und danach auf die Konsolenchips konzentriert hat. Die beiden Navi-Chips und auch Vega 20 waren hier nur Nebenprojekte, wobei es bei der N10-Entwicklung offenbar sogar noch mehrere Respins gebraucht hat, bevor das Ding überhaupt lief. Alles, was da mit dem Prozess an Erkenntnissen gesammelt wurde dürfte in Renoir, aber vor allem in RDNA2 hineingeflossen sein. Man gibt ja nicht aus Spass so einen Zuwachs so früh (also 3/4 Jahr vor der Veröffentlichung der Produkts) bekannt. Da wusste man schon, was kommt.

Dass da aber auch im Prozessorbereich einiges passiert ist, kann man ganz gut an den hohen Taktraten der Zen3-Samples sehen. Auch hier ist was zu erwarten. Das ist weder Zauberei noch Zufall, sondern man hat endlich die Ressourcen, das in einer ähnlichen Qualität zu machen wie die "Großen".

Langlay
2020-06-08, 16:12:52
stimmt das denn? langlay schrieb letztens das rdna2 in n7p kommt. zu navi10 fand ich nur informationen zu 7nm. wenn es hier wirklich einen unterschiedlichen prozess gibt, bestätigt das meine vermutung das die game clock um ein paar 100mhz sinken wird.



Meine Aussage war :

Nein. Vega20 kam in N7FF, Big Navi kommt zumindest in N7P.

Und das war eine Richtigstellung einer Aussage von Nightspider:

VII hat aber auch einen riesigen Sprung beim Fertigungsprozess hingelegt.

Falls Big Navi nicht in 7nm+ kommt, bleibt es beim gleichen Fertigungsprozess.



Also ich weiss nicht ob RDNA2 nun in N7P oder N7+ kommt. Ich bin mir allerdings recht sicher sie kommt nicht in N7FF.

Davonab das der Gameclock um mehrere 100 MHz sinken wird daran glaub ich nicht. Bei der Radeon VII ist der Unterschied zwischen ~1750 MHZ Gameclock (Stock) und 1650 MHz (-100MHz) schon ziemlich gross was den Stromverbrauch angeht.

HOT
2020-06-08, 16:27:34
N7+ ist glaub ich tot. Alles was EUV ist wird mMn alle bei N6 und N5(+) landen aufgrund der gewaltigen Nachfrage.
AMD scheint alles in N7P (Zen3 bestätigt, RDNA2 sehr wahrscheinlich, Konsolen sehr wahrscheinlich und Cezanne auch wahrscheinlich) zu fertigen.

Navi ist offenbar N7P, Zen2 und Renoir nur N7 (Renoir könnte auch N7P sein).

Complicated
2020-06-08, 16:33:55
N7+ ist der kritische Zwischenschritt, der mit wenig EUV-Layern einen Produktzyklus vor Intel und Samsung mit Ihren EUV-Prozessen ermöglicht. Der wäre dann tot, wenn man direkt auf 5nm springen könnte. Ich bezweifle, dass TSMC einen Prozess der 2021-2023 einen Vorteil bietet bei der Anzahl des Waferoutputs (3-4 mal weniger EUV-Layer=>entsprechend weniger Belichter benötigt) und dadurch niedrigeren Kosten beerdigt. N7P ist reines DUV. Ich nenne es mal Transit-Vorteil zu EUV. Es wird eine Frage der tatsächlichen Kosten sein, schätze ich.

HOT
2020-06-08, 16:36:52
Wenn niemand außer Huawei den nutzt hat der keine Zukunft.

Zossel
2020-06-08, 16:47:31
Erstens ist halbe Genauigkeit für Games ziemlich nachrangig.

IMHO rechnen Spiele fast alles für Graphik in Float (32-Bit). Double (64-Bit) können die meisten Spiele GPUs nur sehr langsam.

Mangel76
2020-06-08, 16:58:34
Ich denke bei dieser neuen Dynamik spielen die Konsolen auch eine Rolle. Es war von vornherein klar dass man sich gegen Ende des Konsolenzyklus wieder auf Visual processing konzentrieren muss und die CPU Implementierung erstmal in den Hintergrund rückt wenn man MS und Sony nicht verlieren wollte.

Wie lange AMD mit MS und Sony wohl schon an RDNA2 basteln? Ich habe den Eindruck, dass man da schon ziemlich lange dran arbeitet und RDNA eher ein Abfallprodukt daraus war. Zen1 scheint ja auch so etwas zu sein, ein früher Zwischenschritt auf dem Weg zu "Zen done right". Ich traue Lisa durchaus eine langfristige Vision zu, sodass man auf ein großes Ziel hinarbeitet und zwischendurch mal die aktuellen Zwischenstände released. Das RT ne große Rolle bei den NG-Konsolen spielen wird, weiß man doch auch nicht erst seit NVIDIA die RTX rausgebracht hat. Da wird sicher ne Menge Geld und Hirnschmalz in den letzten Jahren reingeflossen zu sein.

Werden eigentlich so grundsätzliche Dinge wie RT-Beschleunigung, die ja sowohl bei MS als auch bei Sony in die Konsole kommen, auch gemeinschaftlich entwickelt? Oder entwickelt AMD das allein und bietet es den Kunden nur an?

w0mbat
2020-06-08, 17:00:45
Vor allem hat AMD jetzt auch wieder mehr als genug Geld um das R&D kräftig hochzufahren, bzw. hat das ja schon gemacht. Viele Probleme lassen sich dann doch durch manpower lösen, bzw. verbessern.

Mir mehreren Teams sitzt man bei einem Reinfall (BD) dann auch nicht mehr komplett hilflos da.

Complicated
2020-06-08, 17:17:45
Wie gesagt wird es von den benötigten Kapazitäten abhängen - AMD wird dort am ehesten welche bekommen, wenn Huawei raus fliegt. Ein Zen3-Port ist hier kostengünstig möglich und dürfte schneller verfügbar sein als 5nm Zen4-Produkte. Der Prozess muss nicht länger als 1 Jahr halten, bis 5nm in 2022 in großen Mengen verfügbar ist. Er kann auch über 1-2 Jahre länger genutzt werden, sollte es bei 5nm nicht genügend schnell mit der Steigerung der Waferzahl um auch den Zuwachse der Marktanteile vorantreiben zu können. 7nm+ bringt zudem EUV-Erfahrung mit sich, die in 5nm durchaus entscheidende sein können wenn die Layer mehr werden und möglicherweise doch schon Double-Patterning nötig werden sollte wegen nicht ausreichend NA-Belichter für einfach-Belichtung lieferbar sind bei ASML.

7nm+ bringt Flexibiltät im EUV-Transit.

Berniyh
2020-06-08, 17:23:20
Ach Kinners … hilft denn der tausendste Nvidia vs. AMD Vergleich zu dem Zeitpunkt wirklich weiter?
Gibt doch eh keine neuen Infos und das Bekannte wurde nun oft genug aufgekocht.
N10 ist nicht N7 sondern hat bereits N7P
Lieben wir nicht alle diese Abkürzungen? Den Satz muss ich mir jedenfalls einrahmen … :freak:

disap.ed
2020-06-09, 09:42:20
Werden eigentlich so grundsätzliche Dinge wie RT-Beschleunigung, die ja sowohl bei MS als auch bei Sony in die Konsole kommen, auch gemeinschaftlich entwickelt? Oder entwickelt AMD das allein und bietet es den Kunden nur an?
Das hat Mark Cerny in der "Road to PS5" angesprochen, es scheint wohl tatsächlich so zu sein, dass "grundsätzliche Dinge" (wie auch immer das geregelt ist, was da dazuzählt) in die gesamte Architektur einfließen (also nascht Sony von MS mit und vice-versa) und nur so "Secret Sauce"-Sachen exklusiv bleiben.

BlacKi
2020-06-09, 12:12:28
das hat AMD ja auch beim Renoir geschafft. Vorab hätte doch auch da niemand erwartet das 8 VEGA-CUs bei 1750MHz weniger als 15w verbrauchen. Eine 7nm Vega64 mit nur 120w SoC Verbrauch wäre doch ganz cool gewesen. Mal über 3 Ecken iteriert. ;) Die R7 ist davon ja meilenweit weg.
die 15w gelten nur für den chip. da fehlt das hbm, da fehlt die spannungsvesorgung, speichercontroller und dann ist es eben ein neuer prozess, genauer, ein stromsparprozess. zufällig genau der, der auch bei rdna und rdna genutzt wird und werden wird.

können die leute denn nicht 1 und 1 zusammenzählen?


Ich schätze mal, RDNA war ein Schnellschuß ohne großartige Optimierungen.
genau das sehe ich anders. rdna war ein riesen schritt, man hat den hpc ballast schon abgeschmissen. der war der hauptgrund zusammen mit dem prozess, das man die 50% p/w erreichen konnte.

alles was nun übrig bleibt sind hoffnungen und träumereien.

Der_Korken
2020-06-09, 12:17:42
die 15 gelten nur für den chip. da fehlt das hbm, da fehlt die spannungsvesorgung, speichercontroller und dann ist es eben ein neuer prozess, genauer, ein stromsparprozess. zufällig genau der, der auch bei rdna und rdna genutzt wird und werden wird.

können die leute denn nicht 1 und 1 zusammenzählen?

Also für mich ist der 128bit breite DDR4 IMC und die PHYs dafür Teil des Chips. Und wenn der "Stromsparprozess" >2Ghz schafft (so hoch soll die Renoir-GPU im Desktop angeblich boosten können), ist doch alles gut. Vega ist natürlich nicht Navi, aber V20 verbraucht (nur die GPU) doch schon locker >200W bei 1750Mhz. Da wären 1/7,5 davon (60/8) immer noch 26,6W. Ja V20 hat viel I/O, aber Reniors I/O mal 7,5 ist auch ne Menge. Ich finde den Vergleich nicht so weit hergeholt um zu sehen, was fortschreitene Fertigungsreihe - und beherrschung gepaart mit Optimierungen so bringen können.

BlacKi
2020-06-09, 12:27:06
ich bezweifle nicht das der takt nicht möglich ist, hab ich auch schon tausend mal gesagt, ich bezweifle nur das man den takt im verbrauch halten können wird. 80cu sind was anderes wie 40 oder 64. erst recht mit gddr6. man sieht aber schön an renoir das man verbrauchstechnisch im optimum bei 1750boosten wird. wait a moment - genau wie navi21.

Linmoum
2020-06-09, 12:38:31
man sieht aber schön an renoir das man verbrauchstechnisch im optimum bei 1750boosten wird. wait a moment - genau wie navi21.
Rückschlüsse von Renoir mit Vega auf RDNA2 zu ziehen ist schon... ziemlich albern.

ianm
2020-06-09, 12:53:07
Äh du vergleichst jetzt nicht ernsthaft Renoir mit Vega Architektur gegen RDNA2? Über Vega in mobile hat AMD sicher viel gelernt, du kannst das doch aber nicht auf eine komplett andere Architektur übertragen, die mindestens eine Generation weiter ist.

edit: *hust* Man sollte Tabs auch mal aktualisieren...

robbitop
2020-06-09, 12:57:38
Allerdings sind in den 15W für Renoir auch noch 8x Zen 2 cores.

-----

Was die Rückschlüsse angeht. Hier hatte Lisa Su IIRC in einem Interview gesagt, dass man durch Renoir einiges an Energieeffizienzmaßnahmen gelernt hat, was in zukünftige GPUs einfließen wird. Das war bei NV nicht anders als man aus mobile Kepler (für Tegra) einiges gelernt hatte, was dann in Pascal eingeflossen ist.

Das kann auf Transistorebene sein. Das kann Datenlokalität und Reuse betreffen (gerade Datentransfers machen einen guten Teil der Leistungsaufnahme moderner GPUs aus). Das kann automatisiertes Binning betreffen (Endprodukt ist mit der Spannungs/Frequenzkurve individuell näher am Limit). Das kann Power/Clockgating und individuelle Frequenzsteuerung verschiedener Blöcke betreffen.

Erkenntnisse kann man in gewissen Rahmen schon auf neuere uArchs übertragen.

BlacKi
2020-06-09, 13:01:54
Äh du vergleichst jetzt nicht ernsthaft Renoir mit Vega Architektur gegen RDNA2? Über Vega in mobile hat AMD sicher viel gelernt, du kannst das doch aber nicht auf eine komplett andere Architektur übertragen, die mindestens eine Generation weiter ist.

edit: *hust* Man sollte Tabs auch mal aktualisieren...
hab ich nicht, es ging nur um die boostclock.

ianm
2020-06-09, 13:48:20
hab ich nicht, es ging nur um die boostclock.
Macht trotzdem keinen Sinn. Neue Architektur, neuer Prozess, niemand von uns weiß was konmt. Du rätst wild in der Gegend rum. Mehr auch nicht.

Ravenhearth
2020-06-09, 14:52:23
Allerdings sind in den 15W für Renoir auch noch 8x Zen 2 cores.

-----

Was die Rückschlüsse angeht. Hier hatte Lisa Su IIRC in einem Interview gesagt, dass man durch Renoir einiges an Energieeffizienzmaßnahmen gelernt hat, was in zukünftige GPUs einfließen wird. Das war bei NV nicht anders als man aus mobile Kepler (für Tegra) einiges gelernt hatte, was dann in Pascal eingeflossen ist.

Das kann auf Transistorebene sein. Das kann Datenlokalität und Reuse betreffen (gerade Datentransfers machen einen guten Teil der Leistungsaufnahme moderner GPUs aus). Das kann automatisiertes Binning betreffen (Endprodukt ist mit der Spannungs/Frequenzkurve individuell näher am Limit). Das kann Power/Clockgating und individuelle Frequenzsteuerung verschiedener Blöcke betreffen.

Erkenntnisse kann man in gewissen Rahmen schon auf neuere uArchs übertragen.
Ja, IIRC hat Mark Cerny gesagt, dass Datenlokalität ein wesentlicher Punkt bei RDNA2 war.

50% mehr Perf/W bei trotzdem höheren Frequenzen sind im gleichen Prozess definitiv möglich, siehe Maxwell.

[MK2]Mythos
2020-06-09, 14:58:58
Macht trotzdem keinen Sinn. Neue Architektur, neuer Prozess, niemand von uns weiß was konmt. Du rätst wild in der Gegend rum. Mehr auch nicht.
+1
(und das mit einer selbstverständlichen Überzeugung, imo schon ziemlich peinlich)

Nightspider
2020-06-09, 16:52:38
Blacki sieht alles ziemlich negativ bei AMDs Entwicklung.

Und das obwohl Nvidia das gleiche geschafft hat soll AMD das jetzt nicht können obwohl sie mir Zen2 und RDNA schon große Sprünge gemacht haben und bei den CPUs jetzt sogar Intel massiv Land abgraben.

gedi
2020-06-09, 21:56:42
Laut https://www.techpowerup.com/gpu-specs/geforce-rtx-2080.c3224
hat ne 2080 20TFlop bei halber Genauigkeit. Und die hab ich über alle Karten verglichen.

Das Thema war, dass AMD in der Vergangenheit unfähig war, die Rohleistung auch in FPS umwandeln zu können und ich es bezweifelte, dass AMD es jetzt plötzlich kann.
AMD schafft es jetzt gerade mal bei Nvidia mitzuhalten. Man stelle sich vor, Nvidia macht den Sprung, den AMD von 14nm auf 7nm gemacht hat.
Irgendwie denken hier alle, Nvidia macht einen auf Intel und fächelt sich mit den Geldscheinen den ganzen Tag frische Luft an den Sack (um selbigen vor Langeweile nicht kratzen zu müssen) und labern dann Blödsinn wie, dass RDNA2 schneller als eine 3080 sein wird. Mag sein, dass Samsungs 8nm nicht mit TSMC 7nm mithalten können, aber bisher hat Nvidia AMD noch immer in die Schranken verweisen.

Habt ihr alle "Poor Volta!" vergessen?
Oder den Hype-Train um Vega, die dank Primitive Shaders ALLES wegbügelt?
Bin gespannt, ob AMD die Treiber soweit stabil bekommt, damit RDNA2 mit Cyberpunk 2077 läuft. Aber Treiber im ersten Jahr sind ein anderes Thema...

Ich muss nur ein Spiel starten und meiner Vega 56 lauschen, um schlechte Laune zu bekommen. Die nur erträglich ist, weil UV, wobei dann der Treiber alle vier Wochen resetted und mich die Karte dann wieder anbrüllt.

Aber RDNA2 bügelt Ampere weg. ja nee is klar....

Nö - aber das was ich gesehen habe ist ne 3080 non Ti mit 320W TBP. Auch eine Lederjacke kann sich der Physik nicht entziehen

Raff
2020-06-09, 23:36:19
[...] Irgendwie denken hier alle, Nvidia macht einen auf Intel und fächelt sich mit den Geldscheinen den ganzen Tag frische Luft an den Sack (um selbigen vor Langeweile nicht kratzen zu müssen) [...]

Ein großartiges Bild. You made my evening! :ulol:

Ja, IIRC hat Mark Cerny gesagt, dass Datenlokalität ein wesentlicher Punkt bei RDNA2 war.

50% mehr Perf/W bei trotzdem höheren Frequenzen sind im gleichen Prozess definitiv möglich, siehe Maxwell.

Datenlokalität ist doch nur ein schönes Wort für: Wir haben die Caches vergrößert. ;) Man kann mit fetten Caches verhindern, dass viele Transfers Richtung Grafikspeicher gemacht werden müssen. Maxwells Effizienz kam aus genau solchen Gründen zustande, da hat schon der GM107 satte 2 MiB L2$, während der GK110 nur 1,5 bot. GA100 liefert Faktoren mehr als seine Vorgänger und RDNA2 wird die Caches gewiss auch (teilweise) verdoppeln. Das ist nix Neues.

MfG
Raff

Hasenpfote
2020-06-09, 23:40:33
Nö - aber das was ich gesehen habe ist ne 3080 non Ti mit 320W TBP. Auch eine Lederjacke kann sich der Physik nicht entziehenDu hast ne Karte gesehen, die erst in einigen Monaten veröffentlicht wird?
edit: ah, gerade gesehen, dass das bereits geleakt und durch Igor's Lab bestätigt wurde.

Der_Korken
2020-06-10, 00:15:27
Datenlokalität ist doch nur ein schönes Wort für: Wir haben die Caches vergrößert. ;) Man kann mit fetten Caches verhindern, dass viele Transfers Richtung Grafikspeicher gemacht werden müssen. Maxwells Effizienz kam aus genau solchen Gründen zustande, da hat schon der GM107 satte 2 MiB L2$, während der GK110 nur 1,5 bot. GA100 liefert Faktoren mehr als seine Vorgänger und RDNA2 wird die Caches gewiss auch (teilweise) verdoppeln. Das ist nix Neues.

Ein bisschen mehr steckt hinter Datenlokalität schon. Die größten Caches nützen ja nichts, wenn der zugehörige Prozessor die Daten so wild und random anfragt, dass er im Cache nie das findet, was er sucht. Gipsel hatte das mal genauer erklärt, als AMD für Vega ihren "Stream Binning Rasterizer" angekündigt hat. Nvidia teilt das Bild seit Maxwell in kleinere Tiles auf, die dann "komplett" durchgerechnet werden, d.h. alle dort übereinander liegenden Objekte in einem Rutsch. Es gab ein Programm, welches dieses Verhalten aufgedeckt hat:

https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/39964-tile-based-rasterization-als-geheimrezept-hinter-der-maxwell-pascal-architektur-enthuellt.html

RDNA verhält sich afaik noch immer wie GCN, zumindest laut diesem Tool. Auch RT ist in diesem Zusammenhang interessant, da hatte auch jemand (ich glaube es war gravitationsfeld) erklärt, dass das Zugriffsmuster hier prinzipbedingt sehr random ist, wodurch es kaum von Caches profitiert, dafür aber von viel Speicherbandbreite.

Hasenpfote
2020-06-10, 14:57:37
Nö - aber das was ich gesehen habe ist ne 3080 non Ti mit 320W TBP. Auch eine Lederjacke kann sich der Physik nicht entziehenHAHAHAHAHAHA!
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=70504&d=1591782782

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=70505&d=1591782782

Dein Post ist ja mal schlecht gealtert! ;D
Physics is a bitch ;D

Ravenhearth
2020-06-10, 14:59:12
Das erscheint mir alles ziemlich unglaubwürdig.

Mangel76
2020-06-10, 15:14:58
Ha, Big Navi wird noch viel besser als gedacht! Doppelter verbrauch bei +50% frames pro Watt! Das wird richtig gut!

Daredevil
2020-06-10, 15:19:07
"Big Navi" und 400w klingt für mich jetzt im ersten Moment nach sowas hier:

Zuviel vorgenommen, zuwenig geschafft. :D
https://th.bing.com/th/id/OIP.JQGsRbeax75p_ZsObeShxwHaF9?pid=Api&rs=1

Aber vielleicht hebt AMD den Prestige Level ja noch höher, als so ne Titan da oben schon rumfleucht.
Fetter DIE, Wakü drauf, TDP hoch, WrmmWrmmm.

JVC
2020-06-10, 15:23:17
Ha, Big Navi wird noch viel besser als gedacht! Doppelter verbrauch bei +50% frames pro Watt! Das wird richtig gut!
Kann ich mir irgendwie nicht vorstellen...

Das wäre ja fast das 4 fache von der 5700 XT :eek:
Da würde ich auch ne 500Watt GPU nehmen ;D

M.f.G. JVC

Ich bastle mir mal zum spaß ne Wunsch Top Dog Graka zusammen ^^
4 mal so schnell wie die 5700 XT (dual N21 + neue Software)
490 Watt + Wakü
48GB HBM²e
~ 1999.-
Nr. 2 in der Liste könnte wie folgt aussehen.
2 mal so schnell wie die 5700 XT (single N21)
245 Watt + Lukü
24GB HBM²e
~ 999.-
Da wüsste ich echt nicht zu welcher ich greifen sollte :freak:

|MatMan|
2020-06-10, 15:30:53
Ha, Big Navi wird noch viel besser als gedacht! Doppelter verbrauch bei +50% frames pro Watt! Das wird richtig gut!
Wer hat denn gesagt, dass die +50% Perf/Watt bei dem Modell mit der höchsten Performance erreicht werden? Als ob Perf/Watt eine Konstante für eine GPU Familie wäre...

Hauwech
2020-06-10, 15:31:06
Kann ich mir irgendwie nicht vorstellen...

Das wäre ja fast das 4 fache von der 5700 XT :eek:
Da würde ich auch ne 500Watt GPU nehmen ;D

M.f.G. JVC

Wieso das vierfache? 5700XT hat doch 225W TDP?

Nightspider
2020-06-10, 15:31:25
Zur Not einfach einen Wasserkühler drauf und 20% übertakten. ;D

Mangel76
2020-06-10, 15:47:28
Wer hat denn gesagt, dass die +50% Perf/Watt bei dem Modell mit der höchsten Performance erreicht werden? Als ob Perf/Watt eine Konstante für eine GPU Familie wäre...

Lustig, wie sie alle anspringen ;D

Nein, ich glaube erstmal nicht an 400W bei Big Navi, dass passt einfach nicht zu den angekündigten Effizienzsteigerungen der Architektur (!). Wenn beides zutreffen würde, dann wäre das echt ein Monster und würde auch die kolportierten 350W bei NV erklären, weil sie ihre Fell davonschwimmen sehen :biggrin: Aber ich glaube eher den offiziellen Aussagen als so einem dahingeworfenen Wert in einem Chat, bei dem der Spekulatius fehlt. Wenns doch so kommt, dann gibt es aber wenigstens noch den Power-Regler :D

Mangel76
2020-06-10, 15:51:46
Wieso das vierfache? 5700XT hat doch 225W TDP?

Ja ne, nich 4fach. Aber wenigstens 266,67% (=150*400/225) :biggrin:

Emil_i_Lönneberga
2020-06-10, 16:04:15
HAHAHAHAHAHA!
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=70504&d=1591782782

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=70505&d=1591782782

Dein Post ist ja mal schlecht gealtert! ;D
Physics is a bitch ;D

Richtig so, keine Gnade für die Lukü-Fraktion. Beim Topdog will ich Leistung sehen.

[MK2]Mythos
2020-06-10, 16:28:53
Ich habe meine ganz spezielle eigene Theorie: Wenn das mit den 400Watt stimmen sollte, dann gibt es nur einen Grund dafür: AMD will mit dem Halo Produkt die Performance Krone, ansonsten hätten sie nämlich auch bei ner guten Performance unterhalb von NV's Spitzenprodukt mit unter 300 Watt bleiben können.
Und beide wissen vom jeweils anderen, wo die Leistung landen wird, deswegen habe beide die Karten so hochgeprügelt. :biggrin:

Klevapalis
2020-06-10, 16:39:13
Mythos;12333342']AMD will mit dem Halo Produkt
Ach so, Halo ist gar im Sinne von Leuchtturm Produkt gemeint, dass die Karte einfach hellrot glüht ;D

Der_Korken
2020-06-10, 16:47:11
Bei so einem Unsinn bin ich definitiv raus. Keine Ahnung wie einige solche absruden Verbräuche noch feiern können. Wenn euch die Karten zu wenig verbrauchen, lötet doch einfach ein paar Heizspiralen dran.

Linmoum
2020-06-10, 16:52:55
Ich "feier" einen solchen Verbrauch dann, wenn die Performance passt. Das ist das entscheidende Kriterium.

Wem Verbrauch X zu viel ist, der kann ja gewohnt das PT runterdrehen und fertig.

|MatMan|
2020-06-10, 17:20:24
Lustig, wie sie alle anspringen ;D
Naja die Fans rechnen ja ständig mit der Angabe, da kann man doch mal nachfragen.

Mich wundert eher, dass solch hohe Verlustleistungen etwas bringen sollen. Bei den FinFet Prozessen war doch ziemlich schnell Schluss mit dem Takt, da hat die Brechstange nur wenig gebracht (siehe Vega oder extremeres custom OC bei egal welcher aktuellen GPU). Nun soll eine noch größere Brechstange helfen?
GA100 sehe ich da außen vor, weil der einfach riesig ist und der Takt noch nicht besonders hoch.

Mangel76
2020-06-10, 17:24:49
Naja die Fans rechnen ja ständig mit der Angabe, da kann man doch mal nachfragen.

Mich wundert eher, dass solch hohe Verlustleistungen etwas bringen sollen. Bei den FinFet Prozessen war doch ziemlich schnell Schluss mit dem Takt, da hat die Brechstange nur wenig gebracht (siehe Vega oder extremeres custom OC bei egal welcher aktuellen GPU). Nun soll eine noch größere Brechstange helfen?
GA100 sehe ich da außen vor, weil der einfach riesig ist und der Takt noch nicht besonders hoch.

So ganz glauben mag ich diese hohen Werte auch noch nicht (Ampere 350W, Navi bis 400W). Zumal ja wohl bei den Bildern maximal ein Anschluss zu erkennen sein soll. Bei VEGA ist UV auch wesentlich sinnvoller als OC, meine läuft mit 1500MHz und 150-170W. Aber Renoir hat ja gezeigt, dass sogar VEGA bei geringem Verbrauch hoch takten kann. Wir werden wohl abwarten müssen, was am Ende tatsächlich bei rauskommt.

Hasenpfote
2020-06-10, 18:28:46
Es wird wohl echt Zeit dass ich mir eine Solaranlage kaufe und dann die Grafikkarte ins Heizungssystem integriere. Zusammen mit Mining kriegt man die Bude schön warm ;D

Der_Korken
2020-06-10, 18:35:11
Ich "feier" einen solchen Verbrauch dann, wenn die Performance passt. Das ist das entscheidende Kriterium.

Wem Verbrauch X zu viel ist, der kann ja gewohnt das PT runterdrehen und fertig.

Dich meine ich auch nicht ;)

Für mich klingt das nicht gut, sollte da wirklich was dran sein. Ja, man kann sich freuen, dass der Topdog mit 400W+50% Effizienz dann quasi die Leistung einer "600W-RDNA1"-Karte hätte. Ich befürchte aber eher, dass man eigentlich auf viel kleinere Verbräuche hin entwickelt hat, aber nun alles wieder wegwirft, weil man mit 400W die fehlenden 5% auf Nvidia reinholen will.

BoMbY
2020-06-10, 20:00:13
Mehr als 375W TDP (2x 8-Pin) Out of the Box ist wohl eher unwahrscheinlich. Man kann erwarten dass die Performance/Watt eher besser als schlechter wird.

Gegenüber einer 5700 XT wären dass dann ~+66% mehr Rohleistung? Plus was auch immer man durch die IPC gewinnen kann. Da könnte man dann quasi bei einer Verdopplung bei vielen Benchmarks rauskommen.

Brillus
2020-06-10, 20:04:51
Langsam könnte man sich fragen ob sie die Idee der Voodo5 6000 wieder auspacken sollen:

Graka mit eigenen Netzteil an die Steckdose.
http://www.x86-secret.com/pics/divers/v56k/finalv5-6000.jpg

Schnitzl
2020-06-10, 20:12:13
Dich meine ich auch nicht ;)

Für mich klingt das nicht gut, sollte da wirklich was dran sein. Ja, man kann sich freuen, dass der Topdog mit 400W+50% Effizienz dann quasi die Leistung einer "600W-RDNA1"-Karte hätte. Ich befürchte aber eher, dass man eigentlich auf viel kleinere Verbräuche hin entwickelt hat, aber nun alles wieder wegwirft, weil man mit 400W die fehlenden 5% auf Nvidia reinholen will.
Bitte nicht schon wieder diesen Fehler machen, AMD .... :rolleyes:

BoMbY
2020-06-10, 20:16:42
AMD spricht ja sogar von 50% mehr Performance pro Watt?

Navi10 = 225W = 100%
Navi2X = 375W = 166,666666%

Und mit zusätzlich 50% wären man dann nicht bei ~250% Performance für Navi2x gegenüber Navi10? Hört sich jetzt irgendwie nicht realistisch an.

SKYNET
2020-06-10, 20:59:53
Bitte nicht schon wieder diesen Fehler machen, AMD .... :rolleyes:

warum, muss doch nur als limited edt. sein, schon langts, normale version dümpelt bei der gleichen TDP wie NV bei gleichem speed...

und wie gut das mein NT genug power hat... jetzt kann ich den ganzen deppen die meinten nen 550W NT langt für nen highend system wieder den da zeigen: :ufinger:

mironicus
2020-06-10, 21:41:21
Ob es dann wohl wieder eine Wasserkühlung geben wird bei AMD wie bei der Fury X?

Daredevil
2020-06-10, 22:01:56
AMD hätte einfach ne WaKü auf die VII knallen sollen, dann hätte sich die Kiste x-Fach mehr verkauft. Kann man alles machen, glaube ich aber nicht dran, dass AMD so selbstbewusst in der GPU Sparte ist.

vinacis_vivids
2020-06-10, 22:07:20
AMD hätte einfach ne WaKü auf die VII knallen sollen, dann hätte sich die Kiste x-Fach mehr verkauft. Kann man alles machen, glaube ich aber nicht dran, dass AMD so selbstbewusst in der GPU Sparte ist.

Vega64 LQ

https://image1280.macovi.de/images/product_images/1280/1186796_0__70202.jpg

FuryX LQ

https://images-na.ssl-images-amazon.com/images/I/61BLMDOMRZL._AC_SL1024_.jpg

Daredevil
2020-06-10, 22:15:22
Mit selbstbewusst meinte ich nicht, dass man ne WaKü auf ne 500€ Karte schnallt und die als Limited zusätzlich anbietet, sondern das man ein Monsterbundle schnallt für z.B. 999€ mit ner WaKü und das als "Halo Produkt" an der Spitze stehen lässt.
Quasi ein Prestige Objekt, was sich "kaum" verkauft, wie z.B. ne Titan Kiste oder so ein 3950X. In der CPU Sparte kann AMD sich das leisten, da nimmt man denen das mittlerweile ab. :D

Berniyh
2020-06-10, 22:18:22
Igor hat gepubst und alle gehen steil. ;D

Ex3cut3r
2020-06-10, 23:04:58
Keine Ahnung was bei Nvidia und AMD los ist, aber 350W und mehr, sind einfach ein Krampf. Ist Effizienz plötzlich wieder egal? Will Nvidia wieder Fermi aka Termi Verbrauch haben? Und AMD wieder Vega Stromverbrauch haben? Ziemlich lächerlich IMO. Anscheinend beide diesmal Architektur mäßig Flaschen. X-D

Wenn da keine 100% Steigerungen zum Vorgänger da sind. Nochmal mehr zum Totlachen. Einfach Streichen so eine Totgeburt an Architektur.

Raff
2020-06-10, 23:09:09
Das wäre schon bitter. Bereits Turing war mit +1/3 bei gleichem Verbrauch ja eher lame vs. Pascal. Und ist bald zwei Jahre im Amt. Die neue Technologie bringt wohl nicht den erwarteten Sprung, also hat man sich für die Keule entschieden, um vielleicht diesmal +40 % zu geben. Just guessing. Wie alle hier. Wenn AMD mit Wasserkühlung und 400 Watt einen Ampere-Griller bringt, wäre ich sofort im Boot. Den Verbrauch habe ich seit 2013 "maxed out" fast durchgängig, aber halt nicht die Leistung. :D

MfG
Raff

HOT
2020-06-10, 23:39:58
Nachdem bei NV die Katze schon aus dem Sack ist, könnte man bei AMD, selbst wenn man mit maximal 300W gerechnet hat, plötzlich umsteuern und Richtung 400W schielen um ein paar % mehr rauszuholen. Mir schwant da Schlimmes.
Ich fürchte bei der neuen Generation wird man da selbst Hand anlegen müssen, um das auf ein effizientes Maß zusammenzustutzen, denn 350W brauch ich definitiv nicht im Rechner. Sollten dann da nicht mal 16GB+ bei rumkommen, können beiden den Dreck behalten, so einfach ist das. Dann wird eben auf 5nm gewartet, da wird man wenigstens vernünftige Speichermengen sehen dann. Ich hatte große Hoffnungen auf diese Generation gesetzt aber es entpuppt sich evtl. als extremer Rohrkräpierer, RT hin oder her.
Vielleicht wäre es diesmal schlau, die billigst mögliche Variante übergangsweise zu nehmen, die den meisten Speicher mitbringt, Hersteller ist da egal, nur um diese Zeit bis zur nächsten Generation sinnvoll zu überbrücken.
Leider fallen die Hersteller damit dann immer noch nicht auf die Nase, weil es hüben wie drüben immer noch viele extrem (dämliche) Fanboys gibt, die einfach alles kaufen werden...

Raff
2020-06-10, 23:44:21
Diese Abwärme kann man ohne Gehäusebelüftung gar nicht handlen. Das wird schon bei 300 Watt kritisch und das Case fängt das Glühen an. Da ist bereits ein ordentlicher Single-Radi in herausblasender Position um Welten besser, vor allem wenn man für Durchzug sorgt. Mit meiner Titan X und Accelero Hybrid III-140 hatte ich viel weniger Probleme als mit der RTX 2080 Ti. So und so werden wir aber eh "nur" bei 375 Watt landen, denn das ist noch gerade so in der Spec.

MfG
Raff

Timbaloo
2020-06-10, 23:44:50
Huch, Effizienz ist auf einmal wieder wichtig? Kappa

HOT
2020-06-10, 23:48:15
Nein Effizienz hat seine Grenzen. Aber die Thermische Leistungsaufnahme auch. Ich stimme Raff da 100% zu, es würden >300W einfach zu blöd zu kühlen, das haben Granaten wie Hawaii eindrucksvoll gezeigt. Ich bau 300W ein, wenn es sein muss, aber mehr geht mMn einfach nicht sinnvoll, das muss die Grenze sein.

Raff
2020-06-10, 23:54:56
Hawaii ist übrigens ganz fantastisch gealtert. Low Level hilft dem Imba-Chip. Wer ein Dickschiff wie die 390X Gaming oder Powercolor Devil gekauft hat, isst vermutlich seit 2015 wenig, um sich den Strom zu leisten, aber dafür ist die Heizungsrechnung gering und die relative Leistung neben der zeitgenössischen Konkurrenz besser denn je. :ulol: Eine Fury X stinkt dagegen regelmäßig ab (4 GiB suckage).

MfG
Raff

SKYNET
2020-06-10, 23:57:37
Das wäre schon bitter. Bereits Turing war mit +1/3 bei gleichem Verbrauch ja eher lame vs. Pascal. Und ist bald zwei Jahre im Amt. Die neue Technologie bringt wohl nicht den erwarteten Sprung, also hat man sich für die Keule entschieden, um vielleicht diesmal +40 % zu geben. Just guessing. Wie alle hier. Wenn AMD mit Wasserkühlung und 400 Watt einen Ampere-Griller bringt, wäre ich sofort im Boot. Den Verbrauch habe ich seit 2013 "maxed out" fast durchgängig, aber halt nicht die Leistung. :D

MfG
Raff


mir is der verbrauch ehrlichgesagt auch puppe(meine schluckt ja 420W), aber wenn ich nicht durchweg 100% mehr habe zur getakteten 1080Ti, wird ausgesetzt :)

SKYNET
2020-06-10, 23:58:56
Diese Abwärme kann man ohne Gehäusebelüftung gar nicht handlen. Das wird schon bei 300 Watt kritisch und das Case fängt das Glühen an. Da ist bereits ein ordentlicher Single-Radi in herausblasender Position um Welten besser, vor allem wenn man für Durchzug sorgt. Mit meiner Titan X und Accelero Hybrid III-140 hatte ich viel weniger Probleme als mit der RTX 2080 Ti. So und so werden wir aber eh "nur" bei 375 Watt landen, denn das ist noch gerade so in der Spec.

MfG
Raff


ich glaube ja, es gibt mehr als 2x 8pin bei den neuen FE karten... :)

Raff
2020-06-11, 00:05:55
mir is der verbrauch ehrlichgesagt auch puppe(meine schluckt ja 420W), aber wenn ich nicht durchweg 100% mehr habe zur getakteten 1080Ti, wird ausgesetzt :)

Kannste knicken. +100 Prozent auf eine GTX 1080 Ti FE könnte aber knapp klappen.

MfG
Raff

SKYNET
2020-06-11, 00:14:12
Kannste knicken. +100 Prozent auf eine GTX 1080 Ti FE könnte aber knapp klappen.

MfG
Raff

sonen FE krüppelchen ist aber mal gute 20% langsamer als meine :freak:

Raff
2020-06-11, 00:19:57
Beim Wechsel Pascal -> Ampere wird sich das zweifellos lohnen, denn da kann man mit DLSS 2.0 schon viel gewinnen. Ich bin sehr gespannt, ob uns AMD etwas Vergleichbares kredenzt (nein, FidelityFX ist kein Ersatz, auch wenn das gern behauptet wird).

MfG
Raff

SKYNET
2020-06-11, 00:56:14
Beim Wechsel Pascal -> Ampere wird sich das zweifellos lohnen, denn da kann man mit DLSS 2.0 schon viel gewinnen. Ich bin sehr gespannt, ob uns AMD etwas Vergleichbares kredenzt (nein, FidelityFX ist kein Ersatz, auch wenn das gern behauptet wird).

MfG
Raff


geh mir weg mit subnativen auflösungen... wenn dann rendere ich in höheren auflösungen als der monitor hat um die BQ weiter zu erhöhen, aber sicher nicht umgedreht um mir augenkrebs zu verpassen :freak: X-D

y33H@
2020-06-11, 01:31:52
Downsampling plus DLSS ist cool.

Nightspider
2020-06-11, 03:24:56
Um auf doppelte 1080ti Leistung zu kommen müsste Ampere nur 48% schneller sein als Turing, wenn man bei Turing von Pascal+35% ausgeht.

Wenn Ampere 70% schneller als Touring werden sollte wäre man bei 2,3 facher Pascal Leistung.

Da ich eine große Wasserkühlung habe würde es mich wenig jucken wenn die Karten 350-400W ziehen, solange entsprechend mehr Leistung auf die Straße kommt.

mironicus
2020-06-11, 10:21:23
Wenn Igor meint, Big Navi hat 400 Watt TGP, dann spekulier ich mal folgendes.

- 400 Watt betrifft die größte Variante
- AMD baut eine Enthusiastenkarte (ähnlich wie NVidias Titan) für über 1000 Euro
- AMD verdoppelt den Speicher bei der größten Karte
- 24 bzw. 32 Gigabyte Grafikspeicher kosten viel Strom

Fragman
2020-06-11, 11:12:53
400 Watt glaub ich nicht.
Wir reden hier über 7nm, dazu die 50% Verbesserung, wenn da ein 400 Watt Monster bei rum kommt, stimmt doch was nicht. Das Ding läuft doch dann wieder jenseits des Sweetspots und man muss leider vermuten, das AMD dahin gehen muss, um Performance zu liefern und es anders nicht möglich ist? Man könnte dann auch Querspekulieren das die 330 Watt oder wieviel das bei nv sein sollen, stimmen und AMD deshalb wieder so prügeln muss.

Die Alternative wäre, das beide Hersteller mehr Performance liefern als aktuell angenommen und deshalb ihre Karten so prügeln. Wenn sie sie prügeln müssen, damit was bei rum kommt, wärs für beide traurig, vor allem weil dann die Preise wirklich nicht gut sein könnten.

amdfanuwe
2020-06-11, 11:18:42
Haben da einige schon Angst, sie könnten sich die Top Karte nicht leisten?
Mir ziemlich egal, was obenrum passiert, in der Mittelklasse wird sich für mich schon was finden.

Berniyh
2020-06-11, 11:25:39
Keine Ahnung was bei Nvidia und AMD los ist, aber 350W und mehr, sind einfach ein Krampf. Ist Effizienz plötzlich wieder egal? Will Nvidia wieder Fermi aka Termi Verbrauch haben? Und AMD wieder Vega Stromverbrauch haben? Ziemlich lächerlich IMO. Anscheinend beide diesmal Architektur mäßig Flaschen. X-D

Wenn da keine 100% Steigerungen zum Vorgänger da sind. Nochmal mehr zum Totlachen. Einfach Streichen so eine Totgeburt an Architektur.
evtl. sollte man Gerüchte auch einfach mit der notwendigen Vorsicht genießen.

Zumal sich Igor zuletzt bzgl. AMD auch nicht gerade mit Ruhm bekleckert hat mit seiner absurden Renoir-Geschichte.

Ich wäre sehr überrascht, wenn AMD Big Navi (ausschließlich?) als 400W Karte bringt, das klingt einfach zu absurd.
evtl. wäre das denkbar für irgendeine Special Edition mit Wasserkühlung o.ä. um die letzten paar Prozente rauszuquetschen, aber die "normalen" Big Navis werden sicherlich nicht so hoch eingeordnet sein.
Selbst bei Vega ist man ja nicht auf so hohe Stromverbräuche gegangen und da stand man ja mit dem Rücken zur Wand.

fondness
2020-06-11, 11:32:09
400 Watt glaub ich nicht.
Wir reden hier über 7nm, dazu die 50% Verbesserung, wenn da ein 400 Watt Monster bei rum kommt, stimmt doch was nicht. Das Ding läuft doch dann wieder jenseits des Sweetspots und man muss leider vermuten, das AMD dahin gehen muss, um Performance zu liefern und es anders nicht möglich ist? Man könnte dann auch Querspekulieren das die 330 Watt oder wieviel das bei nv sein sollen, stimmen und AMD deshalb wieder so prügeln muss.

Die Alternative wäre, das beide Hersteller mehr Performance liefern als aktuell angenommen und deshalb ihre Karten so prügeln. Wenn sie sie prügeln müssen, damit was bei rum kommt, wärs für beide traurig, vor allem weil dann die Preise wirklich nicht gut sein könnten.

Wenn AMD eine 400W Karte liefert, dann nur weil sie davon ausgehen damit auch klar die Performance-Krone zu holen. Die Frage ist wann NV davon erfahren hat, offensichtlich relativ bald, sonst würde es keine Ampere Karte mit 350W geben. Aber anscheinend ist AMD davon überzeugt, etwas konkurrenzfähiges abliefern zu können, ich bin gespannt. Zumindest gibt es das erste mal seit eine halben Ewigkeit wieder echten Konkurrenzkampf im GPU-Markt. Wem die Karten zu viel Strom benötigen der kann ja auch etwas kleineres kaufen.

Dass 400W TDP zusammen mit 50% mehr Perf/Watt für RDNA2 ein Monster ergibt ist offensichtlich. Das wäre knapp 3x Leistung einer 5700XT.

gedi
2020-06-11, 11:34:43
Halte ich für utopisch. Gemessen an den kolportierten 50% und trotzdem praktisch doppeltem Stromverbrauch zu N10, wo kommt das Ding dann raus :rolleyes:

Ich denke 275-max. 300W werdens wohl sein.

HOT
2020-06-11, 11:46:41
Also wenn ich die ganzen Entwicklungen, auch im NV-Thread, so revuepassieren lassen, komm ich zu dem Schluss, dass N21 eigentlich definitiv 2 HBM-Stapel haben muss. Der Chip ist mit 505mm² einfach zu klein, um 80 RDNA2-CUs mit 384Bit DDR6-Interfaces unterzubringen mMn. Man wird hier gewaltig Fläche sparen, indem man auf HBM setzt um mit möglichst wenig I/O die Flächeneffizienz nach oben treiben. Als Grafikchip in N7 HPC wären sicherlich 45mio Transistoren/mm² drin, in N7P entsprechend 50mio/mm². Das entspräche 25 Mia Transistoren für das finale Produkt, was man so schöngerechnet mit Ach und Krach hinbekommen kann mit HBM mMn. In Wirklichkeit wird der Chip aber eher darunter liegen in der Transistormenge, ich schätz mal so 23-24 Mia. Das würde gut passen.
Die beiden anderen Chips sind ja erheblich kleiner, hier würde ich sogar nur auf maximal 44 CUs mit 256Bit und maximal 28 CUs mit 128Bit maximal 18GT/s GDDR6, eher 16 oder 15,5GT/s tippen oder sowas.

Ich wette, dass das Lineup in etwa so aussehen wird:

N21XT 80 CUs, 3,2GT/s HBM2E in 2 Stapeln mit 16GB
N21XL 72 CUs, 2,4GT/s HBM2 in 2 Stapeln mit 16GB
N22XT 44 CUs, 15,5GT/s GDDR6 256Bit 8 und 16GB (gibt ja 16Gb-Chips in der Geschwindigkeit)
N22XL 36 CUs, 14GT/s GDDR6 256Bit 8 und 16GB
N23XT 28 CUs, 15,5GT/s GDDR6 128Bit 8GB
N23XL 20 CUs, 14GT/s GDDR6, 128Bit 8GB

AMD sieht ja nach offizieller Aussage 8GB als das Minimum an, das wird auch so eintreffen. Es wird ja auch immer klarer, dass N21 ein ganzes Stück unter GA102 liegen muss in der Leistungsfähigkeit. Dafür scheint N2x aber extrem auf Gamging optimiert zu sein, während die NV-Chips eben auch die Profimärkte nach wie vor bedienen müssen.

Raff
2020-06-11, 11:47:54
Selbst bei Vega ist man ja nicht auf so hohe Stromverbräuche gegangen und da stand man ja mit dem Rücken zur Wand.

Wobei die einzige echt "coole" Vega-Karte, die V64 Liquid-Cooled, nicht weit davon entfernt ist (345 W TDP, 264 W ASIC-Power) und man kann im Treiber/Wattman noch auf "Turbo" gehen (303 W ASIC-Power) (https://www.pcgameshardware.de/Radeon-RX-Vega-64-Liquid-Grafikkarte-266622/Videos/RX-Vega-64-Liquid-Edition-genauer-Blick-auf-Boost-Powerlimit-und-Lautheit-1240999/). Wenn AMD eine "RX 6900 XTX" mit Flüssigkühler bringt, wären 300 Watt für die GPU drin.

MfG
Raff

ecodriver
2020-06-11, 11:50:10
Ich vermute das es, durch die 67 AFVS und den GPO, vermutlich kurze Spitzen mit 400W geben wird.
Der Verbrauch über einen "normalen" Zeitraum gesehen wird vermutlich bei normalen 300W +-50W je nach Modell liegen.

gedi
2020-06-11, 11:50:33
Beim Wechsel Pascal -> Ampere wird sich das zweifellos lohnen, denn da kann man mit DLSS 2.0 schon viel gewinnen. Ich bin sehr gespannt, ob uns AMD etwas Vergleichbares kredenzt (nein, FidelityFX ist kein Ersatz, auch wenn das gern behauptet wird).

MfG
Raff

Den GPU-Turbo habens doch bereits integriert :confused: Daraus sollte sich doch etwas ähnliches wie DLSS basteln lassen.

Anderseits: Grafikkarten welche wohl extrem teuer werden und extrem viel verbrauchen, sollten doch keinen Upscaler brauchen, um bis in 4k RT flüssig darstellen zu können.

@Hot

Ich gehe auch von HBM aus, allerdings mit 96CUs.

HOT
2020-06-11, 11:59:20
Das passt erst recht nicht und die Größenangabe von 505mm² scheint sich auch nach Igor zu bewahrheiten. Der hat 80CUs nicht mehr.
Das wird mMn ein knappes Rennen, dass NV für sich entscheiden wird, aber mMn nur relativ unbedeutend. Als Pro-Karten wird man die N2x aber komplett vergessen können, mehr als CAD kann man damit mMn nicht anfangen. Gegen Turing und Ampere wird man da, wie bisher auch, keinen Blumentopf gewinnen, dazu fehlt ja obendrein die passende Schnittstelle.
vielleicht macht AMD ja mit CDNA dort weiter, könnt ich mir gut vorstellen.

Hakim
2020-06-11, 12:00:22
400w, man stelle sich ein System mit so einer Karte + einer 10900k vor, beides mit zusätzlichem OC. Werden wohl einige auch beim NT upgraden müssen, wenns den bei beiden mit 350-400w überhaupt stimmt

Berniyh
2020-06-11, 12:10:25
Wobei die einzige echt "coole" Vega-Karte, die V64 Liquid-Cooled, nicht weit davon entfernt ist (345 W TDP, 264 W ASIC-Power) und man kann im Treiber/Wattman noch auf "Turbo" gehen (303 W ASIC-Power) (https://www.pcgameshardware.de/Radeon-RX-Vega-64-Liquid-Grafikkarte-266622/Videos/RX-Vega-64-Liquid-Edition-genauer-Blick-auf-Boost-Powerlimit-und-Lautheit-1240999/). Wenn AMD eine "RX 6900 XTX" mit Flüssigkühler bringt, wären 300 Watt für die GPU drin.

MfG
Raff
Genau, das ginge ja in eine Art "Special Edition" (so ein bisschen wie Nvidias Titan), was ich angedeutet habe.
So richtig mag ich daran aber auch nicht glauben.

Die Butter&Brot Karten für Big Navi werden aber sicher keine 400W haben.
(soweit man denn beim größten Chip von "Butter und Brot" Karten sprechen kann. ^^)

Also wenn ich die ganzen Entwicklungen, auch im NV-Thread, so revuepassieren lassen, komm ich zu dem Schluss, dass N21 eigentlich definitiv 2 HBM-Stapel haben muss. Der Chip ist mit 505mm² einfach zu klein, um 80 RDNA2-CUs mit 384Bit DDR6-Interfaces unterzubringen mMn. Man wird hier gewaltig Fläche sparen, indem man auf HBM setzt um mit möglichst wenig I/O die Flächeneffizienz nach oben treiben. Als Grafikchip in N7 HPC wären sicherlich 45mio Transistoren/mm² drin, in N7P entsprechend 50mio/mm². Das entspräche 25 Mia Transistoren für das finale Produkt, was man so schöngerechnet mit Ach und Krach hinbekommen kann mit HBM mMn. In Wirklichkeit wird der Chip aber eher darunter liegen in der Transistormenge, ich schätz mal so 23-24 Mia. Das würde gut passen.
Die beiden anderen Chips sind ja erheblich kleiner, hier würde ich sogar nur auf maximal 44 CUs mit 256Bit und maximal 28 CUs mit 128Bit maximal 18GT/s GDDR6, eher 16 oder 15,5GT/s tippen oder sowas.

Ich wette, dass das Lineup in etwa so aussehen wird:

N21XT 80 CUs, 3,2GT/s HBM2E in 2 Stapeln mit 16GB
N21XL 72 CUs, 2,4GT/s HBM2 in 2 Stapeln mit 16GB
Der Treiber deutet aber – soweit ich das gesehen habe – an keiner Stelle an, dass HBM2 zum Einsatz kommt.
Es besteht natürlich die Chance, dass hier AMD noch Patches zurück hält und sich die GDDR6 Änderungen auf Navi22 und Navi23 beziehen, aber nach aktuellem Stand muss man zumindest davon ausgehen, dass Big Navi kein HBM2 haben wird, leider.

gedi
2020-06-11, 12:21:07
Wo wollens dann aber ihr breites SI und den RT-Kram auf 505mm² unterbringen?

Rampage 2
2020-06-11, 12:21:12
Der Treiber deutet aber – soweit ich das gesehen habe – an keiner Stelle an, dass HBM2 zum Einsatz kommt.

Es besteht natürlich die Chance, dass hier AMD noch Patches zurück hält und sich die GDDR6 Änderungen auf Navi22 und Navi23 beziehen, aber nach aktuellem Stand muss man zumindest davon ausgehen, dass Big Navi kein HBM2 haben wird, leider.


Wenn AMD wenigstens 18Gbps schafft, dann sollte auch GDDR6 an einem 384Bit SI genug Bandbreite liefern (864GB/sek.). HOT behauptet aber, dass AMD das im Gegensatz zu Nvidia nicht kann... (höhere Speichertakte)

R2

Edit: Übrigens wäre das exakt die 10fache Bandbreite und 10fache Speichertakt der damaligen 8800 GTX... (384Bit @ 1.8 GHz GDDR3, 86.4GB/sek.) ;D

Raff
2020-06-11, 12:28:35
Wo wollens dann aber ihr breites SI und den RT-Kram auf 505mm² unterbringen?

Genau das ist ja der Punkt: Da passen einfach keine 96 CUs respektive 48 WGPs rein, selbst mit perverser Packdichte (die den Takt torpediert) nicht. Nun ist AMD seit Pitcairn (2012) sehr gut darin, den RAM-PHY klein zu halten. Auch bei Navi 10. Dafür geht der Takt dann nicht so hoch. Also 384 Bit GDDR6(X) mit 18 GT/s, warum nicht?

MfG
Raff

mironicus
2020-06-11, 12:40:09
HBM2 ist auch nicht auszuschließen für den Top Chip, mit dem Speicher haben sie genug Erfahrung.

unl34shed
2020-06-11, 12:47:14
N21XT 80 CUs, 3,2GT/s HBM2E in 2 Stapeln mit 16GB
N21XL 72 CUs, 2,4GT/s HBM2 in 2 Stapeln mit 16GB
N22XT 44 CUs, 15,5GT/s GDDR6 256Bit 8 und 16GB (gibt ja 16Gb-Chips in der Geschwindigkeit)
N22XL 36 CUs, 14GT/s GDDR6 256Bit 8 und 16GB
N23XT 28 CUs, 15,5GT/s GDDR6 128Bit 8GB
N23XL 20 CUs, 14GT/s GDDR6, 128Bit 8GB


N10 packt schon 40CUs und 256bit GDDR6 in 251mm².
Wenn die größen für Navi2x mit 240, 340 und 505mm² stimmen, kann meiner Meinung nach deine Liste nicht stimmen.

Tendenziell sollte Navi2x eine etwas höhere Packdichte haben und somit der kleine Chip (N23) in der selben Region wie N10 rauskommen, also 32-40CUs und 256bit.
Bei deinen 28CUs und nur 128bit@15,5GT/s bräuchte man ca 30% bessere Bandbreiteneffizienz als N10 und der Chip wäre deutlich zu groß, ich würde hier bei <190mm² raus kommen. Und noch mehr CUs ohne breiteres Speicherinterface passt nicht.

Für N22 gilt das gleiche, mit 44CUs und 256bit sollte er <300mm² liegen.
320bit und 56-60CUs könnten mMn. eher passen.

Und gerade der große Chip ist strange. Für nur 20-26CUs und 64bit GDDR6 mehr sind die 160mm² viel zu viel und der Chip eher zu groß.
Es könnte vom XGMI und doppeltem Video Core kommen, halte ich nicht für ausgeschlossen.

Wenn man allerdings von HBM ausgeht, sollte der MemoryController kleiner ausfallen und noch mehr Platz übrig sein.

Edit:
Der Treiber deutet aber – soweit ich das gesehen habe – an keiner Stelle an, dass HBM2 zum Einsatz kommt.
Es besteht natürlich die Chance, dass hier AMD noch Patches zurück hält und sich die GDDR6 Änderungen auf Navi22 und Navi23 beziehen, aber nach aktuellem Stand muss man zumindest davon ausgehen, dass Big Navi kein HBM2 haben wird, leider.

Es gibt nur einen Emulation Mode, der GDDR6 mit 128Bit angibt, ansosnten wird der Speicher (Art und Breite) aus dem Chip ausgelesen.
Die Frage ist jetzt, was der Emulation Mode ist, ggf. eine FPGA Testplatform?

HOT
2020-06-11, 12:59:10
Genau das ist ja der Punkt: Da passen einfach keine 96 CUs respektive 48 WGPs rein, selbst mit perverser Packdichte (die den Takt torpediert) nicht. Nun ist AMD seit Pitcairn (2012) sehr gut darin, den RAM-PHY klein zu halten. Auch bei Navi 10. Dafür geht der Takt dann nicht so hoch. Also 384 Bit GDDR6(X) mit 18 GT/s, warum nicht?

MfG
Raff
Das klappt aber mMn nicht, der Chip ist dafür einfach zu klein für 80CUs. Ich wette, dass die neuen CUs auch noch mal etwas an Fläche drauflegen werden, [nicht diekt auf Raff bezogen] der Vergleich mit N10 ist hier mMn nicht wirklich zielführend.

505mm² wäre schon mit Navi1-CUs und 384Bit 14GT/s echt knapp, das bekäme man aber sicherlich hin. Aber das Ganze auch noch mit RDNA2-CUs, die sicherlich 10-15% Fläche drauflegen werden und dann noch so hoch getaktete RAM-Controller? Das kann zwar klappen in N7P, aber das wird echt arsch knapp, ich hab daran Zweifel. Vielleicht kommt hier dann evtl. doch N7+ ins Spiel, das kann noch mal ein paar % Fläche bringen. Der Kirin 990 5G packt >90mio/mm², das noch mal etwas mehr ist als Apples N7P A13 oder Kirin 990 4G, aber nicht viel.

Zudem gab es ja bereits nach dem Tapeout des 505mm²-Chips sogar schon die Gerüchte rund um 3,2GT/s HBM2E für AMD. Das, also Fläche + HBM + 80CUs + RDNA2 passt einfach sehr gut zusammen.

Raff
2020-06-11, 13:03:00
... oder ist 100 mm² größer. Wobei das für AMD-Verhältnisse ein echter Brocken wäre. Woher stammen die 505 mm² nochmal, ist das überhaupt belastbar?

MfG
Raff

unl34shed
2020-06-11, 13:07:34
505mm² wäre schon mit Navi1-CUs und 384Bit 14GT/s echt knapp, das bekäme man aber sicherlich hin. Aber das Ganze auch noch mit RDNA2-CUs, die sicherlich 10-15% Fläche drauflegen werden und dann noch so hoch getaktete RAM-Controller? No Way, ich sage das Ding hat HBM.

Sehe ich nicht so, wenn man N10 verdoppelt, hat man ein 512bit interface 80CUs, doppelten IO (32PCIe, DisplayController, etc.) bei 502mm².
Das gepaart mit wahrscheinlich etwas höherer Packdichte (dürfte die 10-15% größeren CUs ausgleichen).

HBM sehe ich zwar auch für den Chip, der Controller ist aber kleienr als vergleichbarer GDDR6 aber da sind wie gesagt die 80CUs zu wenig. Außer es sind 4xHBM2 2GT/s.

unl34shed
2020-06-11, 13:09:51
... oder ist 100 mm² größer. Wobei das für AMD-Verhältnisse ein echter Brocken wäre. Woher stammen die 505 mm² nochmal, ist das überhaupt belastbar?

Schau halt in den Quellen wo ihr das abgeschrieben habt :tongue:
https://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Big-Navi-doppelt-so-schnell-wie-RX-5700XT-Chipflaeche-505-1349040/

-> https://www.ptt.cc/bbs/PC_Shopping/M.1588075782.A.C1E.html

Der Soll wohl schon öfters richtig gelegen haben.

HOT
2020-06-11, 13:10:10
... oder ist 100 mm² größer. Wobei das für AMD-Verhältnisse ein echter Brocken wäre. Woher stammen die 505 mm² nochmal, ist das überhaupt belastbar?

MfG
Raff
Das war offenbar ein Chip der im Oktober letztens Jahres Tape Out gefeiert hat.
Zeitlich würde das gut passen. Erst haben viele damit gerechnet, dass das Arcturus wäre, aber ich hab auch hier erhebliche Zweifel. CDNA wird mMn eher richtig dick Fläche drauflegen mit 128CUs und eben echt viel I/O-Gedöns, siehe GA100. Den würd ich irgendwo zwischen 600 und 700mm² verorten. Die 505 werden schon N21 sein. Igor ist ja offenbar auch der Meinung.

unl34shed du hast das erheblich komplexere Frontend vergessen, das für den RDNA2-Chip nötig wäre. Ich sag ja, das wird unheimlich knapp.

Hauwech
2020-06-11, 13:11:19
Also wenn ich die ganzen Entwicklungen, auch im NV-Thread, so revuepassieren lassen, komm ich zu dem Schluss, dass N21 eigentlich definitiv 2 HBM-Stapel haben muss. Der Chip ist mit 505mm² einfach zu klein, um 80 RDNA2-CUs mit 384Bit DDR6-Interfaces unterzubringen mMn. Man wird hier gewaltig Fläche sparen, indem man auf HBM setzt um mit möglichst wenig I/O die Flächeneffizienz nach oben treiben. Als Grafikchip in N7 HPC wären sicherlich 45mio Transistoren/mm² drin, in N7P entsprechend 50mio/mm². Das entspräche 25 Mia Transistoren für das finale Produkt, was man so schöngerechnet mit Ach und Krach hinbekommen kann mit HBM mMn. In Wirklichkeit wird der Chip aber eher darunter liegen in der Transistormenge, ich schätz mal so 23-24 Mia. Das würde gut passen.
Die beiden anderen Chips sind ja erheblich kleiner, hier würde ich sogar nur auf maximal 44 CUs mit 256Bit und maximal 28 CUs mit 128Bit maximal 18GT/s GDDR6, eher 16 oder 15,5GT/s tippen oder sowas.

Ich wette, dass das Lineup in etwa so aussehen wird:

N21XT 80 CUs, 3,2GT/s HBM2E in 2 Stapeln mit 16GB
N21XL 72 CUs, 2,4GT/s HBM2 in 2 Stapeln mit 16GB
N22XT 44 CUs, 15,5GT/s GDDR6 256Bit 8 und 16GB (gibt ja 2Gb-Chips)
N22XL 36 CUs, 14GT/s GDDR6 256Bit 8 und 16GB
N23XT 28 CUs, 15,5GT/s GDDR6 128Bit 8GB
N23XL 20 CUs, 14GT/s GDDR6, 128Bit 8GB

AMD sieht ja nach offizieller Aussage 8GB als das Minimum an, das wird auch so eintreffen. Es wird ja auch immer klarer, dass N21 ein ganzes Stück unter GA102 liegen muss in der Leistungsfähigkeit. Dafür scheint N2x aber extrem auf Gamging optimiert zu sein, während die NV-Chips eben auch die Profimärkte nach wie vor bedienen müssen.

Wenn schon RDNA1 wesentlich mehr auf Gaming als GCN ausgerichtet ist, dürfte AMD ja noch nicht mal die W5500 und W5700 als Pro anbieten. Da geb ich dir Brief und Siegel drauf das es mit RDNA2 ebensolche Pro Karten geben wird.

Auch wenn es eine Customgeschichte ist, bei der Xbox verwenden sie für einen 56CU Chip ebenfalls GDDR6. Wie soll das mit deinen Spekus zusammenpassen? AMD müsste ja "dumm" sein wenn sie schon (mindestens) einen 56 CU Chip mit 320bit SI haben und den, laut deinem Lineup, nicht selber anbieten. MS wird was "von der Stange" verbaut haben, alles andere wäre mit Sicherheit zu teuer geworden wenn man schon sieht wie Sony und MS am Ram sparen.

Zu den 8GB Minimum: Das ist keine offizielle Aussage.

Adit Bhutani is the Product Marketing Specialist for Radeon and Gaming at AMD. His postings are his own opinions and may not represent AMD’s positions, strategies or opinions.

Und klar, eine 4GB die im Zweifelsfall mittels HBCC auslagern muss ist logischerweise nicht so schnell wie eine mit 8GB. Bahnbrechende Erkenntnis... Noch dazu auf 2 völlig unterschiedlichen Testsystemen und mit 6 Monaten Abstand. Etwaige Patches oder Treiberanpassungen anscheinend auch nicht berücksichtigt oder bewusst weggelassen. Ganz toll...

Mangel76
2020-06-11, 13:12:56
Das klappt aber mMn nicht, der Chip ist dafür einfach zu klein für 80CUs. Ich wette, dass die neuen CUs auch noch mal etwas an Fläche drauflegen werden, [nicht diekt auf Raff bezogen] der Vergleich mit N10 ist hier mMn nicht wirklich zielführend.

505mm² wäre schon mit Navi1-CUs und 384Bit 14GT/s echt knapp, das bekäme man aber sicherlich hin. Aber das Ganze auch noch mit RDNA2-CUs, die sicherlich 10-15% Fläche drauflegen werden und dann noch so hoch getaktete RAM-Controller? Das kann zwar klappen in N7P, aber das wird echt arsch knapp, ich hab daran Zweifel. Vielleicht kommt hier dann evtl. doch N7+ ins Spiel, das kann noch mal ein paar % Fläche bringen. Der Kirin 990 5G packt >90mio/mm², das noch mal etwas mehr ist als Apples N7P A13 oder Kirin 990 4G, aber nicht viel.

Zudem gab es ja bereits nach dem Tapeout des 505mm²-Chips sogar schon die Gerüchte rund um 3,2GT/s HBM2E für AMD. Das, also Fläche + HBM + 80CUs + RDNA2 passt einfach sehr gut zusammen.

Wenn N10 40CU und 256bit auf 251mm^2 bringt, warum sollten 80 in der doppelten Größe nicht passen? Zumal Speicher nur um 50% zulegt. Sicher werden die CU größer, dafür schafft man vielleicht noch etwas höhere Dichte?

HOT
2020-06-11, 13:15:08
Hauwech
Klar gibts die, so war das nicht gemeint. Für CAD und sowas sind die Sachen nach wie vor gut geeignet, nur beim Rendering und anderen Compute-Sachen eben nicht.

HOT
2020-06-11, 13:16:11
Wenn N10 40CU und 256bit auf 251mm^2 bringt, warum sollten 80 in der doppelten Größe nicht passen? Zumal Speicher nur um 50% zulegt. Sicher werden die CU größer, dafür schafft man vielleicht noch etwas höhere Dichte?
Ok das 3. Mal, die RDNA2-CUs werden schlicht und ergreifend einiges größer sein als die RDNA1-CUs.

gedi
2020-06-11, 13:17:04
Genau das ist ja der Punkt: Da passen einfach keine 96 CUs respektive 48 WGPs rein, selbst mit perverser Packdichte (die den Takt torpediert) nicht. Nun ist AMD seit Pitcairn (2012) sehr gut darin, den RAM-PHY klein zu halten. Auch bei Navi 10. Dafür geht der Takt dann nicht so hoch. Also 384 Bit GDDR6(X) mit 18 GT/s, warum nicht?

MfG
Raff

Weil die Bandbreite vermutlich nicht ausreicht um den Chip zu füttern. Und in ein Halo-Produkt würde ich so ziemlich alles reinhängen was an Wissen, Hardware usw. möglich ist. Wenn man oben mitspielen will, dann doch besser richtig. Wenn diese Runde an AMD geht, wäre es imo kein Beinbruch für NV, anders herum bleibt alles beim Alten incl. des nicht gerade guten Rufs in Bezug auf GPUs.

unl34shed
2020-06-11, 13:19:10
Ok das 3. Mal, die RDNA2-CUs werden schlicht und ergreifend einiges größer sein als die RDNA1-CUs.

Wie viel denn? Von der Xbox aus gerechnet komme ich auf 4-4.2mm² pro CU, scheint nicht viel größer als RDN1 CUs zu sein.

HOT
2020-06-11, 13:25:11
Wo kann man das denn bei der XBox sehen? Ist der Wert genau?

BoMbY
2020-06-11, 13:31:09
Hmm, ja. Der Die Size wird mit 360.45 mm2 angegeben, und das enthält 52 CUs und 8 Zen2 Cores? Ziehen wir ein Zen2 Chiplet ab, sind wir bei 280 mm² für 52 CUs plus MC? Also sollten mit 505 mm² 80 bis 90 CUs drin sein.

HOT
2020-06-11, 13:32:13
Und das Frontend? I/O? Das ganze andere Geraffel? Das ist doch etwas extrem Milchmädchen. Das ist doch ein SoC kein Grafikchip.

robbitop
2020-06-11, 13:34:33
Weil die Bandbreite vermutlich nicht ausreicht um den Chip zu füttern. Und in ein Halo-Produkt würde ich so ziemlich alles reinhängen was an Wissen, Hardware usw. möglich ist. Wenn man oben mitspielen will, dann doch besser richtig. Wenn diese Runde an AMD geht, wäre es imo kein Beinbruch für NV, anders herum bleibt alles beim Alten incl. des nicht gerade guten Rufs in Bezug auf GPUs.
Dazu kommt noch, dass es mit zunehmender Einheitenanzahl immer schwieriger wird, alle Einheiten auszulasten. Nicht umsonst steigt diese immer weniger (im historischen Vergleich zum letzten Jahrzehnt). Entsprechend ist der Fokus, pro Einheit mehr Durchsatz zu erzeugen. Über Takt und Auslastung der Einheit selbst.

fondness
2020-06-11, 13:36:08
Wo wollens dann aber ihr breites SI und den RT-Kram auf 505mm² unterbringen?

Die 505mm² geistern bereits seit einer halben Ewigkeit durchs Netz, zuerst glaubte man eine unbekannte APU, dann Arcturus und jetzt glaubt man es handelt sich um Navi21. IMO ist die Wahrscheinlichkeit hoch, dass die 505mm² nicht stimmen.

BoMbY
2020-06-11, 13:38:46
Und das Frontend? I/O? Das ganze andere Geraffel? Das ist doch etwas extrem Milchmädchen. Das ist doch ein SoC kein Grafikchip.

Ja, natürlich ist das eine Milmädchenrechnung. Aber wenn man das IO-Gedöns, etc., abzieht was man bei der GPU nicht braucht, dann sinkt der relativ benötigte Anteil für CUs, d.h. es passen noch mehr davon auf einen entsprechend großen GPU-Die. Also eher >90 CUs auf 505mm², je nachdem wie der MC aussieht.

Mangel76
2020-06-11, 14:20:27
Ok das 3. Mal, die RDNA2-CUs werden schlicht und ergreifend einiges größer sein als die RDNA1-CUs.

Deshalb schrieb ich ja, dass sich Speicher nicht verdoppelt und eventuell die Packdichte noch etwas erhöht werden kann, z.B durch gereiften Prozess und Erfahrungen aus Renoir. Das sollte reichen für +10-15% bei der CU-Größe.

unl34shed
2020-06-11, 14:34:53
Wo kann man das denn bei der XBox sehen? Ist der Wert genau?

Das war nur grob überschlagen und die einzelnen Module von N10 und Renoir geklaut. Ich habe mit 407mm² gerechnet (von hier (https://twitter.com/_rogame/status/1214543985097793536)) mit den 360mm² von Wikipedia wären die CUs noch kleiner. Den Rest dann durch die CUs geteilt. Aber im Prinzip ist die Rechnung Fehlerhaft, da der Cache und Frontends vergessen wurden. Es sind also CUs + ein Anteil am Frontend, das sollte aber mit der Anzahl der CUs skalieren, also gar nicht mal so verkehrt.

- 8 Zen2 Cores ca 50mm², sollte wie Renoir weniger Cache haben
- GDDR6 320bit -> (ca. 35mm² 128bit Navi10 x2,5) 87,5mm²
- 10mm² Command Prozessor
- 20mm² halber Navi10 IO (weniger Displays, PCIe, dafür wohl USB)

ausgehend von 360mm² -> 3,48mm² pro CU+ bei 56CUs
Bei Navi hatte ich irgendwie 4mm im Gedächtnis (könnte Vega gewesen sein), mit gleichem Ansatz komm man bei Navi10 aus 3,275mm² pro CU+

Ansonsten das noch gefunden:
https://i.imgur.com/zps60AZ.png

Geht man bei den Größen von Navi2x davon aus, dass folgendes fix ist:
- 40mm² IO
- 35mm² pro 128bit GDDR6
- 10mm² Command Processor

-> 505mm² - 40 - 10 - 3x35 = 350mm² -> 100CUs - xGMI

BlacKi
2020-06-11, 14:44:40
und RT?

unl34shed
2020-06-11, 14:46:26
was soll damit sein? das hat die XBOX doch auch schon, ist also in der Rechnung mit drin?

LasterCluster
2020-06-11, 15:14:58
Geht man bei den Größen von Navi2x davon aus, dass folgendes fix ist:
- 40mm² IO
- 35mm² pro 128bit GDDR6
- 10mm² Command Processor

-> 505mm² - 40 - 10 - 3x35 = 350mm² -> 100CUs - xGMI

Wenn AMD keine Probleme mit einer 375 Watt 6900 XTX mit Wakü hat, werden 512bit Interface doch kein Hinderniss sein, oder?

Woher kommen eigentlich die 80 CU? Reine Speku oder auf Grunde von (Pseudo)-Leaks?

reaperrr
2020-06-11, 15:16:38
ausgehend von 360mm² -> 3,48mm² pro CU+ bei 56CUs
Bei Navi hatte ich irgendwie 4mm im Gedächtnis (könnte Vega gewesen sein), mit gleichem Ansatz komm man bei Navi10 aus 3,275mm² pro CU+

Die 4mm² waren für einen WGP, also 2 CUs.

Aber nein, das heißt nicht, dass RDNA2-CUs wesentlich größer sind. Die Rechnung ist einfach viel zu grob und milchmädchenmäßig.

Bei N10 nimmt der Bereich außerhalb der CUs/WGPs rund 170mm² ein. Addiert man jetzt nicht nur 64bit SI, sondern auch die dazugehörigen MemoryController, ROPs und L2-Cache, wird dieser Bereich beim XSX-SoC schon mindestens ~190mm² haben, eher ~200mm². Plus die ~50mm² für die Zen2-Kerne blieben noch ~110-120mm² für die 56 CUs (das wird nämlich der Vollausbau sein, durch die WGPs sind 13 CUs je SE anders als bei Vega nicht möglich).
Also 40-50% mehr CU-Fläche für 40% mehr CUs.

Heißt für mich, dass RT beim AMD nicht viel Fläche braucht und die CUs bei RDNA2 nicht viel größer geworden sind.



Und ich wette weiterhin, dass die ganzen Naysayer falsch liegen und N21 ein 512bit GDDR6 SI haben wird (dafür mit höchstens 14Gbps Speichertakt).
Und dass NV ebenfalls damit rechnet, und nur deshalb der 3090 24GB spendiert, um bei der Speichermenge vorn zu bleiben.

HOT
2020-06-11, 15:37:08
Das war nur grob überschlagen und die einzelnen Module von N10 und Renoir geklaut. Ich habe mit 407mm² gerechnet (von hier (https://twitter.com/_rogame/status/1214543985097793536)) mit den 360mm² von Wikipedia wären die CUs noch kleiner. Den Rest dann durch die CUs geteilt. Aber im Prinzip ist die Rechnung Fehlerhaft, da der Cache und Frontends vergessen wurden. Es sind also CUs + ein Anteil am Frontend, das sollte aber mit der Anzahl der CUs skalieren, also gar nicht mal so verkehrt.

- 8 Zen2 Cores ca 50mm², sollte wie Renoir weniger Cache haben
- GDDR6 320bit -> (ca. 35mm² 128bit Navi10 x2,5) 87,5mm²
- 10mm² Command Prozessor
- 20mm² halber Navi10 IO (weniger Displays, PCIe, dafür wohl USB)

ausgehend von 360mm² -> 3,48mm² pro CU+ bei 56CUs
Bei Navi hatte ich irgendwie 4mm im Gedächtnis (könnte Vega gewesen sein), mit gleichem Ansatz komm man bei Navi10 aus 3,275mm² pro CU+

Ansonsten das noch gefunden:
https://i.imgur.com/zps60AZ.png

Geht man bei den Größen von Navi2x davon aus, dass folgendes fix ist:
- 40mm² IO
- 35mm² pro 128bit GDDR6
- 10mm² Command Processor

-> 505mm² - 40 - 10 - 3x35 = 350mm² -> 100CUs - xGMI


Das ist ein wesentlich besser rechnendes Milchmädchen, danke dafür :D. Damit wären also 92 CUs tatsächlich machbar.

mironicus
2020-06-11, 15:42:52
Vielleicht sind es am Ende doch 100 CU, weil 100 ist dreistellig und damit lässt sich besser werben. Dann hat der kleinste Navi21 vielleicht nur 80 CU, während die größeren Modelle entsprechend mehr freigeschaltet haben.

basix
2020-06-11, 15:45:55
N10 packt schon 40CUs und 256bit GDDR6 in 251mm².

Wenn die größen für Navi2x mit 240, 340 und 505mm² stimmen, kann meiner Meinung nach deine Liste nicht stimmen.

Wenn ich diese Chipgrössen anschaue, habe ich noch eine ganz andere Idee. Die Ausgangslage ist folgende:

Navi 10 (https://i.imgur.com/zps60AZ.png) (64bit SI = 16mm2, 20 CU + Frontend = 68mm2, Video- und Displaycontroller + PCIe Interface = 38mm2, GPU-Common Core = 11mm2).
XBSX Chip (56CU + 8C CPU + 320bit GDDR6 SI = 360mm2). Das SI sollte hier anhand Navi 10 etwa 80mm2 ausmachen, für die 8C CPU braucht man etwa 50mm2 und für Displayontroller und PCIe etwa 20mm2. Damit bleiben 200mm2 für CUs übrig, was 71mm2 pro WGP und dazugehörigem Frontend entspricht. +5% CU-Fläche für Raytracing scheint mir ein vernünftiger Wert zu sein (ein Wert in dieser Grössenordnung stand auch mal in einem Paper zu AMD GPUs mit Raytracing Beschleunigung).
Vega 20 --> 4x HBM-Stacks mit ca. 60mm2 für das SI und PHY, somit 15mm2 pro HBM-Stack (habe ich grob ausgemessen). Dieser Wert passt auch mit der AMD-Aussage zu Vega 10 zusammen: 75% bessere Flächeneffizienz verglichen zu GDDR5. Da GDDR6 doppelte Bandbreite bietet, würde der Vorteil auf 50% schrumpfen (1024bit HBM = 128bit GDDR6 von der Bandbreite her bei 16 GT/s und 2.0 GT/s). Und da 128bit GDDR6 anhand Navi 10 in etwa 32mm2 entsprechen, sollte man bei 50% oder Faktor 2 auf die 15mm2 kommen


Falls sich nun jemand von folgender Liste getriggert fühlt, sorry für den Hype Train ;D

240mm2 = 36 CU @ 256bit @ 14 GT/s @ 150W (4*16 + 1.8*71 + 38 + 11 = 241mm2) --> 1.5x Effizienzsteigerung von RDNA2 verglichen mit RDNA1
340mm2 = 56 CU @ 384bit @ 14 GT/s @ 225W (6*16 + 2.8*71 + 38 + 11 = 344mm2)
505mm2 = 112 CU @ 3072 bit HBM2e @ 3.2 GT/s (https://www.computerbase.de/2020-02/hbm2e-ram-jedec-samsung-3.2-gbps/) @ 300W (3*15 + 5.6*71 + 38 + 22 = 503mm2) --> -10...15% Takt verglichen mit den kleineren Chip und HBM2-Effizienz


Passt fast perfekt :D Und nein, ich habe die Zahlen nicht im nachhinein passend gemacht. Ich habe nur basierend auf der Ausgangslage die Anzahl CUs in sinnvoller Anzahl mit dem SI und entsprechender Bandbreite gepaart. Ja, der Abstand zwischen Big Navi und dem kleineren Chip ist relativ gross. Hier käme eine Salvage Lösung zum Zug. Mit 112 CU hätten wir unser Halo-Produkt und die Anzahl CUs und Chipflächen würden einigermassen passen, wenn man die Chips miteinander vergleicht. Die Speichermengen wären zudem mit 8GB, 12GB, 16GB (Big Navi Salvage) und 24GB (Big Navi "Titan") sinnvoll aufgeteilt. Was noch fehlt ist ein kleiner <=150mm2 Chip.

Und ja ich weiss, HBM ist unwahrscheinlich. Aber wir sind ja Spekulanten hier und es war schon lange nicht mehr so spannend wie gerade jetzt (Ampere, RDNA2, Konsolen, Raytracing)

Edit:
unl34shed hatte den selben Gedankengang und ähnliche Werte für die Berechnung erhaltne :)

robbitop
2020-06-11, 15:57:35
Tauchte GDDR6 nicht schon in den Treiberpatches auf die Locuza gefunden hatte?

basix
2020-06-11, 16:06:32
Tauchte GDDR6 nicht schon in den Treiberpatches auf die Locuza gefunden hatte?

Ja das ist so. Deswegen ist HBM auch unwahrscheinlich. Irgendwo vorher im Thread hat zwar jemand gesagt, dass dies auch mit Absicht im Treiber stehen könnte (Nebelkerze und so). Wie auch immer.

240mm2 ~ PS5 Chip
340mm2 ~ XBSX Chip
505mm2 ~ Halo Chip :D

Bei xGMI hätte man ausserdem schon die IP bei 7nm inkl. Interposer (Vega 20)

JVC
2020-06-11, 16:09:59
Ich hoffe auch auf FETT HBM...
Da würde ich auch gerne etwas mehr Kohle für hinhauen ;)

Spekulation:
Vielleicht gibt es eine ~80CU GPU mit 16GB GDDR6 (~300 Watt)
und oben drauf das ~400Watt "Monster" mit 112 CU und 24GB HBM

Ich denke die CUs werden kleiner.
Man hat ja ordentlich entschlackt und auf Spiele hin optimiert.
Der Takt könnte, durch die Optimierungen, auch steigen. (siehe PS5 2,23Ghz)

RT ? RT in Hardware ?
Nein. Zu mindestens nicht so wie wir es von NV kennen ...
(Speku Ende)

M.f.G. JVC

Berniyh
2020-06-11, 16:24:23
Irgendwo vorher im Thread hat zwar jemand gesagt, dass dies auch mit Absicht im Treiber stehen könnte (Nebelkerze und so). Wie auch immer.
Das halte ich für extrem unwahrscheinlich.
Es könnte sein, dass die Patches noch unvollständig sind, aber man wird da nichts sinnloses oder falsches einreichen.
Wenn hinterher raus kommt (und das würde es!), dass man die Linux Kernel Maintainer vorsätzlich getäuscht hätte in dem man falsche Patches einreicht würde das ziemlich böses Blut nach sich ziehen. Das Linux Entwicklungsprinzip folgt ja an der Stelle auch einer Kette des Vertrauens. Wenn das zerstört wurde …
Ne, das kann sich AMD (oder sonst ein Hersteller) an der Stelle nicht erlauben, zumindest nicht, wenn man an einer guten zukünftigen Zusammenarbeit interessiert ist.

BoMbY
2020-06-11, 16:24:35
RT ? RT in Hardware ?
Nein. Zu mindestens nicht so wie wir es von NV kennen ...
(Speku Ende)

M.f.G. JVC

Hardware-RT ist bereits ein offizielles Feature der RDNA2-Generation. Und vermutlich basiert es noch immer auf einer Erweiterung der Textureinheiten, wie in dem Patent (http://www.freepatentsonline.com/20190197761.pdf).

Berniyh
2020-06-11, 16:26:04
Ich denke die CUs werden kleiner.
Man hat ja ordentlich entschlackt und auf Spiele hin optimiert.
Ähm … wurden die CUs von Vega zu Navi nicht eher größer?

JVC
2020-06-11, 16:29:16
Keine Ahnung ^^
Ich spekuliere es mal ;)

(ist ordentlich als reine Spekulation markiert, also kommt mir nicht mit "der hat gesagt")

@BoMbY Danke für die Info :) Muss ich mir gleich anschauen...
Edit: OK ^^ ist mir zu hoch ;) aber vielleicht kann ja wer was anfangen damit.
(ist die technische Umsetzung von NV und AMD ähnlich oder gar gleich?)

M.f.G. JVC

basix
2020-06-11, 16:34:36
Das halte ich für extrem unwahrscheinlich.
Es könnte sein, dass die Patches noch unvollständig sind, aber man wird da nichts sinnloses oder falsches einreichen.
Wenn hinterher raus kommt (und das würde es!), dass man die Linux Kernel Maintainer vorsätzlich getäuscht hätte in dem man falsche Patches einreicht würde das ziemlich böses Blut nach sich ziehen. Das Linux Entwicklungsprinzip folgt ja an der Stelle auch einer Kette des Vertrauens. Wenn das zerstört wurde …
Ne, das kann sich AMD (oder sonst ein Hersteller) an der Stelle nicht erlauben, zumindest nicht, wenn man an einer guten zukünftigen Zusammenarbeit interessiert ist.

Das ist ein gutes Argument. Kann man auch leicht abwandeln ohne HBM, dann komme ich auf das raus, was unl34shed schon aufgelistet hat.


240mm2 = 40 CU @ 192bit @ 16 GT/s @ 150W (3*16 + 2*71 + 38 + 11 = 239mm2)
340mm2 = 64 CU @ 256bit @ 18 GT/s @ 225W (4*16 + 3.2*71 + 38 + 11 = 340mm2)
505mm2 = 96CU @ 384bit @ 18 GT/s @ 350W (6*16 + 5*71 + 38 + 22 = 497mm2). xGMI könnte in den restlichen 8mm2 Platz finden.

Bei GDDR6 only sehe ich bei 8Gbit Chips aber eine Stagnation der Speichermenge, was schade wäre.

Raff
2020-06-11, 19:13:00
240mm2 = 36 CU @ 256bit @ 14 GT/s @ 150W (4*16 + 1.8*71 + 38 + 11 = 241mm2) --> 1.5x Effizienzsteigerung von RDNA2 verglichen mit RDNA1
340mm2 = 56 CU @ 384bit @ 14 GT/s @ 225W (6*16 + 2.8*71 + 38 + 11 = 344mm2)
505mm2 = 112 CU @ 3072 bit HBM2e @ 3.2 GT/s (https://www.computerbase.de/2020-02/hbm2e-ram-jedec-samsung-3.2-gbps/) @ 300W (3*15 + 5.6*71 + 38 + 22 = 503mm2) --> -10...15% Takt verglichen mit den kleineren Chip und HBM2-Effizienz


Geil. Grundsätzlich. Ich kann mir allerdings beim besten Willen nicht vorstellen, dass man drei HBM-Stacks neben den Die auf den Interposer klebt (2 oben, 1 unten?) und den möglichen vierten Platz "verschenkt". Dann eher das:


240mm2 = 40 CU @ 192bit @ 16 GT/s @ 150W (3*16 + 2*71 + 38 + 11 = 239mm2)
340mm2 = 64 CU @ 256bit @ 18 GT/s @ 225W (4*16 + 3.2*71 + 38 + 11 = 340mm2)
505mm2 = 96CU @ 384bit @ 18 GT/s @ 350W (6*16 + 5*71 + 38 + 22 = 497mm2). xGMI könnte in den restlichen 8mm2 Platz finden.

Es wäre natürlich der Knüller, wenn bei AMD gerade alles klappt und wir einen "Alles oder nichts"-Chip sehen, bei dem die Grenzen des Machbaren gerade so reinpassen. :naughty:

MfG
Raff

Piefkee
2020-06-11, 19:47:47
https://m.youtube.com/watch?feature=youtu.be&v=SBVeM9H-Zik

Ich weis ist es AdoredTV
Aber trotzdem...

Navi21
AdoredTV rumored Navi 21 aka “Big Navi” specs

514 mm2
80CU @ 2760 MHz
512 bit bus
16GB @ 20 Gbps (unspecified type)
400W TDP

Linmoum
2020-06-11, 19:48:48
2760MHz sind das neue 5GHz.

mironicus
2020-06-11, 19:51:16
Man stelle sich vor das stimmt, dann kann sich AMD wohl die ganzen zusätzlichen CUs sparen, wenn sie so hoch takten können.

Raff
2020-06-11, 19:53:10
Das wären gut 28 TFLOPS (FP32) mit Aussicht auf Fleischb... äääh, 30 TFLOPS. Zu geil, um wahr zu sein. :D

MfG
Raff

horn 12
2020-06-11, 19:59:33
Aber verdammt Teuer
Möglich wäre es, aber dann >1000 Euro

und Salvage um 700 Euro zu 16GB und 275 Watt RTX 3080 Konkurrent!

mironicus
2020-06-11, 20:00:54
Wie hoch wäre die Bandbreite mit 512 Bit? Über 1 TB/Sek.? Da lohnt sich Speicherübertaktung bestimmt erst recht.

Raff
2020-06-11, 20:05:26
Aber verdammt Teuer
Möglich wäre es, aber dann >1000 Euro

und Salvage um 700 Euro zu 16GB und 275 Watt RTX 3080 Konkurrent!

1.000 Euro wäre sie mit den Specs auch wert. Da wäre nämlich klar, dass da nicht 2021 direkt was viel Dickeres kommt.

Wie hoch wäre die Bandbreite mit 512 Bit? Über 1 TB/Sek.? Da lohnt sich Speicherübertaktung bestimmt erst recht.

Mit 512 Bit und 20 GT/s (10.000 MHz) wären's 1,25 TByte/s, also 25 Prozent mehr als bei der Radeon Seven.

MfG
Raff

Linmoum
2020-06-11, 20:10:49
Da selbst der letzte Krüppelchip für die PS5 >2.2GHz schaffen muss, halte ich 2.3GHz für realistisch. Mit Wasser dann halt auch vielleicht Richtung 2.4GHz wenn man Glück hat.

Aber alles andere ist doch wieder nur sinnlos. Auch Nvidia wird nicht plötzlich 3GHz aus dem Hut zaubern.

LasterCluster
2020-06-11, 20:22:03
Da selbst der letzte Krüppelchip für die PS5 >2.2GHz schaffen muss, halte ich 2.3GHz für realistisch. Mit Wasser dann halt auch vielleicht Richtung 2.4GHz wenn man Glück hat.

Aber alles andere ist doch wieder nur sinnlos. Auch Nvidia wird nicht plötzlich 3GHz aus dem Hut zaubern.

Das bei der PS5 ist aber eher ein Base clock unter Vorbehalt bzw ein Game Clock lite und kein Boost Clock. Deine 2.4 GHz würde dann wohl so 2.5-2.6 GHz Boost entsprechen.

mboeller
2020-06-11, 20:24:43
aha...

80 x 2760 / 40 x 1905 = 2,9 ... x 1090% = 3160% ;)

mironicus
2020-06-11, 20:24:57
Da der Ampere GA100 schon nur 1,45 GHz packt.... Tja.... :D

Performance-Krone geht dieses mal an... AMD! :)

Berniyh
2020-06-11, 20:31:44
Navi21
AdoredTV rumored Navi 21 aka “Big Navi” specs

514 mm2
80CU @ 2760 MHz
512 bit bus
16GB @ 20 Gbps (unspecified type)
400W TDP
Also das mit den 512 Bit glaube ich erst wenn ich es sehe.
Generell bin ich aber kein Fan von. Braucht dann ein monströses Board und das 512 Bit Interface nimmt auch ordentlich Strom vom eigentlichen Chip weg.

Und was ich halt echt nicht nachvollziehen kann (und alleine deshalb würde ich das schon ein Stück weit in Frage stellen):
wenn man schon so einen raus haut abseits jeder Vernunft und jeden Verstands (und so muss man diese Specs mit 512 Bit Memory Bus und 400W TDP definitiv betrachten): warum dann 16 GB VRAM? Also "nur" 16 GB?
Alleine dadurch wirkt es dann auch schon wieder etwas halbgar.
Ok, evtl. nicht halbgar, aber max. 3/4.

Linmoum
2020-06-11, 20:35:23
Hachja:
Guys I just got info that the "Big Navi" specs are NOT TRUE! the codenames are for PCB's, not SKUs. Please disregard the "leak", it's bullshit.

Aber hey, immerhin bekam er wieder seine zwei Minuten Aufmerksamkeit.

M4xw0lf
2020-06-11, 20:36:07
>Thread auf

...adored TV...

>Thread zu

Berniyh
2020-06-11, 20:37:44
Hachja:


Aber hey, immerhin bekam er wieder seine zwei Minuten Aufmerksamkeit.
:freak:;D

Na immerhin sagt er im Video so oft wie unglaublich glaubwürdig er das findet, abgesehen von der Taktrate …:rolleyes:

robbitop
2020-06-11, 20:48:31
Wobei 512 bit und 20 GT/s dann auch sinnfrei/fraglich/überzogen wären (für 80 CUs und ~2 GHz). Das wäre Faktor 2,8 ggü N10.

Der_Korken
2020-06-11, 21:00:17
Irgendwie drehen hier einige alle gerade völlig frei ...

112 CUs ...
2,7Ghz ...
512bit SI @20Ghz ...
400W Stock ...

:uhammer:

Ich lach mich kaputt, wenns am Ende "nur" ein RV770 2.0 wird, der einfach alles bis 600€ rockt und Nvidia ihren >1000€-ich-kaufe-eh-nur-Nvidia-Bereich überlässt.

basix
2020-06-11, 21:11:56
Irgendwie drehen hier einige alle gerade völlig frei ...

112 CUs ...
2,7Ghz ...
512bit SI @20Ghz ...
400W Stock ...

:uhammer:

Ich lach mich kaputt, wenns am Ende "nur" ein RV770 2.0 wird, der einfach alles bis 600€ rockt und Nvidia ihren >1000€-ich-kaufe-eh-nur-Nvidia-Bereich überlässt.

Ach komm jetzt. Lass uns doch den Spass :D

Ich lache dann, wenn >80 CU kommen werden ("ich habe es euch ja gesagt"). Und alle anderen werden mitlachen, weil sie die schnellere GPU bekommen ;D

Berniyh
2020-06-11, 21:25:22
Naja, eine GPU mit 400W TDP und 512 Bit Speicherinterface würde ich persönlich mir nicht kaufen.
Obwohl ich eigentlich Big Navi als nächste GPU eingeplant habe, aber in so einem Fall nehm ich dann lieber die Variante eins drunter (also Navi22).

Denniss
2020-06-11, 21:40:26
Schon wieder so ne Luftnummer von AdoredTV?

Raff
2020-06-11, 21:45:03
Langsamer und effizienter machen geht immer. :)

MfG
Raff

Berniyh
2020-06-11, 21:45:19
Fände es ja amüsant, wenn sich Igor mit seinen 400W auf AdoredTV bezogen hätte.

Berniyh
2020-06-11, 21:46:24
Langsamer und effizienter machen geht immer. :)
Schon, aber du zahlst ja den aufgeblasenen Quatsch mit.

Linmoum
2020-06-11, 21:47:17
Langsamer und effizienter machen geht immer. :)

MfG
RaffSchneller und zum Säufer machen auch. :P

Raff
2020-06-11, 21:52:00
Schneller und zum Säufer machen auch. :P

Leider nein. Also nicht so, wie man das gerne hätte. Wie war das noch bei der GTX Titan (Classic?) Maximal 265 statt 250 Watt TDP (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Test-Geforce-GTX-Titan-1056659/3/). LOL. Mehr nur mit inoffiziellen BIOS-Hacks, bei denen man immer bangen musste, ob der nächste Treiber sie noch akzeptiert. Bei späteren Karten wurden's dann immerhin 300 statt 250 Watt. Und bei AMD-Karten geht auch gerne mal was kaputt, wenn man das PT auf +50 Prozent stellt (Fluktuation).

MfG
Raff

horn 12
2020-06-11, 22:43:19
https://www.hardwareluxx.de/community/threads/beidseitiges-kühlkonzept-foto-soll-geforce-rtx-3080-zeigen.1271639/page-8

Folie zu der Performance von NV und AMD

Könnte gut hinkommen das Ganze
16 GB die ganze Palette von AMD :-)

y33H@
2020-06-11, 22:48:43
RTX 3600 Super wäre irre mit 8GB ^^

https://www.hardwareluxx.de/community/attachments/1591906819336-png.513354/

TheGood
2020-06-11, 22:49:48
Hm bei den echten Next Gen von PS5 sieht man schon dass AMD mit RDNA2 schon das gutes geschafft hat.

HM Raytracing war vor allem für spiegelungen im einsatz und das recht oft oder hab ich mich da getäuscht??

Linmoum
2020-06-11, 22:55:03
Kapiere nicht, warum Menschen sich solche Mühe mit Fakes geben, wenn sie dann noch offensichtlich Quatsch sind.

Eine 3090 und Titan haben natürlich dieselbe TDP, wenn letztere doppelt so viel Speicher, sowie minimal mehr Takt und Shader hat. Nvidia bringt eine 3070S mit GDDR6X, aber eine schnellere 3080 nur mit GDDR6. Jo klar.

Langlay
2020-06-11, 22:57:44
https://www.hardwareluxx.de/community/threads/beidseitiges-kühlkonzept-foto-soll-geforce-rtx-3080-zeigen.1271639/page-8

Folie zu der Performance von NV und AMD

Könnte gut hinkommen das Ganze
16 GB die ganze Palette von AMD :-)


Hmm, 320Bit Speicherinterface mit 20GB 21 Gbps RAM seh ich irgendwie nicht bei BigNavi. Wieso nicht gleich auf 384bit vollmachen und ggf- etwas langsameren RAM.

TheGood
2020-06-11, 22:58:47
AMD weiss halt was mit den neuen Konsolen auf die Spieler zukommt ;)

N0Thing
2020-06-11, 23:02:57
Tauchte GDDR6 nicht schon in den Treiberpatches auf die Locuza gefunden hatte?

Ja, aber ist es sicher, dass es dabei um den Top Dog ging, oder könnte es auch einer der kleineren Chips sein?

[MK2]Mythos
2020-06-11, 23:11:20
Wieso fallen denn alle auf solche Folien rein? Mal von den komplett schwachsinnigen Zahlen zueinander abgesehen, die "Quelle" hat offenbar bereits auch alle Karten gebencht und miteinander verglichen. Was ein Unfug. ;D

Rampage 2
2020-06-11, 23:36:58
Und ich wette weiterhin, dass die ganzen Naysayer falsch liegen und N21 ein 512bit GDDR6 SI haben wird (dafür mit höchstens 14Gbps Speichertakt).
Und dass NV ebenfalls damit rechnet, und nur deshalb der 3090 24GB spendiert, um bei der Speichermenge vorn zu bleiben.


Langlay behauptet ja, dass bei 512Bit SI weniger die Die-Fläche und der Stromverbrauch das Problem sind, sondern vielmehr die gleichförmige Anordnung (Entfernung) der Speicherchips um den Grafikchip - ließe sich dieses Problem nicht durch einen Clamshell-Mode (beidseitige Bestückung vorne und hinten) lösen? - Das würde gleichzeitig auch (nochmals!) verdoppelte Speicherkapazität bedeuten - also bei der Verwendung von 16Gbit-Chips sage und schreibe 64GB VRAMX-D


Mit 512 Bit und 20 GT/s (10.000 MHz) wären's 1,25 TByte/s, also 25 Prozent mehr als bei der Radeon Seven.


1.28TB/sek. (1280GB/sek.); was du meinst ist 1.25TiB/sek. ;) Ich finde, im Gegensatz zu Speichermengen (SSDs, HDDs, RAM, VRAM) sollte man Bandbreiten weiterhin in der originalen Form (ohne das "i") beziffern:)

R2

Der_Korken
2020-06-11, 23:47:33
Nvidia bringt eine 3070S mit GDDR6X, aber eine schnellere 3080 nur mit GDDR6. Jo klar.

Die 3070S ist doch schon der Refresh, der erst 2021 kommt. Und für den aber bereits jetzt die genauen Specs feststehen :freak:

Langlay behauptet ja, dass bei 512Bit SI weniger die Die-Fläche und der Stromverbrauch das Problem sind, sondern vielmehr die gleichförmige Anordnung (Entfernung) der Speicherchips um den Grafikchip - ließe sich dieses Problem nicht durch einen Clamshell-Mode (beidseitige Bestückung vorne und hinten) lösen? - Das würde gleichzeitig auch (nochmals!) verdoppelte Speicherkapazität bedeuten - also bei der Verwendung von 16Gbit-Chips sage und schreibe 64GB VRAMX-D

Es müssen ja nicht nur die 16 Speicherchips untergebracht sondern auch angebunden werden. Keine Ahnung, ob da die Leitungen für zwei Chips quasi übereinanderlegen kann. Apropos 16 Speicherchips: 16*16Gbit sind bei mir 32GB und nicht 64.

Rampage 2
2020-06-12, 00:16:45
@ Der_Korken:

Ähem, deine Antwort ist in meinem Zitat enthalten - vielleicht solltest du das mal korrigieren.;)

Und zu "16x 16Gbit-Chips": soll das heißen, dass schon die Titan RTX (24GB) 24 Speicherchips besitzt? Also Clamshell-Mode? D.h., theoretisch ließe sich da auch ein 768Bit SI draufpacken? :devil:

Gibt es nicht noch so einen Quadro-Chip (RTX5xxx/6xxx/8xxx) von Nvidia mit 48GB VRAM an einem 384Bit SI? :|

R2

Langlay
2020-06-12, 01:00:13
Langlay behauptet ja, dass bei 512Bit SI weniger die Die-Fläche und der Stromverbrauch das Problem sind, sondern vielmehr die gleichförmige Anordnung (Entfernung) der Speicherchips um den Grafikchip - ließe sich dieses Problem nicht durch einen Clamshell-Mode (beidseitige Bestückung vorne und hinten) lösen? - Das würde gleichzeitig auch (nochmals!) verdoppelte Speicherkapazität bedeuten - also bei der Verwendung von 16Gbit-Chips sage und schreibe 64GB VRAMX-D



Nein, das bringt in dem Fall nichts. die Speicherchips sind dann nur noch mit mit einem 16bit Kanal angeschlossen statt derer 2.

https://abload.de/img/claimpnk7w.jpg

Ist zwar GDDR5 sollte aber bei 6 genauso funktionieren.

Digidi
2020-06-12, 01:02:04
Egal welchen Thread man hier nur noch liest. Man könnte meinen eine GPU besteht nur aus Speicher und Energieverbrauch......

Dachte dies wäre hier ein Fachforum wo man vielleicht mal über dinge wie Rops, Frontend, Workloadsheduler etc spricht....

Hmmmmm

Rampage 2
2020-06-12, 01:50:05
Nein, das bringt in dem Fall nichts. die Speicherchips sind dann nur noch mit mit einem 16bit Kanal angeschlossen statt derer 2.

https://abload.de/img/claimpnk7w.jpg

Ist zwar GDDR5 sollte aber bei 6 genauso funktionieren.


Was ist denn dann der Sinn eines Clamshell-Mode!? Bei der PS4 wurde der Clamshell-Mode eingesetzt, um 8GB Speicher zu ermöglichen - aber wenn sich dadurch die Speicherbandbreite nicht verdoppeln lässt, dann wüsste ich nicht, wozu diese Technik von Nutzen sein soll... (außer Speicherkapazität zu verdoppeln) :|

Und selbst wenn es das (2x 32Bit-Kanäle) noch nicht gibt: wer sagt denn, dass es auch in der (nahen) Zukunft so bleiben wird!? Also zumindest beidseitig bestücktes 512Bit (8x2x32Bit) SI halte ich für technisch realisierbar, *auch* wenn 64Bit-Kanäle weiterhin nicht möglich sein werden:) (ist eh schon längst überfällig - 512Bit ermöglicht auch größere Speichermengen als 384Bit, wenn HBM keine Alternative sein sollte...)

Egal welchen Thread man hier nur noch liest. Man könnte meinen eine GPU besteht nur aus Speicher und Energieverbrauch......

Dachte dies wäre hier ein Fachforum wo man vielleicht mal über dinge wie Rops, Frontend, Workloadsheduler etc spricht....

Hmmmmm


Zu den ROPs, TMUs & FrontEnd kann ich meinen Spekulatius geben: ich erwarte, dass diese bei Big Navi verdoppelt werden - also 128 ROPs. Auch die TMUs könnten verdoppelt werden (allein schon wegen der RT-Geschichte...). Und mit FrontEnd meinst du bestimmt den Dreiecksdurchsatz, nicht wahr? Wie wird der heute eigentlich berechnet? Bis G7x/R5xx gab es ja Vertexshader-Einheiten und beide Chips hatten davon 8 und beide takteten mit 650MHz. Folgerichtig sollen beide Chips 1,3 Milliarden Polygone/sek. Dreiecksdurchsatz gehabt haben, wenn ich mich richtig entsinne...

Aber seit G80/R600 gibt es ja keine separaten Vertex-Shader mehr, sondern nur noch Unified-Shader oder höchstens noch Geometry-Shader (was machen die eigentlich?). Wie wird denn seitdem der Polygon-Durchsatz berechnet? :confused:

R2

Digidi
2020-06-12, 02:18:41
Es gibt auch ein paar schöne neue Patente:

http://www.freepatentsonline.com/result.html?p=1&edit_alert=&srch=xprtsrch&query_txt=AN%2F%22Advanced+Micro+Devices%22%0D%0A+rasterizer%0D%0A&uspat=on&date_range=all&stemming=on&sort=chron&search=Search

Primitive Shader part 2?
http://www.freepatentsonline.com/10453243.html
Schnelleres Tesselation?
http://www.freepatentsonline.com/10593111.html

Rampage 2
2020-06-12, 02:23:05
@ Digidi: der 2. Link funktioniert nicht...

R2

Edit: Huch, jetzt schon - alles klar! ;)

Langlay
2020-06-12, 03:03:04
Und selbst wenn es das (2x 32Bit-Kanäle) noch nicht gibt: wer sagt denn, dass es auch in der (nahen) Zukunft so bleiben wird!? Also zumindest beidseitig bestücktes 512Bit (8x2x32Bit) SI halte ich für technisch realisierbar, *auch* wenn 64Bit-Kanäle weiterhin nicht möglich sein werden:) (ist eh schon längst überfällig - 512Bit ermöglicht auch größere Speichermengen als 384Bit, wenn HBM keine Alternative sein sollte...)


Weil die GDDR6 Spezifikation sagt ein GDDR6 Speichermodul hat 2 Kanäle a 16bit. Und genau deshalb hat ein GDDR6 Speichermodul 2 Kanäle a 16Bit.

Wenn man dort mehr möchte braucht es einen anderen Standard.

vinacis_vivids
2020-06-12, 09:22:17
RTX 3600 Super wäre irre mit 8GB ^^

https://www.hardwareluxx.de/community/attachments/1591906819336-png.513354/

Wäre geil wenn sich die 6900 freischalten ließe :eek: (ich weiß, sehr unwahrscheinlich, hm wobei - wenn AMD sehr gut verdient, haben sie immer oftmals dem User freie Hand gelassen)

4608SP -> 5120SP ;D

Überhaupt wäre die 6900 ein Übertaktungsmonster mit 1,7Ghz Baseclock dann @H²O auf 2,2-2,3 Ghz OC.

6900 @ 4608SP@1,7Ghz -> 15,66 Tflops
6900 @ 5120SP@2,3Ghz -> 23,55 Tflops (+50% :eek:)

Feuchte träume von der Radeon 9500@9700 werden wieder wahr.

HOT
2020-06-12, 09:32:49
Leute, es gibt 2GB GDDR6 von Samsung bis 18GT/s. NV hat die als 14GT/s-Chips die von Anfang an auf den Turing-Quadro-Karten verbaut.
Das scheint nur bei GDDR6X nicht zu gehen, vielleicht ist der schlicht nicht von Samsung sondern wieder von Micron und die machen halt nur 1GB-Chips.

Die Liste ist wahrlich interessant i.Ü.

[MK2]Mythos
2020-06-12, 09:47:01
Wäre geil wenn sich die 6900 freischalten ließe :eek: (ich weiß, sehr unwahrscheinlich, hm wobei - wenn AMD sehr gut verdient, haben sie immer oftmals dem User freie Hand gelassen)

4608SP -> 5120SP ;D

Überhaupt wäre die 6900 ein Übertaktungsmonster mit 1,7Ghz Baseclock dann @H²O auf 2,2-2,3 Ghz OC.

6900 @ 4608SP@1,7Ghz -> 15,66 Tflops
6900 @ 5120SP@2,3Ghz -> 23,55 Tflops (+50% :eek:)

Feuchte träume von der Radeon 9500@9700 werden wieder wahr.
Die Liste ist komplett ausgedacht, spar dir die Träumereien.

HOT
2020-06-12, 10:00:49
Wenn sich das einer ausgedacht, wuisste er aber echt was er tut.

[MK2]Mythos
2020-06-12, 10:03:38
Wenn sich das einer ausgedacht, wuisste er aber echt was er tut.
Nein, weil die Wattangaben Unsinn sind und die Performance hätte er besser auch weggelassen, dann wärs etwas glaubwürdiger gewesen.

Berniyh
2020-06-12, 10:20:14
Generell wurde speziell zu Big Navi zuletzt sehr viel Leak-Stuss verbreitet, da ist generell Vorsicht angesagt. ;)

HOT
2020-06-12, 10:41:18
Vorsicht ist immer angesagt.
Also ich finde die TDP-Angaben nicht unplausibel.

Das Ding ist übelst durchdacht bis in kleinste Details. Wenn sich das jemand ausgedacht hat, bin ich ernsthaft beeindruckt.

Cyberfries
2020-06-12, 10:45:52
Die Tensorenanzahlen in der "geleakten" Tabelle passen nicht ganz.
Titan A und 3070er liegen bei 4 Tensorcores je SM, die 3090 bei 3,8 und die 3080 und 3060 bei 3,6.
Auch 2060 Super und 2070 Super stimmen nicht.

Dazu kommen merkwürdige Transistorendichten.
48mrd/mm² bei GA102 und 43mrd/mm² bei GA104
Abweichungen sind normal, aber das kommt mit etwas hoch vor.
Die Werte liegen auch in einem Bereich, der in den heutigen News als unrealistisch abgetan wurde.

Speichermengen sind sehr hoch und dann noch GDDR6x bei Navi?
Klingt alles ziemlich fischig.

Dino-Fossil
2020-06-12, 10:54:25
Jemand hat also Monate vor dem Launch die kompletten Performance-Werte für alle aufgeführten Karten? Sehr realistisch...

Aber auch, wenn wir mal für einen Moment annehmen, dass die Performance nur für jeweils 1-2 Karten bekannt ist, und der Rest interpoliert wurde - gerade bei AMD haben die doch jetzt noch nicht mal den Alpha-Treiber bereit... :P :ugly:

Ne, das ist wie damals der AdoredTV-Leak: jemand hat sich ne Menge Details aus den Fingern gesogen, die am Ende aber eben nur ausgedacht sind. Evtl. ist mal der eine oder andere Zufallstreffer dabei...

dargo
2020-06-12, 10:58:02
Das Ding ist übelst durchdacht bis in kleinste Details. Wenn sich das jemand ausgedacht hat, bin ich ernsthaft beeindruckt.
Ich finde es erschreckend von was du so beeindruckt bist. Nur weil einer Langerweile hatte und mit paar Zahlen jonglieren ging? :freak:

Linmoum
2020-06-12, 10:59:37
Vorsicht ist immer angesagt.
Also ich finde die TDP-Angaben nicht unplausibel.

Das Ding ist übelst durchdacht bis in kleinste Details. Wenn sich das jemand ausgedacht hat, bin ich ernsthaft beeindruckt.
Also bitte.

Performance-Werte selbst für sowas wie GA-104 zum jetzigen Zeitpunkt? Nope.
Titan dieselbe TDP wie eine 3090 bei mehr Takt/Shadern und doppeltem Speicher? Einfach nein.
3070 mit GDDR6X, eine 3080 aber nur mit GDDR6? Nope.
Eine 3060 Super mit 6GiB, obwohl es eine 3070 mit 8GiB gibt? Nope.

Taktraten kann man sich einfach irgendwas ausdenken, kann zum jetzigen Zeitpunkt niemand verifizieren. Bei den Shadern bedient man sich anhand aktueller Gerüchte und nimmt für Salvages was naheliegendes. Beim Speicher braucht man auch kein Wissen, um diese Angaben dort hinzuzaubern.

Warum genau bist du beeindruckt, wenn sich das jemand ausgedacht hat? Das, was da für Navi und Ampere steht, kann man in 15 Minuten ohne Aufwand hinrotzen. :freak:

Achill
2020-06-12, 11:01:35
Bin nicht überzeugt von den ganzen Gerüchten. Ich kann das auch nur allen anderen empfehlen um nicht jetzt schon eine Erwartungshaltung aufzubauen, die später nicht erfüllt wird. Dies kann auch Marketing im Form von Social-Influencing sein - immer daran Denken, wir sind alle beeinflussbar und insbesondere dann, je stärker man etwas will / vermeidlich braucht.

Unabhängig ob AMD oder NV die Perf.Krohne haben wird, hoffe ich auf keine >300W Karten auf beiden Seiten. Denn 350-400W Karten könnten schnell schon das (noch "gesunde") Limit der jeweiligen Architektur sein und würden m.E. jedes OC oder Tuning nach Oben obsolet machen.

Der_Korken
2020-06-12, 11:39:24
Egal welchen Thread man hier nur noch liest. Man könnte meinen eine GPU besteht nur aus Speicher und Energieverbrauch......

Dachte dies wäre hier ein Fachforum wo man vielleicht mal über dinge wie Rops, Frontend, Workloadsheduler etc spricht....

Hmmmmm

This. Ich finde die Architekturänderungen eigentlich viel spannender als die Zahl der CUs, die man am Ende irgendwie auf den Chip quetscht. Als zu Vega-Zeiten die 40 CUs für die nächste Gen als Gerücht auftauchten, hatte keiner gedacht, dass diese Zahl stimmt bzw. dass eine solche GPU schneller sein würde als V10.

Ich sollte hier nochmal betonen, dass ich nicht vom Fach bin und das meiste Wissen aus den Speku-Threads im 3DC gezogen habe :freak:. Vor Polaris und Vega wurden aber noch weitere Patente gepostet, z.B. eines wo es um Registervirtualisierung ging. Damit soll einiges an Platz und Strom eingespart werden (eventuell durch Verkleinerung des sperrigen Registerfiles ohne nennenswerten Leistungsverlust?). Und dann ist ja immer noch die Sache mit dem Tile Rendering offen, wo sich RDNA1 anscheinend noch immer wie Pre-Maxwell verhält. Lohnt es sich eigentlich Out-of-Order-Elemente in die CUs einzubauen, damit die GPU weniger Threads braucht, um alle CUs zu beschäftigen? Dadurch könnte die Datenlokalität auch steigen.


Zu den ROPs, TMUs & FrontEnd kann ich meinen Spekulatius geben: ich erwarte, dass diese bei Big Navi verdoppelt werden - also 128 ROPs. Auch die TMUs könnten verdoppelt werden (allein schon wegen der RT-Geschichte...). Und mit FrontEnd meinst du bestimmt den Dreiecksdurchsatz, nicht wahr? Wie wird der heute eigentlich berechnet? Bis G7x/R5xx gab es ja Vertexshader-Einheiten und beide Chips hatten davon 8 und beide takteten mit 650MHz. Folgerichtig sollen beide Chips 1,3 Milliarden Polygone/sek. Dreiecksdurchsatz gehabt haben, wenn ich mich richtig entsinne...

Aber seit G80/R600 gibt es ja keine separaten Vertex-Shader mehr, sondern nur noch Unified-Shader oder höchstens noch Geometry-Shader (was machen die eigentlich?). Wie wird denn seitdem der Polygon-Durchsatz berechnet? :confused:

R2

Da Unified Shader alles können, könnte die gesamte GPU theoretisch auch Vertex-Berechnungen machen. Diese Größe ist also heutzutage ziemlich irrelevant. Wichtiger ist da schon eher, wie schnell die Dreiecke verrastert werden können. Wobei RDNA da ziemlich gut sein könnte, denn im Gegensatz zu Vega ist RDNA auch in 1080p schon schnell und scheint Richtung 4K eher Boden gegenüber Turing zu verlieren (das war bei GCN noch andersrum).

Grendizer
2020-06-12, 11:49:03
Gestern wurde ja ein wenig PS5 Gameplay gezeigt. Der Anteil von RT kann man da mit der Lupe suchen. Mal schauen, wie die RT Fähigkeiten bei einer Bignavi sein werden.

HOT
2020-06-12, 11:51:54
Ich finde es erschreckend von was du so beeindruckt bist. Nur weil einer Langerweile hatte und mit paar Zahlen jonglieren ging? :freak:
Das ist durchaus Arbeit, das so zu machen. Du machst dir die Mühe sicherlich nicht ;).
Ich hab nie gesagt, dass ich das für echt halte, aber da steckt schon Hirnschmalz hinter. Klar einige Details stimmen dann doch nicht, aber witzig ist das alle Mal.

dargo
2020-06-12, 11:57:24
Gestern wurde ja ein wenig PS5 Gameplay gezeigt. Der Anteil von RT kann man da mit der Lupe suchen.
Was hast du denn erwartet? Es war von vorne rein klar, dass RT bei der ersten RT-Konsolengen spärlich eingesetzt wird. Kein Wunder bei den hohen Kosten.

btw.
Vom gezeigten GT7 Material bin ich sogar etwas enttäuscht. Bei Next-Gen hätte ich mehr erwartet. Besonders die Umgebung sieht mir nicht nach Next-Gen aus.

Grendizer
2020-06-12, 12:12:18
Was hast du denn erwartet? Es war von vorne rein klar, dass RT bei der ersten RT-Konsolengen spärlich eingesetzt wird. Kein Wunder bei den hohen Kosten.

btw.
Vom gezeigten GT7 Material bin ich sogar etwas enttäuscht. Bei Next-Gen hätte ich mehr erwartet. Besonders die Umgebung sieht mir nicht nach Next-Gen aus.

Ja ... so sehr ich mich über ein GT 7 freue... technisch überzeugt hat es mich zumindest gestern nicht. Aber schauen wir mal, bis es da ist.

Bezüglich RT ... die Spekulation von anderen ist aber, das AMD für RT auf Konsolen was cooles gezaubert hat, das nVidia und den TC überlegen sein könnte.

Hübie
2020-06-12, 12:24:02
Ja AMD zaubert neuerdings...;D;D;D

RDNA2 wird sich meiner Einschätzung nach in ziemlich gewohnten Bahnen bewegen, was bedeutet: man konkurriert über den Preis mit den alten oder kleineren Modellen. Nichts, aber auch rein gar nichts deutet auf das Gegenteil hin. -_-

dargo
2020-06-12, 12:41:54
Bezüglich RT ... die Spekulation von anderen ist aber, das AMD für RT auf Konsolen was cooles gezaubert hat, das nVidia und den TC überlegen sein könnte.
Spekulationen oder eher feuchte Träume? :tongue: Wenn das auf AMD um ein vielfaches performater wäre als auf Geforce hätten wir nicht so eine Sparversion wie im GT7-Video bei den Reflektionen gesehen. :wink: Letzter Stand war, dass RT immer noch stark an den Shadern hängt. Solange da keine secret sauce für kommt dauert das mit viel RT noch paar Jährchen.


RDNA2 wird sich meiner Einschätzung nach in ziemlich gewohnten Bahnen bewegen, was bedeutet: man konkurriert über den Preis mit den alten oder kleineren Modellen. Nichts, aber auch rein gar nichts deutet auf das Gegenteil hin. -_-
Dann bist du aber schlecht informiert.

Linmoum
2020-06-12, 12:48:10
RDNA2 wird sich meiner Einschätzung nach in ziemlich gewohnten Bahnen bewegen, was bedeutet: man konkurriert über den Preis mit den alten oder kleineren Modellen. Nichts, aber auch rein gar nichts deutet auf das Gegenteil hin. -_-
RDNA und Turing bieten Rohleistungsnormiert quasi 1:1 eine identische Performance. Nvidia legt mit Ampere nach, AMD mit RDNA2.

GA102 soll 5376 Shader haben, N21 derer 5120. Den lächerlichen Unterschied kann man fast schon vernachlässigen.

Sowohl Ampere, als auch RDNA werden wie üblich diverse architekturbedingte Verbesserungen und Performancesteigerungen bekommen. Sei es durch höheren Takt, IPC oder sonstwas. Bei RDNA2 wissen wir ja, dass bereits die PS5 mit über 2.2GHz boostet.

Aber warum genau deutet jetzt bei Nvidia etwas auf große Performancesteigerungen hin, die bei AMD aber nicht möglich sind und ausbleiben? :confused: Erschließt sich mir irgendwie nicht. Aber vielleicht weißt du ja schon mehr als wir/ich.

Hübie
2020-06-12, 14:13:43
Nein, ich weiß wirklich nicht mehr als ihr was AMD betrifft. Das ist so mein Bauchgefühl und NVIDIA hat mal wieder secret sauce. Die 2,2 GHz der PS5 werden wir im Desktop mglw. nie sehen, wenn wir von Normalbetrieb (nicht LN2) ausgehen. Ich täusche mich aber gerne, das gebe ich offen zu. :smile:

Langlay
2020-06-12, 14:22:41
Die 2,2 GHz der PS5 werden wir im Desktop mglw. nie sehen, wenn wir von Normalbetrieb (nicht LN2) ausgehen. Ich täusche mich aber gerne, das gebe ich offen zu. :smile:


2.2 GHz packt ein guter Vega20/Navi10 Chip schon fast. Wieso sollte das Navi2x dann nicht packen können ?

Berniyh
2020-06-12, 14:51:00
Nein, ich weiß wirklich nicht mehr als ihr was AMD betrifft. Das ist so mein Bauchgefühl und NVIDIA hat mal wieder secret sauce. Die 2,2 GHz der PS5 werden wir im Desktop mglw. nie sehen, wenn wir von Normalbetrieb (nicht LN2) ausgehen. Ich täusche mich aber gerne, das gebe ich offen zu. :smile:
Ach, läuft die PS5 mit Flüssigstickstoff? :eek:;D

Der_Korken
2020-06-12, 14:57:02
Ach, läuft die PS5 mit Flüssigstickstoff? :eek:;D

Könnte man meinen :freak:

Das Teil ist schon ein Monster. Eine Ps3 Fat ist klein dagegen.

https://i.imgur.com/QZfwovL.jpg
https://i.imgur.com/RF4OCW0.jpg
https://i.imgur.com/m0Lc3X8.jpg

https://i.imgur.com/QZfwovL.jpg

(wäre natürlich blöd, wenn die so groß ist, weil die GPU zu viel säuft ... wollen wir es mal nicht hoffen)

reaperrr
2020-06-12, 14:58:45
Nichts, aber auch rein gar nichts deutet auf das Gegenteil hin. -_-
Stimmt... bis auf AMD's Aussage/Folie, laut der die Perf/W von RDNA1 zu RDNA2 genauso stark steigen soll (~50%), wie von Vega zu RDNA1, und das obwohl maximal 3-5 von den 50 Prozentpunkten vom Prozess kommen können (und auch nur, wenn doch N7+ statt N7P verwendet wird).

Berniyh
2020-06-12, 15:20:50
Könnte man meinen :freak:
Was kostet dann das Jahres-Abo für die tägliche N2 Lieferung? :D

Ex3cut3r
2020-06-12, 15:27:08
Was Hübie und Hot hier von sich abgeben, zum fremdschämen. :usad:

Für mich sind es so aus, als wäre bei beiden Hersteller 2,5 GHZ Core Takt möglich. Deswegen vermutlich auch die höhen Out of the Box Watt Angaben. Ein Fan von 320W und mehr, bin ich wirklich nicht. Wenn da aber +100% rauskommt im vergleich zu den direkten Vorgänger könnte ich damit aber leben.

Dino-Fossil
2020-06-12, 15:31:06
(wäre natürlich blöd, wenn die so groß ist, weil die GPU zu viel säuft ... wollen wir es mal nicht hoffen)

Der weiße Bereich der PS5 ist übrigens kein Gehäuse/keine Verkleidung, sondern die gefrorene kondensierte Luftfeuchte aufgrund des Flüssigstickstoffs im Inneren. :biggrin:

reaperrr
2020-06-12, 16:34:14
Der weiße Bereich der PS5 ist übrigens kein Gehäuse/keine Verkleidung, sondern die gefrorene kondensierte Luftfeuchte aufgrund des Flüssigstickstoffs im Inneren. :biggrin:
;D;D;D:up:

Achill
2020-06-12, 21:30:09
Weil ich es gerade im PS5 Spekulationen Thread gefragt habe, eine ähnliche Frage umgedreht: Wie sieht es mit der Change aus, dass AMD von Sony Checkerboard-Rendering Lizenziert hat (glaube es war eine Entwicklung von Sony mit AMD zusammen) und wir dies in Navi2 zu sehen bekommen? Evtl. als Alternative zu DLSS? Könnte es dafür die zwei Render-Pipelines geben (sorry falls Newbie-Frage )?