PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: AMDs "Big Navi" mit angeblich 72 Shader-Clustern samt +40-50% ...


Leonidas
2020-07-15, 12:15:13
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-amds-big-navi-mit-angeblich-72-shader-clustern-samt-40-50-performancegewinn-zur

matty2580
2020-07-15, 13:22:26
Selbst wenn Big Navi doppelt so viel Shader hat wie eine 5700 XT, heißt dass nicht automatisch das am Ende doppelt so viel Leistung heraus kommt.
Und ich glaube auch nicht an einen gigantischen IPC-Sprung um in die Nähe eines GA 102 zu kommen.

Lehdro
2020-07-15, 14:22:38
So recht vorstellen kann ich mir das auch nicht so wirklich, aber ich hoffe darauf. Jedes Fitzelchen Konkurrenzkampf was wir im GPU Markt bekommen können, kann dazu beitragen die Preise zu normalisieren.

Schnoesel
2020-07-15, 14:35:48
Ich würde ja so lachen wenn AMD Nvidia eine Nase dreht wie zuvor schon Intel. Ich glaubs auch erst wenn ich es sehe aber abschreiben sollte man AMD nie.

N0Thing
2020-07-15, 14:55:59
Klingt ein wenig nach Spekulation basierend auf dem Chip der PS5, zumal in dem Video ja sogar zu lesen ist, dass der Chip aus zwei 36CU Clustern bestehen würde.

etp_inxession
2020-07-15, 14:58:56
Ich würde ja so lachen wenn AMD Nvidia eine Nase dreht wie zuvor schon Intel.

Würde generell mit lachen.

Allerdings glaub ich nicht das man unter Verwandten so unter dem Radar schwimmen kann.

Mega-Zord
2020-07-15, 15:02:50
Ich würde es mir so wünschen, dass wirklich brauchbare Konkurrenz kommt, aber ich kann es mir nicht vorstellen. Meine letzen AMD-Abenteuer scheiterten dabei nicht einmal an der Hardware selber sondern an den Treibern. Selbst wenn Big Navi bei gleichem Preis deutlich schneller ist, würde ich eine solche Karte sicher nicht kaufen.

rentex
2020-07-15, 15:11:57
Mehr als unwahrscheinlich. Da müssten die Treiber vom Fleckweg, schon in einem hohen optimierten Zustand sein. Das bei AMD?

aufkrawall
2020-07-15, 15:17:02
RT, DX12U und ggf. ein DLSS 2.0-Gegenstück (ich glaubs ja nicht wirklich...) wären auch sicherlich nochmal eine Tonne zusätzliche Arbeit, die von der gleichen Anzahl Leute bewältigt werden müsste. Wenn man bedenkt, was Navi schon ohne diese Features für Probleme bereitet hat... :freak:

MD_Enigma
2020-07-15, 15:24:57
Ich würde es mir so wünschen, dass wirklich brauchbare Konkurrenz kommt, aber ich kann es mir nicht vorstellen.

Die Konkurenz ist aus dem kommerziellen Umfeld. Seid Grafikkarten in Servern sind, kosten sie doppelt so viel. Die Preis-Evolution ist durch und wird nicht mehr rückgängig gemacht werden.

Iscaran
2020-07-15, 15:30:50
72 CUs in 427 mm^2 ist eigentlich ziemlich exakt das was Navi 1x an Packdichte etc. gebracht hat - nur eben größer.

(Navi 10 hatte 40 CUs in 251mm^2).

Das könnte dann ein upgescaleted "Refresh" von 5700 XT mit 2x36 CUs als Cluster sein. (vielleicht sogar ähnlich wie bei 5700 XT mit 2x40 von denen dann ein paar defekt sein können um die Ausbeute zu erhöhen).
Die 5700 XT (Navi10 gibts ja auch mit 36 CUs und mit 40 CUs.
https://en.wikipedia.org/wiki/Radeon_RX_5000_series

Cyberfries
2020-07-15, 16:01:22
72 CUs in 427 mm^2 ist eigentlich ziemlich exakt das was Navi 1x an Packdichte etc. gebracht hat - nur eben größer.

Navi 1x mit 72CUs und 384bit Interface läge bei klar unter 400mm².
Die 72CU sind nie und nimmer der Vollausbau, man will sich doch nicht verschlechtern.
Erst mit 80CU kommt man bei gleicher Packdichte auf rund 420mm².
Wenn man dann noch berücksichtigt, dass Navi 2x auf einem EUV-Prozess laufen soll und die Packdichte bei Navi 1x eher schlecht zu bewerten ist....

Mega-Zord
2020-07-15, 16:03:05
Die Konkurenz ist aus dem kommerziellen Umfeld. Seid Grafikkarten in Servern sind, kosten sie doppelt so viel. Die Preis-Evolution ist durch und wird nicht mehr rückgängig gemacht werden.

Das stimmt. Es ist ja sogar so, dass NV komplett auf Karten, wie z.B. 2080-Serie verzichten könnte, weil sie einfach nicht "benötigt" werden. Mir ist klar, dass jetzt einige rumkrakehlen werden, was denn mit 4k sei... geschenkt ;D

AMD hingegen treibt sich nicht auf diesem kommerziellen Markt rum und muss entsprechende Enthusiast-Chips extra für den Gamer entwickeln. Bei NV ist die 2080Ti doch fast schon ein Abfall-Produkt.

Es gibt ja auch seit Jahren keine Abverkäufe mehr. Die nächste Generation ist immer brutal teuerer und für die alte gebrauchte bekommt man nach zwei Jahren fast den Neupreis, weil es die dann schon nicht mehr neu zu kaufen gibt.

Alles nicht so schön für Leute ohne Geld :(

davidzo
2020-07-15, 16:03:47
Da glaube ich nicht dran, die IPC Zuwächse sind zu unrealistisch.

40-50% über der 2080TI wäre ein 3DC performanceindex von 2030 - 2175%, also gut doppelt soviel performance wie die 5700xt bei 1090%.

72CU sind zwar 1,8mal soviele Einheiten wie die 5700xt, aber die muss man erstmal ausgelastet bekommen, zumal das Speicherinterface mit 384bit GDDR6 nur um 50% steigt.
Mit nur 16% mehr Gametakt und 13% mehr Boost-takt müsste das besser als 100% skalieren um auf die Werte zu kommen. Sehr unwahrscheinlich.

RDNA hat schon einen außergewöhnlich großen IPC Sprung gemacht. Dass dabei noch soviel Potential auf dem Tisch liegt um nochmal einen derartigen Sprung hin zu legen glaube ich einfach nicht. Große IPC Gewinne hat man bei Polaris als minimal verbesserter GCN Aufguss und auch bei Vega ja auch versprochen und nicht realisieren können. Man nennt das ja nicht ohne Grund noch RDNA und nicht irgendwas komplett neues.
Zumal man sich gleichzeitig die Taktoptimierung vorgenommen hat und mal eben die Hardware für Raytracing einführt.


Eine derartige Skalierung gibt es einfach nicht, auch Turing kommt da bei weitem nicht in die Nähe. Die 2080TI FE hat schon 1,88mal soviele Shadereinheiten wie eine 2070 FE und 38% mehr Speicherbandbreite. Trotzdem kommt sie nicht auf einen Performanceindex von 2000% den sie analog zu den Werten der 2070FE haben müsste (1070%). Klar liegt der Chiptakt auch niedriger bei der 2080TI, aber das sind nur 5%.

Ich habe die 2070FE bewusst gewählt weil sie sich so gut mit der 5700xt vergleichen lässt.

Gast
2020-07-15, 16:57:38
Dass dabei noch soviel Potential auf dem Tisch liegt um nochmal einen derartigen Sprung hin zu legen glaube ich einfach nicht.

Ich halte auch nicht viel von dem "Leak". Allerdings denke ich schon das RDNA2 zu RDNA1 einen ahnlich grossen Sprung in einzelnen Disziplinen hinlegen kann. Grund ist schlicht, dass eine art Refactoring einer Architektur, also keine komplette Neuentwicklung, ja in der Regel so ablaeuft das man sich in meheren Iterationen auf bestimmte Bereiche beschraenkt. Ich wuerde dem eine 25 prozentige Chance geben, dass die IPC Steigerung annaehernd ahnlich ist. Eine sehr geringe 5 prozentige Chance, dass sie sogar hoeher ausfaellt. Mindestens aber eine 80 prozentige Chance, dass die Steigerung >=40% im Verhaeltnis zu GCN -> RDNA1 ist. Aber eigentlich muss man ja auch ehrlich sein und AMD eine 50% Wahrscheinlichkeit einraumen es zu verkacken :D

Lehdro
2020-07-15, 16:57:45
AMD hingegen treibt sich nicht auf diesem kommerziellen Markt rum und muss entsprechende Enthusiast-Chips extra für den Gamer entwickeln. Bei NV ist die 2080Ti doch fast schon ein Abfall-Produkt.
AMD hat die Instinct Serie für GCN/CDNA und Navi 2X ist wenn man es auf die Spitze treibt auch nur ein "Abfallprodukt" der Konsolen. Man hat ja so einiges gehört was da von Sony und MS gefordert wurde.

Gast
2020-07-15, 17:18:58
Euch ist klar das Navi 1x ein hybrid ist ( RDNA + GCN ) . Die spiele waren alle schon auf GCN optimiert sodas sie sich für einen hybriden entschieden haben . Die sagten ja das das volle RDNA erst mit NAVI 2x kommen wird , Sie brauchten noch zeit und die haben sie sich gegönnt damit . Ich glaube an ein Comeback AMDs an der Grafikkarten sparte , ob das schon heuer ist ? keine ahnung ich wünsche es ihnen . Sorry für schreibfehler :)

DragonFire
2020-07-15, 18:03:49
Ihr macht bei AMD immer den gleichen Fehler hier die RX5700XT als Referenz zu der RTX2080Ti anzuführen. Vergesst aber, dass die RX5700XT deutlich weniger Shader hat. Würde man einen Gleichstand der Shader erzeugen, so wäre die RX5700XT in der Nähe der RTX2080Ti!
Nun darf man aber noch die von AMD bestätigte 50% höhere IPC von RDNA2 zu RDNA1 dazurechnen und schon kommt man eben hier auf einen Wert der bis zu 50% oberhalb der RTX2080Ti anzusiedeln ist. :smile:

Mr.Smith
2020-07-15, 18:50:18
den 7nm+ und die weiteren Prozess Verbesserungen unter 7nm darf man nicht vergessen.
Wäre schon krass, 40-50% on top 2080ti.. wobei eine 2080ti dann auch schon gut 2 Jahre auf dem Markt ist und ein 12nm finfet Chip ist..

Aber immerhin würde sich AMD dann im Highend zurückmelden, müssen se nur noch Abstürze und Software unter Kontrolle bringen.. Ob sie das schaffen bei nem 300-350W Monster?! Auch einer super und leise Kühlung wäre das extremst wichtig.

Das wäre immerhin ca doppelt so schnell wie ne 5700xt .. und würde RayTracing können ..

Daredevil
2020-07-15, 18:54:11
Seit einem Jahr spekulieren wir jetzt schon über die ominöse BigNavi, mir geht jedes Gerücht darüber mittlerweile ziemlich aufn Säckl. Der Kram soll einfach kommen, oder sich verziehen, ey. :D

Gast_16
2020-07-15, 19:04:56
Seit einem Jahr spekulieren wir jetzt schon über die ominöse BigNavi, mir geht jedes Gerücht darüber mittlerweile ziemlich aufn Säckl. Der Kram soll einfach kommen, oder sich verziehen, ey. :D

Vorfreude ist immer noch die schönste Freude... 😉

Gast
2020-07-15, 20:30:39
40-50% über der 2080TI wäre ein 3DC performanceindex von 2030 - 2175%, also gut doppelt soviel performance wie die 5700xt bei 1090%.


Klingt sehr plausibel.
AMD verspricht ja ca. 50% mehr Energieeffizienz. Mit 300 statt 225W hätte man 1/3 mehr Strom zur Verfügung.
Milchmädchenrechnung: 1,5 x 1,33 = 2.

Was absolut unplausibel ist, ist die angeblich so niedrige Performancesteigerung mit Ampere. Damit diese stimmen würde müsste Nvidia ja schon fast einen Rückschritt in der Energieeffizienz machen.
Würde mich nicht wundern wenn diese Gerüchte von Nvidia absichtlich gestreut werden, einerseits um Leaks zu finden und andererseits um dann beim Launch einen richtigen Paukenschlag zu haben, schließlich ist es immer besser wenn man mehr Performance bekommt als erwartet als umgekehrt.


Eine derartige Skalierung gibt es einfach nicht, auch Turing kommt da bei weitem nicht in die Nähe. Die 2080TI FE hat schon 1,88mal soviele Shadereinheiten wie eine 2070 FE und 38% mehr Speicherbandbreite. Trotzdem kommt sie nicht auf einen Performanceindex von 2000% den sie analog zu den Werten der 2070FE haben müsste (1070%). Klar liegt der Chiptakt auch niedriger bei der 2080TI, aber das sind nur 5%.


Die Skalierung kann es deshalb nicht geben, weil im Index einfach alles miteinander verrechnet wird.

Um die echte Mehrperformance zu ermitteln dürfte man nur Werte heranziehen, in denen auch die schnellste Grafikkarte vollständig GPU limitiert ist.

Alleine wenn du anstatt des 1080p Indexes den 4k Index nimmst liegt zwischen der 2080Ti und der 2070 plötzlich statt nur 35% 56%, und das entspricht auch schon annähernd der Steigerung der Rohleistung, weil die 2080Ti ja nicht nur deutlich mehr Einheiten hat sondern am default Powerlimit auch ein gutes Stück niedriger taktet.

Th3o
2020-07-15, 20:49:15
So recht vorstellen kann ich mir das auch nicht so wirklich, aber ich hoffe darauf. Jedes Fitzelchen Konkurrenzkampf was wir im GPU Markt bekommen können, kann dazu beitragen die Preise zu normalisieren.
Die Preise kennen nur eine Richtung: nach oben. Und diese werden nach kurzem aber folgenlosem Rummotzen bezahlt. Warum sollen die Firmen daran was ändern?

Iscaran
2020-07-15, 20:55:14
Navi 1x mit 72CUs und 384bit Interface läge bei klar unter 400mm².
Die 72CU sind nie und nimmer der Vollausbau, man will sich doch nicht verschlechtern.
Erst mit 80CU kommt man bei gleicher Packdichte auf rund 420mm².
Wenn man dann noch berücksichtigt, dass Navi 2x auf einem EUV-Prozess laufen soll und die Packdichte bei Navi 1x eher schlecht zu bewerten ist....

Wie kommst du darauf, daß 72 CU klar unter 400 mm^2 liegen würden - gleiche Packdichte und Prozess angenommen ?

Das deckt sich überhaupt nicht mit den Werten die man von den Navi1x so kennt.

Hier hab ich mal basierend auf ein paar Recht guten Schätzungen zu Komponentengrößen gerechnet.
Nimmt man den Navi10 bzw. 14 wie sie sind an und nimmt die Bauteile gemäß der Größenangaben von reaperr (reaperr: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12238074#post12238074) bzw. basix (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12334345#post12334345) aus dem 3DC forum zu den CUs und für die anderen Komponenten.

Dann ergeben sich ziemlich exakt die bekannten Die-Sizes für Navi10 (bzw. für Navi14). Erkenntlich daran dass die "Restfläche" nahe 0 ist bzw. leicht negativ.

Mit diesen Maßen und Größen erscheint es mir unmöglich daß ein 72 CU <<400mm^2 sein sollte - sofern man eben nicht mind. den Navi14 Prozess fährt.
Für Navi14 ergibt sie Kalkulation eine "Restfläche" von -12.4 mm^2 für Navi10 mit 40 CUs eine Restfläche von -11 mm^2

Für den hier diskutierten chip mit 427mm^2 (Hab ich als "Navi PS5 ?" in der Tabelle stehen) für die Variante mit 72 CUs ergeben sich +13.8 mm^2
mit 80 CU2 -16 mm^2.

Ich tippe daher eher auf letzteres - da mir scheint daß die einzelnen Bauteile in der "Summierung" immer leicht größer ausfallen als im realen Chip (siehe Navi10 und 14 "Restflächen" jeweils leicht negativ.

Aber wie ein derartiger Navi OHNE neuen Fertigungsprozess bei gleicher Packdichte UND 80 CUs dann <<400 mm^2 erscheint mir eher nicht möglich.

Klar MIT höherer Packdichte = Andere Fertigung sähe das wieder anderes aus. Wäre aber damit ein starkes Indiz für diese neue Fertigung.

Die Einträge für Navi 21, 22, 23 sind nur Spielereien mit ähnlichen Parametern. Ausdemselben Grund würde ich bei Navi mit 505 mm^2 eigentlich 96 CUs erwarten. Mit höherer Packdichte wäre hier sogar noch Raum nach oben...

Daredevil
2020-07-15, 21:02:11
Vorfreude ist immer noch die schönste Freude... 😉
Das ganze wir so hoch gekocht, dass es nur scheitern kann. :(

Gast_16
2020-07-15, 21:12:19
Das ganze wir so hoch gekocht, dass es nur scheitern kann. :(

Ja, ich glaub sie könnte nen Push-Up tragen... Sieht man ja erst nach dem Abendessen. 😁

Aber vielleicht... ganz vielleicht... ist es echt.

Cyberfries
2020-07-15, 21:21:28
Wie kommst du darauf, daß 72 CU klar unter 400 mm^2 liegen würden - gleiche Packdichte und Prozess angenommen ?


Deine Grafik ist die, die ich ebenfalls verwendet habe, aber ich komme auf andere Werte.
Ich weiß nicht wie du auf deine Restflächen kommst.

Navi 10: 38+11+(4*16)+(2*68)= 249mm²
Navi 1x à 72CU: 38+11+(6*16)+(2*68/40*72)=390mm²

Klar, ungenaue Milchmädchenrechnung.

Iscaran
2020-07-15, 21:44:02
Deine Grafik ist die, die ich ebenfalls verwendet habe, aber ich komme auf andere Werte.
Ich weiß nicht wie du auf deine Restflächen kommst.

Navi 10: 38+11+(4*16)+(2*68)= 249mm²
Navi 1x à 72CU: 38+11+(6*16)+(2*68/40*72)=390mm²

Klar, ungenaue Milchmädchenrechnung.

Wie kommst du auf 2x68 ?

Ich habe 38mm PCI/IO Interface, 4x16mm für 256 Bit SI, 11 mmfür den GPUCore, 23mm für die Shader engine, sowie 81mm für die CUs selbst = 262mm^2 und damit minus 251mm^2 eine Restfläche von -11mm^2

Die CUs sind NICHT Teil der ShaderEngine sondern noch zusätzlich zu rechnen. Einzig unbekannt ist wieviele ShaderEngines nun da sind. Bei Navi10 ist es 1 bei 72 bzw 80 CUs ? evtl. 2 ?

Cyberfries
2020-07-15, 22:12:05
Ich habe 38mm PCI/IO Interface, 4x16mm für 256 Bit SI, 11 mmfür den GPUCore, 23mm für die Shader engine, sowie 81mm für die CUs selbst


Deine Rechnung stimmt nicht: 38 + 4x16 + 11 + 23 + 81 = 217mm²

Außerdem werden von dir Werte unterschiedlicher Quellen vermischt.
reaperr gibt 4,05mm² pro WGP an, die Grafik spricht von 4,53mm².
Woher reaperr's Werte stammen weiß ich nicht, in dem Fall vertraue ich mal auf die Messungen des Die.

Die 68mm² teilen sich auf in CU's (je Seite 45mm²) und Frontend (je Seite 23mm²).
Das Ganze ist symmetrisch um den Common Core. Links davon 68mm², rechts davon 68mm².

Wenn es dir so sympatischer ist:
38 + 11 + 4x16 + 2x23 + 2x45 = 249mm²
Oder mit den gegebenen exakten Werten:
37,72 + 10,85 + 4x16,32 + 2x23,33 + 2x45,3 = 251,11mm²

Iscaran
2020-07-15, 22:17:49
@Cyberfries:

Ah danke - da hatte sich ein Rechenffehler eingeschlichen bzw. ich hab die CUs doppelt gezählt, 1x im Frontend und 1x separat.

Aber dann ergeben sich ja abartige Möglichkeiten für einen Navi mit 505mm^2 und angenommener +20% Packdichte ....

crux2005
2020-07-15, 22:25:05
Für das Ingesamt-Bild

Gesamtbild wäre imho passender. :)

Cyberfries
2020-07-15, 22:32:54
Aber dann ergeben sich ja abartige Möglichkeiten für einen Navi mit 505mm^2 und angenommener +20% Packdichte ....

Dann schau dir doch mal noch Navi 12 an.
I/O ist da runter auf ca. 28mm², Common Core mehr als halbiert. Gesamtchipgröße bei gleicher CU-Anzahl runter auf ca. 190mm².
Selbst auf gleichem Prozess hat AMD da eine Menge an Einsparpotential gefunden.

Ich habs an anderer Stelle schonmal gesagt: Ich bin davon ausgegangen, dass die 340mm² Navi 21 zuzuordnen sind.
Aber wenn die 427mm² zutreffen, dann schluckt Raytracing&co mehr als von mir erwartet.

Lowkey
2020-07-15, 22:37:47
Die Preise kennen nur eine Richtung: nach oben. Und diese werden nach kurzem aber folgenlosem Rummotzen bezahlt. Warum sollen die Firmen daran was ändern?

Krass wie die Leute auf Ebay für eine uralte 580 noch 10 Euro unter Neupreis bezahlen und zeitgleich jede 2080Ti für unter 1000 Euro schnell verkauft wird. Nicht so schnell wie letztes Jahr, aber immer noch so schnell, dass es auffällt.

An Grafikkarten im 1000 Euro Bereich dürfen wir uns gewöhnen.

Iscaran
2020-07-15, 22:41:28
@Cyberfries:

Basix gibt ja eine CU größe für mit RT an...selbst wenn man die hernimmt und das dann mal durchrechnet mit 505 mm^2 für bigNavi, könnten da 120 CUs stehen (falls sich die Packdichte relative zu Navi10 um +20% verbessert) !

Ich hatte mich eben gewundert warum da soviel Platz ist und hatte deswegen dann irgendwann die CUs doppelt gezählt weil ich irgendwie das falsch verstanden hatte, das die ShaderEngine sozusagen NICHT die CUs umfasst sondern nur Logik- und Verwaltung des ganzen...

Die 427 mm^2 deuten für mich eher darauf hin das die Packdichte NICHT +20% beträgt. Sondern beim Navi10-Wert bleibt.
Mit der Packdichte von Navi10 und dem CU-Wert mit RT von Basix kommt man auf 435mm^2 bei 80 CUs.

davidzo
2020-07-15, 23:23:51
Euch ist klar das Navi 1x ein hybrid ist ( RDNA + GCN ) . Die spiele waren alle schon auf GCN optimiert sodas sie sich für einen hybriden entschieden haben . Die sagten ja das das volle RDNA erst mit NAVI 2x kommen wird , Sie brauchten noch zeit und die haben sie sich gegönnt damit . Ich glaube an ein Comeback AMDs an der Grafikkarten sparte , ob das schon heuer ist ? keine ahnung ich wünsche es ihnen . Sorry für schreibfehler :)

Aha, und wo hast du das her, mit dem Hybrid? Und weil die software so gut mit GCN läuft hat man auf die IPC Verbesserungen verzichtet und reicht die nun erst nach - wobei die software nun auf einmal bestens optimiert sein wird damit die IPC verbesserungen zur Geltung kommen? Die Argumentation macht keinen Sinn :freak:

Ihr macht bei AMD immer den gleichen Fehler hier die RX5700XT als Referenz zu der RTX2080Ti anzuführen.

Unsinn, les doch nach, ich vergleiche die 2070FE mit der 5700xt und eine 1,8fche RDNA2 GPU mit einer zur 2070FE 1,88fachen 2080TI.


Nun darf man aber noch die von AMD bestätigte 50% höhere IPC von RDNA2 zu RDNA1 dazurechnen und schon kommt man eben hier auf einen Wert der bis zu 50% oberhalb der RTX2080Ti anzusiedeln ist. :smile:

Es war niemals die Rede von einer 50% höheren IPC. Es ging da um die performace pro watt, was zur grundsätzlichen performance oder der performance pro einheit erstmal überhaupt nichts aussagt.
Und auch wenn AMD in letzter Zeit bei den performance prognosen (cpuseitig) sehr vertrauenswürdig ist, wenn man die angeblichen performance/watt verbesserungen von polaris und vega anguckt, dann hatten die ziemlich übertrieben. Praktisch ist man auch mit 7nm noch nicht ganz auf 12nm turing niveau, da muss also noch einiges kommen, sonst erreicht man die doppelte performance nicht unter 450Watt board power.

Gast
2020-07-16, 01:01:54
Aha, und wo hast du das her, mit dem Hybrid? Und weil die software so gut mit GCN läuft hat man auf die IPC Verbesserungen verzichtet und reicht die nun erst nach - wobei die software nun auf einmal bestens optimiert sein wird damit die IPC verbesserungen zur Geltung kommen? Die Argumentation macht keinen Sinn :freak:




ich hoffe das darf ich hier posten ?

https://wccftech.com/amd-radeon-rx-5000-7nm-navi-gpu-rdna-and-gcn-hybrid-architecture/

https://www.notebookcheck.net/Navi-10-based-AMD-Radeon-RX-5700-still-has-elements-of-GCN-pure-RDNA-coming-only-in-2020.422870.0.html

Leonidas
2020-07-16, 04:10:55
Alleine wenn du anstatt des 1080p Indexes den 4k Index nimmst liegt zwischen der 2080Ti und der 2070 plötzlich statt nur 35% 56%, und das entspricht auch schon annähernd der Steigerung der Rohleistung, weil die 2080Ti ja nicht nur deutlich mehr Einheiten hat sondern am default Powerlimit auch ein gutes Stück niedriger taktet.


Deswegen bei solchen Betrachtungen für NextGen-HW immer den 4K-Index benutzen! Der FHD-Index skaliert bei Spitzen-HW einfach nicht gut genug.




Gesamtbild wäre imho passender. :)


In der Tat. Gefixt.

Gast
2020-07-16, 07:47:47
Klingt sehr plausibel.
AMD verspricht ja ca. 50% mehr Energieeffizienz. Mit 300 statt 225W hätte man 1/3 mehr Strom zur Verfügung.
Milchmädchenrechnung: 1,5 x 1,33 = 2.

Was absolut unplausibel ist, ist die angeblich so niedrige Performancesteigerung mit Ampere. Damit diese stimmen würde müsste Nvidia ja schon fast einen Rückschritt in der Energieeffizienz machen.
Würde mich nicht wundern wenn diese Gerüchte von Nvidia absichtlich gestreut werden, einerseits um Leaks zu finden und andererseits um dann beim Launch einen richtigen Paukenschlag zu haben, schließlich ist es immer besser wenn man mehr Performance bekommt als erwartet als umgekehrt.
Das sehe ich genauso. Die Performance Sprünge von AMD klingen durchaus realistisch, wenn sie denn ihr gesetztes Ziel (+50% Performance/Watt) erreichen können.
Und bei NVidia sollte klar sein: Bei einer Steigerung von +35% Board Power wird man mit neuer GPU mit Sicherheit deutlich mehr als +35% Performance erreichen. Interessant wird sein, welche Board Power AMD angepeilt hatte. Wenn man mit 300W konstruiert hat, dann befürchte ich, dass man wieder mit der Brechstange rangeht und versucht, auf NV Niveau zu kommen. Das hat in den letzten Jahren schon nie funktioniert. Daher hoffe ich, dass AMD da nicht mehr rum bastelt. Dann ist man halt maximal auf 3080 Performance Niveau, aber dafür auch gut bei der Energieeffizienz. Das an's Limit pushen können dann die Boardpartner machen.

Gast
2020-07-16, 08:22:22
Passt doch die Schätzung, AMD bleibt also weiterhin an Nr. 2 was Geschwindigkeit angeht ;-9 Nvidia wird sich doch nicht sein einziges Standbein absägen lassen. Notfalls wird eben aus einer vermeintlich geplanten "TITAN RTX" eine einfache "Ti". Später klatscht man noch mehr Speicher mit einem Mückenschiss mehr Takt drauf und hat wieder eine neue Titan. Da AMD in Zugzang ist müssen die eh zuerst ihre GPUs auf den Markt werfen und Nvida kann dann seelenruhig reagieren.

davidzo
2020-07-16, 09:41:47
ich hoffe das darf ich hier posten ?

https://wccftech.com/amd-radeon-rx-5000-7nm-navi-gpu-rdna-and-gcn-hybrid-architecture/

https://www.notebookcheck.net/Navi-10-based-AMD-Radeon-RX-5700-still-has-elements-of-GCN-pure-RDNA-coming-only-in-2020.422870.0.html

Hast du die Quelle davon denn überhaupt gelesen?
Die beziehen sich beide auf denselben sweclocker artikel wo jemand ebenfalls nur in heißer Luft herumstochert und das ganze damit begründet dass es im Einklang mit frühen "spekulationen" über Navi vor dem Erscheinen war, also als viele Leute noch von einer neuen GCN-Iteration ausgegangen sind.
Da ist kein leak zu erkennen, das ist purer Spekulatius, zudem noch im Konjunktiv geschrieben "es scheint nun(...)" damit man es jederzeit wiederrufen kann. Er hat nichtmal mit einem AMD Mitarbeiter oder Boardpartner darüber gesprochen, im Gegenteil schreibt er das AMD bezüglich der Architektur von Navi "das Gegenteil" behauptet wie der Artikel suggeriert.

Das Argument das Teile vom Navi Grafiktreiberstack ähnlich zu GCN sind ist ohne die Quelle und Details auch wertlos, schließlich sind Grafiktreiber immer irgendwie ähnlich und der überwiegende Treibercode dreht sich um Module wie Display Core und Video Core die tatsächlich fast dieselben sind. Das hat nichts mit der Grafikarchitektur zutun. Ich vermute das sweclockers hier auch nicht selber nachgeguckt hat, sondern selbst wieder andere gerüchte aufwärmt, sonst hätte man ja details parat oder würde das so ausdrücken das klar ist dass der scheiber technisch weiß wovon er spricht. Allein das navi noch immer noch 64 Shader pro CU sind liegt einfach an einem sinnvollen Maximum, das ist eine Gemeinsamkeit die momentan alle GPUs haben, auch Turing.

MiamiNice
2020-07-16, 11:52:00
Irgendwie klingt mir das hier alles viel zu optimistisch bzgl. Big Navi.

WedgeAntilles
2020-07-16, 13:39:49
Irgendwie klingt mir das hier alles viel zu optimistisch bzgl. Big Navi.

Und der Leak soll dann noch von NVIDIA kommen.

Fassen wir es also kurz zusammen:
Nvidia bekommt nix auf die Reihe, vielleicht 30% Zuwachs oder so, wenig Ram, horrende Preise.
AMD hingegen verdoppelt mal kurz seine Leistung und schlägt damit locker die 3080Ti.

Und dieses bemerkenswerte Ereignis wird von NVIDIA geleakt. Nicht von AMD oder so, nein, diese heroische Erungenschaft von AMD leakt natürlich die Konkurrenz.

Klar, unglaublich plausibel und realistisch das Ganze. ;D

Was kommt also Nächstes? Verkündet morgen ein Leak, dass Nvidia den Laden zumacht und stattdessen einen Schrein errichtet an dem sie AMD anbeten?

Mega-Zord
2020-07-16, 13:57:16
Krass wie die Leute auf Ebay für eine uralte 580 noch 10 Euro unter Neupreis bezahlen und zeitgleich jede 2080Ti für unter 1000 Euro schnell verkauft wird. Nicht so schnell wie letztes Jahr, aber immer noch so schnell, dass es auffällt.

An Grafikkarten im 1000 Euro Bereich dürfen wir uns gewöhnen.

Damit könnte ich leben. Zumal der Vergleich mit dem Neupreis schnell nicht mehr möglich sein wird, wenn die erst mal ausverkauft sind. Dann kaufe ich mir meinetwegen wür 1,5k eine neue Karte und bekomme vielleicht noch einen vierstelligen Betrag für die alte.

Wobei ich natürlich lieber für ca. 300 EUR eine 2 bis 3 Jahre alte gebrauchte Enthusiast-Karte kaufen würde :D

Fassen wir es also kurz zusammen:
Nvidia bekommt nix auf die Reihe, vielleicht 30% Zuwachs oder so, wenig Ram, horrende Preise.
AMD hingegen verdoppelt mal kurz seine Leistung und schlägt damit locker die 3080Ti.

Haha, so ein Käse ;D

Klevapalis
2020-07-16, 15:44:09
Was kommt also Nächstes? Verkündet morgen ein Leak, dass Nvidia den Laden zumacht und stattdessen einen Schrein errichtet an dem sie AMD anbeten?
Soll doch seit dem Verlust des Chipsatz-Geschäfts so laufen, oder?

Nazar
2020-07-16, 16:00:00
Und der Leak soll dann noch von NVIDIA kommen.

Fassen wir es also kurz zusammen:
Nvidia bekommt nix auf die Reihe, vielleicht 30% Zuwachs oder so, wenig Ram, horrende Preise.
AMD hingegen verdoppelt mal kurz seine Leistung und schlägt damit locker die 3080Ti.

Und dieses bemerkenswerte Ereignis wird von NVIDIA geleakt. Nicht von AMD oder so, nein, diese heroische Erungenschaft von AMD leakt natürlich die Konkurrenz.

Klar, unglaublich plausibel und realistisch das Ganze. ;D

Was kommt also Nächstes? Verkündet morgen ein Leak, dass Nvidia den Laden zumacht und stattdessen einen Schrein errichtet an dem sie AMD anbeten?

Ein Leak ist ein Leak ist ein Leak... oder so ähnlich... :D
Nicht der Leak ist interessant, sondern die nicht vorhandene Information von Nvidia.

Ich kann mich noch an Leaks zur Vega erinnern, als ein angeblicher AMD Interner MA Daten geleakt hatte, die sich im Nachhinein bestätigten (zu viel Verlustleistung, zu wenig Rohleistung).

Ich sehe den Leak eher als eine interne These seitens Nvidia von vielen verschiedenen Möglichkeiten, wie Big Navi kommen könnte, denn rechnen können auch die Leute von Nvidia und ich halte sie nicht für dumm genug, dass sie die Wahrscheinlichkeiten nicht versuchen mathematisch zu veranschaulichen.
Den Leak halte ich für echt aber auch nur für einen Teilausschnitt des Ganzen.
Was uns gezeigt wurde, ist nur eine These von vielen verschiedenen.

Der Vorteil solcher Leaks ist, dass man selber im Gespräch bleibt und man nicht unvorbereitet in Erscheinung tritt.
Nvidia hat die Karten in der Hand und köchelt sehr wahrscheinlich schon längst an einer Strategie, um eventuell auf dieses Szenario, wenn Big Navi wirklich so gut werden sollte, reagieren zu können.

Was meiner Meinung nach vollkommen unbeachtet bleibt, ist die Performance von RT des Big Navi Chips.
Obwohl ich RT derzeit und auch für viele Jahre als vollkommen überbewertet in der Gameindustrie halte, so scheint es von den Medien so stark gehypt zu werden, dass es für viele Fans und uninformierte einen Kaufgrund darstellen wird.
Sollte AMD im besten Fall mit Nvidia in der Rohleistung gleichziehen können, wäre dann da noch RT und da hat Nvidia einen deutlich Vorsprung in der Entwicklung um beim Testen beim Kunden (Entwickler).

Und wenn ich sehe, wie immer noch die jeweiligen Fans der anderen Hersteller hier auf Treiber und andere Probleme zeigen, hat der Leak doch wunderbar funktioniert. :wink:

Lehdro
2020-07-16, 16:06:39
Der Leak wird einfach nur das sein was NV im allerschlimmsten Fall als Szenario in Betracht zieht - mehr nicht. Solche Sachen werden doch sicherlich dort ständig auf beiden Seiten durchgespielt und dahingehend eine mögliche eigene Marktpositionierung ausgearbeitet.

WedgeAntilles
2020-07-16, 16:15:46
Der Leak wird einfach nur das sein was NV im allerschlimmsten Fall als Szenario in Betracht zieht - mehr nicht.

Ok, das klingt plausibel :)

Leonidas
2020-07-16, 17:29:32
Eine sehr gut denkbare These.

BlacKi
2020-07-16, 18:27:46
Der Leak wird einfach nur das sein was NV im allerschlimmsten Fall als Szenario in Betracht zieht - mehr nicht.

wenn das best case sein soll, den nv von amd erwartet, dann darf man auch erwarten, das nvidias next gen schneller sein wird als das was nv von amd erwartet.

wenn das grücht stimmt, dann gibts mit ampere wohl ebenfalls 50-60% mehr performance.

naja, dauert nicht mehr lange, 1-2 monate.

DragonFire
2020-07-16, 19:20:44
Alleine aus der Tatsache heraus, dass NVIDIA einen neuen Stromanschluss benötigt, zeigt doch unmissverständlich und klar, wie hart sie dieses mal auf Kante nähen werden/müssen.
Dazu wollen sie unbedingt früher als AMD erscheinen, um den Markt vor AMD abgrasen zu können.
Ich für meinen Teil werden auf jedenfall auf AMD warten. :D

BlacKi
2020-07-16, 19:32:46
Alleine aus der Tatsache heraus, dass NVIDIA einen neuen Stromanschluss benötigt, zeigt doch unmissverständlich und klar, wie hart sie dieses mal auf Kante nähen werden/müssen.
Dazu wollen sie unbedingt früher als AMD erscheinen, um den Markt vor AMD abgrasen zu können.
Ich für meinen Teil werden auf jedenfall auf AMD warten. :D
stimmt nicht, und damit deine schlussfolgerungen. igor sagt, das die custom karten mit den regulären anschlüssen kommen. nv versucht nur mit den neuen anschlüssen die tricks mit den 6pin auf 2x 8 pin adaptern zu verhindern. diese kabel sind gefährlich und tragen nicht zur stabilität des systems bei.

Rabiata
2020-07-16, 23:11:38
stimmt nicht, und damit deine schlussfolgerungen. igor sagt, das die custom karten mit den regulären anschlüssen kommen. nv versucht nur mit den neuen anschlüssen die tricks mit den 6pin auf 2x 8 pin adaptern zu verhindern. diese kabel sind gefährlich und tragen nicht zur stabilität des systems bei.
Das wird nicht lang funktionieren, die Zubehörhändler werden da schnell was zusammenlöten und wir sind wieder so weit wie jetzt :tongue:

MiamiNice
2020-07-17, 01:13:00
Alleine aus der Tatsache heraus, dass NVIDIA einen neuen Stromanschluss benötigt, zeigt doch unmissverständlich und klar, wie hart sie dieses mal auf Kante nähen werden/müssen.

Das leitest Du aus einem Stromstecker ab? Alle Achtung ;D
Ist ja nicht so als könnte man einfach drei 8 Pin Stecker nehmen, wenn man die Power brauchen würde. Da muss man natürlich unbedingt was neues kreieren, darf ja nicht auffallen wie viel Strom die Karte sich gemehnigen kann. Oder was ist die Logik dahinter? Die TPD muss man ja auch nicht auf der Packung angeben, oder so ...

BlacKi
2020-07-17, 11:00:56
Das wird nicht lang funktionieren, die Zubehörhändler werden da schnell was zusammenlöten und wir sind wieder so weit wie jetzt :tongue:
dont tell me!:rolleyes:

Das leitest Du aus einem Stromstecker ab? Alle Achtung ;D
Ist ja nicht so als könnte man einfach drei 8 Pin Stecker nehmen, wenn man die Power brauchen würde. Da muss man natürlich unbedingt was neues kreieren, darf ja nicht auffallen wie viel Strom die Karte sich gemehnigen kann. Oder was ist die Logik dahinter? Die TPD muss man ja auch nicht auf der Packung angeben, oder so ...
naja, der stecker ist auch billiger als 2x 8pin und 1 stecker ist billiger aufzubringen als 2. +weniger kabelsalat.

Lehdro
2020-07-17, 16:40:57
wenn das best case sein soll, den nv von amd erwartet, dann darf man auch erwarten, das nvidias next gen schneller sein wird als das was nv von amd erwartet.

wenn das grücht stimmt, dann gibts mit ampere wohl ebenfalls 50-60% mehr performance.

naja, dauert nicht mehr lange, 1-2 monate.
Denke auch das Ampere deutlich oberhalb der +35% rauskommt. Die wollen den Kram schließlich auch noch verkaufen, da zählt dann jedes Prozent, gerade wenn AMD näherkommt.