Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 [26] 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81

robbitop
2020-01-18, 08:06:49
und was ist mit der chipfläche für den denoiser? den hat AMD auch noch nicht drin... dann noch breiteres Interface was auch nochmal 40mm² kostet...
Das alles sagt mir das Nvidia mit der 3000er Serie einen noch größeren Vorsprung hat als jetzt schon.
Alle RTX Games nutzen die regulären ALUs zum denoisen. Der Denoiser für die TC ist wohl nicht so geeignet für Spiele laut pixeljetstream.
Die TC sind eher ein Produkt aus dem AI Bereich, für den man sekundäre Anwendungszwecke zu finden versucht.

Leonidas
2020-01-18, 08:17:56
Was ja bedeutet, das man hier mit einem Feature-seitig verbesserten TC viel erreichen könnte, oder? Sprich einem TC, welcher auch Denoising unter Spielen macht.

y33H@
2020-01-18, 09:44:33
Klar nicht toll für Tester und AIB dafür für den Kunden und auf das kommt es doch an :wink:
Wie viele Käufer finden es toll ihre Karte erst flashen zu müssen?

eratte
2020-01-18, 09:49:02
Müssen sie das? Man das nimmt ja Ausmaße hier an.

SKYNET
2020-01-18, 10:05:15
Mir tun eher die HW-Tester leid, die schon vorgearbeitet hatten.


also dafür das sie im normalfall die hardware behalten dürfen, sollen die nicht jammern...

Zergra
2020-01-18, 10:05:18
Oder das ganze war schon länger Geplant und die AIBs haben schon lange das neue Bios drauf.

HOT
2020-01-18, 10:12:04
Was ja bedeutet, das man hier mit einem Feature-seitig verbesserten TC viel erreichen könnte, oder? Sprich einem TC, welcher auch Denoising unter Spielen macht.
Nein, das bedeutet, dass man sie in der nächsten Generation wieder weglassen wird.

dargo
2020-01-18, 10:12:10
wäre ich mir nicht so sicher... AMD muss für MS & Sony das RT zeugs liefern, und das muss potenter sein als das was ne RTX Titan jetzt bietet...
Wie kommst du auf diesen Bullshit wieder? Das nimmt ja schon Horn-Qualitäten hier an. :freak:

HOT
2020-01-18, 10:13:23
Das wird sowohl für RDNA2 als auch für die neue NV-Generation gelten. Ich denke auch, dass sich die erste RTX-Generation als letztendlich unbrauchbar herausstellen wird für RT in der Praxis.
Das war bei solchen Features aber fast immer so in der Erstimplementation.

pixeljetstream
2020-01-18, 10:16:43
Alle RTX Games nutzen die regulären ALUs zum denoisen. Der Denoiser für die TC ist wohl nicht so geeignet für Spiele laut pixeljetstream.
Die TC sind eher ein Produkt aus dem AI Bereich, für den man sekundäre Anwendungszwecke zu finden versucht.
Das war ein quote im Bezug auf q2 rtx, das war nicht als allgemeine Aussage gedacht, dass dem immer so sein muss (auch wenn im Moment normale Filter bei hohen framerates dominieren). Im Moment kommt man außer in vulkan/cuda nicht an die TC Funktionalität direkt heran.

Ich glaube ein Mißverständnis ist der Anteil der spezialisierten cores an den Problemlösungen (RT, Raster, TC...). Die Einheiten selbst sind ja super effizient darin was sie tun. Aber wie groß das gesamte inference network ist (Bandbreite ...) oder bei raytracing eben das shading/bvh updating beeinflusst maßgeblich die gesamte Performance. Ohne Analyse welche bottlenecks vorliegen (und es sind ja viele unterschiedliche in nem frame) kann man nicht einfach viel hilft viel sinnvoll fordern ;) sonst wäre der Job auch bissl einfach.

Ein bisschen Einblick wie so Analyse ablaufen kann https://youtu.be/BwxFpZs0BsI

maximus_hertus
2020-01-18, 10:19:37
Mir tun eher die HW-Tester leid, die schon vorgearbeitet hatten.

Welcher (erfahrener) Tester macht das*? Es gibt doch häufiger kurzfristige Anpassungen. Manchmal nur beim Preis, manchmal an der Hardware (Takt, Power). Man erinnere sich an die 1070 Ti.

Im Zweifel immer erst einen Tag vor Launch die finalen Benchmarks durchführen. Bzw. das WE vorverlegen und am Sonntag anfangen.

Es gibt ja jetzt nicht mehr so viele GPU Launches im laufe des Jahres die von besonders großem Interesse sind. Wenn ich es richtig sehe, gab es 2019 bei AMD die VII, die 5700 (XT) und die 5500 XT. 3 GPU Launches im ganzen Jahr.


* Vorbereitungen, Technik-Übersicht, Vorbereitende Lautstärke-Test (evtl bei verschiedenen Drehzahlen), einige wenige Test-Benchmarks kann man schon machen. Aber den finalen Parcours würde ich frühestens 48 Stunden vor Launch starten. Gerade bei AMD Launches ;)

dildo4u
2020-01-18, 10:19:52
Das wird sowohl für RDNA2 als auch für die neue NV-Generation gelten. Ich denke auch, dass sich die erste RTX-Generation als letztendlich unbrauchbar herausstellen wird für RT in der Praxis.
Das war bei solchen Features aber fast immer so in der Erstimplementation.

Es gibt nicht den RTX Effekt es gibt billige und teure Implementationen,davon ab das Games wie Wolfenstein,Call of Duty 2019 und vermutlich Doom 2020 so flüssig laufen,das die aktuelle Hardware vollkommen reicht.
Und Microsoft hat ja schon gesagt das erstmal keine Next-Gen Exklusives kommen,das heißt PC bekommt noch lange nur Cross-Gen Games.

dargo
2020-01-18, 10:23:40
Das wird sowohl für RDNA2 als auch für die neue NV-Generation gelten. Ich denke auch, dass sich die erste RTX-Generation als letztendlich unbrauchbar herausstellen wird für RT in der Praxis.
Das war bei solchen Features aber fast immer so in der Erstimplementation.
Also wird nach deiner Logik RT mit RDNA2 und den neuen Konsolen unbrauchbar sein. Schließlich ist es die erste Implementierung seitens AMD. :rolleyes: Oh man...

BlacKi
2020-01-18, 10:26:20
Wie kommst du auf diesen Bullshit wieder? Das nimmt ja schon Horn-Qualitäten hier an. :freak:
er meinte bezogen auf die RT performance der RTX titan. und da gibt es konsens, das man derzeit bei voller auflösung mit RT on zuviel performance liegen lässt. siehe bfv.

verdoppelt man die RT einheiten, so kann man fast die performance verdoppeln unter RT ohne den ganzen chip verdoppeln zu müssen.

Müssen sie das? Man das nimmt ja Ausmaße hier an.
es sollte klar sein was er meinte. man muss die karte flashen um die mehrperformance zu erhalten. ich verstehe nicht warum man sich da auf das "muss" versteift, obwohl aus dem kontext klar ist was da gemeint war.
Klar nicht toll für Tester und AIB dafür für den Kunden und auf das kommt es doch an :wink:

schlimmer ist das man als review leser oft nicht eindeutig sofort sieht welches bios nun drauf ist. vorallendingen wenn die AIBs zu irgendeinem unbekanntem zeitpunkt mit dem neuen bios ausliefern.

maximus_hertus
2020-01-18, 10:29:12
Schließlich ist es die erste Implementierung seitens AMD. :rolleyes: Oh man...

Mir ist klar worauf du hinaus möchtest, jedoch bin ich mir ziemlich sicher, dass AMD schon länger an RT im Labor arbeitet.

Am Ende wird man sehen wie gut AMDs Lösung sein wird.

Solange quasi nichts bekannt ist, sind selbst Spekulationen über Leistung und Co sehr müßig.

Complicated
2020-01-18, 10:31:24
Mir tun eher die HW-Tester leid, die schon vorgearbeitet hatten.
Die einzige Berufsgruppe die in Foren den Leuten Leid tut wenn sie mehr Arbeit hat und dadurch Ihre Testseiten bei solch einem Thema mehr Besucher (Nachtests) und Einnahmen generieren. Alleine jetzt im Vorfeld ist das Thema ja schon ein solch kontroverses, dass man interessierte Leser hat, die keine Klickbait-Gerüchte benötigen um die Seite zu besuchen.

Ja, die armen Tester, die ihre Arbeit jetzt bestätigen, überprüfen und vergleichen können. Mehr Testszenarien haben und mehr Möglichkeiten haben verschiedene Bandbreiten zu testen auf dem selben Chip.

Wäre ich Hardware-Tester würde ich mich eher freuen, dass ich hier mehr als nur einen Test machen kann in den kommenden Tagen, an dem die Leser Interesse zeigen und der diskutiert wird. Ich würde mehr Aspekte als meine Kollegen versuchen zu beleuchten und so die Aufmerksamkeit auf meine Webseite ziehen die mich bezahlt. Das sind keine Freizeitaktivitäten, wofür man hier bezahlte Mitarbeiter bedauern muss. Kurzfristiger Stress kommt in jedem Beruf vor und zeigt nur wer es besser kann als die anderen. Ich bin gespannt ob Golem hier wieder am besten abliefert, mit den verschiedenen Perspektiven. Da bin ich mittlerweile Fan geworden vom Marc ;)
Hier trennt sich die Spreu vom Weizen - ob man im Artikel dann wieder Abschläge zur Hardware lesen muss weil man nicht alles vorgekaut bekommen hat vom Hardware-Hersteller.

Ich meine, wer beschwert sich denn wenn genau das Szenario eintritt wo man die Existenzberechtiung für seine Arbeit und seine Leistung eindrucksvoll nachweisen kann. Mal schauen welche Redaktion dies als Gelegenheit wahrnimmt und nicht als Störfaktor.

dargo
2020-01-18, 10:31:46
verdoppelt man die RT einheiten, so kann man fast die performance verdoppeln unter RT ohne den ganzen chip verdoppeln zu müssen.
Du hast offensichtlich die ganzen Diskussionen zu RT verpasst. Die RT-Performance hängt zu großen Teilen an der Shader-Performance. Was glaubst du wohl warum NV bei Turing die SMUs so aufgeblasen hat? Ihr solltet euch langsam von dem Gedanken trennen RT separat zu betrachten, das funktioniert bei der derzeitigen Implementierung nicht.


es sollte klar sein was er meinte. man muss die karte flashen um die mehrperformance zu erhalten. ich verstehe nicht warum man sich da auf das "muss" versteift, obwohl aus dem kontext klar ist was da gemeint war.
Muss man nicht unbedingt. Mit dem MPT reichen nur wenige Klicks.

Fragman
2020-01-18, 10:34:59
Beim Thema RT würd ich mal abwarten, was zum einen nv in der Hardware anpassen wird und wie amd ihre Version implementieren. Auf die Performance kann man aktuell nicht schliessen, behaupte ich mal. Die Bottlenecks sind beiden sicher bekannt und da wird man ansetzen. Würd mich nicht wundern, wenn bestimme Funktionen mehrfach schneller laufen, dazu das filtering "in Hardware" und der RT Teil ist 3 mal so schnell oder mehr, wodurch der reine Rasterizer wieder das Problem wird. Keine Ahnung, alles möglich und die "low" specs der PS5 sprechen eigentlich für starke Optimierungen in dem Bereich, die man aktuell übersieht oder deren performanceimpact unterschätzt.

y33H@
2020-01-18, 10:38:07
also dafür das sie im normalfall die hardware behalten dürfen, sollen die nicht jammern...Du hast interessante Vorstellungen.

Complicated
2020-01-18, 10:41:16
Also soweit ich weiss ist der Zeitrahmen wie lange die Hardware leihweise behalten werden darf immer kürzer geworden die letzten Jahre. Und ganz behalten ist da eher eine Ausnahme.

dargo
2020-01-18, 10:48:46
Beim Thema RT würd ich mal abwarten, was zum einen nv in der Hardware anpassen wird und wie amd ihre Version implementieren. Auf die Performance kann man aktuell nicht schliessen, behaupte ich mal. Die Bottlenecks sind beiden sicher bekannt und da wird man ansetzen. Würd mich nicht wundern, wenn bestimme Funktionen mehrfach schneller laufen, dazu das filtering "in Hardware" und der RT Teil ist 3 mal so schnell oder mehr, wodurch der reine Rasterizer wieder das Problem wird. Keine Ahnung, alles möglich und die "low" specs der PS5 sprechen eigentlich für starke Optimierungen in dem Bereich, die man aktuell übersieht oder deren performanceimpact unterschätzt.
Die Frage die ich mir stelle ist eher ob die RT-Cores die aktuell in Turing verbaut sind überhaupt einen starken Flaschenhals darstellen? Als weiteres würde mich interessieren wie teuer das Denoising alleine über die Shader ist? Wenn mich nicht alles täuscht waren es ca. -29% in Quake 2. Ist das aber auf andere Games übertragbar oder kann dieser Wert auch stark je nach Implementierung des Denoisers schwanken? Ist es sinnvoller die Kosten vom Denoising über spezielle Hardwareeinheiten zukünftig möglichst niedrig zu halten oder eher über weitere Steigerungen der Shaderpower? Fragen über Fragen.

Brillus
2020-01-18, 11:08:22
Müssen sie das? Man das nimmt ja Ausmaße hier an.

Naja 4 Tage vor launch und dazu noch übers Wochenende wird wohl ein großer Teil der Lieferungen unterwegs sein und Händler werden die Verpackungen nicht aufreissen zum Flashen. Einzige Alternative wäre das der Treiber es selber machen kann.

Complicated
2020-01-18, 11:18:54
Wäre ja nicht die erste GPU die mit Dual-BIOS ausgeliefert wird - sind doch alles Custom Designs. RX 5700 GPUs gibt es doch genügend mit zusätzlichem Silent-BIOS. Mal sehen wie das bei den Redaktionen ausgeliefert wurde und welche Boared-Hersteller hier schon vor informiert waren.
Sollte AMD da nicht vorgesorgt haben für dieses Szenario, werden sie eben nicht die Balken haben im Test, die Sie gerne hätten zum Launch.

Ein Selber zu flashendes BIOS für den Endanwender darf dabei selbstverständlich nicht heraus kommen - das wäre in meinen Augen ein großer Kritikpunkt.

kmf
2020-01-18, 12:00:12
Wäre ja nicht die erste GPU die mit Dual-BIOS ausgeliefert wird - sind doch alles Custom Designs. RX 5700 GPUs gibt es doch genügend mit zusätzlichem Silent-BIOS. Mal sehen wie das bei den Redaktionen ausgeliefert wurde und welche Boared-Hersteller hier schon vor informiert waren.
Sollte AMD da nicht vorgesorgt haben für dieses Szenario, werden sie eben nicht die Balken haben im Test, die Sie gerne hätten zum Launch.

Ein Selber zu flashendes BIOS für den Endanwender darf dabei selbstverständlich nicht heraus kommen - das wäre in meinen Augen ein großer Kritikpunkt.Ist eigentlich das Datum bekannt, an dem AMD dieses Bios an die Hersteller verschickt hat?

tEd
2020-01-18, 13:13:31
Wie viele Käufer finden es toll ihre Karte erst flashen zu müssen?

Wissen wir schon ob sie das müssen?

Ich hab langsam das Gefühl das sowas von Anfang geplant war. Eigentlich muss AMD gewusst haben das alle AIB Karten diese neuen Takte auch stabil machen können(denke da vorallem an den Speicher) um so etwas überhaupt zu machen. Ich denke das war so mit den AIB abgesprochen aber naja wir werden sehen.

y33H@
2020-01-18, 14:53:15
Du planst von Anfang an tausende Karten per Luftfracht und Seeweg zu verschicken, die dann am Bestimmungsort oder gar beim Kunden geflasht werden? Wohl kaum ... aber warten wir ab, was wie kommuniziert wird seitens AMD und den AIBs, ich will mich da vor Dienstag nicht im Detail zu äußern, muss weiter testen ^^

tEd
2020-01-18, 18:05:12
Nein was ich meine ist das die AIB schon vor der CES Ankündigung gewusst haben das die vorgestellen Taktraten von AMD nicht die finalen sind. Wie gesagt das funktioniert doch gar nicht sonst. Wenn AMD wirklich erst 4 Tage vor dem Verkauf sich dafür entschieden haben wäre doch das zu spät. Die Karten sind doch dann alle schon verpackt und unterwegs wenn sie den am 21. zu kaufen sein sollen und du kannst doch nicht einfach sie Spez. ändern dann müssten alle Karte nochmal durch die QC um zu Gewährleisten das die neuen Taktraten so funktionieren und es keine Problem gibt.

Naja keine Ahnung sind nur meine Gedanken dazu.

SKYNET
2020-01-18, 18:11:05
Du planst von Anfang an tausende Karten per Luftfracht und Seeweg zu verschicken, die dann am Bestimmungsort oder gar beim Kunden geflasht werden? Wohl kaum ... aber warten wir ab, was wie kommuniziert wird seitens AMD und den AIBs, ich will mich da vor Dienstag nicht im Detail zu äußern, muss weiter testen ^^

dürfen bestimmt MF &co. machen :ulol:

y33H@
2020-01-18, 21:10:24
Die einzige Berufsgruppe die in Foren den Leuten Leid tut wenn sie mehr Arbeit hat und dadurch Ihre Testseiten bei solch einem Thema mehr Besucher (Nachtests) und Einnahmen generieren. Alleine jetzt im Vorfeld ist das Thema ja schon ein solch kontroverses, dass man interessierte Leser hat, die keine Klickbait-Gerüchte benötigen um die Seite zu besuchen.

Ja, die armen Tester, die ihre Arbeit jetzt bestätigen, überprüfen und vergleichen können. Mehr Testszenarien haben und mehr Möglichkeiten haben verschiedene Bandbreiten zu testen auf dem selben Chip.

Wäre ich Hardware-Tester würde ich mich eher freuen, dass ich hier mehr als nur einen Test machen kann in den kommenden Tagen, an dem die Leser Interesse zeigen und der diskutiert wird. Ich würde mehr Aspekte als meine Kollegen versuchen zu beleuchten und so die Aufmerksamkeit auf meine Webseite ziehen die mich bezahlt. Das sind keine Freizeitaktivitäten, wofür man hier bezahlte Mitarbeiter bedauern muss.

Kurzfristiger Stress kommt in jedem Beruf vor und zeigt nur wer es besser kann als die anderen. Ich bin gespannt ob Golem hier wieder am besten abliefert, mit den verschiedenen Perspektiven. Da bin ich mittlerweile Fan geworden vom Marc ;)

Hier trennt sich die Spreu vom Weizen - ob man im Artikel dann wieder Abschläge zur Hardware lesen muss weil man nicht alles vorgekaut bekommen hat vom Hardware-Hersteller.

Ich meine, wer beschwert sich denn wenn genau das Szenario eintritt wo man die Existenzberechtiung für seine Arbeit und seine Leistung eindrucksvoll nachweisen kann. Mal schauen welche Redaktion dies als Gelegenheit wahrnimmt und nicht als Störfaktor.

Mein bester Complicated :biggrin:

Wenn das alles stimmt [^^], dann werde ich für meinen Teil (soweit möglich) den Referenz-Takt und das neue OC-vBIOS testen, so ist die Bandbreite der erwartbaren Leistung schön ersichtlich.

Es würde sich dann freilich anbieten, auf einer Seite oder als dedizierte Meldung zu erläutern, was es nun mit dem vBIOS auf sich hat, wer es wo bekommt und wer es wie (nicht) flashen kann.

Wer nicht erst gestern oder am Montag testet, der hätte dann eh auch die Werte mit dem alten vBIOS - die ja aber nicht nutzlos wären, sondern eben aufzeigen würden, wie die Karte ursprünglich geplant war und wie ggf einige Karten auch im Handel stehen könnten.

Complicated
2020-01-18, 21:19:48
Das höre ich gerne und werde deinen Test als erstes lesen. :D
Hau rein und viel Spaß beim testen. Ich freu mich auf den Deep Dive für N10.

horn 12
2020-01-19, 11:35:25
https://www.notebookcheck.net/AMD-RDNA-2-New-rumors-allege-50-better-performance-than-RDNA-1-with-no-added-power-consumption.450435.0.html

Navi Big mind. 50% schneller als 5700 XT

Der_Korken
2020-01-19, 12:03:25
https://www.notebookcheck.net/AMD-RDNA-2-New-rumors-allege-50-better-performance-than-RDNA-1-with-no-added-power-consumption.450435.0.html

Navi Big mind. 50% schneller als 5700 XT

Dass man mindestens 50% schneller als eine 5700XT sein wird, finde ich wenig überraschend, denn sonst würde man nicht einmal die Vorgängergeneration von Nvidia schlagen (2080Ti). Das interessante ist dass die Effizienz um 50% steigen soll. Klingt nicht unrealistisch, denn der Effzienzsprung von 14nm auf 7nm ist in Summe doch recht verhalten ausgefallen. AMD braucht für die hohen Taktraten immer noch mehr Spannung als Nvidia und kommt selbst mit 7nm gerade mal so an die Effizienz von Nvidia in 12nm heran. Dass dort bei AMD noch viel zu holen ist, klingt für mich schlüssig.

Zumal Ampere angeblich doppelt so effizient wie Turing sein soll, d.h. selbst mit dem vergleichsweise großen Sprung von AMD würde Nvidia immer noch ~33% effizienter sein. Das lässt die 50% von AMD im Kontext realistisch erscheinen.

mironicus
2020-01-19, 12:24:03
Das muss auch effizienter werden, wenn NVidia mit 12 nm schon effizienter ist als AMD mit 7 nm. NVidia wird Chips mit 6000 Shader-Einheiten und mehr bauen in 7 nm, generell ist dann die Vorstellung von 80 CUs und mehr bei AMD "zwingend" erforderlich.

BlacKi
2020-01-19, 12:35:48
bitte english kenntnisse aufbessern horn. up to, heißt nicht mindestens. aber auch hier wieder mal als quelle dieser unseriöse utubekanal.

genauso wie wccft einfach selbst behauptet big navi wird ne enthusiast gpu. lisa su sagte klipp und klar high end. ich tippe schlicht auf kommende 3070/3080er performance, das passt dann auch mit den "up to +50%".

dann ist das loch zwischen 5700xt und big navi auch nicht so groß.

Neurosphere
2020-01-19, 12:36:00
Navi Big mind. 50% schneller als 5700 XT

Das steht in keinster Weise in dem Artikel. Nur das RDNA2 50% über RDNA 1 liegen soll in Sachen Effizienz.

Also das gleiche geblubber wie bei/über Nvidia ohne irgend einen Mehrwert.

robbitop
2020-01-19, 12:38:03
7 nm bringt schon allein gute 40-50% Verbrauchsreduktion ggü 12 nm.
Navi ist mit 7 nm nur in etwa so effizient wir Turing. Entsprechend ist ein geshrinkter Turing schon ohne uArch Verbesserungen 40-50% effizienter.
Entsprechend ist für RDNA2 noch großes Potenzial zu holen - und ich denke AMD muss dieses ausschöpfen.

LasterCluster
2020-01-19, 12:41:57
https://www.notebookcheck.net/AMD-RDNA-2-New-rumors-allege-50-better-performance-than-RDNA-1-with-no-added-power-consumption.450435.0.html

Navi Big mind. 50% schneller als 5700 XT

Ich seh in dem Artikel keine Aussage über die Geschwindigkeit irgendwelcher N2x Varianten, sondern (sehr viel besser): 50% mehr Effizienz, mehr Clock, viel mehr CUs

AMD is claiming that RDNA 2 will offer up to 50% better performance than RDNA 1 cards for the same power consumption, according to sources close to RedGamingTech (RGT).
RGT reports that its sources have informed it that RDNA 2 will be called the RX 6000 series, and that it will derive its performance improvements over the existing RX 5xxx series not only from architectural improvements, but also "considerably more Compute Units" (CUs). These new cards will operate at higher clock speeds, too

50% mehr Effizienz bei höheren Taktraten lässt wirklich aufhorchen. Ach ja:

The RX 6000 series will also feature Hybrid Ray Tracing capabilities, and RGT contends that the card that appeared on OpenVR Benchmark is an example of RDNA 2. However, these RX 5xxx successors will not arrive until at least 2H 2020, with no fixed date currently being offered. As RGT points out, this means that the RTX 2080 Ti-beater we saw on OpenVR Benchmark has time to mature and deliver even higher levels of performance.

Edit: Schaut man sich die Orginalquelle (RGT) an, sieht man das im Grunde nichts neues bekannt ist und vor allem die 50% Unsinn sind.

Steffko
2020-01-19, 12:49:50
Man kann nur hoffen, dass das wirklich so kommt. AMD muss bei der Effizienz dringend konkurrenzfähig werden. Und das ist wohl das mindeste was es bräuchte, um gegen Nvidia in 7nm nicht wieder extrem zurückzufallen.

dargo
2020-01-19, 13:31:08
bitte english kenntnisse aufbessern horn. up to, heißt nicht mindestens. aber auch hier wieder mal als quelle dieser unseriöse utubekanal.

genauso wie wccft einfach selbst behauptet big navi wird ne enthusiast gpu. lisa su sagte klipp und klar high end. ich tippe schlicht auf kommende 3070/3080er performance, das passt dann auch mit den "up to +50%".

dann ist das loch zwischen 5700xt und big navi auch nicht so groß.
Diese "bis zu 50%" sagen nichts darüber aus, dass RDNA2 bis zu 50% schneller sein wird als RDNA1. Es heißt erstmal nur, dass RDNA2 bis zu 50% schneller sein soll als die RX5700 XT bei ebenfalls 225W. Sollte dies tatsächlich stimmen ist hier noch Platz für was Schnelleres sofern AMD dort einen lohnenswerten Markt sieht. Wäre zumindest für AMD unüblich wenn bei ~225W Schluss ist.

reaperrr
2020-01-19, 13:49:26
https://www.notebookcheck.net/AMD-RDNA-2-New-rumors-allege-50-better-performance-than-RDNA-1-with-no-added-power-consumption.450435.0.html

Navi Big mind. 50% schneller als 5700 XT

Und wer sich die Mühe macht, mal den Quellen-Artikel auf RedGamingTech statt dem falsch abgeschriebenen Mist von notebookcheck zu lesen, stellt fest, dass die einzige Stelle, die von 50% mehr Perf in gleicher TDP spricht, ein Recap von RDNA1 ggü. Vega ist :rolleyes:

Auf RGT werden zu RDNA2 vs. RDNA1 keine konkreten Zahlen genannt, nur dass RDNA2 deutlich effizienter zu Werke gehen soll, deutlich mehr CUs und leicht gestiegene IPC. Aber wie gesagt, das mit den 50% gegenüber RDNA1 sowie das "AMD is claiming" ist Bullshit, den nbc falsch gelesen (oder aus Clickbait-Gründen absichtlich vermurkst?) hat.

Edit: OK, nbc ist insofern unschuldig, dass OC3D schon den Mist verzapft hat. NBC muss sich nur den Vorwurf gefallen lassen, den falschen Mist ungeprüft abgeschrieben zu haben, ohne den RGT-Artikel noch mal gegenzuprüfen.

BlacKi
2020-01-19, 13:54:34
Und wer sich die Mühe macht, mal den Quellen-Artikel auf RedGamingTech statt dem falsch abgeschriebenen Mist von notebookcheck zu lesen, stellt fest, dass die einzige Stelle, die von 50% mehr Perf in gleicher TDP spricht, ein Recap von RDNA1 ggü. Vega ist :rolleyes:

Auf RGT werden zu RDNA2 vs. RDNA1 keine konkreten Zahlen genannt, nur dass RDNA2 deutlich effizienter zu Werke gehen soll, deutlich mehr CUs und leicht gestiegene IPC. Aber wie gesagt, das mit den 50% gegenüber RDNA1 sowie das "AMD is claiming" ist Bullshit, den nbc falsch gelesen (oder aus Clickbait-Gründen absichtlich vermurkst?) hat.
omg...

reaperrr
2020-01-19, 14:01:58
Hier der Auszug aus dem RGT-Artikel (http://www.redgamingtech.com/rdna-2-power-and-performance-improvements-to-take-on-nvidia-analysis-exclusive/):

Last year, AMD debuted their highly anticipated RDNA architecture to the world, with the highest-end SKU being the Radeon RX 5700 XT, powered by the Navi 10 silicon. This graphics card was impressive in its own right, measuring a mere 251mm2 and built using TSMC’s 7nm process. RDNA represented a significant design shift for AMD, fundamentally changing how the GPU functions and in doing so, AMD claims up to a 50 percent improvement in performance for the same power consumption.
Ansonsten steht da nix von 50%, die einzige andere Prozent-Zahl die im Artikel genannt wird, sind die 59% von AMD selbst hinsichtlich Renoir-Vega vs. Picasso-Vega.

LasterCluster
2020-01-19, 14:06:54
Meiner Meinung nach ist die "Essenz" des RGT Artikels:

From what I am able to piece together now from multiple sources, the second generation of RDNA will feature improvements in performance because of the architecture, considerably more Compute Units compared to RDNA 1 and also likely scale much better with clock frequency too

Also nicht neues.

Der_Korken
2020-01-19, 14:15:16
7 nm bringt schon allein gute 40-50% Verbrauchsreduktion ggü 12 nm.
Navi ist mit 7 nm nur in etwa so effizient wir Turing. Entsprechend ist ein geshrinkter Turing schon ohne uArch Verbesserungen 40-50% effizienter.
Entsprechend ist für RDNA2 noch großes Potenzial zu holen - und ich denke AMD muss dieses ausschöpfen.

Was denn jetzt, 40-50% Reduktion oder 40-50% mehr Effizienz? Ersteres entspricht 66-100% mehr Effizienz. Das schafft RDNA mit Ach und Krach, wenn man die effizienteste Karte (5700 nonXT) mit den alten hochgeprügelten Polaris-GPUs vergleicht. Von der Architektur sieht man also noch nichts.

@50%: Soweit hatte ich nicht mehr geklickt, dass das nur der alte Kram von den RDNA1-Slides ist. Angesichts des Rückstands gegenüber Nvidia wäre ein großer Effizienzsprung aber dennoch nicht unrealistisch, denn selbst 50% mehr würden sehr wahrscheinlich nicht mal reichen, um mit einem Turing@7nm gleichzuziehen.

unl34shed
2020-01-19, 14:29:52
Das muss auch effizienter werden, wenn NVidia mit 12 nm schon effizienter ist als AMD mit 7 nm. NVidia wird Chips mit 6000 Shader-Einheiten und mehr bauen in 7 nm, generell ist dann die Vorstellung von 80 CUs und mehr bei AMD "zwingend" erforderlich.

Sicher, dass Nvidia so viel mehr Shader verbauen wird?
Nimmt man die Zahlen von AMDs 7nm Produkten kommt man ca auf 40M Transistoren pro mm². Anhand der Zahlen wird selbst ein einfacher Turing TU102 Shrink mit ~470mm² immer noch verdammt groß ausfallen.

Ich bezweifel ehrlich gesagt, dass man wieder einen 700mm² Chip bringen wird. Was ist denn in 7nm noch bezahlbar bei guter Marge? Vielleicht 550mm² das wären gerade mal ~17% mehr Transistoren als bei der 2080Ti. Außer man schmeißt die Tensor Cores wieder raus, aber daran glaube ich nicht, war ja das next big Thing! :confused:

Complicated
2020-01-19, 14:30:44
Der Artikel sagt aber auch, dass man dieselben Performancesprünge erwarten kann bei RDNA->RDNA2, weil die Zen-CPU Teams etwas grundlegendes an den verwendeten Transistoren geändert haben und diese Erfahrung nun erst der Renoir APU aber auch den GPUs zuteil kommen werden.
From what I am able to piece together now from multiple sources, the second generation of RDNA will feature improvements in performance because of the architecture, considerably more Compute Units compared to RDNA 1 and also likely scale much better with clock frequency too.

From what another source told me, we will likely not see these cards launch until Summer (although no specific date is provided) and will be the RX 6000 series. This gives AMD a bit more time to bring up the drivers and the design – and who knows just what state of the silicon we saw being benchmarked was.

This would also tie into what we seem to be learning about the Playstation 5 and its clocks. I’ve personally seen internal testing documentation of the Playstation 5 running at 2GHz for ‘native mode’ (ie, for PS5 software). Given the power consumption of a 40 CU RX 5700 hits the low 200W mark when clocked to 2GHz, you can see how important this optimization will be.

Long story short – the next-generation RDNA from AMD (and other future Navi cards with the potential exception of say Navi 12) will all benefit from drastically improved efficiency – and with any luck, we will also see higher clock frequencies on the GPU and lower heat output too.Hier auch der Link zu dem Original-Artikel:
http://www.redgamingtech.com/rdna-2-power-and-performance-improvements-to-take-on-nvidia-analysis-exclusive/
One thing my source can’t tell me yet is exactly what has changed in the optimization strategy from the first generation of RDNA to RDNA 2.

My source tells me that Renoir and its GPU is a hint of what we can expect, where the designers took an established GPU architecture (Vega) but improved it significantly over Picasso. Robert Hallock from AMD recently pointed out how different the Vega CU is in Renoir – a 59% performance uplift per CU versus the Vega CU’s residing inside the Picasso architecture.

tEd
2020-01-19, 14:36:41
Ich glaube auch wenn das nirgends erwähnt wird aber wenn man alle die Information oder Gerüchte zusammne nimmt(schneller/Takt,mehr cu,höherer Takt) zu einer 5700xt dann sind bis zu 50% schneller(big navi) nicht unrealistisch und das würde ich persönlich auch so auch erwarten.

Mangel76
2020-01-19, 14:44:18
7 nm bringt schon allein gute 40-50% Verbrauchsreduktion ggü 12 nm.
Navi ist mit 7 nm nur in etwa so effizient wir Turing. Entsprechend ist ein geshrinkter Turing schon ohne uArch Verbesserungen 40-50% effizienter.
Entsprechend ist für RDNA2 noch großes Potenzial zu holen - und ich denke AMD muss dieses ausschöpfen.
Und nochmal: hör mit den 50% auf. Oder glaubst du, dass sie die Taktraten nicht erhöhen wollen? Dann sind es nämlich nur noch 15-20% mehr Leistung bei gleichem Verbrauch. Und schon ist der Effizienzunterschied deutlich kleiner. Auch AMD hat den Verbrauch nur wenig verringert und lieber die Taktraten hochgetrieben. Man kann die Effizienz nur sehr schlecht vergleichen anhand unterschiedlicher Betriebspunkte.

Linmoum
2020-01-19, 14:47:13
Ich glaube auch wenn das nirgends erwähnt wird aber wenn man alle die Information oder Gerüchte zusammne nimmt(schneller/Takt,mehr cu,höherer Takt) zu einer 5700xt dann sind bis zu 50% schneller(big navi) nicht unrealistisch und das würde ich persönlich auch so auch erwarten."Bis zu 50%" gegenüber einer 5700XT wären ein Vega-2.0-Fail. Wird nicht passieren, dafür ist die Basis im Vergleich zu GCN damals deutlich potenter.

Edit: Natürlich ausgehend von den spekulierten 80CU.

LasterCluster
2020-01-19, 14:49:15
Sorry, aber diese 50% waren niemals eine Einschätzung der Big Navi Performance! Das können 50%, 75%, 100% mehr gegenüber N10 sein oder vielleicht auch noch größere Spünge. Wir wissen es nicht.

HOT
2020-01-19, 15:01:36
Wie ich das verstanden habe, wäre ein RDNA2-Chip mit 220W (wie N10) 50% schneller in einer Kombination aus Takt und Einheitenzahl. Diese Effizienz würde zu 96CUs mit >250W dann passen als Top-Dog. Das würde also einfach bedeuten, dass die neu designten CUs entsprechend mehr Takt schaffen.

reaperrr
2020-01-19, 15:15:12
Der Artikel sagt aber auch, dass man dieselben Performancesprünge erwarten kann bei RDNA->RDNA2, weil die Zen-CPU Teams etwas grundlegendes an den verwendeten Transistoren geändert haben und diese Erfahrung nun erst der Renoir APU aber auch den GPUs zuteil kommen werden.
Ich will auch nichts ausschließen, nur suggerieren OC3D/NBC mit ihren Titeln/Formulierungen, dass RDNA2 50% mehr Perf/W als RDNA1 haben soll, was im RGT-Artikel aber so nicht steht.

Und von den 59% von Renoir kommt ca. die Hälfte vom Prozess, Picasso war ja noch 12nm und laut AMD bringt 7nm allein schon >25% (also ~26-29%) mehr Performance (Takt) bei gleicher TDP und Transistormenge.
Also ca. 30% über Designoptimierung, aber wir wissen nicht, ob nicht zumindest ein Teil davon schon in RDNA1 eingeflossen ist.
Natürlich sind in Kombi mit 7nm+, IPC-Verbesserungen und einem Takt etwas näher am Sweetspot als bei der 5700XT an die 50% mehr Perf/W möglich, wenn sich die 30% durch Designoptimierung wirklich voll auf RDNA2 übertragen ließen.

Nur wie gesagt: Steht so nicht im Originalartikel, das haben sich die Abschreiber selbst zusammengedichtet.

amdfanuwe
2020-01-19, 15:26:26
Ich würde für dieses Jahr noch nicht zuviel erwarten.
Eine Karte für den 500€ Bereich, wo Nvidia bisher 2070 verkauft, würde AMD erstmal reichen.
RDNA dürfte zu N10 optimiert sein und RT Cores sind die erste Generation für AMD.
Wichtiger dürfte für AMD Arcturus als HPC GPU für die Exascale Computer sein.

2021 erwarte ich eher ein komplettes 5nm Portfolio mit ausgereifter RDNA. Vielleicht kommt es dann zum showdown mit Nvidia.

dargo
2020-01-19, 16:06:48
"Bis zu 50%" gegenüber einer 5700XT wären ein Vega-2.0-Fail.
Eine Vega 10 hatte bei dir den gleichen Verbrauch wie Polaris 20 oder gar Polaris 10?

DrFreaK666
2020-01-19, 16:27:28
Sollte RDNA2 nicht ein neues Design haben während RDNA1 teilweise noch auf alte Technik basierte?
Oder verwechsle ich was?

Linmoum
2020-01-19, 16:33:04
Eine Vega 10 hatte bei dir den gleichen Verbrauch wie Polaris 20 oder gar Polaris 10?Was hat derselbe Verbrauch damit zu tun? Das war bei der konkret von mir zitierten Aussage nicht Thema, sondern nur die Performance im Vergleich zu einer 5700XT.

Und wenn AMD da mit einem potentiellen 80CU RDNA2 nicht deutlich mehr als 50% draufpackt, dann ist das die Kategorie Vega 2.0. Halte ich allerdings, wie gesagt, bei der Grundlage RDNA auch für ausgeschlossen. Da müsste man sich schon einen richtigen Bock geschossen haben.

dargo
2020-01-19, 16:36:54
Was hat derselbe Verbrauch damit zu tun? Das war bei der konkret von mir zitierten Aussage nicht Thema, sondern nur die Performance im Vergleich zu einer 5700XT.

:rolleyes:
AMD is claiming that RDNA 2 will offer up to 50% better performance than RDNA 1 cards for the same power consumption, according to sources close to RedGamingTech (RGT).

In dem Artikel ist überhaupt keine Rede von irgendwelchen 80 CUs! Das kann einfach nur bedeuten, dass RDNA 2 bei bsw. 180W GPU-Power (oder unter welchen Powerlimit man auch immer verglichen hat) bis zu 50% mehr Performance liefert als RDNA 1 bei gleicher GPU-Power. Wieviele CUs RDNA 2 dafür benötigt steht in den Sternen.

TheAntitheist
2020-01-19, 16:49:39
die meisten hier überlesen das "BIS ZU" glaub ich... da würde ich dann schon eher bei 35% im Durchschnitt landen wenn überhaupt.

Wenn man ein szenario wählt wo RDNA1 sehr schlecht war und jenes optimiert hat für RDNA2, dann macht man mal ganz fix 50% mehr Leistung, bei jener Situation.

zB könnte der Hybrid RT Renderer von Crytek vllt mit RDNA2 deutlich besser laufen, der rest aber nur 10% schneller...

Raff
2020-01-21, 15:08:38
Navi XLE in Action!

AMD Radeon RX 5600 XT im Test: Effiziente, aber auf Kante genähte Gaming-Grafikkarte (https://www.pcgameshardware.de/Radeon-RX-5600-XT-Grafikkarte-275784/Tests/Benchmark-Kaufen-Preis-Release-Review-1341275/)
Radeon RX 5600 XT 8 GB im Test: So schnell wäre die Karte mit 8 statt 6 GiByte Speicher - PCGH-Simulation (https://www.pcgameshardware.de/Radeon-RX-5600-XT-Grafikkarte-275784/Tests/6-gegen-8-GByte-Speicher-Benchmarks-1341307/)
Radeon RX 5600 XT BIOS-Chaos: Ein Firmware-Update jagt das nächste - eine Übersicht (https://www.pcgameshardware.de/Radeon-RX-5600-XT-Grafikkarte-275784/Specials/BIOS-Updates-Uebersicht-1341580/)

Das Produkt ist so .. äääh, "spannend", dass PCGH gleich drei Artikel zum Launch hat. :ugly:

MfG
Raff

HOT
2020-01-21, 15:17:45
https://www.techpowerup.com/review/asus-radeon-rx-5600-xt-strix-oc/3.html

WOW Asus liebt offenbar den Overkill. 10 SPS von Infineon für die Karte :freak:
völlig krank... (also aus Kundensicht geil, wenn das falsch verstanden wurde :D)

aufkrawall
2020-01-21, 15:24:06
Navi XLE in Action!

AMD Radeon RX 5600 XT im Test: Effiziente, aber auf Kante genähte Gaming-Grafikkarte (https://www.pcgameshardware.de/Radeon-RX-5600-XT-Grafikkarte-275784/Tests/Benchmark-Kaufen-Preis-Release-Review-1341275/)
Radeon RX 5600 XT 8 GB im Test: So schnell wäre die Karte mit 8 statt 6 GiByte Speicher - PCGH-Simulation (https://www.pcgameshardware.de/Radeon-RX-5600-XT-Grafikkarte-275784/Tests/6-gegen-8-GByte-Speicher-Benchmarks-1341307/)
Radeon RX 5600 XT BIOS-Chaos: Ein Firmware-Update jagt das nächste - eine Übersicht (https://www.pcgameshardware.de/Radeon-RX-5600-XT-Grafikkarte-275784/Specials/BIOS-Updates-Uebersicht-1341580/)

Das Produkt ist so .. äääh, "spannend", dass PCGH gleich drei Artikel zum Launch hat. :ugly:

MfG
Raff
Wann merkt ihr eigentlich mal, dass die CPU-Performance von Crysis 3 völlig kaputt auf Vegas und Navis ist und es sich dadurch als Verbrauchstest disqualifiziert? Ich finde jedenfalls keine Erwähnung dessen im Text. Und warum kann man überhaupt nicht noch eben die fps für die Verbrauchstests mit angeben?

SKYNET
2020-01-21, 15:45:07
https://www.techpowerup.com/review/asus-radeon-rx-5600-xt-strix-oc/3.html

WOW Asus liebt offenbar den Overkill. 10 SPS von Infineon für die Karte :freak:
völlig krank...


ich finds gut, zeigt das die boardpartner vollstes vertrauen in navi haben und dessen absätze... wäre das nur bei vega schon so gewesen :(

Dino-Fossil
2020-01-21, 15:47:52
Meint ihr Leo entsperrt den Launch-Thread noch? ;)

SKYNET
2020-01-21, 15:53:25
Meint ihr Leo entsperrt den Launch-Thread noch? ;)


weiss auch nicht was er sich dabei gedacht hat... hat wohl seine gute kinderstube vergessen :uponder:

robbitop
2020-01-21, 16:00:41
Sollte RDNA2 nicht ein neues Design haben während RDNA1 teilweise noch auf alte Technik basierte?
Oder verwechsle ich was?
Das waren damals Gerüchte vor Navi Release. GPU uArch sind im Prinzip auch eher evolutionär als revolutionär geprägt. So wie NV noch einiges von Fermi nutzt bis heute. Warum auch das Rad 2x erfinden?

RDNA war schon ein verhältnismäßig großer Sprung. Die ISA ist nicht so weit weg vom Vorgänger - die implementierte uArch allerdings schon.
RDNA2, 3 usw implizieren, dass Nachfolge uArchs auch eher evolutionärer Natur sind.

Das muss aber nicht heißen, dass sie nicht auch große Sprünge in der Energieeffizienz oder Auslastung bringen. Siehe Maxwell ggü Kepler oder Turing ggü Pascal. Alles Evolutionen mit jedoch größeren Sprüngen.

Laut AMD (IIRC sogar laut Lisa Su in einem CES 2020 Interview) hat man bei der Konzeption von Renoir in deren GPU IPs große Potenziale bzgl. Energieeffizienz gefunden, die in Renoir (Vega IP) einfloßen. Ein ähnliches Ereignis gab es damals bei NV als man mit einer Iteration von Kepler im Tegra auch auf Wege stieß, die die Energieeffizienz stark nach oben drehen - mündeten dann in Maxwell.
Da Turing in etwa so energieeffizient wie Navi ist (eher etwas besser) und der Shrink auf 7 nm schon ziemlich viel bringt bzgl. Energieeffizienz (auf Performance normiert deutlich weniger Leistungsaufnahme), wird man nach diesem Shrink ggü Navi 1 deutlich vorn liegen. Das impliziert aber auch, dass das Potenzial groß ist. Ggf. hat man genau dies geborgen und bringt (zumindest Teile davon) zu Navi 2 / RDNA2 dann in dGPUs. 50% klingen etwas viel - aber im Bereich des Potenzials, welches Turing prozessnormiert zeigt.

HOT
2020-01-21, 16:24:32
So funktioniert das ja nicht. Schon Vega hat bis auf die Struktur nicht mehr viel mit GCN gemein, RDNA1 hat gar nichts mehr mit GCN gemein und RDNA2 wird auch nur die Struktur von RDNA1 beibehalten, wenn überhaupt mMn. Die CUs sind bei RDNA2 wieder völlig andere als bei RDNA1, allein schon durch RT, was ja vor allem für die Energieeffizienz entscheidend ist.
AMD entwickelte die Blöcke ja evolutionär weiter seit GCN, RDNA war da der große Bruch. Ob die GCN-Logik so noch weiter gilt, wird RDNA2 zeigen.

robbitop
2020-01-21, 16:44:15
Naja die ISA ist seit GCN 1.0 bis hin zu Navi ja noch gut erhalten.
Wie die CUs in RDNA2 aussehen, ist bis dato noch nicht bekannt. Also würde ich hier eher ein "IMO" setzen.
Bitte erkläre, was an den Vega CUs so viel anders ist als den Polaris CUs. Und jetzt bitte nicht sowas wie FP16 double rate. Das sind evolutionäre Änderungen, die die CUs nicht "völlig anders" machen.

Ansonsten sehe ich es so, dass seit RDNA schon in der Implementierung der uArch ein großer Schritt (verglichen mit seinen Vorgängern bis hin zu Tahitii) bzw der größte Schritt erfolgt ist.
IMO muss man ISA und uArch unterscheiden. Die ISA sagt nichts über Eigenschaften wie Auslastung oder Energieeffizienz aus. Das ist die konkrete uArch. Die GCN ISA war 2011 schon super fortschrittlich und ein gutes Fundament. Beide IHVs haben sich dahingehend immer mehr aneinander angenähert, was ein nicht so schlechtes Zeichen für die GCN ISA war.

In Bezug auf die uArch hat sich mit RDNA sicherlich am meisten geändert.

Interessant fand ich den Cross Generation Vergleich von DF. Der zeigte ja, dass Polaris und Navi die größten Rohleistungsnormierten Performancesprünge brachten. Vega eher nicht so, obwohl es völlig anders aussah, wenn man sich anschaut, was Vega alles an Neuerungen mitgebracht hat...

mczak
2020-01-21, 20:21:12
Da Turing in etwa so energieeffizient wie Navi ist (eher etwas besser) und der Shrink auf 7 nm schon ziemlich viel bringt bzgl. Energieeffizienz (auf Performance normiert deutlich weniger Leistungsaufnahme), wird man nach diesem Shrink ggü Navi 1 deutlich vorn liegen.
Mir scheint Navi liegt eher vor Turing bezüglich der Energieeffizienz, nur sind halt die Karten nach wie vor etwas mehr gepusht als bei Nvidia. Aber was möglich wäre sieht man gut bei den 5600XT mit dem alten Bios (da hat man dann maximale Spannungen wie bei Nvidia), da schlägt man dann punkto Energieeffizienz die versammelte Turing-Riege. Kein Zweifel aber dass Nvidia prozessbereinigt immer noch vorne liegt, keine Ahnung was da RDNA2 rausholen kann.

KarlKastor
2020-01-21, 20:34:10
Und wenn du die Touring noch ein Stück niedriger taktest, schlagen sie wieder die Navi. ;)

Mangel76
2020-01-21, 20:55:58
Und wenn du die Touring noch ein Stück niedriger taktest, schlagen sie wieder die Navi. ;)

Womit bewiesen wäre, dass anhand willkürlicher Betriebspunkte kein Effizienzvergleich zwischen Architekturen möglich ist.

mczak
2020-01-21, 21:29:03
Und wenn du die Touring noch ein Stück niedriger taktest, schlagen sie wieder die Navi. ;)
Schon, aber ich richte mich eher nach den verwendeten Spannungen als Indikator, und die sind nun mal bei AMD im Auslieferungszustand höher (ausser bei der 5600XT). Nvidia bleibt fast immer unter 1-1.05V, und AMD erreicht bei den 5700 oder 5500 bis zu 1.15V (und das trotz 7nm Fertigung).

gravitationsfeld
2020-01-21, 21:48:08
So funktioniert das ja nicht. Schon Vega hat bis auf die Struktur nicht mehr viel mit GCN gemein, RDNA1 hat gar nichts mehr mit GCN gemein und RDNA2 wird auch nur die Struktur von RDNA1 beibehalten, wenn überhaupt mMn. Die CUs sind bei RDNA2 wieder völlig andere als bei RDNA1, allein schon durch RT, was ja vor allem für die Energieeffizienz entscheidend ist.
AMD entwickelte die Blöcke ja evolutionär weiter seit GCN, RDNA war da der große Bruch. Ob die GCN-Logik so noch weiter gilt, wird RDNA2 zeigen.
Vega ist definitiv GCN. Es sind weiterhin 4x16 ALUs mit 4 cycles pro instruction etc. Die Performance-Characteristik der CUs ist die selbe wie bei Tahiti.

RDNA ist die erste richtige Aenderung seit langem.

robbitop
2020-01-22, 09:50:20
mczak,

Ich habe vor einigen Monaten irgendwo (weiß nicht mehr wo - glaube es war das pcgh Magazin) einen Test gesehen, bei dem für jeweils Navi und Turing versucht wurde, durch UV maximale Energieeffizienz zu holen. Turing hat gewonnen. Gut, samplesize 1 und so. Der Punkt ist, beide liegen verdammt nah aneinander. Lass es grob als Gleichstand bezeichnen.
Mit dem Unterschied, dass Navi mehr als ein Fullnodesprung Fertigungsvorteil hat. Das entspricht performancenormiert irgendwo zwischen 40-60% Verbrauchsreduktion. Da ist noch fett Potential in Navi vorhanden...

KarlKastor
2020-01-22, 10:02:25
Schon, aber ich richte mich eher nach den verwendeten Spannungen als Indikator, und die sind nun mal bei AMD im Auslieferungszustand höher (ausser bei der 5600XT). Nvidia bleibt fast immer unter 1-1.05V, und AMD erreicht bei den 5700 oder 5500 bis zu 1.15V (und das trotz 7nm Fertigung).
Stimmt schon. Das ist zumindest ein Anhaltspunkt.
Aber erstaunlich, dass die so viel Spannung benötigen. Richtig hoch ist der Takt ja nicht.

BlacKi
2020-01-22, 10:05:03
Womit bewiesen wäre, dass anhand willkürlicher Betriebspunkte kein Effizienzvergleich zwischen Architekturen möglich ist.
amds effizienz kann von heute auf morgen auf einen schlag von amd ohne irgendwelche änderungen an den chips verbessert werden. ganz einfach indem man die chips niedriger taktet durch ein kleineres PT und in einer performanceklasse niedriger verkauft. dann hätte amd in der klasse mit der performance und der effizienz das sagen, und plötzlich steht amd in einem anderen licht da. als heilsbringer, als performance könig der klasse.

aber das tut amd nicht. lieber taktet man die karten am limit um jeden cent aus dem silizium herauszuquetschen was geht. damit macht man sich bei einigen kunden viel kaputt. aber man braucht wohl jeden cent aus den chips.

SKYNET
2020-01-22, 10:40:08
mczak,

Ich habe vor einigen Monaten irgendwo (weiß nicht mehr wo - glaube es war das pcgh Magazin) einen Test gesehen, bei dem für jeweils Navi und Turing versucht wurde, durch UV maximale Energieeffizienz zu holen. Turing hat gewonnen. Gut, samplesize 1 und so. Der Punkt ist, beide liegen verdammt nah aneinander. Lass es grob als Gleichstand bezeichnen.
Mit dem Unterschied, dass Navi mehr als ein Fullnodesprung Fertigungsvorteil hat. Das entspricht performancenormiert irgendwo zwischen 40-60% Verbrauchsreduktion. Da ist noch fett Potential in Navi vorhanden...


ich behaupte dreist, das wenn der speichercontroller "gefixt" wurde, navi VIEL weniger fressen würde...

SKYNET
2020-01-22, 10:41:59
amds effizienz kann von heute auf morgen auf einen schlag von amd ohne irgendwelche änderungen an den chips verbessert werden. ganz einfach indem man die chips niedriger taktet durch ein kleineres PT und in einer performanceklasse niedriger verkauft. dann hätte amd in der klasse mit der performance und der effizienz das sagen, und plötzlich steht amd in einem anderen licht da. als heilsbringer, als performance könig der klasse.

aber das tut amd nicht. lieber taktet man die karten am limit um jeden cent aus dem silizium herauszuquetschen was geht. damit macht man sich bei einigen kunden viel kaputt. aber man braucht wohl jeden cent aus den chips.


weils 99.9% der käufer schlicht nicht interessiert, ob die karte 150 oder 170W verbrät, so einfach ist das... und btw. mich interessiert als poweruser der stromverbrauch auch am wenigsten vom ganzen... sonst dürfte meine 1080Ti sich keine 420W genehmigen... und muss auch endlich mal den shunt mod machen... denke bis auf 600W bekomme ich die bestimmt :freak:

BlacKi
2020-01-22, 10:45:17
als "selbstclocker" interessiert es schon wieviel reserven am ende noch übrig bleiben. für 90% der leute ist es tatsächlich uninteressant.

Mangel76
2020-01-22, 10:55:35
amds effizienz kann von heute auf morgen auf einen schlag von amd ohne irgendwelche änderungen an den chips verbessert werden. ganz einfach indem man die chips niedriger taktet durch ein kleineres PT und in einer performanceklasse niedriger verkauft. dann hätte amd in der klasse mit der performance und der effizienz das sagen, und plötzlich steht amd in einem anderen licht da. als heilsbringer, als performance könig der klasse.

aber das tut amd nicht. lieber taktet man die karten am limit um jeden cent aus dem silizium herauszuquetschen was geht. damit macht man sich bei einigen kunden viel kaputt. aber man braucht wohl jeden cent aus den chips.

Ich habe nie etwas anderes behauptet. Anscheinend braucht AMD mehr Leistung als eine gleich teure NV-Karten um überhaupt gekauft zu werden. Weiterhin scheint der Rest der Welt auf mehr Leistung deutlich mehr Wert zu legen als auf weniger Verbrauch. Daher sind die Betriebspunkte bei NV und AMD eben auch ökonomisch und nicht effizienztechnisch begründet. Deshalb kann man aber eben auch keine generelle Aussage über die "Effizienz einer Architektur" daraus ablesen. NV-Karten laufen halt unter Standardeinstellungen auf einem efizienterem Niveau. Und dann freuen sich alle, dass man noch so schön übertakten kann. Dass dabei die Effizienz auch komplett flöten geht, interessiert hier keinen. Dann bringt AMD eine Karte, die auf Effizienz getrimmt ist (5600XT laut CB deutlich effizienter als z.B. die RTX 2060) und es kommt das Fazit, dass die Karte kaum übertaktbar ist! Was ist denn nun gewünscht? Soll die Karte schnell oder effizient sein?

Im Übrigen liegt das fehlende Übertaktungspotential wohl an den engen Grenzen, die AMD der 5600XT auferlegt, um die 5700 nicht zu gefährden. Lässt sich aber alles über SPPT ändern!

robbitop
2020-01-22, 11:01:13
ich behaupte dreist, das wenn der speichercontroller "gefixt" wurde, navi VIEL weniger fressen würde...
Interessant. Davon habe ich noch gar nichts gehört. Hast du irgendwo mehr infos und Indizien zu dieser These? Ist der bei Volllast deutlich durstiger als sonst?

Der_Korken
2020-01-22, 11:05:05
Dann bringt AMD eine Karte, die auf Effizienz getrimmt ist (5600XT laut CB deutlich effizienter als z.B. die RTX 2060) und es kommt das Fazit, dass die Karte kaum übertaktbar ist! Was ist denn nun gewünscht? Soll die Karte schnell oder effizient sein?

Warte, das ergibt gerade keinen Sinn. Wenn die 5600XT so effizient ist, müsste sie auch mehr Übertaktungsspielraum haben nachdem was du davor geschrieben hast. Andersrum wird ein Schuh draus: Das alte BIOS ist effizient und lässt sich besser übertakten, das neue ist genauso (in)effizient wie die 5700er.

Edit: Wobei das eigentlich auch nicht so stimmt. Die Effizienz kommt imho eher durch den niedrigeren Speicher(controller)takt, der GPU-Takt ist bei beiden Versionen gleich.

Interessant. Davon habe ich noch gar nichts gehört. Hast du irgendwo mehr infos und Indizien zu dieser These? Ist der bei Volllast deutlich durstiger als sonst?

Siehe u.a. meinen Post hier: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12196830#post12196830

Edit²: @SKYNET: Allllllt ;)

SKYNET
2020-01-22, 11:05:08
Interessant. Davon habe ich noch gar nichts gehört. Hast du irgendwo mehr infos und Indizien zu dieser These? Ist der bei Volllast deutlich durstiger als sonst?


schau mal den mehrverbrauch der 5700 zur 5600XT an... die beiden speichersteine werdens kaum sein... auch der vergleich 5600XT 1.0 vs. 5600XT 1.1, das mehr an speichertakt bzw. der höhere takt vom IMC haut richtig rein... das teil ist nen purer säufer.


btw. wurde das schon behandelt hier?:
https://www.heise.de/newsticker/meldung/Namenlose-AMD-Radeon-Grafikkarte-schlaegt-GeForce-RTX-2080-Ti-in-OpenVR-Benchmark-4632752.html

Mangel76
2020-01-22, 11:05:14
Mit dem Unterschied, dass Navi mehr als ein Fullnodesprung Fertigungsvorteil hat. Das entspricht performancenormiert irgendwo zwischen 40-60% Verbrauchsreduktion. Da ist noch fett Potential in Navi vorhanden...

Die 5600XT ist laut CB etwa 20% effizienter als die RTX 2060 FE. Würde NV die 2060 auf 7nm portieren und statt 50% Verbrauchsreduktion lieber den Takt um 25% anheben, wären beide etwa gleich effizient! Wie ich schon mehrfach angemerkt habe, ist dieses "aber Fullnode bringt 50% weniger Verbrauch" völliger Bullshit. NV wird ganz sicher nicht!!! nur den Verbrauchsvorteil des neuen Nodes nutzen sondern viel eher höhere Taktraten anpeilen! Und dann bringt der Fullnodesprung nur noch +25% bei der Effizienz und nicht +100%!!! Wäre ja auch völlig bescheuert, eine neue Grafikkarte herauszubringen, die die 25% Leistung liegen lässt, dafür aber nur noch halb soviel verbraucht wie der Vorgänger. Und bevor einer damit kommt: einfach die GPU zu verdoppeln bringt auch keine doppelte Leistung bei konstantem Verbrauch und verteuert die GPU wegen der Fläche deutlich mehr als ein kleinerer Die mit höheren Taktraten!

Mangel76
2020-01-22, 11:08:16
Warte, das ergibt gerade keinen Sinn. Wenn die 5600XT so effizient ist, müsste sie auch mehr Übertaktungsspielraum haben nachdem was du davor geschrieben hast. Andersrum wird ein Schuh draus: Das alte BIOS ist effizient und lässt sich besser übertakten, das neue ist genauso (in)effizient wie die 5700er.



Laut CB kann man die GPU nur um 40 MHz übertakten. Wahrscheinlich ist per Treiber nicht mehr drin. Das hat nichts mit der Hardware an sich zu tun, AMD will hier nur die 5700 schützen. Auch die neuen Biosversionen mit deutlich mehr PT bringen relativ wenig zusätzlichen Takt da das PT nur selten der begrenzende Faktor ist.

Der_Korken
2020-01-22, 11:15:43
Ach ja, diese komischen Limits im Treiber hatte ich ganz vergessen.

Kleines Gedankenspiel: Was passiert, wenn man eine 5600XT verdoppeln würde, d.h. 72CUs und 384bit@12Gbps? Doppelte Leistung würde eine 2080Ti knapp schlagen, doppelter Verbrauch wäre 260W. Ohne 7nm+ und ohne Architekturänderungen, bis auf die Tatsache dass sie sauber hochskalieren muss. Chipgröße dürfte auch <450mm², weil N10 mit 4CUs weniger und kleinerem SI keine 250mm² mehr bräuchte.

BlacKi
2020-01-22, 11:55:46
Ich habe nie etwas anderes behauptet. Anscheinend braucht AMD mehr Leistung als eine gleich teure NV-Karten um überhaupt gekauft zu werden. Weiterhin scheint der Rest der Welt auf mehr Leistung deutlich mehr Wert zu legen als auf weniger Verbrauch. Daher sind die Betriebspunkte bei NV und AMD eben auch ökonomisch und nicht effizienztechnisch begründet. Deshalb kann man aber eben auch keine generelle Aussage über die "Effizienz einer Architektur" daraus ablesen. NV-Karten laufen halt unter Standardeinstellungen auf einem efizienterem Niveau. Und dann freuen sich alle, dass man noch so schön übertakten kann. Dass dabei die Effizienz auch komplett flöten geht, interessiert hier keinen. Dann bringt AMD eine Karte, die auf Effizienz getrimmt ist (5600XT laut CB deutlich effizienter als z.B. die RTX 2060) und es kommt das Fazit, dass die Karte kaum übertaktbar ist! Was ist denn nun gewünscht? Soll die Karte schnell oder effizient sein?

Im Übrigen liegt das fehlende Übertaktungspotential wohl an den engen Grenzen, die AMD der 5600XT auferlegt, um die 5700 nicht zu gefährden. Lässt sich aber alles über SPPT ändern!
die 5600xt hab ich mir noch nicht angesehen. aber genau wie die v56 scheint es eher die ausnahme zu sein. hier scheint man günstige und effiziente produkte verkaufen zu können. da bin ich mir sicher das die produkte aber auch überzeugen werden im verkauf.

Nightspider
2020-01-22, 12:08:59
mczak,

Ich habe vor einigen Monaten irgendwo (weiß nicht mehr wo - glaube es war das pcgh Magazin) einen Test gesehen, bei dem für jeweils Navi und Turing versucht wurde, durch UV maximale Energieeffizienz zu holen. Turing hat gewonnen. Gut, samplesize 1 und so. Der Punkt ist, beide liegen verdammt nah aneinander. Lass es grob als Gleichstand bezeichnen.
Mit dem Unterschied, dass Navi mehr als ein Fullnodesprung Fertigungsvorteil hat. Das entspricht performancenormiert irgendwo zwischen 40-60% Verbrauchsreduktion. Da ist noch fett Potential in Navi vorhanden...

Ich hoffe AMD kann den Fertigungsvorteil (nächstes Jahr 5nm?) weiterhin nutzen um halbwegs konkurrieren zu können und mit besserer Architektur vielleicht mal knapp in Führung zu gehen oder wenigstens gute P/L zu bieten.

Machen wir uns nichts vor, Nvidia liefert nur alle 2 bis 2,5 Jahre eine neue Architektur, die dann meistens einen recht großen Sprung macht und Nvidias 7nm Karten werden mächtig drauflegen bei der Effizienz.

robbitop
2020-01-22, 12:26:20
Die 5600XT ist laut CB etwa 20% effizienter als die RTX 2060 FE. Würde NV die 2060 auf 7nm portieren und statt 50% Verbrauchsreduktion lieber den Takt um 25% anheben, wären beide etwa gleich effizient! Wie ich schon mehrfach angemerkt habe, ist dieses "aber Fullnode bringt 50% weniger Verbrauch" völliger Bullshit. NV wird ganz sicher nicht!!! nur den Verbrauchsvorteil des neuen Nodes nutzen sondern viel eher höhere Taktraten anpeilen! Und dann bringt der Fullnodesprung nur noch +25% bei der Effizienz und nicht +100%!!! Wäre ja auch völlig bescheuert, eine neue Grafikkarte herauszubringen, die die 25% Leistung liegen lässt, dafür aber nur noch halb soviel verbraucht wie der Vorgänger. Und bevor einer damit kommt: einfach die GPU zu verdoppeln bringt auch keine doppelte Leistung bei konstantem Verbrauch und verteuert die GPU wegen der Fläche deutlich mehr als ein kleinerer Die mit höheren Taktraten!
Ja natürlich ist der Betriebspunkt entscheident. Und je höher dieser ist, desto schlechter die Effizienz. Und natürlich wird NV den Vorteil von 7 nm auch in Performance investieren.
Aber Energieeffizienz ist ja nicht Verbrauch für sich genommen. Man kann zu gleichem Verbrauch eben auch mehr Performance haben. Einen so großen Fertigungsvorteil kann man nunmal nicht kleinreden.

Selbst AMD hat bei Renoir den 7 nm Sprung als relativ hoch in dem Energieeffizienzsprung in diesem Diagramm aufgezeigt:
https://www.planet3dnow.de/cms/wp-content/gallery/amd-2020-ces-update/AMD_2020_CES_Update_13.png

Die 5600XT läuft auf einem besseren Betriebspunkt als die 5700 XT. Zumindest ohne BIOS - Update. Endlich. (nachdem vor allem N14 relativ viel TDP für die gebotene Leistung brauchte, da unnötig hoch getaktet). In sofern ist man tatsächlich doch ein Stück besser als gedacht. Aber dennoch muss man konstatieren, dass der Energieeffizienzsprung von mehr als 1x Fullnode sehr groß ist und nicht wegzudiskutieren ist.
Für die üblichen ~150 / 200 / 250 W gibt es dann eben entsprechend mehr Transistoren und somit mehr Performance. Und so wie man NV kennt, werden idR relativ gute Betriebspunkte gewählt.

Ich hoffe AMD kann den Fertigungsvorteil (nächstes Jahr 5nm?) weiterhin nutzen um halbwegs konkurrieren zu können und mit besserer Architektur vielleicht mal knapp in Führung zu gehen oder wenigstens gute P/L zu bieten.

Machen wir uns nichts vor, Nvidia liefert nur alle 2 bis 2,5 Jahre eine neue Architektur, die dann meistens einen recht großen Sprung macht und Nvidias 7nm Karten werden mächtig drauflegen bei der Effizienz.
Ich bin mir relativ sicher, dass AMD kontinuierlich auch in der GPU Sparte aufholen wird. Das macht man bei der CPU Sparte und nun ist erkennbar die GPU Sparte dran. Zen spült glücklicherweise kontinuierlich Geld in die Kassen, so dass man wieder mehr Personal einstellen kann.
Am Ende gut für uns Endkunden, da wieder mehr Wettbewerb.

Mangel76
2020-01-22, 13:03:11
Ja natürlich ist der Betriebspunkt entscheident. Und je höher dieser ist, desto schlechter die Effizienz. Und natürlich wird NV den Vorteil von 7 nm auch in Performance investieren.
Aber Energieeffizienz ist ja nicht Verbrauch für sich genommen. Man kann zu gleichem Verbrauch eben auch mehr Performance haben. Einen so großen Fertigungsvorteil kann man nunmal nicht kleinreden.


Schau dir den CB-Test nochmal an: 5600XT rund 20% bei Performance pro Watt vor der 2060 Fe. Das entspricht etwa dem Leistungsvorteil von 7nm vs. 14/16nm. Und das ist Energieeffizienz, denn da ist neben dem Verbrauch auch die Leistung eingerechnet! Damit entspricht dies genau dem aktuellen Fertigungsvorteil von AMD gegenüber NVIDIA. Klar könnte man auch wieder behaupten, NV könnte auch die Leistung konstant halten und lieber den Verbrauch halbieren und wäre so wieder effizienter. Würden sie aber nicht tun, denn wer würde dann die neue Karte kaufen, die zwar langsamer als die 5600XT ist, dafür aber nur 90W statt 130W verbraucht?

Damit will ich nicht sagen, das der Touring-Nachfolger nicht auch wieder weniger verbrauchen kann bei gleicher Leistung als RDNA1. Das Problem sind die völlig überzogenen Erwartungen des Node-Sprunges (+50% Effizienz 1!11!!!), wenn gleichzeitig aber auch die Leistung steigen soll. Da wird dann gerne vergessen, dass es "entweder oder" und nicht "und" heißt. Zudem gibt es überhaupt keine genaue Definition für die "Effizienz einer GPU-Architektur", so dass man hier vernünftige Vergleiche anstellen kann.

Der_Korken
2020-01-22, 14:39:10
Klar könnte man auch wieder behaupten, NV könnte auch die Leistung konstant halten und lieber den Verbrauch halbieren und wäre so wieder effizienter. Würden sie aber nicht tun, denn wer würde dann die neue Karte kaufen, die zwar langsamer als die 5600XT ist, dafür aber nur 90W statt 130W verbraucht?


Die 2060 ist doch quasi schon so schnell wie 5600XT warum sollte sie plötzlich langsamer werden, wenn man die 7nm für eine Verbrauchsreduktion nutzt? Eine Halbierungs des Verbrauchs ist aber ohnehin unrealistisch, da das PCB, der VRAM und auch in begrenztem Maße auch die PHYs nicht von 7nm profitieren.


Das Problem sind die völlig überzogenen Erwartungen des Node-Sprunges (+50% Effizienz 1!11!!!), wenn gleichzeitig aber auch die Leistung steigen soll.

Was ist daran überzogen? Das ist bis einschließlich 16/14nm der Standard gewesen bei jedem Fullnode (zu denen ich 20nm und 10nm von TSMC nicht zuzähle). Pascal hatte sogar 40% mehr Takt und bei gleichem Verbrauch trotzdem noch 20% mehr ALUs untergebracht als Maxwell. Auch Polaris taktete 25% höher bei deutlich weniger Verbrauch pro CU. Möglich ist also vieles. Nur weil AMD mit V20 einfach den gesamten 7nm-Bonus in den Takt gepresst hat, um die Leistung pro mm² zu maximieren ohne die Architektur zu verbessern, ist das kein Naturgesetz für 7nm.

Mangel76
2020-01-22, 15:31:27
Die 2060 ist doch quasi schon so schnell wie 5600XT warum sollte sie plötzlich langsamer werden, wenn man die 7nm für eine Verbrauchsreduktion nutzt? Eine Halbierungs des Verbrauchs ist aber ohnehin unrealistisch, da das PCB, der VRAM und auch in begrenztem Maße auch die PHYs nicht von 7nm profitieren.

Fragst du das im Ernst? Was würdest du vorziehen? Eine 3060 mit gleicher Leistung(*) wie die 2060/5600XT, aber halbem Verbrauch? Oder doch die etwas schnellere 3060 mit gleichem Verbrauch? Und was meinst du, für welche Strategie sich NVIDIA entscheiden wird? Dazu noch die ganzen anderen Punkte, die du nennst. Eigentlich lieferst du hier die besten Argumente für meine Sichtweise, dass der Nachfolger der 2060 nicht die gleiche Leistung zum halben Verbrauch bringen wird. Ich sage doch auch, dass man nicht immer nur die Verbrauchshalbierung als Effekt des Nodesprunges sehen und AMD deshalb schon wieder abschreiben soll. NVIDIA wird den Nodesprung nicht (nur) zur Reduzierung des Verbrauchs bei gleicher Leistung nutzen, allein schon weil Fläche immer teurer wird.

(*) ich betrachte hier nur den Effekt des Nodesprunges!

Was ist daran überzogen? Das ist bis einschließlich 16/14nm der Standard gewesen bei jedem Fullnode (zu denen ich 20nm und 10nm von TSMC nicht zuzähle). Pascal hatte sogar 40% mehr Takt und bei gleichem Verbrauch trotzdem noch 20% mehr ALUs untergebracht als Maxwell. Auch Polaris taktete 25% höher bei deutlich weniger Verbrauch pro CU. Möglich ist also vieles. Nur weil AMD mit V20 einfach den gesamten 7nm-Bonus in den Takt gepresst hat, um die Leistung pro mm² zu maximieren ohne die Architektur zu verbessern, ist das kein Naturgesetz für 7nm.

Nochmal; es geht mir allein um "NV wird durch den Nodesprung schon 50% weniger verbrauchen", keine Architektureffekte und ähnliches. In letzterem Bereich traue ich ihnen einiges zu. Aber eine 3060 muss entweder deutlich höher takten oder einiges größer werden (oder etwas von beidem). Bei dem neuen und teuren Prozess wird man die Vorteile wohl eher beim Takt als beim Verbrauch nutzen, so dass die GPU ihre Leistungssteigerung (neben Architektur) eher aus dem Takt als der Größe zeihen wird. Dann ist der Effekt des Nodesprunges auf die Effizienz aber weit von "+100%" (=halber Verbrauch bei gleicher Leistung) entfernt und liegt eher in Richtung "+25%" (=+25% Leistung bei gleichem Verbrauch).

Big Lebowsky
2020-01-22, 15:49:02
Ein ganz wichtiger Punkt bei der Spekulation sind die aktuell gigantischen Chipgrößen bei Nvidia. In 12nm lassen sich diese anscheinend noch zu moderaten Preisen produzieren. In 7nm+ wird das nicht mehr der Fall sein.
Die Chipgrößen werden wohl wieder kleiner werden müssen um Stückzahlen und die Gewinne für NVIDIA hoch zu halten.
Wenn dann auch noch Raytracing stark ausgebaut wird, bleibt für den konventionellen Grafikteil nicht mehr so viel an zusätzlichem Transistorbudget übrig.
Da AMD ihnen mit RDNA2 technologisch wieder im Nacken hängt, ist es wahrscheinlich, dass NVIDIA diesmal einen Takt oberhalb des Effizienzmaximums wählt um sich die Leistungskrone zu sichern

Der_Korken
2020-01-22, 16:02:29
Wenn beides gleich viel kostet vermutlich die 25% schnellere 3060 als die 50% sparsamere.

Ich glaube aber trotzdem, dass Nvidia auch sehr viel von der Sparsamkeit mitnimmt, weil sie sonst oben raus ein Problem mit ihrem Lineup haben. Die Chips einer Serie haben alle die selben Architektur, d.h. du kannst nicht gleichzeit kleine Chips haben mit maximaler Leistung aus minimaler Chipfläche und minimaler Effizienz und dann aber plötzlich große Chips, die breiter aber dafür deutlich effizienter sind. Natürlich wird über den Takt schon geregelt, sonst könnte ein TU102 nicht nur 50% mehr verbrauchen als ein halb so breiter TU106. Hätte Nvidia nur den TU106 entwickelt, hätten sie sicher noch 10% Fläche sparen können, indem man taktbarkeit opfert, die man einfach über mehr Verbrauch kompensiert. Den Kunden interessiert das, wie du sagst, nur sekundär, ob eine 2070 jetzt 180 oder 250W verbraucht. Allerdings wäre es auf dieser Basis dann nicht mehr möglich gewesen einen TU102 mit gangbaren Verbrauch zu bringen, denn 250-300W sind einfach die Obergrenze dessen, was eine Highend-Karte verbrauchen kann. Im Umkehrschluss wird die 3060 also deswegen kein Schluckspecht werden, weil eine 3080Ti sonst gar nicht realisierbar wäre. Imho.

Dass Nvidia nicht nur auf -50% Power geht, ist natürlich auch klar, aber es ist eben auch nicht so, dass die einfach alles in +25% Takt reinbuttern und man deswegen sagen kann dass sich die Perf/W nur um 25% verbessern, was kaum besser als die Effizienz der 5600XT wäre.

Für Navi würde das auch bedeuten, dass AMD auf RDNA1-Basis keinen großen Chip gebracht hat, weil die Effizienz dafür nicht gut genug ist. Oder dass auf Effizienz keinen Wert gelegt wurde, weil eh kein großer Chip geplant war, für den die erforderlich gewesen wäre.

Bucklew
2020-01-22, 16:07:56
Eine 3060 mit gleicher Leistung(*) wie die 2060/5600XT, aber halbem Verbrauch? Oder doch die etwas schnellere 3060 mit gleichem Verbrauch? Und was meinst du, für welche Strategie sich NVIDIA entscheiden wird?
Das wird auch die Charakteristik ankommen. Wir kennen ja die Strategie von NVIDIA, immer am SweetSpot zu arbeiten. Wenn also der Sweetspot für die kommendene 3060 mehr Leistung, aber auch reduzierter Verbrauch ist, dann wird NVIDIA dies tun. Entscheidend für NVIDIA ist nicht mehr Perf, sondern Perf/Watt.

Ein ganz wichtiger Punkt bei der Spekulation sind die aktuell gigantischen Chipgrößen bei Nvidia. In 12nm lassen sich diese anscheinend noch zu moderaten Preisen produzieren. In 7nm+ wird das nicht mehr der Fall sein.
Die Chipgrößen werden wohl wieder kleiner werden müssen um Stückzahlen und die Gewinne für NVIDIA hoch zu halten.
Der Chip wird alleine durch den 7nm Prozess kleiner. Und zwar massiv.

Für Navi würde das auch bedeuten, dass AMD auf RDNA1-Basis keinen großen Chip gebracht hat, weil die Effizienz dafür nicht gut genug ist. Oder dass auf Effizienz keinen Wert gelegt wurde, weil eh kein großer Chip geplant war, für den die erforderlich gewesen wäre.
Navi10 ist bereits bei 225W, selbst ein 1,5x so großer Chip läge bereits bei fast 350W. Da muss natürlich ein größerer Chip deutlich an Perf/Watt zulegen.

Langlay
2020-01-22, 16:39:32
Navi10 ist bereits bei 225W, selbst ein 1,5x so großer Chip läge bereits bei fast 350W. Da muss natürlich ein größerer Chip deutlich an Perf/Watt zulegen.

Der grosse Chip wird auch nicht auf den Taktraten von der 5700XT laufen sondern eher auf dem Takt der 5700 non-XT oder noch weniger. Dann kriegste dann auch 2x Navi 10 in 300W TDP.


100Mhz weniger Takt machen schon recht grosse Unterschiede im Verbrauch aus. Meine Radeon VII spart ~20% Saft bei Zielfrequenz 1700 statt 1800 MHz und bei meiner 5700 ist das ein Hauch weniger aber in der gleichen Grössenordung.

Mangel76
2020-01-22, 16:47:47
Der Verbrauchsvorteil wird natürlich auch genutzt werden, um die GPUs breiter zu machen, ohne wird es nicht gehen. Aber angesichts der Größe der aktuellen GPUs wird man damit vermutlich sparsamer umgehen und Leistung eher aus höherem Takt ziehen wollen. Im fertigen Produkt werden wir eine Mischung aus mehr Einheiten, höherem Takt und verbesserter Architektur sehen. Und je nachdem, wie NVIDIA diese 3 Aspekte gewichtet, werden die Vorteile des neuen Nodes anders eingesetzt. Im Normalfall hat man pro Leistungsklasse auch ein Verbrauchsziel, etwa 250W bei Enthusiast. Und dann wird man sehen, wie viele Einheiten bei welchem Takt in dieses Budget und ins Flächenbudget passen.

unl34shed
2020-01-22, 16:59:52
Der Chip wird alleine durch den 7nm Prozess kleiner. Und zwar massiv.

Ja das schon, aber eine 2080 ti wär dennoch ca 470mmw groß.da bleiben bei brauchbarer Yield vielleicht noch 20% mehr Fläche.

Neurosphere
2020-01-22, 17:40:07
Ja das schon, aber eine 2080 ti wär dennoch ca 470mmw groß.da bleiben bei brauchbarer Yield vielleicht noch 20% mehr Fläche.


Nein, das muss falsch sein. Alleine rein rechnerisch liegen zwischen 7nm und 12nm fast Faktor drei bei der Fläche.

Würde also ganz krass bedeuten der Tu102 der 2080ti käme noch auf knapp 260mm².

Brillus
2020-01-22, 18:11:06
Nein, das muss falsch sein. Alleine rein rechnerisch liegen zwischen 7nm und 12nm fast Faktor drei bei der Fläche.

Würde also ganz krass bedeuten der Tu102 der 2080ti käme noch auf knapp 260mm².

Dir ist schon bewusdt das die nm nicht mit der wirklichen Packdichte zu tun haben? Das ist nur noch Marketing.

unl34shed
2020-01-22, 18:15:01
Du hast jetzt nicht wirklich 7²/12² gerechnet oder?

Die nm angeben sind seit Jahren nur noch Marketing und haben mit den realen Strukturen wenig zu tun. Hinzu kommen Effekte, wie der IO, der sich nicht nennenswert verkleinern lässt.

Realistisch sind die Werte von AMD zu nehmen, die kwmen wie Nvidia auf ca 25M Transistoren/mm2 in 14 nm und sind jetzt bei 40M/mm2. Ein ähnlichen Shrink kann man bei Nvidia auch erwarten und dann landet man bei 470mm2.

E: Noch anzumerken wäre, dass die Packdichte bei Nvidia immer etwas kleiner als bei AMD ist, so sind 12nm von Nvidia gleich dicht gepackt wie 14 bei AMD.
Also kann man auch davon ausgehen, dass ein Paar Prozent die 7P oder 7+ noch bringen würden, bei Nvidia eher zu Packdichten in der Region von Navi/V7 führen.

basix
2020-01-22, 18:25:11
schau mal den mehrverbrauch der 5700 zur 5600XT an... die beiden speichersteine werdens kaum sein... auch der vergleich 5600XT 1.0 vs. 5600XT 1.1, das mehr an speichertakt bzw. der höhere takt vom IMC haut richtig rein... das teil ist nen purer säufer.

Hast du auch daran gedacht, dass der on-chip Infinity Fabric niedriger takten könnte bei 12 GT/s und der geringere Verbrauch davon kommen könnte? IF ist ja nicht gerade als Stromsparwunder bekannt und schon bei Vega gab es Aussagen dazu, dass IF eigentlich nicht so optimal ist für GPUs was Stromverbrauch angeht (von Raja Koduri höchstselbst).

Die Frage ist einfach, ob der IF mit niedriger Spannung läuft, wenn man bei einer 5700 den Speichertakt reduziert. Dann könnte man das testen.

maximus_hertus
2020-01-22, 18:43:01
Navi10 ist bereits bei 225W, selbst ein 1,5x so großer Chip läge bereits bei fast 350W. Da muss natürlich ein größerer Chip deutlich an Perf/Watt zulegen.

Ich sehe da sogar nur 130W. Klar, ein Salvage, trotzdem ein Navi 10 mit fast 5700 Leistung. 2 x 5600XT, 384bit, 12GB und man liegt bei ca 250W bzw komfortabel (15-25%) vor der 2080 Ti bzw wohl eine gute Punktlandung bei der (aktuell spekulierten) 3080 (ampere ca +50% fps).

mczak
2020-01-22, 19:05:05
Mit dem Unterschied, dass Navi mehr als ein Fullnodesprung Fertigungsvorteil hat. Das entspricht performancenormiert irgendwo zwischen 40-60% Verbrauchsreduktion. Da ist noch fett Potential in Navi vorhanden...
Zweifellos hat nvidia da einen Vorteil (bin mal gespannt auf Ampere...).
Eigentlich müssten auch Vergleiche mit Notebookchips etwas Aufschluss bieten, operieren die doch deutlich näher an optimalen Betriebspunkten. Wirklich direkt vergleichbare Werte habe ich aber noch nicht gesehen...

Rampage 2
2020-01-22, 19:07:10
Du hast jetzt nicht wirklich 7²/12² gerechnet oder?

Die nm Angaben sind seit Jahren nur noch Marketing und haben mit den realen Strukturen wenig zu tun. Hinzu kommen Effekte, wie der IO, der sich nicht nennenswert verkleinern lässt.


Mir wurde vor ein paar Jahren hier im Forum erklärt, dass die Skalierung im besten Fall 0.333x (also 3x), aber wenigstens immerhin 0.4x (also 2.5x) zwischen 7nm und 16nm ist. Turing ist 12nm, also ein verbesserter 16nm - wie kleiner ist hier die Skalierung vgl. mit Pascal (16nm)?

Ausgehend vom TU102 wären das ~ 302mm^2 bei einem reinem Die-Schrink. Da sollten 90CUs locker machbar und das absolute Minimum (+25% sowie Verdopplung der RT-Cores) sein - rein rechnerisch würden das 377mm^2 ergeben; wenn man noch verdoppelte RT- und Tensor-Cores hinzurechnet, sollte es immer noch bei +- 400mm^2 landen. Da wäre also immer noch etwas Luft nach oben für ein paar SMs mehr, zumal 7nm+ EUV nochmal 10-20% höhere Packdichte ggü. 7nm ermöglicht...

450-500mm^2 wird sich Nvidia bestimmt gönnen können analog zu GP102 (471mm^2) ;)

Bei Navi 2X auch hier wieder mindestens 10% Flächenersparnis durch 7nm+ EUV, also rein rechnerisch ca. 460mm^2 für eine glatte Verdopplung auf 80CUs. Plus 10-20% zusätzliche Die-Fläche für den RT/TC-Kram und man würde auf ~ 500mm^2 kommen, wie derzeit ja auch spekuliert wird (505mm^2). Wenn AMD es schafft, durch Architekturverbesserungen die Packdichte und Energieeffizienz noch weiter zu verbessern, wäre auch ein 96CU-Chip @ +- 550mm^2 denkbar, um den AM102 Paroli bieten zu können:)

R2

aufkrawall
2020-01-22, 19:26:17
Turing ist 12nm, also ein verbesserter 16nm - wie kleiner ist hier die Skalierung vgl. mit Pascal (16nm)?

https://www.techpowerup.com/gpu-specs/nvidia-tu116.g902
https://www.techpowerup.com/gpu-specs/nvidia-gp106.g797
~Gar nicht, er braucht nur noch weniger Spannung. <0,9V bei >1,9GHz dürfte keine Seltenheit sein, das kann man mit 7nm Navi vergessen. Wäre das anders, würde Navi bei der Effizienz mit Turing den Boden wischen.

robbitop
2020-01-22, 20:25:03
Schau dir den CB-Test nochmal an: 5600XT rund 20% bei Performance pro Watt vor der 2060 Fe. Das entspricht etwa dem Leistungsvorteil von 7nm vs. 14/16nm. Und das ist Energieeffizienz, denn da ist neben dem Verbrauch auch die Leistung eingerechnet! Damit entspricht dies genau dem aktuellen Fertigungsvorteil von AMD gegenüber NVIDIA. Klar könnte man auch wieder behaupten, NV könnte auch die Leistung konstant halten und lieber den Verbrauch halbieren und wäre so wieder effizienter. Würden sie aber nicht tun, denn wer würde dann die neue Karte kaufen, die zwar langsamer als die 5600XT ist, dafür aber nur 90W statt 130W verbraucht?

Damit will ich nicht sagen, das der Touring-Nachfolger nicht auch wieder weniger verbrauchen kann bei gleicher Leistung als RDNA1. Das Problem sind die völlig überzogenen Erwartungen des Node-Sprunges (+50% Effizienz 1!11!!!), wenn gleichzeitig aber auch die Leistung steigen soll. Da wird dann gerne vergessen, dass es "entweder oder" und nicht "und" heißt. Zudem gibt es überhaupt keine genaue Definition für die "Effizienz einer GPU-Architektur", so dass man hier vernünftige Vergleiche anstellen kann.

20% reichen nicht. Schaue dir an was AMD für Renoir angegeben hat. Nochmal: das ist mehr als ein Fullnodesprung. Das geht in Richtung >1,5 Fullnodes. 50% weniger Verbrauch leistungsnormiert ist das gleiche wie 50% mehr Transistoren bei gleichem Verbrauch ist das gleiche wie 50% mehr Energieffizienz.

Der_Korken
2020-01-22, 21:04:24
50% weniger Verbrauch leistungsnormiert ist das gleiche wie 50% mehr Transistoren bei gleichem Verbrauch ist das gleiche wie 50% mehr Energieffizienz.

Ist 100% weniger Verbrauch (also gar kein Verbrauch) dann auch das gleiche wie 100% mehr Energieeffizienz? ;)

Mangel76
2020-01-22, 23:30:27
20% reichen nicht. Schaue dir an was AMD für Renoir angegeben hat. Nochmal: das ist mehr als ein Fullnodesprung. Das geht in Richtung >1,5 Fullnodes. 50% weniger Verbrauch leistungsnormiert ist das gleiche wie 50% mehr Transistoren bei gleichem Verbrauch ist das gleiche wie 50% mehr Energieffizienz.

Als gelernter Mathelehrer muss ich sagen: 6, setzen.

50% weniger Verbrauch bedeuten 100% mehr Transistoren bei gleichem Verbrauch. Die Effizienz steigt jedoch um weniger als 100%, da es keine perfekte Skalierung gibt. Und trotzdem werden wir keine Verdopplung in der neuen Generation sehen. Das würde die GPUs viel zu groß und teuer machen. Viel eher werden weniger dafür aber höher getaktete Transistoren genutzt, so dass zu einem gewissen Teil der Leistungs- statt Verbrauchsvorteil genutzt werden wird. Die Leistung in 7nm steigt aber verbrauchsnormiert nur um 25%. Auch AMD könnte schließlich größere GPUs bei geringerem Takt bauen, sagt aber über Effizienz der Architektur RDNA genauso viel aus wie der Vergleich bei willkürlichen Betriebspunkten. Gerade letzteres sieht man ja an 5600XT/5700. Wie die Effizienz bei Ampere aussehen wird, hängt neben dem Fertigungssprung von den Architekturfortschritten und von den ökonomischen Entscheidungen über Einheitenzahl und Taktraten an.

x-force
2020-01-22, 23:41:01
es wird schon seit langem das gebaut, was kühlbar ist.
bei gegebenem prozess ist damit auch der verbrauch festgelegt.

was kleinere karten brauchen, hängt dann lediglich damit zusammen wo diese positioniert werden.

BlacKi
2020-01-23, 00:46:42
https://www.techpowerup.com/gpu-specs/nvidia-tu116.g902
https://www.techpowerup.com/gpu-specs/nvidia-gp106.g797
~Gar nicht, er braucht nur noch weniger Spannung. <0,9V bei >1,9GHz dürfte keine Seltenheit sein, das kann man mit 7nm Navi vergessen. Wäre das anders, würde Navi bei der Effizienz mit Turing den Boden wischen.
das war dann der punkt wo lederjacke meinte sie brauchen nen angepassten prozess, 7nm den tsmc angeboten hat wäre zu unattraktiv.

Ich sehe da sogar nur 130W. Klar, ein Salvage, trotzdem ein Navi 10 mit fast 5700 Leistung. 2 x 5600XT, 384bit, 12GB und man liegt bei ca 250W bzw komfortabel (15-25%) vor der 2080 Ti bzw wohl eine gute Punktlandung bei der (aktuell spekulierten) 3080 (ampere ca +50% fps).
klar kann man das machen. aber das kostet marge. denn salvage chips die voll funktionstüchtig sind kosten nunmal marge, und später muss man dann vom big navi auch noch salvage chips anbieten, was noch mehr marge kostet.

kann man machen, wieviel marge übrig bleibt bleibt ungewiss.

OC_Burner
2020-01-23, 01:25:33
schau mal den mehrverbrauch der 5700 zur 5600XT an... die beiden speichersteine werdens kaum sein... auch der vergleich 5600XT 1.0 vs. 5600XT 1.1, das mehr an speichertakt bzw. der höhere takt vom IMC haut richtig rein... das teil ist nen purer säufer.

Hast du auch daran gedacht, dass der on-chip Infinity Fabric niedriger takten könnte bei 12 GT/s und der geringere Verbrauch davon kommen könnte? IF ist ja nicht gerade als Stromsparwunder bekannt und schon bei Vega gab es Aussagen dazu, dass IF eigentlich nicht so optimal ist für GPUs was Stromverbrauch angeht (von Raja Koduri höchstselbst).

Die Frage ist einfach, ob der IF mit niedriger Spannung läuft, wenn man bei einer 5700 den Speichertakt reduziert. Dann könnte man das testen.

Vor zwei Tagen ist mir mit einer Thermal Kamera auch aufgefallen, dass die Memory Interfaces ziemlich zu heizen scheinen. Der Chip lief komplett ohne Kühler bei geringer Auslastung. Die Taktraten schwanken ziemlich stark, wobei der Speichertakt häufig die 1000MHz übersteigt (GPU Load ~15% / MemController Load ~5% / GPU Power Draw ~20W). Der Versuch ist natürlich weit von Praxisbedingungen entfernt und zeigt wohlmöglich nicht die thermischen Hotspots mit aufliegendem Kühler und hoher Auslastung.

https://www.grafik-feti.de/ftp/Die-Shots/attempt/pics/Navi10FurmarkTest.gif

Leonidas
2020-01-23, 04:31:47
btw. wurde das schon behandelt hier?:
https://www.heise.de/newsticker/meldung/Namenlose-AMD-Radeon-Grafikkarte-schlaegt-GeForce-RTX-2080-Ti-in-OpenVR-Benchmark-4632752.html


Ja, mehrere Seiten vorher.

robbitop
2020-01-23, 11:05:04
Als gelernter Mathelehrer muss ich sagen: 6, setzen.
Ja, da hast du Recht.

Die Leistung in 7nm steigt aber verbrauchsnormiert nur um 25%.
Wo hast du die 25% her?

Auch AMD könnte schließlich größere GPUs bei geringerem Takt bauen, sagt aber über Effizienz der Architektur RDNA genauso viel aus wie der Vergleich bei willkürlichen Betriebspunkten. Gerade letzteres sieht man ja an 5600XT/5700. Wie die Effizienz bei Ampere aussehen wird, hängt neben dem Fertigungssprung von den Architekturfortschritten und von den ökonomischen Entscheidungen über Einheitenzahl und Taktraten an.
Ja, dass der Betriebspunkt einen z.T. gewaltigen Einfluss üben kann ist mir klar und proklamiere ich oft genug selbst.
Mir geht es aber um normierte Werte. Prozessnormiert, Betriebspunktnormiert. Und ja diesen Vorteil kann man entweder völlig für Performance aufbrauchen oder für Transistoren. Wenn man es für Takt aufbraucht, dann ist der Zusammenhang sicherlich nicht-linear. Bei Transistoren geht es in eine lineare Richtung.

NV ist eigentlich relativ konsistent was ihre Betriebspunkte im Topdog angeht.

GF110: 244W / 100% Performance / 40 nm
GK110: 250 W / 257 % Performance / 28 nm
GM200: 250 W / 393% Performance / 28 nm
GP102: 250 W / 652 % Performance / 16 nm
TU102: 250 W / 880 % Performance / 12 nm

Aus den 250 W versuchen sie so viel Performance wie möglich zu holen (natürlich mit einer sinnvollen Spannungsmarge für Fertigungsschwankungen). Bedeutet Energieeffizienz für diesen Betriebspunkt zu maximieren.
Entsprechend investieren sie meistens (aber nicht immer) primär mehr Transistoren, welche in Performance münden. Die uArch hat natürlich auch einen großen Einfluss. 50% Verbrauch bei Performance ISO ist schon (selbst wenn eine synthetische Angabe) ein Brett. Auch wenn man in mehr Takt und in mehr Transistoren investiert und ggf. den Betriebspunkt verschlechtert, sehe ich 25% Energieeffizienz als plus etwas zu konservativ.
Für AMD machte es aus einer 4C APU für 15W eine 8C APU für 15W. Im Desktop hat man aus 8C -> 16C bei gleicher TDP gemacht - bei sogar höherer pro Core Performance.
7 nm ist ein großer Shrink und große Shrinks brachten bei gleicher TDP schon immer deutliche Leistungszuwächse im Nachfolgeprodukt (sofern nicht wie bei Vega 7 einfach nur plump die Taktrate hochgezogen wurde).

Ich gehe davon aus, dass NV den 102 Topdog auch wieder für 250W auslegt und dieser 40...60% schneller als TU102 werden wird. Sagen wir 50%. Aus einer Mischung aus Transistorsteigerung und Taktratensteigerung. Dann haben wir 50% mehr Energieeffizienz für AM102 vs TU102. ;)
25% sind für 1,5 Fullnodes mMn sehr sehr pessimistisch.

Quellen:
TDP - Techpowerup Database
Performancewerte von CB:
https://www.computerbase.de/2017-01/geforce-gtx-780-980-ti-1080-vergleich/2/
https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/2/
https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/3/

aufkrawall
2020-01-23, 11:19:16
Hatte da jemand keinen Bock auf Black Screens etc.? :freak:
https://www.matrox.com/graphics/en/press/releases/2020/nvidia-partnership-graphics-cards-video-walls/

Bucklew
2020-01-23, 11:31:18
Ich gehe davon aus, dass NV den 102 Topdog auch wieder für 250W auslegt und dieser 40...60% schneller als TU102 werden wird. Sagen wir 50%. Aus einer Mischung aus Transistorsteigerung und Taktratensteigerung. Dann haben wir 50% mehr Energieeffizienz für AM102 vs TU102.
This :up:

Alles drunter skaliert entsprechend. Wenn man die (relative) xx60 Performance mit weniger Leistungsaufnahme hin kriegt als mit der aktuellen Gen, dann macht man das natürlich. Wenn man eine höhere braucht, nimmt man die eben in Kauf.

SKYNET
2020-01-23, 11:53:58
Ja, mehrere Seiten vorher.

ergebniss? keine lust zu suchen X-D

Bucklew
2020-01-23, 11:57:00
ergebniss? keine lust zu suchen X-D
War tatsächlich ne NVIDIA-Karte und OpenVR hat versehentlich die iGPU in der AMD-CPU ausgelesen:
https://www.heise.de/forum/heise-online/News-Kommentare/Namenlose-AMD-Radeon-Grafikkarte-schlaegt-GeForce-RTX-2080-Ti-in-OpenVR-Benchmark/Update-War-woh-nix-Siehe-PCGH-de/posting-35910790/show/
Hab den Hype da eh nicht verstanden (klar, die üblichen AMD-Fanboys, aber seriously?!) schließlich war eine 2070 immer noch schneller und eine 1660Ti auch in der Nähe. Da sieht doch jeder, dass das der Benchmark für die Tonne ist.

unl34shed
2020-01-23, 13:01:46
War tatsächlich ne NVIDIA-Karte und OpenVR hat versehentlich die iGPU in der AMD-CPU ausgelesen:
https://www.heise.de/forum/heise-online/News-Kommentare/Namenlose-AMD-Radeon-Grafikkarte-schlaegt-GeForce-RTX-2080-Ti-in-OpenVR-Benchmark/Update-War-woh-nix-Siehe-PCGH-de/posting-35910790/show/
Hab den Hype da eh nicht verstanden (klar, die üblichen AMD-Fanboys, aber seriously?!) schließlich war eine 2070 immer noch schneller und eine 1660Ti auch in der Nähe. Da sieht doch jeder, dass das der Benchmark für die Tonne ist.

1. Nur weil diese CPU in einem Notebook verbaut wurde, muss das nicht bedeuten, dass es dieses Notebook war. Welche GPU, ob AMD oder Nvidia, ist weiterhin nicht bekannt.

2. Schau dir die Auflösung an, dann verstehst du auch, warum eine 2070/1660 so weit vorne sind....

Bucklew
2020-01-23, 13:12:24
1. Nur weil diese CPU in einem Notebook verbaut wurde, muss das nicht bedeuten, dass es dieses Notebook war. Welche GPU, ob AMD oder Nvidia, ist weiterhin nicht bekannt.
Steht im verlinkten PCGH Artikel erklärt.

Ist übrigens ne NVIDIA GPU ;D

unl34shed
2020-01-23, 13:21:02
Steht im verlinkten PCGH Artikel erklärt.

Ist übrigens ne NVIDIA GPU ;D

Lese ich einen falschen Artikel? Da steht auch nur hätte, könnte und vielleicht. Von Software Fehler über big Navi bis zu Ampere wird auch nur spekuliert..... Falls du natürlich mehr wissen solltest, schön für dich, mit den gegebenen Informationen ist es eben nicht klar.

robbitop
2020-01-23, 13:21:08
Das mit dem Notebook macht in vielerlei Hinsicht zu dem Ergebnis keinen Sinn. 30% schneller als eine reguläre 2080ti in einem Notebook mit AMD APU - schon so weit, dass man es testen kann? Unwahrscheinlich. Als Thunderbolt eGPU -> niemals TB3 bremst wie die Hölle.

Irgendwas stimmt da nicht.

DeadMeat
2020-01-23, 13:24:03
In dem Artikel steht ja auch ganz klar das es vollkommen unbekannt ist und es keinerlei hinweise gibt wie das zustande kommt, einzig das der String auf einen Laptop hinweisen könnte, wobei auch das nicht vollkommen klar ist.
Eine OC oder schnellere 2080TI ist wahrscheinlich, aber eher nicht in einem Laptop.

Bucklew
2020-01-23, 14:07:22
Das Ergebnis ist grundsätzlich in Frage zu stellen. Egal ob Laptop, Big Navi oder 2080Ti.

Leonidas
2020-01-23, 14:29:05
Lese ich einen falschen Artikel? Da steht auch nur hätte, könnte und vielleicht. Von Software Fehler über big Navi bis zu Ampere wird auch nur spekuliert..... Falls du natürlich mehr wissen solltest, schön für dich, mit den gegebenen Informationen ist es eben nicht klar.


Es steht zumindest drin, das es so viele Bedenken zu diesem Benchmark-Wert gibt, das man auf jenen besser nicht setzen sollte.

PS: Wie Vorredner ;)

Mangel76
2020-01-23, 15:33:24
Ja, da hast du Recht.


Wo hast du die 25% her?


Ja, dass der Betriebspunkt einen z.T. gewaltigen Einfluss üben kann ist mir klar und proklamiere ich oft genug selbst.
Mir geht es aber um normierte Werte. Prozessnormiert, Betriebspunktnormiert. Und ja diesen Vorteil kann man entweder völlig für Performance aufbrauchen oder für Transistoren. Wenn man es für Takt aufbraucht, dann ist der Zusammenhang sicherlich nicht-linear. Bei Transistoren geht es in eine lineare Richtung.

NV ist eigentlich relativ konsistent was ihre Betriebspunkte im Topdog angeht.

GF110: 244W / 100% Performance / 40 nm
GK110: 250 W / 257 % Performance / 28 nm
GM200: 250 W / 393% Performance / 28 nm
GP102: 250 W / 652 % Performance / 16 nm
TU102: 250 W / 880 % Performance / 12 nm

Aus den 250 W versuchen sie so viel Performance wie möglich zu holen (natürlich mit einer sinnvollen Spannungsmarge für Fertigungsschwankungen). Bedeutet Energieeffizienz für diesen Betriebspunkt zu maximieren.
Entsprechend investieren sie meistens (aber nicht immer) primär mehr Transistoren, welche in Performance münden. Die uArch hat natürlich auch einen großen Einfluss. 50% Verbrauch bei Performance ISO ist schon (selbst wenn eine synthetische Angabe) ein Brett. Auch wenn man in mehr Takt und in mehr Transistoren investiert und ggf. den Betriebspunkt verschlechtert, sehe ich 25% Energieeffizienz als plus etwas zu konservativ.
Für AMD machte es aus einer 4C APU für 15W eine 8C APU für 15W. Im Desktop hat man aus 8C -> 16C bei gleicher TDP gemacht - bei sogar höherer pro Core Performance.
7 nm ist ein großer Shrink und große Shrinks brachten bei gleicher TDP schon immer deutliche Leistungszuwächse im Nachfolgeprodukt (sofern nicht wie bei Vega 7 einfach nur plump die Taktrate hochgezogen wurde).

Ich gehe davon aus, dass NV den 102 Topdog auch wieder für 250W auslegt und dieser 40...60% schneller als TU102 werden wird. Sagen wir 50%. Aus einer Mischung aus Transistorsteigerung und Taktratensteigerung. Dann haben wir 50% mehr Energieeffizienz für AM102 vs TU102. ;)
25% sind für 1,5 Fullnodes mMn sehr sehr pessimistisch.

Quellen:
TDP - Techpowerup Database
Performancewerte von CB:
https://www.computerbase.de/2017-01/geforce-gtx-780-980-ti-1080-vergleich/2/
https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/2/
https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/3/

Dann sind wir uns doch komplett einig. Eine Steigerung um 50% bei der Effizienz halte ich für absolut möglich. Die beschworene Verbrauchshalbierung bei gleicher Leistung impliziert jedoch eine Verdoppelung der Effizienz, was dann einige zu Aussagen wie "die wischen mit AMD den Boden auf" verleiten.

Die 25% sind das, was immer als Leistungsvorteil von 7nm bei AMD genannt wurde, soweit ich mich erinnere. Es hieß doch immer +25% Leistung bei gleichem Verbrauch oder gleiche Leistung bei halbem Verbrauch. Leider finde ich das auf die Schnelle nicht mehr.

Ich gehe auch davon aus, das der nächste 102 wieder etwa 250W TDP haben wird. Fehlt nur noch die Strategie, ob lieber kleineres Die mit höherem Takt (höhere Marge, weniger Fehleranfällig) oder größeres Die mit geringerem Takt (was wäre hier eigentlich der Vorteil???).

Was ich mich noch frage ist, wie der Vorteil von 7nm+ gegenüber 12FFN ist. Hier meinte jemand, dass 12FFN hochoptimiert für NVIDIA ist. Indiz dafür sind die sehr geringen Spannungen bei Touring im Vergleich zu AMD-GPUs. In dem Fall könnte der Sprung von 12FFN zum Standard-7nm+ doch geringer werden als erwartet. Oder sie lassen sich doch wieder einen eigenen Prozess basteln, was aber sicher den Start noch weiter nach hinten verschieben würde.

Bucklew
2020-01-23, 15:36:28
Es hieß doch immer +25% Leistung bei gleichem Verbrauch oder gleiche Leistung bei halbem Verbrauch. Leider finde ich das auf die Schnelle nicht mehr.
Also entweder Faktor 1,25 an Leistung oder Faktor 0,5 an Leistungsaufnahme?

Das ergibt sehr wenig Sinn.

Indiz dafür sind die sehr geringen Spannungen bei Touring im Vergleich zu AMD-GPUs.
Das kann - und wird - aber auch dem besseren Binning bei NVIDIA geschuldet sein. Selbst im gleichen Herstellungsprozess in 14nm war NVIDIA deutlich niedriger in der Spannung, als AMD.

B@ndit
2020-01-23, 16:09:05
Das ist doch alles garnicht so kompliziert:

Die 25% mehr "Leistung" beziehen sich mehr oder weniger auf die Transistoren, nicht auf einen hypothetischen Chip und bedeuten im Endeffekt: Schrinkt man einen bestehenden Chip von 14 nm auf 7 nm kann man ihn bei gleichem Verbrauch mit einem 25% höheren Takt bei gleicher Leistungsaufnahme betreiben (=+25% Effizienz). Die Transistorenzahl ändert sich dabei nicht, daher wird der Chip deutlich kleiner. Das hat AMD mit V20 ungefähr getan (V10 + DP).

Umgekehrt kann man allerdings auch den geshrinkten Chip bei den gleichen Taktraten betrieben wie zuvor, dabei vebraucht er dann nur noch die Hälfte (=+100% Effizienz). (Kann man mit V20 glaube ich auch ungefähr nachstellen)

Allerdings ist es natürlich möglich den Chip nicht einfach zu shrinken, sondern die Transistorenzahl (und damit die CUs) zu erhöhen. Verdoppelt man diese und behält die Taktraten bei, hat man die doppelte theoretische Rechenleistung bei gleichem Verbrauch (=doppelte Effizienz = +100%). Allerdings gibt es zwei Nachteile:

3D-Anwendungen skalieren meist nicht linear mit der Shaderanzahl und es kommt daher am Ende nicht die doppelte Grafikleistung zu stande.
Und noch viel wichtiger: Der Chip wird kaum kleiner. (da muss man dann über die tatsächliche Pakdichte rechnen) Das führt bei höheren Kosten je mm2 zu einem deutlich teureren Chip.


Quintessenz des Ganzen: Nvidia könnte eventuell durchaus die Energieeffizienz verdoppeln, bräuchte dazu aber einen ziemlich großen Chip, der in 7 nm extrem teuer und aufgrund des Yields schwer zu produzieren wäre. Man kann daher davon ausgehen, dass man die Prozessvorteile zum Teil in mehr Takt und zum Teil in mehr Recheneinheiten investiert. Zusammen mit Archtitekturverbesserungen wird da schon eine (Effizienz-)Steigerung um die 50% zusammenkommen (und damit auch +50% bei gleichem Verbrauch), vielleicht auch etwas mehr wenn man die Tabelle oben betrachtet.

Was ich mich dabei allerdings frage: Warum hat AMD V20 nicht in einer Version mit 1,5GHz und 150 Watt auf eine Dual-Chip Karte für HPC gebaut? Da gibt es im Vergleich zu 3D-Anwendungen keine Probleme und man hätte die Effizienz gegenüber V10 tatsählich verdoppelt, was man von der 1,8 GHz 300 Watt Lösung ja nicht behaupten kann. Klar die Karte wäre dadurch recht teuer, aber für Server hätte es sich eventuell trotzdem gelohnt.

davidzo
2020-01-23, 16:37:45
Vor zwei Tagen ist mir mit einer Thermal Kamera auch aufgefallen, dass die Memory Interfaces ziemlich zu heizen scheinen. Der Chip lief komplett ohne Kühler bei geringer Auslastung. Die Taktraten schwanken ziemlich stark, wobei der Speichertakt häufig die 1000MHz übersteigt (GPU Load ~15% / MemController Load ~5% / GPU Power Draw ~20W). Der Versuch ist natürlich weit von Praxisbedingungen entfernt und zeigt wohlmöglich nicht die thermischen Hotspots mit aufliegendem Kühler und hoher Auslastung.

https://www.grafik-feti.de/ftp/Die-Shots/attempt/pics/Navi10FurmarkTest.gif

Auslesefehler.
Thermalkameras funktionieren nicht bei metallischen und semi metallisch-hochglänzenden oberflächen, also zum Beispiel auf Chip-DIEs, heatpipes, etc. Schmiere etwas silikon wlp drauf oder n streifen schwarzes isoliertape und es sieht gleich ganz anders aus.



Für AMD machte es aus einer 4C APU für 15W eine 8C APU für 15W. Im Desktop hat man aus 8C -> 16C bei gleicher TDP gemacht - bei sogar höherer pro Core Performance.

Vom der Schätzung für Nvidia magst du ja richtig liegen, aber du kannst nicht einfach CPU-IP mit GPU-IP vergleichen. Zudem bei völlig unterschiedlichen Taktpunkten. Renoir 8C/15W wird nie im Leben an die all-core Taktraten von Picasso herankommen, muss es auch nicht bei Multithreaded workloads. Und der Singlecore taktzuwachs hat nichts mit dem TDP Budget des Cores zutun, sondern mit der Taktwall von 12nm die sich mit 7nm verschiebt und mit der verbesserten Architektur.

Ein besserer Vergleich ist Vega10 mit Vega20, also Vega64 mit Radeon VII zu vergleichen. Nicht nur weil es eine GPU ist und dadurch viel besser vergleichbar als CPU-Architekturen, sondern auch weil architekturell fast nichts verändert wurde.
CB hat im Rohleistungsvergleich, auf 240Watt TBP begrenzt gut 31% Effizienzgewinn gemessen. Wobei man anmerken muss dass sie es nicht geschafft haben die Speicherbandbreite vollständig zu egalisieren, was vermutlich egal ist, weil beide genug haben.
https://www.computerbase.de/2019-02/amd-radeon-vii-test/5/#abschnitt_radeon_vii_vs_vega_64_bei_aehnlicher_rohleistung

Mittlerweile sollte N7 etwas optimiert worden sein, zumindest bei den neueren Masken wie z.B. Renoir sollte mehr herausspringen als noch letztes Jahr als die RVII gelauncht wurde.
N7+ legt da nochmal was drauf, afaik meinte TSMC etwas von 10% weniger Power pro Transistor bei 15-20% mehr Density. Hauptfeature ist also eher mehr Density als die Energieefizienz. https://www.tsmc.com/tsmcdotcom/PRListingNewsArchivesAction.do?action=detail&newsid=THHIHIPGTH&language=E
https://www.anandtech.com/show/14954/tsmc-n7-euv-process-technology-in-hvm-n6-on-track

Keine Ahnung wo Samsungs 7EUV da ungefähr einzuordnen ist, aber der ist ja sowieso nicht mehr so im Rennen für die Top Dog chips wenn ich den Amperethread richtig überflogen habe...

Für AMD wäre die logische Folge eigentlich eher 6FF, vor allem auch für die CPUs. Eigentlich komisch dass sie renoir nicht schon in 6FF gebracht haben. Das bringt 18% Density ohne power oder performance uplift. Also schlechter als 7nm EUV, aber man man kann wohl einen Großteil der Masken für 7FF einfach weiter benutzen. Vermutlich geht das sogar mit denselben Scannern, also wenn man welche für 7nm reserviert hat kann man wahrscheinlich in diese kapazitäten auch 6nm reinschieben.

Screemer
2020-01-23, 16:40:17
du weißt wer er ist und was er so macht?

Brillus
2020-01-23, 20:09:32
Also entweder Faktor 1,25 an Leistung oder Faktor 0,5 an Leistungsaufnahme?

Das ergibt sehr wenig Sinn.


Das kann - und wird - aber auch dem besseren Binning bei NVIDIA geschuldet sein. Selbst im gleichen Herstellungsprozess in 14nm war NVIDIA deutlich niedriger in der Spannung, als AMD.

Macht voll Sinn da entweder 25% mehr Leistung durch mehr Takt oder 50% weniger Verbrauch bei gleichem Takt. Höherer Takt = mehr Spannung = kubischer(?) Verbrauchsteigerung.

Also ist dein Designspace im Dreieck. gleiche Leistung bei gleicher Transitormenge bei halbem Verbrauch. Gleicher Verbrauch, doppelte Transitoren, dopplter Leistung. Gleicher Verbrauch bei gleicher Registeranzahl bei 25% mehr Performance.

Mangel76
2020-01-23, 20:22:28
Das ist doch alles garnicht so kompliziert:

Die 25% mehr "Leistung" beziehen sich mehr oder weniger auf die Transistoren, nicht auf einen hypothetischen Chip und bedeuten im Endeffekt: Schrinkt man einen bestehenden Chip von 14 nm auf 7 nm kann man ihn bei gleichem Verbrauch mit einem 25% höheren Takt bei gleicher Leistungsaufnahme betreiben (=+25% Effizienz). Die Transistorenzahl ändert sich dabei nicht, daher wird der Chip deutlich kleiner. Das hat AMD mit V20 ungefähr getan (V10 + DP).

Umgekehrt kann man allerdings auch den geshrinkten Chip bei den gleichen Taktraten betrieben wie zuvor, dabei vebraucht er dann nur noch die Hälfte (=+100% Effizienz). (Kann man mit V20 glaube ich auch ungefähr nachstellen)

Allerdings ist es natürlich möglich den Chip nicht einfach zu shrinken, sondern die Transistorenzahl (und damit die CUs) zu erhöhen. Verdoppelt man diese und behält die Taktraten bei, hat man die doppelte theoretische Rechenleistung bei gleichem Verbrauch (=doppelte Effizienz = +100%). Allerdings gibt es zwei Nachteile:

3D-Anwendungen skalieren meist nicht linear mit der Shaderanzahl und es kommt daher am Ende nicht die doppelte Grafikleistung zu stande.
Und noch viel wichtiger: Der Chip wird kaum kleiner. (da muss man dann über die tatsächliche Pakdichte rechnen) Das führt bei höheren Kosten je mm2 zu einem deutlich teureren Chip.


Quintessenz des Ganzen: Nvidia könnte eventuell durchaus die Energieeffizienz verdoppeln, bräuchte dazu aber einen ziemlich großen Chip, der in 7 nm extrem teuer und aufgrund des Yields schwer zu produzieren wäre. Man kann daher davon ausgehen, dass man die Prozessvorteile zum Teil in mehr Takt und zum Teil in mehr Recheneinheiten investiert. Zusammen mit Archtitekturverbesserungen wird da schon eine (Effizienz-)Steigerung um die 50% zusammenkommen (und damit auch +50% bei gleichem Verbrauch), vielleicht auch etwas mehr wenn man die Tabelle oben betrachtet.

Was ich mich dabei allerdings frage: Warum hat AMD V20 nicht in einer Version mit 1,5GHz und 150 Watt auf eine Dual-Chip Karte für HPC gebaut? Da gibt es im Vergleich zu 3D-Anwendungen keine Probleme und man hätte die Effizienz gegenüber V10 tatsählich verdoppelt, was man von der 1,8 GHz 300 Watt Lösung ja nicht behaupten kann. Klar die Karte wäre dadurch recht teuer, aber für Server hätte es sich eventuell trotzdem gelohnt.
This!

gravitationsfeld
2020-01-23, 20:31:47
Also entweder Faktor 1,25 an Leistung oder Faktor 0,5 an Leistungsaufnahme?

Das ergibt sehr wenig Sinn.
Natuerlich ergibt das Sinn.

Complicated
2020-01-23, 21:26:09
Was ich mich dabei allerdings frage: Warum hat AMD V20 nicht in einer Version mit 1,5GHz und 150 Watt auf eine Dual-Chip Karte für HPC gebaut?
Weil die Apple Exklusiv ist ;)
https://videocardz.com/80956/amd-announces-radeon-pro-vega-ii-duo-a-dual-vega-20-graphics-card
This is worlds first dual 7nm GPU graphics card. It features two Vega 20 processors, each with full 64 Compute Units (unlike Radeon VII which only has 60 enabled). The GPUs can carry four stacks of HBM2 memory with up to 32 GB of capacity. This means that the Duo variant will be equipped with 128 CUs (8192 Stream Processors) and 64 GB of HBM2 memory.
AMD and Apple developed a new PCI-Express connector, which supports up to 475W of power. Alongside the new PCI-e connector Radeon Pro Vega II Duo features Infinity Fabric Link capable of carrying 84 GB/s of data between the GPUs. More importantly, the Radeon Vega II Duo features onboard Thunderbolt 3 connector.

https://www.amd.com/de/press-releases/2019-06-03-high-performance-amd-radeon-gpus-to-power-all-new-mac-pro

B@ndit
2020-01-24, 10:56:39
Das ist natürlich wahr. Auf 300 Watt schafft man es aufgrund der PHYs, Speicher und SpaWas, die alle nicht mitskalieren, am Ende dann doch nicht.

Theoretisch könnte man das Teil also auch als Instict MI100 verkaufen, wobei 475 Watt dann vielleicht doch etwas viel sind.

Linmoum
2020-01-24, 11:56:15
But when that promised 4K-capable AMD graphics card does finally arrive – and we’ve been waiting a long time for one – he believes that the red team can be equally disruptive to Nvidia’s hegemony at the top of the graphics card market as the CPU division has been knocking Intel off the top of its performance perch.

“Similar to Ryzen,” he says, “all of us need a thriving Radeon GPU ecosystem. So, are we going after 4K, and going to similarly disrupt 4K? Absolutely, you can count on that. But that’s all I can say right now.”

https://www.pcgamesn.com/amd/navi-4k-graphics-card

Entweder pures Gehype oder sie ziehen mit RDNA2 tatsächlich Zen 2.0 aus dem Hut.

basix
2020-01-24, 12:33:00
Entweder pures Gehype oder sie ziehen mit RDNA2 tatsächlich Zen 2.0 aus dem Hut.

Wenn man Navi lässt, ist die Architektur sehr energieffizient (siehe 5600XT). Bei den Konsolen deutet sich ebenfalls eine Verbesserung der Energieffizienz an mit max. ca. 150W für 12 TFLOPs. Das sind schonmal +50...60% Energieffizienz im Vergleich zu einer 5700 XT.

mironicus
2020-01-24, 12:42:09
Wenn wir Glück haben dann bringt AMD RTX 2080 Ti-Leistung + 20% zum knapp doppelten 5700XT-Preis, also im Bereich 650-800 Euro, mit kleinere Ausbaustufen vielleicht schon ab 550 Euro.

dildo4u
2020-01-24, 12:51:40
But when that promised 4K-capable AMD graphics card does finally arrive – and we’ve been waiting a long time for one – he believes that the red team can be equally disruptive to Nvidia’s hegemony at the top of the graphics card market as the CPU division has been knocking Intel off the top of its performance perch.

“Similar to Ryzen,” he says, “all of us need a thriving Radeon GPU ecosystem. So, are we going after 4K, and going to similarly disrupt 4K? Absolutely, you can count on that. But that’s all I can say right now.”

https://www.pcgamesn.com/amd/navi-4k-graphics-card

Entweder pures Gehype oder sie ziehen mit RDNA2 tatsächlich Zen 2.0 aus dem Hut.
Klar ist das Gehype Zen 2 ist 2x der Intel Performance im Desktop,bei den GPUs werden sie nie was haben was Nvidia um diesen Faktor schlägt.

Linmoum
2020-01-24, 13:04:49
Nur ist Zen2 nicht 2x Intel im Desktop, wie kommt man zu dieser falschen Behauptung? Das schafft nicht mal der 3950X mit doppelten Kernen ggü. dem 9900K. Vom deutlich höheren Preis hier mal abgesehen. Und beim 9900K(S) vs. 3900X schrumpft der Abstand nochmal auf ~40% im MC bei niedrigerem Preis für den 3900X.

Leonidas
2020-01-24, 13:32:04
Klar ist das Gehype Zen 2 ist 2x der Intel Performance im Desktop,bei den GPUs werden sie nie was haben was Nvidia um diesen Faktor schlägt.


IMO sogar schlechtes Gehype. Normalerweise sollte da der Journalist dem Marketingmenschen in die Parade fahren und das nicht einfach so als Hofberichterstattung zum Leser/Käufer liefern.

Der primäre Effekt von Zen 2 ist doch nach wie vor, das AMD mit mehr Kernen ankommen konnte, weil man einen Fertigungsvorteil hatte und Intel die mehr Kerne sich bewußt hat sparen wollen. Beide Punkte existieren im GPU-Business nicht: Weder spart NV an Kernen noch hat AMD dort einen derart deutlichen Fertigungsvorteil (bezogen darauf, wieviel Kerne man in eine übliche TDP pressen kann).

Um etwas ähnliches wie Zen 2 im GPU-Bereich zu realisieren, müsste NV bei Ampere ohne jede Mehrkerne (und ohne interne Shader-Verbesserungen) anrücken, sprich ohne gravierende Mehrperformance - und AMD müsste im gleichem Atemzug mit 3nm anrücken, sprich auf derselben TDP die doppelte Anzahl an Kernen zu bieten. Derzeit schaffen sie es mit einer Fertigungsstufe mehr gerade einmal so die gleiche Kern-Anzahl - ergo brauchen sie für das gegenüber NV @ 7nm gleich zwei Fertigungsstufen mehr. Über die Wahrscheinlichkeit dessen brauchen wir nicht reden.

reaperrr
2020-01-24, 14:23:44
IMO sogar schlechtes Gehype. Normalerweise sollte da der Journalist dem Marketingmenschen in die Parade fahren und das nicht einfach so als Hofberichterstattung zum Leser/Käufer liefern.
Warum?

Im Grunde sagt er doch nix anderes, als dass sie - anders als in den letzten Jahren - auch im HighEnd-Bereich, also dem Bereich der 2080Ti/3080 und evtl. noch drüber, wieder was zu bieten haben werden (und eben nicht nur so ne Alibi-Nummer wie die VII).

Das wäre sehr wohl "disruptiv", denn dann wird es auch wieder mehr Preiskampf geben.

Außerdem werden wir wohl - VII mal ausgeblendet - erstmals vom Start weg einer neuen Generation 12GB oder 16GB in dem Preissegment von ~550-600€ sehen. Vielleicht ja auch von beiden, aber wenn NV dort allein wäre, gäbe es dafür dann auch höhere Preise, insofern wird das 'disruptiv' auch dann zutreffen, wenn das P/L-Verhältnis bei beiden letztlich ca. gleich ausfällt.

Leonidas
2020-01-24, 17:43:40
Naja, wer "disruptiv" verspricht und dann gleich auch noch Zen 2 als Beispiel ins Feld führt - der wird daran gemessen werden. Wenn man es hart betrachtet, wäre alles andere als ein klarer Sieg AMDs an der absoluten Leistungsspitze demzufolge eine Enttäuschung.

Und das fällt für mich unter "unnötiges Anheizen des Hype-Trains".

mironicus
2020-01-24, 17:57:20
Vielleicht gelingt es ihnen ja auch - ein Heizkraftwerk an GPU bei deutlich geringerer Leistung als die Konkurrenz die mit gleicher TDP 30-40% mehr Leistung schafft wäre auch keine gute Werbung für die Konsolen.

N0Thing
2020-01-25, 00:04:17
Naja, wer "disruptiv" verspricht und dann gleich auch noch Zen 2 als Beispiel ins Feld führt - der wird daran gemessen werden. Wenn man es hart betrachtet, wäre alles andere als ein klarer Sieg AMDs an der absoluten Leistungsspitze demzufolge eine Enttäuschung.

Und das fällt für mich unter "unnötiges Anheizen des Hype-Trains".

Naja, Chandrasekhar sagt weder, dass sie eine Art Zen-GPU bringen werden, noch dass diese Karte disruptiv für Nvidia sein würde.
Er sagt doch nur, dass sie ein erfolgreiches Radeon GPU Ecosystem brauchen und dass die neue Karte locker mit 4K klar kommen werde. Alles andere ist doch nur die (Fehl-)Interpretation des "Journalisten".
Da eine 2080Ti schon ziemlich gut mit 4K in den meisten Titeln klar kommt, wäre eine Radeon GPU, die etwas schneller als eine 2080Ti sein sollte, also schon die Erfüllung dieser Ankündigung.

Similar to Ryzen,” he says, “all of us need a thriving Radeon GPU ecosystem. So, are we going after 4K, and going to similarly disrupt 4K? Absolutely, you can count on that. But that’s all I can say right now.”

basix
2020-01-25, 02:11:30
"...disrupt 4K" kann vieles bedeuten: Einstiegspreis für 4K, Performance, 4K @ Raytracing, Konkurrenzfähigkeit vs. Nvidia @ 4K (wie Zen vs. Intel), Energieeffizienz @ 4K, NextGen Konsolenqualität @ 4K, usw.

Momentan tippe ich darauf, dass RDNA2 solide performt und wenn es gut läuft sich mit NextGen Nvidia messen kann.

x-force
2020-01-25, 03:35:25
wann die leute bloß endlich verstehen, daß eine grafikkarte in keiner beziehung zu einer auflösung steht :confused:

Opprobrium
2020-01-25, 09:11:21
wann die leute bloß endlich verstehen, daß eine grafikkarte in keiner beziehung zu einer auflösung steht :confused:

Ich denke, die meisten Leute (hier) werden wissen, daß mit 4K GraKa gemeint ist, daß diese es schafft aktuelle Spiele flüssig in 4K darzustellen. Eine gewisse Beziehung gibt es zwischen GraKa und Auflösung also sehr wohl. Man denke nur an Voodoo 1/2/SLI :smile:

Complicated
2020-01-25, 09:31:16
Also diese Aussage ist doch eindeutig:
“With the Radeon 5000-series we are essentially covering 90-something-percent of the total PC gamers today,” says Chandrasekhar. “And so that’s the reason why no 4K right now, it’s because the vast majority of them are at 1440p and 1080p.

“That doesn’t mean a 4K-capable GPU isn’t coming, it is coming, but for here and now we want to focus on the vast majority of gamers.”
In keinster Weise ist damit die aktuell kommende GPU bezeichnet worden. Das wird hier einfach nur überzogen interpretiert.

Leonidas
2020-01-25, 09:57:49
Mmh. Das Herunterreden der Märkte, wo man jetzt gerade nicht mitmischt, ist aber Standard-Werkzeug von PR-Fuzzies - und muß daher nicht überbewertet werden. Sobald AMD die passende Grafikkarte hat, wird man auf 4K-Gaming herumreiten, als wären diese Worte nie gefallen.

HOT
2020-01-25, 10:16:04
Nein Leo, eine Disruption im wirtschaftlichen Sinne wäre nichts weniger als eine komplette Umgestaltung des 4k-Marktes, sonst kann man da auch ein anderes Wort nehmen. Das ist so ziemlich die stärkste Aussage, die man machen kann.
Also übertragen hieße das, dass man das, was man mit Zen erreichen wird, also sehr viel andere Marktanteile mit entsprechenden Einflüssen auf OEMs und Software, auf den Grafikmarkt zu übertragen. Das würde eigentlich gut zu der 50% mehr Perf/W-Aussage passen, die wir vor ein paar Wochen hatten.
Diese Aussage muss man aber nicht nur auf Basis der Grafikchips sehen, sondern vielleicht auch, was die neuen Konsolen und ihre neuen Titel für ne Wirkung auf den Markt haben werden, das kann eigentlich nur ne Kombination sein, wenn man diese Aussage ernst nimmt.

Aber: Sagen kann jemand viel, Taten müssen folgen!

Korvaun
2020-01-25, 10:40:51
Solange AMD es mit RDNA2 schafft nV über die ganze Palette hinweg (Einsteiger bis HighEnd) etwas entgegenzustellen wäre das schon wirklich gut nach den letzen Jahren. Das ganze Marketinggerede ist ja wohl heutzutage bliebig austauschbar und komplett nutzlos.

Pirx
2020-01-25, 10:44:57
Marketinggewäsch, wir werden ja sehen, was kommt

Leonidas
2020-01-25, 10:44:57
Aber: Sagen kann jemand viel, Taten müssen folgen!


In der Tat.




Solange AMD es mit RDNA2 schafft nV über die ganze Palette hinweg (Einsteiger bis HighEnd) etwas entgegenzustellen wäre das schon wirklich gut nach den letzen Jahren. Das ganze Marketinggerede ist ja wohl heutzutage bliebig austauschbar und komplett nutzlos.


Schließe mich der kompletten Rede an. Viel mehr als Konkurrenzfähigkeit ist nicht drin. nVidia ist nicht das halbschlafende Intel, die überrennt man nicht mal einfach so.

Sunrise
2020-01-25, 11:03:21
Um mal Wikipedia zu zitieren (Anmerkungen von mir in Klammer):

„Disruptive Technologien sind Innovationen, die die Erfolgsserie einer bereits bestehenden Technologie (FreeSync), eines bestehenden Produkts (5600/5700XT) oder einer bestehenden Dienstleistung (Entwicklerunterstützung) ersetzen oder diese vollständig vom Markt verdrängen und die Investitionen der bisher beherrschenden Marktteilnehmer obsolet machen.“


Bei AMD heißt „disruptive“ eigentlich immer, dass man ein min. gleichwertiges Produkt für einen bestimmten Einsatzzweck, zu einem besseren Preis als die Konkurrenz anbietet und somit NV dazu bringt, Preise zu reduzieren oder neue Produkte zu bringen, um das disruptive Produkt wieder zu kontern. Den Vergleich mit Zen 2 empfinde ich daher als passend. FreeSync vs. GSync war auch lange hier ein hitziges Thema, warum wohl?

AMD wartet nicht nur auf Mehrakzeptanz von 4K, sondern auch augenscheinlich auf Raytracing (Konsolen Ende des Jahres, Portierungen...) und beides wird erst ab einer bestimmten Rohleistung ordentlich nutzbar. Man achtet auf den Markt und schaut sich genau an, was die Masse an Käufern möchte und wo man ordentlich einschlagen kann, wenn es auch wirklich zählt.

Das immer wieder gebrachte Argument mit der schnellsten Grafikkarte interessiert viele nicht, wenn es dann Preise weit über 1000 EUR sind. Deshalb wird sich AMD wieder einen Preisbereich suchen ($649 oder $699 US), und brutal viel Rohleistung für das Geld anbieten und man quasi 99% der aktuellen und kommenden Spiele am Markt (inkl. RT) abdecken kann. Dass NV ebenso neue GPUs bringt weiß auch AMD. Ein Sieg ganz oben an der Spitze ist unrealistisch, NV ist kein Intel.

Zusammen mit FreeSync und billigeren Monitoren (GSync wurde [ich übertreibe bewusst] nur entworfen, um sich mit teuren Produkten in den Markt einzugraben und Umstiege zu erschweren) zahlt der Käufer dann nicht nur deutlich weniger, sondern hat im Endeffekt (inkl. CPU) alles von AMD. Und das nenne ich sehr wohl „disruptive“, da AMD bald wieder alles liefern kann.

Was NV macht ist hier erstmal egal, und das ist auch die richtige Einstellung. Man schaut sich den Markt an, schaut auf sich und die eigenen Möglichkeiten (AMD geht es wieder besser) und bringt das beste Produkt mit einem definierten Ziel, mit dem man natürlich auch noch gutes Geld verdienen kann.

basix
2020-01-25, 13:26:04
Schließe mich der kompletten Rede an. Viel mehr als Konkurrenzfähigkeit ist nicht drin. nVidia ist nicht das halbschlafende Intel, die überrennt man nicht mal einfach so.

Wenn ich den Markt seit Kepler oder spätestens seit Maxwell anschaue, wäre Konkurrenzfähigkeit Top-to-Bottom aus meiner Sicht sehr wohl disruptiv ;)

RDNA2 deutet laut Gerüchten gutes Potential an. Aber auch Nividia wird einen guten Sprung machen. Aber im Prinzip wissen wir von beiden neuen Architekturen sehr wenig und zu wenig um die Endprodukte abzuschätzen. Es wird spannend :)

Wenn wir wie von Sunrise beschrieben einigermassen gleichwertige Produkte erhalten und sich die Preise etwas nach unten korrigieren, ist doch alles in Butter.

LasterCluster
2020-01-25, 13:30:27
Ich denke auch, dass es AMD letztendlich recht egal ist, ob man die 3080Ti/Titan schlagen kann. Wichtig ist, auch oben bei ca 500-700€ ein P/L starkes Produkt liefern zu können, dass dort dann ordentlich Marktanteile gewinnt aka "disruptiv" ist.

Complicated
2020-01-25, 13:43:15
Ich schreibe AMD auch einen Bonus zu wegen der Erfahrungen bei der Fertigung. Nvidia hat selten mit dem ersten Produkt eine Fertigung direkt im Griff gehabt, was die Effizienz angeht. AMD hat da durch 7nm Erfahrungswerte für 7nm+ und noch Erfahrungswerte aus Zen3 für die EUV-Layer. Wie groß der Bonus ausfällt ist natürlich nur schwer einzuschätzen.

HOT
2020-01-25, 14:08:56
Solange AMD es mit RDNA2 schafft nV über die ganze Palette hinweg (Einsteiger bis HighEnd) etwas entgegenzustellen wäre das schon wirklich gut nach den letzen Jahren. Das ganze Marketinggerede ist ja wohl heutzutage bliebig austauschbar und komplett nutzlos.
Das wird denke ich sowieso passieren. Wir kennen ja schon 3 N2x-Chips, da wird sicherlich dann der Ersatz auf RDNA2-Basis für die RDNA+Polaris-Derivate 2021 recht zügig folgen. Mit RDNA2 planen die sicherlich ein komplettes Lineup. RDNA1 ist mMn als solide Basis zu sehen, aber eben auch nicht mehr.

Berniyh
2020-01-25, 14:16:51
3 bekannte Chipnummern bedeuten nicht zwangsläufig auch 3 Chips für Produkte, siehe RDNA1, da kamen auch nur 2.

Zergra
2020-01-25, 14:29:28
Ist halt die Frage ob die 3 alle RDNA2 werden... Navi 10/14 könnten auch wieder als Refresh kommen und dazu halt ein neuer BigChip...

aufkrawall
2020-01-25, 14:29:54
Nvidia hat selten mit dem ersten Produkt eine Fertigung direkt im Griff gehabt, was die Effizienz angeht.
Hast du evtl. die 28 und 16nm GPUs komplett verpennt?

DrFreaK666
2020-01-25, 14:30:07
...
Wenn wir wie von Sunrise beschrieben einigermassen gleichwertige Produkte erhalten und sich die Preise etwas nach unten korrigieren, ist doch alles in Butter.

Da NV auch auf das teurere kleinere Fertigungsprozess wechselt, würde ich nicht mit niedrigeren Preisen rechnen

Complicated
2020-01-25, 14:46:24
Hast du evtl. die 28 und 16nm GPUs komplett verpennt?
Was habe ich denn daran verpennt?
Ist der optimierte 16nm (TSMC/Nvidia nennt es 12nm) nicht effizienter als der Erste 16nm (Pascal->Turing)?
Und ist Maxwell nicht ebenfalls effizienter als Kepler in 28nm?
Und zuvor in 40nm konnte Fermi nur noch direkt durch einen Respin gerettet werden. Vergleich mal die GTX 480 mit der GTX 580 bei der Effizienz.

aufkrawall
2020-01-25, 16:27:18
Glaubst du wirklich, das wäre bei RX 580 vs. 480 anders?
Davon ab schafft selbst TSMC Pascal hohe Taktraten bei viel weniger Spannung als Navi. :freak:

BlacKi
2020-01-25, 16:31:51
Da NV auch auf das teurere kleinere Fertigungsprozess wechselt, würde ich nicht mit niedrigeren Preisen rechnen
laut lederjacke wählt man den prozess so, das er sich rechnet. das war auch der grund warum man nicht den standard 7nm prozess nahm. der angepasste prozess soll also, wie auch immer man das anstellt, effektiver in der kosten/performance ratio besser sein, als der "standard" 7nm.

der prozess muss nicht besser in hinsicht der performance sein, es reicht wenn er die yield verbessert, weniger spannung benötigt or whatever.
achtung imo:
ich glaube tatsächlich das er günstiger für nvidia ist, als der standard 7nm prozess.

dargo
2020-01-25, 16:46:34
laut lederjacke wählt man den prozess so, das er sich rechnet. das war auch der grund warum man nicht den standard 7nm prozess nahm.
Mir scheint du vergisst hier die wichtigste Komponente überhaupt. Turing war viel früher fertig als Navi für einen Release. Zum damaligen Zeitpunkt kann es natürlich sein, dass 7nm wegen zu hohen Kosten nicht in Frage für Turing kam.

x-force
2020-01-25, 16:47:08
Ich denke, die meisten Leute (hier) werden wissen, daß mit 4K GraKa gemeint ist, daß diese es schafft aktuelle Spiele flüssig in 4K darzustellen.

das ist doch aber eine wertlose aussage.
was ist flüssig? unter welchen detail und grafikoptionen?
dsr oder upscaling?

du kannst auch mit einer 1060 4k spielen, daher ist das absolut bullshit bingo und abzulehnen.

Eine gewisse Beziehung gibt es zwischen GraKa und Auflösung also sehr wohl. Man denke nur an Voodoo 1/2/SLI :smile:

du hast recht, das ist der einzige zusammenhang der in erinnerung geblieben ist. aber das hing mit der speichergröße und nicht der rechenleistung zusammen.

BlacKi
2020-01-25, 16:50:07
Mir scheint du vergisst hier die wichtigste Komponente überhaupt. Turing war viel früher fertig als Navi für einen Release. Zum damaligen Zeitpunkt kann es natürlich sein, dass 7nm wegen zu hohen Kosten nicht in Frage für Turing kam.
aber auch nach turing kommt laut lederjacke kein "standard" 7nm prozess in frage. ob er verfügbar war oder nicht, so wie er damals angeboten wurde, hat er den prozess direkt ausgeschlossen für die next gen.
vl. langsam zu OT:
"Bei der Adaption von 7 nm betont Huang, dass man mit TSMC gerne seinen eigenen Prozess entwickelt. Das habe sich in der Vergangenheit ausgezahlt und aktuelle Turing-Grafikkarten seien auch mit ihrem 12-nm-Node konkurrenzfähig. Statt sich auf einen Fertigungsprozess zu konzentrieren, will man lieber sicherstellen, dass der gesamte Prozess zu Nvidia passt und auch die Architektur sparsam ist."
https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Jen-Hsun-Huang-ueber-7-nm-und-und-die-Zukunft-von-Raytracing-1282249/

dargo
2020-01-25, 16:58:41
aber auch nach turing kommt laut lederjacke kein "standard" 7nm prozess in frage.
Wofür auch wenn 7nm+ Vorteile bringt und passend zum Turing-Nachfolger für NV zur Verfügung steht? :confused:

BlacKi
2020-01-25, 17:03:41
Wofür auch wenn 7nm+ Vorteile bringt und passend zum Turing-Nachfolger für NV zur Verfügung steht? :confused:
in der ausgangsfrage ging es darum, das 7nm+(was auch immer man auch für einen prozess nimmt) direkt zu teureren chips führt als mit dem standard 7nm.

das sehe ich perse nicht auchtomatisch so. denn wenn der prozess sparsamer ist, kann man höher boosten und den chip kleiner machen.

Complicated
2020-01-25, 17:20:22
Glaubst du wirklich, das wäre bei RX 580 vs. 480 anders?
Davon ab schafft selbst TSMC Pascal hohe Taktraten bei viel weniger Spannung als Navi. :freak:
Warum darf AMD keine Verbesserungen machen? Die Sprünge sind nur nicht so gross wie bei Nvidia.

Intels 14nm schafft auch größere Taktraten als 10nm. Wo ist das Argument?
Du schreibst völlig an dem vorbei was ich schrieb - daher auch dein Beißreflex, weil du es nicht richtig verstanden hast. Deine Vergleiche können das überhaupt nicht belegen oder auch widerlegen ob ein Unternehmen den einen Prozeß besser oder schlechter im Griff hat von Anfang an. Sie verwenden alle so unterschiedliche Architekturen, dass dies im Endprodukt nur selten vergleichbar ist ob Sie die Fertigung besser im Griff haben.

Ich beziehe mich auf eine Aussage die im Kontext von 40nm gemacht wurde und meine aktuelle Einschätzung basiert darauf, dass AMD 10nm ausgelassen hat, weil sie den Ärger rochen die Schwierigkeiten erkannt haben und 7nm DUV gemacht haben weil sie die Vorteile erkannt hatten die Ihnen für 7nm+ entstehen.
https://www.anandtech.com/show/2937/8

Process vs. Architecture: The Difference Between ATI and NVIDIA

Ever since NV30 (GeForce FX), NVIDIA hasn’t been first to transition to any new manufacturing process. Instead of dedicating engineers to process technology, NVIDIA chooses to put more of its resources into architecture design. The flipside is true at ATI. ATI is much less afraid of new process nodes and thus devotes more engineering resources to manufacturing. Neither approach is the right one, they both have their tradeoffs.

NVIDIA’s approach means that on a mature process, it can execute frustratingly well. It also means that between major process boundaries (e.g. 55nm to 40nm), NVIDIA won’t be as competitive so it needs to spend more time to make its architecture more competitive. And you can do a lot with just architecture alone.

Complicated
2020-01-25, 17:30:46
in der ausgangsfrage ging es darum, das 7nm+(was auch immer man auch für einen prozess nimmt) direkt zu teureren chips führt als mit dem standard 7nm.

das sehe ich perse nicht auchtomatisch so. denn wenn der prozess sparsamer ist, kann man höher boosten und den chip kleiner machen.
Jeder EUV-Layer macht den Prozess automatisch teurer und den Chip somit auch - das ist perse automatisch so. Billiger wird es wenn mehr Waferstückzahlen produziert werden und die Yield hoch geht.

Der Chip wird nicht billiger wenn er höher taktet oder sparsamer ist im neuen Prozess. Und wegen höheren Taktraten konzipierst du keinen Chip kleiner im Vorfeld, denn das kann gehörig daneben gehen. Und wenn der Prozess sparsamer wird hast du eher mehr Budget für Transistoren die du dann auch in der Designphase definitiv unterbringen willst. Es resultiert also auch kein kleinerer und billigerer Chip daraus.

Undertaker
2020-01-25, 18:11:30
Vom Prinzip hat er mit seiner Grundaussage trotzdem Recht – selbst wenn man die Mehrperformance eines Prozesses nicht nutzt, um den Chip von vornherein kleiner zu machen, dann rutscht selbiger im möglichen Preisgefüge schlicht ein wenig höher und konkurriert dann wiederum mit einem größeren Chip aus schlechterer Fertigung. Was dann im Endeffekt die margenträchtigere Lösung ist, lässt sich nicht pauschal beantworten.

Locuza
2020-01-25, 18:40:10
Was habe ich denn daran verpennt?
Ist der optimierte 16nm (TSMC/Nvidia nennt es 12nm) nicht effizienter als der Erste 16nm (Pascal->Turing)?
Und ist Maxwell nicht ebenfalls effizienter als Kepler in 28nm?
Und zuvor in 40nm konnte Fermi nur noch direkt durch einen Respin gerettet werden. Vergleich mal die GTX 480 mit der GTX 580 bei der Effizienz.
Die Aussage war doch, dass Nvidia im ersten run angeblich nicht die Fertigung in Griff hätte bzw. nicht so gut.
Kepler wurde problemlos gelaunched, ebenso Pascal, Volta und Turing.

Maxwell ist eine völlig andere Architektur als Kepler, grundlegend effizienter, da spielen Erfahrungen unter 28nm eine sehr untergeordnete Rolle.
Navi bzw. RDNA ist ja auch nicht über 20% effizienter, als GCN5 (Vega), weil es nun die zweite GPU unter 7nm mit größerem Erfahrungsschatz ist, sondern grundlegend eine effizientere Architektur darstellt.

robbitop
2020-01-25, 20:25:47
Maxwell ist schon eine Evolution aus Kepler. „Völlig anders“ ist mMn etwas übertrieben.

Complicated
2020-01-25, 20:51:22
Die Aussage war doch, dass Nvidia im ersten run angeblich nicht die Fertigung in Griff hätte bzw. nicht so gut.
Kepler wurde problemlos gelaunched, ebenso Pascal, Volta und Turing. Ich hatte doch klar gestellt wie die Aussage "im Griff" von mir zu verstehen ist. Ich habe nirgendwo von Problemen bei Launches gesprochen sondern von der Effizienz beim Nutzen des Prozesses. Dass Nvidia die Optimierung über die Architektur bevorzugt ist ja nicht schlechter, wie man ja sieht.
Nur gibt es eben je nach Stand der Fertigung und dem Nodesprung eben Vorteile für AMD mit ihrer Erfahrung und dem KnowHow aus dem Fab-Geschäft.

Beim Einführen von EUV ist eben dort meiner Meinung nach ein Vorsprung auf diesen Nodes. In 28nm und 16/14nm war er meiner Meinung nach bei Nvidia, wo die Architektur mehr bewirken konnte als der Fertigungsprozeß. AMD hatte ihn wiederum bei 40nm weil sie doppelte vias verbaut haben, da sie den Angaben von TSMC damals nicht zu 100% vertrauten und ein Problem da im Prozeß erkannten. AMD hatte viele Features mit HBM und HBCC und anderes auf 28 und 14nm verwendet, die Ihnen mit Fiji und Vega nicht den erhofften Durchbruch im Highend bescherten. Hier war auf der Seite der Architektur zu wenig der Hoffnungen erfüllt worden. Auch die Mantle API, welche der Architektur unter die Arme greifen sollte hat nicht den erhofften Schub ausgelöst, ebenso wie Vulkan als Nachfolger nicht den erhofften Effekt an Performance in einer breiten Zahl von Spielen brachte. Hier ist Nvidia deutlich besser aufgestellt wenn es um API/Architektur-Unterstützung geht und das muss man mal betonen, obwohl AMD mit den Konsolen mehr draus machen könnte/müsste. Umgekehrt würde Nvidia sicher mehr damit anfangen können. Hier hat AMD seine Vorteile bei der IP für x86 gut ausgespielt und mit der APU-Technologie eine Hardware etabliert, die Nvidia nicht kontern kann mit ARM derzeit. Aber wie man an der Switch sieht, sind sie auch nicht weit entfernt.

Mit EUV treten wir derzeit in eine Phase bei der Fertigung ein, welche so die letzten 15 Jahre nicht vorhanden war. Mit von 7nm+ über 5nm zu 3nm werden in schnellem Rhythmus mehr EUV-Layer zugefügt, so dass Ingenieurswissen bei der Fertigung wohl mehr bewirken wird als eine bessere Architektur, wenn man die Fertigung dafür nicht so gut im Griff hat.

BlacKi
2020-01-25, 21:05:15
Es resultiert also auch kein kleinerer und billigerer Chip daraus.
nicht per se aber man könnte. ich unterstelle lederjacke das er weiß warum er nen eigenen prozess will, die vergangenheit gibt ihm recht. und da ist marge wichtiger als alles andere. da ist ein kostenoptimierter prozess das a und o, wenn man die möglichkeiten hat.

basix
2020-01-26, 10:24:21
nicht per se aber man könnte. ich unterstelle lederjacke das er weiß warum er nen eigenen prozess will, die vergangenheit gibt ihm recht. und da ist marge wichtiger als alles andere. da ist ein kostenoptimierter prozess das a und o, wenn man die möglichkeiten hat.

Nvidia hat eine Bruttomarge von 60%. Das können nicht viele Firmen von sich behaupten. Es ginge auch mit weniger.

Der Sprung von 12nm ist vermutlich einfach nicht genug lohnenswert. Siehe 14+++ vs. 10nm bei Intel. Zudem frisst der Kostennachteil die Vorteile durch kleinere Chips fast wieder auf.

Troyan
2020-01-26, 10:39:30
Doch, der Sprung ist riesig von 16nm auf 7nm. Laut TSMC sind es zwei volle Nodes. Das Problem ist, dass die Fertigungen keine großen Vorteile mehr bringen. Kosten steigen massiv, die Fertigung wird komplexer, die Spannung lässt sich nicht mehr weiter senken. Außerdem gibt es massive Konkurrenz von Smartphone-Hersteller wie Apple und Firmen wie Google, die DL-Beschleuniger produzieren.

Wenn man eine Architektur daher auf einem älteren, günstigeren und einfacher zu produzieren Prozess konkurrenzfähig halten kann, dann ist dies heutzutage der sinnvollere Weg.

HOT
2020-01-26, 10:40:56
Complicated: Wenn bei AMD überspitzt gesagt 5 Mann einen Chip entwickeln und optimieren sollen kommt da eben Vega bei raus. Das ist ja der Unterschied zu heute, anstatt totale Sparflamme bei der Entwicklung kann man heute all-in gehen bei der Entwicklung, weil man einfach das Personal dafür hat.
Es ist doch bekannt, dass grade Vega massiv darunter gelitten hat, dass AMD das Personal aus der GPU-Abteilung sogar abgezogen hat um Zen zu unterstützen. Raja ist ja nicht umsonst abgedampft.

Raff
2020-01-26, 10:57:59
Es ist doch bekannt, dass grade Vega massiv darunter gelitten hat, dass AMD das Personal aus der GPU-Abteilung sogar abgezogen hat um Zen zu unterstützen. Raja ist ja nicht umsonst abgedampft.

Gibt's denn dazu wirklich belastbare Infos? :)

MfG
Raff

Pirx
2020-01-26, 11:20:45
Geld ging für die Parties drauf, dennoch ist Raja geflüchtet:lol:
https://twitter.com/cpchardware/status/736725716885241856

Raff
2020-01-26, 11:34:42
Ah, so ähnlich wie bei 3dfx damals (da ist allerdings die ganze Firma "geflüchtet"). ;)

Im Ernst: Gab's dazu mal einen Artikel der englischsprachigen Presse?

MfG
Raff

mironicus
2020-01-26, 11:56:05
Kann man im Konkurrenzkampf von NVidia vs AMD grob spekulieren:

RTX 3080 Ti = doppelt so schnell wie RTX 2080
RX 5950 XT = doppelt so schnell wie RX 5700 XT

Würde ich von so einer Leistung ausgehen, wären die Karten gar nicht so weit voneinander entfernt. NVidia hat sicherlich noch mehr Spielraum, und eine RTX 3080 Ti wird wie immer eine beschnittene GPU haben.

amdfanuwe
2020-01-26, 12:09:24
weil man einfach das Personal dafür hat.
Unser Staat hat genügend Beamte, kommt trotzdem nur Müll raus.
Mit dem richtigem Genie und kompetenten Chefs ist ein kleines Team wertvoller als eine Armee von Dumpfbacken. Threadripper ist ein gutes Beispiel dafür.
Die Geschichte ist voll von Erfindungen, die unser heutiges Leben beeinflussen und die auf einzelne Personen zurückzuführen sind.
Für etwas neues braucht es viele Komponenten, aber pure Masse ist sicherlich nicht der auslösende Faktor.

Leonidas
2020-01-26, 12:23:02
Gegenargument: Für manchen großen Wurf geht es nicht ohne Masse. Beispiele: Manhatten Projekt & Mondlandung.

basix
2020-01-26, 12:23:47
Es geht immer einfacher, wenn gute Leute von anderen unterstützt werden. Es wird immer Tasks geben, die vor allem Zeit brauchen.

Ein geschickter Manager oder Teamleiter weiss, wie man die Aufgaben so teilt, dass die guten Leute "sich entfalten" können und der Rest der Arbeit dennoch zügig und gut erledigt wird. Jim Keller ist wohl so einer (neben der fachlichen Expertise) ;)

huey
2020-01-26, 12:42:24
Wie sieht es eigentlich mit HBCC aus, gibt es das Feature bei NAVI noch?
In dem Zusammenhang würde mich auch interessieren ob es neuere Tests gibt welche das mal bei Vega beleuchten oder auch bei Navi wenn es dort geht und bei einer 5600XT 6GB wäre es ja mal sinnvoll gewesen.
Eine weitere Frage in diesem Zusammenhang wäre ob der große angekündigte Sprung durch eine NVME SSD in den neuen Konsolen nicht vielleicht auch mit HBCC und den damit verbundenen Texturmöglichkeiten zusammenhängen könnte?

Auch wenn es sicher schon an der Grenze des Themas hier ist... ;-)

Ich habe gerade meinen Denkfehler bemerkt denn HBCC hat ja was mit dem RAM und nicht mit dem Massenspeicher zu tun, aber vielleicht gibt es bei sehr schnellen NVME SSD's ja doch begrenzte Möglichkeiten der in diese Richtung geht....

Complicated
2020-01-26, 13:12:35
Das Feature benötigte bisher HBM-Speicher, um sinnvoll zu funktionieren. Dieser dient als schneller Cache für Zugriffe auf den Massenspeicher. Mit GDDR5/6 ist das wohl nicht aktiv, wie es ausschaut.

mboeller
2020-01-26, 13:15:40
Jeder EUV-Layer macht den Prozess automatisch teurer

nein, billiger

Complicated
2020-01-26, 13:24:43
Wieso meinst du es wird billiger?
Bisher wird 5nm als teurer zu 7nm+ angesehen und 3nm ebenso - auch pro Transistor, den die Platzersparnis ist geringer als in den früheren Prozessen wenn es einen node-"Shrink" gab.
https://en.wikichip.org/wiki/7_nm_lithography_process#Density
The N7+ node is TSMC's first process technology to adopt EUV lithography. It is unrelated to N7 nor N7P and is not IP-compatible with either, requiring re-implementation (new physical layout and validation). N7+ entered mass production in the second quarter of 2019 and uses EUV for four critical layers. Compared to TSMC N7 process, N7+ is said to deliver around 1.2x density improvement. N7+ is also said to deliver 10% higher performance at iso-power or, alternatively, up to 15% lower power at iso-performance. On paper, N7+ appears to be marginally better than N7P, albeit that comes at the cost of re-implementing the design.

Sunrise
2020-01-26, 13:32:53
Complicated: Wenn bei AMD überspitzt gesagt 5 Mann einen Chip entwickeln und optimieren sollen kommt da eben Vega bei raus. Das ist ja der Unterschied zu heute, anstatt totale Sparflamme bei der Entwicklung kann man heute all-in gehen bei der Entwicklung, weil man einfach das Personal dafür hat.
Es ist doch bekannt, dass grade Vega massiv darunter gelitten hat, dass AMD das Personal aus der GPU-Abteilung sogar abgezogen hat um Zen zu unterstützen. Raja ist ja nicht umsonst abgedampft.
Das mag sein, nur war der Plan bei Vega auch, an den Erfolg von Hawaii anzuknüpfen (die schon Jahre vorher geleakten Slides zeigten auch die verschiedenen Stufen) und man wollte wieder zuviele Märkte mit GCN erschlagen. Wer auch immer das so entschieden hat, hat natürlich von Anfang an das Budget und auch die Möglichkeiten im Hinterkopf gehabt. Die komplette Ausrichtung war aber eher HPC-gesteuert als alles andere, siehe HBM, HBCC und wie sie alle heißen. HBM war anfangs (Fiji) nicht weit genug, während GDDR etabliert war und zeitlich hat das Ganze auch absolut nicht gepasst, es war ein Gefrickel sondergleichen, fast ähnlich wie bei R500.

Es ist für Außenstehende aber schwer zu verstehen, denn urplötzlich nach Rajas Abgang kamen perfekt auf den Gaming-Markt optimierte RDNA1- und RDNA2- Architekturen nach. Sowas entwickelt man nicht einfach in 6 Monaten...

Dass man im HPC jetzt mit GCN weiterfährt zeigt ja (ähnlich Hawaii), dass Vega (genau wie Hawaii) für Gaming eigentlich nicht primär gedacht war. Der relativ hohe Verbrauch pro mm^2, relativ geringe Taktraten und die dafür benötigte Die size ist gerade im Gaming-Bereich tödlich. Im HPC gelten ganz andere Regeln. 7nm bei Vega 20 kaschiert viele dieser Schwächen, bringt aber aufgrund der starken Anbindung an den Speicher (so der ursprüngliche Plan) dann auch wieder ordentlich Durchsatz. dennoch fehlt es auch hier nach wie vor an Feinschliff.

Erst als David Wang wieder zurück kam (er war bei ArtX aka. R300) scheint es dort auch wieder jemanden zu geben, der wohl nicht nur viel Grundlegendes sehr gut versteht, sondern auch im Managerposten die richtigen Stellschrauben zu drehen weiß. Man könnte evtl. auch sagen, Raja war eine Fehlbesetzung (aus welchen Gründen auch immer) nur steht mir das nicht zu, ich kenne die genauen Ereignisse nicht. Vor ArtX war ATI auch für viele nur die Mainstream-GPU Bude.

Eine Parallele könnte man bei Apple mit P.A. Semi ziehen, und hier waren es immer die eingespielten Teams mit extrem tiefen Know-how, die aus gutem Grund vollständig übernommen wurden.

Ich denke es sind sowohl personelle als auch Ausrichtungs-Entscheidungen gewesen, die dazu geführt haben, dass man da eine ganze Menge an Zeit und Geld, bzw. Energie aller Mitwirkenden geopfert hat.

Lustigerweise macht Raja genau da weiter wo er aufgehört hat, nämlich vor allem HPC und sein „Eins für alle“-Prinzip.

Brillus
2020-01-26, 14:18:18
Das Feature benötigte bisher HBM-Speicher, um sinnvoll zu funktionieren. Dieser dient als schneller Cache für Zugriffe auf den Massenspeicher. Mit GDDR5/6 ist das wohl nicht aktiv, wie es ausschaut.
Es hatte auch den Teil das die benutzten/ nicht benutzten Daten besser zwischen CPU-RAM und GPU-RAM verteilt werden.

mboeller
2020-01-26, 14:29:58
Wieso meinst du es wird billiger?


wer redet von 5nm und 3nm... es geht um EUV. Das macht den Prozess schneller und günstiger, weil du Masken und Multi-Patterning einsparen kannst.

Siehe auch:
https://www.asml.com/-/media/asml/files/investors/past-events-and-presentations/24062024-ubs-seoul-conference-euv-presentation_v1.pdf

ist zwar GF, das Bild sollte aber noch passen:
https://www.extremetech.com/computing/251654-globalfoundries-details-three-separate-generations-7nm-technology

LasterCluster
2020-01-26, 14:34:01
Lustigerweise macht Raja genau da weiter wo er aufgehört hat, nämlich vor allem HPC und sein „Eins für alle“-Prinzip.

Geht es wirklich um „Eins für alle“ ja oder nein? Im Grunde fahren doch sowohl AMD als auch NV dieses Strategie. RDNA soll mittelfristig auch überall kommen und NVs Aufteilung in Volta und Turing würde ich nicht überbewerten. Was aber bei Vega und Xe auffällt, ist die gleichzeitige Implementierung im winzigen APU-Bereich als auch im fetten dGPU/HPC Bereich. Das scheint AMD nach Vega wieder recht egal zu sein und man fährt mMn schlicht einen pragmatischen Kurs: Je nach Einsatzweck nimmt man das momentan passenste. Für Renoir hat halt Vega noch gut getaugt, beim nächsten Mal sieht es eben anders aus.

Linmoum
2020-01-26, 14:56:11
RDNA soll mittelfristig auch überall kommenIst das so? AMD hatte klar gesagt, dass man auch weiterhin mehr von GCN sehen wird. Das passt zur Aufteilung zwischen HPC (GCN) und Gaming (RDNA).

Complicated
2020-01-26, 15:01:40
wer redet von 5nm und 3nm... es geht um EUV. Das macht den Prozess schneller und günstiger, weil du Masken und Multi-Patterning einsparen kannst.

Siehe auch:
https://www.asml.com/-/media/asml/files/investors/past-events-and-presentations/24062024-ubs-seoul-conference-euv-presentation_v1.pdf

ist zwar GF, das Bild sollte aber noch passen:
https://www.extremetech.com/computing/251654-globalfoundries-details-three-separate-generations-7nm-technology
Theoretisch. Nur in der Praxis werden die Masken kaum weniger, da die eingesparten Masken Platz machen für andere Masken, die benötigt werden um die Strukturen zu verkleinern, wie es ohne diese zusätzliche Masken nicht möglich wäre. Ursprünglich sollten pro EUV Layer 3 Masken eingespart werden (anstatt 4-fach Belichtung eben nur eine), was 3 Masken weniger pro Layer bedeutet. Bei 3 (es war früher von 4-Layern für 7nm+ gesprochen worden, geworden sind es allerdings lediglich 3). Dies würde eine Reduzierung um 9 Masken bedeuten beim Schritt von 7nm DUV->7nm+
https://semiwiki.com/semiconductor-manufacturers/intel/280519-iedm-2019-tsmc-5nm-process/

EUV usage
As I stated previously, the paper mentions a single EUV layer replaces >4 immersion layers although the presentation revised this to >3 immersion layers. The paper and presentation both report 5nm using >10 EUV layers and that would imply >30 immersion layers will be replaced. This is presumably versus the number of immersion layers required if 5FF were done with multi patterning instead of with EUV.
In the article a graph of mask layers is presented with normalized units where 16FFC is 1.00, 10FF ~1.30, 7FF ~1.44 and 5FF ~1.30. I believe TSMC’s 7FF process is 78 masks and the 5FF is 70 masks. When I use my mask estimates for 16FFC, 10FF, 7FF and 5FF I reproduce the graph from the paper nicely.
I also believe TSMC’s 7FFP process has ~5 EUV masks and 5FF will have ~15 EUV masks.

Demnach hat 5nm genau so viele Masken wie 10nm bei TSMC und 30% mehr als 16nm.

Davon unabhängig ist auch diese Info interessant aus dem Artikel:
Another interesting EUV comment, I am hearing Samsung has a very high dose for their EUV process for critical layers and I have heard TSMC’s EUV dose is much lower with TSMC a >2x throughput advantage over Samsung> This is also consistent with reports that Samsung is having trouble getting enough wafers through their EUV tools.
Doppelt so viele Wafer, weil mit weniger EUV-Layern gestartet wurde.

Berniyh
2020-01-26, 15:23:55
RDNA soll mittelfristig auch überall kommen
Das glaube ich auch erst, wenn es passiert.
Und wenn, dann wohl eher aus Kostengründen (sollte es mit AMD wieder abwärts gehen).

Und selbst dann wäre ich nicht sicher, ob es nicht eher RDNA ist das stirbt statt der HPC Architektur, da mit HPC mehr Geld zu machen ist.

Felixxz2
2020-01-26, 15:31:54
Ich glaube nicht dass RDNA überall kommt. Die Zweiteilung macht durchaus Sinn, denn für HPC kann man dann eben auch bei GCN alles rausnehmen was für Graphic/Gaming ist. Das ist primär eine Frage des Geldes für AMD, aber da schauts zur Zeit ja sehr rosig aus!

pixeljetstream
2020-01-26, 15:43:27
Zur vorherigen Aussage dass es nicht viel Personal braucht (bzw. der Vergleich zum Beamtenapparat):
Es ist in der Tat so dass es nicht so viele "Köche" an der Spitze braucht. Aber imo wird der Aufwand an Software/Forschung und Logistik darunter unterschätzt. Entwicklung ist immer ausprobieren von verschiedenen Ansätzen, je mehr Hilfe man da hat desto leichter geht das (mehr ausprobieren -> bessere Lösung). Je qualifizierter die Leute desto zielgerichteter. Dazu noch die ganze Emulation/Simulation etc. das ist viel Arbeit was drumherum passiert und was quasi von aussen nicht sichtbar ist. Das ganze brauch auch viel custom tools etc.
Die ganzen Analysen der spiele/Anwendungen im Detail braucht auch Leute mit Ahnung. Dann Erprobung was in SW/HW gemacht werden soll etc. Da kommt ordentlich was zusammen.
https://techreport.com/review/28126/semiconductors-from-idea-to-product/

amdfanuwe
2020-01-26, 18:40:30
Gegenargument: Für manchen großen Wurf geht es nicht ohne Masse. Beispiele: Manhatten Projekt & Mondlandung.

Es ist in der Tat so dass es nicht so viele "Köche" an der Spitze braucht. Aber imo wird der Aufwand an Software/Forschung und Logistik darunter unterschätzt.
Bestreitet keiner, dass es für die Umsetzung viele Leute braucht. Nur nützen viele Leute nichts, wenn keine neuen Ideen da sind etwas anders, neues zu machen.

Leonidas
2020-01-27, 02:51:16
Wieso meinst du es wird billiger?


Generell will EUV als Technik zur Kostenreduktion angesehen, weil mit dieser aufwertigeren Belichtung sich die mehrfachen Belichtungsschritte mit der vorherigen Technik gespart werden können. Aber: Anfänglich haben die Anlaufkosten von EUV das aufgefressen - technologisch war EUV schon viel länger spruchreif. Bei gutem Funktionieren ist EUV aber ein Kostensenker.

Complicated
2020-01-27, 06:28:52
Nein ist es nicht. Die Gründe habe ich ja ausgeführt und die Quelle verlinkt.
Die Belichtungsschritte werden nur weniger wenn man die Strukturen nicht auch noch verkleinern würde gleichzeitig mit EUV.

mboeller
2020-01-27, 07:02:35
Nein ist es nicht. Die Gründe habe ich ja ausgeführt und die Quelle verlinkt.
Die Belichtungsschritte werden nur weniger wenn man die Strukturen nicht auch noch verkleinern würde gleichzeitig mit EUV.

tut man ja nicht. Siehe 7nm DUV -> 7nm EUV

Ohne EUV wären aber kleinere Strukturen nahezu gar nicht mehr möglich. Erst durch EUV kann man auch 5nm und 3nm "machen".

basix
2020-01-27, 08:29:07
Eigentlich ist AMDs Folie zu den "yielded 250mm2" eindeutig. 7nm ist massiv teurer als 16nm. 5nm ist aber nur noch leicht teurer als 7nm, dank EUV. Hier habt ihr die Kostenersparnis. Ohne EUV wäre 5nm fast unbezahlbar oder gar unmöglich. 7nm+ könnte im Prinzip günstiger sein als 7nm DUV, TSMC wird ihren Top Notch Prozess aber sicher nicht verscherbeln.

Interessant wird zudem post-5nm. HiNA EUV Belichter/Scanner gibt es noch nicht. Ohne die muss man ab 3nm auf EUV multi-patterning setzen, was extrem teuer wäre.

Edit:
Hier ein schöner Werdegang über EUV von ASML: Link (https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&uact=8&ved=2ahUKEwi9jNb7oaPnAhXSblAKHRZYCSkQFjAAegQIBBAB&url=https%3A%2F%2Fwww.asml.com%2F-%2Fmedia%2Fasml%2Ffiles%2Finvestors%2Fpast-events-and-presentations%2F24062024-ubs-seoul-conference-euv-presentation_v1.pdf&usg=AOvVaw2LJdcJ2tHBwuY32Nqiv2tW). Für unsere Diskussion interessant ist Slide 29, wo die Kosten von DUV, EUV und HiNA EUV inkl. multi-patterning gegenübergestellt werden. Aber auch sonst eine sehr interessante Präsentation, z.B. Abhängigkeit von Lambda und der "numeric aperture" NA und wann man auf multi-patterning umsteigen muss etc.

EUV Anlagen sind wirklich extrem komplexe und technologisch fortschrittliche Maschinen. Beim mich einlesen ins Thema hatte ich paar Mal so "WTF - So machen die das?" Momente :D

danarcho
2020-01-27, 10:05:10
Bestreitet keiner, dass es für die Umsetzung viele Leute braucht. Nur nützen viele Leute nichts, wenn keine neuen Ideen da sind etwas anders, neues zu machen.
Es gibt meistens deutlich mehr Ideen als Zeit diese auszuprobieren, behaupte ich jetzt mal einfach. Bei uns ist es zB so, dass ein paar Ideen seit 2 Jahren rumgammeln, weil alle zu beschäftigt sind noch Bugs zu fixen und fehlende Features einzubauen. Und du weißt halt oft schon vorher, dass allein deine Idee zu testen (bei HW dann simulieren) vielleicht ein halbes Jahr kostet, hast aber keine Ahnung ob und was es am Ende bringt.

dargo
2020-01-27, 10:12:40
Eigentlich ist AMDs Folie zu den "yielded 250mm2" eindeutig. 7nm ist massiv teurer als 16nm. 5nm ist aber nur noch leicht teurer als 7nm, dank EUV. Hier habt ihr die Kostenersparnis. Ohne EUV wäre 5nm fast unbezahlbar oder gar unmöglich.
Naja... Kostenersparnis würde ich das jetzt nicht nennen wenn es so ist wie du es beschreibst. Eher verhindert dann EUV weitere Kostenexplosion bei 5nm. Wenn 5nm EUV immer noch teuerer ist als 16nm/7nm dann ist das keine Kostenersparnis.

btw.
Wenn man sich die ganze Entwicklung bei der Fertigung so anschaut frage ich mich langsam wie das weitergehen soll? Was kommt nach 5nm EUV und vielleicht noch 3nm EUV sofern letzteres überhaupt noch bezahlbar ist? Ich meine in 5+ Jahren wird man wieder 3nm EUV verkleinern müssen. Wo sind eigentlich die Grenzen?

Edit:
https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/50576-tsmc-plant-neue-packaging-technologien-und-1-4-nm-fertigung.html

1,4nm, 3D-Designs... wird doch noch auf absehbare Zeit spannend.

amdfanuwe
2020-01-27, 10:41:51
hast aber keine Ahnung ob und was es am Ende bringt.
Hört sich mehr nach "Bastelstube" als nach solider Ingenieursleistung an.
Kenn ich aber zu genüge. War in mehreren Firmen tätig und habe nur wenige getroffen bei denen ich den Eindruck hatte: "die haben es drauf".

Gipsel
2020-01-27, 13:27:58
Davon unabhängig ist auch diese Info interessant aus dem Artikel:
Another interesting EUV comment, I am hearing Samsung has a very high dose for their EUV process for critical layers and I have heard TSMC’s EUV dose is much lower with TSMC a >2x throughput advantage over Samsung> This is also consistent with reports that Samsung is having trouble getting enough wafers through their EUV tools.
Doppelt so viele Wafer, weil mit weniger EUV-Layern gestartet wurde.
Nicht so ganz. Angeblich benutzt TSMC deutlich geringere Belichtungszeiten, weswegen der Durchsatz höher ausfällt (mit der Anzahl der Layer hat das nichts zu tun).
Dies ist insofern interessant, weil es mit EUV-Belichtung generell das Problem gibt, daß die gleiche eingestrahlte Energie (Strahlungsleistung * Belichtungszeit = Dosis) dort aus deutlich weniger Photonen als noch im UV besteht (nur 1/14 gegenüber DUV), und das auch irgendwann limitiert. Sprich, man kann zwar Photoresists nehmen, die sehr empfindlich auf EUV reagieren (und damit im Prinzip kurze Belichtungszeiten ermöglichen), dann bekommt man aber das Problem, daß kleine Strukturen durch das Photonenrauschen schlecht abgebildet werden. Oder in anderen Worten: Die line edge roughness (LER) wird irgendwann ziemlich mies und wird durch die Anzahl der Photonen bestimmt, die man zur Belichtung benutzt (was bedeutet, daß man bei kurzen Wellenlängen höhere Dosen benötigt). Also entweder hat TSMC das Problem deutlich besser gelöst als Samsung, oder Samsung legt mehr Wert auf eine gute LER, was zu besseren Eigenschaften des Prozesses führen könnte (im Endeffekt kommen dann höhere speed bins raus weil die zufälligen Fluktuationen der Transistoreigenschaften geringer und die Leitfähigkeit der Leitungen höher ist).

basix
2020-01-27, 13:34:32
Was ich so gelesen habe ist, dass TSMC empfindlichere Resists als Samsung einsetzt und deswegen eine geringere Dosis reicht. Und ergo ergibt das mehr Durchsatz an Wafern. Wie genau sie das Noise Problem gelöst / im Griff haben ist wohl ein gut gehütetes Geheimnis.

Akkarin
2020-01-27, 14:59:00
Nicht so ganz. Angeblich benutzt TSMC deutlich geringere Belichtungszeiten, weswegen der Durchsatz höher ausfällt (mit der Anzahl der Layer hat das nichts zu tun).
Dies ist insofern interessant, weil es mit EUV-Belichtung generell das Problem gibt, daß die gleiche eingestrahlte Energie (Strahlungsleistung * Belichtungszeit = Dosis) dort aus deutlich weniger Photonen als noch im UV besteht (nur 1/14 gegenüber DUV), und das auch irgendwann limitiert. Sprich, man kann zwar Photoresists nehmen, die sehr empfindlich auf EUV reagieren (und damit im Prinzip kurze Belichtungszeiten ermöglichen), dann bekommt man aber das Problem, daß kleine Strukturen durch das Photonenrauschen schlecht abgebildet werden. Oder in anderen Worten: Die line edge roughness (LER) wird irgendwann ziemlich mies und wird durch die Anzahl der Photonen bestimmt, die man zur Belichtung benutzt (was bedeutet, daß man bei kurzen Wellenlängen höhere Dosen benötigt). Also entweder hat TSMC das Problem deutlich besser gelöst als Samsung, oder Samsung legt mehr Wert auf eine gute LER, was zu besseren Eigenschaften des Prozesses führen könnte (im Endeffekt kommen dann höhere speed bins raus weil die zufälligen Fluktuationen der Transistoreigenschaften geringer und die Leitfähigkeit der Leitungen höher ist).

Haben die fabless manufacturer da Einfluss drauf ? Sprich: kann AMD sagen "belichtet mal 20% länger wir brauchen bessere LER und zahlen auch mehr" ?

Gipsel
2020-01-27, 15:51:12
Haben die fabless manufacturer da Einfluss drauf ? Sprich: kann AMD sagen "belichtet mal 20% länger wir brauchen bessere LER und zahlen auch mehr" ?
Nein. Das ist Teil des "Kochrezeptes" des verwendeten Prozesses. Will man andere Belichtungszeiten benutzen, muß man auch zu einem anderen Photoresist wechseln. Das zieht dann einen ganzen Rattenschwanz hinter sich her.

BlacKi
2020-01-27, 16:15:34
Haben die fabless manufacturer da Einfluss drauf ? Sprich: kann AMD sagen "belichtet mal 20% länger wir brauchen bessere LER und zahlen auch mehr" ?
das und noch mehr ist der angepasste 12nm prozess von nvidia.

HOT
2020-01-27, 16:31:02
12FFN wird nicht so angepasst sein. Jedenfalls nicht solche Details.


Interessant ist auch folgendes:

TSMC fertigt ja Matisse CPU, Navi und V20.
V20 hat lt. Zahlen etwas über 40Mio Transistoren pro mm², Navi (10 und 14) ca. 42Mio und Matisse (wenn die 74mm² stimmen) hat 52(!) Mio Tansistoren pro mm². Da kann man mal sehen, wieviel I/O ausmachen kann. Mal sehen, was die EUV-Prozesse hier für einen Einfluss haben.

Complicated
2020-01-27, 16:40:12
Nicht so ganz. Angeblich benutzt TSMC deutlich geringere Belichtungszeiten, ...
Vielen Dank für die Ausführung, das war mir noch nicht bekannt. Ich hatte hier "dose" nicht wörtlich genommen und als Anteil EUV Layer interpretiert.

Die geringe Anzahl der EUV-Layer bei 7nm+ ist allerdings der primäre Grund, warum TSMC mit der Anzahl Belichtern ausreichend Wafer-Output hat und schon jetzt einen solchen Prozess anbieten kann. Dann kommt das ja hinzu und wird auch bei gleich viel Layern noch einen Vorteil für TSMC darstellen.

y33H@
2020-01-27, 17:25:18
N7+ kann laut TSMC bis zu 4 Layer per EUV - was freilich nicht bedeutet, dass es bei allen Chips von AMD auch so viele sind ... bin gespannt, ob sich AMD dazu äußert oder ob man auf Tech Insights warten muss.

Linmoum
2020-01-29, 00:15:12
N10/N14 werden noch in diesem Jahr "Refreshes" mit RDNA2 bekommen laut Su gerade im EC. Mehr dazu soll es auf dem Financial Analyst Day am 05.03 geben.

Der_Korken
2020-01-29, 00:35:14
Wenn das stimmt, wäre das ein sehr gutes Zeichen für RDNA2. Das würde nämlich bedeuten, dass die Refreshes deutlich billiger herzustellen sind, sonst würde AMD einfach die alten Chips weiterlaufen lassen. Billiger heißt: Deutlich mehr Perf/mm² oder deutlich geringerer Verbrauch (einfacheres PCB, kleinerer Kühler).

dildo4u
2020-01-29, 04:28:38
Das wurde anders formuliert RDNA Modelle bekommen Refreches und es gibt neue Produkte mit RDNA2.

Q: Lisa, can you give us some idea of what new GPUs you're expected to launch to the rest of 2020, for PCs and for data center?

LS: Yes. In 2019, we launched our new architecture in GPUs, it's the RDNA architecture, and that was the Navi based products. You should expect that those will be refreshed in 2020 - and we'll have a next generation RDNA architecture that will be part of our 2020 lineup. So we're pretty excited about that, and we'll talk more about that at our financial analyst day. On the data center GPU side, you should also expect that we'll have some new products in the second half of this year.

https://www.anandtech.com/show/15445/amds-fy2019-financial-report

TheAntitheist
2020-01-29, 06:00:30
Das wurde anders formuliert RDNA Modelle bekommen Refreches und es gibt neue Produkte mit RDNA2.



https://www.anandtech.com/show/15445/amds-fy2019-financial-report
klingt für mich fast eher danach das für den PC RDNA refreshes kommen und RDNA2 für die Konsolen.
ich weiß sie antwortet darauf was "2020 für den PC kommt" aber sie spricht auch über 2019 was gar nicht teil der Frage war... und refreshes kurz vor RDNA2? nope

HOT
2020-01-29, 06:06:22
klingt für mich fast eher danach das für den PC RDNA refreshes kommen und RDNA2 für die Konsolen.
ich weiß sie antwortet darauf was "2020 für den PC kommt" aber sie spricht auch über 2019 was gar nicht teil der Frage war... und refreshes kurz vor RDNA2? nope

Die alten chips werdem refresht, vllt in N7P? Das war eh nicht anders zu erwarten. Der mainstream wird erst 21 erneuert.

TheAntitheist
2020-01-29, 06:39:02
Die alten chips werdem refresht, vllt in N7P? Das war eh nicht anders zu erwarten. Der mainstream wird erst 21 erneuert.
ja so wird die kluft zu Nvidia leider nur noch größer.

Sunrise
2020-01-29, 06:57:07
klingt für mich fast eher danach das für den PC RDNA refreshes kommen und RDNA2 für die Konsolen.
ich weiß sie antwortet darauf was "2020 für den PC kommt" aber sie spricht auch über 2019 was gar nicht teil der Frage war... und refreshes kurz vor RDNA2? nope
Dann hast du es nicht korrekt gelesen, sie sagt, dass RDNA2 Teil des neuen Lineups (der Refreshes) ist...und RDNA2 ist N7+ laut AMD Roadmap. Und wenn du schon weißt, dass Konsolen garnichts damit zu tun haben, warum vermischst du das dann damit?

Es geht ordentlich ins Geld die Dinger erneut zu bringen, dann müssen da schon ordentliche Verbesserungen anstehen, so dass sich das auch lohnt. Zusammen mit der noch zu erwartenden High-End RDNA2-GPU will man also ein komplett neues Lineup raushauen, das ist ein sehr gutes Zeichen.

Linmoum
2020-01-29, 08:22:54
Es ergibt auch gar keinen Sinn, N10/14 bzw. RDNA einfach nur mit N7P oder N7+ zu bringen. Dafür sind die Vorteile viel zu gering und die Kosten höher, anstatt weiterhin N7 DUV zu verwenden.

Screemer
2020-01-29, 08:42:00
Wenn das stimmt, wäre das ein sehr gutes Zeichen für RDNA2. Das würde nämlich bedeuten, dass die Refreshes deutlich billiger herzustellen sind, sonst würde AMD einfach die alten Chips weiterlaufen lassen. Billiger heißt: Deutlich mehr Perf/mm² oder deutlich geringerer Verbrauch (einfacheres PCB, kleinerer Kühler).
Oder einfach billiger für amd durch mehrere layer euv.

Linmoum
2020-01-29, 08:54:48
Davon ab ist die Frage, ob man für vielleicht +10% wichtige Kapazitäten für Big Navi und vor allem Zen3 abzweigen will, die man dann mit N7+ für diese hat.

Ich bleibe dabei, für nur einen simplen RDNA-Aufguss lohnt sich das dieses Jahr (noch) nicht.

unl34shed
2020-01-29, 08:57:12
Refresh heißt vielleicht auch nur 6000er Line Up ohne Änderung am Chip.

Berniyh
2020-01-29, 09:03:03
Ehrlich gesagt sehe ich die Info als nicht so positiv an.
Für mich heißt das entweder, dass RDNA2 sehr spät kommt, so dass man sich genötigt fühlt RDNA1 neu aufzulegen, oder, dass RDNA2 nur das High-End Spektrum abbildet und man RDNA1 mit refreshes braucht um unten aufzufüllen.
Oder natürlich beides.

Ich tippe aber darauf, dass RDNA2 erst spät im Jahr kommen wird, ggf. so gegen November.

robbitop
2020-01-29, 09:08:23
AMD wird vermutlich nur die großen Chips bringen. N10/14 sind noch zu jung zum Austauschen. Die Lebenszyklen bei GPUs sind in etwa 24 Monate (Abschreibung der Kosten dauert immer länger). Da AMD aber mangels Ressourcen nicht wie NV von unten bis oben alle GPUs launchen kann, zieht sich das etwas. Es spricht entsprechend nichts dafür, dass die späteren GPUs bereits aktuellere IP mitbringen.
Die GFX IP entwickelt sich kontinuierlich weiter und zum jeweiligen Implementierungszeitpunkt nimmt man eben die neusten IP Blöcke.

War ja mit Polaris und Vega auch so.

Brillus
2020-01-29, 09:33:16
Refresh heißt vielleicht auch nur 6000er Line Up ohne Änderung am Chip.

Denk ich auch das es genau das sein wird.

dildo4u
2020-01-29, 09:35:40
Bei den Tests der 5600 kam doch raus,das das meiste vom Performance Bios durch die höhere Bandbreite kommt.
Die Karten könnte man alle mit besseren Vram neu auflegen.

HOT
2020-01-29, 09:39:17
Es ergibt auch gar keinen Sinn, N10/14 bzw. RDNA einfach nur mit N7P oder N7+ zu bringen. Dafür sind die Vorteile viel zu gering und die Kosten höher, anstatt weiterhin N7 DUV zu verwenden.

N7P ist DUV und kompatibel zu N7. Klar bleibt das derselbe Chip. Das ist wie bei GloFos 12nm.

Screemer
2020-01-29, 10:18:15
besser als 14gbps gddr6? soll jetzt was bringen?

SKYNET
2020-01-29, 10:47:37
die 5800XT / 5900XT wird mit sicherheit RDNA2 sein, wärend die 5700/XT wohl als refresh aufgegossen wird... wie 480 --> 580 --> 590, nur das der leistungssprung ohne zwischenschritt wie die RX580 ablaufen wird, also direkt +20%, solange das dann ohne all zu grosse erhöhung der TDP passiert, ist dann alles bene.

Berniyh
2020-01-29, 11:06:38
die 5800XT / 5900XT wird mit sicherheit RDNA2 sein, wärend die 5700/XT wohl als refresh aufgegossen wird... wie 480 --> 580 --> 590, nur das der leistungssprung ohne zwischenschritt wie die RX580 ablaufen wird, also direkt +20%, solange das dann ohne all zu grosse erhöhung der TDP passiert, ist dann alles bene.
Es dürfte sehr unwahrscheinlich sein, dass RDNA2 als 5800/5900 kommt. Das wird ziemlich sicher eine neue 6000er Serie.

Refresh könnte in der Tat bedeuten, dass RDNA1 die 6000er Serie (unverändert?) auffüllt.
Aber eigentlich verstehe ich unter einem Refresh schon auch eine Änderung abgesehen vom Produktnamen.

HOT
2020-01-29, 11:54:05
Jo, jetzt mit Sus Refresh-Ankündigung sollte klar sein, dass das alles 6k-Serie wird.

Ein N10 in N7P zusammen mit 16GT GDDR6 RAM hätte schon einen Mehrwert ggü. den jetzigen N10. Vielleicht ist das jetzt N12.

LasterCluster
2020-01-29, 12:04:50
LS: Yes. In 2019, we launched our new architecture in GPUs, it's the RDNA architecture, and that was the Navi based products. You should expect that those will be refreshed in 2020 - and we'll have a next generation RDNA architecture that will be part of our 2020 lineup.


Wenn RDNA2 nur "part of our lineup" ist, muss es auch noch RDNA1 GPUs geben. Dementsprechend sind die Refreshes der 2019er ganz sicher nicht RDNA2. MMn eher ein gutes Zeichen! Die RDNA2 Änderungen sind so groß, dass man sie nicht mal so schnell in einem Refresh mitnehmen kann.

On the data center GPU side, you should also expect that we'll have some new products in the second half of this year.

Der Plural überrascht etwas. Mehrere Vega based Arcturus Varianten oder noch paar zusätzliche Navi based Geschichten?

mboeller
2020-01-29, 12:42:11
Wenn RDNA2 nur "part of our lineup" ist, muss es auch noch RDNA1 GPUs geben. Dementsprechend sind die Refreshes der 2019er ganz sicher nicht RDNA2. MMn eher ein gutes Zeichen! Die RDNA2 Änderungen sind so groß, dass man sie nicht mal so schnell in einem Refresh mitnehmen kann.

Der Plural überrascht etwas. Mehrere Vega based Arcturus Varianten oder noch paar zusätzliche Navi based Geschichten?


GCN ist auch noch Teil des Line-ups ... und nun???

https://de.wikipedia.org/wiki/AMD-Radeon-500-Serie

Der_Korken
2020-01-29, 12:58:13
Die RDNA2-Produkte über N10/N14 zu launchen würde zur typischen Strategie von AMD passen, wie bei Polaris und Vega. Davon würde ich zunächst auch erstmal ausgehen, bevor man da groß was reininterpretiert. Refresh für RDNA1 kann ja auch einfach nur ein um 10% Takt gepimpter N10 sein. Nur wenn N10/N14 wirklich durch RDNA2 ersetzt werden sollte, kann man von einem rieseigen Sprung ausgehen, weil sich das sonst nicht lohnt.

KarlKastor
2020-01-29, 13:00:48
@LasterCluster
Egal was das für Änderungen sind, die kosten immer viel Geld.
Also entweder man ändert nur die Fertigung (siehe Polaris) oder es kommt was Neues. Irgendwelche Mini Updates sind unsinnig.

Zum Plural:
Mehrere Produkte können auch auf eine GPU basieren.

Dino-Fossil
2020-01-29, 13:13:12
Wobei ein Refresh gegen die ältere Aussage steht, dass man Raytracing dann bringt, wenn man es von unten bis oben anbieten kann.
Es sei denn vielleicht, sie schalten es (mit dann schlechterer Performance) auf den alten Karten frei, ähnlich wie nVidia das für Pascal mal gemacht hat.

amdfanuwe
2020-01-29, 13:29:57
Wird dieses Jahr noch ein gemischtes Jahr.
In etwa:
6500(X) - N14
6600(X) - N10 6GB
6700(X) - N10 8GB
6800(X) - N21

Dazu etwas mit dem Preis runter und schon werden sie gekauft, auch wenn Nvidia effizienteres bietet. Alles nur eine Preisfrage.

Wird wohl erst die 7000er Generation komplett in 5nm 2021 wieder interessant.

Berniyh
2020-01-29, 13:41:36
Vielleicht ist das jetzt N12.
Wohl kaum. Dazu passen die Taktraten von Navi12 einfach nicht.
Ich bezweifle, dass wir Navi12 irgendwann mal noch sehen werden.
Ist wohl entweder irgendwas für ein Custom Projekt oder einfach gecancelled.

Dino-Fossil
2020-01-29, 14:45:57
Overclock3D hier (https://www.overclock3d.net/news/gpu_displays/amd_confirms_that_its_next-gen_rdna_architecture_is_coming_in_2020_-_new_gpus_are_coming/1) interpretiert "refresh" als primär an die anwesenden Finanz-Analysten gerichtet, die darunter etwas anderes verstehen würden als wir. Folglich gehen sie davon aus, dass das Lineup weitestgehend aus neuen Produkten bestehen dürfte.

Akkarin
2020-01-29, 14:48:10
Eine 192bit RDNA2 Karte würde auch noch gut ins lineup passen.

Linmoum
2020-01-29, 15:31:34
Deswegen auch "Refresh". Analysten interessiert es nicht, ob jetzt neue Karten mit 10% mehr Leistung kommen und sowas kündigt man sicherlich auch nicht in einem EC an. Also in dem Kontext, wie es Nerds verstehen würden.

Davon ab hätte es in meinen Augen auch weiterhin keinen Sinn ergeben, hier einfach Polaris 2.0 zu machen. Wang hatte zudem damals klar geäußert, dass es RT erst gibt, wenn der Markt damit von oben bis unten bedient werden kann. Das passt auch wunderbar dazu, dass eben "Refresh" in diesem Fall neue Produkte als Nachfolger für N10/N14 auf RDNA2-Basis meint.

basix
2020-01-29, 15:37:53
Der Plural überrascht etwas. Mehrere Vega based Arcturus Varianten oder noch paar zusätzliche Navi based Geschichten?

Mehrere Produkte können auf dem selben Chip aufbauen, siehe MI50 und MI60. RDNA im Datacenter ist eher unwahrscheinlich, ausser RDNA2 Raytracing wird für CGI / Filme ins Datacenter gebracht.

Linmoum
2020-01-29, 22:52:42
Um das Thema "Refresh" dann auch endgültig abzuschließen. Su wörtlich im EC:

In 2019 we launched our new architecture in GPUs, it's the RDNA architecture and that was the Navi based products. You should expect that those will be refreshed in 2020 and will have next generation RDNA architecture that will be part of our 2020 lineup.
https://edge.media-server.com/mmc/p/qazhc4s8

Ab 42:05.

Ravenhearth
2020-01-30, 00:40:13
Ist ja lustig. Anandtech (https://www.anandtech.com/show/15447/quick-notes-navi-refresh-and-rdna2-both-in-2020-according-to-amd) haben die gleiche Stelle rausgegriffen, verstehen da aber
You should expect that those will be refreshed in 2020 - and we'll have a next generation RDNA architecture that will be part of our 2020 lineup.

Das würde natürlich die Aussage ändern.
Wobei ich es auch eher so verstehe wie du.

Linmoum
2020-01-30, 01:07:43
Ich hatte auch mehrmals hingehört, nachdem das von AT ja hier zuvor schon verlinkt war. Aber was die geschrieben haben, ist da beim besten Willen nicht zu verstehen. Deswegen ist es immer schön bei sowas, auch den Originalton bzw. exakten Wortlaut zu haben.