Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 [48] 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81

basix
2020-09-20, 17:21:03
We will see ;)

gedi
2020-09-20, 18:11:28
Dafür muss man doch in den Navi 3X Thread.


Musste sein 😀 😉

Für solch Zitate wünsche ich mir den R300 zurück. Was ist denn ne 3080 im Vergleich zu meiner übertakteten Ex-Ti mit 2.2G? Eben: Genau das Gleiche!

Zergra
2020-09-20, 18:33:29
Nicht immer gleich alles ernst nehmen ;)

gedi
2020-09-20, 18:46:31
Sorry ;)

Hakim
2020-09-20, 18:56:08
Es wäre echt mal cool wenn mal langsam hier und da "leaks" auftauchen würden. Wenn AMD ein heißes Eisen im Ofen hat, könnte man den run auf die 3080 etwas mindern und mehr Leute zum warten bewegen

Linmoum
2020-09-20, 19:04:38
Wieso soll AMD die Leute noch mehr zum warten bewegen? Was anderes können diejenigen, die unbedingt eine 3080 wollen, gerade eh nicht machen. ;) Und das wird auch noch länger als ein paar Tage anhalten.

gedi
2020-09-20, 19:08:23
Warum? Für den Moment ist Ampere nicht lieferbar. Ich glaube allerdings, dass dies sich mit der 3090 rapide ändert. An dem Ding ist halt mehr verdient und die 3080 kommt imo demnächst mit nem GA-103 Chip auf den Markt. Logisch, dass man die Produktion zurückhält.

Vielleicht ist ja doch etwas dran an den 16RBEs was dann auf 128 Rops schließen würde, sprich bei 80CUs auf 10240SPs! Eigentlich müsste man das Halo-Produkt (was es dann wäre, aufgrund der 50%p/W) zwingend mit HBM2 ausstatten. Man stelle sich dieses Monster mit weit mehr als 2G vor.

basix
2020-09-20, 19:14:35
Man stelle sich dieses Monster mit weit mehr als 2G vor...

...und 500W ;)

Cyberfries
2020-09-20, 19:18:56
Vielleicht ist ja doch etwas dran an den 16RBEs was dann auf 128 Rops schließen würde, sprich bei 80CUs auf 10240SPs!

Wut? Falsche Baustelle.
4 SEs à 4RBEs & 10WGPs führt zu 128 ROPs und 5120 ALUs.

Ich denke die 350W würden reichen, da man NV im Fertigungsprozess ziemlich weit voraus ist.

Man darf auch AMDs neues Osmose-Modul nicht vergessen, zur Energiegewinnung aus Umgebungsluft.

gedi
2020-09-20, 19:21:33
...und 500W ;)

Ich denke die 350W würden reichen, da man NV im Fertigungsprozess ziemlich weit voraus ist.

gedi
2020-09-20, 19:37:11
Wut? Falsche Baustelle.
4 SEs à 4RBEs & 10WGPs führt zu 128 ROPs und 5120 ALUs.



Man darf auch AMDs neues Osmose-Modul nicht vergessen, zur Energiegewinnung aus Umgebungsluft.

Sorry, für mich sind 80CUs bei 128ROPS? Und dein Osmose-Modul darfst du dir gern dahin schieben, wo es dir gut tut. Ich hoffe es hilft. Für mich bist du ab nu die Kolbenrückholfeder

Vielleicht zu lang ins Meerwasseraquarium geschaut?

Cyberfries
2020-09-20, 19:48:30
Für mich bist du ab nu die Kolbenrückholfeder

Ich kann dir nicht helfen, wenn du 80CUs x 128 ROPs = 10240 SPs rechnest.
Da bist du selbst für verantwortlich.
Die 16RBEs bestreitet keiner. 128ALUs je CU kannste aber vergessen, is nich.

Daredevil
2020-09-20, 19:54:18
Wieso soll AMD die Leute noch mehr zum warten bewegen? Was anderes können diejenigen, die unbedingt eine 3080 wollen, gerade eh nicht machen. ;) Und das wird auch noch länger als ein paar Tage anhalten.
Weil an einem Nachmittag 3080 Karten von einem Hersteller im Wert von 14 Millionen Euro bei Amazon bestellt worden sind.
Jede 3080 ist eine nicht verkaufte NaviII, da sollte AMD in der Tat mal was machen.

Wenn die ein Einhorn im Stall haben, sollten sie es auch mal ein wenig glänzen lassen, weil AMD braucht noch über einen Monat für die Ankündigung.

gedi
2020-09-20, 19:54:28
Warum nicht, kläre mich auf?

basix
2020-09-20, 19:57:01
Wenn die ein Einhorn im Stall haben, sollten sie es auch mal ein wenig glänzen lassen, weil AMD braucht noch über einen Monat für die Ankündigung.

Warte bis die 3090 Reviews durch sind. Vorher wird es mMn nichts von AMD geben.

kabe
2020-09-20, 20:03:07
Man sollte nicht vergessen, dass AMD nicht unendliche Kapazitäten bei TSMC hat, für Konsolenchips, Zen3, RDNA2 und Laptopgedöns. Selbst wenn AMD den Überflieger bringt, macht es nicht soviel aus, wenn nun viele bei der 3080 zuschlagen. Mehr verkaufen als produzieren, geht auch nicht.

Linmoum
2020-09-20, 20:06:55
Wegen der nicht vorhandenen Verfügbarkeit haben sie aktuell Null Grund, überhastet irgendwas zu tun. Sie wissen dank Polaris/Vega selbst, wie übel das ist, wenn man nicht liefern kann. Und dass das nicht nur wenige Tagen oder Wochen dauert, bis sich das annähernd entspannt.

Ich gehe weniger davon aus, dass sie die 3090 abwarten, sondern dass sie den 3080-Launch abgewartet haben. Und das spielt ihnen aktuell natürlich enorm in die Karten.

Kapazitäten dürften sich deutlich entspannen, nachdem Huawei mittlerweile raus ist und Apple (teilweise) auf 5nm umsteigt.

gedi
2020-09-20, 20:08:55
Warte bis die 3090 Reviews durch sind. Vorher wird es mMn nichts von AMD geben.

Sehe ich auch so. Wenn man die Chance sieht, dann sollte man sie auch nutzen. NV will möglichst viel an dem 3090-Kontinent verkaufen? Okay, jetzt Grätsche ich dazwischen (vorausgesetzt ich habe ein überlegenes Produkt). Was will ich ne 3080 angreifen, wo für NV eh wenig verdient ist. Ich meine die 699€ ist ein Dumpingpreis

igg
2020-09-20, 20:12:49
Sehe ich auch so. Wenn man die Chance sieht, dann sollte man sie auch nutzen. NV will möglichst viel an dem 3090-Kontinent verkaufen? Okay, jetzt Grätsche ich dazwischen (vorausgesetzt ich habe ein überlegenes Produkt).Ich denke nicht, dass die 3090 in Schlagweite ist. Sowohl die Gerüchteküche als auch die Preisgestaltung sowie RAM Bestückung lassen auf ein 3080 Duell schließen. Wer die Nase vorn hat, sehen wir Ende Oktober.

WedgeAntilles
2020-09-20, 20:17:01
Wegen der nicht vorhandenen Verfügbarkeit haben sie aktuell Null Grund, überhastet irgendwas zu tun. Sie wissen dank Polaris/Vega selbst, wie übel das ist, wenn man nicht liefern kann. Und dass das nicht nur wenige Tagen oder Wochen dauert, bis sich das annähernd entspannt.

Ich gehe weniger davon aus, dass sie die 3090 abwarten, sondern dass sie den 3080-Launch abgewartet haben. Und das spielt ihnen aktuell natürlich enorm in die Karten.

Kapazitäten dürften sich deutlich entspannen, nachdem Huawei mittlerweile raus ist und Apple (teilweise) auf 5nm umsteigt.

Ja, so lange die Verfügbarkeit von Ampere gegen 0 geht muss AMD noch nix verkünden.
Aber falls sich die Verfügbarkeit von Ampere verbessert muss AMD reagieren.

wo für NV eh wenig verdient ist. Ich meine die 699€ ist ein Dumpingpreis
Und trotzdem hoffen hier viele, dass BigNavi mit mehr Ram und dem teureren Produktionsprozess (dass Samsung günstiger ist, gilt ja als gesichert) günstiger wird als Ampere, mindestens jedoch nicht teurer? Wie passt das zusammen? Macht AMD dann Verlust mit jeder verkauften Karte?

Ich finde 700 Euro für ne GraKa auch nicht gerade einen Dumpingpreis - der Preis ist vor allem für die Leistung attraktiv, ja.
Aber Dumping?
Ne. Da wird Nvidia fett Kohle mit verdienen.
Mehr als mit ner 3070 schätze ich, weswegen es Nvidia sicher auch in die Karten spielt wenn die Käufer statt zur 3070 zur 3080 greifen werden.

gedi
2020-09-20, 20:19:05
Die 699€ sind im Vergleich zu Turing ein Witz. Aber aufgrund der Vorabbenchs bei +10 -15% wüßte ich nicht, warum ich nicht nach der Krone greifen sollte?!

Daredevil
2020-09-20, 20:22:47
Wegen der nicht vorhandenen Verfügbarkeit haben sie aktuell Null Grund, überhastet irgendwas zu tun.
Die Karte ist nicht einfach "nicht verfügbar", sondern die AiBs haben einfach alle ihre Karten der ersten Lieferung verkauft.
Meinst du nicht, dass eine knappe Verfügbarkeit die Attraktivität deutlich steigert? Fomo gibts nämlich auch im Handel, nicht nur bei den Aktien.
Schau dir doch mal die Ebay Preise an, die 3080 wird verschleudert, als wäre es eine Limited Edition und die Leute haben Bock drauf. So einen Status wünscht man sich. ( Wie bei iPhones, jedes Jahr )

Völlig egal was Gamer gerade wollen, jeder will die aktuell schnellste Karte auf dem Markt haben, egal von welchem Anbieter.
Server, Prosumer, Gamer, Miner. Jeder. AMD gerät in Vergessenheit, wenn die nichts teasern, weil alle schon gemütlich am zocken sind.

Und gerade diese ( irrationale ) Angst, die Gamer mit 10GB bei der 3080 haben, sollte AMD ausnutzen, damit noch gewartet wird, insofern sie mehr bieten können.

Hakim
2020-09-20, 20:41:20
Ich sehe das wie DD, ich persönlich bin tick mehr NV zugeneigt, aber würde bei einer guten AMD Karte auch zu diesem greifen, wollte und will eigentlich eine 3080 haben, keine bekommen, überlege schon irgendwo einfach eine vorzubestellen. Glaube da bin ich gerade nicht der einzige, genau diese Leute würde AMD jetzt mit Leaks ansprechen, wenn die was zeigen was die Leute überraschen und zum warten bewegen würde.

mboeller
2020-09-20, 20:45:31
IMHO:

AMD dürfte es egal sein wie viele Leute BigNavi kaufen, mit ZEN3 verdienen sie pro mm² wesentlich mehr.

BigNavi ist für sie ein "Halo-Produkt". Es dient als Vehikel um die neuen Mainstream-Karten und vor allem die Laptop-GPUs zu verkaufen.

Schneller als die 3080 muss sie dafür mindestens sein, aber ob BigNavi auch schneller als die 3090 sein muss damit BigNavi als "Halo-Produkt" funktioniert... keine Ahnung.

Ich kann mir deshalb gut vorstellen, dass BigNavi um einiges teurer wird als die 3080, also so 899,- oder gar 999,- wären noch im Rahmen.

Nazar
2020-09-20, 20:48:01
Ich glaube auch nicht, dass AMD der 3080 Paroli bieten kann.
Jeder weiß wie wichtig es ist die Käufer vom eigenen Produkt zu überzeugen und das andere, bevor es verkauft werden kann, schlecht dastehen zu lassen.
Hätte AMD die richtigen Pfeile im Köcher, hätte es schon längst die passenden Leaks gegeben, alleine schon aus strategischen Gründen.
Sich bewusst in Schweigen zu hüllen, ist in so einer Situation, wenn man denn wirklich besser oder gleichwertig wäre, dumm.
Der Kunde, der nV gekauft hat, wird nicht mehr AMD kaufen! So einfach ist das. :wink:

Berniyh
2020-09-20, 20:48:09
Ich finde ja das Portfolio von Nvidia extrem spannend. Man bekommt eine 3080 um $699 und zahlt für eine 10% schnellere 3090 $1499. Auch eine 3080 20Gb soll noch kommen. NV erwartet AMD also wohl knapp unter 3080 Speed und will dafür sorgen, den profitablen Teil des Marktes weiter exklusiv für sich zu bekommen.
Möglich, aber es kann auch einfach sein, dass der Yield bei den Samsung Chips unterirdisch ist und daher der große Abstand zwischen der 3080 und 3090.
Yield war ja angeblich schon seit längerem das wesentliche Problem bei Samsung.
Die Gewinnmargen bei den einzelnen Karten würden mich wirklich interessieren.
Die kann zumindest bei der 3080 nicht gut sein, wenn man einen neuen GA103 plant für die 3080.

AMD muss mit BigNavi ja irgendwie überraschen, wenn jetzt plötzlich auch von den Leakern ein 256bit SI genannt wird...
Merkst du eigentlich was du für einen seltsamen Satz da von dir gegeben hast?
Von wem, wenn nicht von Leakern, soll denn so eine Geschichte sonst kommen?
Abgesehen davon wissen wir doch wie gerne da nachgeplappert wird.

Linmoum
2020-09-20, 20:59:50
Ich würde kimi und rogame jetzt nicht als Nachplapperer bezeichnen.

unl34shed
2020-09-20, 21:01:28
Hätte AMD die richtigen Pfeile im Köcher, hätte es schon längst die passenden Leaks gegeben, alleine schon aus strategischen Gründen.
Sich bewusst in Schweigen zu hüllen, ist in so einer Situation, wenn man denn wirklich besser oder gleichwertig wäre, dumm.
Der Kunde, der nV gekauft hat, wird nicht mehr AMD kaufen! So einfach ist das. :wink:

Wieso?
- Nvidia kann aktuell nicht wirklich liefern
- Wenn man jetzt aktiv wird gibt man Nvidia 1 Monat mehr Zeit eine 3080Ti zu bauen/definieren
- Grafikkarten werden immer gekauft, nicht nur in den ersten Wochen nach Release
- die paar Spinner, die nicht warten können, hätten auch nicht gewartet
- etc.
Hatten wir aber schon auf der letzten Seite.

Der ein oder andere Leak wird sicher noch kommen, aber aktuell ist kein Zugzwang.

Daredevil
2020-09-20, 21:04:36
Wieso?
- Nvidia kann aktuell nicht wirklich liefern

Das Argument verstehe ich nicht ganz.
Wieso muss man denn liefern, wenn die Kunden auch eine Vorbestellung kauft?

Wichtig ist doch nicht, was aus dem Werk fährt, sondern was der Kunde bereit ist zu zahlen und wenn der Kunde schon bereits auf ein Versprechen bezahlt, diese Karte schnellstmöglichst zu bekommen ( Hallo Tesla ), dann ist das nichts negatives, was man dem Verkauf ankreiden kann, sondern der Kaufdruck ist riesig und somit kann der Hersteller auch die Produktion besser anpassen.

Lass AMD doch mal sagen, dass BigNavi mit 12/16 GB kommt, die mit einer 3080 mithalten und lass sie mal einen "Vorverkauf" starten für 499€/599€.
Was meinst du, wie viel tausende Menschen Geld ausgeben, bevor sie was in der Hand halten?
Der "Haben wollen" Faktor ist eine wichtige Komponente.

unl34shed
2020-09-20, 21:07:13
Schon mal das Wort "Stornieren" gehört?
Das kann man machen, wenn zB. einer der Vertragspartner nicht Liefert.

Daredevil
2020-09-20, 21:09:02
Wieso sollte Amazon stornieren, wenn sie 14 Mio Umsatz machen können?
Wieso sollten Kunden Karten für 699€ ablehnen, wenn sie aktuell für deutlich mehr gehandelt werden? ^^

Complicated
2020-09-20, 21:10:15
Zen3 -Release kommt zuerst und die Redaktionen dürfen die 8-Cores Samples behalten (12- und 16-Core müssen Sie zurück schicken,da ein 8-Core-CCX reicht für Gaming) wenn damit der RDNA2-GPU Test durchgeführt wird ;D
Sind dann 20 Tage Zeit sich mit der neuen Plattform auseinanderzusetzen (BIOS, Takt, OC, RAM, Vergleichs-GPUs) bis die RDNA2-GPU rein kommt. /schön wärs ;)

Berniyh
2020-09-20, 21:16:33
Ich würde kimi und rogame jetzt nicht als Nachplapperer bezeichnen.
Ich habe niemanden als Nachplapperer bezeichnet, sondern nur gesagt, dass es in dem Game üblich ist, dass auch (mal oder häufig, je nach Person) nachgeplappert wird.

Abgesehen davon hat speziell rogame in den letzten Wochen zu Navi 2x viel komisches Zeug von sich gegeben.

jagger
2020-09-20, 21:22:10
Ich glaube auch nicht, dass AMD der 3080 Paroli bieten kann.
Jeder weiß wie wichtig es ist die Käufer vom eigenen Produkt zu überzeugen und das andere, bevor es verkauft werden kann, schlecht dastehen zu lassen.
Hätte AMD die richtigen Pfeile im Köcher, hätte es schon längst die passenden Leaks gegeben, alleine schon aus strategischen Gründen.
Sich bewusst in Schweigen zu hüllen, ist in so einer Situation, wenn man denn wirklich besser oder gleichwertig wäre, dumm.
Der Kunde, der nV gekauft hat, wird nicht mehr AMD kaufen! So einfach ist das. :wink:

Jetzt werden eine handvoll Nerds bedient, was verkaufstechnisch relativ irrelevant ist. Es ist einzig wichtig das du spätestens bis Ende November zum Weihnachtsgeschäft alle Infos auf dem Tisch liegen hast und die Händler die Regale voll haben.

Daredevil
2020-09-20, 21:29:07
Jetzt werden eine handvoll Nerds bedient, was verkaufstechnisch relativ irrelevant ist.
lol :D
Ich geb dir mal eine Relation dieser "Handvoll Nerds".
https://www.3dcenter.org/artikel/mindfactory-grafikkarten-retail-verkaufsreport-q22020

Hätte Amazon geliefert bzw. wenn Amazon liefert, haben die an einem halben Tag mehr Zotac Karten verkauft, wie Mindfactory im kompletten Q2 mit allen Karten zusammen der Serie 5700XT, 5700, 5600XT, 5500XT, RX590.
Schaut auf einmal nicht mehr so sehr "relativ irrelevant" aus für eine Karte weit über 400€, wa?

Zahlen, Daten, Fakten. Sowas sollte AMD nicht kalt lassen.

WedgeAntilles
2020-09-20, 21:30:44
- Wenn man jetzt aktiv wird gibt man Nvidia 1 Monat mehr Zeit eine 3080Ti zu bauen/definieren
.

Ja, in diesem 1 Monat designt Nvidia mal kurz nen neuen Chip...

Bzw. bringt AMD irgendwann BigNavi raus - dann kann Nvidia ja immer noch sofort ankündigen, was für einen tollen Konter sie dann bringen.
Dauert dann halt 1-2 Monate länger, da Nvidia ja nach deiner Logik dazu 1-2 Monate weniger Vorlauf hatte.

Nur: Du argumentierst ja gerade, dass ein paar Monate im GraKa Verkauf völlig irrelevant sind.
Also ist es für nvidia doch völlig irrelevant, ob die den Konter dann 1 Monat früher oder später bringen. Vor allem wenn Nvidia seinen Konter den Käufern gleich ankündigt.

Du merkst, deine Logik ist in sich völlig unstimmig.

Ne, von AMD müssen bald Infos kommen.
Es gibt schlicht keinerlei Grund damit zu warten.
Je länger AMD wartet, desto mehr Kunden verlieren sie.

AMD muss mir als Käufer sagen, warum ich warten soll.
Oder anders gefragt: Wenn nicht mal AMD nen Grund nennen kann warum man warten soll - wieso sollte ein Käufer es denn dann machen?

Es geht hier nicht um vollständige Infos - haut ein paar Specs raus, falls vorhanden nen guten Benchmark, Preise, irgendwas das zeigt, warum es sinnvoll ist zu warten.
Verkauf ist Marketing - Ampere ist aktuell sehr gehypt.
Falls ich selber auch was verkaufen will sollte ich etwas gegen den Hype meiner Konkurrenz stellen.

Klar, wenn ich nix habe ist das ein Problem.
Aber BigNavi soll in 2 Monaten kommen.
Sorry, wenn ich da jetzt kein kleines Gegenmittel gegen den Nvidia-Hype habe, wann denn dann?
Und wenn ich einfach nix gegen den Hype der Konkurrenz machen will, obwohl ich die Mittel dazu hätte - dann bin ich einfach vollkommen unfähig was das Marketing angeht.

Dann brauch ich mich aber auch nicht zu wundern warum mein Konkurrent 80% Marktanteil hat und ich nur 20%.
Das ist dann einfach inkompetent.

Klar kann man mit einer Hype-Gegensteuerung nicht plötzlich seinen Marktanteil verdoppeln.
Aber jeder Verkauf zählt, wenn ich nur 20% derjenigen die jetzt Kaufen zum Warten überreden kann ist das schon mal was.

Denn noch mal: Es kostet mich nichts. Ich verliere absolut nichts als AMD.
Ich kann nur gewinnen.

Aber ok, vielleicht hat es AMD halt nicht nötig, vielleicht wollen die gar keine Marktanteile gewinnen - fände ich zwar merkwürdig, aber ich bin bei deren Strategiebesprechungen ja nicht dabei.
Irgendwo oben schrieb ja einer, AMD würde es eh kaum interessieren wie sich BigNavi verkauft.
Für mich kaum vorstellbar, würde aber immerhin die Stille von AMD erklären.

Mal sehen was die nächsten 2,3 Wochen kommt.

Daredevil
2020-09-20, 21:38:58
Das Ding ist halt auch, AMD verspricht für 4K Gamer dieses Jahr noch eine Lösung und viele AMD Fans ( ich hege ja auch Sympatie der Firma gegenüber ) setzen im schlechtesten Fall auf dieses Pferd, wollen Cyberpunk geil spielen, warten auf die AMD Ankündigung und wenn dort scheiße vorgestellt wird, verlieren die sogar ihre Fans. Die Abwärtsspirale wird also größer, weil Vertrauen gebrochen wird.

Die Lösung für 4K Gaming von AMD kommt einfach viel zu spät, das haben sie schon ordentlich verkackt. Die hätte schon letztes Jahr kommen müssen.
Wenn sie sich aber SO VIEL Zeit nehmen für eine neue Architektur, mit massig Leistung blablabla, dann müssen sie auch jetzt liefern. Viele warten auf AMD und geben ihnen ein Vertrauensvorschuss, das sollte nicht umsonst gewesen sein.

Wenn Son Goku Monatelang in seiner Schwerkraftskapsel trainiert, erwartet man auch einen anständigen Boost an Performance und den sollte man m.M. auch mal Teasern, weil sonst schalte ich ab. :D

Und ein billo Kühler in Fortnite ist ( für mich ) nichts Wert.
Da ist ja selbst die Leistung der neuen Konsolen spannender.

unl34shed
2020-09-20, 21:48:39
Ja, in diesem 1 Monat designt Nvidia mal kurz nen neuen Chip...

Bzw. bringt AMD irgendwann BigNavi raus - dann kann Nvidia ja immer noch sofort ankündigen, was für einen tollen Konter sie dann bringen.
Dauert dann halt 1-2 Monate länger, da Nvidia ja nach deiner Logik dazu 1-2 Monate weniger Vorlauf hatte.

Nur: Du argumentierst ja gerade, dass ein paar Monate im GraKa Verkauf völlig irrelevant sind.
Also ist es für nvidia doch völlig irrelevant, ob die den Konter dann 1 Monat früher oder später bringen. Vor allem wenn Nvidia seinen Konter den Käufern gleich ankündigt.

Du merkst, deine Logik ist in sich völlig unstimmig.

Wo schreibe ich was von einem neuen Chip? Ich meine eine neue SKU, das eine theoretische 3080Ti auf GA102 basiert dachte ich wäre klar. Vermutlich das 20GB Modell und je früher AMD etwas sagt, um so schneller kann man die Finalen Specs definieren.

Ne, von AMD müssen bald Infos kommen.
Es gibt schlicht keinerlei Grund damit zu warten.
Je länger AMD wartet, desto mehr Kunden verlieren sie.

Doch, die Produktvorstellung ist am 28.10. It's done when it's done.

AMD muss mir als Käufer sagen, warum ich warten soll.
Oder anders gefragt: Wenn nicht mal AMD nen Grund nennen kann warum man warten soll - wieso sollte ein Käufer es denn dann machen?

Dann wart halt bis die 3080 irgendwann versendet wird :biggrin:

w0mbat
2020-09-20, 21:49:50
lol :D
Ich geb dir mal eine Relation dieser "Handvoll Nerds".
https://www.3dcenter.org/artikel/mindfactory-grafikkarten-retail-verkaufsreport-q22020

Hätte Amazon geliefert bzw. wenn Amazon liefert, haben die an einem halben Tag mehr Zotac Karten verkauft, wie Mindfactory im kompletten Q2 mit allen Karten zusammen der Serie 5700XT, 5700, 5600XT, 5500XT, RX590.
Schaut auf einmal nicht mehr so sehr "relativ irrelevant" aus für eine Karte weit über 400€, wa?

Zahlen, Daten, Fakten. Sowas sollte AMD nicht kalt lassen.
Ich hab das Gefühl, dass du das geil findest, weiß aber nicht wieso und was das hier im thread zu suchen hat.

Wär dir am liebsten wir hätten ein komplettes Monopol?

unl34shed
2020-09-20, 21:52:52
Ne die brauchen AMD, damit die Nvidia Karten gunstiger bleiben ;)

Daredevil
2020-09-20, 21:53:51
Ich hab das Gefühl, dass du das geil findest, weiß aber nicht wieso und was das hier im thread zu suchen hat.

Es war eine Antwort auf einen Beitrag. Les ihn dir doch durch, dann erkennst du den Sinn.
Ich finds nicht geil, eher überraschend. Eher finde ich es ungeil, dass AMD abgehängt wird.
Noch ungeiler finde ich, dass nicht Nvidia daran Schuld ist, sondern AMD.

Zergra
2020-09-20, 21:54:33
Jetzt werden eine handvoll Nerds bedient, was verkaufstechnisch relativ irrelevant ist. Es ist einzig wichtig das du spätestens bis Ende November zum Weihnachtsgeschäft alle Infos auf dem Tisch liegen hast und die Händler die Regale voll haben.

Wenn AMD Ende Oktober die Karten vorstellt. Dann dürfte es mit Custom Karten bis Weihnachten knapp werden.

Dazu noch der neue Mining Hype der voraussichtlich kommt, wenn die Karten wirklich so gut werden. Dann wird es lange sehr wenig zu kaufen geben. Dann war der 3080 verkauf nur ein Vorgeschmack...

jagger
2020-09-20, 21:56:31
lol :D
Ich geb dir mal eine Relation dieser "Handvoll Nerds".
https://www.3dcenter.org/artikel/mindfactory-grafikkarten-retail-verkaufsreport-q22020

Hätte Amazon geliefert bzw. wenn Amazon liefert, haben die an einem halben Tag mehr Zotac Karten verkauft, wie Mindfactory im kompletten Q2 mit allen Karten zusammen der Serie 5700XT, 5700, 5600XT, 5500XT, RX590.
Schaut auf einmal nicht mehr so sehr "relativ irrelevant" aus für eine Karte weit über 400€, wa?

Zahlen, Daten, Fakten. Sowas sollte AMD nicht kalt lassen.

Doch total irrelvant hier mit End-of-life Graka Durchnschnittsverkäufen im Frühjahr mit neuen Launchprodukten zu vergleichen. Der Umsatz wird im Weihnachtsgeschäft gemacht, da spielt es kein Rolle, ob AMD jetzt oder ein paar Wochen später Infos rausrückt.

Daredevil
2020-09-20, 22:00:17
Durchnschnittsverkäufen im Frühjahr
Magst du mir da mal Zahlen nennen?
Corona bedingt waren Konsumgüter im Multimedia ja eher mehr gefragt dieses Jahr.

w0mbat
2020-09-20, 22:01:47
Es war eine Antwort auf einen Beitrag. Les ihn dir doch durch, dann erkennst du den Sinn.
Ich finds nicht geil, eher überraschend. Eher finde ich es ungeil, dass AMD abgehängt wird.
Noch ungeiler finde ich, dass nicht Nvidia daran Schuld ist, sondern AMD.
AMD wurde "abgehängt", weil Intel, als AMD vorne lag, den Markt bestochen hat und AMD so nicht das Geld verdienen konnte, das sie sonst verdient hätten.

Kein Geld = kein R&D, kein R&D = man wird abgehängt.

Mit Zen hat sich das bei den CPUs ja geändert und durch das Geld für mehr R&D ändert sich das hoffentlich auch bei den GPUs. Sieht man ja schon an RDNA.

Dass du hier AMD die Schuld gibt zeigt nur, dass du überhaupt keine Ahnung hast. Sorry dir das so direkt zu sagen.

Daredevil
2020-09-20, 22:06:12
Es wäre für AMD also komplett unmöglich gewesen, eine ~20-30% schnellere 5700XT zu fertigen in 7nm bei 300-350w? Das glaube ich nicht, aber es ist nun mal eine Entscheidung von AMD gewesen, ein "runderes" Produkt zu fertigen für den 4K Markt, aber halt ein Jahr später.
Die VII war genau das Zeichen, was richtig war von AMD. Fanservice at its best.

Du hast btw. vergessen, dass Apple daran Schuld ist, dass die 2020 keine 4K Karte auf dem Markt haben, weil sie sich nach PowerPC für Intel entschieden haben. ( Was stellst du denn für irrelevante Vergleiche an? :D )

Blediator16
2020-09-20, 22:11:36
AMD verkauft lieber CPUs als GPUs, weil sie sicherlich mehr Marge bringen.

Effe
2020-09-20, 22:13:39
Die Konsolen-SoC entwickeln sich nicht von alleine. Diese sind viel wichtiger als für NV-Käufer als Preisdrücker zu fungieren.

Blediator16
2020-09-20, 22:14:48
Ich denke die bei AMD versuchen schon seit einiger Zeit nicht mehr als Preisbrecher zu wirken. Wird aber schwer dieses mal, da NV doch die Preise in humanere Ebenen gebracht hat.

unl34shed
2020-09-20, 22:16:18
Ich denke die bei AMD versuchen schon seit einiger Zeit nicht mehr als Preisbrecher zu wirken. Wird aber schwer dieses mal, da NV doch die Preise in humanere Ebenen gebracht hat.

Die Frage ist warum haben sie das und dabei die Graka auch noch an die Kotzgrenze getaktet.

Daredevil
2020-09-20, 22:18:38
Wird aber schwer dieses mal, da NV doch die Preise in humanere Ebenen gebracht hat.
Nvidia hat die Preise doch überhaupt nicht gesenkt? Nur halt die Leistung gesteigert.

Spasstiger
2020-09-20, 22:20:23
Wenn das RX-6000-Flagschiff schneller ist als die RTX 2080 und mehr VRAM aufweist, wird sich AMD das auch bezahlen lassen, evtl. sogar vierstellig.

RLZ
2020-09-20, 22:21:44
Mit Zen hat sich das bei den CPUs ja geändert und durch das Geld für mehr R&D ändert sich das hoffentlich auch bei den GPUs. Sieht man ja schon an RDNA.
An RDNA? Zen 1 kam 2017 raus. Da war RDNA vermutlich schon fast durch mit dem Design.

Cyberfries
2020-09-20, 22:23:01
nVidia hat Anfang August mit der GA102-Produktion begonnen, bei TSMC werden derzeit die Huawei-Kapazitäten frei.
Die Verfügbarkeit von N2x kann man sich also ausrechnen.

@Avery78 (Twitter):
#RX6000 whispers...(1/2)
1. One RDNA2 card trades with 3080, less $ & may be bit better (~ +5%)
2. ^ that card pulls 280W @ load
3. #BigNavi CU/SP may work a little different in terms of throughput perf.. like how 2xCUDA on RTX3k doesn't = double performance.
[unverified + salt]
#RX6000 whispers...(2/2)
New tech introductions -> NV
1. Lossless anti-aliasing
2. Nano-subsurface effect
3. A NCSN type tech (Noise Conditional Score Network) introducing training functions
[unverified + salt]

Zergra
2020-09-20, 22:24:40
Wenn das RX-6000-Flagschiff schneller ist als die RTX 2080 und mehr VRAM aufweist, wird sich AMD das auch bezahlen lassen, evtl. sogar vierstellig.

In dem Fall eher für 350€?

why_me
2020-09-20, 22:25:18
@WedgeAntilles und Daredevil: AMD ist eine Firma, da gibt es Zeitpläne und an die hält man sich. Schnellschüsse gehen in der Regel nach hinten los. Und sind wir doch Ehrlich, egal was AMD jetzt sagen würde, keiner würde es ihnen glauben.
Wenn die 256 bit stimmen und dennoch funktionieren, keiner würde denken, das es eine highend GPU ist.
Shader Zahl? Bestimmt kleiner als von Ampere
Verbrauch? War nur bis Turing wichtig, jetzt zählt das nicht mehr
Preis? Egal, da keine Leistung bekannt und wenn günstiger, muss sie ja auch schlechter sein
Leistung? Ohne Review glaubt man das AMD eh nicht

Wir werden mit Sicherheit 1-2 geschickt platzierte Benchmark Ergebnisse sehen in den nächsten Wochen, aber offiziell wird von AMD vor dem 8.10 nichts kommen. Also findet euch doch einfach damit ab, wenn ihr solange nicht warten könnt, pech für euch, aber alle paar Seiten hier im 3dcenter nach offiziellen Info von AMD zu verlangen, das wird AMD nicht hören :eek:.

RLZ
2020-09-20, 22:43:11
@Avery78 (Twitter):
#RX6000 whispers...(2/2)
New tech introductions -> NV
1. Lossless anti-aliasing
2. Nano-subsurface effect
3. A NCSN type tech (Noise Conditional Score Network) introducing training functions
[unverified + salt]
:freak::eek:
Ist das ein psychologisches Experiment? Er könnte wenigstens noch was sinnvolles wie "spaghetti rendering" in die Liste aufnehmen.

Badesalz
2020-09-20, 22:51:09
Im Gegenteil, sollte AMD liefern können und noch ausreichenden Gewinn machen, dürfte das denen mehr helfen als irgendwelche Prestigeprodukte.Erzähl ich schon seit Wochen, aber Fanboys wollen endlich die Grünen vermöbeln. Gleich die 3090 natürlich. Interessiert hier draußen nur keine Sau.

Bei gleichem oder gar weniger Verbrauch, so schnell sein wie eine 3080 auf 275W. Samt RT. Und fertig. Wenn die Kühler passen, läufts. Würde nämlich bedeuten, daß man in dem segment was wirklich interessant ist (davor mit 2070, 2060 super) auch etwas interessantes haben könnte. DAS ist wichtig.

Complicated
2020-09-20, 23:46:53
Es wäre für AMD also komplett unmöglich gewesen, eine ~20-30% schnellere 5700XT zu fertigen in 7nm bei 300-350w?
Nvidia hat es bis heute noch nicht geschafft eine 7nm GPU zu fertigen - tja.
Ich denke AMD weiss genau warum sie zu dem Zeitpunkt keinen größeren Chip in 7nm fertigen wollten.

Sunrise
2020-09-21, 00:02:08
Nvidia hat es bis heute noch nicht geschafft eine 7nm GPU zu fertigen - tja.
Wat? Meinst du das gerade Ernst? Was ist GA100 für dich?

Das ist auch keine Frage von können, sondern von wollen, und natürlich gibt es Abhängigkeiten bei TSMC, die sie bei Samsung nicht haben. NV sitzt/saß auf einem hohen Ross und wenn selbst der hohe Verbrauch Käufer nicht abschreckt, weil die Effizienz bisher eben immer TOP war, fährt man natürlich die bessere Marge, wenn bei TSMC die Preise explodieren und nicht genug Kapazität vorhanden ist.

Sunrise
2020-09-21, 00:14:25
...Kapazitäten dürften sich deutlich entspannen, nachdem Huawei mittlerweile raus ist und Apple (teilweise) auf 5nm umsteigt.
IMHO auch mit einer der wichtigen Gründe, warum AMD erst relativ spät im Jahr damit kommt, ebenso bei Zen3. Ohne gute Verfügbarkeit gewinnt man keine Marktanteile. Wenn ein IHV es nicht schafft, möglichst schnell zu rampen und Konkurrenz da ist, hat er ein Problem. Und AMD hat sich ja ordentlich bei TSMC eingekauft, die haben wohl alles genommen, was sie bekommen konnten und sie wissen warum.

Ich habe es ja schon öfter erwähnt, dass ich von einem Preis-Leistungsbrecher bei AMD ausgehe ($699 max.) aber viele behaupteten immer, dass AMD auch hochpreisig bei GPUs werden wird, was ich nicht sehe, weil eben Konkurrenz da ist und AMD Marktanteile aufholen muss. Das war übrigens schon letztes Jahr, da wussten wir keine Preise von Ampere. Jetzt glaube ich da natürlich noch mehr dran, dass der $649-699 Preispunkt enorm wichtig ist.

Das Halo-Produkt sollte ordentlich einschlagen und verfügbar sein, aber vor allem die GPUs darunter müssen in Massen verfügbar sein, damit man diesen Effekt überhaupt mitnehmen kann. Und selbst wenn AMD da 5-15% schneller wäre ohne Brechstange mit ordentlich OC-Potential, dann würde das Ding massiv einschlagen und Eindruck machen, und sich das aufs restliche Lineup auswirken, wenn man dort etwas Marge opfert und aggressiv bepreist. Das gewinnt viele Käufer für sich, und ich denke auch dass AMD genau das geplant hat, bei Zen lief das ebenso ab.

Man merkt dass der PC-Markt sehr durstig nach neuen High-End-GPUs ist, da gibt es also weiterhin sehr viel Kundschaft. Vor allem jetzt beim Übergang 4K/RT, das war mit ein Grund, warum AMD keine reine 4K-GPU ohne RT rausbringen wollte. Wenn AMD dann wieder einigermaßen etablierter ist, kann man die Preise auch wieder höher drehen. Natürlich vorausgesetzt, NV baut mit Hopper auf 5nm nicht bessere GPUs als AMD mit RDNA3, denn das geht logischerweise ja nicht in einem Vakuum, sonst hat man nichts gewonnen.

Palpatin
2020-09-21, 00:45:13
Nvidia hat die Preise doch überhaupt nicht gesenkt? Nur halt die Leistung gesteigert.
TU102 startete mit 1259€ und 2080 startete mit 849€.
GA 102 startet mit 699€ und 3080 startet mit 699€.
Es ist in jedem Fall günstiger als die Vorgänger Generation, Performance Gewinn ist entweder mau oder ordentlich je nach dem ob man GA102 als Vorgänger oder 2080 als Vorgänger der 3080 sieht.
TDP und Speicherausbau sind :facepalm:

Complicated
2020-09-21, 07:41:44
Wat? Meinst du das gerade Ernst? Was ist GA100 für dich?

Nun ich hatte hier die Consumer Produkte im Blick und die Fähigkeit an sich nicht in Frage gestellt, sondern einfach dass hier noch einiges an Arbeit nötig ist um wirtschaftlich auch in Preisregionen für ein ganzen Lineup 7nm zu nutzen.

Warum macht man GA100 in 7nm und den Rest dann nicht? Wenn Wafer knapp sind kann man sich nicht mit schlechten Yields die Marge ruinieren und gleichzeitig nicht liefern.

mboeller
2020-09-21, 08:03:07
nVidia hat Anfang August mit der GA102-Produktion begonnen, bei TSMC werden derzeit die Huawei-Kapazitäten frei.
Die Verfügbarkeit von N2x kann man sich also ausrechnen.


Der Absatz ist IMHO wirklich :freak: Was hat GA102 mit TSMC zu tun?

mboeller
2020-09-21, 08:10:08
TU102 startete mit 1259€ und 2080 startete mit 849€.
GA 102 startet mit 699€ und 3080 startet mit 699€.
Es ist in jedem Fall günstiger als die Vorgänger Generation, Performance Gewinn ist entweder mau oder ordentlich je nach dem ob man GA102 als Vorgänger oder 2080 als Vorgänger der 3080 sieht.
TDP und Speicherausbau sind :facepalm:

2080TI = TU102
2080 = TU104

jetzt bekommst du eine Karte mit GA102, dem Nachfolger des TU102 für 699,- Euro statt 1259,-
Das fehlte für mich noch als Erklärung ;)

amdfanuwe
2020-09-21, 09:45:14
Wie wird der Grafikspeicher eigentlich genutzt?
Klar, mit zunehmender Auflösung brauchen die Texturen mehr Platz.
Wieviel braucht der Rest?
Tripple Frame Buffer braucht bei UHD ca 100MB.
Der Programmcode dürfte auch nicht das meiste ausmachen.
Für die Bandbreite kritisch dürften ja die Daten sein, die dauernd in den Speicher geschrieben und für weitere Bearbeitung gelesen werden. Wieviel macht das aus?
Welche Datenmenge wird in einem Frame berechnet und muß für den nächsten Frame "aufgehoben" werden?
Wenn man das mit einem großem Cache abfangen kann, braucht es für den Programmcode und die Texturen doch gar nicht mehr soviel Bandbreite.

Gipsel
2020-09-21, 10:19:11
Wie wird der Grafikspeicher eigentlich genutzt?
Klar, mit zunehmender Auflösung brauchen die Texturen mehr Platz.
Wieviel braucht der Rest?
Tripple Frame Buffer braucht bei UHD ca 100MB.
Welches moderne Spiel macht denn noch reines Forward-Rendering ohne irgendwas dazu? Nur dann stimmt nämlich Deine Rechnung (und auch nur ohne HDR, mit 64bit Rendertargets kannst Du das verdoppeln).
Meist erzeugen Spiele heute pro Frame mehrere Rendertargets für verschiedenste Zwecke, die am Ende zusammengerechnet werden (und bei deferred Renderern hält der G-Buffer erheblich mehr als 4 Byte pro Pixel). Deine Rechnung ist also etwas zu einfach.

w0mbat
2020-09-21, 10:25:20
Ich glaube genau das fragt er ja, mit "Wie wird der Grafikspeicher eigentlich genutzt?".

NC
2020-09-21, 11:07:58
und auch nur ohne HDR, mit 64bit Rendertargets kannst Du das verdoppelnFür HDR für die Ausgabe werden oft dennoch 32bit Formate genutzt. Teilweise auch beim Rendern, zumindestens auf Konsolen.

N0Thing
2020-09-21, 11:26:28
Welches moderne Spiel macht denn noch reines Forward-Rendering ohne irgendwas dazu? Nur dann stimmt nämlich Deine Rechnung (und auch nur ohne HDR, mit 64bit Rendertargets kannst Du das verdoppeln).

Nutzt die aktuelle id-Engine nicht fast ausschließlich Forward-Rendering?

NC
2020-09-21, 11:32:41
Nutzt die aktuelle id-Engine nicht fast ausschließlich Forward-Rendering?
Er meinte eigentlich, dass Engines Post-Effects, SS Effekte usw. nutzen die noch mehr Framebuffer verbrauchen, im Kontrast zu alten Spielen die alles in den Ausgabe-Framebuffer renderten. Vielleicht unglücklich ausgedrückt.

RLZ
2020-09-21, 11:33:36
Für den GBuffer würde ich schon 30 Byte pro Pixel aufwärts rechnen.

why_me
2020-09-21, 11:42:22
Wüsste auch gerne eine Antwort auf die Frage mit der VRAM Belegung (Texturen, Framebuffer, Programmcode, Geometrie).
Klar kann man das nicht 100% genau sagen und jedes Spiel ist etwas anders, aber interessant wäre eine grobe Größenordnung dennoch. weniger oder hunderte MB oder sogar GB?

RLZ
2020-09-21, 12:04:08
Wüsste auch gerne eine Antwort auf die Frage mit der VRAM Belegung (Texturen, Framebuffer, Programmcode, Geometrie).
So einfach ist CG ist nicht mehr. Da fehlen viele Bereiche, die immer größere Teile des Speichers in Anspruch nehmen und auch nicht von der Auflösung abhängig sind. Zum Beispiel BVHs, Beleuchtungsinformationen, Animationsdaten, etc.

pixeljetstream
2020-09-21, 12:18:58
da muss man schon zu den in-engine tools greifen, Unreal hat nen Schwung.
In diversen SIGGRAPH/GDC Talks geben die Entwickler auch paar Statistiken preis. Einfach dort bissl suchen
https://advances.realtimerendering.com/

NC
2020-09-21, 12:25:20
So einfach ist CG ist nicht mehr. Da fehlen viele Bereiche, die immer größere Teile des Speichers in Anspruch nehmen und auch nicht von der Auflösung abhängig sind. Zum Beispiel BVHs, Beleuchtungsinformationen, Animationsdaten, etc.
Ack.
Zudem gibt es noch eine Spanne zwischen dem an Speicher das essentiel ist, und auch dem was zwar optional ist, aber viel bringt, z.B. schärfere Texturen, was du in einem Benchmark kaum messen kannst, bzw. kann es sein, dass eine 6GB Karte mit schlechteren Texturen schneller ist als eine 8GB die deswegen mehr Qualität und deswegen Bandbreite lieferet/verbrennt.
zZ sind 8GB ausreichend, wieviel in Zukunft ausreichend ist hängt lustigerweise davon ab wieviel verfügbar ist. Wenn 90% der Leute max <=10GB haben, werden Spiele damit gut laufen. Wenn 90% >=16GB haben, werden Spiele zwar auch auf 8GB laufen, aber nunmal viel besser auf 16GB. (Henne-Ei System)
Woran wir uns immer orientieren können sind Konsolen. Wenn du 10-20% darüber bist, solltest du in den meisten Fällen genug haben.

amdfanuwe
2020-09-21, 12:45:55
So einfach ist CG ist nicht mehr. Da fehlen viele Bereiche, die immer größere Teile des Speichers in Anspruch nehmen und auch nicht von der Auflösung abhängig sind. Zum Beispiel BVHs, Beleuchtungsinformationen, Animationsdaten, etc.
BVH?
Beleuchtungsinformationen, Animationsdaten, Programmcode, Texturen könnten im Prinzip in einem ROM liegen, die werden ja nur gelesen und nicht verändert.
Framebuffer wird mit dem berechnetem Bild beschrieben und zur Übertragung ausgelesen. Also R/W Zugriffe. Ich rede da nicht von "Vorward Rendering".
Wenn ichs richtig verstanden habe, werden aus den Geometriedaten der anzuzeigende Bildausschnitt durch Drehung, Stauchung, Zoom etc. berechnet.
Die anfallenden Daten müssen gespeichert werden. Verdeckungen und Tiefeninformationen berechnet werden, Texturen aufgelegt werden, Beleuchtung und Spiegelungen hinzugefügt werden etc. bis das Bild letztendlich im Framebuffer landet. Kann mir nicht vorstellen, dass das alles in L1 und L2 Cache behandelt wird.
Also meine Frage: Welche Datenmenge wird dabei im Speicher pro Frame bewegt?

Die Texturen nehmen zwar viel Platz weg, werden aber nur einmal gelesen nachdem klar ist, wo welche Textur benötigt wird. Dürften also nicht die meiste Bandbreite benötigen.

basix
2020-09-21, 13:06:26
Was für eine Grössenordnung hat ein BVH eigentlich bezüglich Speicherverbrauch? Habe dazu keine schlauen Informationen gefunden. RTX Spiele benötigen ca. 1-2GB mehr Speicher bei RTX On, das wird aber nicht nur der BVH sein.

NC
2020-09-21, 14:33:14
Was für eine Grössenordnung hat ein BVH eigentlich bezüglich Speicherverbrauch? Habe dazu keine schlauen Informationen gefunden. RTX Spiele benötigen ca. 1-2GB mehr Speicher bei RTX On, das wird aber nicht nur der BVH sein.Für RT speicherst du die Positionen und Topologie der ganze Geometrie in einem etwas unoptimierten Format und dazu legst du etwa 4 Primitive in eine AABB (axis aligned bounding box, also ein Grundelement einer BVH) und diese AABBs in eine Hierarchy von AABBs.

Beispiel: deine first-person-gun hat 8192 Dreiecke und verbrauch in etwas soviel Vertices. Jedes Dreieck hat 3 Indices von denen jedes 2 byte ist, jedes Vertex hat z.B. 32byte. Du hast also ca 8192 * ( 3*2 + 32) = 304 kbyte.

Für RT sagen wir du fasst immer perfekt 4 Dreiecke zu kleinen Pyramiden/ Schirmen(Fans) zusammen, dann hast du 5 Vertices von je einer Position die je 12 byte hat (x,y,z als float).
8192/4 × (5*3*4) = 120kbyte
Dazu kommen dann je eine AABB, von sagen wir 2 positionen für min und max, je 12 bytes und dazu 8 byte für Verweise in der Hierarchie.
AABB = 2*12+8
8192/4 × AABB = 64kb
Und da das in einer Hierarchy ist, gibt es entsprechend immer eine Hierarchiestufe drüber die halb soviel dazu fügt.
Also
(8192/4 + 8192/8 + 8192/16... 8192/8192) × AABB = fast 512kb

Zusammen wird also von den 307kb am Ende ca 630kb extra.

Da ist natürlich viel Abweichung möglich, aber zum groben Verständnis und Einschätzung hilft das hoffentlich .

Falls ich mich verrechnet habe oder Fragen sind, nur her damit :).

pixeljetstream
2020-09-21, 14:37:57
Da im bvh nur die positions liegen ist der vertex nicht 32 Byte groß, sondern 3 x 4 im worst case, auch ist der Sinn der APIs dass die Hersteller lossless Kompression für alles nutzen. Ergo sind die Daten längst nicht so groß wie deine Rechnung es anzeigt.

NC
2020-09-21, 14:50:43
Da im bvh nur die positions liegen ist der vertex nicht 32 Byte groß, sondern 3 x 4 im worst case
Das steht auch so in meiner Rechnung. 32byte bezogen sich auf die original Meshes, weil sonst jemand schlaues kommt und sagt "ja aber eche Meshes sind nicht nur Position"

auch ist der Sinn der APIs dass die Hersteller lossless Kompression für alles nutzen. Ergo sind die Daten längst nicht so groß wie deine Rechnung es anzeigt.
Der Sinn meiner Erklärung war einen groben Überblick zu geben weil die Hersteller das nicht machen.
Natürlich wäre es nett zu erfahren, was Sache ist, statt nur zu wiederholen, dass meine Werte nicht z.B. RTX entsprechen ( was ich ja selbst am Ende schrieb).

gedi
2020-09-21, 14:53:57
https://twitter.com/coreteks/status/1307809037736648705?s=21

Gipsel
2020-09-21, 15:11:16
Nun, der Takt entspricht so grob den Vorstellungen. Hatte ja schon mal gesagt, daß die Angaben zur PS5 im AMD-Sprech vermutlich 2,1GHz Gameclock bedeuten würden. Wird nur spannend, wie bei den Takten der Stromverbrauch eines im Vergleich zur PS5 doch größeren Chips ausfällt. Also bleibt man unter 300W oder geht man wie nV darüber?

NC
2020-09-21, 15:15:58
Also bleibt man unter 300W oder geht man wie nV darüber?
Spricht was dagegen wenn die Kühlung das mitmacht?

Cyberfries
2020-09-21, 15:24:15
:freak::eek:
Ist das ein psychologisches Experiment? Er könnte wenigstens noch was sinnvolles wie "spaghetti rendering" in die Liste aufnehmen.

Ich denke du spielst auf "Noise Conditional Score Network" an? Direkt bei der Quelle gabs ja keine Antwort für dich.
N Haufen Buzzwords für "intelligente Rauschunterdrückung". Für Filterung oder eher Datentransport im PCB?

Der Absatz ist IMHO wirklich :freak: Was hat GA102 mit TSMC zu tun?

War deine Frage ernst gemeint?
Die GA102-Fertigung bei Samsung startete erst August, Testexemplare sind z.b. mit KW34 (17.-22.8.) versehen.
Bei TSMC werden dank Huawei ab 14.9. Kapazitäten frei.
Aber wenn man sich die aktuelle Verfügbarkeit bei nVidia ansieht, dann wundert die späte N2x-Vorstellung nicht.

Spricht was dagegen wenn die Kühlung das mitmacht?

Eine Menge.
Aber wo du die Kühlung ansprichst, die kennen wir bereits. Das sieht aus wie VII verbessert.
Mehr als 275-285Watt willst du damit trotzdem nicht kühlen (zufälligerweise wird 275-285 für irgendeine N2x spekuliert)

edit: Ich will jetzt definitiv keine Leistungsaufnahme-Diskussion lostreten.
Das haben wir schon seit gefühlt 100 Seiten im Ampere-Thread und da wurde bereits alles gesagt.
Für mich das signifikanteste ist die Notebook-Eignung, Durchschnitts-Workstation.

NC
2020-09-21, 15:29:48
Eine Menge.was, aus deiner Sicht, wäre das signifikanteste, dass dagegen spricht?

Gipsel
2020-09-21, 15:35:21
was, aus deiner Sicht, wäre das signifikanteste, dass dagegen spricht?Lautstärke. Sekundär vielleicht noch Performance/Watt-Mindshare.

why_me
2020-09-21, 15:36:34
Perf/W interessiert doch seit 2 wochen nicht mehr ;)

Dural
2020-09-21, 15:54:05
Perf/W interessiert doch seit 2 wochen nicht mehr ;)

Wie so sollte das nicht mehr interessieren?

basix
2020-09-21, 15:59:04
Falls ich mich verrechnet habe oder Fragen sind, nur her damit :).

Danke für die Ausführungen! Die in deinem Beispiel rauskommenden 600kB wären dann nur für die 8192 Dreiecke, richtig? Der Bildausschnitt als ganzes wird aber deutlich mehr haben. Bei Crysis 1 gibt es ja das Overlay während des Benchmarks und dort waren es oft >1 Mio. Polys/Frame. Sagen wir bei modernen Spielen sind es 10 Mio. Dreiecke/Frame dann käme man auf total knapp 750 MByte für den BVH. Kann man das so simpel multiplizieren oder gibt es da noch anderes zu beachten?

Ich nehme auch an, dass der BVH optimiert wird, damit er nicht so gross wird.

NC
2020-09-21, 16:00:45
Perf/W wäre natürlich dahin. AMD hätte Gegenwind wegen seiner 1.5x Effizienz Presentation.
Vielleicht können sie ja noch paar Monate warten und vor Weihnachten quasi ihre Ti bringen, wo nur noch Perf zählt. (Ich fände das klasse )

NC
2020-09-21, 16:13:09
Danke für die Ausführungen! Die in deinem Beispiel rauskommenden 600kB wären dann nur für die 8192 Dreiecke, richtig?
Ja, das ist ein moderates Mesh, dass kann man grob auf andere Meshes projezieren.


Der Bildausschnitt als ganzes wird aber deutlich mehr haben. Bei Crysis 1 gibt es ja das Overlay während des Benchmarks und dort waren es oft >1 Mio. Polys/Frame. Sagen wir bei modernen Spielen sind es 10 Mio. Dreiecke/Frame dann käme man auf total knapp 750 MByte für den BVH. Kann man das so simpel multiplizieren oder gibt es da noch anderes zu beachten?

So einfach ist das leider nicht.
1. Ray tracing soll ja auch für Objekte gehen die nicht direkt zu sehen sind, z.B. bei Reflektionen/Spiegelung. Sind also mehr Objekte als nur die Sichtbaren.
2. Wenn eine Palme bei Crysis 100mal gezeichnet wird , zählt das den Polycount hoch, aber bei RT wirst du die Palme nur einam im Speicher haben und in einer zweiten BVH 100 mal referenzieren. Ist also weniger als Crysis anzeigt.

Also es ist nicht trivial. Aber du wirst am Ende jedes Mesh im Spiel auch in RT reinstecken müssen.


Ich nehme auch an, dass der BVH optimiert wird, damit er nicht so gross wird.
Ja, das wird wohl gemacht. Die einzelnen Hersteller wissen voneinander wohl auch wie effektiv die anderen sind.
Ich habe zuhause ca 2x des Mesh Speichers für RT angelegt. Das klappt in etwa.

RLZ
2020-09-21, 16:25:19
Ich denke du spielst auf "Noise Conditional Score Network" an? Direkt bei der Quelle gabs ja keine Antwort für dich.
N Haufen Buzzwords für "intelligente Rauschunterdrückung". Für Filterung oder eher Datentransport im PCB?
Nein auf alle drei. "Noise Conditional Score Network" ist aus einem zufälligen NIPS 2019 Paper.

RLZ
2020-09-21, 16:27:44
2. Wenn eine Palme bei Crysis 100mal gezeichnet wird , zählt das den Polycount hoch, aber bei RT wirst du die Palme nur einam im Speicher haben und in einer zweiten BVH 100 mal referenzieren. Ist also weniger als Crysis anzeigt.
Das werden aber für Crysis-Verhältnisse sehr statische Palmen ;)

NC
2020-09-21, 16:40:49
Das werden aber für Crysis-Verhältnisse sehr statische Palmen ;)
Die Windanimation der Palmen wird über einen Vertexshader gemacht. Ab dem moment wo sie brechen, sind es Spezialobjekte und nicht mehr Teil vom ursprünglich instanzierten Palmenrendering.

Cyberfries
2020-09-21, 17:21:37
Nein auf alle drei. "Noise Conditional Score Network" ist aus einem zufälligen NIPS 2019 Paper.

Danke, habs gefunden.
Kann aber nicht behaupten dass ich es voll verstanden habe.

Geht doch um die Verbesserung der Geometrieermittlung in Bereichen mit wenig bekannten Daten, oder?
z.B. um bei Raytracing mit weniger Strahlen auszukommen und trotzdem ein gutes Ergebnis zu erzielen?

gedi
2020-09-21, 17:48:41
Nun, der Takt entspricht so grob den Vorstellungen. Hatte ja schon mal gesagt, daß die Angaben zur PS5 im AMD-Sprech vermutlich 2,1GHz Gameclock bedeuten würden. Wird nur spannend, wie bei den Takten der Stromverbrauch eines im Vergleich zur PS5 doch größeren Chips ausfällt. Also bleibt man unter 300W oder geht man wie nV darüber?

Entscheidet sich wohl dieser Woche, je nachdem wo die Konkurrenz rauskommt.
Spannender finde ich die Frage, wieviel ROPs hat das Ding.

Auch interessant zu wissen wäre folgendes: Vielleicht gibbet ja doch ne Voodoo Speicherbestückung wie bei der XBX. Sprich 12GB angebunden an ein 384-Bit SI und die restlichen 4GB@128-Bit als Gamecache. Wäre so etwas möglich?

basix
2020-09-21, 17:59:01
Entscheidet sich wohl dieser Woche, je nachdem wo die Konkurrenz rauskommt.

Wenn dem wirklich so ist, hätte AMD ja Spielraum und somit Reserve nach oben hin. Kann ja sein, dass die Karte OOTB mit 2.0 GHz laufen soll bei 275W aber OC bis 2.4 GHz zulässt und dann 350W zu sich nimmt (einfach als Beispiel). Wäre schön für AMD.

Mal schauen. AMD hat auch bewusst den 28.10. gewählt um 2 Wochen nach der 3070 ihre Karte vorzustellen. In zwei Wochen kann man noch etwas am Takt schrauben. Es scheint ja eh ein Launch ohne Partner zu werden, das macht solch eine Massnahme einfacher. Reviews erwarte ich somit nicht vor Anfang November (BIOS Update, Karten für Reviews versenden, Zeit für Reviews lassen). Verfügbarkeit würde mich auch interessieren.

amdfanuwe
2020-09-21, 18:05:01
Sagen wir bei modernen Spielen sind es 10 Mio. Dreiecke/Frame dann käme man auf total knapp 750 MByte für den BVH.
Das ist doch mal eine Zahl. Da würden also 128MB Infinity Cache kaum ausreichen um das alles zu buffern.

Andererseits gibt es die Speicherchips ja schon mit 2 GByte. Solch ein Chip stacked oder HBM mäßig angebunden wäre auch mit wesentlich mehr als den 32 Bit GDDR Speicherinterface angebunden und damit sparsamer und schneller.

Es gibt also Möglichkeiten mit einem 256 Bit Interface einen High-End Chip zu füttern.
Mal gespannt, was AMD wieder ausgetüftelt hat.

gedi
2020-09-21, 18:11:47
Wenn dem wirklich so ist, hätte AMD ja Spielraum und somit Reserve nach oben hin. Kann ja sein, dass die Karte OOTB mit 2.0 GHz laufen soll bei 275W aber OC bis 2.4 GHz zulässt und dann 350W zu sich nimmt (einfach als Beispiel). Wäre schön für AMD.

Mal schauen. AMD hat auch bewusst den 28.10. gewählt um 2 Wochen nach der 3070 ihre Karte vorzustellen. In zwei Wochen kann man noch etwas am Takt schrauben. Es scheint ja eh ein Launch ohne Partner zu werden, das macht solch eine Massnahme einfacher. Reviews erwarte ich somit nicht vor Anfang November (BIOS Update, Karten für Reviews versenden, Zeit für Reviews lassen). Verfügbarkeit würde mich auch interessieren.

Ich denke die 3070 ist relevant für ne Karte, welche von AMD dieses Jahr nicht mehr kommen wird!

[MK2]Mythos
2020-09-21, 18:13:00
Nun, der Takt entspricht so grob den Vorstellungen. Hatte ja schon mal gesagt, daß die Angaben zur PS5 im AMD-Sprech vermutlich 2,1GHz Gameclock bedeuten würden. Wird nur spannend, wie bei den Takten der Stromverbrauch eines im Vergleich zur PS5 doch größeren Chips ausfällt. Also bleibt man unter 300W oder geht man wie nV darüber?
Da es offensichtlich bei 2x 8Pin bleibt, kann ich mir nicht vorstellen dass man deutlich über 300Watt geht, wenn überhaupt.

basix
2020-09-21, 18:14:33
Das ist doch mal eine Zahl. Da würden also 128MB Infinity Cache kaum ausreichen um das alles zu buffern.

Andererseits gibt es die Speicherchips ja schon mit 2 GByte. Solch ein Chip stacked oder HBM mäßig angebunden wäre auch mit wesentlich mehr als den 32 Bit GDDR Speicherinterface angebunden und damit sparsamer und schneller.

Es gibt also Möglichkeiten mit einem 256 Bit Interface einen High-End Chip zu füttern.
Mal gespannt, was AMD wieder ausgetüftelt hat.

Der BVH ist aber lange nicht alles. G-Buffer, Framebuffer, Z-Buffer usw. benötigen auch noch Platz. Ob 2 GByte dafür ausreichend wären? Vielleicht.

gedi
2020-09-21, 18:18:13
Mythos;12434392']Da es offensichtlich bei 2x 8Pin bleibt, kann ich mir nicht vorstellen dass man deutlich über 300Watt geht, wenn überhaupt.

Die XTX ist ja confirmed. Von daher kann es auch ne AIO-Lösung sein, welche sich mehr als die 375W genehmigt, nur halt mit 3x8Pin Stromversorgung und 32 GB Vram (-8 GB Gamecache)

Zergra
2020-09-21, 18:18:35
NV hat doch bei der 3070 auch ein 256bit Interface, mit 16GB/s Chips wäre man ca 10-15% schneller in der Bandbreite.

Die 3080 dürfte ca 30-35% schneller als die 3070 sein. Wenn sich N21 mit 256bit jetzt 10% hinter der 3080 einordnet, dürfte die Bandbreite noch ausreichen? Ggf wird der Chip leicht dadurch limitiert. AMD spart dadurch aber Geld, und kann die GPU günstiger anbieten und verdient daran mehr.


Ich gehe mal davon aus, das es keine wundersamen Cache gibt, solche Patente sind oft eben nur Bauernfänger um die Konkurrenz zu verwirren.
Wenn sowas kommt, dann eher bei N3X

gedi
2020-09-21, 18:23:55
Die 3070 hat Afaik 14GPS Chips drauf, auf jeden Fall habe ich nichts anderes gelesen.

Zergra
2020-09-21, 18:38:08
Eben, deswegen hätte ein N21 ca 10-15% mehr Bandbreite mit 16GBs Chips.

gedi
2020-09-21, 18:48:09
Bereits vor Monaten geisterte ein 384-Bit SI durchs Netz für N21! Ob die GPU auf dem Testboard wirklich N21 war? Ich denke, das kann dir nur Lisa sagen ...

Ansonsten abwarten. War es bezüglich dem Enthusiast-Segment jemals spannender? Ich kann mich kaum erinnern :/

RitterRost
2020-09-21, 18:50:33
Mein Tip ist immer noch 386Bit GDDR6 für die schnellste Navi2.

Es wurde ja immer darauf hingewiesen, dass unklar sei, ob die 16GByte Variante nicht doch eine abgespeckte N21 ist.
Auch im Vergleich zur Konsolen-Bandbreite glaube ich nicht an ein 256Bit Interface.

amdfanuwe
2020-09-21, 18:53:47
Vielleicht gibbet ja doch ne Voodoo Speicherbestückung wie bei der XBX. Sprich 12GB angebunden an ein 384-Bit SI und die restlichen 4GB@128-Bit als Gamecache. Wäre so etwas möglich?
Ergibt keinen Sinn, da bei der XBX Beide Speicherbereiche über die gleichen Datenlanes zugegriffen wird. Die XBX kann nicht gleichzeitig auf die 12 GB und die 4GB zugreifen.

Ein 256Bit Interface bei BN würde nur ausreichen, wenn nahe dem Chip noch ein weiterer schneller Speicher sitzt und auf beide GLEICHZEITIG zugegriffen werden kann. Das würde die Bandbreite beider Speicher addieren.

amdfanuwe
2020-09-21, 19:00:59
Der BVH ist aber lange nicht alles. G-Buffer, Framebuffer, Z-Buffer usw. benötigen auch noch Platz. Ob 2 GByte dafür ausreichend wären? Vielleicht.
Deshalb ja meine Fragen.
Bin auch etwas enttäuscht. Da wird hier Seitenweise über Bandbreite und Speichergröße lamentiert, aber so richtig Wissen was wirklich gebraucht wird scheint dann doch keiner.

gedi
2020-09-21, 19:01:14
Von 256-Bit war nie die Rede. Mir gehts um den Compound 16GB an 384–Bit/512-Bit SI. Sprich ich hab ne GPU mit einem 512-Bit SI und 16GBx32Bit. Ergibt für mich folgendes: 12GB an 384-Bit und 4GB an 128-Bit für vielleicht den Gamecache?

basix
2020-09-21, 19:04:54
Solch eine Aufteilung macht doch keinen Sinn, wenn der zusätzliche Speicher ("Gamecache") sich vom Rest nicht unterscheidet.

Zergra
2020-09-21, 19:09:23
Zen 2 wurde am 27.Mai vorgestellt. Etwa 6 Wochen später wurden diese dann auch verkauft. (inkl. Tests)

Am 8.10 wird Zen 3 vorgestellt. Das dürfte ähnlich lange dauern, daher gibt es die Ende November zu kaufen.
RDNA2 wird am 28.10 vorgestellt. + etwa 6 Wochen, sind wir schon Mitte Dezember, Customs dann erst im Februar 2020, das wäre eig. zu spät.... mal sehen.

Cyberfries
2020-09-21, 19:11:00
Spannender finde ich die Frage, wieviel ROPs hat das Ding.

Immer noch 128ROPs. Und nein, es sind trotzdem keine 10240ALUs

Vielleicht gibbet ja doch ne Voodoo Speicherbestückung wie bei der XBX.

Oder wie bei der GTX 970. Das kann sich die XBX nur leisten, weil Konsole.

-----
Avery78 wieder aktiv:
Rumors- Received this a couple of times now stating that AMD has paused/cancelled or postponed large core RDNA2 SKUs | unsure if these are 69/68 lvl related or even if it is true at all tbh. Apparently still on 7nm but an optimized variant. [Unverified/Salt] -just sharing
More Rumors incoming - #RX6000 AIB's confirmed PCB designs complete. Core SKU's still unknown. This is what hearing:
#Navi21 = 256bit 14-16,000GHz 16GB GDDR6
#Navi22 = 192bit 14-16,000GHz 12GB GDDR6
[Unverified/Salt] -just sharing
#Navi21 This 1st card is positioned above #RTX3070 at around 60-70% perf. of 5700XT ~2080Ti level. Will support DXR1.1. Not sure if gets above 2080Ti. Release Winter 2020, there could be a 2nd SKU coming out same timeframe too. [Unverified/Salt] -just sharing
Another rumor - #Navi22 beats 5700XT by up to ~25-30% supporting DXR1.1 | ~50% better than 5600XT. Perf. between 2070S - 2080S. Release est. 1st half Spring 2021.
And another rumor - #Navi23 is suspected to be 128bit with 8GB. Perf. should be between 1660Ti and 2060. Release est. Mid-2021. [Unverified/Salt] - take salt with these (and previous tweets) just sharing what was sent to me.

amdfanuwe
2020-09-21, 19:14:49
Sprich ich hab ne GPU mit einem 512-Bit SI und 16GBx32Bit. Ergibt für mich folgendes: 12GB an 384-Bit und 4GB an 128-Bit für vielleicht den Gamecache?
Dann hast due die Bandbreite eines 512 Bit Interfaces. Egal wie du das aufteilst, ändert nichts an der verfügbaren Bandbreite.
Kann man also beim einfachsten und schnellsten Fall eines 512 Bit Interfaces bleiben. Bei GPUs werden in den seltensten Fällen so geringe Datenmengen angefordert die ein Interface in der Breite nicht ausnutzen würden. Dazu gibt es noch die Caches die das abfedern.

Zergra
2020-09-21, 19:15:22
Wenn N22 und N23 so spät kommen, dann gute Nacht.
Obwohl NV ja auch mit den kleineren Chips später kommt, N22 dürfte trotzdem zu spät sein

Der Rest passt ja ganz gut zu den 256bit.


Außerdem passt Winter 2020 ganz gut zu dem was ich geschrieben habe, also ca. 6 Wochen nach der Vorstellung.

basix
2020-09-21, 19:15:53
An 256b bei N21 glaube ich nicht, wenn da nicht irgendwas spezielles gemacht wurde. Ob Gamecache oder HBM-Stack oder whatever, irgendwas muss da vorhanden sein. Oder es ist halt dann doch ein 512b SI.

Beispiel 1:

N21 = 512b, 16GB
N22 = 384b, 12GB
N23 = 256b, 8GB


Beispiel 2:

N21 = 384b, 16GB (12GB + 4GB HBM2)
N22 = 256b, 12GB (8GB + 4GB HBM2)
N23 = 192b, 8GB (6GB + 2GB HBM2)


Beispiel 3:

N21 = 256b, 16GB (8GB + 8GB HBM2e)
N22 = 192b, 12GB (8GB + 4GB HBM2e)
N23 = 128, 8GB (4GB + 4GB HBM2e)


Beispiel 4:

N21 = 256b, 16GB (16GB + "Infinity Cache")
N22 = 192b, 12GB (12GB + "Infinity Cache")
N23 = 128b, 8GB (8GB + "Infinity Cache")


Beispiel 4 ist das technologisch interessanteste, Beispiel 1 das wahrscheinlichste.

gedi
2020-09-21, 19:21:53
Wieviel ALUs sind es denn dann? Und das was Avery da postet, gibts dafür nen Beleg? Ich meine, das sieht für mich nach Untergang aus! Was sind denn dann aus den 50%w/p geworden? Selbst ne 5700xt knackt eigentlich ne 3070 bei 225W?!

Ich glaube du solltest deinen Quellen weniger Vertrauen entgegen bringen.

BoMbY
2020-09-21, 19:22:04
Avery78 wieder aktiv:

Und wer soll dieser Schnulli sein? Was Du da von dem abschreibst ergibt jedenfalls keinen Sinn.

Linmoum
2020-09-21, 19:23:09
RDNA2 wird am 28.10 vorgestellt. + etwa 6 Wochen, sind wir schon Mitte DezemberMuss man jetzt wieder auf jeder dritten Seite mehrfach durchkauen, dass GPUs die ersten erhältlichen Produkte auf RDNA2-Basis sein werden? Der Launch ist also spätestens am 09.11.

Zergra
2020-09-21, 19:28:02
Muss man jetzt wieder auf jeder dritten Seite mehrfach durchkauen, dass GPUs die ersten erhältlichen Produkte auf RDNA2-Basis sein werden? Der Launch ist also spätestens am 09.11.
Nein muss man nicht, Daten können sich aber auch ändern.
Alleine das wir so wenig wissen, deutet für mich schon auf einen späteren Termin hin. Aber wir können ja nochmal Anfang November schauen.

Cyberfries
2020-09-21, 19:28:13
Wieviel ALUs sind es denn dann?

5120. Ich habs dir schonmal gesagt, ALUs haben nichts mit ROPs zu tun.
Völlig andere Baustelle.

Was Du da von dem abschreibst ergibt jedenfalls keinen Sinn.
Ersetz doch mal N21 durch N22, N22 durch N23,....

gedi
2020-09-21, 19:31:55
Wie errechne ich denn sonst die ALUs?

why_me
2020-09-21, 19:34:06
Wie errechne ich denn sonst die ALUs?

Ins Whitepaper der Architektur schauen, bei RDNA1 sind es 64 Shader pro CU -> CU * 64.
Ob es bei Desktop RDNA2 auch 64 sein werden, keine Ahnung, bei den Konsolen sind es jedenfalls 64 (wegen den TFLOP angaben bei den Konsolen).

E: Tefaflops = Takt * Shader * 2 (wegen FMA)

gedi
2020-09-21, 19:36:47
Ins Whitepaper der Architektur schauen, bei RDNA1 sind es 64 Shader pro CU -> CU * 64.
Ob es bei Desktop RDNA2 auch 64 sein werden, keine Ahnung, bei den Konsolen sind es jedenfalls 64 (wegen den TFLOP angaben bei den Konsolen).

E: Tefaflops = Takt * Shader * 2 (wegen FMA)

Vielen Dank der Aufklärung-1000 Dank :)

Aber wenn se die CUs aufgebohrt hätten?

amdfanuwe
2020-09-21, 19:39:47
Avery78 wieder aktiv:
Gibt einen ordentlichen Shitstorm, wenn AMD erstmal nur mit Mittelklasse launcht. Und Nvidia wird sich ärgern den Preis der 3080 nicht höher angesetzt zu haben wenns da eh keine Konkurrenz gibt.

why_me
2020-09-21, 19:39:58
Ersetz doch mal N21 durch N22, N22 durch N23,....

Wir glauben also die erste hälfte der Tweets nicht, aber die Zweite soll stimmen? :confused:

Hat Avery78 irgendeine besondere Trefferquoten vorzuweisen? Oder warum wird der hier immer wieder zitiert? Das er überall auch noch "[Unverified/Salt]" hinschreibt, macht es ja nicht besser. Weit streuen und am ende waren es halt alles falsche Infos von irgendwem....

Berniyh
2020-09-21, 19:45:09
Ersetz doch mal N21 durch N22, N22 durch N23,....
Mag sein, trotzdem ist das was er da (in der Form) schreibt einfach Stuss und damit nicht unbedingt als glaubwürdig einzuschätzen.

Wenn man es mit Big Navi gerade mal auf 25-30% Performance-Plus zur 5700 XT schafft, dann kann man den (GPU-)Laden eigentlich dicht machen.

Soll jetzt nicht heißen, dass alles was er da schreibt falsch sein muss, Teile davon könnten sich ja schon bewahrheiten, aber das kann auch wiederum Zufall sein.
In jedem Fall muss man dieses Gerücht klar als zweifelhaft ansehen.

gedi
2020-09-21, 19:45:12
Wir glauben also die erste hälfte der Tweets nicht, aber die Zweite soll stimmen? :confused:

Hat Avery78 irgendeine besondere Trefferquoten vorzuweisen? Oder warum wird der hier immer wieder zitiert? Das er überall auch noch "[Unverified/Salt]" hinschreibt, macht es ja nicht besser. Weit streuen und am ende waren es halt alles falsche Infos von irgendwem....

Avery=Jensen

Cyberfries
2020-09-21, 19:54:18
Aber wenn se die CUs aufgebohrt hätten?

Wir wissen Dank den Konsolen wie RDNA2 aussieht, das wird nicht groß abweichen.

Wir glauben also die erste hälfte der Tweets nicht, aber die Zweite soll stimmen? ....warum wird der hier immer wieder zitiert?

Zweimal ist immer wieder?
Ziemlich genau das was er schreibt habe ich schon einige Male gelesen und auch teilweise hier geschrieben.
Abweichend sind nur die Bezeichnungen.

Wenn man es mit Big Navi gerade mal auf 25-30% Performance-Plus zur 5700 XT schafft, dann kann man den (GPU-)Laden eigentlich dicht machen,

Kommt immer drauf an was Big Navi ist. N21? N23? N20?
Die Bezeichnungen sorgen derzeit für viel Verwirrung

gedi
2020-09-21, 19:56:01
Laut ersten Leaks N23 :(. Okay mal weitergesponnen, da kommt dieses Jahr nur der 3070/2080Ti Counterpart -ungewöhnlich, aber okay. Das würde auch die relativ hohen Taktraten erklären. Aber dann wären wir alle auf dem Holzweg

Linmoum
2020-09-21, 20:17:55
Wer ist dieser avery und warum verbreitet er so viel Stuss?

"Big Navi" ist laut AMD ein Halo Product. Unabhängig davon, wie man letzteres definiert, ist das natürlich nicht nur irgendwo, relativ gesehen, grotige 2080Ti-Perf von vor zwei Jahren. Passt nicht
Sein Winter 2020 für den "Top-Dog" genauso Quatsch, da spätestens 09.11. Zig mal durchgekaut.
Dass der größte RDNA2 erstmal gecancelt/verschoben/whatever wurde... lol. Naja. Nuff said.

Was hat der Typ eigentlich für einen track record? Bis auf rogame, kimi und mit Abstrichen RGT was AMD GPUs angeht niemand der Rede wert.

HOT
2020-09-21, 20:17:57
Immer noch 128ROPs. Und nein, es sind trotzdem keine 10240ALUs



Oder wie bei der GTX 970. Das kann sich die XBX nur leisten, weil Konsole.

-----
Avery78 wieder aktiv:
In dem Falle wäre N21 keine 80CU-Variante sondern hätte nur etwa 56CUs. Das passt auch besser zum Speicherinterface. Dann wäre der 80CU-Chip gecancelt, ich vermute wegen N31.

Berniyh
2020-09-21, 20:20:10
Kommt immer drauf an was Big Navi ist. N21? N23? N20?
Die Bezeichnungen sorgen derzeit für viel Verwirrung
Nö, Big Navi = Navi 21, das ist praktisch gesichert, da Navi 21 > Navi 22, sowie dass Big Navi dieses Jahr kommen soll und Navi 23, welcher potentiell größer sein könnte dieses Jahr wohl nicht mehr kommen wird.

mboeller
2020-09-21, 20:20:40
I
War deine Frage ernst gemeint?
Die GA102-Fertigung bei Samsung startete erst August, Testexemplare sind z.b. mit KW34 (17.-22.8.) versehen.
Bei TSMC werden dank Huawei ab 14.9. Kapazitäten frei.
Aber wenn man sich die aktuelle Verfügbarkeit bei nVidia ansieht, dann wundert die späte N2x-Vorstellung nicht.


Was hat der 8nm Prozess bei Samsung mit dem 7nm Prozess bei TSMC zu tun ... nix

Die Verfügbarkeit bei Nvidia hat nix mit AMD zu tun und auch andersherum passt es nicht.

IMHO:

Ampere war mit dem 7nmEUV Prozess von Samsung geplant. Daraus wurde leider nix. Mit 7nmEUV würde Ampere um einiges weniger verbrauchen. Wegen der Adaptierung auf 8nm kommt Ampere so spät.

AMD hat ein ganz anderes Problem. 7nm ist anscheinend voll ausgebucht. Apple, Huawei, AMD etc... alle bringen SoC mit dem Prozess. AMD selbst braucht dringend Renoir APUs (der Laptop-Markt ist extrem wichtig für AMD), Zen2 CPUs und vor allem müssen sie die Konsolen APUs (min. 15Mio bis Q1/21) für ihre Kunden fertigen lassen.
Da bleibt, selbst nachdem Apple auf 5nm gewechselt ist und Huawei durch eine "glückliche Fügung" aus dem Rennen ist wenig freie Kapazität für eine Gamer GPU.
Und, ZEN3 steht vor der Tür und ist mit Abstand das wichtigere Produkt. BigNavi kommt also deshalb so spät und wahrscheinlich in geringer Stückzahl weil es für AMD andere Prioritäten gibt und die Fertigungskapazitäten nicht ausreichen (siehe Renoir).

Berniyh
2020-09-21, 20:22:53
In dem Falle wäre N21 keine 80CU-Variante sondern hätte nur etwa 56CUs. Das passt auch besser zum Speicherinterface. Dann wäre der 80CU-Chip gecancelt, ich vermute wegen N31.
Unwahrscheinlich, denn dann würden wir nicht von Navi 21 reden, sondern Navi 22.

Außer natürlich der 80CU Chip ist/war Navi 23, das wäre die einzige denkbare Variante in dem Fall.

Und abgesehen, mit welcher Motivation sollte man so einen Chip canceln? Ist ja nicht so, als wenn der AMD jetzt unglaublich gelegen käme.
Mit deiner Theorie bzgl. Navi 31 … das ist doch arg gesponnen und damit verliert man ja auch wieder ein halbes bis 3/4 Jahr an Boden.

HOT
2020-09-21, 20:24:23
Was macht dich so sicher? Wenn der 80CU-Chip N20 war, hätten wir das gar nicht unbedingt mitbekommen, dann wäre bei big-Navi immer vom 56CU-Chip die Rede gewesen. Mit den guten Fortschritten bei 5nm hätte man N20 dann gar nicht mehr gebraucht.

Linmoum
2020-09-21, 20:24:33
N21 = Top-Dog mit 80CU. Fertig. rogame und kimi sind vertrauenswürdig genug in der Hinsicht, bis es handfeste Fakten gibt. Und laut denen ist der 80CU-Chip N21.

HOT
2020-09-21, 20:28:40
N21 = Top-Dog mit 80CU. Fertig. rogame und kimi sind vertrauenswürdig genug in der Hinsicht, bis es handfeste Fakten gibt. Und laut denen ist der 80CU-Chip N21.
Hab das leider nicht mehr auf dem Schirm wann und wie das geleakt wurde. Wir haben das ja jetzt schon ein paar Mal gelesen, dass der Chip gecancelt worden sein soll. Und die Leaks können ja durchaus korrekt gewesen sein, sowas umzubenennen ist ja ein Leichtes.

gedi
2020-09-21, 20:29:21
Was hat der 8nm Prozess bei Samsung mit dem 7nm Prozess bei TSMC zu tun ... nix

Die Verfügbarkeit bei Nvidia hat nix mit AMD zu tun und auch andersherum passt es nicht.

IMHO:

Ampere war mit dem 7nmEUV Prozess von Samsung geplant. Daraus wurde leider nix. Mit 7nmEUV würde Ampere um einiges weniger verbrauchen. Wegen der Adaptierung auf 8nm kommt Ampere so spät.

AMD hat ein ganz anderes Problem. 7nm ist anscheinend voll ausgebucht. Apple, Huawei, AMD etc... alle bringen SoC mit dem Prozess. AMD selbst braucht dringend Renoir APUs (der Laptop-Markt ist extrem wichtig für AMD), Zen2 CPUs und vor allem müssen sie die Konsolen APUs (min. 15Mio bis Q1/21) für ihre Kunden fertigen lassen.
Da bleibt, selbst nachdem Apple auf 5nm gewechselt ist und Huawei durch eine "glückliche Fügung" aus dem Rennen ist wenig freie Kapazität für eine Gamer GPU.
Und, ZEN3 steht vor der Tür und ist mit Abstand das wichtigere Produkt. BigNavi kommt also deshalb so spät und wahrscheinlich in geringer Stückzahl weil es für AMD andere Prioritäten gibt und die Fertigungskapazitäten nicht ausreichen (siehe Renoir).

Hört sich alles gut an, nur N2x war nie anders geplant. Vermutlich geht es diesmal etwas schneller. Man plant ein Produkt ein, wo die Konstruktion meint es ist fertig. Ich denke keiner bei AMD hat auf NV geschaut, da man den Zeitplan eh nicht halten konnte. Dies könnte sich hypothetisch auch auf die Verfügbarkeit auswirken. Sprich, Jensen hat etwas angekündigt, das er eh kaum liefern kann.

HOT
2020-09-21, 20:34:02
Was hat der 8nm Prozess bei Samsung mit dem 7nm Prozess bei TSMC zu tun ... nix

Die Verfügbarkeit bei Nvidia hat nix mit AMD zu tun und auch andersherum passt es nicht.

IMHO:

Ampere war mit dem 7nmEUV Prozess von Samsung geplant. Daraus wurde leider nix. Mit 7nmEUV würde Ampere um einiges weniger verbrauchen. Wegen der Adaptierung auf 8nm kommt Ampere so spät.

AMD hat ein ganz anderes Problem. 7nm ist anscheinend voll ausgebucht. Apple, Huawei, AMD etc... alle bringen SoC mit dem Prozess. AMD selbst braucht dringend Renoir APUs (der Laptop-Markt ist extrem wichtig für AMD), Zen2 CPUs und vor allem müssen sie die Konsolen APUs (min. 15Mio bis Q1/21) für ihre Kunden fertigen lassen.
Da bleibt, selbst nachdem Apple auf 5nm gewechselt ist und Huawei durch eine "glückliche Fügung" aus dem Rennen ist wenig freie Kapazität für eine Gamer GPU.
Und, ZEN3 steht vor der Tür und ist mit Abstand das wichtigere Produkt. BigNavi kommt also deshalb so spät und wahrscheinlich in geringer Stückzahl weil es für AMD andere Prioritäten gibt und die Fertigungskapazitäten nicht ausreichen (siehe Renoir).

Interessante Ansicht. In dem Falle bräuchte AMD so schnell wie möglich einen 5nm-Ersatzchip! Das wäre ein Halo-Product.

mboeller
2020-09-21, 20:40:11
Interessante Ansicht. In dem Falle bräuchte AMD so schnell wie möglich einen 5nm-Ersatzchip! Das wäre ein Halo-Product.

Ja, aber für ZEN3 und Renoir/Cezanne. Beide SoC sind für die Zukunft von AMD viel wichtiger.

Voodoo6000
2020-09-21, 20:56:28
edit:
falscher Thread

Berniyh
2020-09-21, 20:59:08
Was macht dich so sicher? Wenn der 80CU-Chip N20 war, hätten wir das gar nicht unbedingt mitbekommen, dann wäre bei big-Navi immer vom 56CU-Chip die Rede gewesen. Mit den guten Fortschritten bei 5nm hätte man N20 dann gar nicht mehr gebraucht.
Wir wissen seit über einem Jahr von Navi 21 und 23 und seit etwa einem Jahr von Navi 22.
Seit 2-3 Monaten sogar von Navi 24.
Ein "Navi 20" Chip wurde noch niemals irgendwo erwähnt, also ist es extrem unwahrscheinlich, dass es den gegeben hat oder zumindest, dass dieser es in die entscheidende Phase geschafft hat.
(Wäre natürlich möglich, dass in der frühen Designphase so ein Chip existiert hat.)

Mal zu den Fakten… wir wissen:
1. Navi 21 = Sienna Cichlid
2. Navi 22 = Navy Flounders
3. Sienna Cichlid > Navy Flounders
4. Demzufolge: Navi 21 > Navi 22
5. Navi 23 wurde bislang (im Gegensatz zu 21 und 22) noch nicht zum Linux Kernel hinzugefügt und es existieren auch keine publizierten Patches, damit ist ein Release in diesem Jahr sehr unwahrscheinlich
6. Big Navi soll laut Su (und anderen AMD Mitarbeitern) noch dieses Jahr released werden
7. Demzufolge: Navi 21 = Big Navi

Das muss jetzt nicht zwangsläufig heißen, dass Big Navi der größte denkbare Chip ist, aber das was AMD damit gemeint hat wird dieses Jahr kommen.
Hab das leider nicht mehr auf dem Schirm wann und wie das geleakt wurde. Wir haben das ja jetzt schon ein paar Mal gelesen, dass der Chip gecancelt worden sein soll. Und die Leaks können ja durchaus korrekt gewesen sein, sowas umzubenennen ist ja ein Leichtes.
Das ist extrem unwahrscheinlich. Bei diesen IDs handelt es sich um die internen Projektbezeichnungen, welche vermutlich auch in einer Vielfalt von Dateien, Projekten, Designs und sonstigem Kram verwendet werden.
Ich weiß natürlich nicht, wie das bei AMD intern gehandhabt wird, aber wenn das so ist wie bei den meisten Firmen, dann ist es kein "Leichtes" sowas umzubenennen.
Eher streichst du dann eine ID und erstellst eine neue.
Aber Verschiebungen im Sinne von "Das was früher Navi 22 war ist jetzt Navi 21" können wir wohl ziemlich sicher ausklammern.

Berniyh
2020-09-21, 21:03:14
AMD hat ein ganz anderes Problem. 7nm ist anscheinend voll ausgebucht. Apple, Huawei, AMD etc... alle bringen SoC mit dem Prozess. AMD selbst braucht dringend Renoir APUs (der Laptop-Markt ist extrem wichtig für AMD), Zen2 CPUs und vor allem müssen sie die Konsolen APUs (min. 15Mio bis Q1/21) für ihre Kunden fertigen lassen.
Da bleibt, selbst nachdem Apple auf 5nm gewechselt ist und Huawei durch eine "glückliche Fügung" aus dem Rennen ist wenig freie Kapazität für eine Gamer GPU.
Und, ZEN3 steht vor der Tür und ist mit Abstand das wichtigere Produkt. BigNavi kommt also deshalb so spät und wahrscheinlich in geringer Stückzahl weil es für AMD andere Prioritäten gibt und die Fertigungskapazitäten nicht ausreichen (siehe Renoir).
Schön und gut, aber Big Navi wäre eh nie ein High Volume Produkt geworden, Navi 22 wird sicherlich deutlich mehr Wafer verbrauchen.
Dafür sind die Preise bei den GPUs einfach zu hoch.
Letztendlich ist das auch kein Grund Navi 21 nicht zu releasen, denn das Design steht doch eh und auf die paar Wafer kommt es nicht an.
Fürs Image ist so ein Chip aber extrem wichtig.
Notfalls setzt man den Preis halt entsprechend hoch an.

Badesalz
2020-09-21, 21:13:24
Was hat der Typ eigentlich für einen track record?Leute die zögern Ampere zu bestellen zu überzeugen sie sollten es tun und Leute die viel über RDNA2 reden, die Lust daran zu nehmen.

Der ist Grün.

gedi
2020-09-21, 21:25:56
Mit den kolportierten p/w Werten kann sogar die dümmste Leuchte Ampere outperformen!

N0rG
2020-09-21, 23:07:31
Ausgehend von 225W für 156% 3DC 4k Performance Index für die 5700XT komme ich bei +50% p/W auf 234% bei 225W. Bei 300W wären es dann 312% und bei 350W 364%. Das könnte ganz knapp reichen für die 3090, vorausgesetzt der Chip skaliert bis 350W noch so gut.
Ich glaube aber nicht das AMD so weit hoch geht mit der Leistungsaufnahme.

Linmoum
2020-09-21, 23:21:23
Es würde mich stark wundern, wenn sie die 300W überschreiten und das wird mMn auch nicht notwendig sein. Flaggschiff mit 280-290W, sehr guter Effizienz bei dann wahrscheinlich immer noch ~3080-Performance. Wenn sie schlau sind, dann heben sie noch das (sehr) gute OC-Potential bei RDNA2 hervor, dass wir in meinen Augen bekommen könnten. Wenn da was geht, dann könnte man einiges an Enthusiasten abgreifen, wenn man den Overclockers Dream 2.0 Ampere sieht.

basix
2020-09-22, 07:38:18
Flaggschiff mit 280-290W, sehr guter Effizienz bei dann wahrscheinlich immer noch ~3080-Performance. Wenn sie schlau sind, dann heben sie noch das (sehr) gute OC-Potential bei RDNA2 hervor, dass wir in meinen Augen bekommen könnten.

Wenn all das zutrifft, könnten wir schon sehr zufrieden sein.

mironicus
2020-09-22, 07:44:51
Wenn da was geht, dann könnte man einiges an Enthusiasten abgreifen, wenn man den Overclockers Dream 2.0 Ampere sieht.

Aus Not macht man eine Tugend. Es gibt auf Youtube Videos die damit werben, wie man durch Untervolting bis zu 100 Watt bei den Ampere-GPUs einsparen kann. :freak:

Das haben AMD-User bei Vega damals auch gerne gemacht. Umgekehrte Welt! :D

DrumDub
2020-09-22, 08:13:16
Aus Not macht man eine Tugend. Es gibt auf Youtube Videos die damit werben, wie man durch Untervolting bis zu 100 Watt bei den Ampere-GPUs einsparen kann. :freak:

Das haben AMD-User bei Vega damals auch gerne gemacht. Umgekehrte Welt! :D hehe ... auf den punkt. :D

gedi
2020-09-22, 08:20:36
Neuer VRmark Benchmark: https://imgur.com/a/lFPbjUj

dildo4u
2020-09-22, 08:22:04
Januar ist neu?

gedi
2020-09-22, 08:30:43
Januar ist neu?

Sollte eigentlich aktueller sein. Zudem waren es im Januar afaik 11% auf die am höchsten getaktete 2080Ti, hier sind es über 17%.

Zergra
2020-09-22, 08:33:54
Nein, das ist eins zu eins das gleiche. Steht doch auch das Datum dabei...
https://www.gamestar.de/artikel/mysterioese-amd-radeon-gpu-soll-17-prozent-schneller-als-rtx-2080-ti-sein,3353065.html

gedi
2020-09-22, 08:36:28
Okay, sorry

Dschounz
2020-09-22, 10:15:35
Moin, (nach 15 Jahren wieder dabei im Forum :eek:),

die "Infos" von Avery78 passen einfach nicht zu den veröffentlichten Bildern der vermutlichen RX6900... 2x 8 Pin Stecker bei ähnlicher CU-Anzahl wie 5700XT???

Wenn man berücksichtigt, dass AMD auf jeden Fall eine Effizienzsteigerung mit RDNA2 hinbekommt, und sei auch noch so klein, passt das nicht mit dem vermutlichen Verbrauch zusammen.

Ich gehe auch davon aus, dass die 80CU weiterhin gesetzt sind.

Palpatin
2020-09-22, 10:40:13
Wenn AMD die 3070 schlägt und von beginn an mit 16GB aufwarten kann, dabei nicht über 250 Watt TDP geht und das ganze für 600 oder darunter anbietet, bin ich mehr als zufrieden, egal wie groß der Chip dann ist ;).

Hasenpfote
2020-09-22, 10:55:48
Wenn AMD die 3070 schlägt und von beginn an mit 16GB aufwarten kann, dabei nicht über 250 Watt TDP geht und das ganze für 600 oder darunter anbietet, bin ich mehr als zufrieden, egal wie groß der Chip dann ist ;).Wenn AMD für 599€ eine Karte für 499€ schlägt, bist Du zufrieden? :freak:

tm0975
2020-09-22, 10:58:14
Wenn AMD für 599€ eine Karte für 499€ schlägt, bist Du zufrieden? :freak:

ja :-)

Birdman
2020-09-22, 11:04:58
Wenn AMD für 599€ eine Karte für 499€ schlägt, bist Du zufrieden? :freak:
Wenn man 16GB vs 8GB mit reinrechnet, halt ich das für nicht zwingend verkehrt.

JVC
2020-09-22, 11:10:27
Wenn AMD die 3070 schlägt und von beginn an mit 16GB aufwarten kann, dabei nicht über 250 Watt TDP geht und das ganze für 600 oder darunter anbietet, bin ich mehr als zufrieden, egal wie groß der Chip dann ist ;).
499.- :wink: (bei ~2080Ti Leistung)
Und ich würde auch zuschlagen :smile:

Ich bastle mir mal zum Spaß ne Liste :biggrin:
"NV Killer" 300Watt 24Gb HBM2, ~8% über der 3090 24Gb, für ~999.- (feuchterwunschtraumfantasie, NVs Alptraum)
Basierend auf N21:
XTX 275Watt 16Gb, ~so schnell wie die 3080 10Gb, für ~699.- (voll aktivierter Chip)
XT 250Watt 16Gb, ~12% unter der 3080 10Gb, für ~599.-
XL 220Watt 12Gb, ~21% unter der 3080 10Gb, für ~499.-
Basierend auf N22:
xxx 195Watt 12Gb, ~5% unter der 3070 8Gb(~2080Ti), für ~399.- (wenn man für ~ den selben Chip (X-Box) auch ne ganze Konsole drum rum bauen kann...)
xxx 175Watt 10Gb, ~ auf dem Niveau der 3060 8Gb, für ~349.-
Basierend auf N23:
xxx 150Watt 8Gb, für ~299.- (steckt so ~ in der PS5, ist Preislich für mich also auch nicht zu tief angesiedelt ;) )
xxx 135Watt 8Gb, für ~249.-
Basierend auf N24:
xxx 100Watt 6Gb, für ~199.-
xxx 75Watt 4Gb, für ~149.-
(das optimalste was ich mir vorstellen kann)

Klingt doch nett :) Mir würde es gefallen.
Und ich hoffe, das AMD viel näher am "Sweetspott" taktet!
(heißt, viel OC Spielraum für den :freak: in mir :D)

M.f.G. JVC

HOT
2020-09-22, 11:25:09
Das stimmt schon, eine 56CU-Karte wär nett, aber kann nicht das Maximum sein, da muss was her, was die 3080 schlägt und das werden wir auch kriegen.

N22XT, so wie er jetzt angenommen wird, wird auch einen Gegner bekommen, einen GA103 mit >48SMs und 256Bit GDDR6 wie es aussieht, das dürfte dann die 3070 Super werden. Lt Leo gibts den 103er in beiden Packages, das bedeutet im Klartext als 3080 (Super) und 3070 (Super).

Birdman
2020-09-22, 11:58:39
Ich gehe auch davon aus, dass die 80CU weiterhin gesetzt sind.
Dass der Chip 80CU haben wird halte ich auch für ein mehr oder weniger bestätigtes Gerücht, allerdings heisst das noch lange nicht dass wir auch eine Karte sehen werden, welche alle 80 aktiviert hat.
Bei der kolportierten Chipgrösse ist es deutlich wahrscheinlicher dass der Yield keine SKU im Vollausbau hergibt, schon gar nicht eine die im 400-800$ Preisbereich verkauft wird.

Weil wie man ja an der 3080 sieht, muss man hier trotz eigentlich sehr hohem Preis, eine enorme Nachfrage abdecken können...

HOT
2020-09-22, 12:00:03
Doch das heißt es. Die XT wird die 80CUs haben, die Salvage sehr sicher 72. Hat AMD in der Vergangenheit immer so gehandhabt. Es ist ja wohl auch nicht so, als wenn das Teil über 600mm² hätte oder sowas, da wird man schon genügend volle Chips bekommen. Preise legt man ja erst dann fest, wenn die Produkte platziert sind und ein Portfolio steht.

Die 3080 trifft auf einen total ausgehungerten Markt. Das ist ne eigene Kiste. Ich halte die 1.Käufer aber auch für "dumm", da wird pur nach Emotion gekauft. Es wäre doch viel schlauer die paar Wochen auch noch abzuwarten, bis alle Launches durch sind und dann zu kaufen, was man auch wirklich haben will ohne Verfügbarkeitsmangel und mit ordentlichen Preisen.

JVC
2020-09-22, 12:06:33
Die 3080 trifft auf einen total ausgehungerten Markt. Das ist ne eigene Kiste.
:up:

AMD wird genauso massive lieferprobleme haben...

M.f.G. JVC

Dschounz
2020-09-22, 12:08:32
Dass der Chip 80CU haben wird halte ich auch für ein mehr oder weniger bestätigtes Gerücht, allerdings heisst das noch lange nicht dass wir auch eine Karte sehen werden, welche alle 80 aktiviert hat.
Bei der kolportierten Chipgrösse ist es deutlich wahrscheinlicher dass der Yield keine SKU im Vollausbau hergibt, schon gar nicht eine die im 400-800$ Preisbereich verkauft wird.

Weil wie man ja an der 3080 sieht, muss man hier trotz eigentlich sehr hohem Preis, eine enorme Nachfrage abdecken können...

Sehe ich auch so,

die Yields und die Fehlerrate im 7nm TSMC-Prozess sind aber mit Sicherheit besser als beim 8nm Samsung-Prozess.
Deswegen wird der Cut wohl geringer ausfallen als bei der 3080 vs. 3090 (der ja natürlich auch Salvage ist).

dildo4u
2020-09-22, 12:11:33
.

Die 3080 trifft auf einen total ausgehungerten Markt. Das ist ne eigene Kiste. Ich halte die 1.Käufer aber auch für "dumm", da wird pur nach Emotion gekauft. Es wäre doch viel schlauer die paar Wochen auch noch abzuwarten, bis alle Launches durch sind und dann zu kaufen, was man auch wirklich haben will ohne Verfügbarkeitsmangel und mit ordentlichen Preisen.
Schätze mal die Masse will nicht bis 2021 warten, von AMD kommen erstmal nur Karten mit AMD Kühler. Selbst die Nvidia Karten mit dem völlig über designten FE Kühler haben keine Chance gegen Custom Modelle.

https://www.computerbase.de/2020-09/asus-msi-geforce-rtx-3080-custom-test/2/#abschnitt_lautstaerke__kuehlung

robbitop
2020-09-22, 12:24:12
Die GA102-Fertigung bei Samsung startete erst August, Testexemplare sind z.b. mit KW34 (17.-22.8.) versehen.
Das kann eigentlich nicht sein. Durchlaufzeit einer Halbleiterfabrik liegen bei gut 3 Monaten. Vor der Massenproduktion muss man aber auch erstmal den ersten Spin bauen -> bring up -> validieren.
KW34 ist dann das Fertigstellungsdatum dieses einen Chips. Aber nicht der Start der Massenproduktion. Stichprobengröße 1 -> wackelige Aussage.
Natürlich werden kontinuierlich Chips gefertigt - dass man einen halbwegs aktuellen dabei hat kann gut vorkommen.

Man könnte maximal aus dem KW34 gelabelten Chip sagen, dass die ersten Chips KW34 vom Band gefallen sind. Was bedeutet, dass die Massenproduktion dann frühestens KW15 gestartet hat. Vom ersten Tapeout bis zur Massenfertigung inkl Validierung vergehen auch ein paar Monate. Das erste Tapeout bei Samsung wird spätestens Ende 2019 gewesen sein. Ich vermute eher Spätsommer/Herbst.
Und bevor das losgehen kann muss man ja die entsprechenden Libs kennen, um den Chip zu kompilieren und das Layout zu optimieren. Und dann ist man im H1 2019. Also das mit Samsung steht sicherlich schon länger fest.

RLZ
2020-09-22, 12:54:28
. Ich halte die 1.Käufer aber auch für "dumm", da wird pur nach Emotion gekauft. Es wäre doch viel schlauer die paar Wochen auch noch abzuwarten, bis alle Launches durch sind und dann zu kaufen, was man auch wirklich haben will ohne Verfügbarkeitsmangel und mit ordentlichen Preisen.
An der Aussage sind mehrere Sachen dumm.
a) Pauschalisierungen sind dumm
b) Menschen haben zeitliche Constraints (ich hab zum Beispiel im Oktober Urlaub) und meine 970 ist nun wirklich zu langsam
c) es gibt Käufer für die AMD wegen des Featuresets nichts in Frage kommt (es gibt Menschen, die brauchen Cuda)
d) Die Launchpreise sind normalerweise für einen längeren Zeitraum sehr gut. Damit sind nicht die übertrieben After-Launch Preise gemeint
e) Wer wartet bis der Winter halb rum ist, um sich ne neue Karte zu kaufen ist dumm. Bei schönem Wetter gibt es besseres zu tun. (Pauschalisierungskeule)

Zergra
2020-09-22, 12:57:20
Tja genau das ist es, am Ende ist vllt. genau der Dumm der gewartet hat. Der andere kann schon 2 Monate die neue Karte nutzen. Wenn sich das mit dem Mining so weiter entwickelt, sehen die Preise in den nächsten Monaten ganz anders aus. Weiß man alles nicht.

HOT
2020-09-22, 12:57:52
Das dumm war nicht umsonst in Anführungsstrichen. Das ist nicht verletzend gemeint, sondern eher sowas wie unvernünftig+unreflektiert. Erstkaufen ist fast immer dämlich, erst recht, wenn man nicht genau weiss, was da noch kommt. Und keine Sorge, die Verfügbarkeit wird besser, nicht schlechter. Natürlich macht das Marketing Druck, aber das ist ja auch schon immer so. Da muss man aber doch nicht immer wieder darauf hereinfallen.

Zergra
Eher nicht. NV hat das Mining gehypt um Verkäufe zu genereieren.

JVC
2020-09-22, 13:13:26
... (Pauschalisierungskeule)
:biggrin:

M.f.G. JVC

Cyberfries
2020-09-22, 13:50:02
Was hat der 8nm Prozess bei Samsung mit dem 7nm Prozess bei TSMC zu tun ... nix

Hab ich das je behauptet? Das ist um eine Parallele bezüglich des Zeitrahmens zu ziehen. Da muss man sich nicht dummstellen.

Das kann eigentlich nicht sein. Durchlaufzeit einer Halbleiterfabrik liegen bei gut 3 Monaten.
.....Stichprobengröße 1 -> wackelige Aussage.

Wir haben deutlich mehr als einen Chip, die im August vom Band gefallen sind.
z.B. bei Techpowerup Asus, Zotac und Palit in KW 32 und MSI in KW30 (was aber noch im Juli liegt)
Damit liegen zwischen der Produktion und dem erfolgreich versandten Produkt 3-7 Wochen.

edit: Ampere und die Diskussion gehört aber nicht hier her, es ging nur um einen Vergleich des Zeitrahmens.

Vor der Massenproduktion muss man aber auch erstmal den ersten Spin bauen -> bring up -> validieren.
....dass die ersten Chips KW34 vom Band gefallen sind.

Und wo ist da der Widerspruch zu meiner Aussage?
Natürlich meine ich das vom-Band-fallen und nicht, wann das erste Bröckelchen Silizium aus dem Boden gekratzt wurde.

edit: ok, nochmal nachgelesen.
Ich habe meinen Beitrag unglücklich formuliert als ich von Beginn der Fertigung sprach, statt von ersten fertigen Chips.
Gemessen an der aktuellen Diskussion dazu, auf die ich mich beziehe, hätte man aber darauf kommen können.

Cross-Flow
2020-09-22, 14:04:21
Es wird langsam echt Zeit das AMD da ein paar Infos rausrückt :D

Je nach dem wie gut ( oder schlecht ) der größte ( vorgestellte ) Navi wird, wie hoch sind denn die Chancen das der nächstkleinere Chip zeitnah kommt?

Hätte gern was mit 8 GB Ram, 2080 bis 2080s Leistungsklasse und das alles bei ca. 150W aka RX480 Leistungsaufnahme. Würde da gern NV mit der RTX 3060 meiden - die wohl in dem Bereich liegen wird.

Nach dem was ich hier so gelesen habe sollte Navi 22 ( cut ) mein Chip sein oder?

Complicated
2020-09-22, 14:10:00
AMD macht sehr clever derzeit im Marketing. Sie bringen keine Infos und alle die nicht warten wollen bestellen jetzt Nvidia - ich denke AMD brauch keine Infos raus hauen bis Oktober, da sowieso nur ein Bruchteil der Käufer eine Lieferung erhält und dann die Presse noch 2 Wochen über keine Verfügbarkeit berichtet.

Allerdings muss AMD dann mit seinem Oktoberlaunch direkt eine hohe Verfügbarkeit gewährleisten, damit diese Taktik funktioniert. Mal sehen wie es darum bestellt ist, wenn dann alle die im Januar mit Customs gerechnet haben, diese Anfang November schon haben können.

[MK2]Mythos
2020-09-22, 14:17:31
Naja, wenn AMD wirklich erst jetzt die finalen Taktraten bestimmt, dann wird es mit einer großen Verfügbarkeit im Oktober eher nichts...

Gipsel
2020-09-22, 14:22:35
Mythos;12435361']Naja, wenn AMD wirklich erst jetzt die finalen Taktraten bestimmt, dann wird es mit einer großen Verfügbarkeit im Oktober eher nichts...Du weißt aber schon, daß AMD auch schon mal noch während des Launches VBIOS-Updates gebracht hat, die das Taktverhalten geändert haben? Im Extremfall wurde sogar schon noch nach dem Launch die Taktraten per Update (entweder Bios oder Treiber) hochgezogen. :lol:
https://www.heise.de/newsticker/meldung/Spielergrafikkarte-Radeon-RX-5600-XT-AMD-erhoeht-RAM-Takt-jetzt-auch-offiziell-4714676.html

Cyberfries
2020-09-22, 14:22:38
wie hoch sind denn die Chancen das der nächstkleinere Chip zeitnah kommt?
.....
ca. 150W

Mit den 150w wirst du dich wohl noch bis nächsten Frühling gedulden müssen, wenn man den Gerüchten glauben darf.
Ich glaube kaum, dass der 60CU-Chip unter 200w kommt.

unl34shed
2020-09-22, 14:28:43
https://www.reddit.com/r/Amd/comments/ixktae/navy_flounder_has_40_cus_and_192bit_bus_source/?utm_content=title&utm_medium=post_embed&utm_name=919d3d3b028a4b018c3a0c06d03aea7f&utm_source=embedly&utm_term=ixktae

Navy flounder mit 40CU?

Hakim
2020-09-22, 14:29:15
Weiß nicht obs schon gepostet wurde, 40 CU Version mit 192 Bit SI?

https://videocardz.com/newz/amd-navy-flounder-to-feature-40-cus-and-192-bit-memory-bus

JVC
2020-09-22, 14:30:58
Dann spricht ein 384Bit für die 80CU Variante...

Ich weis nicht so recht, kann mir 384Bit 16gbps und 24Gb ,
nur bei wirklich guter neuer Kompression oder eben dem "gaming-Cash" vorstellen...
Das wäre mir dann aber tatsächlich lieber als GDDR6X ;)

Ich hoffe dazu wirklich auf nur 275Watt für die XTX und max 999.- :D
Wenn sich das Ding dann mit ~375Watt+ und Wakü auf 2,2-2,4Ghz prügeln lässt, na da geht doch wat ^^

M.f.G. JVC

WedgeAntilles
2020-09-22, 14:33:48
Du weißt aber schon, daß AMD auch schon mal noch während des Launches VBIOS-Updates gebracht hat, die das Taktverhalten geändert haben? Im Extremfall wurde sogar schon noch nach dem Launch die Taktraten per Update hochgezogen. :eek:

Und genau das ist das, was viele User von AMD abschreckt.
Das wirkt zusammengeschustert und man fühlt sich als Laie etwas überfahren.
"Muss ich jetzt was machen? Hilfe, kann da was passieren? Wenn ich nix mache, habe ich dann "Schrott"?"

Da fühlt man sich leicht überfahren und das sorgt dafür, dass das Gefühl, dass man mit der GraKa verbindet negativ wird.
Man ist eher unzufrieden.

Das gilt natürlich nicht für gut informierte Kunden, die auch gerne mal mit den Treibern rumspielen und so weiter.
Nur: Das ist halt die große Minderheit.

AMD sollte - falls sie jemals für die große Masse interessant werden wollen - solche Dinge dringend unterlassen.

Gipsel
2020-09-22, 14:39:42
Und genau das ist das, was viele User von AMD abschreckt.
[..]
AMD sollte - falls sie jemals für die große Masse interessant werden wollen - solche Dinge dringend unterlassen.Mag stimmen, das war aber nicht der Punkt. Der Punkt war, daß die Frequenzen sehr spät im Launch-Prozeß festgelegt werden können und auch werden. Daraus kann man also nicht viel über das Launch-Datum oder die Verfügbarkeit ableiten.

WedgeAntilles
2020-09-22, 14:43:38
Ja, da hast du recht :)

HOT
2020-09-22, 14:46:45
Dann spricht ein 384Bit für die 80CU Variante...

Ich weis nicht so recht, kann mir 384Bit 16gbps und 24Gb ,
nur bei wirklich guter neuer Kompression oder eben dem "gaming-Cash" vorstellen...
Das wäre mir dann aber tatsächlich lieber als GDDR6X ;)

Ich hoffe dazu wirklich auf nur 275Watt für die XTX und max 999.- :D
Wenn sich das Ding dann mit ~375Watt+ und Wakü auf 2,2-2,4Ghz prügeln lässt, na da geht doch wat ^^

M.f.G. JVC
Wir wissen ja schon, dass er 256Bit hat. Also sind wir wieder am Anfang, wie reicht die Speicherbandbreite für 22,5TFLOPs. Dass NF nur 40CUs hat hab ich ja von Anfang an spekuliert. Das würd ja auch zu der 18% Mehrleistung ggü. N10 passen (+x, da kein finales BIOS), wobei auch hier die Bandbreite ne Rolle spielt, das muss ja schon ein Chip mit nur 192Bit 14GT-GDDR gewesen sein. Also es funktioniert offensichtlich mit der geringen Bandbreite. N10 hat ja deutlich mehr.

Und gecancelt worden sein könnte ein evtl. 96CU-Chip mit 384Bit tatsächlich irgendwann mal. Das ist aber nicht N21 oder N22.

gedi
2020-09-22, 14:47:45
Und genau das ist das, was viele User von AMD abschreckt.
Das wirkt zusammengeschustert und man fühlt sich als Laie etwas überfahren.
"Muss ich jetzt was machen? Hilfe, kann da was passieren? Wenn ich nix mache, habe ich dann "Schrott"?"

Da fühlt man sich leicht überfahren und das sorgt dafür, dass das Gefühl, dass man mit der GraKa verbindet negativ wird.
Man ist eher unzufrieden.

Das gilt natürlich nicht für gut informierte Kunden, die auch gerne mal mit den Treibern rumspielen und so weiter.
Nur: Das ist halt die große Minderheit.

AMD sollte - falls sie jemals für die große Masse interessant werden wollen - solche Dinge dringend unterlassen.

Sollte diesmal Gott sei Dank ausbleiben. Über die Performance des Konkurrenten weiß man ja in etwa Bescheid. Somit sollte genügend Zeit sein, um ein VBios zu schreiben.

Ravenhearth
2020-09-22, 14:50:56
https://www.reddit.com/r/Amd/comments/ixktae/navy_flounder_has_40_cus_and_192bit_bus_source/?utm_content=title&utm_medium=post_embed&utm_name=919d3d3b028a4b018c3a0c06d03aea7f&utm_source=embedly&utm_term=ixktae

Navy flounder mit 40CU?
Dann machen 256 Bit für 56 CUs und 384 Bit für 80 CUs schon Sinn. Mit 16Gbps wären das 384 GB/s bei 40 CUs, 512 GB/s bei 56 CUs und 768 GB/s bei 80 CUs. Mit verbesserter Komprimierung könnte das ausreichen. Die 3080 hat ja auch 760 GB/s, die 3070 sogar nur 448 GB/s.

Cyberfries
2020-09-22, 14:53:05
Ich dachte bisher, Navy Flounders wäre N22, nicht N23? Irritierend.

Dann spricht ein 384Bit für die 80CU Variante...

Bei gc_num_tccs = 16? Haben wir schon diskutiert, unwahrscheinlich.

----
Rasterizer ist interessant. num_packer_per_sc = 4, gegenüber N10 verdoppelt

[MK2]Mythos
2020-09-22, 14:53:52
Mag stimmen, das war aber nicht der Punkt. Der Punkt war, daß die Frequenzen sehr spät im Launch-Prozeß festgelegt werden können und auch werden. Daraus kann man also nicht viel über das Launch-Datum oder die Verfügbarkeit ableiten.
Stimmt, da war was... :D
Wenn ich mich recht erinner, hat AMD da aber zurecht sehr viel Kritik geerntet und deswegen denke ich nicht, dass man so einen Stunt nochmal macht.

HOT
2020-09-22, 14:57:14
N23 und N24 werden erst nächstes Jahr kommen, das ist nicht big-Navi.

Birdman
2020-09-22, 15:08:29
Sollte diesmal Gott sei Dank ausbleiben. Über die Performance des Konkurrenten weiß man ja in etwa Bescheid. Somit sollte genügend Zeit sein, um ein VBios zu schreiben.
Über die des Konkurrenten schon, aber was ist mir der eigenen?

Und sag jetzt nicht dass diese ja "klar" wäre, weil sonst zitiere ich jeweils deine Aussage wann immer jemand beim oder kurz nach dem Launch weint, dass die ermittelte Werte doch noch mit quasi beta Treibern entstanden sind und hier in Zukunft noch viel mehr an Performance zu erwarten ist - also die gute alte "Fine Wine" Diskusion :D

Ich kann mir grad vorstellen wie das läuft:

Produktmanager: Hey Treiber Devs, was denkt ihr um wieviel die Performance unserer neuen GPU bis zum Launch durch Optimierung noch steigt?
Treiber Devs: Denke so 10% sollten sicher drin sein
Produktmanager: OK, dann legen wir die Taktraten mal auf xxx fest, dann liegen wir knapp vor der Konkurenz
*** LAUNCH DAY ***
Treiber Devs: Sorry Chef, das ganze war leider etwas schwieriger als geplant und die Zeit war zu knapp. Haben nur noch 5% rausholen können.
Produktmanager: Fuck...

maximus_hertus
2020-09-22, 15:15:05
Dann machen 256 Bit für 56 CUs und 384 Bit für 80 CUs schon Sinn. Mit 16Gbps wären das 384 GB/s bei 40 CUs, 512 GB/s bei 56 CUs und 768 GB/s bei 80 CUs. Mit verbesserter Komprimierung könnte das ausreichen. Die 3080 hat ja auch 760 GB/s, die 3070 sogar nur 448 GB/s.

Wie will man das aber mit 16GB für den Top Dog und 12Gb für den (etwas) kleineren Chip auflösen?

Palpatin
2020-09-22, 15:38:44
Wie will man das aber mit 16GB für den Top Dog und 12Gb für den (etwas) kleineren Chip auflösen?
Sind doch auch nur Gerüchte. 12/24 für Top Dog und 8/16 für 3070 Konkurrten wäre eh am sinnvollsten. 16GB für einen Top Dog der es mit der 3080 aufnehmen könnte ging sich doch eh nur mit HBM2 aus.

Iscaran
2020-09-22, 15:40:10
https://www.reddit.com/r/Amd/comments/ixktae/navy_flounder_has_40_cus_and_192bit_bus_source/?utm_content=title&utm_medium=post_embed&utm_name=919d3d3b028a4b018c3a0c06d03aea7f&utm_source=embedly&utm_term=ixktae
https://videocardz.com/newz/amd-navy-flounder-to-feature-40-cus-and-192-bit-memory-bus

Interessant - diese Treiberangaben bestätigen eigentlich nur Sienna Cichlid = 80 CUs und Navy Flounders ist praktisch exakt 1/2 Sienna Cichlid.
Statt 4 Shader Engines (SE) sind es eben 2.

Macht dann eben 2 SE x 10 WGP pro SE x 2 CU pro WGP = 40 CUs und ist im Grunde IDENTISCH zu Navi10 aufgebaut. Im Grunde also eine Art "Refresh" des Navi10 Chips in besserer Fertigung und mit RDNA2 Optimierung, welche sich also wohl eher nicht aufs "Layout" der SEs/WGPs usw auswirk als viel mehr auf Optimierungen auf Transistorebene hinausläuft.

Das würde darauf hindeuten, dass AMD wohl eher SE intern was umarrangiert und Sienna Cichlid aka N21 (?) im Grunde ein "simpler" doppelt so großer Navi10 ist (inkl. Chip interner Optimierungen) (EDIT: bzw. eben 2xNavi22 (aka Navy Flounders).

Das einzige was dazu eben nicht passt ist 256 bit @ 80 CUs...192 bit @40 CUs kann ja evtl. noch nehmen. Wenn man den Speichertakt aufgebohrt oder ähnliches.

Navi12 kennt man ja mittlerweile auch, das sind die mobile Ableger von Navi10 mit HBM
https://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Radeon-Pro-5600M-fuer-MacBook-Pro-hat-HBM-Speicher-Navi-12-1352384/

Aber ich glaube fast das AMD hier für Sienna Cichlid (und vielleicht auch schon für Navy Flounders) noch was am SI gedreht hat...anders kann ich mir fast nicht vorstellen warum man sogar zu kleinerem SI geht - warum sollte man das tun, wo man doch den Navi10 schon mit 256bit @40 CUs gefahren hat...

JVC
2020-09-22, 15:47:04
Meno, gibt's doch nicht das AMD so dicht hält.

Egal was kommt, es hat entweder zu recht oder zu unrecht NV verängstigt.
Freiwillig liefert man doch nicht so n "hochgetretenes zeug" ab?

So gesehen funktioniert der "NV Killer" ja jetzt schon :tongue:

M.f.G.

gedi
2020-09-22, 15:50:39
Bessere Kompression? BTW. je mehr Infos zu Tage kommen, desto mehr muss ich mich fragen, wie AMD das Wort Enthusiast in Bezug auf Grafikkarten versteht.

WedgeAntilles
2020-09-22, 15:55:58
Egal was kommt, es hat entweder zu recht oder zu unrecht NV verängstigt.
Freiwillig liefert man doch nicht so n "hochgetretenes zeug" ab?


Das ist der Witz an der 3080 IMO.
Völlig egal was BigNavi bringt - wegen 6% Mehrleistung den Stromverbrauch von 270 auf 320 Watt zu bringen ist einfach Schwachsinn.

Ich sehe einfach kein Szenario, in dem das Sinn macht.
Egal ob BigNavi schneller als die 3080 ist, gleich schnell wie die 3080 oder langsamer als die 3080.
Wären die statt auf 320W auf 270W hätten sie 5% weniger Performance und 15% weniger Verbrauch.
5% Performance ist nichts (meinetwegen beim absoluten Spitzenprodukt 3090, aber nicht bei der 3080) - aber ob 320W (und damit stark steigendem Stromverbrauch) oder 270W (und damit nur leicht steigendem Stromverbrauch zur 2080) ist massiv.

JVC
2020-09-22, 16:03:19
Dann wären die Steigerungen in der Performance aber noch geringer.
Performance/Verbrauch hat sich nicht gut genug verbessert und über 384bit hinaus wollte/konnte man auch nicht.
Und mit dem heißen GDDR6X hat man sich m.M.n. auch noch was zu dem 8LPP dazu "eingetreten"...

Ich will wissen, was NV zu so einem "Mist" getrieben hat.
Bin echt gespannt wie noch nie, auf das was AMD ab liefert :smile:

M.f.G. JVC

igg
2020-09-22, 16:03:22
.Ich sehe einfach kein Szenario, in dem das Sinn macht.

CB schon: "Kein Zweifel besteht hingegen daran, dass die bisherigen Spitzenmodelle GeForce RTX 2080 Super und GeForce RTX 2080 Ti mit Markteinführung der GeForce RTX 3080 auf Anhieb obsolet geworden sind."

Heise auch: "Diese Ampere-Karte liefert den Performance-Sprung, den man eigentlich von der Turing-Generation erhofft hatte. Der erste Eindruck deutet darauf hin, dass die GeForce RTX 3080 aktuelle Spiele mit höchster Detailstufe in 4K-Auflösung ruckelfrei darstellen kann, selbst mit aktivierten Raytracing-Effekten. Sie übertrumpft die GeForce RTX 2080 Ti durchweg, und das zu einem deutlich niedrigeren Preis."

Cyberfries
2020-09-22, 16:05:00
warum sollte man das tun, wo man doch den Navi10 schon mit 256bit @40 CUs gefahren hat...

Lag bei N10 nur an der Speichermenge, sieht man ja an der 5600, dass die Bandbreite auch mit 192bit ausreicht.
Mit dem Sprung auf 12GB ist das ausgeräumt.

wegen 6% Mehrleistung den Stromverbrauch von 270 auf 320 Watt zu bringen ist einfach Schwachsinn.

Hat schon jemand anderes als Computerbase in der Hinsicht getestet? Vlt hatten die nur Glück mit ihrem Exemplar.

[MK2]Mythos
2020-09-22, 16:08:37
Meno, gibt's doch nicht das AMD so dicht hält.

Egal was kommt, es hat entweder zu recht oder zu unrecht NV verängstigt.
Freiwillig liefert man doch nicht so n "hochgetretenes zeug" ab?

So gesehen funktioniert der "NV Killer" ja jetzt schon :tongue:

M.f.G.
Nun stell dir mal vor, AMD liefert nicht und es kommen wieder nur Mainstream und maximal Performance Karten. Und NV hat nun ganz "umsonst" die Preise so dermaßen niedrig angesetzt. Ich wüsste nicht, ob ich das feiern, oder bemitleiden sollte. :freak:

Hakim
2020-09-22, 16:09:32
Hat schon jemand anderes als Computerbase in der Hinsicht getestet? Vlt hatten die nur Glück mit ihrem Exemplar.

Gibt yt Video wo jemand die FE mit 0.8V und limitieren PT fährt= selbe Performance bei deutlich weniger W

Screemer
2020-09-22, 16:12:02
Gibt yt Video wo jemand die FE mit 0.8V und limitieren PT fährt= selbe Performance bei deutlich weniger W
Da ist st es halt die Frage ob das auch so bleibt. Wenn die Optimierungen für nextgen und z.b. 2*fp16 auf tensor-cores zum Tragen kommen, dann kann das ganz schnell anders aussehen.

HOT
2020-09-22, 16:12:42
Sinnvoll wäre sicher schon in der Refrenzplatine ein zweites Turbo-BIOS, wie bie der 290 damals. Damit kann man dann die 3080 schlagen, die Normaleinstellung ist dann der normale Betrieb. Dann hätte man beides erreicht. Und die Hersteller werden schon ihre hochgezüchteten Designs mit 70-90A SPS von Infineon oder anderen mit 350W bauen, die dann extra viel Strom in Leistung verwandeln anstatt in der Elektronik zu verheizen. So haben Asus und MSI ja schon bei N10 gehandelt. Im Gegensatz zur 3080 hat die N21 Platine ja so gut wie keine Anforderungen.

robbitop
2020-09-22, 16:14:28
Und wo ist da der Widerspruch zu meiner Aussage?
Natürlich meine ich das vom-Band-fallen und nicht, wann das erste Bröckelchen Silizium aus dem Boden gekratzt wurde.

edit: ok, nochmal nachgelesen.
Ich habe meinen Beitrag unglücklich formuliert als ich von Beginn der Fertigung sprach, statt von ersten fertigen Chips.
Gemessen an der aktuellen Diskussion dazu, auf die ich mich beziehe, hätte man aber darauf kommen können.
Grundsätzlich geht es mir darum, dass wenn man sich die Timeline anschaut, dass man nicht erst kürzlich auf Samsung umgestiegen ist. Das ist spätesten Spätsommer 2019 entschieden worden.

HOT
2020-09-22, 16:17:06
Von 8LPP war IIRC schon Anfang 2019, sogar schon bei Turin-Release, die Rede. Ich denke, die Entscheidung ist schon ERHEBLICH früher gefallen.

JVC
2020-09-22, 16:19:18
Mythos;12435522']... feiern ... :freak:
Aber nur kurz...
Das würde NV "sofort" mit ner 3070 16Gb und 3080 20Gb mit gesalzenem Preisaufschlag korrigieren.
(mit der Ausrede "das war immer so geplant, nur gabs noch keine Chips" und "seit doch froh das wir die wenigen Speicherkrüppel so verschenkt haben")

Auf unter Niveau der 3070, wäre AMD NV "egal"...
Aber wenn NV vermutete, das AMD die AM103 3080Ti schlagen könnte...

M.f.G. JVC

WedgeAntilles
2020-09-22, 16:31:18
CB schon: "Kein Zweifel besteht hingegen daran, dass die bisherigen Spitzenmodelle GeForce RTX 2080 Super und GeForce RTX 2080 Ti mit Markteinführung der GeForce RTX 3080 auf Anhieb obsolet geworden sind."

Heise auch: "Diese Ampere-Karte liefert den Performance-Sprung, den man eigentlich von der Turing-Generation erhofft hatte. Der erste Eindruck deutet darauf hin, dass die GeForce RTX 3080 aktuelle Spiele mit höchster Detailstufe in 4K-Auflösung ruckelfrei darstellen kann, selbst mit aktivierten Raytracing-Effekten. Sie übertrumpft die GeForce RTX 2080 Ti durchweg, und das zu einem deutlich niedrigeren Preis."

Genau das gleiche würde man auch schreiben, wenn die Performance 5% niedriger wäre.
Und dann würde man noch dazu schreiben, was für ein gigantischer Effizienzgewinn es doch wäre, da die 3080 kaum mehr Strom verbraucht als die 2080.

Das gilt natürlich nur, falls sich das mit den -5% bei 270W bestätigt.
Falls das ein Ausreißer ist und andere zu merklich anderen Werten kommen gilt das natürlich nicht mehr.

Stand jetzt begreife ich es nicht.
Ich hoffe, dass AMD das besser löst und nicht 15% Verbrauch für 5% Leistung opfert.

Die meisten Endkunden fahren unterm Strich mit einer Karte die ein paar Prozent weniger Leistung hat, dafür aber 15% weniger Verbrauch hat nämlich deutlich besser.
Falls AMD jetzt aber auch den Verbrauch völlig ignoriert, hauptsache man hat nachher 5% mehr Leistung, könnte sich das längerfristig durchsetzen.

Also AMD, sei vernünftig! Wegen 5% unterschiedlicher Leistung kauft keiner eine andere Karte.
Mit 15% weniger Verbrauch lässt sich aber sehr wohl werben. Vor allem da es kühlungstechnisch halt einen wirklich großen Unterschied macht, ob 270W oder 320W verbraten werden.

JVC
2020-09-22, 16:36:49
Die Karte wird ja auch direkt günstiger in der Fertigung, wen sie weniger verbraucht.
(kleinerer Kühler, schwäche Versorgung ...)

M.f.G. JVC

Complicated
2020-09-22, 16:56:39
Das einzige was dazu eben nicht passt ist 256 bit @ 80 CUs...192 bit @40 CUs kann ja evtl. noch nehmen. Wenn man den Speichertakt aufgebohrt oder ähnliches.Es würde lediglich passen, wenn 80 CUs auf 2 Chiplets verteilt wären und das 256-bit SI je Chiplet verbaut ist. Nur dass AMD jetzt schon mit RDNA2 Chiplets hat wird von den meisten als nicht wahrscheinlich angesehen. Allerdings ergeben für mich die anderen sinnlosen Gerüchte in diesem Szenario einen Sinn, so wie der "Infinity Cache" zum Beispiel.
Hört sich nach etwas an das in einem Chiplet-Design für GPUs gebraucht werden würde.

Nimmt man Chiplets an, wird so manches sinnvoller. Die Codebezeichungen sind ja für das gesamte Package. Nur ist AMD wirklich schon so weit Chiplets auf GPUs zu bringen? Die Vorteile eines max. 40CU großen Chips in der Fertigung mit 256-Bit SI wären ja enorm. Yield und Taktbarkeit wären deutlich besser als monolithisch.

Berniyh
2020-09-22, 16:59:16
https://www.reddit.com/r/Amd/comments/ixktae/navy_flounder_has_40_cus_and_192bit_bus_source/?utm_content=title&utm_medium=post_embed&utm_name=919d3d3b028a4b018c3a0c06d03aea7f&utm_source=embedly&utm_term=ixktae

Navy flounder mit 40CU?
Danke für den Link, das sieht in der Tat sehr spannend aus.
Wenn gc_num_tccs tatsächlich mit der Anzahl der Speicherkanäle skaliert, dann bedeutet das für Sienna Cichlid entweder 256 Bit GDDR6 oder 2048 Bit HBM2.
Das würde auch mit Navi 10 (256 Bit GDDR6) und Navi 12 (2048 Bit HBM2) zusammen passen.
Ich tippe auf letzteres, denn das bringt mehr Bandbreite. Die Cache Aktion könnte ja evtl. trotzdem mit an Bord sein und erlauben, dass man besser verfügbaren HBM2 Speicher nutzt.

Weiß nicht obs schon gepostet wurde, 40 CU Version mit 192 Bit SI?

https://videocardz.com/newz/amd-navy-flounder-to-feature-40-cus-and-192-bit-memory-bus

Also der Part
AMD is allegedly developing three Navi 2X GPUs: Navi 21, Navi 23, and Navi 23. Only Navi 21 (Big Navi) has been confirmed to carry a codename of Sienna Cichlid, while the Navy Flounder codename could refer to either 23 or 22.
wurde von von @Locuza schon vor langer Zeit beantwortet:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12366180&highlight=Flounders#post12366180

Navy Flounders ist Navi 22.
Es wäre aber natürlich denkbar, dass Navi 23 ein größerer Chip als Navi 22 ist.
Wobei, wenn dazwischen nichts mehr kommt, dann darf man zurecht die Frage stellen warum man insgesamt 4 Chips (mit Navi 24) braucht. Das würde wieder nach irgendwas Custom-mäßigem wie Navi 12 klingen.
Aber mal schauen.

pixeljetstream
2020-09-22, 17:12:11
Grundsätzlich geht es mir darum, dass wenn man sich die Timeline anschaut, dass man nicht erst kürzlich auf Samsung umgestiegen ist. Das ist spätesten Spätsommer 2019 entschieden worden.
Der Prozess wird imo noch viel frueher entschieden, fast von Beginn an. Und man kann ja mit 2+ Jahren "heisse" Entwicklungsphase grob rechnen bis zum Produkt launch. Nimmt man noch generische Forschung dazu sinds eher mehr.

basix
2020-09-22, 17:35:55
Das ist der Witz an der 3080 IMO.
Völlig egal was BigNavi bringt - wegen 6% Mehrleistung den Stromverbrauch von 270 auf 320 Watt zu bringen ist einfach Schwachsinn.

Es gibt einen einzigen Grund für die 320W und 350W der 3080 und 3090: Nvidia will um jeden Preis schneller als AMD sein. Jetzt nimmt man als Worst Case bei RDNA2 (aus Sicht Nvidia) 300W TDP un +60% Energieeffizienz an. Wo landet man? Bei 2.2x 5700 XT Performance. Wo wird eine 3090 in etwa landen? 2.3x 5700 XT Performance. Mehr als 300W will AMD vermutlich nicht gehen und noch bessere Effizienzgewinne wären noch aussergewöhnlicher als es eh schon wäre. Also bleibt Nvidia mit sehr hoher Wahrscheinlichkeit am schnellsten oder zumindest gleich auf. Deswegen sind die +5% in diesem Fall so wichtig. Das selbe Spiel haben wir ja bei der V64 vs. GTX 1080 erlebt, einfach mit getauschten Rollen und dass AMD viel später dran war.

Das gilt natürlich nur, falls sich das mit den -5% bei 270W bestätigt.
Falls das ein Ausreißer ist und andere zu merklich anderen Werten kommen gilt das natürlich nicht mehr.

Das geht mit jeder grossen Karte seit Kepler. Bei 180-190W + UV/OC hat meine 2080 Ti ungefähr die selbe Performance wie eine FE mit 260W. Bei der 980 Ti waren es sogar +10% Performance bei 180W.

Bei gc_num_tccs = 16? Haben wir schon diskutiert, unwahrscheinlich.
Die XBoneX ist glaube ich so ein Beispiel: https://twitter.com/Locuza_/status/1305205686910046212

Du wirst in dem Post sogar erwähnt ;)

AlterSack
2020-09-22, 17:42:13
Wir wissen ja schon, dass er 256Bit hat.

Wir wissen? ..dass wir nichts wissen!

HOT
2020-09-22, 17:48:49
Wir wissen? ..dass wir nichts wissen!
Das Testboard ist die Bestätigung. Aber der Glaube stirbt zuletzt...

basix
2020-09-22, 17:51:24
Solange die Karte 16 GByte hat und die Leistung bei 256b bringt ist es doch völlig egal, oder nicht?

unl34shed
2020-09-22, 17:51:40
Das Testboard ist ersmal eine PCIe Karte mit 8 Speicherbausteinen, die wohl von Samsung mit 16Gb stammen sollen. Im Prinzip kann es auch eine Nvidia Karte sein.

HOT
2020-09-22, 17:53:46
Wobei das von zuverlässigen Leakern bestätigt wurde, dass es sich hier im N21 handelt. Außerdem wurden ja jetzt x-Mal bestätigt, dass N21 16GB hat und N22 12GB. Die Sache ist durch, das würd ich mal akzeptieren. Man sieht ja, dass auch N22 mit nur 192 Bit ausgestattet ist. Damit hat er auch 1/4 weniger Bandbreite als N10 uns scheint dennoch 20% mehr Power zu haben.
Man kann sogar jetzt für beide Chips, N21 und N22 dasselbe PCB und Package verwenden, das ist für AMD und Partner natürlich extrem praktisch. Man lässt für N22 eben einiges an Bestückung weg.

basix
2020-09-22, 18:02:02
Man kann sogar jetzt für beide Chips, N21 und N22 dasselbe PCB und Package verwenden, ...

Wie kommst du darauf?

gedi
2020-09-22, 18:02:59
Was wäre, wenn ich eine GPU mit einem-512-Bit SI hätte, allerdings nur 8 Speicherbausteine mit 32 Bit einsetze? Würde sich das SI automatisch halbieren, oder würde da gar nichts laufen? Dass es keine 512-Bit sein können stützt sich die These ja nur auf dieses eine Bild. Was wäre, wenn se nur halb bestückt wäre? Vielleicht ist es auch ne XTX mit eigentlich 32GB?! Die XT bekommt halt 16x1x32 .... oder es ist ne le mit 512-Bit SI, allerdings durch Bestückung lediglich mit 256-Bit SI bei entsprechend weniger Wattage.

Der_Korken
2020-09-22, 18:17:10
Was wäre, wenn ich eine GPU mit einem-512-Bit SI hätte, allerdings nur 8 Speicherbausteine mit 32 Bit einsetze? Würde sich das SI automatisch halbieren, oder würde da gar nichts laufen?

Ersteres. Ein Speicherbaustein hat nur 32 Datenleitungen, du kriegst aus 8 davon also nur 256bit pro Takt raus, egal wie viel die GPU hat. Du brauchst 16 Speicherchip, um 512bit pro Takt übertragen zu können.

gedi
2020-09-22, 18:22:19
Ersteres. Ein Speicherbaustein hat nur 32 Datenleitungen, du kriegst aus 8 davon also nur 256bit pro Takt raus, egal wie viel die GPU hat. Du brauchst 16 Speicherchip, um 512bit pro Takt übertragen zu können.

Aber laufen würde das Ding?

Cyberfries
2020-09-22, 18:23:43
Die XBoneX ist glaube ich so ein Beispiel:
Du wirst in dem Post sogar erwähnt ;)

Jo, das war Teil der erwähnten Diskussion. Ich werte das mittlerweile eher als unwahrscheinlich.
Wäre die Anzahl frei wählbar, würde ich von Navy Flounder zu Sienna Cichlid eine Verdopplung erwarten.
Hier steigt die Kachelzahl jedoch nur um den Faktor 1,33. Das muss nichts mit der Menge an L2$ zu tun haben,
dann mache ich eben größere Kacheln, aber die Anzahl an Kacheln lässt Rückschlüsse zu.

.... N22 mit nur 192 Bit ausgestattet ist. Damit hat er auch 1/4 weniger Bandbreite als N10 uns scheint dennoch 20% mehr Power zu haben.....
Man kann sogar jetzt für beide Chips, N21 und N22 dasselbe PCB und Package verwenden...

Wie gesagt, die 5600xt kommt mit 288GB/s gut zurecht, trotz 56% weniger Bandbreite als die 5700.
Das ist kein Beleg für irgendwas.
Und gleiches PCB und Package? Trotz unterschiedlicher Spannungsversorgung, Chipgröße, Speicherzahl,....? soso

Aber laufen würde das Ding?

Ja, aber was bringt dir ein 512bit-Interface, wenn davon nur die Hälfte nutzbar ist?

gedi
2020-09-22, 18:30:44
Ne Menge, wenn der Chip den Anforderungen eh nicht entspricht. Sprich 68CUs bei 256-Bit.
Und die XT mit 24GB an 384-Bit bei 72 (oder 76) CUs.

Den Krempel was man da auf Twitter lesen muss?! Erscheint für mich die einzig logische Variante.

Zudem wäre es ziemlich genial. Praktisch 0% Ausschuss und das ganze Portfolio von NV 3070-90 abgedeckt!

Zergra
2020-09-22, 19:16:50
Ne Menge, wenn der Chip den Anforderungen eh nicht entspricht.


Eher nicht, dachte ein SI lässt sich vergleis weise schlecht Shrinken. Daher kann so ein 512bit viel Platz wegnehmen und viel Geld kosten.
Ich mein irgendwas bei 100mm² für 512bit
Das baut man nicht ein und beschneidet das komplett.


Die Gerücht das BN nicht ganz so Big ist, entstehen nicht einfach so.
Die Karte wird sich dann zwischen der 3070 und der 3080 einordnen, für 550-600€. NV hat die 3080 dann etwas höher geprügelt, damit sie einen Gewissen aufpreis verlangen können.

Der_Korken
2020-09-22, 19:21:32
Dass AMD eine Karte stark kastriert released und dann später noch eine Variante, die plötzlich viel schneller ist, halte ich für nahezu ausgeschlossen. Das ist genau wie die Gerüchte früher, dass die P10 eigentlich 40 statt 36 CUs hätte oder Hawaii 48 statt 44 oder der RV770 900 statt 800 Shader. Alles völliger Unsinn. Wenn AMD was vorzuzeigen hat, werden sie es auch raushauen und wenn nicht, dann nicht.

Linmoum
2020-09-22, 19:22:08
Die Gerücht das BN nicht ganz so Big ist, entstehen nicht einfach so.Stimmt. Wer kennt ihn nicht, den Co-Prozessor der Ampere-Grafikkarten.

gedi
2020-09-22, 19:24:27
Eher nicht, dachte ein SI lässt sich vergleis weise schlecht Shrinken. Daher kann so ein 512bit viel Platz wegnehmen und viel Geld kosten.
Ich mein irgendwas bei 100mm² für 512bit
Das baut man nicht ein und beschneidet das komplett.


Die Gerücht das BN nicht ganz so Big ist, entstehen nicht einfach so.

Ich weiß jetzt nicht wieviel AMD für den Schrott bezahlt, der produziert wird. Von daher wäre ich mit solch Äußerungen vorsichtig. Die paar mm^2 machen den Kohl auch nimmer fett. Zudem braucht man nur eine Maske um NV in jedem Segment aus dem Spiel zu nehmen!

Zergra
2020-09-22, 19:32:17
Stimmt. Wer kennt ihn nicht, den Co-Prozessor der Ampere-Grafikkarten.

Kam ja nur durch die Bilder mit der Intel CPU auf der Rückseite :freak:

gedi
2020-09-22, 19:44:59
Kam ja nur durch die Bilder mit der Intel CPU auf der Rückseite :freak:

Da gibt es auch ein paar witzige Bilder, welche auf ein Chiplet-Design seitens N2x schließen lassen.

mboeller
2020-09-22, 19:58:36
die Chiplet Idee ist verrückt...

außer, sie benutzen den GF 14nmHP Prozess für einen aktiven Interposer mit 128MB Infinity Cache (selbst der Name macht dann plötzlich Sinn). GF's 14nmHP Prozess kann eDRAM, wie man an den Power-CPUs von IBM sieht.

Vielleicht benutzen sie ja auch das GF-Chiplet als "Glue" für 2 GPUs (TSMC InFO_oS Prozess)

https://fuse.wikichip.org/news/956/globalfoundries-14hp-process-a-marriage-of-two-technologies/4/

Wäre aber insgesamt ziemlich verrückt ... und genial. Und viel zu früh. Eigentlich ist das erst für RDNA3 vorgesehen.

Ravenhearth
2020-09-22, 20:05:51
Meiner Meinung nach machen die 256 Bit für 80 CUs einfach nicht viel Sinn, wenn die Karte mit 40 CUs schon 192 Bit bekommt. 384 Bit wären viel logischer. Es sei denn, das Gerücht mit dem Infinity Cache stimmt und nur der größte Chip bekommt ihn.

Wobei fraglich ist, wieso AMD >100mm² an wertvoller 7nm-Chipfläche opfern sollte, nur um 128 Bit einzusparen. Aber auch ein Interposer mit eDRAM dürfte nicht billig sein. 384 Bit sind mit GDDR6 dagegen ja gut möglich. Wenn man den Cache bringt, dann muss der weitere Vorteile bringen, die über die Bandbreiteneinsparung hinaus gehen.

Dann bleibt allerdings die Frage wieso man das nicht eher gemacht hat, wenn das so einfach ist, und wieso Nvidia das nicht macht. Und wieso macht man das anscheinend nur beim größten Chip aber nicht bei den kleineren?

Cyberfries
2020-09-22, 20:08:32
wurde von von @Locuza schon vor langer Zeit beantwortet:
Navy Flounders ist Navi 22.

Ist das noch aktuell? Ich habe nach den betreffenden Einträgen gesucht und konnte nichts finden.
Wieder gestrichen oder sehe ich einfach den Wald nicht?

Die paar mm^2 machen den Kohl auch nimmer fett. Zudem braucht man nur eine Maske um NV in jedem Segment aus dem Spiel zu nehmen!

Eine Lösung für alles ist nicht sinnvoll, wenn man die Nachteile an Platz- und Energieverschwendung in Kauf nehmen muss.
Unterm Strich kommt das teurer, wenn man, wie du vorschlägst, Bereiche in der Größenordnung eines N14 deaktiviert.
Bei der aktuellen Waferknappheit kann sich AMD das aus meiner Sicht nicht leisten.

unl34shed
2020-09-22, 20:11:01
Ist das noch aktuell? Ich habe nach den betreffenden Einträgen gesucht und konnte nichts finden.
Wieder gestrichen oder sehe ich einfach den Wald nicht?

N22 ist früher im Treiber genannt worden und die gleiche ID wurde später für Navy Flounder genutzt, daher geht man davon aus, dass es der gleiche Chip ist.

BoMbY
2020-09-22, 20:39:15
DIMGREY_CAVEFISH = NAVI23 (https://twitter.com/KOMACHI_ENSAKA/status/1308473475875528704).

Und übrigens auch die Bestätigung für Van Gogh = RDNA2: https://cgit.freedesktop.org/mesa/mesa/commit/?id=283686ad6762182037b708f1b5187129aff0a5dd

dargo
2020-09-22, 20:42:30
Dann bleibt allerdings die Frage wieso man das nicht eher gemacht hat, wenn das so einfach ist, und wieso Nvidia das nicht macht. Und wieso macht man das anscheinend nur beim größten Chip aber nicht bei den kleineren?
Die gleiche Frage könnte man bezüglich GDDR5X/GDDR6X bei AMD im Desktop stellen. ;)

basix
2020-09-22, 20:45:42
Meiner Meinung nach machen die 256 Bit für 80 CUs einfach nicht viel Sinn, wenn die Karte mit 40 CUs schon 192 Bit bekommt. 384 Bit wären viel logischer. Es sei denn, das Gerücht mit dem Infinity Cache stimmt und nur der größte Chip bekommt ihn.

Das ist auch meine Vermutung für solch eine Umsetzung. Die kleinen Chips bekommen 192b (14GT/s) und 256b (16GT/s) und der Grösste bekommt 256b + IF$.

Da hätten wir wieder das Halo Product ;)

384b wären aber deutlich wahrscheinlicher. 256b + IF$ würden nur aus einem Grund Sinn machen: Energieeffizienz und im Umkehrschluss maximal mögliche Performance.

why_me
2020-09-22, 20:59:21
Meiner Meinung nach machen die 256 Bit für 80 CUs einfach nicht viel Sinn, wenn die Karte mit 40 CUs schon 192 Bit bekommt. 384 Bit wären viel logischer. Es sei denn, das Gerücht mit dem Infinity Cache stimmt und nur der größte Chip bekommt ihn.

192 sind es denke ich nur wegen der Speichermenge und nicht wegen der Bandbreite (falls die 80 CUs wirklich nur 256 bit haben).
Mit "etwas" eDRAM kann man recht viel Bandbreite sparen, selbst bei der PS4 wurde scheinbar darüber nachgedacht die Bandbreite zu halbieren (klick (https://youtu.be/xHXrBnipHyA?t=2341)) und eDRAM zu verbauen. Man hat sich dagegen entschieden, weil speziell dafür programmiert werden muss. Dass wäre bei einem Cache nicht der Fall.
Zur Wahl bei der PS4 standen 176 GB/s GDDR5 vs 88GB/s GDDR5 + bis zu 1TB/s eDRAM.

Wobei fraglich ist, wieso AMD >100mm² an wertvoller 7nm-Chipfläche opfern sollte, nur um 128 Bit einzusparen. Aber auch ein Interposer mit eDRAM dürfte nicht billig sein. 384 Bit sind mit GDDR6 dagegen ja gut möglich. Wenn man den Cache bringt, dann muss der weitere Vorteile bringen, die über die Bandbreiteneinsparung hinaus gehen.

Dann bleibt allerdings die Frage wieso man das nicht eher gemacht hat, wenn das so einfach ist, und wieso Nvidia das nicht macht. Und wieso macht man das anscheinend nur beim größten Chip aber nicht bei den kleineren?

Man könnte den Memory Controller + IO auf einen 12nm Chip auslagern. Ausgehend von Navi10 wäre das ca. der halbe Chip.
Bei einem 80CU BN mit 512 bit wären es bestimmt auch noch 40% die man sparen könnte.
Da AMD aktuell Kapazitätsprobleme bei 7nm hat, würde es sich theoretisch schon lohnen, diese Fläche zu sparen und in einen anderen Prozess auszulagern. Dazu kommt noch, dass 7nm Wafer relativ teuer sind.

Je mehr ich darüber nachdenke, desto eher könnte ich mir anhand der Gerüchtelage vorstellen, dass wir eine stacked GPU sehen. 12nm IO DIE mit eDRAM und darauf ein 7nm GPU die um Memory Controller und IO teil beschnitten wurde.
Dazu würde mMn. auch passen, dass wir ein Verhältnis von 2x zwischen den beiden Chips sehen und nicht 1,66x wie es sonst bei AMDs Chip Abstufungen war. Ein größeres Salvage lohnt sich wegen dem Aufwand mehr, als ein seperater Chip und die Flächenersparnis bei Faktor 1,66 wäre auch nicht so groß, da die CUs einen größeren Anteil am Chip haben. [Alles reine Speku meinerseits]

gedi
2020-09-22, 21:07:24
Ist das noch aktuell? Ich habe nach den betreffenden Einträgen gesucht und konnte nichts finden.
Wieder gestrichen oder sehe ich einfach den Wald nicht?



Eine Lösung für alles ist nicht sinnvoll, wenn man die Nachteile an Platz- und Energieverschwendung in Kauf nehmen muss.
Unterm Strich kommt das teurer, wenn man, wie du vorschlägst, Bereiche in der Größenordnung eines N14 deaktiviert.
Bei der aktuellen Waferknappheit kann sich AMD das aus meiner Sicht nicht leisten.

Immer noch besser als Ausschuss. Ich verkaufe nen Ausschuss mit 16GB bei 256-Bit bei 14GPS für 549 Teuronen und bin trotzdem noch schneller als ne 3070Ti. Also bitte ....

dargo
2020-09-22, 21:09:18
Dazu kommt noch, dass 7nm Wafer relativ teuer sind.

Sind sie das wirklich noch heute wenn AMD bzw. die Boardpartner 158mm² in ~150€ ohne Märchensteuer inkl. 8GB GDDR6 + PCB + Spannungsversorgung + Kühler + Logistikkosten reinpackt?
https://geizhals.de/powercolor-radeon-rx-5500-xt-axrx-5500xt-8gbd6-dh-oc-a2199372.html?hloc=de

Ist für mich schwer vorstellbar.

basix
2020-09-22, 21:14:53
Startpreis war 270 Euro und das Zauberwort heisst Marge. AMD möchte für alle kommenden Produkte >50% Bruttomarge sehen.

why_me
2020-09-22, 21:17:28
Sind sie das wirklich noch heute wenn AMD bzw. die Boardpartner 158mm² in ~150€ ohne Märchensteuer inkl. 8GB GDDR6 + PCB + Spannungsversorgung + Kühler + Logistikkosten reinpackt?
https://geizhals.de/powercolor-radeon-rx-5500-xt-axrx-5500xt-8gbd6-dh-oc-a2199372.html?hloc=de

Ist für mich schwer vorstellbar.

7nm Wafer kosteten 10k$ vor ein paar Jahren, letztens habe ich eine Tabelle gesehen, in der sie auf 9,4k$ gefallen sein sollen. AMD wird durch die Menge weniger Zahlen, aber 8k$/Wafer sind es denke ich dennoch.
Die 158mm² passen fast 400 mal auf einen 300mm Wafer, das ergibt unter 25$ pro Chip. :wink:

E: Gefunden https://twitter.com/chiakokhua/status/1306437988801486848
https://pbs.twimg.com/media/EiFmaWJWsAE9M2v?format=jpg&name=small

Linmoum
2020-09-22, 21:19:35
Startpreis war 270 Euro und das Zauberwort heisst Marge. AMD möchte für alle kommenden Produkte >50% Bruttomarge sehen.Die >50% galten schon letztes Jahr für zukünftige N7-Produkte. Davon ab ist das mit dem Preis in dem Fall auch etwas irreführend, denn die UVP seitens AMD für eine 5500XT mit 8GiB lag bei 210€.

Berniyh
2020-09-22, 21:20:30
Ist das noch aktuell? Ich habe nach den betreffenden Einträgen gesucht und konnte nichts finden.
Wieder gestrichen oder sehe ich einfach den Wald nicht?
Die Einträge aus pal die er erwähnt wurden tatsächlich gestrichen, sind aber in der Historie noch verfügbar:
https://github.com/GPUOpen-Drivers/pal/blob/39abe2297ca58a2b84dcd9bc5e238fbc399bd6e0/src/core/imported/addrlib/src/amdgpu_asic_addr.h#L111

Gestrichen wahrscheinlich, weil man ungerne Chip-spezifische Branches drin hat, wenn das nicht sein muss.
Oder natürlich weil es noch nicht an die Öffentlichkeit sollte, aber dann wäre es da eh zu spät gewesen.

bzgl. dem Zitat von ihm liegt es daran, dass der entsprechende Branch gestrichen wurde, da amd-staging-drm-next-navy-flounder in amd-staging-drm-next und später in drm-next gemergt wurde. Der Branch war einfach überflüssig.
Die Commits sind aber noch da (leider aber mit anderer ID, weil der Branch rebased wurde …). Müsste das hier sein:
https://cgit.freedesktop.org/~agd5f/linux/commit/?id=543aa2595c238aab6966366bd236b2beb5088d5e

Generell kann ich sehr empfehlen sich den Linux Kernel per git zu ziehen und da den verlinkten Remote hinzuzufügen. Das macht es wesentlich einfacher irgendwas zu suchen. ;)

why_me
2020-09-22, 21:21:15
Die Marge geht bei AMD mit Sicherheit nicht auf die ganze Karte, das ist Sache der AIBs, sondern nur auf die Chips.

Berniyh
2020-09-22, 21:22:32
DIMGREY_CAVEFISH = NAVI23 (https://twitter.com/KOMACHI_ENSAKA/status/1308473475875528704).
Alter, was die sich für Namen einfallen lassen …

(Ich weiß, dass die von einem Zufallsgenerator selektiert werden.)

basix
2020-09-22, 21:26:20
Die Marge geht bei AMD mit Sicherheit nicht auf die ganze Karte, das ist Sache der AIBs, sondern nur auf die Chips.

Das ist eh klar. Je nach dem verkauft AMD aber den Speicher mit (mit vermutlich geringerer Marge).

gedi
2020-09-22, 21:27:14
Die >50% galten schon letztes Jahr für zukünftige N7-Produkte. Davon ab ist das mit dem Preis in dem Fall auch etwas irreführend, denn die UVP seitens AMD für eine 5500XT mit 8GiB lag bei 210€.

Ich komme aus der Industrie und mehr als 1.5% an Ausschuss sind inakzeptabel!

Ich hänge im Chipdesign nicht drin, wirtschaftlich macht mein Vorschlag ganz einfach Sinn! Sprich: 0% Ausschuss verlagert auf viele Variationen. Viel billiger kann man einen Chip nicht designen, der outperformen und skalar bleiben soll.

6900LLE 64 CUs bei 8GB 14GPS (maybe 6800)
6900LE 68 CUs bei 16GB 16GPS (maybe 6800XT)
6900XT 72 oder 76 CUs bei 384–Bit 24 GB 16GPS
6900XTX 80CUs 512-Bit bei 32GB 16GPS

Preispunkte für Schrott-kein Schrott:

449€-1099€

Sieht in der Bilanz erstklassig aus